WO2021033809A1 - Mobile terminal - Google Patents

Mobile terminal Download PDF

Info

Publication number
WO2021033809A1
WO2021033809A1 PCT/KR2019/010678 KR2019010678W WO2021033809A1 WO 2021033809 A1 WO2021033809 A1 WO 2021033809A1 KR 2019010678 W KR2019010678 W KR 2019010678W WO 2021033809 A1 WO2021033809 A1 WO 2021033809A1
Authority
WO
WIPO (PCT)
Prior art keywords
depth
user
hand
depth image
camera
Prior art date
Application number
PCT/KR2019/010678
Other languages
French (fr)
Korean (ko)
Inventor
이선혁
이동주
허찬휘
김찬수
남윤옥
권기석
김형도
이정호
정창영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/010678 priority Critical patent/WO2021033809A1/en
Publication of WO2021033809A1 publication Critical patent/WO2021033809A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones

Definitions

  • the present invention relates to a mobile terminal. More specifically, it can be applied to a technical field that provides an input signal through a user's hand motion without a direct touch.
  • Terminals can be divided into mobile/portable terminals and stationary terminals depending on whether they can be moved. Again, mobile terminals can be divided into handheld terminals and vehicle mounted terminals depending on whether the user can directly carry them.
  • the functions of mobile terminals are diversifying. For example, there are functions of data and voice communication, taking pictures and videos through a camera, recording voice, playing music files through a speaker system, and outputting images or videos to the display. Some terminals add an electronic game play function or perform a multimedia player function. In particular, recent mobile terminals can receive multicast signals providing visual content such as broadcasting and video or television programs.
  • UI user interface
  • AR augmented reality
  • the present invention is characterized in expanding the recognition range of a user's hand motion through a plurality of depth cameras.
  • the present invention obtains a depth image by photographing each at a constant angle of view, a plurality of depth cameras in which the photographing area partially overlaps, an output unit for outputting audiovisual data, the A control unit that recognizes a motion of a user's hand using the acquired depth image, and controls the output unit in response to the recognized user hand motion, wherein the control unit is acquired through a first depth camera among the plurality of depth cameras.
  • the second depth image obtained through a second depth camera that photographs an area adjacent to the area photographed by the first depth camera among the plurality of depth cameras is It provides a mobile terminal, characterized in that the merger with the first depth image to obtain the overall shape of the user's hand.
  • control unit is a movement characterized in that the second depth image acquired by the second depth camera includes the rest of the shape of the user's hand, but does not include the entire shape of the user's hand.
  • the control unit is a movement characterized in that the second depth image acquired by the second depth camera includes the rest of the shape of the user's hand, but does not include the entire shape of the user's hand.
  • the control unit when the second depth camera cannot be identified among the plurality of depth cameras, the control unit provides an alarm for guiding the user's hand into the field of view of the first depth camera. It provides a mobile terminal characterized in that it controls the output unit.
  • the controller when the entire shape of the user's hand is included in the second depth image, the controller skips merging of the depth image and determines the overall shape of the user's hand through the second depth image. It provides a mobile terminal characterized in that the acquisition.
  • the plurality of depth cameras overlap the photographing area at a specific distance or more
  • the control unit includes the first depth image and the first depth image when the user's hand is positioned at the specific distance or more. It provides a mobile terminal, characterized in that a second depth image is merged to obtain an overall shape of a user's hand.
  • the controller when the controller recognizes that the user's hand is located within the specific distance through the first depth image, the user's hand is positioned within the field of view of the first depth camera. It provides a mobile terminal, characterized in that providing the alarm.
  • the control unit when the controller recognizes that the user's hand is located within the specific distance through the first depth image, the control unit generates the alarm so that the user's hand is positioned at a distance greater than or equal to the specific distance. It provides a mobile terminal characterized in that to provide.
  • the plurality of depth cameras acquire depth images for each successive frame
  • the control unit uses the first depth image and the second depth image for each successive frame. It provides a mobile terminal, characterized in that acquiring the overall shape of the user's hand and recognizing the motion of the user's hand through a change in the overall shape of the user's hand acquired for each successive frame.
  • the present invention can widen the range of motion recognition of the user's hand through a plurality of depth cameras.
  • the present invention can recognize the entire shape of the user's hand even when the user's hand is divided and photographed through a plurality of depth cameras.
  • the present invention provides a guide according to the position of the user's hand, and the overall shape of the user's hand can be recognized through a plurality of depth cameras.
  • FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention.
  • FIGS. 1B and 1C are conceptual diagrams of an example of a mobile terminal according to the present invention viewed from different directions.
  • FIG. 2 is a conceptual diagram illustrating a photographing area photographed through a single depth camera in a mobile terminal related to the present invention.
  • FIG 3 illustrates a depth image acquired through a single depth camera in a mobile terminal related to the present invention.
  • 4 to 6 are conceptual diagrams for describing a photographing area photographed through a plurality of depth cameras in a mobile terminal related to the present invention.
  • FIG. 7 to 9 illustrate depth images acquired through a plurality of depth cameras in a mobile terminal related to the present invention.
  • FIG. 10 is a flowchart illustrating an entire processor of the present invention that senses a motion of a user's hand through a plurality of depth cameras and provides a corresponding function.
  • 11 is a diagram for describing a method of merging depth images acquired through a plurality of depth cameras.
  • FIG. 12 illustrates an embodiment of acquiring an overall shape of a user's hand by merging depth images captured through a plurality of depth cameras in a mobile terminal related to the present invention.
  • 13 and 14 are diagrams for explaining another application example of expanding a photographing area through a plurality of depth cameras.
  • Mobile terminals described in this specification include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation systems, and slate PCs.
  • Tablet PC tablet PC
  • ultrabook ultrabook
  • wearable device wearable device, for example, smartwatch, glass-type terminal (smart glass), HMD (head mounted display)), etc. may be included. have.
  • the configuration according to the embodiment described in the present specification may also be applied to a fixed terminal such as a digital TV, a desktop computer, and a digital signage, except for a case applicable only to a mobile terminal. If you are a technician, you can easily find out.
  • FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention
  • FIGS. 1B and 1C are conceptual diagrams of an example of a mobile terminal related to the present invention viewed from different directions.
  • the mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. ), etc.
  • the components shown in FIG. 1A are not essential for implementing the mobile terminal, and thus, the mobile terminal described in the present specification may have more or fewer components than those listed above.
  • the wireless communication unit 110 may be configured between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or between the mobile terminal 100 and an external server. It may include one or more modules that enable wireless communication between. In addition, the wireless communication unit 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
  • the input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, or an audio input unit, and a user input unit 123 for receiving information from a user, for example, , A touch key, a mechanical key, etc.).
  • the voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, information on surrounding environments surrounding the mobile terminal, and user information.
  • the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • G-sensor for example, camera (see 121)), microphone (microphone, see 122), battery gauge, environmental sensor (for example, barometer, hygrometer, thermometer, radiation detection sensor, It may include at least one of a heat sensor, a gas sensor, etc.), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
  • the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
  • the output unit 150 is for generating an output related to visual, auditory, or tactile sense, and may include at least one of a display 151, an audio output unit 152, a hap tip module 153, and a light output unit.
  • the display 151 may form a layer structure with the touch sensor or be integrally formed, thereby implementing a touch screen.
  • Such a touch screen can function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user, and can provide an output interface between the mobile terminal 100 and a user.
  • the interface unit 160 serves as a passage between various types of external devices connected to the mobile terminal 100.
  • the interface unit 160 connects a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. It may include at least one of a port, an audio input/output (I/O) port, an input/output (video I/O) port, and an earphone port.
  • the mobile terminal 100 may perform appropriate control related to the connected external device in response to the connection of the external device to the interface unit 160.
  • the memory 170 stores data supporting various functions of the mobile terminal 100.
  • the memory 170 may store a plurality of application programs or applications driven by the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of delivery for basic functions of the mobile terminal 100 (eg, incoming calls, outgoing functions, message reception, and outgoing functions). Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and driven by the controller 180 to perform an operation (or function) of the mobile terminal.
  • the controller 180 In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the mobile terminal 100.
  • the controller 180 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
  • the controller 180 may control at least some of the components examined together with FIG. 1A. Furthermore, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 with each other.
  • the power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to each of the components included in the mobile terminal 100.
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of a mobile terminal according to various embodiments described below.
  • the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170.
  • 1B and 1C describe basic features of a foldable mobile terminal in an unfolded state.
  • the mobile terminal 100 includes a display 151, first and second sound output units 152a and 152b, proximity sensor 141, illuminance sensor 142, light output unit 154, and first and second cameras. (121a, 121b), first and second operation units (123a, 123b), a microphone 122, an interface unit 160, and the like may be provided.
  • the camera 121a and the first operation unit 123a are disposed, the second operation unit 123b, the microphone 122 and the interface unit 160 are disposed on the side of the terminal body, and 2
  • a mobile terminal 100 in which the sound output unit 152b and the second camera 121b are disposed will be described as an example.
  • first operation unit 123a may not be provided on the front surface of the terminal body, and the second sound output unit 152b may be provided on the side of the terminal body rather than on the rear surface of the terminal body.
  • the display 151 displays (outputs) information processed by the mobile terminal 100.
  • the display 151 may display execution screen information of an application program driven in the mobile terminal 100, or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information.
  • UI User Interface
  • GUI Graphic User Interface
  • the display 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), a 3D display, and an e-ink display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • two or more displays 151 may exist depending on the implementation type of the mobile terminal 100.
  • a plurality of displays may be spaced apart or integrally disposed on one surface, or may be disposed on different surfaces, respectively.
  • the display 151 may include a touch sensor that senses a touch on the display 151 so as to receive a control command by a touch method. Using this, when a touch is made to the display 151, the touch sensor may sense the touch, and the controller 180 may generate a control command corresponding to the touch based on this.
  • Content input by the touch method may be letters or numbers, or menu items that can be indicated or designated in various modes.
  • the touch sensor is configured in the form of a film having a touch pattern and is disposed between the window 151a covering the display 151 and a plurality of layers constituting the display 151, or directly on the rear surface of the window 151a. It can also be a metal wire to be patterned. Alternatively, the touch sensor may be integrally formed with the display. For example, the touch sensor may be disposed on a substrate of the display or may be provided inside the display.
  • the display 151 may form a touch screen together with a touch sensor, and in this case, the touch screen may function as a user input unit 123 (see FIG. 1A). In some cases, the touch screen may replace at least some functions of the first manipulation unit 123a.
  • the first sound output unit 152a may be implemented as a receiver that transmits a call sound to the user's ear, and the second sound output unit 152b is a loud speaker that outputs various alarm sounds or multimedia playback sounds. ) Can be implemented.
  • a sound hole for emitting sound generated from the first sound output unit 152a may be formed in the window 151a of the display 151.
  • the present invention is not limited thereto, and the sound may be configured to be emitted along an assembly gap between structures (eg, a gap between the window 151a and the front case 101).
  • the externally formed hole for sound output is not visible or hidden, so that the appearance of the mobile terminal 100 may be more simple.
  • the light output unit is configured to output light to notify when an event occurs. Examples of the event include message reception, call signal reception, missed call, alarm, schedule notification, e-mail reception, and information reception through an application.
  • the controller 180 may control the light output unit so that light output is terminated.
  • the first camera 121a processes an image frame of a still image or moving image obtained by an image sensor in a photographing mode or a video call mode.
  • the processed image frame may be displayed on the display 151 and may be stored in the memory 170.
  • the first and second manipulation units 123a and 123b are an example of a user input unit 123 that is manipulated to receive a command for controlling the operation of the mobile terminal 100, and may also be collectively referred to as a manipulating portion. have.
  • the first and second operation units 123a and 123b may be employed in any manner as long as the user operates while receiving a tactile feeling such as touch, push, and scroll.
  • the first and second manipulation units 123a and 123b may also be employed in a manner in which the first and second manipulation units 123a and 123b are operated without a user's tactile feeling through proximity touch, hovering touch, or the like.
  • the first manipulation unit 123a is illustrated as being a touch key, but the present invention is not limited thereto.
  • the first operation unit 123a may be a push key (mechanical key) or may be configured as a combination of a touch key and a push key.
  • Contents input by the first and second manipulation units 123a and 123b may be variously set.
  • the first operation unit 123a receives commands such as menu, home key, cancel, search, etc.
  • the second operation unit 123b is output from the first or second sound output units 152a, 152b.
  • Commands such as adjusting the volume of sound and switching to the touch recognition mode of the display 151 may be input.
  • a rear input unit (not shown) may be provided on the rear surface of the terminal body.
  • This rear input unit is manipulated to receive a command for controlling the operation of the mobile terminal 100, and input contents may be variously set. For example, commands such as power on/off, start, end, scrolling, etc., adjusting the volume of sound output from the first and second sound output units 152a and 152b, and entering the touch recognition mode of the display 151 Commands such as conversion can be input.
  • the rear input unit may be implemented in a form capable of inputting by a touch input, a push input, or a combination thereof.
  • the rear input unit may be disposed to overlap the front display 151 in the thickness direction of the terminal body.
  • the rear input unit may be disposed on the rear upper end of the terminal body so that the user can easily manipulate the terminal body using the index finger.
  • the present invention is not necessarily limited thereto, and the position of the rear input unit may be changed.
  • the display 151 may be configured with a larger screen.
  • the mobile terminal 100 may be provided with a fingerprint recognition sensor 143 for recognizing a user's fingerprint, and the controller 180 may use fingerprint information detected through the fingerprint recognition sensor 143 as an authentication means.
  • the fingerprint recognition sensor may be embedded in the display 151 or the user input unit 123, or may be provided in a separate location.
  • the microphone 122 is configured to receive a user's voice and other sounds.
  • the microphone 122 may be provided in a plurality of locations and configured to receive stereo sound.
  • the interface unit 160 becomes a passage through which the mobile terminal 100 can be connected to an external device.
  • the interface unit 160 is a connection terminal for connection with other devices (eg, earphones, external speakers), a port for short-range communication (eg, an infrared port (IrDA Port), a Bluetooth port (Bluetooth Port), a wireless LAN port, etc.], or at least one of a power supply terminal for supplying power to the mobile terminal 100.
  • the interface unit 160 may be implemented in the form of a socket for accommodating an external card such as a subscriber identification module (SIM) or a user identity module (UIM), or a memory card for storing information.
  • SIM subscriber identification module
  • UIM user identity module
  • a second camera 121b may be disposed on the rear surface of the terminal body.
  • the second camera 121b has a photographing direction substantially opposite to that of the first camera 121a.
  • the second camera 121b may include a plurality of lenses arranged along at least one line.
  • the plurality of lenses may be arranged in a matrix format.
  • Such a camera may be referred to as an'array camera'.
  • an image may be photographed in various ways using a plurality of lenses, and an image of better quality may be obtained.
  • the flash 124 may be disposed adjacent to the second camera 121b.
  • the flash 124 illuminates light toward the subject when the subject is photographed by the second camera 121b.
  • a second sound output unit 152b may be additionally disposed on the terminal body.
  • the second sound output unit 152b may implement a stereo function together with the first sound output unit 152a, and may be used to implement a speakerphone mode during a call.
  • At least one antenna for wireless communication may be provided in the terminal body.
  • the antenna may be embedded in the terminal body or may be formed in a case.
  • an antenna forming a part of the broadcast receiving module 111 (refer to FIG. 1A) may be configured to be retractable from the terminal body.
  • the antenna may be formed in a film type and attached to the inner surface of the rear cover 103, or a case including a conductive material may be configured to function as an antenna.
  • the terminal body is provided with a power supply unit 190 (refer to FIG. 1A) for supplying power to the mobile terminal 100.
  • the power supply unit 190 may include a battery 191 built in the terminal body or configured to be detachable from the outside of the terminal body.
  • the battery 191 may be configured to receive power through a power cable connected to the interface unit 160.
  • the battery 191 may be configured to enable wireless charging through a wireless charger.
  • the wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).
  • the rear cover 103 is coupled to the rear case 102 so as to cover the battery 191 to limit the separation of the battery 191, and to protect the battery 191 from external shock and foreign substances. It is illustrated.
  • the rear cover 103 may be detachably coupled to the rear case 102.
  • the cameras applied to the present invention are located around the touch screen of the mobile device. Accordingly, it is possible to detect depth information on an object (eg, a user's finger) within a certain distance from the touch screen of the mobile device.
  • a camera can be referred to as a depth camera.
  • the first method is a method using a multi-camera (or lens), which captures visible light by using two or more cameras, and generates a 3D image using depth information.
  • the second method is to mount a separate sensor for depth sensing in the camera module, and more specifically, SL (Structured Light) and ToF (Time of Flight) methods are applied.
  • a laser having a specific pattern such as a straight line or a grid pattern
  • information in which the pattern is deformed according to the shape of the object surface is analyzed.
  • the 3D-based photographing result is derived by combining it with the photograph taken by the image sensor.
  • a laser infrared (IR) projector that transmits a specific pattern, an infrared depth sensor, an image sensor, and a 3D processor may be used.
  • depth information is calculated by measuring the time the laser travels to the object to be photographed and returns after being reflected, and then synthesizes it with a photograph taken by an image sensor to derive a 3D-based photographing result.
  • a laser infrared (IR) projector, a reception sensor, an image sensor, and a 3D processor may be used.
  • FIG. 2 is a conceptual diagram illustrating a photographing area photographed through a single depth camera in a mobile terminal related to the present invention.
  • the mobile terminal 200 of the present invention includes a depth camera 300 and may recognize a 3D motion of the user's hand 400 through the depth camera 300.
  • the mobile terminal 200 of the present invention may receive a 3D motion of the user hand 400 recognized through the depth camera 300 as an input signal controlling the mobile terminal 200.
  • the depth camera 300 of the present invention may photograph a subject located within the angle of view 301 and obtain 3D information of the subject.
  • the photographing area of the depth camera 300 may be narrower as it approaches the depth camera 300.
  • FIG. 2 shows a recognition area (a_1) capable of acquiring 3D information in a virtual plane 410 having a normal vector toward the depth camera 300 according to the distance L1 from the depth camera 300.
  • a limited embodiment is shown.
  • the recognition area a_1 from which the depth camera 300 can acquire 3D information decreases as the distance L1 to the depth camera 300 decreases, and the unrecognized area a_2 in which 3D information cannot be obtained. ) Can be large.
  • a problem of erroneously recognizing the motion of the user's hand may occur because the area for recognizing the user's hand 400 at a near distance is narrow.
  • the above problem is checked through a depth image acquired through a single depth camera.
  • FIG. 3 shows a depth image acquired through a single depth camera in a mobile terminal related to the present invention.
  • FIG. 3(a) shows an embodiment in which the user's hand shape 302 is completely included on the depth image b_1 corresponding to the recognition area a_1 of FIG. 2.
  • FIG. 3(b) shows an embodiment in which a part of the shape of a common hand 302 is included on the depth image b_1 corresponding to the recognition area a_1 of FIG. 2.
  • the depth camera of the present invention acquires the depth image b_1 at preset time intervals, discriminates whether the shape included in the depth image b_1 corresponds to the shape of the user's hand, and the shape of the user hand included in the depth image b_1 It is possible to recognize the user's hand motion through the change of and receive an input signal in response to the user's hand motion.
  • the mobile terminal of the present invention can correctly recognize the user hand motion and receive an input signal corresponding thereto. to be.
  • the mobile terminal of the present invention incorrectly recognizes the user's hand motion and inputs irrelevant to the user's intention. Can receive signals.
  • an object of the present invention is to expand an area in which a user's hand can be recognized by including a plurality of depth cameras in a mobile terminal.
  • 4 to 6 are conceptual diagrams for describing a photographing area photographed through a plurality of depth cameras in a mobile terminal related to the present invention.
  • the mobile terminal 200 of the present invention includes a plurality of depth cameras 310 to 340 each acquiring a depth image, an output unit (not shown) for outputting audio-visual data, and a control unit connecting the plurality of depth cameras 310 to 340 (Not shown) may be included.
  • the mobile terminal 200 of the present invention may include a plurality of depth cameras 310 to 340 so that the photographing range partially overlaps.
  • 4 to 6 illustrate an embodiment in which a plurality of depth cameras 310 to 340 are provided in the mobile terminal 200 to face the same direction.
  • Optical axes of the plurality of depth cameras 310 to 340 provided in the mobile terminal 200 may be parallel to each other.
  • the plurality of depth cameras 310 to 340 may be provided in the mobile terminal 200 so that the optical axes form a mutual inclination while partially overlapping the shooting range.
  • FIG. 4 to 5 illustrate an embodiment in which four depth cameras 310 to 340 are provided in the mobile terminal 200.
  • the number of depth cameras 310 to 340 included in the mobile terminal 200 of the present invention is not limited to four.
  • FIG. 4 to 5 illustrate embodiments in which regions photographed by a plurality of depth cameras 310 to 340 in the mobile terminal 200 correspond to each quadrant or are separated by a grid.
  • the mobile terminal 200 of the present invention may be provided with a plurality of depth cameras 310 to 340 so as to be arranged in one direction.
  • Areas each photographed by the plurality of depth cameras 310 to 340 may be in contact with, spaced apart, or overlap according to a distance to the mobile terminal 200. 4 to 6 show each embodiment.
  • FIG. 4 shows an embodiment in which a photographing area photographed by a plurality of depth cameras 310 to 340 contacts.
  • FIG. 4(a) is a conceptual diagram showing an area photographed by a plurality of depth cameras 310 and 340 from the side
  • FIG. 4(b) is a front view of an area photographed by a plurality of depth cameras 310 to 340 It shows a conceptual diagram viewed from the (multiple depth cameras 310 to 340).
  • the plurality of depth cameras 310 to 340 are provided to be spaced apart from each other, and may capture regions within the angles of view 311 to 341, respectively.
  • FIG. 4(a) shows an embodiment in which the recognition area a1_1 of the first depth camera 310 and the recognition area a4_1 of the fourth depth camera 340 contact on a virtual plane 410 Are doing.
  • FIG. 4B shows a recognition area a1_1 of the first depth camera 310, a recognition area a2_1 of the second depth camera 320, and a third depth camera 330 on the virtual plane 410.
  • the recognition area a3_1 of) and the recognition area a4_1 of the fourth depth camera 340 correspond to each quadrant and are in contact with each other.
  • FIG. 5 illustrates an embodiment in which a plurality of depth cameras 310 to 340 photographing areas are spaced apart.
  • FIG. 5(a) is a conceptual diagram showing an area photographed by a plurality of depth cameras 310 and 340 from the side
  • FIG. 5(b) is a front view of an area photographed by the plurality of depth cameras 310 to 340 It shows a conceptual diagram viewed from the (multiple depth cameras 310 to 340).
  • the plurality of depth cameras 310 to 340 are provided to be spaced apart from each other, and may capture regions within the angles of view 311 to 341, respectively.
  • FIG. 5(a) shows an unrecognized area between the recognition area a1_1 of the first depth camera 310 and the recognition area a4_1 of the fourth depth camera 340 on the virtual plane 410. a12_2) is shown.
  • FIG. 5B shows a recognition area a1_1 of the first depth camera 310, a recognition area a2_1 of the second depth camera 320, and a third depth camera 330 on the virtual plane 410.
  • An unrecognized area a12_2 is included between the recognition areas a2_1, and an unrecognized area between the recognition area a2_1 of the second depth camera 320 and the recognition area a3_1 of the third depth camera 330 ( a23_2), including an unrecognized area a34_2 between the recognition area a3_1 of the third depth camera 330 and the recognition area a4_1 of the fourth depth camera 340, and a fourth depth camera ( An embodiment including an unrecognized area a41_2 between the recognition area a4_1 of 340 and the recognition area a1_1 of the first depth camera 310 is illustrated.
  • FIG. 6 shows an embodiment in which a photographing area photographed by a plurality of depth cameras 310 to 340 is overlapped.
  • FIG. 6(a) is a conceptual diagram showing an area photographed by a plurality of depth cameras 310 and 340 from the side
  • FIG. 6(b) is a front view of an area photographed by the plurality of depth cameras 310 to 340 It shows a conceptual diagram viewed from the (multiple depth cameras 310 to 340).
  • the plurality of depth cameras 310 to 340 are provided to be spaced apart from each other, and may capture regions within the angles of view 311 to 341, respectively.
  • the recognition area a1_1 of the first depth camera 310 and the recognition area a4_1 of the fourth depth camera 340 are overlapped areas a12_3 on the virtual plane 410
  • 6(b) shows a recognition area a1_1 of the first depth camera 310, a recognition area a2_1 of the second depth camera 320, and a third depth camera 330 on the virtual plane 410.
  • the recognition area a3_1 and the recognition area a4_1 of the fourth depth camera 340 correspond to each quadrant, and the recognition area a1_1 of the first depth camera 310 and the second depth camera 320
  • the recognition area a2_1 forms an overlap area a12_3, and the recognition area a2_1 of the second depth camera 320 and the recognition area a3_1 of the third depth camera 330 form an overlap area a23_3
  • the recognition area a3_1 of the third depth camera 330 and the recognition area a4_1 of the fourth depth camera 340 form an overlapping area a34_3, and the recognition area of the fourth depth camera 340 ( a4_1) and the recognition area a1_1 of the first depth camera 310 form an overlapping area a41_3.
  • the virtual plane 410 of FIG. 4 is formed only in a limited position (a position separated from the mobile terminal 200 by a minimum length (L_min) where the photographing areas of the plurality of depth cameras 310 to 340 overlap) It is meaningful as a boundary.
  • the mobile terminal 200 of the present invention is limited in obtaining 3D information of the subject through a plurality of cameras 310 to 340. This can be.
  • the present invention may guide the subject to move within the angle of view of a specific depth camera, or guide the subject to be located farther than the minimum length L_min where the photographing areas of the plurality of depth cameras 310 to 340 overlap.
  • photographing through the first to fourth depth cameras 310 to 340 3D information of the subject may be obtained by merging the obtained depth images.
  • the subject is located in the overlapping areas a12_3, a23_3, a34_3, and a41_3, it is necessary to process (edit) the redundant information.
  • an embodiment of the depth image captured by the first to fourth depth cameras 310 to 340 will be described.
  • FIGS. 7 to 9 illustrate depth images acquired through a plurality of depth cameras in a mobile terminal related to the present invention. Specifically, FIGS. 7 to 9 illustrate depth images captured by the first to fourth depth cameras 310 to 340 when the subject is positioned on the virtual plane 410 of FIG. 5.
  • the mobile terminal of the present invention analyzes the depth image of the corresponding depth camera 310 to 340 The motion of the user's hand can be detected.
  • FIG. 7 illustrates an embodiment in which the entire user's hand is included in a photographing area of one of the plurality of depth cameras 310 to 340.
  • 7A illustrates an embodiment in which the overall shape 302 of a subject is included in the second depth image b2_1 acquired through the second depth camera.
  • FIG. 7B shows an embodiment in which the overall shape 302 of the subject is included in the first depth image b1_1 acquired through the first depth camera.
  • 7(c) shows an example in which the overall shape 302 of the subject is included in the third depth image b3_1 acquired through the third depth camera.
  • 7(d) shows an embodiment in which the overall shape 302 of the subject is included in the fourth depth image b4_1 acquired through the fourth depth camera.
  • the overall shape 302 of the subject is included in the depth image acquired by a specific depth camera, the depth images acquired from a plurality of depth cameras do not need to be merged, By analyzing the depth image, the motion of the user's hand can be detected.
  • the entire shape of the user's hand is not completely included in the specific depth image, but is divided and included in the plurality of depth images acquired by each of the plurality of depth cameras, the entire shape of the user's hand cannot be recognized through the specific depth image. .
  • FIG. 8 shows an embodiment in which the entire subject is divided and included in a photographing area of a plurality of depth cameras 310 to 340.
  • 8(a) shows that the overall shape 302 of the subject is divided and included in a second depth image b2_1 acquired through a second depth camera and a third depth image b3_1 acquired through a third depth camera.
  • 8(b) shows that the overall shape 302 of the subject is divided and included in the first depth image b1_1 acquired through the first depth camera and the fourth depth image b4_1 acquired through the fourth depth camera.
  • An example is shown.
  • 8(c) shows that the overall shape 302 of the subject is divided and included in the third depth image b3_1 acquired through the third depth camera and the fourth depth image b4_1 acquired through the fourth depth camera.
  • 8(d) shows that the overall shape 302 of the subject is divided and included in the second depth image b2_1 acquired through the second depth camera and the first depth image b1_1 acquired through the first depth camera.
  • An example is shown.
  • the second depth image b2_1 and the third depth image b3_1 may be merged to identify the overall shape of the user's hand, and the user's hand motion may be sensed.
  • the first depth image b1_1 and the fourth depth image b4_1 may be merged to identify the entire shape of the user's hand, and the user's hand motion may be sensed.
  • the third depth image b3_1 and the fourth depth image b4_1 may be merged to identify the entire shape of the user's hand, and the user's hand motion may be sensed.
  • the second depth image b2_1 and the first depth image b1_1 may be merged to discriminate the entire shape of the user's hand and detect the user's hand motion.
  • the entire shape of the user's hand may be obtained by merging the depth image including the entire shape of the user's hand from among the depth images obtained by each of the plurality of depth cameras. That is, among the depth images each acquired by the plurality of depth cameras, a depth image that does not include a part of the user's hand does not need to be merged otherwise. That is, it is not necessary to merge the first depth image b1_1 and the fourth depth image b4_1 in FIG. 8A. In addition, in FIG. 8B, the second depth image b2_1 and the third depth image b3_1 do not need to be merged. In addition, in FIG.
  • the second depth image b2_1 and the first depth image b1_1 need not be merged.
  • the third depth image b3_1 and the fourth depth image b4_1 do not need to be merged.
  • the overall shape of the user's hand may be obtained by merging three or more depth images.
  • FIG. 9 shows an embodiment in which the shape of a user's hand is divided and included in four depth images.
  • the present invention combines all of the first depth image (b1_1), the second depth image (b2_1), the third depth image (b3_1), and the fourth depth image (b4_1) to discriminate the entire shape of the user's hand, and Hand motion can be detected.
  • the mobile terminal of the present invention obtains a depth image by photographing each at a constant angle of view, a plurality of depth cameras in which the photographing area partially overlaps, an output unit for outputting audio-visual data, and the user's hand using the acquired depth image.
  • a control unit for controlling the output unit in response to the motion of the user hand recognized and recognized, wherein the control unit includes a part of the shape of the user hand in the first depth image acquired through the first depth camera among the plurality of depth cameras. If included, a second depth image acquired through a second depth camera that photographs an area adjacent to an area photographed by the first depth camera among the plurality of depth cameras is merged with the first depth image to form the entire user's hand. Shape can be acquired.
  • the mobile terminal of the present invention may discriminate the second depth camera from among the plurality of depth cameras through a position in which a part of the shape of the user's hand is included in the first depth image. For example, when a part of the shape of the user's hand is located in the lower area in the first depth image, the present invention may identify a camera that photographs adjacent to the lower area in the shooting area of the first depth camera by the second depth camera. I can. The present invention may obtain the second depth image to be merged into the first depth image through the second depth camera. That is, in the present invention, when the user's hand is divided and included in the depth image, it is possible to discriminate that a part of the user's hand is included through any one depth image, and the depth image including the remaining part may be discriminated.
  • a partial shape of the user's hand may be included in the first depth image, and the entire shape of the user's hand may be included in the second depth image because the photographing area partially overlaps.
  • the present invention may acquire the entire shape of the user's hand through the second depth image, and recognize the motion of the user's hand through the second depth image continuously photographed. That is, in the present invention, the first depth image includes a partial shape of the user's hand, the second depth image includes the remaining shape of the user's hand, and the second depth image does not include the entire shape of the user's hand.
  • the entire shape of the user's hand may be obtained by merging the first depth image and the second depth image.
  • FIG. 10 is a flowchart illustrating an entire processor that senses a motion of a user's hand through a plurality of depth cameras and provides a corresponding function.
  • the mobile terminal of the present invention may each acquire a depth image through a plurality of depth cameras.
  • the plurality of depth cameras may acquire a depth image for each successive frame, and the photographing area may partially overlap.
  • the present invention can discriminate whether a shape of a user's hand is recognized from a depth image acquired from a plurality of depth cameras. (S220) In the present invention, it is possible to discriminate whether or not the shape of the user's hand is included in the depth image by using the feature of the shape of the user's hand. It is possible to discriminate whether a subject photographed through the depth camera corresponds to the user's hand by using a partial feature of the user's hand of the present invention.
  • the present invention when the shape of the user's hand is not recognized in the depth image obtained from each of the plurality of depth cameras (S220, No), the depth image obtained through the plurality of depth cameras is not merged and continues to be acquired. Can be done with The present invention can discriminate whether the shape of the user's hand is included in the continuously acquired depth image.
  • the entire shape of the user's hand is included in the depth image acquired from a single depth camera. I can discern whether it works. (S230)
  • the present invention when the entire user's hand is located within one depth camera photographing area, and the entire shape of the user's hand can be discriminated from the depth image acquired through the corresponding depth camera, (S230, Yes) the user's hand motion through the corresponding depth camera. Can detect and provide a corresponding function. In this case, the present invention may omit merging of depth images acquired through different depth cameras.
  • 11 is a diagram for describing a method of merging depth images acquired through a plurality of depth cameras.
  • Each of the plurality of depth cameras 310 and 320 acquires a depth image corresponding to the photographing region at a constant angle of view, but the photographing regions may overlap from a specific distance.
  • the specific distance may correspond to a minimum distance L_min at which regions recognizable through a plurality of depth cameras start to overlap.
  • an unrecognized area may occur between areas photographed by a plurality of depth cameras below the specific distance.
  • the present invention can guide the position of the user's hand through the output unit of the present invention, without merging depth images acquired from a plurality of depth cameras.
  • the user's hand may be guided to be positioned within the angle of view of a specific camera, or may be guided to be positioned at a specific distance or more.
  • the entire shape of the user's hand may be obtained by merging depth images acquired through a plurality of depth cameras.
  • the shooting areas of the plurality of depth cameras are divided so that they do not overlap, and the depths respectively acquired according to the divided areas
  • the first depth camera 310 and the second depth camera 320 of the present invention define recognition regions a1_1 and a2_1 corresponding to the angle of view on a virtual plane 410 having a normal vector toward the mobile terminal 200.
  • the recognition area a1_1 of the first depth camera 310 and the recognition area a2_1 of the second depth camera 320 may include an overlapping area a12_3 corresponding to a distance from the mobile terminal 200.
  • the recognition area a1_1 of the first depth camera 310 and the recognition area a2_1 of the second depth camera 320 at a distance greater than or equal to the minimum distance L_min may include an overlapping area a12_3. .
  • a depth camera that recognizes each of the overlapping regions a12_3 can be divided, and a part of the user's hand can be prevented from being repeated in the merged image.
  • the overlapping area a12_3 of the present invention is a center plane a12_4 in the optical axis of each depth camera compared to the minimum distance L_min at which the recognition areas of the first depth camera 310 and the second depth camera 320 start to overlap. It can be divided using the ratio of the minimum distance to ).
  • the center plane (a12_4) is a plane including a start point when the photographing areas of the first depth camera 310 and the second depth camera 320 overlap, and the first depth camera 310 and the second depth camera It may be a plane perpendicular to a straight line connecting 320.
  • the present invention sets a divided area (a2_1') excluding an area to be recognized through the first depth camera 310 among the overlapping areas a12_3 in the recognition area a2_1 of the second depth camera 320 Then, a second edited image b2_1 ′ corresponding to the divided area a2_1 ′ may be obtained.
  • the present invention is from the optical axis of the second depth camera 320 to the center plane (a12_4) compared to the minimum distance (L_min) at which the recognition regions of the first depth camera 310 and the second depth camera 320 start to overlap.
  • the ratio (rate 2) of the minimum distance (H2_min) can be calculated.
  • the present invention uses the distance (x_r) from the minimum point where the recognition regions of the first depth camera 310 and the second depth camera 320 starts to overlap to the virtual plane 410 and the calculated ratio (rate 2). Thus, an area y2_r to be recognized through the first depth camera 310 in the overlapping area a12_3 may be calculated.
  • the present invention may set the divided area a2_1 ′ excluding the area y2_r to be recognized through the first depth camera 310 in the recognition area a2_1 of the second depth camera 320.
  • the present invention provides a divided area (a1_1') excluding an area to be recognized by the second depth camera 320 among the overlapping areas (a12_3) in the recognition area (a1_1) of the first depth camera 310.
  • a first edited image b1_1 ′ corresponding to the divided region a1_1 ′ may be obtained.
  • FIG. 12 illustrates an embodiment of acquiring an overall shape of a user's hand by merging depth images captured through a plurality of depth cameras in a mobile terminal related to the present invention.
  • FIG. 12A illustrates depth images b1_1, b2_1, b3_1, and b4_1 respectively acquired through first to fourth depth cameras.
  • the overall shape 302 of the user's hand is shown in an embodiment in which the second depth image b2_1 and the third depth image b3_1 are divided and included in the depth images.
  • FIG. 12(b) illustrates an embodiment in which the entire shape of the user's hand is obtained by merging the second depth image b2_1 and the third depth image b3_1 of FIG. 12(a).
  • FIG. 12(b) shows the second depth in the second edited image b2_1' and the third depth image b3_1 excluding a portion to be implemented through the third depth image b3_1 in the second depth image b2_1.
  • An exemplary embodiment in which the merged image 303 is obtained by merging the third edited image b3_1' excluding a portion to be implemented through the image b2_1 is illustrated.
  • the merged image 303 may correspond to a depth image captured in a continuous area without an unrecognized area or an overlapping area.
  • the merged image 303 is acquired for each shooting frame, and the motion of the user's hand is recognized through the acquired merged image 303, and a corresponding function Can provide.
  • 13 and 14 are diagrams for explaining another application example of expanding a photographing area through a plurality of depth cameras.
  • the present invention may include a plurality of depth cameras in devices other than a mobile terminal, and expand a photographing area for obtaining a depth image.
  • FIG. 13 illustrates an embodiment including a plurality of depth cameras 310 to 340 in the display device 200.
  • the display device 200 of the present invention may acquire a depth image corresponding to a wider area by providing a plurality of depth cameras 310 to 340 at each corner of the display device 200.
  • the plurality of depth cameras 310 to 340 may obtain corresponding depth images by dividing the photographing area.
  • the divided photographing areas a1_1 ′ to a4_1 ′ are continuous without an unrecognized area, and may not overlap.
  • FIG. 14 shows an embodiment including a plurality of depth cameras 310 to 340 in a vehicle.
  • the plurality of depth cameras 310 to 340 may be provided at a corner of a front windshield of a vehicle to divide and photograph a region where a driver's hand is located.
  • the plurality of depth cameras 310 to 340 may be provided such that an optical axis direction for acquiring a depth image faces an area where a driver's hand is located.
  • the plurality of depth cameras 310 to 340 may obtain corresponding depth images by dividing the photographing area.
  • the divided photographing areas a1_1 ′ to a4_1 ′ are continuous without an unrecognized area, and may not overlap.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention provides a mobile terminal comprising: a plurality of depth cameras for acquiring depth images by photographing at particular angles of view, respectively, wherein photographing areas are partially overlapped; an output unit for outputting audio-visual data; and a control unit for recognizing a motion of a user's hand by using the acquired depth images, and controlling the output unit in response to the recognized motion of the user's hand, wherein, when a part of the shape of the user's hand is included in a first depth image acquired via a first depth camera among the plurality of depth cameras, the control unit acquires the entire shape of the user's hand by merging, into the first depth image, a second depth image acquired via a second depth camera among the plurality of depth cameras, which captures an adjacent area of an area captured by the first depth camera.

Description

이동 단말기 Mobile terminal
본 발명은 이동 단말기에 관한 것이다. 보다 상세하게는, 직접 터치 없이 사용자의 손 모션을 통해 입력 신호를 제공하는 기술 분야에 적용이 가능하다.The present invention relates to a mobile terminal. More specifically, it can be applied to a technical field that provides an input signal through a user's hand motion without a direct touch.
단말기는 이동 가능여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mounted terminal)로 나뉠 수 있다. Terminals can be divided into mobile/portable terminals and stationary terminals depending on whether they can be moved. Again, mobile terminals can be divided into handheld terminals and vehicle mounted terminals depending on whether the user can directly carry them.
이동 단말기의 기능은 다양화 되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이에 이미지나 비디오를 출력하는 기능이 있다. 일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히 최근의 이동 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다. The functions of mobile terminals are diversifying. For example, there are functions of data and voice communication, taking pictures and videos through a camera, recording voice, playing music files through a speaker system, and outputting images or videos to the display. Some terminals add an electronic game play function or perform a multimedia player function. In particular, recent mobile terminals can receive multicast signals providing visual content such as broadcasting and video or television programs.
이동 단말기는 삼차원 깊이 카메라 기술의 발전과 함께 삼차원 비전(Vision) 기술 기반으로 사용자의 모션(motion)이나 제스처(gesture)를 감지하여 디바이스를 제어하는 사용자 인터페이스(User Interface, UI)도 발전하고 있다. 삼차원 비전(Vision) 기반 UO는 기존 이차원 터치 기반 UI를 보완하여 다양한 어플리케이션에 적용이 가능하다. 예를 들면, 증강현실(Augmented reality, AR) 어플리케이션에서 오브젝트를 삼차원으로 제어할 수 있고, 사용자가 터치할 수 없는 위치에 디바이스가 있는 경우에도 제어할 수 있으며, 사용자의 손이 오염되거나 장갑을 끼고 있을 경우 등 터치가 어려운 경우에도 디바이스를 제어할 수 있게 해준다. 이에, 삼차원 비전(Vision) 기반 제스처 인식 기술이 각광 받고 있다.Along with the development of 3D depth camera technology, mobile terminals are also developing a user interface (UI) that controls a device by detecting a user's motion or gesture based on a 3D vision technology. UO based on 3D vision can be applied to various applications by supplementing the existing 2D touch based UI. For example, in an augmented reality (AR) application, an object can be controlled in three dimensions, even when a device is located in a position that the user cannot touch, and the user's hand is contaminated or wearing gloves. It allows you to control the device even when it is difficult to touch, such as when there is one. Accordingly, 3D vision-based gesture recognition technology is in the spotlight.
본 발명은 복수의 깊이 카메라를 통해 사용자 손 모션의 인식 범위를 넓히는데 특징이 있다.The present invention is characterized in expanding the recognition range of a user's hand motion through a plurality of depth cameras.
상기 또는 다른 목적을 달성하기 위해, 본 발명은 일 실시예에 따라, 각각 일정한 화각으로 촬영하여 깊이 이미지를 획득하고, 촬영 영역이 일부 중복되는 복수의 깊이 카메라, 시청각 데이터를 출력하는 출력부, 상기 획득한 깊이 이미지를 이용하여 사용자 손의 모션을 인지하고, 인지한 사용자 손 모션에 대응하여 상기 출력부를 제어하는 제어부를 포함하고, 상기 제어부는 상기 복수의 깊이 카메라 중 제1 깊이 카메라를 통해 획득한 제1 깊이 이미지에 사용자 손 형상의 일부가 포함되는 경우, 상기 복수의 깊이 카메라 중 상기 제1 깊이 카메라가 촬영하는 영역의 인접 영역을 촬영하는 제2 깊이 카메라를 통해 획득한 제2 깊이 이미지를 상기 제1 깊이 이미지에 병합하여 사용자 손의 전체 형상을 획득하는 것을 특징으로 하는 이동 단말기를 제공한다. In order to achieve the above or other objects, the present invention, according to an embodiment, obtains a depth image by photographing each at a constant angle of view, a plurality of depth cameras in which the photographing area partially overlaps, an output unit for outputting audiovisual data, the A control unit that recognizes a motion of a user's hand using the acquired depth image, and controls the output unit in response to the recognized user hand motion, wherein the control unit is acquired through a first depth camera among the plurality of depth cameras. When a part of the shape of the user's hand is included in the first depth image, the second depth image obtained through a second depth camera that photographs an area adjacent to the area photographed by the first depth camera among the plurality of depth cameras is It provides a mobile terminal, characterized in that the merger with the first depth image to obtain the overall shape of the user's hand.
또한, 본 발명의 일 실시예에 따라, 상기 제어부는 상기 제2 깊이 카메라가 획득하는 제2 깊이 이미지는 사용자 손 형상의 나머지를 포함하되, 사용자 손의 전체 형상이 포함되지 않는 것을 특징으로 하는 이동 단말기를 제공한다. In addition, according to an embodiment of the present invention, the control unit is a movement characterized in that the second depth image acquired by the second depth camera includes the rest of the shape of the user's hand, but does not include the entire shape of the user's hand. Provide a terminal.
또한, 본 발명의 일 실시예에 따라, 상기 제어부는 상기 복수의 깊이 카메라 중 상기 제2 깊이 카메라를 분별할 수 없는 경우, 사용자의 손을 상기 제1 깊이 카메라의 화각 내로 가이드하는 알람을 제공하도록 상기 출력부를 제어하는 것을 특징으로 하는 이동 단말기를 제공한다. In addition, according to an embodiment of the present invention, when the second depth camera cannot be identified among the plurality of depth cameras, the control unit provides an alarm for guiding the user's hand into the field of view of the first depth camera. It provides a mobile terminal characterized in that it controls the output unit.
또한, 본 발명의 일 실시예에 따라, 상기 제어부는 상기 제2 깊이 이미지에 사용자 손 형상의 전체가 포함되는 경우, 깊이 이미지 병합을 생략하고, 상기 제2 깊이 이미지를 통해 사용자 손의 전체 형상을 획득하는 것을 특징으로 하는 이동 단말기를 제공한다. In addition, according to an embodiment of the present invention, when the entire shape of the user's hand is included in the second depth image, the controller skips merging of the depth image and determines the overall shape of the user's hand through the second depth image. It provides a mobile terminal characterized in that the acquisition.
또한, 본 발명의 일 실시예에 따라, 상기 복수의 깊이 카메라는 특정 거리 이상에서 촬영 영역이 중첩되며, 상기 제어부는 사용자의 손이 상기 특정 거리 이상에 위치하는 경우, 상기 제1 깊이 이미지와 상기 제2 깊이 이미지를 병합하여 사용자 손의 전체 형상을 획득하는 것을 특징으로 하는 이동 단말기를 제공한다. In addition, according to an embodiment of the present invention, the plurality of depth cameras overlap the photographing area at a specific distance or more, and the control unit includes the first depth image and the first depth image when the user's hand is positioned at the specific distance or more. It provides a mobile terminal, characterized in that a second depth image is merged to obtain an overall shape of a user's hand.
또한, 본 발명의 일 실시예에 따라, 상기 제어부는 상기 제1 깊이 이미지를 통해 상기 특정 거리 이내에 사용자의 손이 위치하는 것을 인지한 경우, 상기 제1 깊이 카메라의 화각 내로 사용자의 손이 위치하도록 상기 알람을 제공하는 것을 특징으로 하는 이동 단말기를 제공한다. In addition, according to an embodiment of the present invention, when the controller recognizes that the user's hand is located within the specific distance through the first depth image, the user's hand is positioned within the field of view of the first depth camera. It provides a mobile terminal, characterized in that providing the alarm.
또한, 본 발명의 일 실시예에 따라, 상기 제어부는 상기 제1 깊이 이미지를 통해 상기 특정 거리 이내에 사용자 손이 위치하는 것을 인지한 경우, 상기 특정 거리 이상 거리에 사용자의 손이 위치하도록 상기 알람을 제공하는 것을 특징으로 하는 이동 단말기를 제공한다. In addition, according to an embodiment of the present invention, when the controller recognizes that the user's hand is located within the specific distance through the first depth image, the control unit generates the alarm so that the user's hand is positioned at a distance greater than or equal to the specific distance. It provides a mobile terminal characterized in that to provide.
또한, 본 발명의 일 실시예에 따라, 상기 복수의 깊이 카메라는 연속하는 프레임 마다 각각 깊이 이미지를 획득하고, 상기 제어부는 상기 연속하는 프레임 마다 상기 제1 깊이 이미지 및 상기 제2 깊이 이미지를 이용하여 사용자 손의 전체 형상을 획득하고, 상기 연속하는 프레임 마다 획득한 사용자 손의 전체 형상의 변화를 통해 사용자 손의 모션을 인지하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an embodiment of the present invention, the plurality of depth cameras acquire depth images for each successive frame, and the control unit uses the first depth image and the second depth image for each successive frame. It provides a mobile terminal, characterized in that acquiring the overall shape of the user's hand and recognizing the motion of the user's hand through a change in the overall shape of the user's hand acquired for each successive frame.
본 발명에 따른 이동 단말기의 효과에 대해 설명하면 다음과 같다.The effect of the mobile terminal according to the present invention will be described as follows.
본 발명은 복수의 깊이 카메라를 통해 사용자 손의 모션 인식 범위를 넓힐 수 있다. The present invention can widen the range of motion recognition of the user's hand through a plurality of depth cameras.
본 발명은 사용자의 손이 복수의 깊이 카메라를 통해 분할하여 촬영되는 경우에도 사용자 손의 전체 형상을 인식할 수 있다. The present invention can recognize the entire shape of the user's hand even when the user's hand is divided and photographed through a plurality of depth cameras.
본 발명은 사용자 손의 위치에 따라 가이드를 제공하여, 복수의 깊이 카메라를 통해 사용자 손의 전체 형상을 인지할 수 있다. The present invention provides a guide according to the position of the user's hand, and the overall shape of the user's hand can be recognized through a plurality of depth cameras.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 해당 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.Further scope of applicability of the present invention will become apparent from the detailed description below. However, since various changes and modifications within the spirit and scope of the present invention can be clearly understood by those skilled in the art, detailed description and specific embodiments such as preferred embodiments of the present invention are understood to be given by way of example only. Should be.
도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.1A is a block diagram illustrating a mobile terminal related to the present invention.
도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1B and 1C are conceptual diagrams of an example of a mobile terminal according to the present invention viewed from different directions.
도 2은 본 발명과 관련된 이동 단말기에서, 하나의 깊이 카메라를 통해 촬영되는 촬영 영역을 설명하기 위한 개념도 이다.FIG. 2 is a conceptual diagram illustrating a photographing area photographed through a single depth camera in a mobile terminal related to the present invention.
도 3은 본 발명과 관련된 이동 단말기에서, 하나의 깊이 카메라를 통해 획득한 깊이 이미지를 도시하고 있다. 3 illustrates a depth image acquired through a single depth camera in a mobile terminal related to the present invention.
도 4 내지 도 6은 본 발명과 관련된 이동 단말기에서, 복수의 깊이 카메라를 통해 촬영되는 촬영 영역을 설명하기 위한 개념도 이다. 4 to 6 are conceptual diagrams for describing a photographing area photographed through a plurality of depth cameras in a mobile terminal related to the present invention.
도 7 내지 도 9은 본 발명과 관련된 이동 단말기에서, 복수의 깊이 카메라를 통해 획득한 깊이 이미지를 도시하고 있다. 7 to 9 illustrate depth images acquired through a plurality of depth cameras in a mobile terminal related to the present invention.
도 10은 복수의 깊이 카메라를 통해 사용자 손의 모션을 감지하고, 대응되는 기능을 제공하는 본 발명의 전체 프로세서를 설명하는 흐름도 이다. 10 is a flowchart illustrating an entire processor of the present invention that senses a motion of a user's hand through a plurality of depth cameras and provides a corresponding function.
도 11은 복수의 깊이 카메라를 통해 획득한 깊이 이미지를 병합하는 방법을 설명하기 위한 도면이다. 11 is a diagram for describing a method of merging depth images acquired through a plurality of depth cameras.
도 12은 본 발명과 관련된 이동 단말기에서, 복수의 깊이 카메라를 통해 촬영된 깊이 이미지를 병합하여 사용자 손의 전체 형상을 획득하는 실시예를 도시하고 있다. 12 illustrates an embodiment of acquiring an overall shape of a user's hand by merging depth images captured through a plurality of depth cameras in a mobile terminal related to the present invention.
도 13 및 도 14는 복수의 깊이 카메라를 통해 촬영 영역을 확장 시키는 다른 적용례를 설명하기 위한 도면이다.13 and 14 are diagrams for explaining another application example of expanding a photographing area through a plurality of depth cameras.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but identical or similar elements are denoted by the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have meanings or roles that are distinguished from each other by themselves. In addition, in describing the embodiments disclosed in the present specification, when it is determined that a detailed description of related known technologies may obscure the subject matter of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed in the present specification is not limited by the accompanying drawings, and all modifications included in the spirit and scope of the present invention It should be understood to include equivalents or substitutes.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.Mobile terminals described in this specification include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation systems, and slate PCs. , Tablet PC (tablet PC), ultrabook (ultrabook), wearable device (wearable device, for example, smartwatch, glass-type terminal (smart glass), HMD (head mounted display)), etc. may be included. have.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 해당 기술 분야의 통상의 기술자라면 쉽게 알 수 있을 것이다.However, it is understood that the configuration according to the embodiment described in the present specification may also be applied to a fixed terminal such as a digital TV, a desktop computer, and a digital signage, except for a case applicable only to a mobile terminal. If you are a technician, you can easily find out.
도 1a 내지 도 1c를 참조하면, 도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이고, 도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1A to 1C, FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention, and FIGS. 1B and 1C are conceptual diagrams of an example of a mobile terminal related to the present invention viewed from different directions.
상기 이동 단말기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. ), etc. The components shown in FIG. 1A are not essential for implementing the mobile terminal, and thus, the mobile terminal described in the present specification may have more or fewer components than those listed above.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the components, the wireless communication unit 110 may be configured between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or between the mobile terminal 100 and an external server. It may include one or more modules that enable wireless communication between. In addition, the wireless communication unit 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, or an audio input unit, and a user input unit 123 for receiving information from a user, for example, , A touch key, a mechanical key, etc.). The voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, information on surrounding environments surrounding the mobile terminal, and user information. For example, the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity. G-sensor, gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor), fingerprint sensor (finger scan sensor), ultrasonic sensor (ultrasonic sensor) , Optical sensor (for example, camera (see 121)), microphone (microphone, see 122), battery gauge, environmental sensor (for example, barometer, hygrometer, thermometer, radiation detection sensor, It may include at least one of a heat sensor, a gas sensor, etc.), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is for generating an output related to visual, auditory, or tactile sense, and may include at least one of a display 151, an audio output unit 152, a hap tip module 153, and a light output unit. The display 151 may form a layer structure with the touch sensor or be integrally formed, thereby implementing a touch screen. Such a touch screen can function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user, and can provide an output interface between the mobile terminal 100 and a user.
인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a passage between various types of external devices connected to the mobile terminal 100. The interface unit 160 connects a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. It may include at least one of a port, an audio input/output (I/O) port, an input/output (video I/O) port, and an earphone port. The mobile terminal 100 may perform appropriate control related to the connected external device in response to the connection of the external device to the interface unit 160.
또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory 170 stores data supporting various functions of the mobile terminal 100. The memory 170 may store a plurality of application programs or applications driven by the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of delivery for basic functions of the mobile terminal 100 (eg, incoming calls, outgoing functions, message reception, and outgoing functions). Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and driven by the controller 180 to perform an operation (or function) of the mobile terminal.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the mobile terminal 100. The controller 180 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.Also, in order to drive an application program stored in the memory 170, the controller 180 may control at least some of the components examined together with FIG. 1A. Furthermore, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 with each other.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to each of the components included in the mobile terminal 100. The power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다.At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of a mobile terminal according to various embodiments described below. In addition, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170.
도 1 b 및 1c는 펼쳐진 상태의 폴더블 방식의 이동 단말기에서의 기본적인 특징에 대해 설명한다.1B and 1C describe basic features of a foldable mobile terminal in an unfolded state.
이동 단말기(100)에는 디스플레이(151), 제1 및 제2 음향 출력부(152a, 152b), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 및 제2 카메라(121a, 121b), 제1 및 제2 조작유닛(123a, 123b), 마이크로폰(122), 인터페이스부(160) 등이 구비될 수 있다.The mobile terminal 100 includes a display 151, first and second sound output units 152a and 152b, proximity sensor 141, illuminance sensor 142, light output unit 154, and first and second cameras. (121a, 121b), first and second operation units (123a, 123b), a microphone 122, an interface unit 160, and the like may be provided.
이하에서는, 도 1b 및 도 1c에 도시된 바와 같이, 단말기 바디의 전면에 디스플레이(151), 제1 음향 출력부(152a), 근접 센서(141), 조도 센서(142), 광 출력부, 제1 카메라(121a) 및 제1 조작유닛(123a)이 배치되고, 단말기 바디의 측면에 제2 조작유닛(123b), 마이크로폰(122) 및 인터페이스부(160)이 배치되며, 단말기 바디의 후면에 제2 음향 출력부(152b) 및 제2 카메라(121b)가 배치된 이동 단말기(100)를 일 예로 들어 설명한다.In the following, as shown in FIGS. 1B and 1C, the display 151, the first sound output unit 152a, the proximity sensor 141, the illuminance sensor 142, the light output unit, and 1 The camera 121a and the first operation unit 123a are disposed, the second operation unit 123b, the microphone 122 and the interface unit 160 are disposed on the side of the terminal body, and 2 A mobile terminal 100 in which the sound output unit 152b and the second camera 121b are disposed will be described as an example.
다만, 이들 구성은 이러한 배치에 한정되는 것은 아니다. 이들 구성은 필요에 따라 제외 또는 대체되거나, 다른 면에 배치될 수 있다. 예를 들어, 단말기 바디의 전면에는 제1 조작유닛(123a)이 구비되지 않을 수 있으며, 제2 음향 출력부(152b)는 단말기 바디의 후면이 아닌 단말기 바디의 측면에 구비될 수 있다.However, these configurations are not limited to this arrangement. These configurations may be excluded or replaced as necessary, or may be disposed on different sides. For example, the first operation unit 123a may not be provided on the front surface of the terminal body, and the second sound output unit 152b may be provided on the side of the terminal body rather than on the rear surface of the terminal body.
디스플레이(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.The display 151 displays (outputs) information processed by the mobile terminal 100. For example, the display 151 may display execution screen information of an application program driven in the mobile terminal 100, or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information.
디스플레이(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), a 3D display, and an e-ink display.
또한, 디스플레이(151)는 이동 단말기(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 이동 단말기(100)에는 복수의 디스플레이들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.In addition, two or more displays 151 may exist depending on the implementation type of the mobile terminal 100. In this case, in the mobile terminal 100, a plurality of displays may be spaced apart or integrally disposed on one surface, or may be disposed on different surfaces, respectively.
디스플레이(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이(151)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The display 151 may include a touch sensor that senses a touch on the display 151 so as to receive a control command by a touch method. Using this, when a touch is made to the display 151, the touch sensor may sense the touch, and the controller 180 may generate a control command corresponding to the touch based on this. Content input by the touch method may be letters or numbers, or menu items that can be indicated or designated in various modes.
한편, 터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 디스플레이(151)를 덮는 윈도우(151a)와 디스플레이(151)를 구성하는 복수의 레이어 사이에 배치되거나, 윈도우(151a)의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 또는, 터치센서는 디스플레이와 일체로 형성될 수 있다. 예를 들어, 터치센서는, 디스플레이의 기판 상에 배치되거나, 디스플레이의 내부에 구비될 수 있다.Meanwhile, the touch sensor is configured in the form of a film having a touch pattern and is disposed between the window 151a covering the display 151 and a plurality of layers constituting the display 151, or directly on the rear surface of the window 151a. It can also be a metal wire to be patterned. Alternatively, the touch sensor may be integrally formed with the display. For example, the touch sensor may be disposed on a substrate of the display or may be provided inside the display.
이처럼, 디스플레이(151)는 터치센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1a 참조)로 기능할 수 있다. 경우에 따라, 터치 스크린은 제1조작유닛(123a)의 적어도 일부 기능을 대체할 수 있다.As such, the display 151 may form a touch screen together with a touch sensor, and in this case, the touch screen may function as a user input unit 123 (see FIG. 1A). In some cases, the touch screen may replace at least some functions of the first manipulation unit 123a.
제1 음향 출력부(152a)는 통화음을 사용자의 귀에 전달시키는 리시버(receiver)로 구현될 수 있으며, 제2 음향 출력부(152b)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.The first sound output unit 152a may be implemented as a receiver that transmits a call sound to the user's ear, and the second sound output unit 152b is a loud speaker that outputs various alarm sounds or multimedia playback sounds. ) Can be implemented.
디스플레이(151)의 윈도우(151a)에는 제1 음향 출력부(152a)로부터 발생되는 사운드의 방출을 위한 음향홀이 형성될 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 상기 사운드는 구조물 간의 조립틈(예를 들어, 윈도우(151a)와 프론트 케이스(101) 간의 틈)을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나 숨겨져 이동 단말기(100)의 외관이 보다 심플해질 수 있다.A sound hole for emitting sound generated from the first sound output unit 152a may be formed in the window 151a of the display 151. However, the present invention is not limited thereto, and the sound may be configured to be emitted along an assembly gap between structures (eg, a gap between the window 151a and the front case 101). In this case, the externally formed hole for sound output is not visible or hidden, so that the appearance of the mobile terminal 100 may be more simple.
광 출력부는 이벤트의 발생시 이를 알리기 위한 빛을 출력하도록 이루어진다. 상기 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등을 들 수 있다. 제어부(180)는 사용자의 이벤트 확인이 감지되면, 빛의 출력이 종료되도록 광 출력부를 제어할 수 있다.The light output unit is configured to output light to notify when an event occurs. Examples of the event include message reception, call signal reception, missed call, alarm, schedule notification, e-mail reception, and information reception through an application. When the user's event confirmation is detected, the controller 180 may control the light output unit so that light output is terminated.
제1 카메라(121a)는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이(151)에 표시될 수 있으며, 메모리(170)에 저장될 수 있다.The first camera 121a processes an image frame of a still image or moving image obtained by an image sensor in a photographing mode or a video call mode. The processed image frame may be displayed on the display 151 and may be stored in the memory 170.
제1 및 제2 조작유닛(123a, 123b)은 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 사용자 입력부(123)의 일 예로서, 조작부(manipulating portion)로도 통칭될 수 있다. 제1 및 제2 조작유닛(123a, 123b)은 터치, 푸시, 스크롤 등 사용자가 촉각적인 느낌을 받으면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 또한, 제1 및 제2 조작유닛(123a, 123b)은 근접 터치(proximity touch), 호버링(hovering) 터치 등을 통해서 사용자의 촉각적인 느낌이 없이 조작하게 되는 방식으로도 채용될 수 있다.The first and second manipulation units 123a and 123b are an example of a user input unit 123 that is manipulated to receive a command for controlling the operation of the mobile terminal 100, and may also be collectively referred to as a manipulating portion. have. The first and second operation units 123a and 123b may be employed in any manner as long as the user operates while receiving a tactile feeling such as touch, push, and scroll. In addition, the first and second manipulation units 123a and 123b may also be employed in a manner in which the first and second manipulation units 123a and 123b are operated without a user's tactile feeling through proximity touch, hovering touch, or the like.
본 도면에서는 제1 조작유닛(123a)이 터치키(touch key)인 것으로 예시하나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 제1 조작유닛(123a)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.In this drawing, the first manipulation unit 123a is illustrated as being a touch key, but the present invention is not limited thereto. For example, the first operation unit 123a may be a push key (mechanical key) or may be configured as a combination of a touch key and a push key.
제1 및 제2 조작유닛(123a, 123b)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작유닛(123a)은 메뉴, 홈키, 취소, 검색 등의 명령을 입력 받고, 제2 조작유닛(123b)은 제1 또는 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이(151)의 터치 인식 모드로의 전환 등의 명령을 입력 받을 수 있다.Contents input by the first and second manipulation units 123a and 123b may be variously set. For example, the first operation unit 123a receives commands such as menu, home key, cancel, search, etc., and the second operation unit 123b is output from the first or second sound output units 152a, 152b. Commands such as adjusting the volume of sound and switching to the touch recognition mode of the display 151 may be input.
한편, 단말기 바디의 후면에는 사용자 입력부(123)의 다른 일 예로서, 후면 입력부(미도시)가 구비될 수 있다. 이러한 후면 입력부는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 것으로서, 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 전원의 온/오프, 시작, 종료, 스크롤 등과 같은 명령, 제1 및 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력 받을 수 있다. 후면 입력부는 터치입력, 푸시입력 또는 이들의 조합에 의한 입력이 가능한 형태로 구현될 수 있다.Meanwhile, as another example of the user input unit 123, a rear input unit (not shown) may be provided on the rear surface of the terminal body. This rear input unit is manipulated to receive a command for controlling the operation of the mobile terminal 100, and input contents may be variously set. For example, commands such as power on/off, start, end, scrolling, etc., adjusting the volume of sound output from the first and second sound output units 152a and 152b, and entering the touch recognition mode of the display 151 Commands such as conversion can be input. The rear input unit may be implemented in a form capable of inputting by a touch input, a push input, or a combination thereof.
후면 입력부는 단말기 바디의 두께방향으로 전면의 디스플레이(151)와 중첩되게 배치될 수 있다. 일 예로, 사용자가 단말기 바디를 한 손으로 쥐었을 때 검지를 이용하여 용이하게 조작 가능하도록, 후면 입력부는 단말기 바디의 후면 상단부에 배치될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 후면 입력부의 위치는 변경될 수 있다.The rear input unit may be disposed to overlap the front display 151 in the thickness direction of the terminal body. As an example, when the user holds the terminal body with one hand, the rear input unit may be disposed on the rear upper end of the terminal body so that the user can easily manipulate the terminal body using the index finger. However, the present invention is not necessarily limited thereto, and the position of the rear input unit may be changed.
이처럼 단말기 바디의 후면에 후면 입력부가 구비되는 경우, 이를 이용한 새로운 형태의 유저 인터페이스가 구현될 수 있다. 또한, 앞서 설명한 터치 스크린 또는 후면 입력부가 단말기 바디의 전면에 구비되는 제1 조작유닛(123a)의 적어도 일부 기능을 대체하여, 단말기 바디의 전면에 제1 조작유닛(123a)이 미배치되는 경우, 디스플레이(151)가 보다 대화면으로 구성될 수 있다.When the rear input unit is provided on the rear surface of the terminal body, a new type of user interface can be implemented using the rear input unit. In addition, when the touch screen or the rear input unit described above replaces at least some functions of the first operation unit 123a provided on the front of the terminal body, and the first operation unit 123a is not disposed on the front of the terminal body, The display 151 may be configured with a larger screen.
한편, 이동 단말기(100)에는 사용자의 지문을 인식하는 지문인식센서(143)가 구비될 수 있으며, 제어부(180)는 지문인식센서(143)를 통하여 감지되는 지문정보를 인증수단으로 이용할 수 있다. 상기 지문인식센서는 디스플레이(151) 또는 사용자 입력부(123)에 내장될 수도 있고, 별도의 위치에 구비될 수도 있다.Meanwhile, the mobile terminal 100 may be provided with a fingerprint recognition sensor 143 for recognizing a user's fingerprint, and the controller 180 may use fingerprint information detected through the fingerprint recognition sensor 143 as an authentication means. . The fingerprint recognition sensor may be embedded in the display 151 or the user input unit 123, or may be provided in a separate location.
마이크로폰(122)은 사용자의 음성, 기타 소리 등을 입력 받도록 이루어진다. 마이크로폰(122)은 복수의 개소에 구비되어 스테레오 음향을 입력 받도록 구성될 수 있다.The microphone 122 is configured to receive a user's voice and other sounds. The microphone 122 may be provided in a plurality of locations and configured to receive stereo sound.
인터페이스부(160)는 이동 단말기(100)를 외부기기와 연결시킬 수 있는 통로가 된다. 예를 들어, 인터페이스부(160)는 다른 장치(예를 들어, 이어폰, 외장 스피커)와의 연결을 위한 접속단자, 근거리 통신을 위한 포트[예를 들어, 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등], 또는 이동 단말기(100)에 전원을 공급하기 위한 전원공급단자 중 적어도 하나일 수 있다. 이러한 인터페이스부(160)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수도 있다.The interface unit 160 becomes a passage through which the mobile terminal 100 can be connected to an external device. For example, the interface unit 160 is a connection terminal for connection with other devices (eg, earphones, external speakers), a port for short-range communication (eg, an infrared port (IrDA Port), a Bluetooth port (Bluetooth Port), a wireless LAN port, etc.], or at least one of a power supply terminal for supplying power to the mobile terminal 100. The interface unit 160 may be implemented in the form of a socket for accommodating an external card such as a subscriber identification module (SIM) or a user identity module (UIM), or a memory card for storing information.
단말기 바디의 후면에는 제2카메라(121b)가 배치될 수 있다. 이 경우, 제2카메라(121b)는 제1카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지게 된다.A second camera 121b may be disposed on the rear surface of the terminal body. In this case, the second camera 121b has a photographing direction substantially opposite to that of the first camera 121a.
제2카메라(121b)는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, '어레이(array) 카메라'로 명명될 수 있다. 제2카메라(121b)가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.The second camera 121b may include a plurality of lenses arranged along at least one line. The plurality of lenses may be arranged in a matrix format. Such a camera may be referred to as an'array camera'. When the second camera 121b is configured as an array camera, an image may be photographed in various ways using a plurality of lenses, and an image of better quality may be obtained.
플래시(124)는 제2카메라(121b)에 인접하게 배치될 수 있다. 플래시(124)는 제2카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.The flash 124 may be disposed adjacent to the second camera 121b. The flash 124 illuminates light toward the subject when the subject is photographed by the second camera 121b.
단말기 바디에는 제2 음향 출력부(152b)가 추가로 배치될 수 있다. 제2 음향 출력부(152b)는 제1 음향 출력부(152a)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.A second sound output unit 152b may be additionally disposed on the terminal body. The second sound output unit 152b may implement a stereo function together with the first sound output unit 152a, and may be used to implement a speakerphone mode during a call.
단말기 바디에는 무선 통신을 위한 적어도 하나의 안테나가 구비될 수 있다. 안테나는 단말기 바디에 내장되거나, 케이스에 형성될 수 있다. 예를 들어, 방송 수신 모듈(111, 도 1a 참조)의 일부를 이루는 안테나는 단말기 바디에서 인출 가능하게 구성될 수 있다. 또는, 안테나는 필름 타입으로 형성되어 후면 커버(103)의 내측면에 부착될 수도 있고, 도전성 재질을 포함하는 케이스가 안테나로서 기능하도록 구성될 수도 있다.At least one antenna for wireless communication may be provided in the terminal body. The antenna may be embedded in the terminal body or may be formed in a case. For example, an antenna forming a part of the broadcast receiving module 111 (refer to FIG. 1A) may be configured to be retractable from the terminal body. Alternatively, the antenna may be formed in a film type and attached to the inner surface of the rear cover 103, or a case including a conductive material may be configured to function as an antenna.
단말기 바디에는 이동 단말기(100)에 전원을 공급하기 위한 전원 공급부(190, 도 1a 참조)가 구비된다. 전원 공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다.The terminal body is provided with a power supply unit 190 (refer to FIG. 1A) for supplying power to the mobile terminal 100. The power supply unit 190 may include a battery 191 built in the terminal body or configured to be detachable from the outside of the terminal body.
배터리(191)는 인터페이스부(160)에 연결되는 전원 케이블을 통하여 전원을 공급받도록 구성될 수 있다. 또한, 배터리(191)는 무선충전기기를 통하여 무선충전 가능하도록 구성될 수도 있다. 상기 무선충전은 자기유도방식 또는 공진방식(자기공명방식)에 의하여 구현될 수 있다.The battery 191 may be configured to receive power through a power cable connected to the interface unit 160. In addition, the battery 191 may be configured to enable wireless charging through a wireless charger. The wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).
한편, 본 도면에서는 후면 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하도록 구성된 것을 예시하고 있다. 배터리(191)가 단말기 바디에 착탈 가능하게 구성되는 경우, 후면 커버(103)는 리어 케이스(102)에 착탈 가능하게 결합될 수 있다.On the other hand, in this drawing, the rear cover 103 is coupled to the rear case 102 so as to cover the battery 191 to limit the separation of the battery 191, and to protect the battery 191 from external shock and foreign substances. It is illustrated. When the battery 191 is configured to be detachably attached to the terminal body, the rear cover 103 may be detachably coupled to the rear case 102.
본 발명에 적용되는 카메라(도 1에 도시된 카메라(121) 및 도 1A에 도시된 카메라(121a))는 모바일 디바이스의 터치 스크린 주변에 위치하고 있다.  따라서, 상기 모바일 디바이스의 터치 스크린으로부터 일정 거리이내의 오브젝트(예를 들어, 사용자의 손가락)에 대한 깊이 정보(depth information)를 디텍트 하는 것이 가능하다.  이와 같은 카메라를 깊이 카메라로 명명할 수 있다.The cameras applied to the present invention (the camera 121 shown in Fig. 1 and the camera 121a shown in Fig. 1A) are located around the touch screen of the mobile device. Accordingly, it is possible to detect depth information on an object (eg, a user's finger) within a certain distance from the touch screen of the mobile device. Such a camera can be referred to as a depth camera.
상기 깊이 카메라를 구현하는 방법으로 2가지 방안을 제시한다.  첫번째 방안은, 멀티 카메라(또는 렌즈)를 사용하는 방법으로서 2개 이상의 카메라를 이용하여 가시광선을 포착하고, 깊이 정보(depth information)를 이용하여 3D 이미지를 생성한다.  두번째 방안은, 카메라 모듈에 심도 센싱(Depth sensing)을 위한 별도의 센서를 탑재하는 방식으로서, 보다 구체적으로는 SL(Structured Light) 및 ToF(Time of Flight) 방식이 적용된다.Two methods are proposed as a method of implementing the depth camera. The first method is a method using a multi-camera (or lens), which captures visible light by using two or more cameras, and generates a 3D image using depth information. The second method is to mount a separate sensor for depth sensing in the camera module, and more specifically, SL (Structured Light) and ToF (Time of Flight) methods are applied.
전술한 SL 방식은, 직선이나 격자 무늬 등 특정 패턴의 레이저를 촬영 대상에 방사한 후 대상 표면의 모양에 따라 패턴이 변형된 정보를 분석한다.  나아가, 깊이 정보를 계산한 후, 이미지 센서가 촬영한 사진과 합성하여 3D 기반의 촬영 결과를 도출한다.  이를 구현하기 위하여, 특정 패턴을 송출하는 레이저 적외선(IR) 프로젝터, 적외선 심도 센서, 이미지 센서 및 3D 프로세서 등이 사용될 수 있다.In the SL method described above, a laser having a specific pattern, such as a straight line or a grid pattern, is radiated onto an object to be photographed, and then information in which the pattern is deformed according to the shape of the object surface is analyzed. Furthermore, after calculating the depth information, the 3D-based photographing result is derived by combining it with the photograph taken by the image sensor. To implement this, a laser infrared (IR) projector that transmits a specific pattern, an infrared depth sensor, an image sensor, and a 3D processor may be used.
전술한 ToF 방식은, 레이저가 촬영 대상에 갔다가 반사되어 돌아오는 시간을 측정하여 깊이 정보를 계산한 후, 이미지 센서가 촬영한 사진과 합성하여 3D 기반의 촬영 결과를 도출한다.  이를 구현하기 위하여, 레이저 적외선(IR) 프로젝터, 수신 센서, 이미지 센서 및 3D 프로세서 등이 사용될 수 있다.In the above-described ToF method, depth information is calculated by measuring the time the laser travels to the object to be photographed and returns after being reflected, and then synthesizes it with a photograph taken by an image sensor to derive a 3D-based photographing result. To implement this, a laser infrared (IR) projector, a reception sensor, an image sensor, and a 3D processor may be used.
도 2은 본 발명과 관련된 이동 단말기에서, 하나의 깊이 카메라를 통해 촬영되는 촬영 영역을 설명하기 위한 개념도 이다.FIG. 2 is a conceptual diagram illustrating a photographing area photographed through a single depth camera in a mobile terminal related to the present invention.
본 발명의 이동 단말기(200)는 깊이 카메라(300)를 포함하고, 깊이 카메라(300)를 통해 사용자 손(400)의 3차원 모션을 인식할 수 있다. 본 발명의 이동 단말기(200)는 깊이 카메라(300)를 통해 인식한 사용자 손(400)의 3차원 모션을 이동 단말기(200)를 제어하는 입력 신호로 수신할 수 있다. The mobile terminal 200 of the present invention includes a depth camera 300 and may recognize a 3D motion of the user's hand 400 through the depth camera 300. The mobile terminal 200 of the present invention may receive a 3D motion of the user hand 400 recognized through the depth camera 300 as an input signal controlling the mobile terminal 200.
본 발명의 깊이 카메라(300)는 화각(301) 내에 위치하는 피사체를 촬영하고 피사체의 3차원 정보를 획득할 수 있다. 깊이 카메라(300)의 촬영 영역은 깊이 카메라(300)에 가까울수록 좁아질 수 있다. 구체적으로, 도 2은 깊이 카메라(300)를 향한 법선 벡터를 가지는 가상의 평면(410)에서 3차원 정보를 획득할 수 있는 인식 영역(a_1)이 깊이 카메라(300)와의 거리(L1)에 따라 제한되는 실시예를 도시하고 있다. 깊이 카메라(300)에서 3차원 정보를 획득할 수 있는 인식 영역(a_1)은 깊이 카메라(300)와의 거리(L1)가 짧아질수록 작아지고, 3차원 정보를 획득할 수 없는 미 인식 영역(a_2)은 커질 수 있다.The depth camera 300 of the present invention may photograph a subject located within the angle of view 301 and obtain 3D information of the subject. The photographing area of the depth camera 300 may be narrower as it approaches the depth camera 300. Specifically, FIG. 2 shows a recognition area (a_1) capable of acquiring 3D information in a virtual plane 410 having a normal vector toward the depth camera 300 according to the distance L1 from the depth camera 300. A limited embodiment is shown. The recognition area a_1 from which the depth camera 300 can acquire 3D information decreases as the distance L1 to the depth camera 300 decreases, and the unrecognized area a_2 in which 3D information cannot be obtained. ) Can be large.
이동 단말기(300)에 단일의 깊이 카메라(300)를 포함하는 경우, 근 거리에서 사용자의 손(400)을 인식하는 영역이 협소하여 사용자 손의 모션을 잘못 인식하는 문제가 발생할 수 있다. 이하에서 단일의 깊이 카메라를 통해 획득한 깊이 이미지를 통해 상기 문제점을 확인해 본다. When a single depth camera 300 is included in the mobile terminal 300, a problem of erroneously recognizing the motion of the user's hand may occur because the area for recognizing the user's hand 400 at a near distance is narrow. Hereinafter, the above problem is checked through a depth image acquired through a single depth camera.
도 3은 본 발명과 관련된 이동 단말기에서, 단일의 깊이 카메라를 통해 획득한 깊이 이미지를 도시하고 있다. 구체적으로, 도 3(a)는 도 2의 인식 영역(a_1) 에 대응되는 깊이 이미지(b_1) 상에 사용자 손 형상(302)이 완전히 포함되는 실시예를 도시하고 있다. 도 3(b)는 도 2의 인식 영역(a_1)에 대응되는 깊이 이미지(b_1) 상에 상용자 손 형상(302)의 일부가 포함되는 실시예를 도시하고 있다. 3 shows a depth image acquired through a single depth camera in a mobile terminal related to the present invention. Specifically, FIG. 3(a) shows an embodiment in which the user's hand shape 302 is completely included on the depth image b_1 corresponding to the recognition area a_1 of FIG. 2. FIG. 3(b) shows an embodiment in which a part of the shape of a common hand 302 is included on the depth image b_1 corresponding to the recognition area a_1 of FIG. 2.
본 발명의 깊이 카메라는 기 설정 시간 간격으로 깊이 이미지(b_1)를 획득하고, 깊이 이미지(b_1)에 포함된 형상이 사용자 손 형상에 대응되는지 분별하며, 깊이 이미지(b_1)에 포함된 사용자 손 형상의 변화를 통해 사용자 손 모션을 인지하고, 사용자 손 모션에 대응하여 입력 신호를 수신할 수 있다. The depth camera of the present invention acquires the depth image b_1 at preset time intervals, discriminates whether the shape included in the depth image b_1 corresponds to the shape of the user's hand, and the shape of the user hand included in the depth image b_1 It is possible to recognize the user's hand motion through the change of and receive an input signal in response to the user's hand motion.
본 발명의 이동 단말기는 깊이 이미지(b_1) 상에 사용자 손 형상(302)이 도 3(a)와 같이 완전히 포함되는 경우에, 사용자 손 모션을 올바로 인지하고, 이에 대응되는 입력 신호를 수신할 수 이다. In the case where the user hand shape 302 is completely included in the depth image b_1 as shown in FIG. 3(a), the mobile terminal of the present invention can correctly recognize the user hand motion and receive an input signal corresponding thereto. to be.
다만, 본 발명의 이동 단말기는 깊이 이미지(b_1) 상에 사용자 손 형상(302)이 도 3(b)와 같이 일부 포함되는 경우에, 사용자 손 모션을 잘못 인지하고, 사용자의 의도와 상관 없는 입력 신호를 수신할 수 있다. However, in the case where the user hand shape 302 is partially included in the depth image b_1 as shown in FIG. 3(b), the mobile terminal of the present invention incorrectly recognizes the user's hand motion and inputs irrelevant to the user's intention. Can receive signals.
도 3(b)와 같이 깊이 이미지(b_1)에 사용자 손 형상(302)의 일부가 포함되는 경우, 깊이 카메라의 화각 내로 사용자 손을 가이드하여 사용자 손의 전체 형상을 인지할 수 있다. 다만, 근거리에서는 사용자 손의 전체 형상을 감지할 수 있는 영역이 협소하여 사용자 손을 가이드하기가 쉽지 않을 수 있다. 따라서, 본 발명은 이동 단말기에 복수의 깊이 카메라를 포함하여, 사용자 손을 인식할 수 있는 영역을 넓히는데 그 목적이 있다. When a part of the shape of the user's hand 302 is included in the depth image b_1 as shown in FIG. 3B, the entire shape of the user's hand may be recognized by guiding the user's hand into the angle of view of the depth camera. However, it may not be easy to guide the user's hand because the area in which the entire shape of the user's hand can be detected is narrow at a short distance. Accordingly, an object of the present invention is to expand an area in which a user's hand can be recognized by including a plurality of depth cameras in a mobile terminal.
도 4 내지 도 6은 본 발명과 관련된 이동 단말기에서, 복수의 깊이 카메라를 통해 촬영되는 촬영 영역을 설명하기 위한 개념도 이다. 4 to 6 are conceptual diagrams for describing a photographing area photographed through a plurality of depth cameras in a mobile terminal related to the present invention.
본 발명의 이동 단말기(200)는, 각각 깊이 이미지 획득하는 복수의 깊이 카메라(310 내지 340), 시청각 데이터를 출력하는 출력부(미도시) 및 복수의 깊이 카메라(310 내지 340)을 연결하는 제어부(미도시)를 포함할 수 있다. The mobile terminal 200 of the present invention includes a plurality of depth cameras 310 to 340 each acquiring a depth image, an output unit (not shown) for outputting audio-visual data, and a control unit connecting the plurality of depth cameras 310 to 340 (Not shown) may be included.
본 발명의 이동 단말기(200)는 촬영 범위가 일부 오버렙되도록 복수의 깊이 카메라(310 내지 340)를 구비할 수 있다. 도 4 내지 도 6은 복수의 깊이 카메라(310 내지 340)가 동일 방향을 향하도록 이동 단말기(200)에 구비되는 실시예를 도시하고 있다. 이동 단말기(200)에 구비된 복수의 깊이 카메라(310 내지 340)의 광 축은 상호 평행할 수 있다. 경우에 따라서, 복수의 깊이 카메라(310 내지 340)는 촬영 범위가 일부 오버렙되면서, 광축이 상호 기울기를 형성하도록 이동 단말기(200)에 구비될 수 있다.The mobile terminal 200 of the present invention may include a plurality of depth cameras 310 to 340 so that the photographing range partially overlaps. 4 to 6 illustrate an embodiment in which a plurality of depth cameras 310 to 340 are provided in the mobile terminal 200 to face the same direction. Optical axes of the plurality of depth cameras 310 to 340 provided in the mobile terminal 200 may be parallel to each other. In some cases, the plurality of depth cameras 310 to 340 may be provided in the mobile terminal 200 so that the optical axes form a mutual inclination while partially overlapping the shooting range.
도 4 내지 도 5은 이동 단말기(200)에 복수의 깊이 카메라(310 내지 340)가 네 개 구비되는 실시예를 도시하고 있다. 다만, 본 발명의 이동 단말기(200)에 포함된 복수의 깊이 카메라(310 내지 340)의 개수는 네 개에 한정되지 않는다. 4 to 5 illustrate an embodiment in which four depth cameras 310 to 340 are provided in the mobile terminal 200. However, the number of depth cameras 310 to 340 included in the mobile terminal 200 of the present invention is not limited to four.
도 4 내지 도 5는 이동 단말기(200)에 복수의 깊이 카메라(310 내지 340)가 촬영하는 영역이 각 사분면에 대응되거나, 격자 구분되는 실시예를 도시하고 있다. 다만, 본 발명의 이동 단말기(200)는 일 발향으로 나열되도록 복수의 깊이 카메라(310 내지 340)를 구비할 수 있다.4 to 5 illustrate embodiments in which regions photographed by a plurality of depth cameras 310 to 340 in the mobile terminal 200 correspond to each quadrant or are separated by a grid. However, the mobile terminal 200 of the present invention may be provided with a plurality of depth cameras 310 to 340 so as to be arranged in one direction.
복수의 깊이 카메라(310 내지 340)가 각각 촬영 하는 영역은 이동 단말기(200)와의 거리에 따라 접하거나, 이격되거나, 중첩될 수 있다. 도 4 내지 도 6은 각각의 실시예를 도시하고 있다. Areas each photographed by the plurality of depth cameras 310 to 340 may be in contact with, spaced apart, or overlap according to a distance to the mobile terminal 200. 4 to 6 show each embodiment.
구체적으로, 도 4는 복수의 깊이 카메라(310 내지 340)가 촬영하는 촬영 영역이 접하는 실시예를 도시하고 있다. 도 4(a)는 복수의 깊이 카메라(310, 340)가 촬영하는 영역을 측면에서 바라본 개념도를 도시하고 있으며, 도 4(b)는 복수의 깊이 카메라(310 내지 340)가 촬영하는 영역을 정면(복수의 깊이 카메라(310 내지 340))에서 바라본 개념도를 도시하고 있다. 복수의 깊이 카메라(310 내지 340)는 상호 이격되어 구비되며, 각각 화각(311 내지 341) 내의 영역을 촬영할 수 있다. 가상의 평면(410)이 복수의 깊이 카메라(310 내지 340)의 촬영 영역이 겹치는 최소 길이(L_min) 에 위치하는 경우, 복수의 깊이 카메라(310 내지 340)의 촬영 영역이 가상의 평면(410) 상에서 이격되거나, 중복되지 않고 접할 수 있다. 구체적으로, 도 4(a)는 가상의 평면(410) 상에 제1 깊이 카메라(310)의 인식 영역(a1_1)과 제4 깊이 카메라(340)의 인식 영역(a4_1)가 접하는 실시예를 도시하고 있다. 또한, 도 4(b)는 가상의 평면(410) 상에서, 제1 깊이 카메라(310)의 인식 영역(a1_1), 제2 깊이 카메라(320)의 인식 영역(a2_1), 제3 깊이 카메라(330)의 인식 영역(a3_1) 및 제4 깊이 카메라(340)의 인식 영역(a4_1)이 각 사분면에 대응되며 상호 접하는 실시예를 도시하고 있다. Specifically, FIG. 4 shows an embodiment in which a photographing area photographed by a plurality of depth cameras 310 to 340 contacts. FIG. 4(a) is a conceptual diagram showing an area photographed by a plurality of depth cameras 310 and 340 from the side, and FIG. 4(b) is a front view of an area photographed by a plurality of depth cameras 310 to 340 It shows a conceptual diagram viewed from the (multiple depth cameras 310 to 340). The plurality of depth cameras 310 to 340 are provided to be spaced apart from each other, and may capture regions within the angles of view 311 to 341, respectively. When the virtual plane 410 is located at the minimum length (L_min) where the photographing regions of the plurality of depth cameras 310 to 340 overlap, the photographing region of the plurality of depth cameras 310 to 340 is the virtual plane 410 They can be contacted without being separated from each other or overlapping. Specifically, FIG. 4(a) shows an embodiment in which the recognition area a1_1 of the first depth camera 310 and the recognition area a4_1 of the fourth depth camera 340 contact on a virtual plane 410 Are doing. In addition, FIG. 4B shows a recognition area a1_1 of the first depth camera 310, a recognition area a2_1 of the second depth camera 320, and a third depth camera 330 on the virtual plane 410. The recognition area a3_1 of) and the recognition area a4_1 of the fourth depth camera 340 correspond to each quadrant and are in contact with each other.
또한, 도 5는 복수의 깊이 카메라(310 내지 340)가 촬영하는 촬영 영역이 이격되는 실시예를 도시하고 있다. 도 5(a)는 복수의 깊이 카메라(310, 340)가 촬영하는 영역을 측면에서 바라본 개념도를 도시하고 있으며, 도 5(b)는 복수의 깊이 카메라(310 내지 340)가 촬영하는 영역을 정면(복수의 깊이 카메라(310 내지 340))에서 바라본 개념도를 도시하고 있다. 복수의 깊이 카메라(310 내지 340)는 상호 이격되어 구비되며, 각각 화각(311 내지 341) 내의 영역을 촬영할 수 있다. 가상의 평면(410)이 복수의 깊이 카메라(310 내지 340)의 촬영 영역이 겹치는 최소 길이(L_min) 보다 가까이 위치하는 경우, 복수의 깊이 카메라(310 내지 340)의 촬영 영역이 가상의 평면 상에서 이격될 수 있다. 구체적으로, 도 5(a)는 가상의 평면(410) 상에 제1 깊이 카메라(310)의 인식 영역(a1_1)과 제4 깊이 카메라(340)의 인식 영역(a4_1) 사이에 미인식 영역(a12_2)가 포함되는 실시예를 도시하고 있다. 또한, 도 5(b)는 가상의 평면(410) 상에서, 제1 깊이 카메라(310)의 인식 영역(a1_1), 제2 깊이 카메라(320)의 인식 영역(a2_1), 제3 깊이 카메라(330)의 인식 영역(a3_1) 및 제4 깊이 카메라(340)의 인식 영역(a4_1)이 각 사분면에 대응되며, 제1 깊이 카메라(310)의 인식 영역(a1_1)과 제2 깊이 카메라(320)의 인식 영역(a2_1) 사이에 미인식 영역(a12_2)를 포함하고, 제2 깊이 카메라(320)의 인식 영역(a2_1)과 제3 깊이 카메라(330)의 인식 영역(a3_1) 사이에 미인식 영역(a23_2)를 포함하고, 제3 깊이 카메라(330)의 인식 영역(a3_1)과 제4 깊이 카메라(340)의 인식 영역(a4_1) 사이에 미인식 영역(a34_2)를 포함하고, 제4 깊이 카메라(340)의 인식 영역(a4_1)과 제1 깊이 카메라(310)의 인식 영역(a1_1) 사이에 미인식 영역(a41_2)를 포함하는 실시예를 도시하고 있다. In addition, FIG. 5 illustrates an embodiment in which a plurality of depth cameras 310 to 340 photographing areas are spaced apart. FIG. 5(a) is a conceptual diagram showing an area photographed by a plurality of depth cameras 310 and 340 from the side, and FIG. 5(b) is a front view of an area photographed by the plurality of depth cameras 310 to 340 It shows a conceptual diagram viewed from the (multiple depth cameras 310 to 340). The plurality of depth cameras 310 to 340 are provided to be spaced apart from each other, and may capture regions within the angles of view 311 to 341, respectively. When the virtual plane 410 is located closer than the minimum length (L_min) in which the shooting areas of the plurality of depth cameras 310 to 340 overlap, the shooting areas of the plurality of depth cameras 310 to 340 are separated from the virtual plane Can be. Specifically, FIG. 5(a) shows an unrecognized area between the recognition area a1_1 of the first depth camera 310 and the recognition area a4_1 of the fourth depth camera 340 on the virtual plane 410. a12_2) is shown. In addition, FIG. 5B shows a recognition area a1_1 of the first depth camera 310, a recognition area a2_1 of the second depth camera 320, and a third depth camera 330 on the virtual plane 410. ) Of the recognition area a3_1 and the recognition area a4_1 of the fourth depth camera 340 correspond to each quadrant, and the recognition area a1_1 of the first depth camera 310 and the second depth camera 320 An unrecognized area a12_2 is included between the recognition areas a2_1, and an unrecognized area between the recognition area a2_1 of the second depth camera 320 and the recognition area a3_1 of the third depth camera 330 ( a23_2), including an unrecognized area a34_2 between the recognition area a3_1 of the third depth camera 330 and the recognition area a4_1 of the fourth depth camera 340, and a fourth depth camera ( An embodiment including an unrecognized area a41_2 between the recognition area a4_1 of 340 and the recognition area a1_1 of the first depth camera 310 is illustrated.
또한, 도6는 복수의 깊이 카메라(310 내지 340)가 촬영하는 촬영 영역이 오버렙되는 실시예를 도시하고 있다. 도 6(a)는 복수의 깊이 카메라(310, 340)가 촬영하는 영역을 측면에서 바라본 개념도를 도시하고 있으며, 도 6(b)는 복수의 깊이 카메라(310 내지 340)가 촬영하는 영역을 정면(복수의 깊이 카메라(310 내지 340))에서 바라본 개념도를 도시하고 있다. 복수의 깊이 카메라(310 내지 340)는 상호 이격되어 구비되며, 각각 화각(311 내지 341) 내의 영역을 촬영할 수 있다. 가상의 평면(410)이 복수의 깊이 카메라(310 내지 340)의 촬영 영역이 겹치는 최소 길이(L_min) 보다 멀리 위치하는 경우, 복수의 깊이 카메라(310 내지 340)의 촬영 영역이 가상의 평면 상에서 중복될 수 있다. 구체적으로, 도 6(a)는 가상의 평면(410) 상에 제1 깊이 카메라(310)의 인식 영역(a1_1)과 제4 깊이 카메라(340)의 인식 영역(a4_1)가 중복 영역(a12_3)을 형성하는 실시예를 도시하고 있다. 또한, 도 6(b)는 가상의 평면(410) 상에서, 제1 깊이 카메라(310)의 인식 영역(a1_1), 제2 깊이 카메라(320)의 인식 영역(a2_1), 제3 깊이 카메라(330)의 인식 영역(a3_1) 및 제4 깊이 카메라(340)의 인식 영역(a4_1)이 각 사분면에 대응되며, 제1 깊이 카메라(310)의 인식 영역(a1_1)과 제2 깊이 카메라(320)의 인식 영역(a2_1)이 중복 영역(a12_3)를 형성하고, 제2 깊이 카메라(320)의 인식 영역(a2_1)과 제3 깊이 카메라(330)의 인식 영역(a3_1)이 중복 영역(a23_3)를 형성하고, 제3 깊이 카메라(330)의 인식 영역(a3_1)과 제4 깊이 카메라(340)의 인식 영역(a4_1)이 중복 영역(a34_3)를 형성하고, 제4 깊이 카메라(340)의 인식 영역(a4_1)과 제1 깊이 카메라(310)의 인식 영역(a1_1)이 중복 영역(a41_3)를 형성하는 실시예를 도시하고 있다.In addition, FIG. 6 shows an embodiment in which a photographing area photographed by a plurality of depth cameras 310 to 340 is overlapped. FIG. 6(a) is a conceptual diagram showing an area photographed by a plurality of depth cameras 310 and 340 from the side, and FIG. 6(b) is a front view of an area photographed by the plurality of depth cameras 310 to 340 It shows a conceptual diagram viewed from the (multiple depth cameras 310 to 340). The plurality of depth cameras 310 to 340 are provided to be spaced apart from each other, and may capture regions within the angles of view 311 to 341, respectively. When the virtual plane 410 is located farther than the minimum length (L_min) where the shooting areas of the plurality of depth cameras 310 to 340 overlap, the shooting areas of the plurality of depth cameras 310 to 340 overlap on the virtual plane Can be. Specifically, in FIG. 6(a), the recognition area a1_1 of the first depth camera 310 and the recognition area a4_1 of the fourth depth camera 340 are overlapped areas a12_3 on the virtual plane 410 It shows an embodiment of forming. 6(b) shows a recognition area a1_1 of the first depth camera 310, a recognition area a2_1 of the second depth camera 320, and a third depth camera 330 on the virtual plane 410. ) Of the recognition area a3_1 and the recognition area a4_1 of the fourth depth camera 340 correspond to each quadrant, and the recognition area a1_1 of the first depth camera 310 and the second depth camera 320 The recognition area a2_1 forms an overlap area a12_3, and the recognition area a2_1 of the second depth camera 320 and the recognition area a3_1 of the third depth camera 330 form an overlap area a23_3 And, the recognition area a3_1 of the third depth camera 330 and the recognition area a4_1 of the fourth depth camera 340 form an overlapping area a34_3, and the recognition area of the fourth depth camera 340 ( a4_1) and the recognition area a1_1 of the first depth camera 310 form an overlapping area a41_3.
본 발명의 피사체가 도 4의 가상의 평면(410)에 위치하는 경우, 제1 내지 제4 깊이 카메라(310 내지 340)을 통해 촬영된 깊이 영상을 편집 없이 병합하여 3차원 정보를 획득할 수 있다. 다만, 실질적으로, 도 4의 가상의 평면(410)은 제한된 위치(복수의 깊이 카메라(310 내지 340)의 촬영 영역이 겹치는 최소 길이(L_min)만큼 이동 단말기(200)로부터 이격된 위치)에만 형성되는 것으로 경계로서 의미가 있다. When the subject of the present invention is located on the virtual plane 410 of FIG. 4, depth images captured through the first to fourth depth cameras 310 to 340 may be merged without editing to obtain 3D information. . However, substantially, the virtual plane 410 of FIG. 4 is formed only in a limited position (a position separated from the mobile terminal 200 by a minimum length (L_min) where the photographing areas of the plurality of depth cameras 310 to 340 overlap) It is meaningful as a boundary.
본 발명의 피사체가 도 5의 가상의 평면(410)에 위치하는 경우, (즉, 피사체가 최소 길이(L_min) 보다 가까이 위치하는 경우) 제1 내지 제4 깊이 카메라(310 내지 340)을 통해 촬영된 깊이 영상을 병합하더라도 피사체의 3차원 정보를 획득하지 못할 수 있다. 구체적으로, 피사체가 미인식 영역(a12_2, a23_2, a34_2 및 a41_2)에 위치하는 경우, 본 발명의 이동 단말기(200)는 복수의 카메라(310 내지 340)를 통해 피사체의 3차원 정보를 획득하는데 제약이 있을 수 있다. 이 경우, 본 발명은 피사체가 특정 깊이 카메라의 화각 내로 이동 하도록 가이드하거나, 피사체가 복수의 깊이 카메라(310 내지 340)의 촬영 영역이 겹치는 최소 길이(L_min)보다 멀리 위치하도록 가이드할 수 있다. When the subject of the present invention is located on the virtual plane 410 of FIG. 5 (that is, when the subject is located closer than the minimum length (L_min)), photographing through the first to fourth depth cameras 310 to 340 Even if the obtained depth image is merged, it may not be possible to obtain 3D information of the subject. Specifically, when the subject is located in the unrecognized areas (a12_2, a23_2, a34_2, and a41_2), the mobile terminal 200 of the present invention is limited in obtaining 3D information of the subject through a plurality of cameras 310 to 340. This can be. In this case, the present invention may guide the subject to move within the angle of view of a specific depth camera, or guide the subject to be located farther than the minimum length L_min where the photographing areas of the plurality of depth cameras 310 to 340 overlap.
본 발명의 피사체가 도 5의 가상의 평면(410)에 위치하는 경우, (즉, 피사체가 최소 길이(L_min) 보다 멀리 위치하는 경우) 제1 내지 제4 깊이 카메라(310 내지 340)을 통해 촬영된 깊이 영상을 병합하여 피사체의 3차원 정보를 획득할 수 있다. 다만, 피사체가 중복 영역(a12_3, a23_3, a34_3 및 a41_3)에 위치하는 경우, 중복 정보를 처리(편집)할 필요가 있다. 이하에서, 피사체가 도 5의 가상의 평면(410)에 위치하는 경우, 제1 내지 제4 깊이 카메라(310 내지 340)을 통해 촬영된 깊이 이미지의 실시예를 살펴본다. When the subject of the present invention is located on the virtual plane 410 of FIG. 5 (that is, when the subject is located farther than the minimum length (L_min)), photographing through the first to fourth depth cameras 310 to 340 3D information of the subject may be obtained by merging the obtained depth images. However, when the subject is located in the overlapping areas a12_3, a23_3, a34_3, and a41_3, it is necessary to process (edit) the redundant information. Hereinafter, when the subject is located on the virtual plane 410 of FIG. 5, an embodiment of the depth image captured by the first to fourth depth cameras 310 to 340 will be described.
도 7 내지 도 9은 본 발명과 관련된 이동 단말기에서, 복수의 깊이 카메라를 통해 획득한 깊이 이미지를 도시하고 있다. 구체적으로, 도 7 내지 도 9은, 피사체가 도 5의 가상의 평면(410)에 위치하는 경우에 제1 내지 제4 깊이 카메라(310 내지 340)을 통해 촬영된 깊이 이미지를 도시하고 있다. 7 to 9 illustrate depth images acquired through a plurality of depth cameras in a mobile terminal related to the present invention. Specifically, FIGS. 7 to 9 illustrate depth images captured by the first to fourth depth cameras 310 to 340 when the subject is positioned on the virtual plane 410 of FIG. 5.
사용자의 손 형상 전체가 복수의 깊이 카메라(310 내지 340) 중 하나의 깊이 카메라의 촬영 영역 내에 포함되는 경우, 본 발명의 이동 단말기는 해당 깊이 카메라(310 내지 340 중 하나)의 깊이 이미지를 분석하여 사용자 손의 모션을 감지할 수 있다. When the entire shape of the user's hand is included in the photographing area of one of the plurality of depth cameras 310 to 340, the mobile terminal of the present invention analyzes the depth image of the corresponding depth camera 310 to 340 The motion of the user's hand can be detected.
구체적으로, 도 7은 사용자 손의 전체가 복수의 깊이 카메라(310 내지 340) 중 하나의 깊이 카메라의 촬영 영역 내에 포함되는 실시예를 도시하고 있다. 도 7(a)는 피사체의 전체 형상(302)이 제2 깊이 카메라를 통해 획득한 제2 깊이 이미지(b2_1)에 포함되는 실시예를 도시하고 있다. 도 7(b)는 피사체의 전체 형상(302)이 제1 깊이 카메라를 통해 획득한 제1깊이 이미지(b1_1)에 포함되는 실시예를 도시하고 있다. 도 7(c)는 피사체의 전체 형상(302)이 제3 깊이 카메라를 통해 획득한 제3 깊이 이미지(b3_1)에 포함되는 실시에를 도시하고 있다. 도 7(d)는 피사체의 전체 형상(302)이 제4 깊이 카메라를 통해 획득한 제4 깊이 이미지(b4_1)에 포함되는 실시예를 도시하고 있다. 도 7과 같이 피사체의 전체 형상(302)이 특정 깊이 카메라에서 획득한 깊이 이미지에 올 곧이 포함되는 경우, 복수의 깊이 카메라에서 각각 획득한 깊이 이미지를 병합할 필요 없이, 특정 깊이 카메라에서 획득한 깊이 이미지를 분석하여 사용자 손 모션을 감지할 수 있다. Specifically, FIG. 7 illustrates an embodiment in which the entire user's hand is included in a photographing area of one of the plurality of depth cameras 310 to 340. 7A illustrates an embodiment in which the overall shape 302 of a subject is included in the second depth image b2_1 acquired through the second depth camera. FIG. 7B shows an embodiment in which the overall shape 302 of the subject is included in the first depth image b1_1 acquired through the first depth camera. 7(c) shows an example in which the overall shape 302 of the subject is included in the third depth image b3_1 acquired through the third depth camera. 7(d) shows an embodiment in which the overall shape 302 of the subject is included in the fourth depth image b4_1 acquired through the fourth depth camera. As shown in FIG. 7, when the overall shape 302 of the subject is included in the depth image acquired by a specific depth camera, the depth images acquired from a plurality of depth cameras do not need to be merged, By analyzing the depth image, the motion of the user's hand can be detected.
사용자 손의 전체 형상이 특정 깊이 이미지에 완전히 포함되지 않고, 상기 복수의 깊이 카메라 각각이 획득한 복수의 깊이 이미지에서 분할되어 포함되는 경우, 특정 깊이 이미지를 통해 사용자 손의 전체 형상을 인지할 수 없다. When the entire shape of the user's hand is not completely included in the specific depth image, but is divided and included in the plurality of depth images acquired by each of the plurality of depth cameras, the entire shape of the user's hand cannot be recognized through the specific depth image. .
구체적으로, 도 8은 피사체의 전체가 복수의 깊이 카메라(310 내지 340) 의 촬영 영역에 분할되어 포함되는 실시예를 도시하고 있다. 도 8(a)는 피사체의 전체 형상(302)이 제2 깊이 카메라를 통해 획득한 제2 깊이 이미지(b2_1)와 제3 깊이 카메라를 통해 획득한 제3 깊이 이미지(b3_1)에 분할되어 포함되는 실시예를 도시하고 있다. 도 8(b)는 피사체의 전체 형상(302)이 제1 깊이 카메라를 통해 획득한 제1 깊이 이미지(b1_1)와 제4 깊이 카메라를 통해 획득한 제4 깊이 이미지(b4_1)에 분할되어 포함되는 실시예를 도시하고 있다. 도 8(c)는 피사체의 전체 형상(302)이 제3 깊이 카메라를 통해 획득한 제3깊이 이미지(b3_1)와 제4 깊이 카메라를 통해 획득한 제4 깊이 이미지(b4_1)에 분할되어 포함되는 실시예를 도시하고 있다. 도 8(d)는 피사체의 전체 형상(302)이 제2 깊이 카메라를 통해 획득한 제2 깊이 이미지(b2_1)와 제1 깊이 카메라를 통해 획득한 제1 깊이 이미지(b1_1)에 분할되어 포함되는 실시예를 도시하고 있다. Specifically, FIG. 8 shows an embodiment in which the entire subject is divided and included in a photographing area of a plurality of depth cameras 310 to 340. 8(a) shows that the overall shape 302 of the subject is divided and included in a second depth image b2_1 acquired through a second depth camera and a third depth image b3_1 acquired through a third depth camera. An example is shown. 8(b) shows that the overall shape 302 of the subject is divided and included in the first depth image b1_1 acquired through the first depth camera and the fourth depth image b4_1 acquired through the fourth depth camera. An example is shown. 8(c) shows that the overall shape 302 of the subject is divided and included in the third depth image b3_1 acquired through the third depth camera and the fourth depth image b4_1 acquired through the fourth depth camera. An example is shown. 8(d) shows that the overall shape 302 of the subject is divided and included in the second depth image b2_1 acquired through the second depth camera and the first depth image b1_1 acquired through the first depth camera. An example is shown.
도 8(a)의 경우, 제2 깊이 이미지(b2_1)과 제3 깊이 이미지(b3_1)을 병합하여 사용자 손 전체 형상을 분별하고, 사용자 손 모션을 감지할 수 있다. 도 8(b)의 경우, 제 1 깊이 이미지(b1_1)과 제4 깊이 이미지(b4_1)을 병합하여 사용자 손 전체 형상을 분별하고, 사용자 손 모션을 감지할 수 있다. 도 8(c)의 경우, 제 3 깊이 이미지(b3_1)와 제4 깊이 이미지(b4_1)을 병합하여 사용자 손 전체 형상을 분별하고, 사용자 손 모션을 감지할 수 있다. 도 8(d)의 경우, 제2 깊이 이미지(b2_1)와 제1 깊이 이미지(b1_1)을 병합하여 사용자 손 전체 형상을 분별하고, 사용자 손 모션을 감지할 수 있다. In the case of FIG. 8A, the second depth image b2_1 and the third depth image b3_1 may be merged to identify the overall shape of the user's hand, and the user's hand motion may be sensed. In the case of FIG. 8B, the first depth image b1_1 and the fourth depth image b4_1 may be merged to identify the entire shape of the user's hand, and the user's hand motion may be sensed. In the case of FIG. 8C, the third depth image b3_1 and the fourth depth image b4_1 may be merged to identify the entire shape of the user's hand, and the user's hand motion may be sensed. In the case of FIG. 8D, the second depth image b2_1 and the first depth image b1_1 may be merged to discriminate the entire shape of the user's hand and detect the user's hand motion.
본 발명은 복수의 깊이 카메라가 각각 획득한 깊이 이미지 중 사용자 손 전체 형상이 분할되어 포함되는 깊이 이미지를 병합하여 사용자 손의 전체 형상을 획득할 수 있다. 즉, 복수의 깊이 카메라가 각각 획득한 깊이 이미지 중 사용자 손의 일부를 포함하지 않는 깊이 이미지는 달리 병합할 필요가 없다. 즉, 도 8(a)에서 제1 깊이 이미지(b1_1)와 제4 깊이 이미지(b4_1)는 병합할 필요가 없다. 또한, 도 8(b)에서 제2 깊이 이미지(b2_1)와 제3 깊이 이미지(b3_1)은 병합할 필요가 없다. 또한, 도 8(c)에서 제2 깊이 이미지(b2_1)와 제1 깊이 이미지(b1_1)는 병합할 필요가 없다. 또한, 도 8(d)에서 제3 깊이 이미지(b3_1)와 제4 깊이 이미지(b4_1)는 병합할 필요가 없다. In the present invention, the entire shape of the user's hand may be obtained by merging the depth image including the entire shape of the user's hand from among the depth images obtained by each of the plurality of depth cameras. That is, among the depth images each acquired by the plurality of depth cameras, a depth image that does not include a part of the user's hand does not need to be merged otherwise. That is, it is not necessary to merge the first depth image b1_1 and the fourth depth image b4_1 in FIG. 8A. In addition, in FIG. 8B, the second depth image b2_1 and the third depth image b3_1 do not need to be merged. In addition, in FIG. 8C, the second depth image b2_1 and the first depth image b1_1 need not be merged. In addition, in FIG. 8D, the third depth image b3_1 and the fourth depth image b4_1 do not need to be merged.
경우에 따라서, 사용자 손의 전체 형상은 세 개 이상의 깊이 이미지를 병합하여 획득할 수 있다. 구체적으로, 도 9는 사용자의 손 형상이 네 개의 깊이 이미지에 분할되어 포함되는 실시예를 도시하고 있다. 이 경우, 본 발명은 제1 깊이 이미지(b1_1), 제2 깊이 이미지(b2_1), 제3 깊이 이미지(b3_1) 및 제4 깊이 이미지(b4_1)를 모두 병합하여 사용자 손 전체 형상을 분별하고, 사용자 손 모션을 감지할 수 있다. In some cases, the overall shape of the user's hand may be obtained by merging three or more depth images. Specifically, FIG. 9 shows an embodiment in which the shape of a user's hand is divided and included in four depth images. In this case, the present invention combines all of the first depth image (b1_1), the second depth image (b2_1), the third depth image (b3_1), and the fourth depth image (b4_1) to discriminate the entire shape of the user's hand, and Hand motion can be detected.
즉, 본 발명의 이동 단말기는 각각 일정한 화각으로 촬영하여 깊이 이미지를 획득하고, 촬영 영역이 일부 중복되는 복수의 깊이 카메라, 시청각 데이터를 출력하는 출력부, 상기 획득한 깊이 이미지를 이용하여 사용자 손의 모션을 인지하고 인지한 사용자 손 모션에 대응하여 상기 출력부를 제어하는 제어부를 포함하고, 상기 제어부는 상기 복수의 깊이 카메라 중 제1 깊이 카메라를 통해 획득한 제1 깊이 이미지에 사용자 손 형상의 일부가 포함되는 경우, 상기 복수의 깊이 카메라 중 상기 제1 깊이 카메라가 촬영하는 영역의 인접 영역을 촬영하는 제2 깊이 카메라를 통해 획득한 제2 깊이 이미지를 상기 제1 깊이 이미지에 병합하여 사용자 손의 전체 형상을 획득할 수 있다. That is, the mobile terminal of the present invention obtains a depth image by photographing each at a constant angle of view, a plurality of depth cameras in which the photographing area partially overlaps, an output unit for outputting audio-visual data, and the user's hand using the acquired depth image. And a control unit for controlling the output unit in response to the motion of the user hand recognized and recognized, wherein the control unit includes a part of the shape of the user hand in the first depth image acquired through the first depth camera among the plurality of depth cameras. If included, a second depth image acquired through a second depth camera that photographs an area adjacent to an area photographed by the first depth camera among the plurality of depth cameras is merged with the first depth image to form the entire user's hand. Shape can be acquired.
본 발명의 이동 단말기는 제1 깊이 이미지에서 사용자 손 형상의 일부가 포함된 위치를 통해, 상기 복수의 깊이 카메라 중 상기 제2 깊이 카메라를 분별할 수 있다. 예를 들어, 제1 깊이 이미지에 사용자 손의 일부 형상이 하부 영역에 위치하는 경우, 본 발명은 상기 제1 깊이 카메라의 촬영 영역에서 하부 영역을 인접하여 촬영하는 카메라를 상기 제2 깊이 카메라로 분별할 수 있다. 본 발명은 상기 제2 깊이 카메라를 통해 상기 제1 깊이 이미지에 병합될 상기 제2 깊이 이미지를 획득할 수 있다. 즉, 본 발명은 사용자의 손이 분할되어 깊이 이미지에 포함되어 있는 경우, 어느 하나의 깊이 이미지를 통해 사용자의 손의 일부가 포함됨을 분별하고, 나머지 부분을 포함하는 깊이 이미지를 분별할 수 있다. The mobile terminal of the present invention may discriminate the second depth camera from among the plurality of depth cameras through a position in which a part of the shape of the user's hand is included in the first depth image. For example, when a part of the shape of the user's hand is located in the lower area in the first depth image, the present invention may identify a camera that photographs adjacent to the lower area in the shooting area of the first depth camera by the second depth camera. I can. The present invention may obtain the second depth image to be merged into the first depth image through the second depth camera. That is, in the present invention, when the user's hand is divided and included in the depth image, it is possible to discriminate that a part of the user's hand is included through any one depth image, and the depth image including the remaining part may be discriminated.
본 발명의 복수의 깊이 카메라는 촬영 영역이 일부 중복되어 제1 깊이 이미지에 사용자 손의 일부 형상이 포함되고, 제2 깊이 이미지에 사용자 손의 전체 형상이 포함될 수 있다. 이 경우, 상기 제2 깊이 이미지를 상기 제1 깊이 이미지에 병합하여 사용자 손 전체 형상을 획득할 필요는 없다. 이 경우, 본 발명은 상기 제2 깊이 이미지를 통해 사용자 손의 전체 형상을 획득하고, 연속 촬영된 상기 제 2 깊이 이미지를 통해 사용자 손의 모션을 인지할 수 있다. 즉, 본 발명은 상기 제1 깊이 이미지가 사용자 손의 일부 형상을 포함하고, 상기 제2 깊이 이미지가 사용자 손의 나머지 형상을 포함하되, 상기 제2 깊이 이미지가 사용자 손의 전체 형상을 포함하지 않는 경우, 상기 제1 깊이 이미지와 상기 제2 깊이 이미지를 병합하여 사용자 손의 전체 형상을 획득할 수 있다. In the plurality of depth cameras of the present invention, a partial shape of the user's hand may be included in the first depth image, and the entire shape of the user's hand may be included in the second depth image because the photographing area partially overlaps. In this case, it is not necessary to acquire the entire shape of the user's hand by merging the second depth image with the first depth image. In this case, the present invention may acquire the entire shape of the user's hand through the second depth image, and recognize the motion of the user's hand through the second depth image continuously photographed. That is, in the present invention, the first depth image includes a partial shape of the user's hand, the second depth image includes the remaining shape of the user's hand, and the second depth image does not include the entire shape of the user's hand. In this case, the entire shape of the user's hand may be obtained by merging the first depth image and the second depth image.
도 10은 복수의 깊이 카메라를 통해 사용자 손의 모션을 감지하고, 대응되는 기능을 제공하는 전체 프로세서를 설명하는 흐름도이다.10 is a flowchart illustrating an entire processor that senses a motion of a user's hand through a plurality of depth cameras and provides a corresponding function.
본 발명의 이동 단말기는 복수의 깊이 카메라를 통해 각각 깊이 이미지를 획득할 수 있다. (S210) 여기서 복수의 깊이 카메라는 각각 연속하는 프레임마다 깊이 이미지를 획득할 수 있으며, 촬영 영역이 일부 중첩될 수 있다. The mobile terminal of the present invention may each acquire a depth image through a plurality of depth cameras. (S210) Here, the plurality of depth cameras may acquire a depth image for each successive frame, and the photographing area may partially overlap.
본 발명은 복수의 깊이 카메라에서 획득한 깊이 이미지에서 사용자 손 형상이 인식되는지 분별할 수 있다. (S220) 본 발명은 사용자 손 형상의 특징을 이용하여 깊이 이미지에 사용자 손 형상이 포함되어 있는지 분별할 수 있다. 본 발명의 사용자 손의 일부분 특징을 이용하여 깊이 카메라를 통해 촬영된 피사체가 사용자의 손에 대응되는지 분별할 수 있다. The present invention can discriminate whether a shape of a user's hand is recognized from a depth image acquired from a plurality of depth cameras. (S220) In the present invention, it is possible to discriminate whether or not the shape of the user's hand is included in the depth image by using the feature of the shape of the user's hand. It is possible to discriminate whether a subject photographed through the depth camera corresponds to the user's hand by using a partial feature of the user's hand of the present invention.
본 발명은 복수의 깊이 카메라에서 각각 획득한 깊이 이미지에서 사용자 손 형상이 인식되지 않는 경우, (S220, No) 복수의 깊이 카메라를 통해 획득한 깊이 이미지를 병합하지 않고, 깊이 이미지를 획득하는 것을 계속으로 수행할 수 있다. 본 발명은 계속적으로 획득한 깊이 이미지에 사용자 손의 형상이 포함되는지 분별할 수 있다.In the present invention, when the shape of the user's hand is not recognized in the depth image obtained from each of the plurality of depth cameras (S220, No), the depth image obtained through the plurality of depth cameras is not merged and continues to be acquired. Can be done with The present invention can discriminate whether the shape of the user's hand is included in the continuously acquired depth image.
본 발명은 복수의 깊이 카메라에서 각각 획득한 깊이 이미지 중 적어도 하나에서 사용자 손 형상의 적어도 일 부분을 인식한 경우, (S220, Yes) 사용자 손의 전체 형상이 단일 깊이 카메라로부터 획득한 깊이 이미지에 포함되는지 분별할 수 있다. (S230)In the present invention, when at least one part of the shape of the user's hand is recognized from at least one of the depth images each obtained from a plurality of depth cameras (S220, Yes), the entire shape of the user's hand is included in the depth image acquired from a single depth camera. I can discern whether it works. (S230)
본 발명은 사용자 손 전체가 하나의 깊이 카메라 촬영 영역 내에 위치하여, 해당 깊이 카메라를 통해 획득한 깊이 이미지에서 사용자 손 전체 형상을 분별할 수 있는 경우, (S230, Yes) 해당 깊이 카메라를 통해 사용자 손 모션을 감지하고 대응되는 기능을 제공할 수 있다. 이 경우, 본 발명은 다른 깊이 카메라를 통해 획득한 깊이 이미지를 병합하는 것을 생략할 수 있다. In the present invention, when the entire user's hand is located within one depth camera photographing area, and the entire shape of the user's hand can be discriminated from the depth image acquired through the corresponding depth camera, (S230, Yes) the user's hand motion through the corresponding depth camera. Can detect and provide a corresponding function. In this case, the present invention may omit merging of depth images acquired through different depth cameras.
다만, 본 발명은 사용자의 손이 복수의 깊이 카메라의 중복 촬영 영역에 걸쳐 위치하여, 단일 깊이 카메라를 통해 획득한 깊이 이미지에서 사용자 손 전체 형상을 분별할 수 없는 경우, (S230, No) 복수의 깊이 카메라에서 획득한 깊이 이미지를 병합하여 사용자 손의 전체를 인식할 수 있다. (S240) 본 발명은 복수의 깊이 카메라를 통해 사용자 손의 전체 형상을 인식하고, 사용자 손의 모션에 대응되는 기능을 제공할 수 있다. (S250)However, in the present invention, when the user's hand is positioned over the overlapping area of the plurality of depth cameras, and the entire shape of the user's hand cannot be discriminated from the depth image acquired through a single depth camera, (S230, No) a plurality of depths The depth image acquired from the camera can be merged to recognize the entire user's hand. (S240) The present invention can recognize the entire shape of the user's hand through a plurality of depth cameras, and provide a function corresponding to the motion of the user's hand. (S250)
도 11 은 복수의 깊이 카메라를 통해 획득한 깊이 이미지를 병합하는 방법을 설명하기 위한 도면이다.11 is a diagram for describing a method of merging depth images acquired through a plurality of depth cameras.
복수의 깊이 카메라(310 및 320)는 각각 일정한 화각으로 촬영 영역에 대응되는 깊이 이미지를 획득하되, 촬영 영역이 특정 거리부터 중첩될 수 있다. 여기서 특정 거리는 복수의 깊이 카메라를 통해 인식할 수 있는 영역이 겹치기 시작하는 최소 거리(L_min)에 대응될 수 있다. Each of the plurality of depth cameras 310 and 320 acquires a depth image corresponding to the photographing region at a constant angle of view, but the photographing regions may overlap from a specific distance. Here, the specific distance may correspond to a minimum distance L_min at which regions recognizable through a plurality of depth cameras start to overlap.
본 발명은 도 5에서 살펴본 바와 같이 상기 특정 거리 이하에서는 복수의 깊이 카메라가 촬영 하는 영역 간 미인식 영역이 생길 수 있다. 본 발명은 사용자의 손이 상기 미인식 영역에 위치하는 경우, 복수의 깊이 카메라를 통해 각각 획득한 깊이 이미지를 병합하더라도 사용자 손의 전체 형상을 획득하지 못할 수 있다. 이경우, 본 발명은 복수의 깊이 카메라에서 획득한 깊이 이미지를 병합하지 않고, 본 발명의 출력부를 통해 사용자 손의 위치를 가이들 할 수 있다. 예를 들어, 본 발명은 사용자 손이 특정 카메라의 화각 내에 위치하도록 가이드 하거나, 상기 특정 거리 이상에 위치하도록 가이드 할 수 있다. In the present invention, as shown in FIG. 5, an unrecognized area may occur between areas photographed by a plurality of depth cameras below the specific distance. According to the present invention, when the user's hand is located in the unrecognized area, the entire shape of the user's hand may not be obtained even if depth images respectively acquired through a plurality of depth cameras are merged. In this case, the present invention can guide the position of the user's hand through the output unit of the present invention, without merging depth images acquired from a plurality of depth cameras. For example, according to the present invention, the user's hand may be guided to be positioned within the angle of view of a specific camera, or may be guided to be positioned at a specific distance or more.
본 발명은 도 6에서 살펴본 바와 같이 상기 특정 거리 이상에 사용자의 손이 위치하는 경우, 복수의 깊이 카메라를 통해 획득한 깊이 이미지를 병합하여 사용자 손의 전체 형상을 획득할 수 있다. 구체적으로, 본 발명은 사용자의 손이 복수의 깊이 카메라의 중복 촬영 영역 상에 위치하는 것으로 판별한 경우, 복수의 깊이 카메라의 촬영 영역이 중복되지 않게 분할하고, 분할된 영역에 맞춰 각각 획득한 깊이 이미지를 병합하여 사용자 손의 전체 형상을 획득할 수 있다.According to the present invention, when the user's hand is positioned more than the specific distance as described in FIG. 6, the entire shape of the user's hand may be obtained by merging depth images acquired through a plurality of depth cameras. Specifically, in the present invention, when it is determined that the user's hand is located on the overlapping shooting area of a plurality of depth cameras, the shooting areas of the plurality of depth cameras are divided so that they do not overlap, and the depths respectively acquired according to the divided areas By merging the images, the overall shape of the user's hand can be obtained.
구체적으로, 도 11을 통해 복수의 깊이 카메라(310, 320)의 촬영 영역이 중복되지 않게 분할하는 방법을 살펴본다. Specifically, a method of dividing photographing regions of the plurality of depth cameras 310 and 320 so as not to overlap with each other will be described with reference to FIG. 11.
본 발명의 제1 깊이 카메라(310)와 제2 깊이 카메라(320)는 이동 단말기(200)를 향한 법선 벡터를 가지는 가상의 평면(410) 상에서 각각 화각에 대응되는 인식 영역(a1_1 및 a2_1)을 가질 수 있다. 제1 깊이 카메라(310)의 인식 영역(a1_1)과 제2 깊이 카메라(320)의 인식 영역(a2_1)은 이동 단말기(200)와의 거리에 대응하여 중복 영역(a12_3)을 포함할 수 있다. 구체적으로, 최소 거리(L_min) 이상 떨어진 거리에서 제1 깊이 카메라(310)의 인식 영역(a1_1)과 제2 깊이 카메라(320)의 인식 영역(a2_1)은 중복 영역(a12_3)을 포함할 수 있다. 사용자의 손이 중복 영역(a12_3)에 위치하는 경우, 제1 깊이 이미지와 제2 깊이 이미지를 병합하여 사용자 손의 전체 형상을 올바로 획득하기 어려울 수 없다. 왜냐하면 사용자 손의 일부 중 제1 깊이 이미지에 포함된 부분이 제2 깊이 이미지에도 반복될 수 있기 때문이다. 따라서, 본 발명은 중복 영역(a12_3)을 분할하여 각각을 인식하는 깊이 카메라를 달리하고, 병합된 이미지에서 사용자 손의 일 부분이 반복되는 것을 방지할 수 있다. The first depth camera 310 and the second depth camera 320 of the present invention define recognition regions a1_1 and a2_1 corresponding to the angle of view on a virtual plane 410 having a normal vector toward the mobile terminal 200. Can have. The recognition area a1_1 of the first depth camera 310 and the recognition area a2_1 of the second depth camera 320 may include an overlapping area a12_3 corresponding to a distance from the mobile terminal 200. Specifically, the recognition area a1_1 of the first depth camera 310 and the recognition area a2_1 of the second depth camera 320 at a distance greater than or equal to the minimum distance L_min may include an overlapping area a12_3. . When the user's hand is located in the overlapping area a12_3, it may not be difficult to properly acquire the entire shape of the user's hand by merging the first depth image and the second depth image. This is because a part of the user's hand included in the first depth image may be repeated in the second depth image. Accordingly, according to the present invention, a depth camera that recognizes each of the overlapping regions a12_3 can be divided, and a part of the user's hand can be prevented from being repeated in the merged image.
구체적으로, 본 발명의 중복 영역(a12_3)은 제1 깊이 카메라(310) 및 제2 깊이 카메라(320)의 인식 영역이 겹치기 시작하는 최소 거리(L_min) 대비 각 깊이 카메라의 광축에서 중심 평면(a12_4)까지 최소 거리의 비를 이용하여 분할할 수 있다. 여기서, 중심 평면(a12_4)는 제1 깊이 카메라(310)와 제2 깊이 카메라(320)의 촬영 영역이 겹치시 시작하는 지점을 포함하는 평면으로 상기 제1 깊이 카메라(310)와 제2 깊이 카메라(320)를 잇는 직선과 수직한 평면일 수 있다. Specifically, the overlapping area a12_3 of the present invention is a center plane a12_4 in the optical axis of each depth camera compared to the minimum distance L_min at which the recognition areas of the first depth camera 310 and the second depth camera 320 start to overlap. It can be divided using the ratio of the minimum distance to ). Here, the center plane (a12_4) is a plane including a start point when the photographing areas of the first depth camera 310 and the second depth camera 320 overlap, and the first depth camera 310 and the second depth camera It may be a plane perpendicular to a straight line connecting 320.
예를 들어, 본 발명은, 제2 깊이 카메라(320)의 인식 영역(a2_1)에서 중복 영역(a12_3) 중 제1 깊이 카메라(310)를 통해 인식할 영역을 제외한 분할 영역(a2_1')을 설정하고, 분할 영역(a2_1')에 대응되는 제2 편집 이미지(b2_1')를 획득할 수 있다. 구체적으로, 본 발명은 제1 깊이 카메라(310) 및 제2 깊이 카메라(320)의 인식 영역이 겹치기 시작하는 최소 거리(L_min) 대비 제2 깊이 카메라(320)의 광축에서 중심 평면(a12_4)까지 최소 거리(H2_min)의 비(rate 2)를 산출할 수 있다. 본 발명은 제1 깊이 카메라(310) 및 제2 깊이 카메라(320)의 인식 영역이 겹치기 시작하는 최소 지점에서 가상의 평면(410)까지의 거리(x_r)과 상기 산출된 비(rate 2)이용하여 중복 영역(a12_3)에서 제1 깊이 카메라(310)를 통해 인식될 영역(y2_r)를 산출할 수 있다. 본 발명은 제2 깊이 카메라(320)의 인식 영역(a2_1)에서 제1 깊이 카메라(310)를 통해 인식될 영역(y2_r)를 제외하고 분할 영역(a2_1')를 설정할 수 있다. 상기와 같은 방식으로 본 발명은, 제1 깊이 카메라(310)의 인식 영역(a1_1)에서 중복 영역(a12_3) 중 제2 깊이 카메라(320)를 통해 인식할 영역을 제외한 분할 영역(a1_1')을 설정하고, 분할 영역(a1_1')에 대응되는 제1 편집 이미지(b1_1')를 획득할 수 있다.For example, the present invention sets a divided area (a2_1') excluding an area to be recognized through the first depth camera 310 among the overlapping areas a12_3 in the recognition area a2_1 of the second depth camera 320 Then, a second edited image b2_1 ′ corresponding to the divided area a2_1 ′ may be obtained. Specifically, the present invention is from the optical axis of the second depth camera 320 to the center plane (a12_4) compared to the minimum distance (L_min) at which the recognition regions of the first depth camera 310 and the second depth camera 320 start to overlap. The ratio (rate 2) of the minimum distance (H2_min) can be calculated. The present invention uses the distance (x_r) from the minimum point where the recognition regions of the first depth camera 310 and the second depth camera 320 starts to overlap to the virtual plane 410 and the calculated ratio (rate 2). Thus, an area y2_r to be recognized through the first depth camera 310 in the overlapping area a12_3 may be calculated. The present invention may set the divided area a2_1 ′ excluding the area y2_r to be recognized through the first depth camera 310 in the recognition area a2_1 of the second depth camera 320. In the same manner as described above, the present invention provides a divided area (a1_1') excluding an area to be recognized by the second depth camera 320 among the overlapping areas (a12_3) in the recognition area (a1_1) of the first depth camera 310. After setting, a first edited image b1_1 ′ corresponding to the divided region a1_1 ′ may be obtained.
도 12는 본 발명과 관련된 이동 단말기에서, 복수의 깊이 카메라를 통해 촬영된 깊이 이미지를 병합하여 사용자 손의 전체 형상을 획득하는 실시예를 도시하고 있다. 12 illustrates an embodiment of acquiring an overall shape of a user's hand by merging depth images captured through a plurality of depth cameras in a mobile terminal related to the present invention.
구체적으로, 도 12(a)는 제1 내지 제4 깊이 카메라를 통해 각각 획득하는 깊이 이미지(b1_1, b2_1, b3_1 및 b4_1)를 도시하고 있다. 여기서 사용자의 손의 전체 형상(302)은 제2 깊이 이미지(b2_1)와 제3 깊이 이미지(b3_1) 깊이 이미지에 분할되어 포함되어 있는 실시예를 도시하고 있다. Specifically, FIG. 12A illustrates depth images b1_1, b2_1, b3_1, and b4_1 respectively acquired through first to fourth depth cameras. Here, the overall shape 302 of the user's hand is shown in an embodiment in which the second depth image b2_1 and the third depth image b3_1 are divided and included in the depth images.
도 12(b)는 도 12(a)의 제2 깊이 이미지(b2_1)와 제3 깊이 이미지(b3_1)을 병합하여 사용자 손 전체 형상을 획득하는 실시예를 도시하고 있다. 구체적으로, 도 12(b)는 제2 깊이 이미지(b2_1)에서 제3 깊이 이미지(b3_1)를 통해 구현할 부분을 제외한 제2 편집 이미지(b2_1')와 제3 깊이 이미지(b3_1)에서 제2 깊이 이미지(b2_1)를 통해 구현할 부분을 제외한 제3 편집 이미지(b3_1')를 병합하여 병합 이미지(303)를 획득하는 실시예를 도시하고 있다. FIG. 12(b) illustrates an embodiment in which the entire shape of the user's hand is obtained by merging the second depth image b2_1 and the third depth image b3_1 of FIG. 12(a). Specifically, FIG. 12(b) shows the second depth in the second edited image b2_1' and the third depth image b3_1 excluding a portion to be implemented through the third depth image b3_1 in the second depth image b2_1. An exemplary embodiment in which the merged image 303 is obtained by merging the third edited image b3_1' excluding a portion to be implemented through the image b2_1 is illustrated.
병합 이미지(303)는 연속되는 영역을 미인식 영역이나 중첩 영역 없이 촬영된 깊이 이미지에 대응될 수 있다. 본 발명은 사용자의 손 형상이 복수의 깊이 이미지에 분할되어 포함되는 경우 병합 이미지(303)를 촬영 프레임 마다 획득하고, 획득한 병합 이미지(303)를 통해 사용자 손의 모션을 인식하고, 대응되는 기능을 제공할 수 있다.The merged image 303 may correspond to a depth image captured in a continuous area without an unrecognized area or an overlapping area. In the present invention, when the shape of the user's hand is divided and included in a plurality of depth images, the merged image 303 is acquired for each shooting frame, and the motion of the user's hand is recognized through the acquired merged image 303, and a corresponding function Can provide.
도 13 및 도 14는 복수의 깊이 카메라를 통해 촬영 영역을 확장 시키는 다른 적용례를 설명하기 위한 도면이다. 13 and 14 are diagrams for explaining another application example of expanding a photographing area through a plurality of depth cameras.
본 발명은 이동 단말기 외에 다른 디바이스에 복수의 깊이 카메라를 포함하고, 깊이 이미지를 획득하는 촬영 영역을 확장할 수 있다. The present invention may include a plurality of depth cameras in devices other than a mobile terminal, and expand a photographing area for obtaining a depth image.
구체적으로, 도 13은 디스플레이 장치(200)에 복수의 깊이 카메라(310 내지 340)를 포함하는 실시예를 도시하고 있다. 본 발명의 디스플레이 장치(200)는 복수의 깊이 카메라(310 내지 340)를 디스플레이 장치(200)의 각 모퉁이에 구비하여 보다 넓은 영역에 대응되는 깊이 이미지를 획득할 수 있다. 복수의 깊이 카메라(310 내지 340)는 촬영 영역을 분할하여 각각 대응되는 깊이 이미지를 획득할 수 있다. 이때, 분할된 촬영 영역(a1_1' 내지 a4_1')은 미인식 영역 없이 연속적이며, 중첩되지 않을 수 있다. Specifically, FIG. 13 illustrates an embodiment including a plurality of depth cameras 310 to 340 in the display device 200. The display device 200 of the present invention may acquire a depth image corresponding to a wider area by providing a plurality of depth cameras 310 to 340 at each corner of the display device 200. The plurality of depth cameras 310 to 340 may obtain corresponding depth images by dividing the photographing area. In this case, the divided photographing areas a1_1 ′ to a4_1 ′ are continuous without an unrecognized area, and may not overlap.
구체적으로, 도 14는, 자동차 내에 복수의 깊이 카메라(310 내지 340)을 포함하는 실시예를 도시하고 있다. 복수의 깊이 카메라(310 내지 340)는 자동차의 전면 유리창 모퉁이에 구비되어 운전자의 손이 위치하는 영역을 분할하여 촬영할 수 있다. 복수의 깊이 카메라(310 내지 340)는 깊이 이미지를 획득하는 광축 방향이 운전자의 손이 위치하는 영역을 향하도록 구비될 수 있다. 복수의 깊이 카메라(310 내지 340)는 촬영 영역을 분할하여 각각 대응되는 깊이 이미지를 획득할 수 있다. 이때, 분할된 촬영 영역(a1_1' 내지 a4_1')은 미인식 영역 없이 연속적이며, 중첩되지 않을 수 있다. Specifically, FIG. 14 shows an embodiment including a plurality of depth cameras 310 to 340 in a vehicle. The plurality of depth cameras 310 to 340 may be provided at a corner of a front windshield of a vehicle to divide and photograph a region where a driver's hand is located. The plurality of depth cameras 310 to 340 may be provided such that an optical axis direction for acquiring a depth image faces an area where a driver's hand is located. The plurality of depth cameras 310 to 340 may obtain corresponding depth images by dividing the photographing area. In this case, the divided photographing areas a1_1 ′ to a4_1 ′ are continuous without an unrecognized area, and may not overlap.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (10)

  1. 각각 일정한 화각으로 촬영하여 깊이 이미지를 획득하고, 촬영 영역이 일부 중복되는 복수의 깊이 카메라;A plurality of depth cameras each capturing at a constant angle of view to obtain a depth image, and partially overlapping the capturing area;
    시청각 데이터를 출력하는 출력부;An output unit for outputting audio-visual data;
    상기 획득한 깊이 이미지를 이용하여 사용자 손의 모션을 인지하고, 인지한 사용자 손 모션에 대응하여 상기 출력부를 제어하는 제어부;를 포함하고,Including; a control unit for recognizing the motion of the user's hand using the acquired depth image and controlling the output unit in response to the recognized user hand motion; and
    상기 제어부는The control unit
    상기 복수의 깊이 카메라 중 제1 깊이 카메라를 통해 획득한 제1 깊이 이미지에 사용자 손 형상의 일부가 포함되는 경우,When a part of the shape of the user's hand is included in the first depth image acquired through the first depth camera among the plurality of depth cameras,
    상기 복수의 깊이 카메라 중 제1 깊이 카메라가 촬영하는 영역의 인접 영역을 촬영하는 제2 깊이 카메라를 통해 획득한 제2 깊이 이미지를 상기 제1 깊이 이미지에 병합하여 사용자 손의 전체 형상을 획득하는 것을 특징으로 하는 이동 단말기.Acquiring the overall shape of the user's hand by merging a second depth image acquired through a second depth camera that photographs an area adjacent to an area photographed by the first depth camera among the plurality of depth cameras into the first depth image Mobile terminal characterized by.
  2. 제1항에 있어서,The method of claim 1,
    상기 제어부는The control unit
    상기 제1 깊이 이미지에서 사용자 손 형상의 일부가 포함된 위치를 통해, 상기 복부의 깊이 카메라 중 상기 제2 깊이 카메라를 분별하는 것을 특징으로 하는 이동 단말기.The mobile terminal, characterized in that the second depth camera is identified among the depth cameras of the abdomen through a position in the first depth image including a part of the shape of the user's hand.
  3. 제2항에 있어서,The method of claim 2,
    상기 제어부는The control unit
    상기 복수의 깊이 카메라 중 상기 제2 깊이 카메라를 분별할 수 없는 경우, 사용자의 손을 상기 제1 깊이 카메라의 화각 내로 가이드하는 알람을 제공하도록 상기 출력부를 제어하는 것을 특징으로 하는 이동 단말기.And when the second depth camera cannot be identified among the plurality of depth cameras, the output unit is controlled to provide an alarm for guiding the user's hand into the field of view of the first depth camera.
  4. 제2항에 있어서,The method of claim 2,
    상기 제2 깊이 카메라가 획득하는 제2 깊이 이미지는 사용자 손 형상의 나머지를 포함하되, 사용자 손의 전체 형상이 포함되지 않는 것을 특징으로 하는 이동 단말기.The second depth image acquired by the second depth camera includes the rest of the shape of the user's hand, but does not include the entire shape of the user's hand.
  5. 제4항에 있어서,The method of claim 4,
    상기 제어부는The control unit
    상기 제2 깊이 이미지에 사용자 손 형상의 전체가 포함되는 경우, 깊이 이미지 병합을 생략하고, 상기 제2 깊이 이미지를 통해 사용자 손의 전체 형상을 획득하는 것을 특징으로 하는 이동 단말기.When the entire shape of the user's hand is included in the second depth image, merging of the depth image is omitted, and the entire shape of the user's hand is obtained through the second depth image.
  6. 제1항에 있어서,The method of claim 1,
    상기 복수의 깊이 카메라는The plurality of depth cameras
    특정 거리 이상에서 촬영 영역이 중첩되며,Over a certain distance, the shooting area overlaps,
    상기 제어부는 The control unit
    상기 특정 거리 이상에 사용자의 손이 위치하는 경우, 상기 제1 깊이 이미지와 상기 제2 깊이 이미지를 병합하여 사용자 손의 전체 형상을 획득하는 것을 특징으로 하는 이동 단말기.When the user's hand is positioned more than the specific distance, the first depth image and the second depth image are merged to obtain an overall shape of the user's hand.
  7. 제6항에 있어서,The method of claim 6,
    상기 제어부는The control unit
    상기 특정 거리 이내에 사용자의 손이 위치하는 경우, 사용자 손의 위치를 가이드하는 알람을 제공하도록 상기 출력부를 제어하는 것을 특징으로 하는 이동 단말기.And when the user's hand is located within the specific distance, the output unit is controlled to provide an alarm guiding the position of the user's hand.
  8. 제7항에 있어서,The method of claim 7,
    상기 제어부는The control unit
    상기 제1 깊이 이미지를 통해 상기 특정 거리 이내에 사용자 손이 위치하는 것을 인지한 경우, 상기 제1 깊이 카메라의 화각 내로 사용자 손이 위치하도록 상기 알람을 제공하는 것을 특징으로 하는 이동 단말기.When it is recognized that the user's hand is located within the specific distance through the first depth image, the alarm is provided so that the user's hand is positioned within a field of view of the first depth camera.
  9. 제7항에 있어서,The method of claim 7,
    상기 제어부는The control unit
    상기 제1 깊이 이미지를 통해 상기 특정 거리 이내에 사용자 손이 위치하는 것을 인지한 경우, 상기 특정 거리 이상 거리에 사용자의 손이 위치하도록 상기 알람을 제공하는 것을 특징으로 하는 이동 단말기.When it is recognized that the user's hand is located within the specific distance through the first depth image, the alarm is provided so that the user's hand is positioned at a distance greater than or equal to the specific distance.
  10. 제1항에 있어서,The method of claim 1,
    상기 복수의 깊이 카메라는The plurality of depth cameras
    연속하는 프레임 마다 각각 깊이 이미지를 획득하고,Each successive frame acquires a depth image,
    상기 제어부는The control unit
    상기 연속하는 프레임 마다 상기 제1 깊이 이미지 및 상기 제2 깊이 이미지를 이용하여 사용자 손의 전체 형상을 획득하고,Acquiring the entire shape of the user's hand by using the first depth image and the second depth image for each successive frame,
    상기 연속하는 프레임 마다 획득한 사용자 손의 전체 형상의 변화를 통해 사용자 손의 모션을 인지하는 것을 특징으로 하는 이동 단말기.A mobile terminal, characterized in that the motion of the user's hand is recognized through a change in the overall shape of the user's hand acquired for each successive frame.
PCT/KR2019/010678 2019-08-22 2019-08-22 Mobile terminal WO2021033809A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/010678 WO2021033809A1 (en) 2019-08-22 2019-08-22 Mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/010678 WO2021033809A1 (en) 2019-08-22 2019-08-22 Mobile terminal

Publications (1)

Publication Number Publication Date
WO2021033809A1 true WO2021033809A1 (en) 2021-02-25

Family

ID=74660467

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/010678 WO2021033809A1 (en) 2019-08-22 2019-08-22 Mobile terminal

Country Status (1)

Country Link
WO (1) WO2021033809A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101662022B1 (en) * 2015-08-12 2016-10-10 연세대학교 산학협력단 Apparatus and Method for Device Control using Gesture
KR20160126110A (en) * 2015-04-22 2016-11-02 한국철도기술연구원 Automatic calculation server for platform stop time of train, system and method thereof
KR101700360B1 (en) * 2010-03-04 2017-01-26 삼성전자주식회사 Digital photographing apparatus, method for controlling the apparatus, and medium for recording the method
KR20180015228A (en) * 2015-06-03 2018-02-12 노키아 테크놀로지스 오와이 Human-computer interaction through scene-space monitoring
KR101968954B1 (en) * 2017-09-18 2019-04-16 네이버 주식회사 Image process method and apparatus using thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101700360B1 (en) * 2010-03-04 2017-01-26 삼성전자주식회사 Digital photographing apparatus, method for controlling the apparatus, and medium for recording the method
KR20160126110A (en) * 2015-04-22 2016-11-02 한국철도기술연구원 Automatic calculation server for platform stop time of train, system and method thereof
KR20180015228A (en) * 2015-06-03 2018-02-12 노키아 테크놀로지스 오와이 Human-computer interaction through scene-space monitoring
KR101662022B1 (en) * 2015-08-12 2016-10-10 연세대학교 산학협력단 Apparatus and Method for Device Control using Gesture
KR101968954B1 (en) * 2017-09-18 2019-04-16 네이버 주식회사 Image process method and apparatus using thereof

Similar Documents

Publication Publication Date Title
WO2016167483A1 (en) Color sensor module and mobile terminal
WO2016003036A1 (en) Proximity illuminance sensor module and mobile terminal using same
WO2016195191A1 (en) Mobile terminal
WO2016021779A1 (en) Mobile terminal
WO2020256168A1 (en) Mobile terminal
WO2016167437A1 (en) Mobile terminal
WO2020235899A1 (en) Electronic device including camera pop-up structure
WO2017034083A1 (en) Mobile terminal
WO2017007101A1 (en) Smart device and method for controlling same
WO2017030236A1 (en) Mobile terminal and control method therefor
WO2019230999A1 (en) Mobile terminal
EP3427470A1 (en) Camera module
WO2020171342A1 (en) Electronic device for providing visualized artificial intelligence service on basis of information about external object, and operating method for electronic device
WO2018074615A1 (en) Mobile terminal
WO2018079869A1 (en) Mobile terminal
WO2017039064A1 (en) Mobile terminal
WO2018131747A1 (en) Mobile terminal and control method thereof
WO2021145473A1 (en) Mobile terminal and control method therefor
WO2021107200A1 (en) Mobile terminal and mobile terminal control method
WO2015105232A1 (en) Mobile terminal
WO2019203395A1 (en) Image acquiring device
WO2021033809A1 (en) Mobile terminal
WO2019240332A1 (en) Mobile terminal
WO2021045273A1 (en) Mobile terminal and auxiliary device coupled thereto
WO2020166740A1 (en) Mobile terminal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19941834

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19941834

Country of ref document: EP

Kind code of ref document: A1