WO2024076039A1 - Haptic feedback device and method - Google Patents

Haptic feedback device and method Download PDF

Info

Publication number
WO2024076039A1
WO2024076039A1 PCT/KR2023/013887 KR2023013887W WO2024076039A1 WO 2024076039 A1 WO2024076039 A1 WO 2024076039A1 KR 2023013887 W KR2023013887 W KR 2023013887W WO 2024076039 A1 WO2024076039 A1 WO 2024076039A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
haptic
virtual plane
processor
user
Prior art date
Application number
PCT/KR2023/013887
Other languages
French (fr)
Korean (ko)
Inventor
위대한
최재순
문영진
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Publication of WO2024076039A1 publication Critical patent/WO2024076039A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Definitions

  • Haptic devices can be divided into detachable and wearable types.
  • the separate method allows you to feel the image with your fingertips that are sensitive to stimulation by touching your hand to a cluster of sensory replacement elements such as a tablet.
  • the wearable method can deliver images through vibration, etc. by contacting the user's body, such as the abdomen, back, and arms, with a collection of sensory replacement elements consisting of a vibration motor or electrical stimulation in the form of a pad.
  • a wearable haptic device that solves this problem has a small medium and can be used while moving.
  • a vibration motor is used in a wearable haptic device, since it is worn on a contact area with low stimulation sensitivity, only a large degree of direction indication can be recognized, making it impossible to transmit images related to the user's peripheral vision.
  • electrical stimulation in a wearable haptic device, a moist environment is required to improve sensitivity, so the device's human body contact area may be limited to the oral environment.
  • the number of electrodes that transmit electrical stimulation is limited, which can cause problems with very low resolution.
  • a haptic feedback device can provide an image representing a scene in peripheral vision to a visually impaired person based on haptic feedback.
  • a haptic feedback device includes a housing configured to be worn on the user's head; a first vision sensor positioned in the housing, the first vision sensor configured to capture first image data at a first viewing angle corresponding to the direction of the user's head to collect visual information about the field of view; a second vision sensor located in the housing and capturing second image data at a second viewing angle corresponding to a direction lower than the head direction to collect visual information about the user's manipulated body part; a processor that determines vibration feedback based on a result of analyzing the first image data and the second image data; and one or more haptic units configured to be wearable on the manipulated body part of the user and providing the vibration feedback, wherein the processor detects the position of the one or more haptic units based on the second image data.
  • vibration feedback determined based on the detected position and the first image data may be provided through the one or more haptic units.
  • the processor maps pixel values of the first image data to the determined coordinates of the virtual plane, and provides a haptic unit in contact with the virtual plane among the one or more haptic units to provide a pixel value corresponding to the mapped pixel value to the virtual plane. Vibration feedback can be provided.
  • the manipulating body part includes a hand, and the processor determines a plane corresponding to the bottom surface of the hand at the time when the vibration feedback is requested as the virtual plane, and the vibration according to the movement of the hand in the virtual plane. Feedback can be provided.
  • the processor may determine that the vibration feedback is requested based on at least one of the user's voice command or gesture and generate the virtual plane.
  • the haptic feedback device may be formed such that an angle difference between the center direction of the first viewing angle and the center direction of the second viewing angle exceeds a critical angle.
  • the processor extracts visual information about at least one of an object or a background appearing in a scene corresponding to the first viewing angle by analyzing the first image data, and the haptic feedback device guides the extracted visual information. It may further include a sound output unit that outputs a sound.
  • the haptic feedback device further includes a sound collection unit that collects the user's voice, and the processor selects an object of interest from one or more objects appearing in the scene corresponding to the first viewing angle based on the collected voice, Vibration feedback for a focusing area corresponding to the selected object of interest among the first image data may be provided through the one or more haptic units on the virtual plane.
  • the processor maps the highlighted pixel value for the focusing area in the first image data to coordinates of a virtual plane, and provides vibration feedback corresponding to the highlighted pixel value mapped to the virtual plane to the haptic unit in contact with the virtual plane. can be provided.
  • the processor may map pixel values of the focusing area to coordinates of a virtual plane in the first image data and exclude pixel values of the remaining areas.
  • the vision sensor may include at least one of a camera sensor, a radar sensor, a LiDAR sensor, an ultrasonic sensor, or an infrared sensor.
  • a haptic feedback method performed by a processor includes capturing first image data at a first viewing angle corresponding to the direction of the user's head through a first vision sensor, and capturing first image data at a first viewing angle corresponding to the direction of the user's head. Capturing second image data with a second vision sensor at a requested time when vibration feedback is requested; determining a virtual plane based on the positions of one or more haptic units detected through the second image data; and providing vibration feedback determined based on the detected position and the first image data through the one or more haptic units while detecting the position of the one or more haptic units in the virtual plane.
  • Capturing the first image data may include extracting visual information about at least one of an object or a background appearing by analyzing the first image data; Outputting a sound guiding the extracted visual information through a sound output unit; Collecting the user's voice speaking based on the guiding sound through a sound collection unit; and selecting a focusing area corresponding to an object of interest among one or more objects appearing in the first image data based on the collected user's voice.
  • the first image data maps pixel values highlighted for the focusing area to coordinates of the virtual plane, excludes pixel values for the remaining areas, and provides the highlighted pixels mapped to the virtual plane to a haptic unit in contact with the virtual plane. Vibration feedback corresponding to the value can be provided.
  • a computer-readable recording medium storing one or more computer programs according to an embodiment may include instructions for performing a method.
  • FIG. 1 shows an exemplary embodiment of a haptic feedback device according to one embodiment.
  • Figure 2 shows a block diagram of a haptic feedback device according to one embodiment.
  • FIG. 3A is a side view of a haptic feedback device according to one embodiment
  • FIG. 3B is a front view of the haptic feedback device.
  • Figure 4 shows a perspective view of a second wearable device among the haptic feedback devices according to an embodiment.
  • Figure 5 shows an example of vibration feedback of a second wearable device among the haptic feedback devices according to an embodiment.
  • Figure 6 shows a flowchart of a haptic feedback method according to one embodiment.
  • FIG. 7 shows a flowchart illustrating an operation for selecting a focusing area of first image data according to an embodiment.
  • first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component.
  • a first component may be named a second component, and similarly, the second component may also be named a first component.
  • FIG. 1 shows an exemplary embodiment of a haptic feedback device according to one embodiment.
  • the haptic feedback device 100 may include a first wearable device 110 (e.g., a sensing unit) and a second wearable device 120 (e.g., a feedback unit). You can.
  • a first wearable device 110 e.g., a sensing unit
  • a second wearable device 120 e.g., a feedback unit. You can.
  • the first wearable device 110 may be wearable on the head of a user (eg, a visually impaired person).
  • the first wearable device 110 may capture image data based on a vision sensor mounted on the device.
  • the first wearable device 110 may capture image data at the viewing angles 130 of the mounted vision sensor.
  • the first wearable device 110 may separately capture first image data corresponding to the first viewing angle 131 and second image data corresponding to the second viewing angle 132.
  • the first viewing angle 131 may be a viewing angle corresponding to the front (eg, head direction) of the user, and the second viewing angle 132 may be a viewing angle lower than the first viewing angle 131.
  • the first wearable device 110 includes first image data about a scene corresponding to the first viewing angle 131 and a user's hand moving within the second viewing angle 132 or a second wearable device 120 mounted on the hand. ) can be acquired together with second image data including. Additionally, the first wearable device 110 may capture a plurality of image data in consecutive frames. The haptic feedback device 100 may synchronize the frames of the first image data and the frames of the second image data. In other words, the first wearable device 110 can identify first image data and second image data captured simultaneously for each frame.
  • the first wearable device 110 may analyze first image data and second image data. For example, the first wearable device 110 may map pixel values of the first image data to a virtual plane.
  • the virtual plane may be set as a plane included within the second viewing angle 132 while the user's hand or the pointing position of the second wearable device 120 can be located. The virtual plane is described later.
  • the first wearable device 110 determines a point matching the pointing position (e.g., tip portion of a finger) of the second wearable device 120 in the virtual plane based on the second image data. You can.
  • the first wearable device 110 may generate vibration data based on pixel values mapped to a point matching the tip portion. For example, the first wearable device 110 may generate vibration data including at least one of vibration intensity or vibration time corresponding to the pixel value.
  • the first wearable device 110 may transmit or share the results of processing image data (eg, vibration data) to the second wearable device 120.
  • the second wearable device 120 may be worn on the user's hand or finger.
  • the second wearable device 120 may generate vibration feedback based on a result of processing the captured image data.
  • the second wearable device 120 may receive data for vibration feedback (eg, vibration data including at least one of vibration intensity or vibration time) from the first wearable device 110.
  • the second wearable device 120 may generate vibration feedback based on the received vibration data.
  • the second wearable device 120 may generate vibration according to at least one of the vibration intensity or vibration time indicated in the vibration data.
  • the first wearable device 110 and the second wearable device 120 may cooperate to analyze image data and generate data for vibration feedback.
  • a separate electronic device eg, a smartphone
  • the electronic device may receive image data from the first wearable device 110, analyze it, and transmit the analysis result to the second wearable device 120.
  • Figure 2 shows a block diagram of a haptic feedback device according to one embodiment.
  • the haptic feedback device 100 may include a first wearable device 110 and a second wearable device 120 .
  • the first wearable device 110 and the second wearable device 120 may form a communication channel through direct communication.
  • the haptic feedback device 100 may be connected to the electronic device 200 through a communication channel of the first wearable device 110 and the second wearable device 120.
  • the first wearable device 110 may include a first vision sensor 111, a second vision sensor 112, a first processor 113, and a first communication unit 114.
  • the first vision sensor 111 may capture first image data of the first viewing angle 131.
  • the first viewing angle 131 may have a range and angle corresponding to the direction of the user's head.
  • the first vision sensor 111 may collect visual information about the field of view corresponding to the first viewing angle 131.
  • the first vision sensor 111 may capture objects and/or backgrounds in front of the user when going out.
  • the second vision sensor 112 may capture second image data of the second viewing angle 132 .
  • the second viewing angle 132 may have a range and angle corresponding to a direction lower than the direction of the user's head.
  • the second vision sensor 112 may collect visual information about the manipulated body part. For example, the second vision sensor 112 may capture the position of the user's hand as he or she walks sauntering when going out. A detailed description of the viewing angle and sensing range of the first vision sensor 111 and the second vision sensor 112 will be described later with reference to FIG. 3 .
  • the first processor 113 may capture a plurality of image data in consecutive frames through the first vision sensor 111 and the second vision sensor 112.
  • the first vision sensor 111 may capture a plurality of consecutive first image data
  • the second vision sensor 112 may capture a plurality of consecutive second image data.
  • the first processor 113 may synchronize the frames of the first image data and the frames of the second image data. That is, the first processor 113 can identify first image data and second image data captured simultaneously for each frame.
  • the first processor 113 may synchronize first image data of an object and/or background in front of the user captured in the first frame with second image data representing the user's hand position captured in the first frame. You can.
  • the first processor 113 may determine vibration feedback based on a result of analyzing the first image data and the second image data.
  • the first processor 113 may extract visual information about an object and/or background appearing in a scene corresponding to the first viewing angle 131 by analyzing the first image data.
  • the first processor 113 transfers the extracted visual information to the sound output unit, so that the sound output unit can guide the user to the visual information through sound.
  • the first processor 113 may detect the position of one or more haptic units based on the second image data corresponding to the second viewing angle 132.
  • the first processor 113 may form a virtual plane in response to vibration feedback being requested. Vibration feedback may be requested based on first image data, which is a scene corresponding to the user's head direction.
  • the virtual plane may be determined based on the detected position of one or more haptic units at the time point at which vibration feedback is requested. For example, when the manipulated body part on which one or more haptic units can be worn is the hand, the first processor 113 may determine the virtual plane as a plane corresponding to the bottom surface of the hand at the time when vibration feedback is requested. That is, the first processor 113 may determine that vibration feedback is requested based on at least one of the user's voice command or gesture and generate a virtual plane.
  • the first processor 113 may provide vibration feedback through one or more haptic units. Vibration feedback may be determined based on the first image data and the detected position while detecting the position of one or more haptic units in the virtual plane.
  • the first processor 113 may map pixel values of the first image data to the determined coordinates of the virtual plane.
  • the pixel value may be an intensity value of pixels included in the first image data.
  • the first vision sensor includes a radar sensor, LiDAR sensor, or ultrasonic sensor
  • the pixel value of the first image data is a value indicating the distance to the physical location corresponding to the pixel (e.g., time of flight (ToF)) value).
  • the pixel value of the first image data may be a value representing the intensity of infrared light reflected from a physical location corresponding to the pixel.
  • the first image data may include color values for each pixel.
  • each pixel of the first image data may have a color vector including color values for each color channel according to the color space.
  • each pixel of the first image data may include color values (eg, RGB values) including a red value, a green value, and a blue value.
  • the haptic feedback device can convert the color values of each pixel into a value (e.g., brightness value) that follows gray scale.
  • the haptic feedback device may convert the first image data from a color image to a gray scale image (eg, downgrade conversion).
  • Each pixel value of a gray scale image may, for example, be a brightness value.
  • the brightness value can be expressed as a value between 0 and 255, where 0 indicates the darkest color and 255 indicates the brightest color.
  • the brightness value can be mapped to the location of the corresponding pixel in the virtual plane.
  • the haptic feedback device can provide haptic feedback of the vibration intensity corresponding to the brightness value mapped to the position for each position indicated by the user in the virtual plane.
  • the haptic feedback device may transmit the color values of each pixel to the first processor 113.
  • the first processor 113 can more easily extract visual information from the first image data based on the color values of each transmitted pixel.
  • the haptic feedback device can generate vibration feedback indicating the color of the object of interest using the color values of each pixel.
  • a haptic feedback device can store distinct vibration patterns for each of a plurality of colors.
  • Each of the plurality of colors may be illustratively defined by a color value range of the RGB color space (eg, a red value range, a green value range, and a blue value range).
  • the haptic feedback device may determine that the pixel is of the corresponding color.
  • Information defining the color value range of each of a plurality of colors may be referred to as color classification information.
  • Each of the vibration patterns may have a unique pattern that is distinct from other vibration patterns, and the number of vibration patterns and the number of colors classified as described above may be the same. In other words, each color can be assigned a unique vibration pattern.
  • the haptic feedback device can determine the color classification to which the pixel of the object of interest belongs using pre-stored color classification information.
  • the haptic feedback device may generate a vibration pattern assigned to the determined color classification.
  • color classification information may include color value ranges for red, orange, yellow, green, blue, indigo, and purple.
  • the haptic feedback device can generate a unique vibration pattern corresponding to red as vibration feedback.
  • the first processor 113 may provide vibration feedback to a haptic unit in contact with the virtual plane among one or more haptic units. Vibration feedback may correspond to pixel values mapped to a virtual plane. That is, the first processor 113 may provide vibration feedback according to the movement of the hand in the virtual plane, as described above. A specific method of providing vibration feedback corresponding to the haptic unit will be described later with reference to FIGS. 4 and 5.
  • the first processor 113 may select an object of interest from one or more objects appearing in the scene corresponding to the first viewing angle. The object of interest may be selected based on the user's voice collected through the sound collection unit.
  • the first processor 113 may provide vibration feedback to the focusing area corresponding to the object of interest selected among the first image data through one or more haptic units 122 on the virtual plane.
  • the first processor 113 may map pixel values of the focusing area to coordinates of a virtual plane in the first image data and exclude pixel values of the remaining areas. That is, since the first processor 113 provides vibration feedback only for the focusing area, the load on calculations for generating vibration feedback can be reduced.
  • the haptic feedback device 100 may further include a sound output unit that outputs a sound to guide the user and a sound collection unit that collects the user's voice.
  • the sound output unit and the sound collection unit may be configured together or separately in the first wearable device 110 and/or the second wearable device 120.
  • the first processor 113 is shown as one processor in the first wearable device 110, but is not limited thereto.
  • the first processor 113 may include a plurality of processors, and may distribute and process tasks performed by each processor.
  • the first communication unit 114 may be connected to a wired or wireless communication channel.
  • the first communication unit 114 may wirelessly form a Bluetooth or Wi-Fi communication channel with the second wearable device 120.
  • the first communication unit 114 may form a wired communication channel in the form of a telecommunication network (eg, LAN (Local Area Network)) with the second wearable device 120.
  • the first communication unit 114 may be connected to the electronic device 200 by wire or wirelessly.
  • the electronic device 200 may be connected to the first wearable device 110 through the first communication unit 114 and perform the function of the first processor 113 described above.
  • the electronic device 200 may receive image data from the first wearable device 110 and perform an operation to generate vibration data.
  • the second wearable device 120 may include a second processor 121, a haptic unit 122, and a second communication unit 123.
  • the second processor 121 may only perform the functions of the first processor 113 described above or control the haptic unit 122.
  • the first processor 113 may generate a pixel value by analyzing the first image data.
  • the second processor 121 may generate final vibration data by mapping the generated pixel values to a virtual plane and analyzing the second image data.
  • the first processor 113 may analyze image data acquired through the first vision sensor 111 and the second vision sensor 112.
  • the second processor 121 may control the haptic unit 122 based on vibration data generated by the first processor 113 through image data analysis.
  • a processor is configured in each of the first wearable device 110 and the second wearable device 120, but it is not limited to this.
  • the operations of the above-described first processor 113 and second processor 121 may be performed in an integrated processor, and the integrated processor may be used in the first wearable device 110, the second wearable device 120, or another external device. Can be included in electronic devices.
  • One or more haptic units 122 may be wearable on the user's manipulated body part.
  • One or more haptic units 122 may provide vibration feedback through the user's manipulated body part.
  • One or more haptic units may be worn on one or more fingers of each hand. For example, if the haptic feedback device includes 10 haptic units, it can be worn on each of 10 fingertips. Accordingly, the user can freely move the haptic unit 122 worn on the fingertips.
  • the detailed configuration of the haptic unit will be described later in Figures 4 and 5.
  • the second communication unit 123 may be connected to a wired or wireless communication channel like the first communication unit 114 described above.
  • the second communication unit 123 is also connected to the electronic device 200 and can receive the results of functions performed in the electronic device 200.
  • the electronic device 200 may directly transmit vibration data generated by performing the function of the first processor to the second communication unit 123.
  • FIG. 3A is a side view of a haptic feedback device according to one embodiment
  • FIG. 3B is a front view of the haptic feedback device.
  • a first vision sensor 111, a second vision sensor 112, a first processor 113, and a communication unit 114 may be located in the housing 115 of the first wearable device 110.
  • the housing 115 may be configured to be worn on the user's head.
  • the first vision sensor 111 may have a first viewing angle 131 and the second vision sensor 112 may have a second viewing angle 132 .
  • the central direction of the first viewing angle 131 may be formed such that the angle difference from the central direction of the second viewing angle 132 exceeds a critical angle.
  • the first sensing range 141 of the first vision sensor 111 may not overlap with the second sensing range 142 of the second vision sensor 112 or may overlap less than a critical range. In other words, the overlapping range of the first sensing range 141 and the second sensing range 142 can be minimized. That is, when the first vision sensor 111 captures the first image data, the first viewing angle 131 of the capture range may not be disturbed.
  • the second viewing angle 132 of the capture range may not be disturbed.
  • the first vision sensor 111 may capture the front view corresponding to the direction of the user's head.
  • the first vision sensor 111 may be placed on the glasses bridge, but is not limited to this.
  • the central direction of the first viewing angle 131 of the first vision sensor 111 may be depicted as a straight line A.
  • the center direction of the second viewing angle 132 of the second vision sensor 112 may be depicted as a straight line B.
  • the first vision sensor 111 and the second vision sensor 112 may be arranged so that the center direction of the first viewing angle 131 and the center direction of the second viewing angle 132 intersect (e.g., are perpendicular to each other). That is, the second vision sensor 112 may capture second image data including the user's hand positioned between the ground and the front direction. The second vision sensor 112 may capture not only the user's hand but also the virtual plane 140 formed on the bottom of the hand.
  • the virtual plane may be determined based on the location of one or more haptic units detected through the second image data. For example, a virtual plane may be formed around the haptic unit worn on the index finger and thumb, but the present invention is not limited to this, and the virtual plane may be formed based on one or more of the other fingers.
  • the second vision sensor 112 rotates and/or moves according to the movement of the user's hand so that the user's hand 120 can be included within the second viewing angle 132. can be performed. Accordingly, the second vision sensor 112 can continuously capture the user's moving hands when going out.
  • the first vision sensor 111 may rotate and/or move according to the rotation and/or movement of the second vision sensor 112 so that the angle between the center directions of the mutual viewing angles exceeds the critical angle.
  • one second vision sensor 112 is shown in FIG. 3A, but it is not limited thereto.
  • the plurality of second vision sensors may include various types of sensors and may be located on any part of the temple or rim.
  • the first wearable device 110 may be in the form of a headset, helmet, or goggles that can secure a critical angle between the first viewing angle 131 and the second viewing angle 132 as well as glasses.
  • the first vision sensor 111 and the second vision sensor 112 may include at least one of a camera sensor, a radar sensor, a LiDAR sensor, an ultrasonic sensor, or an infrared sensor.
  • the camera sensor may be implemented as a stereo camera sensor and configured to measure depth.
  • Figure 4 shows a perspective view of a second wearable device among the haptic feedback devices according to an embodiment.
  • the second wearable device 400 (eg, second wearable device 120) may be mounted on a user's body part (eg, finger).
  • the second wearable device 400 may be one or more mounting units 410 .
  • One or more mounting units 410 include a control unit 411 (e.g., second processor 121), a vibration unit 412 (e.g., haptic unit 122), and a signal transceiver 413 (e.g., : A second communication unit 123) may be formed.
  • the control unit 411, the vibration unit 412, and the signal transmitting/receiving unit 413 may be interconnected for power supply and mutual control.
  • control unit 411, the vibration unit 412, and the signal transmitting/receiving unit 413 may be electrically connected through a separate connection member.
  • one or more mounting units 410 are shown in a boneless shape, but the present invention is not limited thereto.
  • the second wearable device 400 may form the control unit 411 using a flexible printed circuit board (FPCB).
  • FPCB flexible printed circuit board
  • the one or more mounting units 410 may be boneless or armored connected to the FPCB, or may be attached to the body at any location on the user's body.
  • the control unit 411 may perform the functions of the second processor 121 described above. As an example, the control unit 411 may directly generate vibration feedback based on the second image data or may control the vibration unit 412 by simply receiving a vibration feedback control signal.
  • the vibration unit 412 may perform the function of the haptic unit 122 described above.
  • the vibration unit 412 is composed of a vibration motor and can create various vibration patterns. For example, the vibration intensity and vibration time of the vibration unit 412 may be set to vary for each finger.
  • the vibrating unit 412 can deliver a virtual tactile sensation to the user through various vibration patterns.
  • the signal transceiving unit 413 can perform the functions of the second communication unit 123 described above. That is, the signal transmitting and receiving unit 413 may form a communication channel with the first wearable device 110 and/or the electronic device 200 to transmit and receive control signals. Additionally, the signal transceiver 413 may also receive power for driving from the first wearable device 110 and/or the electronic device 200.
  • a virtual plane 420 may be formed in the second wearable device 400.
  • the virtual plane 430 may be determined as a plane formed at the tip of a finger on which one or more mounting units 410 are mounted.
  • One or more mounting units 410 may move on the virtual plane 420 .
  • One or more mounting units 410 may move and transmit vibration feedback that changes according to pixel values mapped on the virtual plane 430.
  • two virtual planes 420 formed based on one or more mounting units 410 can also be formed.
  • pixel values mapped to each virtual plane 420 may be mapped by dividing the focusing area of the same first image data. That is, vibration feedback for the left part of the focusing area can be delivered to the left hand, and vibration feedback for the right part of the focusing area can be delivered to the right hand.
  • the first processor 113 and/or the second processor 121 can divide parts of the object into left and right based on the center coordinates of the designated object. there is.
  • the first processor 113 and/or the second processor 121 may map the left and right sides of the divided object by corresponding them to right-hand coordinates and left-hand coordinates, respectively.
  • pixel values mapped to each virtual plane 420 may be mapped to a first focusing area and a second focusing area among the first image data. That is, pixel values mapped to the virtual plane 420 can be mapped to each virtual plane 420 by selecting a plurality of focusing areas. The first focusing area is mapped to the right hand, and the second focusing area is mapped to the left hand, so that corresponding vibration feedback can be delivered.
  • Figure 5 shows an example of vibration feedback of a second wearable device among the haptic feedback devices according to an embodiment.
  • the control unit 411 may provide vibration feedback to the vibration unit 412 in contact with the virtual plane 420 among the one or more mounting units 410. Vibration feedback may be generated based on pixel values corresponding to the first image data 510 mapped to the virtual plane. That is, the vibrating unit 412 of the first finger located at the first position 521 may provide vibration based on the first pixel value corresponding to the first position 521 in the first image data. Likewise, the vibrating units 412 of the second, third, fourth, and fifth fingers are respectively positioned at the second position 522, third position 523, fourth position 524, and fifth position. It will be located at (525).
  • the vibrating units 412 of the second, third, fourth, and fifth fingers are respectively positioned at the second position 522, third position 523, and fourth position 524 in the first image data.
  • vibration may be provided based on the second pixel value, third pixel value, fourth pixel value, and fifth pixel value corresponding to the fifth position 525.
  • the first position 521 of the first finger corresponds to the front part of the eye. It may have a first pixel value (e.g., mid-value brightness).
  • vibration feedback of medium intensity may be provided to the first finger.
  • the second position 522 of the second finger may have a second pixel value (eg, low value of contrast) corresponding to the eyehole portion.
  • strong vibration feedback may be provided to the second finger.
  • the third position 523, fourth position 524, and fifth position 525 of the third, fourth, and fifth fingers correspond to the third pixel, the fourth pixel corresponding to the forehead and the skin between the eyes and eyebrows.
  • pixel may have a fifth pixel value (e.g., high value contrast).
  • Vibration feedback with a weak intensity may be provided to the third, fourth, and fifth fingers according to the third, fourth, and fifth pixel values.
  • the intensity of vibration feedback is simply expressed as weak, medium, and strong, but it is not limited to this.
  • each pixel value expressed as a value between 0 and 255 may have a step-by-step difference in the intensity of vibration feedback for each value, enabling delicate haptic feedback to express an image.
  • the pixel value corresponding to the position of the finger is 1, it can have a vibration feedback intensity expressing 1, and if the pixel value is 2, it can have a vibration feedback intensity expressing 2, which is slightly different from 1.
  • Figure 6 shows a flowchart of a haptic feedback method according to one embodiment.
  • the processor may capture first image data at a first viewing angle corresponding to the direction of the user's head through the first vision sensor. For example, when the processor detects that the time the head direction was maintained (eg, the time the user maintained the direction without moving) exceeds the threshold time, the processor may acquire first image data through the first vision sensor. For example, the processor may identify a request for visual field information from the user's voice collected through the sound collection unit. The processor may initiate capture of first image data through the first vision sensor based on identifying the request for field of view information.
  • the processor may capture second image data with the second vision sensor at the requested time when vibration feedback is requested.
  • Information in the first image data at the requested viewpoint may be a scene corresponding to the direction of the user's head.
  • the processor may determine the virtual plane based on the positions of one or more haptic units detected through the second image data.
  • the processor may provide vibration feedback determined based on the location where the haptic unit is detected and the first image data through one or more haptic units.
  • the position where the haptic unit is detected may detect the position of one or more haptic units in a virtual plane.
  • FIG. 7 shows a flowchart illustrating an operation for selecting a focusing area of first image data according to an embodiment.
  • the processor may analyze the first image data to extract visual information about at least one of the appearing object or the background. For example, a person's face can be extracted by analyzing the first image data.
  • the processor may output a sound guiding the extracted visual information through a sound output unit.
  • the processor may output guidance information (e.g., guidance voice) about a recognized object (e.g., a human face) through a speaker.
  • guidance information e.g., guidance voice
  • the processor may collect the user's voice through a sound collection unit.
  • the user may speak in response to a sound (e.g., guidance information) output by the haptic feedback device.
  • the processor may collect the user's spoken voice in response to the guidance information.
  • the processor may collect the user's spoken voice in at least one of the time sections while outputting the guidance information or after the output of the guidance information.
  • the microphone may collect the user's spoken voice indicating the eye portion of the person's face during the above-described section.
  • the processor may select a focusing area corresponding to the object of interest among one or more objects appearing in the first image data based on the collected user's spoken voice.
  • the processor can identify the object of interest indicated by the speech sounds among objects provided to the user through guidance information.
  • the processor may extract a focusing area corresponding to the identified object of interest from the first image data.
  • the processor may generate data (e.g., focusing data) based on the extracted focusing area.
  • the processor may apply weight to the first image data to emphasize pixel values included in the focusing area compared to pixel values in other areas.
  • the processor may apply a first weight (eg, a weight exceeding 1) to pixel values included in the focusing area.
  • the processor may apply a second weight (eg, a weight of less than 1) to pixel values included in other areas.
  • the processor may divide a focusing area from the first image data and generate a focusing image including pixel values corresponding to the divided focusing area.
  • the processor may generate a focused image by preserving pixel values corresponding to the focusing area and removing remaining pixel values.
  • the processor may enlarge the focusing image by fitting it to the same size as the first image data.
  • the pixel value is a value determined by converting the above-mentioned RGB value into a gray scale value, and may be, for example, a brightness value.
  • step 750 processing to downscale the focusing area of the first image data may be performed.
  • the highlighted pixel value for the focusing area of the first image data may be mapped to coordinates of a virtual plane through the processor.
  • pixel values of areas other than the focusing area may be reduced or excluded.
  • a haptic unit in contact with the virtual plane may provide vibration feedback corresponding to the highlighted pixel value mapped to the virtual plane.
  • the haptic feedback device may provide vibration feedback for each pixel within the focusing area of the first image data to a user equipped with the haptic unit when the haptic unit is moved in the virtual plane. Accordingly, the user can quickly recognize the two-dimensional scene for the front view at high resolution (e.g., the resolution of the first image data) while freely moving the body part (e.g., hand) equipped with the haptic unit.
  • the haptic feedback device can guide rough visual information through voice, focus on the area desired by the user, and provide intensive haptic feedback for that area. Therefore, the haptic feedback device can improve the recognition speed of the user's surrounding visual information.
  • the embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components.
  • the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA).
  • ALU arithmetic logic unit
  • FPGA field programmable gate
  • It may be implemented using a general-purpose computer or a special-purpose computer, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software.
  • OS operating system
  • a processing device may access, store, manipulate, process, and generate data in response to the execution of software.
  • a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include.
  • a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
  • Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device.
  • Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave.
  • Software may be distributed over networked computer systems and stored or executed in a distributed manner.
  • Software and data may be stored on a computer-readable recording medium.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium.
  • a computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination, and the program instructions recorded on the medium may be specially designed and constructed for the embodiment or may be known and available to those skilled in the art of computer software. It may be possible.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
  • the hardware devices described above may be configured to operate as one or multiple software modules to perform the operations of the embodiments, and vice versa.

Abstract

A haptic feedback device according to one embodiment can capture, through a first vision sensor, first image data of a first viewing angle corresponding to a head direction of a user, determine a virtual plane on the basis of a position detected through second image data captured by a second vision sensor of one or more haptic units at a time of request when a vibration feedback for a scene corresponding to the head direction of the user is requested, and provide, through the one or more haptic units, vibration feedback determined on the basis of the first image data and a position detected while the position of the one or more haptic units is detected on the virtual plane.

Description

햅틱 피드백 장치 및 방법Haptic feedback device and method
햅틱 피드백 장치 및 방법에 관한 기술이 제공된다.Technology related to a haptic feedback device and method is provided.
햅틱 장치는 분리형과 착용형으로 나눌 수 있다. 분리형 방식은 태블릿 형태 등의 감각대체요소 군집체에 손을 접촉하여 자극에 민감한 손 끝으로 이미지를 느끼게 할 수 있다. 착용형 방식은 진동모터나 전기자극이 패드형식으로 구성된 감각대체요소의 모음을 사용자의 복부, 등, 팔 등 신체에 접촉하여 진동 등을 통해 이미지를 전달할 수 있다. Haptic devices can be divided into detachable and wearable types. The separate method allows you to feel the image with your fingertips that are sensitive to stimulation by touching your hand to a cluster of sensory replacement elements such as a tablet. The wearable method can deliver images through vibration, etc. by contacting the user's body, such as the abdomen, back, and arms, with a collection of sensory replacement elements consisting of a vibration motor or electrical stimulation in the form of a pad.
분리형 햅틱 장치는 사용자가 손 끝을 매개체에 접촉하여 감각대체요소들을 느껴야 하기 때문에 필연적으로 사용자의 이동을 제한하며 실외사용에 제약이 있을 수 있다. 이를 해결하는 착용형 햅틱 장치는 매개체가 작아 이동 중 사용이 가능할 수 있다. 그러나 착용형 햅틱 장치에 진동모터를 사용하는 경우, 자극 민감도가 둔한 접촉부위에 착용하므로 큰 방향지시 정도의 인식만 가능하여 사용자 주변 시야 관련 이미지를 전달하는 것이 불가능할 수 있다. 착용형 햅틱 장치에 전기자극을 사용하는 경우, 민감도 향상을 위해서는 수분이 있는 환경이 요구되기 때문에 입안 환경으로 기기의 인체접촉 부위가 제한될 수 있다. 입안 환경으로 기기 접촉 시 전기자극을 전달하는 일렉트로드(electrode)의 수는 제한되어 매우 낮은 해상도를 가지는 문제가 발생할 수 있다. Separate haptic devices inevitably limit the user's movement because the user must touch the medium with their fingertips to feel alternative sensory elements, and may have restrictions on outdoor use. A wearable haptic device that solves this problem has a small medium and can be used while moving. However, when a vibration motor is used in a wearable haptic device, since it is worn on a contact area with low stimulation sensitivity, only a large degree of direction indication can be recognized, making it impossible to transmit images related to the user's peripheral vision. When using electrical stimulation in a wearable haptic device, a moist environment is required to improve sensitivity, so the device's human body contact area may be limited to the oral environment. When the device touches the oral environment, the number of electrodes that transmit electrical stimulation is limited, which can cause problems with very low resolution.
위에서 설명한 배경기술은 발명자가 본원의 개시 내용을 도출하는 과정에서 보유하거나 습득한 것으로서, 반드시 본 출원 전에 일반 공중에 공개된 공지기술이라고 할 수는 없다.The background technology described above is possessed or acquired by the inventor in the process of deriving the disclosure of the present application, and cannot necessarily be said to be known technology disclosed to the general public before this application.
일 실시예에 따른 햅틱 피드백 장치는 주변 시야에 대한 장면을 나타내는 이미지를 햅틱 피드백에 기초하여 시각 장애인에게 제공할 수 있다.A haptic feedback device according to an embodiment can provide an image representing a scene in peripheral vision to a visually impaired person based on haptic feedback.
다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.However, technical challenges are not limited to the above-mentioned technical challenges, and other technical challenges may exist.
일 실시예에 따른 햅틱 피드백 장치는 사용자의 머리에 착용 가능하게 구성되는 하우징; 상기 하우징에 위치되고, 시야에 관한 시각적 정보를 수집하기 위해 상기 사용자의 머리방향 에 대응하는 제1 시야각의 제1 이미지 데이터를 캡처하는 제1 비전 센서; 상기 하우징에 위치되고, 상기 사용자의 조작 신체 부위에 관한 시각적 정보를 수집하기 위해 상기 머리방향보다 낮은 방향에 대응하는 제2 시야각의 제2 이미지 데이터를 캡처하는 제2 비전 센서; 상기 제1 이미지 데이터 및 상기 제2 이미지 데이터를 분석한 결과에 기초하여 진동 피드백을 결정하는 프로세서; 및 상기 사용자의 상기 조작 신체 부위에 착용 가능하게 구성되고, 상기 진동 피드백을 제공하는 하나 이상의 햅틱 유닛을 포함하고, 상기 프로세서는, 상기 제2 이미지 데이터에 기초하여 상기 하나 이상의 햅틱 유닛의 위치를 검출하고, 상기 사용자의 머리방향에 대응하는 장면에 대한 진동 피드백이 요청되는 것에 응답하여 상기 진동 피드백이 요청된 시점(time point)의 상기 하나 이상의 햅틱 유닛의 검출된 위치에 기초하여 가상 평면을 결정하며, 상기 가상 평면에서 상기 하나 이상의 햅틱 유닛의 위치를 검출하는 동안 상기 검출된 위치 및 상기 제1 이미지 데이터에 기초하여 결정된 진동 피드백을 상기 하나 이상의 햅틱 유닛을 통해 제공할 수 있다.A haptic feedback device according to an embodiment includes a housing configured to be worn on the user's head; a first vision sensor positioned in the housing, the first vision sensor configured to capture first image data at a first viewing angle corresponding to the direction of the user's head to collect visual information about the field of view; a second vision sensor located in the housing and capturing second image data at a second viewing angle corresponding to a direction lower than the head direction to collect visual information about the user's manipulated body part; a processor that determines vibration feedback based on a result of analyzing the first image data and the second image data; and one or more haptic units configured to be wearable on the manipulated body part of the user and providing the vibration feedback, wherein the processor detects the position of the one or more haptic units based on the second image data. And, in response to requesting vibration feedback for the scene corresponding to the direction of the user's head, determining a virtual plane based on the detected position of the one or more haptic units at the time point at which the vibration feedback was requested, and , While detecting the position of the one or more haptic units in the virtual plane, vibration feedback determined based on the detected position and the first image data may be provided through the one or more haptic units.
상기 프로세서는, 상기 결정된 가상 평면의 좌표들에 상기 제1 이미지 데이터의 픽셀 값 들을 매핑하고, 상기 하나 이상의 햅틱 유닛 중 상기 가상 평면과 접촉한 햅틱 유닛에게 상기 가상 평면에 매핑된 픽셀 값에 대응하는 진동 피드백을 제공할 수 있다.The processor maps pixel values of the first image data to the determined coordinates of the virtual plane, and provides a haptic unit in contact with the virtual plane among the one or more haptic units to provide a pixel value corresponding to the mapped pixel value to the virtual plane. Vibration feedback can be provided.
상기 조작 신체 부위는 손을 포함하고, 상기 프로세서는, 상기 진동 피드백이 요청된 시점의 상기 손의 바닥면에 대응하는 평면을 상기 가상 평면으로 결정하고, 상기 가상 평면에서 손의 이동에 따라 상기 진동 피드백을 제공할 수 있다.The manipulating body part includes a hand, and the processor determines a plane corresponding to the bottom surface of the hand at the time when the vibration feedback is requested as the virtual plane, and the vibration according to the movement of the hand in the virtual plane. Feedback can be provided.
상기 프로세서는, 상기 사용자의 음성 명령 또는 제스쳐 중 적어도 하나에 기초하여, 상기 진동 피드백이 요청된 것으로 결정하고 상기 가상 평면을 생성할 수 있다. The processor may determine that the vibration feedback is requested based on at least one of the user's voice command or gesture and generate the virtual plane.
상기 햅틱 피드백 장치는, 상기 제1 시야각의 중심방향 및 제2 시야각의 중심방향 간의 각도 차이가 임계 각도를 초과하도록 형성될 수 있다.The haptic feedback device may be formed such that an angle difference between the center direction of the first viewing angle and the center direction of the second viewing angle exceeds a critical angle.
상기 프로세서는, 상기 제1 이미지 데이터를 분석함으로써, 상기 제1 시야각에 대응하는 장면에 나타나는 객체 또는 배경 중 적어도 하나에 관한 시각적 정보를 추출하고, 상기 햅틱 피드백 장치는, 상기 추출된 시각적 정보를 안내하는 소리를 출력하는 소리 출력부를 더 포함할 수 있다.The processor extracts visual information about at least one of an object or a background appearing in a scene corresponding to the first viewing angle by analyzing the first image data, and the haptic feedback device guides the extracted visual information. It may further include a sound output unit that outputs a sound.
상기 햅틱 피드백 장치는, 사용자의 음성을 수집하는 소리 수집부를 더 포함하고, 상기 프로세서는, 상기 수집된 음성에 기초하여 상기 제1 시야각에 대응하는 장면에 나타나는 하나 이상의 객체 중 관심 객체를 선택하고, 상기 제1 이미지 데이터 중 상기 선택된 관심 객체에 대응하는 포커싱 영역에 대한 진동 피드백을 상기 가상 평면 상의 상기 하나 이상의 햅틱 유닛을 통해 제공할 수 있다.The haptic feedback device further includes a sound collection unit that collects the user's voice, and the processor selects an object of interest from one or more objects appearing in the scene corresponding to the first viewing angle based on the collected voice, Vibration feedback for a focusing area corresponding to the selected object of interest among the first image data may be provided through the one or more haptic units on the virtual plane.
상기 프로세서는, 상기 제1 이미지 데이터에서 상기 포커싱 영역에 대해 강조된 픽셀 값을 가상 평면의 좌표에 매핑하고, 상기 가상 평면과 접촉한 햅틱 유닛에게 상기 가상 평면에 매핑된 강조된 픽셀 값에 대응하는 진동 피드백을 제공할 수 있다.The processor maps the highlighted pixel value for the focusing area in the first image data to coordinates of a virtual plane, and provides vibration feedback corresponding to the highlighted pixel value mapped to the virtual plane to the haptic unit in contact with the virtual plane. can be provided.
상기 프로세서는, 상기 제1 이미지 데이터에서 상기 포커싱 영역의 픽셀 값을 가상 평면의 좌표에 매핑하고 나머지 영역의 픽셀 값을 배제할 수 있다.The processor may map pixel values of the focusing area to coordinates of a virtual plane in the first image data and exclude pixel values of the remaining areas.
상기 비전 센서는, 카메라 센서, 레이더 센서, 라이다 센서, 초음파 센서, 또는 적외선 센서 중 적어도 하나를 포함할 수 있다.The vision sensor may include at least one of a camera sensor, a radar sensor, a LiDAR sensor, an ultrasonic sensor, or an infrared sensor.
일 실시예에 따른 프로세서에 의해 수행되는 햅틱 피드백 방법은 제1 비전 센서를 통해 사용자의 머리 방향에 대응하는 제1 시야각의 제1 이미지 데이터를 캡처하는 단계, 상기 사용자의 머리방향에 대응하는 장면에 대한 진동 피드백 요청 시 요청된 시점에 제2 비전 센서로 제2 이미지 데이터를 캡처하는 단계; 상기 제2 이미지 데이터를 통해 검출된 하나 이상의 햅틱 유닛의 위치에 기초하여 가상 평면이 결정되는 단계; 및 상기 가상 평면에서 상기 하나 이상의 햅틱 유닛의 위치를 검출하는 동안 상기 검출된 위치 및 상기 제1 이미지 데이터에 기초하여 결정된 진동 피드백을 상기 하나 이상의 햅틱 유닛을 통해 제공하는 단계를 포함할 수 있다.A haptic feedback method performed by a processor according to an embodiment includes capturing first image data at a first viewing angle corresponding to the direction of the user's head through a first vision sensor, and capturing first image data at a first viewing angle corresponding to the direction of the user's head. Capturing second image data with a second vision sensor at a requested time when vibration feedback is requested; determining a virtual plane based on the positions of one or more haptic units detected through the second image data; and providing vibration feedback determined based on the detected position and the first image data through the one or more haptic units while detecting the position of the one or more haptic units in the virtual plane.
상기 제1 이미지 데이터를 캡처하는 단계는, 상기 제1 이미지 데이터를 분석하여 나타나는 객체 또는 배경 중 적어도 하나에 관한 시각적 정보를 추출하는 단계; 상기 추출된 시각적 정보를 소리 출력부를 통해 안내하는 소리를 출력하는 단계; 상기 안내하는 소리를 기초로 발화하는 사용자의 음성을 소리 수집부를 통해 수집하는 단계; 및 상기 수집된 사용자의 음성에 기초하여 상기 제1 이미지 데이터에 나타나는 하나 이상의 객체 중 관심 객체에 대응하는 포커싱 영역을 선택하는 단계를 더 포함할 수 있다.Capturing the first image data may include extracting visual information about at least one of an object or a background appearing by analyzing the first image data; Outputting a sound guiding the extracted visual information through a sound output unit; Collecting the user's voice speaking based on the guiding sound through a sound collection unit; and selecting a focusing area corresponding to an object of interest among one or more objects appearing in the first image data based on the collected user's voice.
상기 제1 이미지 데이터는 상기 포커싱 영역에 대해 강조된 픽셀 값을 상기 가상 평면의 좌표에 매핑하고, 나머지 영역의 픽셀 값은 배제하며, 상기 가상 평면과 접촉한 햅틱 유닛에게 상기 가상 평면에 매핑된 강조된 픽셀 값에 대응하는 진동 피드백을 제공할 수 있다.The first image data maps pixel values highlighted for the focusing area to coordinates of the virtual plane, excludes pixel values for the remaining areas, and provides the highlighted pixels mapped to the virtual plane to a haptic unit in contact with the virtual plane. Vibration feedback corresponding to the value can be provided.
일 실시예에 따른 하나 이상의 컴퓨터 프로그램을 저장한 컴퓨터 판독 가능 기록 매체는, 방법을 수행하기 위한 명령어를 포함할 수 있다.A computer-readable recording medium storing one or more computer programs according to an embodiment may include instructions for performing a method.
도 1은 일 실시예에 따른 햅틱 피드백 장치의 예시적인 실시예를 도시한다.1 shows an exemplary embodiment of a haptic feedback device according to one embodiment.
도 2는 일 실시예에 따른 햅틱 피드백 장치의 블록도를 도시한다.Figure 2 shows a block diagram of a haptic feedback device according to one embodiment.
도 3a는 일 실시예에 따른 햅틱 피드백 장치의 측면도, 도 3b는 햅틱 피드백 장치의 정면도를 도시한다.FIG. 3A is a side view of a haptic feedback device according to one embodiment, and FIG. 3B is a front view of the haptic feedback device.
도 4는 일 실시예에 따른 햅틱 피드백 장치 중 제2 웨어러블 장치의 사시도를 도시한다. Figure 4 shows a perspective view of a second wearable device among the haptic feedback devices according to an embodiment.
도 5는 일 실시예에 따른 햅틱 피드백 장치 중 제2 웨어러블 장치의 진동 피드백 예시도를 도시한다.Figure 5 shows an example of vibration feedback of a second wearable device among the haptic feedback devices according to an embodiment.
도 6은 일 실시예에 따른 햅틱 피드백 방법의 흐름도를 도시한다.Figure 6 shows a flowchart of a haptic feedback method according to one embodiment.
도 7은 일 실시예에 따른 제1 이미지 데이터의 포커싱 영역을 선택하기 위한 동작을 나타내는 흐름도를 도시한다.FIG. 7 shows a flowchart illustrating an operation for selecting a focusing area of first image data according to an embodiment.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be changed and implemented in various forms. Accordingly, the actual implementation form is not limited to the specific disclosed embodiments, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of the described features, numbers, steps, operations, components, parts, or combinations thereof, and are intended to indicate the presence of one or more other features or numbers, It should be understood that this does not exclude in advance the possibility of the presence or addition of steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art. Terms as defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and unless clearly defined in this specification, should not be interpreted in an idealized or overly formal sense. No.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. In the description with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.
도 1은 일 실시예에 따른 햅틱 피드백 장치의 예시적인 실시예를 도시한다.1 shows an exemplary embodiment of a haptic feedback device according to one embodiment.
일 실시예에 따른 햅틱 피드백 장치(100)는 제1 웨어러블 장치(110)(예: 센싱부(sensing unit)) 및 제2 웨어러블 장치(120)(예: 피드백부(feedback unit))를 포함할 수 있다.The haptic feedback device 100 according to one embodiment may include a first wearable device 110 (e.g., a sensing unit) and a second wearable device 120 (e.g., a feedback unit). You can.
제1 웨어러블 장치(110)는 사용자(예: 시각장애인)의 머리에 착용 가능할 수 있다. 제1 웨어러블 장치(110)는 해당 장치에 탑재된 비전 센서에 기초하여 이미지 데이터를 캡처할 수 있다. 예를 들어, 제1 웨어러블 장치(110)는 탑재된 비전 센서의 시야각들(130)로 이미지 데이터를 촬영할 수 있다. 제1 웨어러블 장치(110)는 제1 시야각(131)에 대응하는 제1 이미지 데이터 및 제2 시야각(132)에 대응하는 제2 이미지 데이터를 개별적으로 캡처할 수 있다. 제1 시야각(131)는 사용자의 전방(예: 머리 방향)에 대응하는 시야각일 수 있고, 제2 시야각(132)은 제1 시야각(131)보다 낮은 시야각일 수 있다. 제1 웨어러블 장치(110)는 제1 시야각(131)에 대응하는 장면에 관한 제1 이미지 데이터 및 제2 시야각(132) 내에서 이동되는 사용자의 손 또는 해당 손에 장착된 제2 웨어러블 장치(120)를 포함한 제2 이미지 데이터를 함께 획득할 수 있다. 또한, 제1 웨어러블 장치(110)는 연속된 프레임들에서 복수의 이미지 데이터를 캡처할 수 있다. 햅틱 피드백 장치(100)는 제1 이미지 데이터의 프레임 및 제2 이미지 데이터의 프레임을 동기화할 수 있다. 달리 말해, 제1 웨어러블 장치(110)는 각 프레임 별로 동시에 캡처된 제1 이미지 데이터 및 제2 이미지 데이터를 식별할 수 있다.The first wearable device 110 may be wearable on the head of a user (eg, a visually impaired person). The first wearable device 110 may capture image data based on a vision sensor mounted on the device. For example, the first wearable device 110 may capture image data at the viewing angles 130 of the mounted vision sensor. The first wearable device 110 may separately capture first image data corresponding to the first viewing angle 131 and second image data corresponding to the second viewing angle 132. The first viewing angle 131 may be a viewing angle corresponding to the front (eg, head direction) of the user, and the second viewing angle 132 may be a viewing angle lower than the first viewing angle 131. The first wearable device 110 includes first image data about a scene corresponding to the first viewing angle 131 and a user's hand moving within the second viewing angle 132 or a second wearable device 120 mounted on the hand. ) can be acquired together with second image data including. Additionally, the first wearable device 110 may capture a plurality of image data in consecutive frames. The haptic feedback device 100 may synchronize the frames of the first image data and the frames of the second image data. In other words, the first wearable device 110 can identify first image data and second image data captured simultaneously for each frame.
제1 웨어러블 장치(110)는 제1 이미지 데이터 및 제2 이미지 데이터를 분석할 수 있다. 예를 들어 제1 웨어러블 장치(110)는 제1 이미지 데이터의 픽셀 값들을 가상 평면에 매핑할 수 있다. 가상 평면은 사용자의 손 또는 제2 웨어러블 장치(120)의 포인팅 위치가 위치될 수 있으면서 제2 시야각(132) 내에 포함되는 평면으로 설정될 수 있다. 가상 평면은 후술한다. 제1 웨어러블 장치(110)는 제2 이미지 데이터에 기초하여 가상 평면 중 제2 웨어러블 장치(120)의 포인팅 위치(pointing position)(예: 손가락의 팁 부분(tip portion))와 매칭하는 지점을 결정할 수 있다. 제1 웨어러블 장치(110)는 팁 부분과 매칭하는 지점에 매핑된 픽셀 값에 기초하여 진동 데이터를 생성할 수 있다. 예를 들어, 제1 웨어러블 장치(110)는 픽셀 값에 대응하는 진동 세기 또는 진동 시간 중 적어도 하나를 포함하는 진동 데이터를 생성할 수 있다. 제1 웨어러블 장치(110)는 이미지 데이터들을 처리한 결과(예: 진동 데이터)를 제2 웨어러블 장치(120)에게 전송 또는 공유할 수 있다.The first wearable device 110 may analyze first image data and second image data. For example, the first wearable device 110 may map pixel values of the first image data to a virtual plane. The virtual plane may be set as a plane included within the second viewing angle 132 while the user's hand or the pointing position of the second wearable device 120 can be located. The virtual plane is described later. The first wearable device 110 determines a point matching the pointing position (e.g., tip portion of a finger) of the second wearable device 120 in the virtual plane based on the second image data. You can. The first wearable device 110 may generate vibration data based on pixel values mapped to a point matching the tip portion. For example, the first wearable device 110 may generate vibration data including at least one of vibration intensity or vibration time corresponding to the pixel value. The first wearable device 110 may transmit or share the results of processing image data (eg, vibration data) to the second wearable device 120.
제2 웨어러블 장치(120)는 사용자의 손 또는 손가락에 착용될 수 있다. 제2 웨어러블 장치(120)는 캡처된 이미지 데이터를 처리한 결과에 기초한 진동 피드백을 발생시킬 수 있다. 예를 들어, 제2 웨어러블 장치(120)는 제1 웨어러블 장치(110)로부터 진동 피드백을 위한 데이터(예: 진동 세기 또는 진동 시간 중 적어도 하나를 포함하는 진동 데이터)를 수신할 수 있다. 제2 웨어러블 장치(120)는 수신된 진동 데이터에 기초하여 진동 피드백을 발생시킬 수 있다. 예를 들어, 제2 웨어러블 장치(120)는 진동 데이터에서 지시된 진동 세기 또는 진동 시간 중 적어도 하나에 따른 진동을 발생시킬 수 있다.The second wearable device 120 may be worn on the user's hand or finger. The second wearable device 120 may generate vibration feedback based on a result of processing the captured image data. For example, the second wearable device 120 may receive data for vibration feedback (eg, vibration data including at least one of vibration intensity or vibration time) from the first wearable device 110. The second wearable device 120 may generate vibration feedback based on the received vibration data. For example, the second wearable device 120 may generate vibration according to at least one of the vibration intensity or vibration time indicated in the vibration data.
다만, 본 명세서에서 이미지 데이터의 처리 및 진동 피드백을 위한 데이터의 생성이 제1 웨어러블 장치(110)에 의해 수행되는 예시를 주로 설명하나 이로 한정하는 것은 아니다. 제1 웨어러블 장치(110) 및 제2 웨어러블 장치(120)가 협력하여 이미지 데이터를 분석 및 진동 피드백을 위한 데이터를 생성할 수 있다. 또한, 별도의 전자 장치(예: 스마트폰)이 제1 웨어러블 장치(110) 또는 제2 웨어러블 장치(120) 중 적어도 하나와 통신을 수립하여 데이터를 처리할 수도 있다. 예를 들어, 해당 전자 장치가 제1 웨어러블 장치(110)로부터 이미지 데이터를 수신하고 분석하며, 분석 결과를 제2 웨어러블 장치(120)에게 전달할 수도 있다.However, in this specification, an example in which processing of image data and generation of data for vibration feedback is performed by the first wearable device 110 is mainly described, but is not limited thereto. The first wearable device 110 and the second wearable device 120 may cooperate to analyze image data and generate data for vibration feedback. Additionally, a separate electronic device (eg, a smartphone) may process data by establishing communication with at least one of the first wearable device 110 or the second wearable device 120. For example, the electronic device may receive image data from the first wearable device 110, analyze it, and transmit the analysis result to the second wearable device 120.
도 2는 일 실시예에 따른 햅틱 피드백 장치의 블록도를 도시한다.Figure 2 shows a block diagram of a haptic feedback device according to one embodiment.
도 1에서 전술한 바와 같이 햅틱 피드백 장치(100)는 제1 웨어러블 장치(110) 및 제2 웨어러블 장치(120)를 포함할 수 있다. 제1 웨어러블 장치(110)와 제2 웨어러블 장치(120)는 직접 통신(Direct Communication) 방식으로 통신 채널을 형성할 수 있다. 햅틱 피드백 장치(100)는 제1 웨어러블 장치(110) 및 제2 웨어러블 장치(120)의 통신채널을 통해 전자 장치(200)와 연결될 수 있다. As described above with reference to FIG. 1 , the haptic feedback device 100 may include a first wearable device 110 and a second wearable device 120 . The first wearable device 110 and the second wearable device 120 may form a communication channel through direct communication. The haptic feedback device 100 may be connected to the electronic device 200 through a communication channel of the first wearable device 110 and the second wearable device 120.
제1 웨어러블 장치(110)는 제1 비전 센서(111), 제2 비전 센서(112), 제1 프로세서(113) 및 제1 통신부(114)를 포함할 수 있다. The first wearable device 110 may include a first vision sensor 111, a second vision sensor 112, a first processor 113, and a first communication unit 114.
제1 비전 센서(111)는 제1 시야각(131)의 제1 이미지 데이터를 캡처할 수 있다. 제1 시야각(131)은 사용자의 머리방향에 대응하는 방향의 범위와 각도를 가질 수 있다. 제1 비전 센서(111)는 제1 시야각(131)에 대응하는 시야에 관한 시각적 정보를 수집할 수 있다. 예를 들어 제1 비전 센서(111)는 외출 시 사용자의 전방에 있는 객체 및/또는 배경을 캡처할 수 있다. The first vision sensor 111 may capture first image data of the first viewing angle 131. The first viewing angle 131 may have a range and angle corresponding to the direction of the user's head. The first vision sensor 111 may collect visual information about the field of view corresponding to the first viewing angle 131. For example, the first vision sensor 111 may capture objects and/or backgrounds in front of the user when going out.
제2 비전 센서(112)는 제2 시야각(132)의 제2 이미지 데이터를 캡처할 수 있다. 제2 시야각(132)은 사용자의 머리방향보다 낮은 방향에 대응하는 방향의 범위와 각도를 가질 수 있다. 제2 비전 센서(112)는 조작 신체 부위에 관한 시각적 정보를 수집할 수 있다. 예를 들어 제2 비전 센서(112)는 외출 시 만보(sauntering walk)로 이동하는 사용자의 손의 위치를 캡처할 수 있다. 제1 비전 센서(111) 및 제2 비전 센서(112)의 시야각 및 그 센싱 범위에 대한 구체적인 설명은 도3에서 후술한다.The second vision sensor 112 may capture second image data of the second viewing angle 132 . The second viewing angle 132 may have a range and angle corresponding to a direction lower than the direction of the user's head. The second vision sensor 112 may collect visual information about the manipulated body part. For example, the second vision sensor 112 may capture the position of the user's hand as he or she walks sauntering when going out. A detailed description of the viewing angle and sensing range of the first vision sensor 111 and the second vision sensor 112 will be described later with reference to FIG. 3 .
제1 프로세서(113)는 제1 비전 센서(111) 및 제2 비전 센서(112)를 통해 연속된 프레임들에서 복수의 이미지 데이터를 캡처할 수 있다. 달리 말해, 제1 비전 센서(111)는 연속적인 복수의 제1 이미지 데이터를 캡처할 수 있고, 제2 비전 센서(112)는 연속적인 복수의 제2 이미지 데이터를 캡처할 수 있다. 제1 프로세서(113)는 제1 이미지 데이터의 프레임 및 제2 이미지 데이터의 프레임을 동기화할 수 있다. 즉, 제1 프로세서(113)는 각 프레임 별로 동시에 캡처된 제1 이미지 데이터 및 제2 이미지 데이터를 식별할 수 있다. 예를 들면, 제1 프로세서(113)는 첫번째 프레임에 캡처된 사용자의 전방에 있는 객체 및/또는 배경의 제1 이미지 데이터와 첫번째 프레임에 캡처된 사용자의 손 위치를 나타내는 제2 이미지 데이터를 동기화할 수 있다. The first processor 113 may capture a plurality of image data in consecutive frames through the first vision sensor 111 and the second vision sensor 112. In other words, the first vision sensor 111 may capture a plurality of consecutive first image data, and the second vision sensor 112 may capture a plurality of consecutive second image data. The first processor 113 may synchronize the frames of the first image data and the frames of the second image data. That is, the first processor 113 can identify first image data and second image data captured simultaneously for each frame. For example, the first processor 113 may synchronize first image data of an object and/or background in front of the user captured in the first frame with second image data representing the user's hand position captured in the first frame. You can.
제1 프로세서(113)는 제1 이미지 데이터 및 제2 이미지 데이터를 분석한 결과에 기초하여 진동 피드백을 결정할 수 있다. 제1 프로세서(113)는 제1 이미지 데이터를 분석함으로써, 제1 시야각(131)에 대응하는 장면에 나타나는 객체 및/또는 배경에 관한 시각적 정보를 추출할 수 있다. 제1 프로세서(113)는 추출된 시각적 정보를 소리 출력부로 전달하여 소리 출력부가 사용자에게 소리로 시각적 정보를 안내할 수 있다. The first processor 113 may determine vibration feedback based on a result of analyzing the first image data and the second image data. The first processor 113 may extract visual information about an object and/or background appearing in a scene corresponding to the first viewing angle 131 by analyzing the first image data. The first processor 113 transfers the extracted visual information to the sound output unit, so that the sound output unit can guide the user to the visual information through sound.
전술한 바와 같이 제1 프로세서(113)는 제2 시야각(132)에 대응하는 제2 이미지 데이터에 기초하여 하나 이상의 햅틱 유닛의 위치를 검출할 수 있다. 제1 프로세서(113)는 진동 피드백이 요청되는 것에 응답하여 가상 평면을 형성할 수 있다. 진동 피드백은 사용자의 머리방향에 대응하는 장면인 제1 이미지 데이터에 기초하여 요청될 수 있다. 가상 평면은 진동 피드백이 요청된 시점(time point)의 하나 이상의 햅틱 유닛의 검출된 위치에 기초하여 결정될 수 있다. 예를 들어, 하나 이상의 햅틱 유닛을 착용할 수 있는 조작 신체 부위가 손인 경우, 제1 프로세서(113)는 가상 평면을 진동 피드백이 요청된 시점의 손의 바닥면에 대응하는 평면으로 결정할 수 있다. 즉, 제1 프로세서(113)는 사용자의 음성 명령 또는 제스처 중 적어도 하나에 기초하여, 진동 피드백이 요청된 것으로 결정하고 가상 평면을 생성할 수 있다. As described above, the first processor 113 may detect the position of one or more haptic units based on the second image data corresponding to the second viewing angle 132. The first processor 113 may form a virtual plane in response to vibration feedback being requested. Vibration feedback may be requested based on first image data, which is a scene corresponding to the user's head direction. The virtual plane may be determined based on the detected position of one or more haptic units at the time point at which vibration feedback is requested. For example, when the manipulated body part on which one or more haptic units can be worn is the hand, the first processor 113 may determine the virtual plane as a plane corresponding to the bottom surface of the hand at the time when vibration feedback is requested. That is, the first processor 113 may determine that vibration feedback is requested based on at least one of the user's voice command or gesture and generate a virtual plane.
제1 프로세서(113)는 진동 피드백을 하나 이상의 햅틱 유닛을 통해 제공할 수 있다. 진동 피드백은 가상 평면에서 하나 이상의 햅틱 유닛의 위치를 검출하는 동안 검출된 위치 및 제1 이미지 데이터에 기초하여 결정될 수 있다. 제1 프로세서(113)는 결정된 가상 평면의 좌표들에 제1 이미지 데이터의 픽셀 값들을 매핑할 수 있다. 픽셀 값은 제1 이미지 데이터에 포함된 픽셀들이 가지는 세기 값일 수 있다. 제1 비전 센서가 레이더 센서, 라이다 센서, 또는 초음파 센서를 포함하는 경우, 제1 이미지 데이터의 픽셀 값은 해당 픽셀에 대응하는 물리적 위치까지의 거리를 나타내는 값(예: ToF(time of flight) 값)일 수 있다. 제1 비전 센서가 적외선 센서를 포함하는 경우, 제1 이미지 데이터의 픽셀 값은 해당 픽셀에 대응하는 물리적 위치로부터 반사된 적외선 세기를 나타내는 값일 수 있다.The first processor 113 may provide vibration feedback through one or more haptic units. Vibration feedback may be determined based on the first image data and the detected position while detecting the position of one or more haptic units in the virtual plane. The first processor 113 may map pixel values of the first image data to the determined coordinates of the virtual plane. The pixel value may be an intensity value of pixels included in the first image data. When the first vision sensor includes a radar sensor, LiDAR sensor, or ultrasonic sensor, the pixel value of the first image data is a value indicating the distance to the physical location corresponding to the pixel (e.g., time of flight (ToF)) value). When the first vision sensor includes an infrared sensor, the pixel value of the first image data may be a value representing the intensity of infrared light reflected from a physical location corresponding to the pixel.
제1 비전 센서가 카메라 센서를 포함하는 경우, 제1 이미지 데이터는 픽셀 별로 색상 값을 포함할 수 있다. 예를 들어, 제1 이미지 데이터의 각 픽셀은 색공간에 따르는 색상 채널 별 색상 값을 포함하는 색상 벡터를 가질 수 있다. 대표적인 RGB 색공간에서, 제1 이미지 데이터의 각 픽셀은 적색 값, 녹색 값, 및 청색 값을 포함하는 색상 값들(예: RGB 값)을 포함할 수 있다. When the first vision sensor includes a camera sensor, the first image data may include color values for each pixel. For example, each pixel of the first image data may have a color vector including color values for each color channel according to the color space. In a representative RGB color space, each pixel of the first image data may include color values (eg, RGB values) including a red value, a green value, and a blue value.
햅틱 피드백 장치는 각 픽셀의 색상 값들을 그레이 스케일(gray scale)을 따르는 값(예: 명도 값)으로 변환할 수 있다. 예를 들어, 햅틱 피드백 장치는 제1 이미지 데이터를 컬러 이미지로부터 그레이 스케일 이미지로 변환(예: 다운그레이드 변환)할 수 있다. 그레이 스케일 이미지의 각 픽셀 값은 예시적으로 명도(brightness) 값일 수 있다. 명도(brightness) 값은 0 이상 255 이하의 값으로 표현될 수 있어, 0이면 가장 어두운 색이고 255면 가장 밝은 색임을 나타낼 수 있다. 명도 값은 가상 평면에서 해당하는 픽셀의 위치에 매핑될 수 있다. 후술하겠으나, 햅틱 피드백 장치는 가상 평면에서 사용자에 의해 지시되는 위치 별로 해당 위치에 매핑된 명도 값에 대응하는 진동 세기의 햅틱 피드백을 제공할 수 있다.The haptic feedback device can convert the color values of each pixel into a value (e.g., brightness value) that follows gray scale. For example, the haptic feedback device may convert the first image data from a color image to a gray scale image (eg, downgrade conversion). Each pixel value of a gray scale image may, for example, be a brightness value. The brightness value can be expressed as a value between 0 and 255, where 0 indicates the darkest color and 255 indicates the brightest color. The brightness value can be mapped to the location of the corresponding pixel in the virtual plane. As will be described later, the haptic feedback device can provide haptic feedback of the vibration intensity corresponding to the brightness value mapped to the position for each position indicated by the user in the virtual plane.
다만, 각 픽셀의 색상 값들이 분석으로부터 배제되는 것으로 한정하는 것은 아니다. 예를 들어, 햅틱 피드백 장치는 각 픽셀의 색상 값들을 제1 프로세서(113)에게 전달할 수 있다. 제1 프로세서(113)는 전달된 각 픽셀의 색상 값들에 기초하여 제1 이미지 데이터로부터 시각적 정보를 보다 용이하게 추출할 수 있다.However, this is not limited to excluding the color values of each pixel from analysis. For example, the haptic feedback device may transmit the color values of each pixel to the first processor 113. The first processor 113 can more easily extract visual information from the first image data based on the color values of each transmitted pixel.
또한, 햅틱 피드백 장치는 각 픽셀의 색상 값들을 이용하여 관심 객체의 색상을 나타내는 진동 피드백을 발생시킬 수 있다. 예를 들어, 햅틱 피드백 장치는 복수의 색상들 별로 서로 구별되는 진동 패턴을 저장할 수 있다. 복수의 색상들의 각각은 예시적으로 RGB 색공간의 색상 값 범위(예: 적색 값의 범위, 녹색 값의 범위, 및 청색 값의 범위)에 의해 정의될 수 있다. 햅틱 피드백 장치는, 픽셀의 색상 값이 복수의 색상들 중 한 색상의 색상 값 범위에 속하는 경우, 해당 픽셀이 해당 색상인 것으로 결정할 수 있다. 복수의 색상들의 각각의 색상 값 범위를 정의하는 정보를 색상 분류 정보라고 나타낼 수 있다. 진동 패턴들의 각각은 다른 진동 패턴과 구별되는 고유의 패턴을 가질 수 있고, 진동 패턴들의 개수와 전술한 바와 같이 분류된 색상들의 개수는 동일할 수 있다. 달리 말해, 각 색상마다 고유의 진동 패턴이 할당될 수 있다. 햅틱 피드백 장치는 미리 저장된 색상 분류 정보를 이용하여 관심객체의 픽셀이 속하는 색상 분류를 결정할 수 있다. 햅틱 피드백 장치는 결정된 색상 분류에 할당된 진동 패턴을 발생시킬 수 있다. 예를 들면, 컬러 분류 정보는 적색, 주황색, 노란색, 녹색, 청색, 남색, 및 보라색 별 색상 값 범위를 포함할 수 있다. 햅틱 피드백 장치는, 관심객체의 픽셀이 적색으로 결정되는 경우, 적색에 대응하는 고유한 진동패턴을 진동 피드백으로 발생시킬 수 있다.Additionally, the haptic feedback device can generate vibration feedback indicating the color of the object of interest using the color values of each pixel. For example, a haptic feedback device can store distinct vibration patterns for each of a plurality of colors. Each of the plurality of colors may be illustratively defined by a color value range of the RGB color space (eg, a red value range, a green value range, and a blue value range). When the color value of a pixel falls within the color value range of one color among a plurality of colors, the haptic feedback device may determine that the pixel is of the corresponding color. Information defining the color value range of each of a plurality of colors may be referred to as color classification information. Each of the vibration patterns may have a unique pattern that is distinct from other vibration patterns, and the number of vibration patterns and the number of colors classified as described above may be the same. In other words, each color can be assigned a unique vibration pattern. The haptic feedback device can determine the color classification to which the pixel of the object of interest belongs using pre-stored color classification information. The haptic feedback device may generate a vibration pattern assigned to the determined color classification. For example, color classification information may include color value ranges for red, orange, yellow, green, blue, indigo, and purple. When the pixel of the object of interest is determined to be red, the haptic feedback device can generate a unique vibration pattern corresponding to red as vibration feedback.
제1 프로세서(113)는 하나 이상의 햅틱 유닛 중 가상 평면과 접촉한 햅틱 유닛에게 진동 피드백을 제공할 수 있다. 진동 피드백은 가상 평면에 매핑된 픽셀 값에 대응될 수 있다. 즉, 제1 프로세서(113)는 상술한 바와 같이 가상 평면에서 손의 이동에 따라 진동 피드백을 제공할 수 있다. 햅틱 유닛에 대응되어 진동 피드백을 제공하는 구체적인 방식은 도4 및 도5에서 후술한다.The first processor 113 may provide vibration feedback to a haptic unit in contact with the virtual plane among one or more haptic units. Vibration feedback may correspond to pixel values mapped to a virtual plane. That is, the first processor 113 may provide vibration feedback according to the movement of the hand in the virtual plane, as described above. A specific method of providing vibration feedback corresponding to the haptic unit will be described later with reference to FIGS. 4 and 5.
제1 프로세서(113)는 제1 시야각에 대응하는 장면에 나타나는 하나 이상의 객체 중 관심 객체를 선택할 수 있다. 관심 객체는 소리 수집부를 통해 수집된 사용자의 음성에 기초하여 선택될 수 있다. 제1 프로세서(113)는 제1 이미지 데이터 중 선택된 관심 객체에 대응하는 포커싱 영역에 대한 진동 피드백을 가상 평면 상의 하나 이상의 햅틱 유닛(122)을 통해 제공할 수 있다. 제1 프로세서(113)는 제1 이미지 데이터에서 포커싱 영역의 픽셀 값을 가상 평면의 좌표에 매핑하고 나머지 영역의 픽셀 값은 배제할 수 있다. 즉, 제1 프로세서(113)는 포커싱 영역에 대해서만 진동 피드백을 제공하므로 진동 피드백을 발생시키기 위한 연산에 대한 부하가 감소될 수 있다.The first processor 113 may select an object of interest from one or more objects appearing in the scene corresponding to the first viewing angle. The object of interest may be selected based on the user's voice collected through the sound collection unit. The first processor 113 may provide vibration feedback to the focusing area corresponding to the object of interest selected among the first image data through one or more haptic units 122 on the virtual plane. The first processor 113 may map pixel values of the focusing area to coordinates of a virtual plane in the first image data and exclude pixel values of the remaining areas. That is, since the first processor 113 provides vibration feedback only for the focusing area, the load on calculations for generating vibration feedback can be reduced.
햅틱 피드백 장치(100)는 사용자에게 안내하는 소리를 출력하는 소리 출력부 및 사용자의 음성을 수집하는 소리 수집부를 더 포함할 수 있다. 소리 출력부 및 소리 수집부는 제1 웨어러블 장치(110) 및/또는 제2 웨어러블 장치(120)에 같이 또는 따로 구성될 수 있다.The haptic feedback device 100 may further include a sound output unit that outputs a sound to guide the user and a sound collection unit that collects the user's voice. The sound output unit and the sound collection unit may be configured together or separately in the first wearable device 110 and/or the second wearable device 120.
참고로, 상술한 제1 프로세서(113)는 제1 웨어러블 장치(110)에 한 프로세서로 도시되었으나, 이로 한정하는 것은 아니다. 제1 프로세서(113)는 복수의 프로세서들을 포함할 수 있고, 각 프로세서가 수행되는 작업을 분산하여 처리할 수도 있다.For reference, the above-described first processor 113 is shown as one processor in the first wearable device 110, but is not limited thereto. The first processor 113 may include a plurality of processors, and may distribute and process tasks performed by each processor.
제1 통신부(114)는 통신채널이 유선 또는 무선으로 연결될 수 있다. 예를 들면, 제1 통신부(114)는 제2 웨어러블 장치(120)와 무선으로 블루투스 방식 또는 와이파이 방식의 통신 채널을 형성할 수 있다. 예를 들면, 제1 통신부(114)는 제2 웨어러블 장치(120)와 유선으로 텔레커뮤니케이션 네트워크(예: LAN (Local Area Network)) 방식의 통신 채널을 형성할 수 있다. 제1 통신부(114)는 전자 장치(200)와 유선 또는 무선으로 연결될 수 있다. 전자 장치(200)는 제1 통신부(114)를 통해 제1 웨어러블 장치(110)와 연결되어 상술한 제1 프로세서(113)의 기능을 수행할 수 있다. 예를 들면, 전자 장치(200)는 제1 웨어러블 장치(110)로부터 이미지 데이터를 수신 받아 진동 데이터를 생성하는 연산을 수행할 수 있다. The first communication unit 114 may be connected to a wired or wireless communication channel. For example, the first communication unit 114 may wirelessly form a Bluetooth or Wi-Fi communication channel with the second wearable device 120. For example, the first communication unit 114 may form a wired communication channel in the form of a telecommunication network (eg, LAN (Local Area Network)) with the second wearable device 120. The first communication unit 114 may be connected to the electronic device 200 by wire or wirelessly. The electronic device 200 may be connected to the first wearable device 110 through the first communication unit 114 and perform the function of the first processor 113 described above. For example, the electronic device 200 may receive image data from the first wearable device 110 and perform an operation to generate vibration data.
제2 웨어러블 장치(120)는 제2 프로세서(121) 햅틱 유닛(122) 및 제2 통신부(123)를 포함할 수 있다.The second wearable device 120 may include a second processor 121, a haptic unit 122, and a second communication unit 123.
제2 프로세서(121)는 상술한 제1 프로세서(113)의 기능을 수행하거나 햅틱 유닛(122)을 제어하는 기능만을 수행할 수 있다. 예를 들면, 제1 프로세서(113)는 제1 이미지 데이터를 분석하여 픽셀 값을 생성할 수 있다. 제2 프로세서(121)는 생성된 픽셀 값을 가상 평면에 매핑하여 제2 이미지 데이터를 분석함에 따라 최종 진동 데이터를 생성할 수 있다. 다른 예를 들면, 제1 프로세서(113)는 제1 비전센서(111) 및 제2 비전센서(112)를 통해 획득한 이미지 데이터를 분석할 수 있다. 제2 프로세서(121)는 제1 프로세서(113)가 이미지 데이터 분석을 통해 생성한 진동 데이터를 기초로 햅틱 유닛(122)을 제어할 수 있다.The second processor 121 may only perform the functions of the first processor 113 described above or control the haptic unit 122. For example, the first processor 113 may generate a pixel value by analyzing the first image data. The second processor 121 may generate final vibration data by mapping the generated pixel values to a virtual plane and analyzing the second image data. For another example, the first processor 113 may analyze image data acquired through the first vision sensor 111 and the second vision sensor 112. The second processor 121 may control the haptic unit 122 based on vibration data generated by the first processor 113 through image data analysis.
본 명세서에서는 제1 웨어러블 장치(110) 및 제2 웨어러블 장치(120) 각각에 프로세서가 구성되는 것으로 설명하지만, 이로 한정하는 것은 아니다. 전술한 제1 프로세서(113) 및 제2 프로세서(121)의 동작들이 통합된 프로세서에서 수행될 수도 있고, 통합된 프로세서는 제1 웨어러블 장치(110), 제2 웨어러블 장치(120) 또는 외부의 다른 전자 장치에 포함될 수 있다.In this specification, it is explained that a processor is configured in each of the first wearable device 110 and the second wearable device 120, but it is not limited to this. The operations of the above-described first processor 113 and second processor 121 may be performed in an integrated processor, and the integrated processor may be used in the first wearable device 110, the second wearable device 120, or another external device. Can be included in electronic devices.
하나 이상의 햅틱 유닛(122)은 사용자의 조작 신체 부위에 착용이 가능할 수 있다. 하나 이상의 햅틱 유닛(122)은 사용자의 조작 신체 부위를 통해 진동 피드백을 제공할 수 있다. 하나 이상의 햅틱 유닛은 양 손의 하나 이상의 손가락에 착용될 수 있다. 예를 들어, 햅틱 피드백 장치가 10개의 햅틱 유닛을 포함하는 경우, 10개의 손가락 끝(tip)에 각각 착용될 수 있다. 따라서, 사용자는 손 끝에 착용된 햅틱 유닛(122)을 자유롭게 움직일 수 있다. 햅틱 유닛의 상세한 구성은 도4 및 도5에서 후술한다.One or more haptic units 122 may be wearable on the user's manipulated body part. One or more haptic units 122 may provide vibration feedback through the user's manipulated body part. One or more haptic units may be worn on one or more fingers of each hand. For example, if the haptic feedback device includes 10 haptic units, it can be worn on each of 10 fingertips. Accordingly, the user can freely move the haptic unit 122 worn on the fingertips. The detailed configuration of the haptic unit will be described later in Figures 4 and 5.
제2 통신부(123)는 상술한 제1 통신부(114)와 같이 통신채널이 유선 또는 무선으로 연결될 수 있다. 제2 통신부(123) 또한 전자 장치(200)와 연결되어 전자 장치(200)에서 수행된 기능의 결과를 수신 받을 수 있다. 예를 들면, 전자 장치(200)는 제1 프로세서의 기능을 수행하여 생성한 진동 데이터를 제2 통신부(123)로 바로 전송할 수 있다.The second communication unit 123 may be connected to a wired or wireless communication channel like the first communication unit 114 described above. The second communication unit 123 is also connected to the electronic device 200 and can receive the results of functions performed in the electronic device 200. For example, the electronic device 200 may directly transmit vibration data generated by performing the function of the first processor to the second communication unit 123.
도 3a는 일 실시예에 따른 햅틱 피드백 장치의 측면도, 도 3b는 햅틱 피드백 장치의 정면도를 도시한다.FIG. 3A is a side view of a haptic feedback device according to one embodiment, and FIG. 3B is a front view of the haptic feedback device.
제1 웨어러블 장치(110)의 하우징(115)에 제1 비전 센서(111), 제2 비전 센서(112) 제1 프로세서(113) 및 통신부(114)가 위치될 수 있다. 하우징(115)은 사용자의 머리에 착용 가능하게 구성될 수 있다.A first vision sensor 111, a second vision sensor 112, a first processor 113, and a communication unit 114 may be located in the housing 115 of the first wearable device 110. The housing 115 may be configured to be worn on the user's head.
제1 비전 센서(111)는 제1 시야각(131)을 가지고 제2 비전 센서(112)는 제2 시야각(132)을 가질 수 있다. 제1 시야각(131)의 중심방향은 제2 시야각(132)의 중심방향 과의 각도 차이가 임계 각도를 초과하도록 형성될 수 있다. 제1 비전 센서(111)의 제1 센싱 범위(141)는 제2 비전 센서(112)의 제2 센싱 범위(142)와 비중첩하거나, 임계 범위 미만으로 중첩될 수 있다. 달리 말해, 제1 센싱 범위(141) 및 제2 센싱 범위(142)의 중첩 범위가 최소화될 수 있다. 즉, 제1 비전 센서(111)가 제1 이미지 데이터를 캡처할 때 캡처 범위의 제1 시야각(131)이 방해받지 않을 수 있다. 또한, 제2 비전 센서(112)가 제2 이미지 데이터를 캡처할 때도 캡처범위의 제2 시야각(132)이 방해받지 않을 수 있다. 예를 들어, 제1 비전 센서(111)는 사용자의 머리방향에 대응하는 정면을 캡처할 수 있다. 제1 비전 센서(111)는 안경 브릿지에 배치될 수 있으나, 이로 한정하는 것은 아니다. 도 3a 및 도 3b에 도시된 예시에서, 제1 비전 센서(111)의 제1 시야각(131)의 중심방향은 직선(A)로 도시될 수 있다. 제2 비전 센서(112)의 제2 시야각(132)의 중심방향은 직선(B)로 도시될 수 있다. 제1 시야각(131)의 중심방향 및 제2 시야각(132)의 중심방향이 교차(예: 직교)하게, 제1 비전 센서(111) 및 제2 비전 센서(112)가 배치될 수 있다. 즉, 제2 비전 센서(112)는 지면과 정면 방향 사이에 위치된 사용자의 손을 포함하는 제2 이미지 데이터를 캡처할 수 있다. 제2 비전 센서(112)는 사용자의 손 뿐만 아니라 손 바닥면에 형성되는 가상 평면(140)을 포함하여 캡처할 수 있다. 가상 평면은 제2 이미지 데이터를 통해 검출된 하나 이상의 햅틱 유닛의 위치에 기초하여 결정될 수 있다. 예를 들면, 검지 및 엄지에 착용된 햅틱 유닛을 중심으로 가상 평면이 형성될 수 있으나, 이에 한정되지 않고, 다른 손가락의 하나 이상을 기준으로 하여 가상 평면이 형성될 수 있다.The first vision sensor 111 may have a first viewing angle 131 and the second vision sensor 112 may have a second viewing angle 132 . The central direction of the first viewing angle 131 may be formed such that the angle difference from the central direction of the second viewing angle 132 exceeds a critical angle. The first sensing range 141 of the first vision sensor 111 may not overlap with the second sensing range 142 of the second vision sensor 112 or may overlap less than a critical range. In other words, the overlapping range of the first sensing range 141 and the second sensing range 142 can be minimized. That is, when the first vision sensor 111 captures the first image data, the first viewing angle 131 of the capture range may not be disturbed. Additionally, even when the second vision sensor 112 captures second image data, the second viewing angle 132 of the capture range may not be disturbed. For example, the first vision sensor 111 may capture the front view corresponding to the direction of the user's head. The first vision sensor 111 may be placed on the glasses bridge, but is not limited to this. In the example shown in FIGS. 3A and 3B, the central direction of the first viewing angle 131 of the first vision sensor 111 may be depicted as a straight line A. The center direction of the second viewing angle 132 of the second vision sensor 112 may be depicted as a straight line B. The first vision sensor 111 and the second vision sensor 112 may be arranged so that the center direction of the first viewing angle 131 and the center direction of the second viewing angle 132 intersect (e.g., are perpendicular to each other). That is, the second vision sensor 112 may capture second image data including the user's hand positioned between the ground and the front direction. The second vision sensor 112 may capture not only the user's hand but also the virtual plane 140 formed on the bottom of the hand. The virtual plane may be determined based on the location of one or more haptic units detected through the second image data. For example, a virtual plane may be formed around the haptic unit worn on the index finger and thumb, but the present invention is not limited to this, and the virtual plane may be formed based on one or more of the other fingers.
다만, 본 명세서에서 비전 센서의 위치 및 시야각이 정적인(static) 예시를 주로 설명하나, 이로 한정하는 것은 아니다. 설계에 따라 예시적으로, 제2 비전 센서(112)는 제2 시야각(132) 내에 사용자의 손(120)이 포함될 수 있도록 손의 움직임에 따라 제2 비전 센서(112)가 회전 및/또는 이동을 수행할 수 있다. 따라서, 제2 비전 센서(112)는 외출 시 움직이는 사용자의 손을 계속해서 캡처할 수 있다. 제1 비전 센서(111)는 제2 비전 센서(112)의 회전 및/또는 이동에 따라 상호 시야각의 중심방향 간의 각도가 임계 각도를 초과하도록 회전 및/또는 이동할 수 있다.However, in this specification, examples in which the position and viewing angle of the vision sensor are static are mainly described, but are not limited thereto. Depending on the design, the second vision sensor 112 rotates and/or moves according to the movement of the user's hand so that the user's hand 120 can be included within the second viewing angle 132. can be performed. Accordingly, the second vision sensor 112 can continuously capture the user's moving hands when going out. The first vision sensor 111 may rotate and/or move according to the rotation and/or movement of the second vision sensor 112 so that the angle between the center directions of the mutual viewing angles exceeds the critical angle.
참고로, 도 3a에서는 하나의 제2 비전 센서(112)가 도시되었으나, 이로 한정하는 것은 아니다. 복수의 제2 비전 센서들이 다양한 종류의 센서를 포함하고, 템플 또는 림의 어느 부분이든 위치할 수 있다. For reference, one second vision sensor 112 is shown in FIG. 3A, but it is not limited thereto. The plurality of second vision sensors may include various types of sensors and may be located on any part of the temple or rim.
제1 웨어러블 장치(110)는 안경형뿐만 아니라 제1 시야각(131) 및 제2 시야각(132) 간의 임계 각도 확보가 가능한 헤드셋, 헬멧 및 고글의 형태일 수 있다.The first wearable device 110 may be in the form of a headset, helmet, or goggles that can secure a critical angle between the first viewing angle 131 and the second viewing angle 132 as well as glasses.
제1 비전 센서(111) 및 제2 비전 센서(112)는, 카메라 센서, 레이더 센서, 라이다 센서, 초음파 센서, 또는 적외선 센서 중 적어도 하나를 포함할 수 있다. 예시적으로 카메라 센서는 스테레오 카메라 센서로 구현되어, 깊이를 측정 가능하게 구성될 수도 있다. The first vision sensor 111 and the second vision sensor 112 may include at least one of a camera sensor, a radar sensor, a LiDAR sensor, an ultrasonic sensor, or an infrared sensor. For example, the camera sensor may be implemented as a stereo camera sensor and configured to measure depth.
도 4는 일 실시예에 따른 햅틱 피드백 장치 중 제2 웨어러블 장치의 사시도를 도시한다. Figure 4 shows a perspective view of a second wearable device among the haptic feedback devices according to an embodiment.
제2 웨어러블 장치(400)(예: 제2 웨어러블 장치(120))는 사용자의 조작 신체 부위(예: 손가락)에 장착될 수 있다. 제2 웨어러블 장치(400)는 하나 이상의 장착 유닛(410)일 수 있다. 하나 이상의 장착 유닛(410)은 각각의 하우징에 제어부(411)(예: 제2 프로세서(121)), 진동부(412)(예: 햅틱 유닛(122)) 및 신호 송수신부(413)(예: 제2 통신부(123))가 형성될 수 있다. 제어부(411), 진동부(412) 및 신호 송수신부(413)는 전력 공급 및 상호 제어를 위해 상호 연결될 수 있다. 예를 들면, 제어부(411), 진동부(412) 및 신호 송수신부(413)는 별도의 연결부재를 통해 전기적으로 연결될 수 있다. 참고로, 도 4에서는 하나 이상의 장착 유닛(410)이 골무형으로 도시되었으나, 이로 한정하는 것은 아니다. 추가적으로, 제2 웨어러블 장치(400)는 FPCB(flexible printed circuit board)를 이용하여 제어부(411)를 형성할 수 있다. 이를 통해 하나 이상의 장착 유닛(410)은 FPCB와 연결된 골무형 또는 장갑형일 수 있으며, 사용자의 임의의 신체 위치에 부착가능한 인체부착형의 형태일 수도 있다.The second wearable device 400 (eg, second wearable device 120) may be mounted on a user's body part (eg, finger). The second wearable device 400 may be one or more mounting units 410 . One or more mounting units 410 include a control unit 411 (e.g., second processor 121), a vibration unit 412 (e.g., haptic unit 122), and a signal transceiver 413 (e.g., : A second communication unit 123) may be formed. The control unit 411, the vibration unit 412, and the signal transmitting/receiving unit 413 may be interconnected for power supply and mutual control. For example, the control unit 411, the vibration unit 412, and the signal transmitting/receiving unit 413 may be electrically connected through a separate connection member. For reference, in FIG. 4, one or more mounting units 410 are shown in a boneless shape, but the present invention is not limited thereto. Additionally, the second wearable device 400 may form the control unit 411 using a flexible printed circuit board (FPCB). Through this, the one or more mounting units 410 may be boneless or armored connected to the FPCB, or may be attached to the body at any location on the user's body.
제어부(411)는 상술한 제2 프로세서(121)의 기능을 수행할 수 있다. 예시적으로, 제어부(411)는 직접 제2 이미지 데이터를 기초하여 진동 피드백 생성하거나 단순히 진동 피드백 제어 신호를 수신받아 진동부(412)를 제어할 수 있다.The control unit 411 may perform the functions of the second processor 121 described above. As an example, the control unit 411 may directly generate vibration feedback based on the second image data or may control the vibration unit 412 by simply receiving a vibration feedback control signal.
진동부(412)는 상술한 햅틱 유닛(122)의 기능을 수행할 수 있다. 진동부(412)는 진동 모터로 구성되어 다양한 진동 패턴을 만들 수 있다. 예를 들어, 진동부(412)는 진동 세기 및 진동 시간이 손가락 별로 다양하게 설정될 수 있다. 진동부(412)는 다양한 진동 패턴을 통해 사용자에게 가상의 촉감을 전달할 수 있다. The vibration unit 412 may perform the function of the haptic unit 122 described above. The vibration unit 412 is composed of a vibration motor and can create various vibration patterns. For example, the vibration intensity and vibration time of the vibration unit 412 may be set to vary for each finger. The vibrating unit 412 can deliver a virtual tactile sensation to the user through various vibration patterns.
신호 송수신부(413)는 상술한 제2 통신부(123)의 기능을 수행할 수 있다. 즉, 신호 송수신부(413)는 제1 웨어러블 장치(110) 및/또는 전자 장치(200)와 통신채널을 형성하여 제어신호를 송수신할 수 있다. 추가로, 신호 송수신부(413)는 제1 웨어러블 장치(110) 및/또는 전자 장치(200)로부터 구동을 위한 전력 또한 수신할 수 있다.The signal transceiving unit 413 can perform the functions of the second communication unit 123 described above. That is, the signal transmitting and receiving unit 413 may form a communication channel with the first wearable device 110 and/or the electronic device 200 to transmit and receive control signals. Additionally, the signal transceiver 413 may also receive power for driving from the first wearable device 110 and/or the electronic device 200.
제2 웨어러블 장치(400)에는 가상 평면(420)이 형성될 수 있다. 가상 평면(430)은 하나 이상의 장착 유닛(410)이 장착된 손가락 끝에 형성되는 평면으로 결정될 수 있다. 하나 이상의 장착 유닛(410)은 가상 평면(420) 상을 이동할 수 있다. 하나 이상의 장착 유닛(410)은 이동하면서 가상 평면(430) 상에 매핑된 픽셀 값에 따라 변화되는 진동 피드백을 전달할 수 있다. A virtual plane 420 may be formed in the second wearable device 400. The virtual plane 430 may be determined as a plane formed at the tip of a finger on which one or more mounting units 410 are mounted. One or more mounting units 410 may move on the virtual plane 420 . One or more mounting units 410 may move and transmit vibration feedback that changes according to pixel values mapped on the virtual plane 430.
하나 이상의 장착 유닛(410)은 양 손에 장착될 수 있으므로, 하나 이상의 장착 유닛(410)에 기초하여 형성되는 가상 평면(420) 또한 두 개로 형성될 수 있다. 예시적으로, 각 가상 평면(420)에 매핑되는 픽셀 값은 동일한 제1 이미지 데이터의 포커싱 영역을 분할하여 매핑시킬 수 있다. 즉, 왼손에는 포커싱 영역의 좌측 부분에 대한 진동 피드백이 전달될 수 있고, 오른손에는 포커싱 영역의 우측 부분에 대한 진동 피드백이 전달될 수 있다. 결론적으로, 만약 사용자가 음성을 통해 인식을 원하는 사물을 지정하면 제1 프로세서(113) 및/또는 제2 프로세서(121)는 지정된 사물의 중심 좌표를 기준으로 사물의 부분을 좌측과 우측으로 나눌 수 있다. 제1 프로세서(113) 및/또는 제2 프로세서(121)는 나누어진 사물의 좌측과 우측 각각을 오른손 좌표와 왼손 좌표에 대응시켜 해당 사물의 좌측 우측이 분할되어 매핑될 수 있다.Since one or more mounting units 410 can be mounted on both hands, two virtual planes 420 formed based on one or more mounting units 410 can also be formed. As an example, pixel values mapped to each virtual plane 420 may be mapped by dividing the focusing area of the same first image data. That is, vibration feedback for the left part of the focusing area can be delivered to the left hand, and vibration feedback for the right part of the focusing area can be delivered to the right hand. In conclusion, if the user specifies an object for which recognition is desired through voice, the first processor 113 and/or the second processor 121 can divide parts of the object into left and right based on the center coordinates of the designated object. there is. The first processor 113 and/or the second processor 121 may map the left and right sides of the divided object by corresponding them to right-hand coordinates and left-hand coordinates, respectively.
다른 예시적으로, 각 가상 평면(420)에 매핑되는 픽셀 값은 제1 이미지 데이터 중 제1 포커싱 영역과 제2 포커싱 영역에 대하여 매핑될 수 있다. 즉, 가상 평면(420)에 매핑되는 픽셀 값은 포커싱 영역을 복수개 선택하여 각각의 가상 평면(420)에 매핑할 수 있다. 제1 포커싱 영역은 오른손에 매핑되고, 제2 포커싱 영역은 왼손에 매핑되어 이에 대응되는 진동 피드백이 전달될 수 있다. As another example, pixel values mapped to each virtual plane 420 may be mapped to a first focusing area and a second focusing area among the first image data. That is, pixel values mapped to the virtual plane 420 can be mapped to each virtual plane 420 by selecting a plurality of focusing areas. The first focusing area is mapped to the right hand, and the second focusing area is mapped to the left hand, so that corresponding vibration feedback can be delivered.
도 5는 일 실시예에 따른 햅틱 피드백 장치 중 제2 웨어러블 장치의 진동 피드백 예시도를 도시한다.Figure 5 shows an example of vibration feedback of a second wearable device among the haptic feedback devices according to an embodiment.
제어부(411)는 하나 이상의 장착 유닛(410) 중 가상 평면(420)과 접촉한 진동부(412)에게 진동 피드백을 제공할 수 있다. 진동 피드백은 가상 평면에 매핑된 제1 이미지 데이터(510)에 대응하는 픽셀 값에 기초하여 생성될 수 있다. 즉, 제1 위치(521)에 위치한 제1 손가락의 진동부(412)는 제1 이미지 데이터에서 제1 위치(521)에 대응하는 제1 픽셀 값에 기초한 진동을 제공할 수 있다. 이와 동일하게 제2 손가락, 제3 손가락, 제4 손가락, 제5 손가락의 진동부(412)는 각각 제2 위치(522), 제3 위치(523), 제4 위치(524), 제5 위치(525)에 위치할 것이다. 이에 따라 제2 손가락, 제3 손가락, 제4 손가락, 제5 손가락의 진동부(412)는 제1 이미지 데이터에서 각각의 제2 위치(522), 제3 위치(523), 제4 위치(524), 제5 위치(525)에 대응하는 제2 픽셀 값, 제3 픽셀 값, 제4 픽셀 값, 제5 픽셀 값에 기초한 진동을 제공할 수 있다. 예를 들어, 도5에 도시된 바와 같이, 명암으로 표시된 제1 이미지 데이터의 포커싱 영역이 사람의 안면의 눈부분에 해당하는 경우, 제1 손가락의 제1 위치(521)는 눈 앞머리 부분에 해당하는 제1 픽셀 값(예: 중간 값의 명암)을 가질 수 있다. 제1 픽셀 값에 따라 제1 손가락에는 강도가 중간인 진동 피드백이 제공될 수 있다. 제2 손가락의 제2 위치(522)는 아이홀 부분에 해당하는 제2 픽셀 값(예: 낮은 값의 명암)을 가질 수 있다. 제2 픽셀 값에 따라 제2 손가락에는 강도가 강한 진동 피드백이 제공될 수 있다. 제3 손가락, 제4 손가락, 제5 손가락의 제3 위치(523), 제4 위치(524), 제5 위치(525)는 이마 및 눈과 눈썹 사이의 피부에 해당하는 제3 픽셀, 제4 픽셀, 제5 픽셀 값(예: 높은 값의 명암)을 가질 수 있다. 제3 픽셀, 제4 픽셀, 제5 픽셀 값에 따라 제3 손가락, 제4 손가락, 제5 손가락에는 강도가 약한 진동 피드백이 제공될 수 있다. 여기서 진동 피드백의 강도가 단순히 약한, 중간, 강한 정도로만 표현되었지만 이로 한정하는 것은 아니다. 예를 들면, 0이상 255 이하의 값으로 표현된 각 픽셀 값은 각 값에 단계적인 진동 피드백의 세기 차이를 가져 이미지를 표현하는 섬세한 햅틱 피드백이 가능할 수 있다. 즉, 손가락 위치한 위치에 해당하는 픽셀 값이 1인 경우에는 1을 표현하는 진동 피드백 세기를 가질 수 있도록 하고, 픽셀 값이 2인 경우에는 1과 근소한 차이가 있는 2를 표현하는 진동 피드백 세기를 가질 수 있도록 한다.The control unit 411 may provide vibration feedback to the vibration unit 412 in contact with the virtual plane 420 among the one or more mounting units 410. Vibration feedback may be generated based on pixel values corresponding to the first image data 510 mapped to the virtual plane. That is, the vibrating unit 412 of the first finger located at the first position 521 may provide vibration based on the first pixel value corresponding to the first position 521 in the first image data. Likewise, the vibrating units 412 of the second, third, fourth, and fifth fingers are respectively positioned at the second position 522, third position 523, fourth position 524, and fifth position. It will be located at (525). Accordingly, the vibrating units 412 of the second, third, fourth, and fifth fingers are respectively positioned at the second position 522, third position 523, and fourth position 524 in the first image data. ), vibration may be provided based on the second pixel value, third pixel value, fourth pixel value, and fifth pixel value corresponding to the fifth position 525. For example, as shown in Figure 5, when the focusing area of the first image data displayed in light and dark corresponds to the eye part of the human face, the first position 521 of the first finger corresponds to the front part of the eye. It may have a first pixel value (e.g., mid-value brightness). Depending on the first pixel value, vibration feedback of medium intensity may be provided to the first finger. The second position 522 of the second finger may have a second pixel value (eg, low value of contrast) corresponding to the eyehole portion. Depending on the second pixel value, strong vibration feedback may be provided to the second finger. The third position 523, fourth position 524, and fifth position 525 of the third, fourth, and fifth fingers correspond to the third pixel, the fourth pixel corresponding to the forehead and the skin between the eyes and eyebrows. pixel, may have a fifth pixel value (e.g., high value contrast). Vibration feedback with a weak intensity may be provided to the third, fourth, and fifth fingers according to the third, fourth, and fifth pixel values. Here, the intensity of vibration feedback is simply expressed as weak, medium, and strong, but it is not limited to this. For example, each pixel value expressed as a value between 0 and 255 may have a step-by-step difference in the intensity of vibration feedback for each value, enabling delicate haptic feedback to express an image. In other words, if the pixel value corresponding to the position of the finger is 1, it can have a vibration feedback intensity expressing 1, and if the pixel value is 2, it can have a vibration feedback intensity expressing 2, which is slightly different from 1. make it possible
도 6은 일 실시예에 따른 햅틱 피드백 방법의 흐름도를 도시한다.Figure 6 shows a flowchart of a haptic feedback method according to one embodiment.
단계(610)에서, 프로세서는 제1 비전 센서를 통해 사용자의 머리 방향에 대응하는 제1 시야각의 제1 이미지 데이터를 캡처할 수 있다. 예를 들어, 프로세서는 머리 방향이 유지된 시간(예: 사용자가 이동 없이 유지한 시간)이 임계 시간을 초과한 것으로 감지하는 경우, 제1 비전 센서를 통해 제1 이미지 데이터를 획득할 수 있다. 예를 들어, 프로세서는 소리 수집부를 통해 수집된 사용자의 음성으로부터 시야 정보의 요청을 식별할 수 있다. 프로세서는 시야 정보의 요청을 식별한 것에 기초하여, 제1 비전 센서를 통해 제1 이미지 데이터의 캡처를 개시(initiate)할 수 있다. In step 610, the processor may capture first image data at a first viewing angle corresponding to the direction of the user's head through the first vision sensor. For example, when the processor detects that the time the head direction was maintained (eg, the time the user maintained the direction without moving) exceeds the threshold time, the processor may acquire first image data through the first vision sensor. For example, the processor may identify a request for visual field information from the user's voice collected through the sound collection unit. The processor may initiate capture of first image data through the first vision sensor based on identifying the request for field of view information.
단계(620)에서, 프로세서는 진동 피드백 요청 시 요청된 시점에 제2 비전 센서로 제2 이미지 데이터를 캡처할 수 있다. 요청된 시점의 제1 이미지 데이터의 정보는 사용자의 머리방향에 대응하는 장면일 수 있다. In step 620, the processor may capture second image data with the second vision sensor at the requested time when vibration feedback is requested. Information in the first image data at the requested viewpoint may be a scene corresponding to the direction of the user's head.
단계(630)에서, 프로세서는 제2 이미지 데이터를 통해 검출된 하나 이상의 햅틱 유닛의 위치에 기초하여 가상 평면을 결정할 수 있다. At step 630, the processor may determine the virtual plane based on the positions of one or more haptic units detected through the second image data.
단계(640)에서, 프로세서는 햅틱 유닛이 검출된 위치 및 제1 이미지 데이터에 기초하여 결정된 진동 피드백을 하나 이상의 햅틱 유닛을 통해 제공할 수 있다. 햅틱 유닛이 검출된 위치는 가상 평면에서 하나 이상의 햅틱 유닛의 위치를 검출할 수 있다.In step 640, the processor may provide vibration feedback determined based on the location where the haptic unit is detected and the first image data through one or more haptic units. The position where the haptic unit is detected may detect the position of one or more haptic units in a virtual plane.
도 7은 일 실시예에 따른 제1 이미지 데이터의 포커싱 영역을 선택하기 위한 동작을 나타내는 흐름도를 도시한다.FIG. 7 shows a flowchart illustrating an operation for selecting a focusing area of first image data according to an embodiment.
단계(710)에서, 프로세서가 제1 이미지 데이터를 분석하여 나타나는 객체 또는 배경 중 적어도 하나에 관한 시각적 정보를 추출할 수 있다. 예를 들어, 제1 이미지 데이터를 분석하여 사람의 얼굴을 추출할 수 있다.In step 710, the processor may analyze the first image data to extract visual information about at least one of the appearing object or the background. For example, a person's face can be extracted by analyzing the first image data.
단계(720)에서, 프로세서가 추출된 시각적 정보를 소리 출력부를 통해 안내하는 소리를 출력할 수 있다. 예를 들어, 프로세서는 스피커를 통해 인식된 객체(예: 사람의 얼굴)에 대한 안내 정보(예: 안내 음성)를 출력할 수 있다.In step 720, the processor may output a sound guiding the extracted visual information through a sound output unit. For example, the processor may output guidance information (e.g., guidance voice) about a recognized object (e.g., a human face) through a speaker.
단계(730)에서, 프로세서는 사용자의 음성을 소리 수집부를 통해 수집할 수 있다. 사용자는 햅틱 피드백 장치에 의해 출력된 소리(예: 안내 정보)에 반응하여 발화할 수 있다. 프로세서는 안내 정보에 대해 사용자가 반응한 발화 음성을 수집할 수 있다. 예를 들어, 프로세서는 안내 정보를 출력하는 동안 또는 안내 정보의 출력 이후의 시간 구간 중 적어도 한 구간에서 사용자의 발화 음성을 수집할 수 있다. 예를 들어, 마이크는 전술한 구간 동안 사용자가 사람의 얼굴 중 눈 부분을 지시하는 발화 음성을 수집할 수 있다. In step 730, the processor may collect the user's voice through a sound collection unit. The user may speak in response to a sound (e.g., guidance information) output by the haptic feedback device. The processor may collect the user's spoken voice in response to the guidance information. For example, the processor may collect the user's spoken voice in at least one of the time sections while outputting the guidance information or after the output of the guidance information. For example, the microphone may collect the user's spoken voice indicating the eye portion of the person's face during the above-described section.
단계(740)에서, 프로세서는 수집된 사용자의 발화 음성에 기초하여 제1 이미지 데이터에 나타나는 하나 이상의 객체 중 관심 객체에 대응하는 포커싱 영역을 선택할 수 있다. 프로세서는 수집된 발화 음성을 분석함으로써, 안내 정보를 통해 사용자에게 제공된 객체 중 해당 발화 음성이 지시하는 관심 객체를 식별할 수 있다. 프로세서는 제1 이미지 데이터로부터 식별된 관심 객체에 대응하는 포커싱 영역을 추출할 수 있다. 프로세서는 추출된 포커싱 영역에 기초한 데이터(예: 포커싱 데이터)를 생성할 수 있다. In step 740, the processor may select a focusing area corresponding to the object of interest among one or more objects appearing in the first image data based on the collected user's spoken voice. By analyzing the collected speech sounds, the processor can identify the object of interest indicated by the speech sounds among objects provided to the user through guidance information. The processor may extract a focusing area corresponding to the identified object of interest from the first image data. The processor may generate data (e.g., focusing data) based on the extracted focusing area.
예를 들어, 프로세서는 제1 이미지 데이터에 가중치를 적용함으로써 포커싱 영역에 포함된 픽셀 값들을 다른 영역의 픽셀 값들 강조할 수 있다. 프로세서는 포커싱 영역에 포함된 픽셀 값들에 제1 가중치(예: 1을 초과하는 가중치)를 적용할 수 있다. 프로세서는 다른 영역에 포함된 픽셀 값들에 제2 가중치(예: 1 미만의 가중치)를 적용할 수 있다.For example, the processor may apply weight to the first image data to emphasize pixel values included in the focusing area compared to pixel values in other areas. The processor may apply a first weight (eg, a weight exceeding 1) to pixel values included in the focusing area. The processor may apply a second weight (eg, a weight of less than 1) to pixel values included in other areas.
다른 예를 들어, 프로세서는 제1 이미지 데이터로부터 포커싱 영역을 분할하고, 분할된 포커싱 영역에 대응하는 픽셀 값을 포함하는 포커싱 이미지를 생성할 수 있다. 프로세서는 포커싱 영역에 대응하는 픽셀 값을 보존하고 나머지 픽셀 값을 제거함으로써 포커싱 이미지를 생성할 수 있다. 또 다른 예를 들어, 프로세서는 포커싱 이미지를 제1 이미지 데이터와 같은 크기로 피팅(fitting)함으로써 확대할 수도 있다. 참고로, 픽셀 값은 전술한 바와 같이, 상술한 RGB 값이 그레이 스케일의 값으로 변환되어 결정된 값으로서, 예시적으로, 명도(brightness) 값일 수 있다.For another example, the processor may divide a focusing area from the first image data and generate a focusing image including pixel values corresponding to the divided focusing area. The processor may generate a focused image by preserving pixel values corresponding to the focusing area and removing remaining pixel values. As another example, the processor may enlarge the focusing image by fitting it to the same size as the first image data. For reference, as described above, the pixel value is a value determined by converting the above-mentioned RGB value into a gray scale value, and may be, for example, a brightness value.
단계(750)에서, 제1 이미지 데이터의 포커싱 영역의 스케일(scale)을 다운(down)시키는 처리를 수행할 수 있다.In step 750, processing to downscale the focusing area of the first image data may be performed.
단계(760)에서, 프로세서를 통해 제1 이미지 데이터의 포커싱 영역에 대해 강조된 픽셀 값을 가상 평면의 좌표에 매핑할 수 있다. 전술한 바와 같이, 포커싱 영역을 제외한 나머지 영역의 픽셀 값은 감소되거나 배제될 수 있다. 가상 평면과 접촉한 햅틱 유닛은 가상 평면에 매핑된 강조된 픽셀 값에 대응하는 진동 피드백을 제공할 수 있다. 예를 들어, 햅틱 피드백 장치는 햅틱 유닛을 장착한 사용자에게 햅틱 유닛을 가상평면에서 이동시킬 시 제1 이미지 데이터의 포커싱 영역 내 픽셀 별 진동 피드백을 제공할 수 있다. 따라서, 사용자는 햅틱 유닛을 장착한 신체 부위(예: 손)를 자유롭게 이동하면서 전방 시야에 대한 2차원 장면을 고해상도(예: 제1 이미지 데이터의 해상도)로 빠르게 인식할 수 있다.In step 760, the highlighted pixel value for the focusing area of the first image data may be mapped to coordinates of a virtual plane through the processor. As described above, pixel values of areas other than the focusing area may be reduced or excluded. A haptic unit in contact with the virtual plane may provide vibration feedback corresponding to the highlighted pixel value mapped to the virtual plane. For example, the haptic feedback device may provide vibration feedback for each pixel within the focusing area of the first image data to a user equipped with the haptic unit when the haptic unit is moved in the virtual plane. Accordingly, the user can quickly recognize the two-dimensional scene for the front view at high resolution (e.g., the resolution of the first image data) while freely moving the body part (e.g., hand) equipped with the haptic unit.
햅틱 피드백 장치는 음성으로 개략적인 시각적 정보를 안내하고 사용자가 원하는 영역에 포커싱하여 해당 영역에 대해서 햅틱 피드백을 집중적으로 제공할 수 있다. 따라서, 햅틱 피드백 장치는 사용자의 주변 시각적 정보의 인식속도를 향상시킬 수 있다.The haptic feedback device can guide rough visual information through voice, focus on the area desired by the user, and provide intensive haptic feedback for that area. Therefore, the haptic feedback device can improve the recognition speed of the user's surrounding visual information.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using a general-purpose computer or a special-purpose computer, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on a computer-readable recording medium.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. A computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination, and the program instructions recorded on the medium may be specially designed and constructed for the embodiment or may be known and available to those skilled in the art of computer software. It may be possible. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or multiple software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (14)

  1. 햅틱 피드백 장치에 있어서,In the haptic feedback device,
    사용자의 머리에 착용 가능하게 구성되는 하우징;A housing configured to be worn on the user's head;
    상기 하우징에 위치되고, 시야에 관한 시각적 정보를 수집하기 위해 상기 사용자의 머리방향에 대응하는 제1 시야각의 제1 이미지 데이터를 캡처하는 제1 비전 센서;a first vision sensor positioned in the housing, the first vision sensor configured to capture first image data at a first viewing angle corresponding to the direction of the user's head to collect visual information about the field of view;
    상기 하우징에 위치되고, 상기 사용자의 조작 신체 부위에 관한 시각적 정보를 수집하기 위해 상기 머리방향보다 낮은 방향에 대응하는 제2 시야각의 제2 이미지 데이터를 캡처하는 제2 비전 센서;a second vision sensor located in the housing and capturing second image data at a second viewing angle corresponding to a direction lower than the head direction to collect visual information about the user's manipulated body part;
    상기 제1 이미지 데이터 및 상기 제2 이미지 데이터를 분석한 결과에 기초하여 진동 피드백을 결정하는 프로세서; 및a processor that determines vibration feedback based on a result of analyzing the first image data and the second image data; and
    상기 사용자의 상기 조작 신체 부위에 착용 가능하게 구성되고, 상기 진동 피드백을 제공하는 하나 이상의 햅틱 유닛One or more haptic units configured to be wearable on the manipulated body part of the user and providing the vibration feedback
    을 포함하고,Including,
    상기 프로세서는,The processor,
    상기 제2 이미지 데이터에 기초하여 상기 하나 이상의 햅틱 유닛의 위치를 검출하고,Detecting the location of the one or more haptic units based on the second image data,
    상기 사용자의 머리방향에 대응하는 장면에 대한 진동 피드백이 요청되는 것에 응답하여 상기 진동 피드백이 요청된 시점(time point)의 상기 하나 이상의 햅틱 유닛의 검출된 위치에 기초하여 가상 평면을 결정하며,In response to requesting vibration feedback for the scene corresponding to the direction of the user's head, determine a virtual plane based on the detected position of the one or more haptic units at the time point at which the vibration feedback was requested,
    상기 가상 평면에서 상기 하나 이상의 햅틱 유닛의 위치를 검출하는 동안 상기 검출된 위치 및 상기 제1 이미지 데이터에 기초하여 결정된 진동 피드백을 상기 하나 이상의 햅틱 유닛을 통해 제공하는,providing vibration feedback determined based on the detected position and the first image data through the one or more haptic units while detecting the position of the one or more haptic units in the virtual plane,
    햅틱 피드백 장치.Haptic feedback device.
  2. 제1항에 있어서,According to paragraph 1,
    상기 프로세서는,The processor,
    상기 결정된 가상 평면의 좌표들에 상기 제1 이미지 데이터의 픽셀 값들을 매핑하고,Map pixel values of the first image data to coordinates of the determined virtual plane,
    상기 하나 이상의 햅틱 유닛 중 상기 가상 평면과 접촉한 햅틱 유닛에게 상기 가상 평면에 매핑된 픽셀 값에 대응하는 진동 피드백을 제공하는,Providing vibration feedback corresponding to a pixel value mapped to the virtual plane to a haptic unit in contact with the virtual plane among the one or more haptic units,
    햅틱 피드백 장치.Haptic feedback device.
  3. 제1항에 있어서,According to paragraph 1,
    상기 조작 신체 부위는 손을 포함하고, The manipulated body part includes a hand,
    상기 프로세서는,The processor,
    상기 진동 피드백이 요청된 시점의 상기 손의 바닥면에 대응하는 평면을 상기 가상 평면으로 결정하고,Determining a plane corresponding to the bottom surface of the hand at the time when the vibration feedback is requested as the virtual plane,
    상기 가상 평면에서 손의 이동에 따라 상기 진동 피드백을 제공하는,Providing the vibration feedback according to the movement of the hand in the virtual plane,
    햅틱 피드백 장치.Haptic feedback device.
  4. 제1항에 있어서,According to paragraph 1,
    상기 프로세서는,The processor,
    상기 사용자의 음성 명령 또는 제스쳐 중 적어도 하나에 기초하여, 상기 진동 피드백이 요청된 것으로 결정하고 상기 가상 평면을 생성하는,Based on at least one of the user's voice command or gesture, determining that the vibration feedback is requested and generating the virtual plane,
    햅틱 피드백 장치.Haptic feedback device.
  5. 제1항에 있어서,According to paragraph 1,
    상기 제1 시야각의 중심방향 및 제2 시야각의 중심방향 간의 각도 차이가 임계 각도를 초과하도록 형성되는Formed so that the angle difference between the center direction of the first viewing angle and the center direction of the second viewing angle exceeds a critical angle.
    햅틱 피드백 장치.Haptic feedback device.
  6. 제1항에 있어서,According to paragraph 1,
    상기 프로세서는,The processor,
    상기 제1 이미지 데이터를 분석함으로써, 상기 제1 시야각에 대응하는 장면에 나타나는 객체 또는 배경 중 적어도 하나에 관한 시각적 정보를 추출하고,By analyzing the first image data, visual information about at least one of an object or a background appearing in a scene corresponding to the first viewing angle is extracted,
    상기 햅틱 피드백 장치는,The haptic feedback device,
    상기 추출된 시각적 정보를 안내하는 소리를 출력하는 소리 출력부A sound output unit that outputs a sound to guide the extracted visual information
    를 더 포함하는 햅틱 피드백 장치.A haptic feedback device further comprising:
  7. 제1항에 있어서,According to paragraph 1,
    사용자의 음성을 수집하는 소리 수집부Sound collection unit that collects the user's voice
    를 더 포함하고,It further includes,
    상기 프로세서는,The processor,
    상기 수집된 음성에 기초하여 상기 제1 시야각에 대응하는 장면에 나타나는 하나 이상의 객체 중 관심 객체를 선택하고,Selecting an object of interest from one or more objects appearing in a scene corresponding to the first viewing angle based on the collected voice,
    상기 제1 이미지 데이터 중 상기 선택된 관심 객체에 대응하는 포커싱 영역에 대한 진동 피드백을 상기 가상 평면 상의 상기 하나 이상의 햅틱 유닛을 통해 제공하는,Providing vibration feedback for a focusing area corresponding to the selected object of interest among the first image data through the one or more haptic units on the virtual plane,
    햅틱 피드백 장치.Haptic feedback device.
  8. 제7항에 있어서,In clause 7,
    상기 프로세서는,The processor,
    상기 제1 이미지 데이터에서 상기 포커싱 영역에 대해 강조된 픽셀 값을 가상 평면의 좌표에 매핑하고, 상기 가상 평면과 접촉한 햅틱 유닛에게 상기 가상 평면에 매핑된 강조된 픽셀 값에 대응하는 진동 피드백을 제공하는Mapping the highlighted pixel value for the focusing area in the first image data to coordinates of a virtual plane, and providing vibration feedback corresponding to the highlighted pixel value mapped to the virtual plane to a haptic unit in contact with the virtual plane.
    햅틱 피드백 장치.Haptic feedback device.
  9. 제7항에 있어서,In clause 7,
    상기 프로세서는,The processor,
    상기 제1 이미지 데이터에서 상기 포커싱 영역의 픽셀 값을 가상 평면의 좌표에 매핑하고 나머지 영역의 픽셀 값을 배제하는,In the first image data, pixel values of the focusing area are mapped to coordinates of a virtual plane and pixel values of the remaining areas are excluded.
    햅틱 피드백 장치.Haptic feedback device.
  10. 제1항에 있어서,According to paragraph 1,
    상기 비전 센서는,The vision sensor is,
    카메라 센서, 레이더 센서, 라이다 센서, 초음파 센서, 또는 적외선 센서 중 적어도 하나를 포함하는,Containing at least one of a camera sensor, radar sensor, lidar sensor, ultrasonic sensor, or infrared sensor,
    햅틱 피드백 장치.Haptic feedback device.
  11. 프로세서에 의해 수행되는 햅틱 피드백 방법에 있어서,In a haptic feedback method performed by a processor,
    제1 비전 센서를 통해 사용자의 머리 방향에 대응하는 제1 시야각의 제1 이미지 데이터를 캡처하는 단계;Capturing first image data at a first viewing angle corresponding to the direction of the user's head through a first vision sensor;
    상기 사용자의 머리방향에 대응하는 장면에 대한 진동 피드백 요청 시 요청된 시점에 제2 비전 센서로 제2 이미지 데이터를 캡처하는 단계;Capturing second image data with a second vision sensor at a requested time when vibration feedback for a scene corresponding to the direction of the user's head is requested;
    상기 제2 이미지 데이터를 통해 검출된 하나 이상의 햅틱 유닛의 위치에 기초하여 가상 평면이 결정되는 단계; 및determining a virtual plane based on the positions of one or more haptic units detected through the second image data; and
    상기 가상 평면에서 상기 하나 이상의 햅틱 유닛의 위치를 검출하는 동안 상기 검출된 위치 및 상기 제1 이미지 데이터에 기초하여 결정된 진동 피드백을 상기 하나 이상의 햅틱 유닛을 통해 제공하는 단계providing vibration feedback determined based on the detected position and the first image data through the one or more haptic units while detecting the position of the one or more haptic units in the virtual plane.
    를 포함하는 containing
    햅틱 피드백 방법.Haptic feedback method.
  12. 제11항에 있어서,According to clause 11,
    상기 제1 이미지 데이터를 캡처하는 단계는,The step of capturing the first image data includes:
    상기 제1 이미지 데이터를 분석하여 나타나는 객체 또는 배경 중 적어도 하나에 관한 시각적 정보를 추출하는 단계; extracting visual information about at least one of an object or a background appearing by analyzing the first image data;
    상기 추출된 시각적 정보를 소리 출력부를 통해 안내하는 소리를 출력하는 단계;Outputting a sound guiding the extracted visual information through a sound output unit;
    상기 안내하는 소리를 기초로 발화하는 사용자의 음성을 소리 수집부를 통해 수집하는 단계; 및Collecting the user's voice speaking based on the guiding sound through a sound collection unit; and
    상기 수집된 사용자의 음성에 기초하여 상기 제1 이미지 데이터에 나타나는 하나 이상의 객체 중 관심 객체에 대응하는 포커싱 영역을 선택하는 단계Selecting a focusing area corresponding to an object of interest among one or more objects appearing in the first image data based on the collected user's voice.
    를 더 포함하는 containing more
    햅틱 피드백 방법.Haptic feedback method.
  13. 제12항에 있어서,According to clause 12,
    상기 제1 이미지 데이터는 상기 포커싱 영역에 대해 강조된 픽셀 값을 상기 가상 평면의 좌표에 매핑하고, 나머지 영역의 픽셀 값은 배제하며, 상기 가상 평면과 접촉한 햅틱 유닛에게 상기 가상 평면에 매핑된 강조된 픽셀 값에 대응하는 진동 피드백을 제공하는The first image data maps pixel values highlighted for the focusing area to coordinates of the virtual plane, excludes pixel values for the remaining areas, and provides the highlighted pixels mapped to the virtual plane to a haptic unit in contact with the virtual plane. Provides vibration feedback corresponding to the value
    햅틱 피드백 방법.Haptic feedback method.
  14. 제11항 내지 제13항 중 어느 한 항의 방법을 수행하기 위한 명령어를 포함하는 하나 이상의 컴퓨터 프로그램을 저장한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium storing one or more computer programs including instructions for performing the method of any one of claims 11 to 13.
PCT/KR2023/013887 2022-10-06 2023-09-15 Haptic feedback device and method WO2024076039A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0128160 2022-10-06
KR1020220128160A KR20240048409A (en) 2022-10-06 2022-10-06 Haptic feedback apparatus and method

Publications (1)

Publication Number Publication Date
WO2024076039A1 true WO2024076039A1 (en) 2024-04-11

Family

ID=90608327

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/013887 WO2024076039A1 (en) 2022-10-06 2023-09-15 Haptic feedback device and method

Country Status (2)

Country Link
KR (1) KR20240048409A (en)
WO (1) WO2024076039A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170081727A (en) * 2014-12-31 2017-07-12 주식회사 소니 인터랙티브 엔터테인먼트 Signal generation and detector systems and methods for determining positions of fingers of a user
JP2018183249A (en) * 2017-04-24 2018-11-22 アルパイン株式会社 Visual line detection device, visual line detection program, and visual line detection method
JP2019075175A (en) * 2019-02-07 2019-05-16 京セラ株式会社 Wearable device, control method, and control program
US20200184218A1 (en) * 2017-11-20 2020-06-11 Rakuten, Inc.. Information processing device, information processing method, and information processing program
KR20220082089A (en) * 2016-12-27 2022-06-16 페이스북 테크놀로지스, 엘엘씨 Large scale integration of haptic devices

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170081727A (en) * 2014-12-31 2017-07-12 주식회사 소니 인터랙티브 엔터테인먼트 Signal generation and detector systems and methods for determining positions of fingers of a user
KR20220082089A (en) * 2016-12-27 2022-06-16 페이스북 테크놀로지스, 엘엘씨 Large scale integration of haptic devices
JP2018183249A (en) * 2017-04-24 2018-11-22 アルパイン株式会社 Visual line detection device, visual line detection program, and visual line detection method
US20200184218A1 (en) * 2017-11-20 2020-06-11 Rakuten, Inc.. Information processing device, information processing method, and information processing program
JP2019075175A (en) * 2019-02-07 2019-05-16 京セラ株式会社 Wearable device, control method, and control program

Also Published As

Publication number Publication date
KR20240048409A (en) 2024-04-15

Similar Documents

Publication Publication Date Title
WO2019208848A1 (en) Three-dimensional eyeball movement measurement method and automatic deep learning based dizziness diagnosis system
WO2017188589A2 (en) Mobile hyperspectral camera system and human skin monitoring using a mobile hyperspectral camera system
WO2017026839A1 (en) 3d face model obtaining method and device using portable camera
US20150109197A1 (en) Information processing apparatus, information processing method, and program
WO2012173373A2 (en) 3d device and 3d game device using a virtual touch
US20220392264A1 (en) Method, apparatus and device for recognizing three-dimensional gesture based on mark points
CN103019377A (en) Head-mounted visual display equipment-based input method and device
WO2019100915A1 (en) Electroencephalogram controlled video input and auditory display blind guiding apparatus and method
WO2016064073A1 (en) Smart glasses on which display and camera are mounted, and a space touch inputting and correction method using same
WO2020102110A1 (en) Event-based ir camera
WO2016114496A1 (en) Method for providing user interface through head mounted display using eye recognition and bio-signal, apparatus using same, and computer readable recording medium
WO2013025011A1 (en) Method and system for body tracking for recognizing gestures in a space
WO2010011045A2 (en) Apparatus and method for converting video information into a tactile sensitive signal
WO2016010200A1 (en) Wearable display device and control method thereof
WO2018117443A1 (en) Cloud-connected visual function-enhancing wearable device system
WO2019190076A1 (en) Eye tracking method and terminal for performing same
JP2022551139A (en) Biometric face detection method, biometric face detection device, electronic device, and computer program
WO2023243959A1 (en) Method for predicting risk of physical injury on basis of user posture recognition, and apparatus therefor
WO2014003509A1 (en) Apparatus and method for displaying augmented reality
WO2024076039A1 (en) Haptic feedback device and method
Punsara et al. IoT Based Sign Language Recognition System
WO2021230568A1 (en) Electronic device for providing augmented reality service and operating method thereof
WO2015108401A1 (en) Portable device and control method using plurality of cameras
WO2018080202A1 (en) Head-mounted display device and method for controlling same
CN111679737B (en) Hand segmentation method and electronic device