WO2018070750A1 - 객체 컨트롤러 - Google Patents

객체 컨트롤러 Download PDF

Info

Publication number
WO2018070750A1
WO2018070750A1 PCT/KR2017/011117 KR2017011117W WO2018070750A1 WO 2018070750 A1 WO2018070750 A1 WO 2018070750A1 KR 2017011117 W KR2017011117 W KR 2017011117W WO 2018070750 A1 WO2018070750 A1 WO 2018070750A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
main body
operation unit
value
controller
Prior art date
Application number
PCT/KR2017/011117
Other languages
English (en)
French (fr)
Inventor
홍유정
Original Assignee
홍유정
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170067832A external-priority patent/KR102387818B1/ko
Application filed by 홍유정 filed Critical 홍유정
Priority to US16/340,914 priority Critical patent/US20190369749A1/en
Priority to CN201780076099.5A priority patent/CN110088712A/zh
Publication of WO2018070750A1 publication Critical patent/WO2018070750A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor

Definitions

  • the present invention relates to an object controller, and more particularly, to an object controller that can be manipulated simply and intuitively and can be suitably employed for the manipulation of various objects.
  • Controllers for remote control of objects such as drones, drones, robots, game consoles, and model cars are commercially available.
  • the remote control controller includes one or more analog sticks or buttons, and the operation signals generated through the sticks or buttons are transmitted to a receiver inside the controlled object through a transmitter mounted therein.
  • FIG. 1 is a conceptual diagram illustrating an embodiment of a conventional controller.
  • the left and right sticks may be used to control the front and rear, left and right movements, left and right rotations, ascending and descending movements of the object to be controlled.
  • this control method is much less intuitive and requires a lot of practice for the user to control the object freely.
  • various remote control controllers such as a wireless mouse, a game pad, and a move controller for remotely controlling an object or an object in a computer program implemented in a computer, a console game machine, and the like are commercially available.
  • a controller is not the same as the remote controller described above with reference to FIG. 1 in that it does not control a physical object such as a drone, but remotely controls the movement of the object to be controlled.
  • Controllers such as wireless mice and game pads are mostly held in the user's hand to move on a flat surface, regardless of many different shapes, sizes, and designs, and manipulation signals are generated by the movement of the user's wrist and / or arm.
  • a laser sensor mounted at the bottom detects a relative movement with respect to the surface, and calculates and transmits this displacement as an operation signal of a pointer on the display screen.
  • most of these controllers only control objects or objects on a two-dimensional screen, and have a limitation in that they cannot be applied beyond the two-dimensional screen.
  • the motion recognition controller is a controller that detects a user's motion and operates a game.
  • the motion recognition controller is configured to operate by holding a controller having a motion recognition function in a hand and moving it around.
  • the gesture recognition controller has a great advantage in that it is possible to enjoy a game by simply grasping and swinging a user.
  • a controller that exists only for performing a specific movement in a specific game is provided.
  • the recently proposed motion recognition controller is only a combination of known sensors such as accelerometer sensor and gyroscope sensor to operate in combination, there is a limit to control the fine and precise motion, as well as standardize the control of various objects There is a problem that is not applicable.
  • the present invention has been made in the course of the above research, to provide an object controller that can be easily manipulated with one hand, without the user is required to control while holding with two hands.
  • the object controller for solving the above problems, in the object controller capable of manipulating the movement of the object, based on the relative position of the main body, the operation unit non-contact with the main body, and the operation unit relative to the main body It includes a control unit for controlling the movement of the object.
  • the main body may be formed so that the user can easily hold the main body.
  • the display is disposed on the upper portion of the main body, the display can be displayed with respect to the position and the moving direction of the operation unit.
  • the upper portion of the main body may protrude toward the outside to form a support surface.
  • the operation portion is supported and movable on the support surface, the support surface can be pressed when pressed over a certain pressure toward the center of the main body.
  • the main body may include a separation prevention protrusion protruding on the support surface along the circumference of the upper portion of the main body.
  • the main body may include a user input unit capable of inputting a signal to enable other control of an object other than an operation according to a relative position between the operation unit and the main body.
  • the controller may set a relative initial position (Zero Point) with the surface of one side of the operation unit and the main body based on a preset user input input to the user input unit.
  • a relative initial position Zero Point
  • control unit after setting the relative initial position of the operation unit with respect to the main body, the X axis for the movement of the operation unit to move based on the relative initial position in accordance with a preset input Linear calibration may be performed on at least one of the Y, Z, and Z axes and stored therein.
  • control unit based on the initial position setting value and the reference value resulting from performing the calibration to generate a signal for moving the object based on the relative position between the operation unit and one side of the main body Can be.
  • the degree of displacement between the operation portion and one side of the main body is divided into two or more areas or linearly accepted, when the operation portion is located in one of the respective areas It can generate a signal of the same size to displace the object.
  • the control unit when the displacement of any one of the X-axis, Y-axis and Z-axis of the operation unit is more than a predetermined range than the displacement of the other two axes, the second two axes of the object
  • the displacement value can be set to zero.
  • the controller may increase or decrease a ratio of the size of displacing the object generated in each area based on a preset user input to the user input unit.
  • control unit at least one of the different hearing, visual and haptic according to the signal generated to control the object, so that the user can easily determine the magnitude of the signal that the object is controlled Can generate a signal.
  • control unit if the upper portion of the operation unit and the main body is out of a predetermined displacement or more, or the main body receives an external force of a predetermined pressure or more, so that the object is maintained in the current position Can generate a signal.
  • the main body may include a storage space that can accommodate the operation unit.
  • the storage space may be formed to accommodate the operation unit in the interior of the main body, or may be formed to detachably insert the operation unit to the outside of the main body.
  • the main body may include a connection member that can be coupled to the operation unit on the upper surface of the main body so that the operation unit is not separated from the main body during operation.
  • the user input unit may include at least one of a scroll button, a wheel button, a slide button, and a push button.
  • the controller may generate a signal for rotating the object based on a preset user input applied to the user input unit.
  • the operation unit, the holding means that is pressed to the user's finger using the restoring force to be detached to any one of the user's finger, the user's finger to be detachable to the user's finger, the user's finger It may include at least one of the fastening means that can be tightened to fit the thickness and the insertion means that the finger can be inserted.
  • the apparatus may further include a communication module capable of transmitting and receiving information on an object, information on a control signal, and a signal for setting a main body with an external terminal.
  • the main body may further include a display capable of displaying information on an object, information on a control signal, and a signal on setting of the main body.
  • control unit based on a preset user input, a sync function for setting a control signal of the main body to communicate with another object to enable control of a new object It may include.
  • the object may be at least one of a drone, a drone, a manned plane, a game machine, an object in a computer program and a car.
  • the object controller may detect the relative position of the operation unit with respect to the main body using a position sensor.
  • the senor further comprises at least one sensor for outputting a sensor value according to the relative position with the operation unit, wherein the control unit, based on the sensor value obtained from the sensor The relative position of the control panel can be calculated.
  • control unit based on a table previously prepared to include a sensor value obtained from the sensor and the sensor value output from the sensor when the operation unit is located at a specific position for the main body The relative position of the operation unit can be calculated.
  • the table is a plurality of data sets in which the relative position value of the operation unit relative to the main body and the expected sensor value corresponding to the position value when the operation unit is located at a specific position is matched.
  • control unit in the table, retrieves at least one similar data set including the expected sensor value similar to the sensor value obtained from the sensor, the at least one according to a predetermined criterion
  • the similar data set of any one of the similar data sets may be determined as the reference data set, and the position value of the reference data set may be determined as a relative position of the operation unit with respect to the main body.
  • the dataset further comprises an item for a frequency value
  • the table is located on the sensor so as to have a preset position value on the sensor to predict the sensor from the sensor at that position.
  • the controller may search the similar data set by comparing the similarity between the sensor values obtained from the sensors and the sensor values between the expected sensor values.
  • control unit in the table, first selects a relatively likely dataset to search for the similar dataset, the relatively likely dataset, at least one of the previous It may be at least one data set including a relative position and the position continuity position value of the operation unit relative to the main body at the time of at least one data set including a frequency value higher than a predetermined value.
  • control unit may include a data set including a relative value and a position value having a position continuity relative to the operation unit with respect to the main body at a previous at least one time point among the similar data sets. You can search by the reference dataset.
  • control unit may determine, as the reference data set, the data set having the largest frequency value among the similar data sets.
  • the sensor value obtained from the sensor is a sensor value obtained from the sensor in the state in which the operation unit is located at a specific position, in the state that the operation unit is removed from the main body It may be a sensor value reflecting an initial sensor value which is a sensor value obtained from the sensor.
  • control unit based on the sensor value obtained from the sensor and a predetermined formula to determine the relative position of the operation unit having the same magnetic flux (magnetic flux), and the operation of the control unit and the sensor By limiting the tilting angle, the relative position of the operation portion relative to the main body can be calculated.
  • the movement of the three-dimensional moving object can be controlled only by the movement of the controller, thereby providing an intuitiveness to the user.
  • FIG. 1 is a schematic diagram illustrating an embodiment of a conventional object controller.
  • FIG. 2 is a perspective view illustrating an object controller according to an embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating an object controller according to an embodiment of the present invention.
  • FIG. 4 is a conceptual diagram of an object controller of FIG. 2 for identifying a recognition region of an operation unit.
  • 5A to 5D are conceptual views illustrating various examples of an operation method of controlling an object using the object controller of FIG. 2.
  • 6A and 6B are conceptual views illustrating an operation unit accommodated in a main body in an object controller according to another embodiment of the present invention.
  • FIG. 7A to 7C are perspective views illustrating an object controller according to different embodiments of the present disclosure.
  • FIG. 8 is a conceptual view illustrating an operation unit according to different embodiments of the present invention.
  • FIG. 9 is a conceptual diagram illustrating an object controller according to another embodiment of the present invention.
  • FIG. 10 is a conceptual diagram for describing a method of determining, by the object controller of FIG. 2, a relative position of an operation unit with respect to a main body.
  • 11 is a conceptual diagram illustrating an object that can be controlled using the object controller of the present invention.
  • Shapes, sizes, ratios, angles, numbers, and the like disclosed in the drawings for describing the embodiments of the present invention are exemplary, and the present invention is not limited to the illustrated items.
  • the detailed description of the related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.
  • 'comprises', 'haves', 'consists of' and the like mentioned in the present specification other parts may be added unless 'only' is used.
  • the plural number includes the plural unless specifically stated otherwise.
  • an element or layer When an element or layer is referred to as another element or layer, it includes any case where another element or layer is interposed on or in the middle of another element.
  • first, second, etc. are used to describe various components, these components are not limited by these terms. These terms are only used to distinguish one component from another. Therefore, the first component mentioned below may be a second component within the technical spirit of the present invention.
  • each of the features of the various embodiments of the present invention may be combined or combined with each other in part or in whole, various technically interlocking and driving as can be understood by those skilled in the art, each of the embodiments may be implemented independently of each other It may be possible to carry out together in an association.
  • FIG. 2 is a perspective view illustrating an object controller according to an embodiment of the present invention.
  • 3 is a block diagram illustrating an object controller according to an embodiment of the present invention.
  • the object controller 1000 includes a main body 100, an operation unit 200, and a control unit 300 that are operated without contacting each other.
  • the main body 100 includes a sensor unit 110, a user input unit 120, an output unit 130, a communication unit 140, and a storage unit 150.
  • the control unit 300 may be disposed inside the main body 100. Meanwhile, a mark may be etched on the surface of the upper portion of the main body 100 to guide a region in which the operation unit 200 is spaced apart from the vertical upper portion.
  • the sensor unit 110 may be disposed on one surface of the main body 100, specifically, inside the upper surface of the main body 100.
  • the sensor unit 110 disposed in the main body 100 may measure displacement relative to each other and other sensors included in the operation unit 200.
  • the controller 300 may determine a signal of an operation to be transmitted to the object 10 based on the measured displacement.
  • the user input unit 120 is disposed in the main body 100 to input a signal to enable other control of the object 10 other than the manipulation according to the relative position between the manipulation unit 200 and the main body 100.
  • the user input unit 120 inputs an operation signal of the object 10 that is not determined by the relative displacement of the operation unit 200 and the main body 100, or is determined by the relative displacement of the operation unit 200 and the main body 100. It can be used to calibrate the signal to be adjusted, or to adjust the size and ratio of the signal determined by the relative displacement of the operation unit 200 and the main body 100.
  • the manipulation signal of the object 10 that is not determined by the relative displacement of the manipulation unit 200 and the main body 100 may be a rotation signal of the object 10.
  • the user input unit 120 may be formed such that fingers other than the user's thumb are disposed on the front of the main body 100.
  • the present invention is not limited thereto, and the user input unit 120 may be formed at another position of the main body 100 or may be formed at the operation unit 200.
  • the user input unit 120 may include at least one of a scroll button, a wheel button, a slide button, and a push button. Based on the drawing, the button at the top is the wheel button, the slide button is below it, and the push button is at the bottom.
  • the output unit 130 refers to a configuration for outputting various signals generated by the control unit 300 so that a user can recognize the signals.
  • the object controller 1000 may be used to guide usage or the like through the output unit 130 or to recognize a type or a signal size of the signal transmitted to the object 10.
  • the output unit 130 may be a light source such as an LED for emitting light, a speaker 131 for outputting a sound, a vibration module for vibrating the main body 100, or the like.
  • the display 132 may be one of the output units 130.
  • the display 132 may be disposed on the main body 100 so that the user can see it.
  • the display 132 may display information about the object 10, information about a control signal, and a signal about setting of the main body 100.
  • the communication unit 140 may transmit and receive information about the object 10, information about a control signal, and a signal for setting the main body 100 with the external terminal 20. That is, the communication unit 140 may communicate with the object 10 to which the object controller 1000 intends to operate an operation, set or display 132 information related to the main body 100 and / or the object 10. It can communicate with the external terminal 20.
  • the storage unit 150 may measure the relative initial position between the main body 100 and the operation unit 200 measured by the control unit 300, or the calibration measured when the user performs an operation test centering on the operation unit 200. Can be stored.
  • the storage unit 150 is a signal that can be used when the object controller 1000 manipulates other types of objects 10, for example, a drone, a drone, a manned plane, a game machine, an object in a computer program, a car, and the like. Schemes, programs, etc. can be stored.
  • the main body 100 may be formed to be gripped by a user with one hand.
  • a user may use the object controller 1000 with one hand.
  • the user may attach the operation unit 200 to the thumb, and then grip the main body 100 using the remaining four fingers and the palm.
  • the user may control the object 10 more easily with one hand through such a grip on the object controller 1000.
  • the present invention is not limited to the above description, and the operation unit 200 may be used while the main body 100 is disposed on the floor, or the main body 100 may be held by the other hand to use the operation unit 200 with the other hand. have.
  • the operation unit 200 may be in contact with the main body 100 to move in a state spaced apart from the main body 100.
  • the controller 300 may move the object 10 based on the relative positions of the main body 100 and the operation unit 200.
  • the operation unit 200 may be attached to the user's hand. Specifically, referring to Figure 2, it may be attached to the user's thumb.
  • the operation unit 200 may be formed in a ring shape, but is not limited thereto, and sufficient means may be provided to be attached to a user's hand. This will be described in detail with reference to FIG. 8.
  • the relative position between the manipulation unit 200 and the main body 100 may be detected by using the 3D magnetic sensor.
  • the main body 100 has a built-in 3D magnetic sensor, the operation unit 200 is built in the magnetic can determine the displacement of each other.
  • the position sensor capable of detecting a relative position between the operation unit 200 and the main body 100 may include an acceleration sensor, a magnetic sensor, an impedance sensor, a hybrid sensor for an impedance sensor and a magnetic sensor, a hybrid sensor, Gravity sensor (G-sensor), gyroscope sensor (gyroscope sensor), motion sensor (motion sensor), infrared sensor (IR sensor: infrared sensor), ultrasonic sensor (ultrasonic sensor), optical sensor (for example, Camera).
  • the controller 300 is disposed inside the main body 100, and controls the movement of the object 10 based on the relative position of the operation unit 200 with respect to the main body 100.
  • the controller 300 may set a relative initial position (Zero Point) with a surface of one side of the operation unit 200 and the main body 100 based on a preset user input input to the user input unit 120.
  • Zero Point a relative initial position
  • the controller 300 may set a relative initial position (Zero Point) with a surface of one side of the operation unit 200 and the main body 100 based on a preset user input input to the user input unit 120.
  • a relative initial position Zero Point
  • the control unit 300 at this time, the operation unit 200 and the main body can be understood as the basic distance, that is, the relative initial position.
  • the controller 300 sets a relative initial position of the operation unit 200 with respect to the main body 100, and then controls the control unit 300 to at least one axis among the X, Y, and Z axes of the operation unit 200 according to a preset input. For example, calibration may be performed based on the relative initial position. Specifically, when the finger is slowly moved in the X-axis, Y-axis, and Z-axis directions at the relative initial position, the controller 300 determines the displacement and the trajectory of the user as the displacement and the trajectory of the user, and controls the control operation based on the displacement and trajectory. Will be judged.
  • the control unit 300 may generate a maintenance signal for maintaining the object 10 in the current position when the upper portion of the operation unit 200 and the main body 100 is more than a predetermined displacement. Specifically, in a state in which the user wears the manipulation unit 200 on a finger, the main body 100 may be separated from the user's hand. As the main body 100 falls, the main body 100 and the operation unit 200 are spaced apart by a large displacement from each other. For example, when the drone is operated, the control unit 300 may determine that the rising signal of the drone. do.
  • a maintenance signal that is, a shutdown signal (Shut-Down), which keeps the object 10 at the position where it was located ) Can be generated.
  • the controller 300 sets a control signal of the main body 100 to communicate with another object 10 so as to control the new object 10 based on a preset user input.
  • Function may be included.
  • the object controller 1000 may be synchronized with the new object 10 (eg, an object in a computer program, a car, etc.) to be operable.
  • the new object 10 and the object controller 1000 may be synchronized by inputting a preset input to the user input unit 120.
  • controller 300 may set the transmission of the communication unit 140 to an OFF state so that the object 10 maintains a hovering state based on a preset user input. .
  • FIG. 4 is a conceptual diagram of an object controller of FIG. 2 for identifying a recognition region of an operation unit.
  • the operation unit 200 divides a region moving relative to the main body 100 with respect to the Y-axis direction.
  • the output of the control unit 300 may be divided into several steps by designating such an area. . This separation of the area reduces the probability of malfunction due to immaturity or fatigue of the user.
  • This area can be set at the user's calibration stage. Specifically, the length of a finger and the haptic displacement with respect to movement differ for every user. Accordingly, when using the object controller 1000, the relative initial position may be set, and the displacement may be calibrated and stored in stages with respect to the X, Y, and Z axes. Specifically, it is as follows.
  • the object controller 1000 may request the user to automatically set the displacements step by step with respect to the X, Y, and Z axes.
  • the object controller 1000 may output an output of “move one step to the right.” To the user through the output unit 130. After that, the output “move to the right two steps” may be output through the output unit 130. Accordingly, the user moves the operation unit 200 to the right by one step. After that, the operation unit 200 is moved to the right in two states, that is, the state is moved to the right more than the first step. By repeating this process, it is possible to set an area for the X, Y, and Z axes.
  • the controller 300 may perform relative initial position setting and calibration for each region at the initial operation of the object controller 1000.
  • the relative initial position setting and calibration for each region may be performed when a predetermined signal is input to the user input unit 120.
  • the calibration of the signal determined by the relative displacement of the operation unit 200 and the main body 100 is as follows.
  • the controller 300 may set a relative initial position (Zero Point) with a surface of one side of the operation unit 200 and the main body 100 based on a preset user input input to the user input unit 120.
  • the user may move the manipulation unit 200 with respect to at least one of the X, Y, and Z axes of the manipulation unit 200.
  • the sensor unit 110 and the control unit 300 may perform calibration by comparing the displacement of the operation unit 200 with a relative initial position.
  • the signal for moving the object 10 in the Y axis direction may not be generated by the controller 300.
  • a signal is generated by the controller 300 to move the object 10 at a predetermined speed in the Y-axis direction.
  • a signal may be generated in the control unit 300 to move the object 10 at a higher speed than the movement speed generated in the second area in the Y-axis direction.
  • the controller 300 may generate a signal having the same size for displacing the object 10. That is, the control unit 300 may move the object 10 to the output of the same size when the operation unit 200 is located in one area.
  • the area for each of these axes may be further divided into three or more areas, or may be divided into two areas. It may also be set linearly without being divided into a plurality of regions.
  • control unit 300 when the displacement of any one of the X-axis, Y-axis and Z-axis of the operation unit 200 is greater than the preset range than the displacement of the other two axes, the displacement of the other two axes of the object 10
  • the value can be set to zero.
  • the manipulation unit 200 is attached to the user's thumb and moves, it may be difficult for the manipulation unit 200 to linearly move in the X-axis, Y-axis, or Z-axis due to the joint and structure of the finger. Therefore, when the displacement of any one of the X, Y and Z axes is greater than the preset range than the displacement of the other two axes, the object 10 may be set to move only on the axis larger than the preset range.
  • the control unit 300 generates a signal for moving the object 10 based on the displacement of the operation unit 200 and one side of the main body based on the calibration value.
  • the present invention is not limited thereto, and a signal for moving the object 10 to a reference value in addition to the calibration value may be generated.
  • the reference value may be a value newly calculated by reflecting an error range in the calibration value.
  • 5A to 5D are conceptual views illustrating various examples of an operation method of controlling an object using the object controller of FIG. 2.
  • the object controller 1000 moves the object 10 in the relative coordinate mode.
  • the user moved the operation part 200 to the vector value of arrow a in a 1st direction.
  • the object 10 continues to move with the vector value of a in the first direction. This may be regarded as the object controller 1000 moving the object 10 in the relative coordinate mode.
  • the manipulation unit 200 of the object controller 1000 is moved by a distance in the first direction in the relative coordinate mode. Accordingly, the object 10 moves in a first direction at a speed proportional to an absolute value of the distance a (or a speed of a value to which a predetermined ratio is applied). That is, in the relative coordinate mode, the object 10 continues to proceed at a proportional speed of a.
  • the object controller 1000 moves the object 10 in the absolute coordinate mode.
  • the user moved the operation unit 200 to the vector value of the arrow a in the first direction.
  • the object 10 moves to a vector value of c in the first direction.
  • the object 10 moves to the vector value of d in the first direction.
  • the absolute coordinate mode is stopped after the object 10 moves by the output corresponding to the movement of the manipulation unit 200. Therefore, in FIG. 5B, the object 10 stops after moving to the vector value of c in the first direction. In FIG. 5C, the object 10 stops after moving to the vector value of d in the first direction.
  • the controller 300 may increase or decrease a ratio of the size of displacing the object 10 generated in each area based on a preset user input to the user input unit 120.
  • the object 10 may be adjusted to move the object 10 to a value obtained by applying a predetermined ratio to the relative displacement of the manipulation unit 200 in the user input unit 120. For example, if the second user input key 122 of FIG. 5B is pushed in one direction, the object 10 may be moved with a relatively small vector value. In addition, in FIG. 5C, the second user input key 122 is not pushed in any one direction. In this case, the object 10 may move to a vector value obtained by multiplying the distance moved by the manipulation unit 200 with a relatively large value.
  • the controller 300 may generate a signal for rotating the object 10 based on a preset user input applied to the user input unit 120.
  • the first user input key 121 is composed of a wheel key.
  • the object 10 by turning the wheel key, the object 10 can rotate in the corresponding direction.
  • the object controller 1000 may control the movement of the object 10 in the relative coordinate mode or the absolute coordinate mode.
  • the relative coordinate mode and the absolute coordinate mode may be selected from among various operation operations such as pressing operation, number of pressing operations, time of pressing operation, etc. on the first to fourth user input keys 121, 122, 123, and 124. When the determined operation method is input, they may be changed.
  • control unit 300 is at least one signal of different auditory, visual and tactile senses according to the signal generated to control the object 10, so that the user can easily determine the magnitude of the signal that the object 10 is controlled Can be generated. That is, such a change may be output by the user through the output unit 130.
  • a medium-sized sound may be output through the speaker 131.
  • the volume of the sound may be determined corresponding to the size of the vector to which the object 10 is moved.
  • the sound may be periodically emitted.
  • visual output through the display 132 is also possible, and tactile output through vibration is also possible.
  • 6A and 6B are conceptual views illustrating an operation unit accommodated in a main body in an object controller according to another embodiment of the present invention.
  • the main body 100 of the object controller 1000 of the present invention may include a storage space 90 that can accommodate the operation unit 200.
  • the storage space 90 may be formed to accommodate the operation unit 200 inside the main body 100 or may be formed to detachably insert the operation unit 200 outside the main body 100.
  • the main body 100 may be formed to be separated from each other by the upper main body 100 and the lower main body 100. Threads are formed in the upper body 100 so that the lower body 100 can be coupled and separated through relative rotation.
  • the coupling method is not limited thereto.
  • an inner space is formed inside the lower main body 100.
  • the operation unit 200 may be stored in this internal space.
  • the inner space may be formed in the upper body 100 as well as the inner space in the lower body 100.
  • the storage space 1090 is recessed outside the main body 1100 of the object controller 2000.
  • the storage space 1090 may be formed corresponding to the shape of the manipulation unit 1200 so that the manipulation unit 1200 may be seated.
  • a separation prevention member may be further added to prevent the operation unit 1200 from being easily separated.
  • FIG. 7A to 7C are perspective views illustrating an object controller according to different embodiments of the present disclosure.
  • the main body 2100 may include a connection member that may be coupled to the operation unit 2200 on an upper surface of the main body 2100 so that the operation unit 2200 is not separated from the main body 2100 during operation.
  • the connection member is connectable with a ring formed on the upper surface of the body 2100.
  • the connection member may be coupled to a ring formed on the operation unit 2200 as well as a ring formed on the upper surface of the main body 2100.
  • the control unit maintains the object 10 to maintain the current position when the upper portion of the operation unit 2200 and the main body 2100 is out of a predetermined displacement or when the main body 2100 receives an external force above a preset pressure. Can be generated. Since it is difficult for the operation unit 2200 to be separated from the main body 2100 by the connection, when the user misses the main body 2100 and the operation unit 2200 at the same time, the relative operation unit 2200 and the main body 2100 dropped on the floor are separated. This is to prevent the object 10 from being manipulated by the distance.
  • connection member may simply connect the operation unit 2200 and the main body 2100, but may obtain information related to the control of the object 10 by the pressure received from the ring 2192 of the main body 2100.
  • the main body 3100 may include a strap surrounding the user's hand so that the user can easily grip the main body 3100, or a bend may be formed on the outer shape.
  • the bent portion 3170 is formed in the main body 3100.
  • the bent part 3170 may not only guide the position where the user's finger is placed on the main body 3100, but also allow the user's hand and the main body 3100 to be easily in close contact with each other. That is, since the user's hand is drawn into the bent portion 3170 to be in close contact, the area where the user's hand is in contact with the main body 3100 is widened.
  • a finger drawn into the bent portion 3170 may receive a force that the main body 3100 falls down due to gravity, and thus, a bearing force on the main body 3100 may be increased.
  • an upper surface of the main body 4100 may protrude convexly toward the outside.
  • This protruding surface is called the support surface 4107.
  • the manipulation unit 4200 may be supported and movable on the support surface 4107. Through the support surface 4107, the user may be spaced apart from the upper portion of the main body 4100 to reduce fatigue when operating the operation unit 4200. In addition, the distance between the operation unit 4200 and the main body 4100 can be maintained relatively constant through the support surface 4107. In addition, the sophistication of the control of the object 10 through the manipulation unit 4200 may be increased.
  • the support surface 4107 may be pressed when pressed above a predetermined pressure toward the center of the main body 4100. That is, when the support surface 4107 is pressed toward the center of the main body 4100 (-Z axis in the coordinates), the support surface 4107 itself can be pressed downward with a predetermined predetermined displacement. Through this operation of the manipulation unit 4200 and the support surface 4107, a signal for moving the object 10 downward may be generated.
  • the main body 4100 may include a separation prevention protrusion protruding on the support surface 4107 along the circumference of the upper portion of the main body 4100. This is to prevent the operation unit 4200 from going out of the main body 4100 during operation.
  • FIG. 8 is a conceptual view illustrating an operation unit according to different embodiments of the present invention.
  • the operation unit 6200 of the present invention may include at least one of a holding unit, a tightening unit 5220, and a fitting unit 7220 to be detachably attached to a user's finger.
  • FIG. 8A illustrates an embodiment in which the operation unit 6200 includes fastening means 5220 formed of a strap.
  • the user arranges a finger inside the manipulation unit 6200, and then couples the tightening means 5220 to both sides thereof.
  • FIG. 8B illustrates an embodiment in which the operation unit 6200 is held by the finger while pressing the finger of the user using the restoring force.
  • This operation part 6200 is a shape in which a part is deleted from the ring shape. Since the diameter of the manipulation unit 6200 is narrow, the manipulation unit 6200 may be held by the user's finger by the restoring force.
  • FIG. 8C relates to an embodiment in which the operation unit 7200 includes fitting means 7220 that can be tightened according to the thickness of the user's finger.
  • FIG. 9 is a conceptual diagram illustrating an object controller according to another embodiment of the present invention.
  • An upper display 8101 may be disposed on an upper portion of the main body 8100, and information such as a position and a moving direction of the operation unit 8200 may be displayed on the upper display 8101.
  • an upper surface display 8322 is disposed above the main body 8100.
  • the center point may be displayed on the display 8132.
  • the center point is a point displayed when the operation unit 8200 is disposed above the main body 8100.
  • the smaller the center point the longer the vertical distance between the main body 8100 and the operation unit 8200.
  • the larger the center point the shorter the vertical distance between the main body 8100 and the operation unit 8200.
  • a signal to rise may be transmitted to the object 10.
  • the size of the center point is greater than or equal to a certain size, that is, when the vertical distance between the main body 8100 and the operation unit 8200 is short, a signal for descending may be transmitted to the object 10.
  • the arrow A of the display 8132 may be visualized and expressed as a vector value for the movement direction and the movement speed of the drone.
  • FIG. 10 is a conceptual diagram for describing a method of determining, by the object controller of FIG. 2, a relative position of an operation unit with respect to a main body.
  • the object controller 1000 of the present invention may include two sensors 111 in the main body 100 that output sensor values sensed according to a change in distance from the operation unit 200.
  • the relative position of the operation unit 200 with respect to the main body 100 can be calculated more accurately.
  • the control unit 300 calculates a relative position of the operation unit 200 with respect to the main body 100 based on the sensor value obtained from the sensor 111.
  • the sensor 111 embedded in the main body 100 may be a 3D magnetic sensor, and the operation unit 200 may have a built-in magnetic 201.
  • the sensor 111 is not limited thereto and any known sensor such as an ultraviolet sensor may be used as described above.
  • the sensor 111 is a 3D magnetic sensor and the operation unit 200. It will be described as having a built-in magnetic 201.
  • the 3D magnetic sensor refers to a sensor that outputs a value by detecting magnetic flux in the X, Y, and Z directions.
  • output values of one magnetic sensor are referred to as S1x, S1y, and S1z
  • output values of the other magnetic sensor are referred to as S2x, S2y, and S2z.
  • the sensor 111 may be disposed to be located above the main body.
  • the operation unit is disposed on the main body so that the sensor 111 can detect the magnetic flux from the operation unit may be divided into unit cells.
  • Each unit cell has a center coordinate value of the cell determined based on a preset origin (eg, a middle point of two sensors).
  • the relative position of the operation unit 200 with respect to the main body 100 may be determined by any one of coordinate values of a unit cell formed on the main body 100.
  • the virtual space and the unit cell are illustrated as hexahedrons, but this is merely an example, and the three-dimensional space and the unit cell may be transformed into a sphere or the like.
  • control unit 300 may include a sensor value S obtained from the sensor 111 and a table T previously prepared to include a sensor value output from the sensor when the operation unit 200 is located at a specific position. Based on this, the relative position of the operation unit 200 with respect to the main body 100 is calculated.
  • the controller 300 determines which region of the virtual space the magnetic 201 of the operation unit 200 belongs to, based on the sensor value S obtained from the sensor 111, The relative position of the operation unit 200 with respect to the main body 100 is calculated using the central coordinate value.
  • the table T may be generated by acquiring a plurality of sensor values from the 3D magnetic sensor in a state where the magnetic is located at any one partitioned point, moving the magnetic to all the partitioned points, and acquiring the sensor values. have.
  • the table may be generated in such a manner that the frequency value of the data set is increased without duplicating the data set in the table.
  • the table may include a plurality of data sets including position values, expected sensor values, and frequency values.
  • the table includes a plurality of expected sensor values different from each other with respect to any one position value (eg, (x1, y1, z1)).
  • a specific method of calculating the relative position of the operation unit 200 with respect to the main body 100 by the object controller 1000 of the present invention is as follows.
  • each sensor 111 is a magnetic flux of a magnetic field formed from the magnetic 201 of the operation unit 200. flux and sense the measured sensor value S to the control unit 300.
  • the controller 300 In order to determine which central coordinate value of the unit cell is closest to the center coordinate value of the unit cell, the controller 300 is stored in the sensor value S and the table T obtained from the sensor 111. The similarity of sensor values between each expected sensor value is determined (S10).
  • the similarity of the sensor values may be determined by comparing, for example, the Manhattan distance or the Euclidean distance between the sensor values S obtained from the sensors and the expected sensor values stored in the table T. .
  • the controller 300 selects a data set including a sensor value S obtained from the sensor 111 and an expected sensor value with high similarity according to the similarity determination between the two sensor values as a similar data set (S20).
  • the similar data set may be selected from the sensor value S as a data set including an expected sensor value included below the predetermined Manhattan or Euclidean distance.
  • the controller 300 may select a data set including an expected sensor value having a high similarity to the sensor value S as a similar data set and use the same in calculating a relative position of the main body 100 and the operation unit 200. have.
  • the controller 300 when selecting a similar data set, the controller 300 first selects a relatively likely data set from the table T for efficiency of data processing, and selects a similar data set among relatively high data sets. It can also be screened.
  • the relatively high possibility of a dataset may mean a dataset including a position value having a relative position and a position continuity of the operation unit 2000 with respect to the main body 100 at a previous at least one time point.
  • the position continuity may be determined in consideration of how close to the position of the operation portion at the previous time point, the moving direction and the direction of the operation portion at the previous time point and the like.
  • the position continuity may be referred to as a position merely adjacent to the position immediately before, and the position continuity may be referred to as a position where the traveling path is maintained in consideration of the traveling route that has been moved to the previous position.
  • the controller 300 when the relative position of the operation unit with respect to the main body determined immediately before is (x0, y0, z0), the controller 300 has a position value of (x0, y0, z0) and a position continuity (x1, y1, z1). Similar datasets can be selected by using a dataset including the position value of) as a relatively high probability dataset. In this case, before the controller 300 determines the similarity between the expected sensor values of the other data sets and the sensor values obtained from the sensor units, the controller 300 first estimates the data sets including the position values of (x1, y1, z1). By comparing the similarity between the value and the sensor value obtained from the sensor unit, it is possible to first perform the similarity judgment on the more likely predicted sensor value.
  • a relatively high probability dataset may mean a dataset including a frequency value higher than a predetermined value.
  • the controller 300 may select a similar data set using a data set having a frequency value higher than a preset value as a relatively high possibility. In this case, before the controller 300 determines the similarity between the expected sensor value of the other data set and the sensor value obtained from the sensor unit, the controller 300 obtains the expected sensor value of the data sets having a frequency value greater than 30 and the sensor obtained from the sensor unit. By comparing the similarities of the values, it is possible to first perform a similarity judgment on a more likely predicted sensor value.
  • the controller 300 determines one of the at least one similar data set among the at least one similar data set according to a predetermined criterion as the reference data set (S30).
  • the predetermined criterion for determining the reference data set in the pseudo data set is a position value having a position relative to the relative position of the operation unit 200 and the position continuity with respect to the main body 100 (preferably immediately before) at least one previous time point. It may be to determine a data set including a reference data set.
  • This determination criterion is based on the premise that the relative position of the operation part 200 with respect to the main body 100 changes linearly. Since the position continuity is preferable in controlling the movement of the object, rather than the relative position of the manipulation unit 200 being drastically changed from the previous point of view, the selection criteria of the reference data may improve reliability in controlling the movement of the object. Can be.
  • the controller 300 compares the frequency values of each similar dataset and selects one dataset having a high frequency value as one reference data. You can also decide on a set. If each dataset has positional values with position continuity, selecting a dataset with a statistically high probability can improve reliability in controlling the movement of the object.
  • the controller 300 calculates the position value of the determined reference data set as a relative position of the operation unit 200 with respect to the main body 100 (S40).
  • the controller 300 may calculate a coordinate of (x2, y2, z2), which are position values of the reference data set, as a relative position of the operation unit with respect to the main body.
  • control unit 300 may remove the influence of the external geomagnetism and determine the position of the operation unit before performing the method illustrated in FIG. 10.
  • the sensor value S obtained from 111 may be corrected and used.
  • the control unit 300 obtains an initial sensor value which is a sensor value in a state in which the operation unit 200 is removed from the main body 100 from the sensor 111, and the operation unit 200 is mounted on the main body 100. Acquiring a measurement sensor value which is a sensor value in a positioned state, and an operation unit for the main body 100 based on a sensor value (eg, a difference value between the initial sensor value and the measurement sensor value) in which the initial sensor value is reflected in the measurement sensor value ( 200 may be calculated.
  • a sensor value eg, a difference value between the initial sensor value and the measurement sensor value
  • the object controller of the present invention further includes a sensor for measuring only the external geomagnetism, so that the controller 300 corrects the sensor value for excluding the influence of the external geomagnetism. You can also let
  • control unit 300 may determine which area of the virtual space the magnetic 201 of the operation unit 200 belongs to, based on the sensor value S and the table T obtained from the sensor 111.
  • the relative position of the operation unit 200 with respect to the main body 100 can be calculated using the position value of this area.
  • the controller 300 is not limited to the method of FIG. 10 described above, and may calculate a relative position of the operation unit 200 with respect to the main body 100 using a preset formula.
  • the predetermined formula may be a function configured to derive a point having the same magnetic flux based on the sensor value S obtained from the sensor 111.
  • control unit 300 calculates a relative position of the operation unit 200 with respect to the main body 100 using a preset formula is as follows.
  • the controller may determine that the magnetic is located at a point of the imaginary sphere having the same magnetic flux around the sensor.
  • the controller may determine that the magnetic is located in the tangential region of the two virtual spheres.
  • the position of the magnetic expected through the sensor values (S1x, S1y, S1z) obtained from one of the two sensors can be located in the sphere having the same magnetic flux around the sensor, and obtained from the other sensor
  • the position of the magnetic expected through one sensor value (S2x, S2y, S2z) can be located on a sphere with the same magnetic flux around that sensor. Therefore, the controller may determine that the magnetic field to output the sensor value is located at the tangent of the two spheres, based on the sensor value obtained through the two sensors.
  • control unit 300 Since the calculation process of the control unit 300 can be summarized by a predetermined formula, when the control unit 300 obtains the sensor value S from the sensor 111, the relative position of the operation unit 200 with respect to the main body 100. The expected area of can be calculated.
  • the controller 300 can calculate the relative position of the operation unit with respect to the main body.
  • the object 10 to be controlled by the object controller 1000 of the present invention may be a physical object such as a drone, a drone, a robot, a game machine, or a model car as described with reference to FIGS. 5A to 5D.
  • the object 10 to be controlled by the object controller 1000 of the present invention is not limited thereto, and may be an object in a program implemented in a computer, a console game machine, or the like, or an object in a 3D hologram image.
  • 11 is a conceptual diagram illustrating an object that can be controlled using the object controller of the present invention.
  • an object 10 ′ 10 ′′ controlled by the object controller 1000 of the present invention may be an object implemented by a program and displayed in a display device such as a monitor.
  • the object 10 ' may be a cursor or a pointer of a mouse displayed in the display device.
  • the object controller 1000 of the present invention may be configured to serve as an input device such as a mouse for manipulating a cursor or a pointer.
  • the object 10 ′′ may be a specific character of the game displayed on the display device.
  • the object 10 '' may be an object of a drone image displayed in the display device, and the object controller 1000 of the present invention controls such an object.
  • the input device may be configured to serve as an input device.
  • the object controller 1000 of the present invention is linked with a control unit that controls the operation of the program.
  • the objects 10 ′ and 10 ′′ may be controlled according to a method of controlling the object controller 1000.
  • object controllers 2000, 3000, 4000, 5000, and 8000 may be used to control the objects 10 ′ and 10 ′′ as shown in FIG. 11.
  • object controllers 2000, 3000, 4000, 5000, and 8000 may be used to control the objects 10 ′ and 10 ′′ as shown in FIG. 11.

Abstract

본 발명은 객체가 이동하거나 회전하는 것을 조작 가능한 객체 컨트롤러에 관한 것이다. 객체의 움직임을 조작 가능한 객체 컨트롤러에 있어서, 본체, 상기 본체와 비접촉되는 조작부, 및 상기 본체에 대한 상기 조작부의 상대적 위치를 기반으로 상기 객체의 움직임을 제어하는 제어부를 포함하는 객체 컨트롤러가 개시된다.

Description

객체 컨트롤러
본 발명은 객체 컨트롤러에 관한 것으로서, 보다 구체적으로는 간편하고 직관적으로 조작할 수 있으며 다양한 객체의 조종에 적합하게 채용될 수 있는 객체 컨트롤러에 관한 것이다.
드론, 무인 비행기, 로봇, 게임기, 모형 자동차 등의 객체를 원격으로 조종하기 위한 컨트롤러가 상용화되어 있다. 일반적으로 원격 조종 컨트롤러는 하나 이상의 아날로그 스틱이나 버튼을 포함하고 있으며, 이러한 스틱이나 버튼을 통해 발생한 조작신호는 컨트롤러는 내부에 장착된 송신기를 통해 제어 대상 객체의 내부의 수신기로 전달된다.
도 1은 기존의 컨트롤러의 실시 예를 보여주는 개념도이다.
도 1을 참조하면, 좌우 양쪽의 스틱을 이용하여 제어 대상 객체의 전후, 좌우 움직임, 좌회전과 우회전, 상승과 하강 등의 움직임을 조종할 수 있다. 그러나, 이러한 조종방식은 직관성이 많이 떨어져, 사용자가 객체를 자유롭게 조종하기 위해서는 많은 연습이 요구된다.
특히, 드론 등을 조종하는 컨트롤러의 경우, 드론의 곡예비행 등 정밀한 컨트롤이 가능하도록 개발됨에 따라 조종방식의 복잡도가 증가하고 있다. 이러한 컨트롤러는 그 조작의 난이성 때문에 다양한 객체의 조종에 적용되기에 적합하지 않은 측면이 있다.
한편, 컴퓨터, 콘솔게임기 등에서 구현되는 컴퓨터 프로그램 내의 오브젝트 또는 객체를 원격으로 제어하기 위한 무선 마우스, 게임 패드, 무브 컨트롤러와 같은 다양한 원격 조종 컨트롤러가 상용화되어 있다. 이러한 컨트롤러는 드론과 같은 물리적인 객체를 조종하는 것은 아니지만, 원격으로 제어 대상 객체의 움직임을 조종한다는 점에서 앞서 도 1을 참조하여 설명한 원격 컨트롤러와 동일하다.
무선 마우스, 게임 패드와 같은 컨트롤러는 여러 다른 형상, 크기 및 디자인에 무관하게 대부분 평탄 표면 상에서 이동하도록 사용자의 손에 파지되고, 사용자의 손목 및/또는 팔의 이동에 의해 조작신호가 산출된다. 특히 무선 마우스의 경우 하단에 장착된 레이저 센서가 표면에 대한 상대적인 이동을 검출하고, 이 변위를 디스플레이 화면 상의 포인터의 조작신호로 산출하여 전달하는 방식을 취한다. 다만 이러한 컨트롤러는 대부분 2차원의 화면 상에서 오브젝트 또는 객체를 조종하는 정도에 그치고 있으며, 2차원의 화면을 벗어나 적용될 수 없다는 한계점을 가진다.
최근 3차원의 공간 상에서 오브젝트 또는 객체를 원격으로 제어하기 위한 동작 인식 컨트롤러가 제안되었고, 가상현실 (VR) 게임 등의 입력장치로 적용되고 있다. 동작 인식 컨트롤러는 사용자의 동작을 감지해 게임 등을 조작할 수 있게 하는 컨트롤러로서, 동작 인식 기능을 갖춘 컨트롤러를 손에 쥐고 이리저리 움직여 조작하는 등의 방식으로 동작하도록 구성된다.
이러한 동작 인식 컨트롤러는 익숙해지기 어려운 종래의 컨트롤러와 달리, 사용자가 잡고 단순히 휘두르기만 해도 게임 등을 즐길 수 있다는 것에 큰 장점이 있기는 하나, 특정 게임 내의 특정 움직임을 수행하는 것 만을 위해 존재하는 컨트롤러가 대부분이다. 또한, 최근 제안된 동작 인식 컨트롤러는 가속도계 센서, 자이로스코프 센서와 같은 공지의 센서들이 조합되어 작동하는 것에 그치고 있기 때문에, 미세하고도 정밀한 동작을 제어하기에는 한계가 있을 뿐만 아니라 다양한 객체의 조종에 표준화하여 적용할 수 없다는 문제점이 있다.
따라서 컨트롤러의 활용 분야가 확대됨에 따라, 컨트롤러의 조작에 대한 별도의 교육을 받지 않은 사람들도 보다 간편하고 직관적으로 조작할 수 있으며, 다양한 객체의 조종에 적합하게 채용될 수 있는 객체 컨트롤러에 대한 필요성이 대두되고 있다.
본 발명은 상기와 같은 연구과정에서 안출된 것으로서, 사용자가 두 손으로 파지한 상태에서 조종하지 않아도 되고, 한 손으로 쉽게 조작할 수 있는 객체 컨트롤러를 제공하기 위한 것이다.
또한, 보다 간편하고 직관적으로 조작할 수 있으며, 다양한 객체의 조종에 적합하게 채용될 수 있는 객체 컨트롤러를 제공하기 위함이다.
본 발명의 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 객체 컨트롤러는, 객체의 움직임을 조작 가능한 객체 컨트롤러에 있어서, 본체, 상기 본체와 비접촉되는 조작부, 및 상기 본체에 대한 상기 조작부의 상대적 위치를 기반으로 상기 객체의 움직임을 제어하는 제어부를 포함한다.
본 발명의 다른 특징에 따르면, 상기 본체는, 사용자가 상기 본체를 용이하게 파지 가능하게 형성될 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 본체의 상부에는 디스플레이가 배치되고, 상기 디스플레이는 상기 조작부의 위치 및 진행 방향에 대해 디스플레이 할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 본체의 상부는 외부를 향해 돌출되어 지지면을 형성할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 조작부는 상기 지지면 상에 지지되어 이동가능하며, 상기 지지면은 상기 본체의 중심부를 향해 일정한 압력이상으로 가압되었을 때 누름조작 될 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 본체는, 상기 본체의 상부의 둘레를 따라 상기 지지면 상에 돌출되는 이탈방지턱을 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 본체는, 상기 조작부와 상기 본체 사이의 상대적 위치에 따른 조작 이외의 객체에 대한 다른 제어를 가능하도록 신호를 입력 가능한 사용자 입력부를 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 사용자 입력부에 입력되는 기 설정된 사용자의 입력에 기반하여, 상기 조작부 및 상기 본체의 일측의 표면과의 상대적 초기 위치(Zero Point)를 설정할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 본체에 대한 상기 조작부의 상대적 초기 위치를 설정한 후, 기 설정된 입력에 따라 상기 상대적 초기 위치를 기준으로 이동하는 상기 조작부의 움직임에 대해서 X축, Y축 및 Z축 중 적어도 하나의 축에 대한 선형적인 캘리브레이션(Calibration)을 수행하고 이를 저장할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 초기 위치 설정값 및 상기 캘리브레이션 수행으로 인한 기준값을 기준으로 상기 조작부와 상기 본체의 일측과의 상대위치를 기반하여 상기 객체를 이동시키는 신호를 발생할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 조작부와 상기 본체의 일측과의 변위되는 정도를 2 이상의 영역으로 나누거나 선형적으로 받아들여, 상기 조작부가 상기 각 영역 중 하나의 영역에 위치하는 경우에는 상기 객체를 변위시키는 크기가 동일한 신호를 발생 시킬 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 조작부의 X축, Y축 및 Z축 중 어느 하나의 축의 변위가 다른 두 개의 축의 변위보다 기 설정된 범위 이상일 경우, 객체의 상기 다른 두 개의 축의 변위값을 0로 설정할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 사용자 입력부에 대한 기 설정된 사용자의 입력에 기반하여, 상기 각 영역에서 발생하는 상기 객체를 변위시키는 크기에 대한 비율을 높이거나 줄일 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 사용자가 상기 객체가 제어되는 신호의 크기를 용이하게 파악할 수 있도록, 상기 객체를 제어하도록 발생시키는 신호에 따라 서로 다른 청각, 시각 및 촉각 중 적어도 하나의 신호를 발생시킬 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 조작부와 상기 본체의 상부가 기 설정된 변위 이상으로 벗어나거나 상기 본체가 기 설정된 압력 이상의 외력을 받게 되면, 상기 객체가 현재 있는 그 자리에서 유지하도록 하는 신호를 발생시킬 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 본체는, 상기 조작부를 수납할 수 있는 수납공간을 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 수납공간은, 상기 본체의 내부에 상기 조작부를 수납하도록 형성되거나, 상기 본체의 외부에 상기 조작부를 착탈 가능하게 끼워넣도록 형성될 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 본체는, 조작시 상기 조작부가 상기 본체로부터 이탈되지 않도록, 상기 본체의 상부면에 상기 조작부와 결합가능한 연결부재를 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 사용자 입력부는, 스크롤 버튼, 휠버튼, 슬라이드 버튼 및 누름 버튼 중 적어도 하나를 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 사용자 입력부에 기 설정된 사용자의 입력이 가해지는 것에 기반하여 상기 객체를 회전시키는 신호를 발생시킬 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 조작부는, 사용자의 손가락에 착탈가능하도록, 사용자의 손가락 중 어느 하나에 착탈되도록 복원력을 이용하여 사용자의 손가락을 압박하며 손가락에 홀딩되는 홀딩수단, 사용자의 손가락의 굵기에 맞추어 조여짐이 가능한 조임수단 및 손가락이 삽입가능한 끼움수단 중 적어도 하나를 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 객체에 대한 정보, 제어 신호에 대한 정보 및 본체의 설정에 대한 신호를 외부 단말기와 송, 수신 가능한 통신모듈을 더 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 본체는, 객체에 대한 정보, 제어 신호에 대한 정보 및 본체의 설정에 대한 신호를 표시 가능한 디스플레이를 더 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 기 설정된 사용자의 입력에 기반하여, 새로운 객체에 대한 제어가 가능하도록 다른 객체와 통신할 수 있도록 본체의 제어 신호를 설정하는 싱크(Sync) 기능을 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 객체는 드론, 무인 비행기, 유인 비행기, 게임기, 컴퓨터 프로그램 내의 오브젝트 및 자동차 중 적어도 하나일 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 객체 컨트롤러는 포지션 센서를 이용하여 상기 본체에 대한 상기 조작부의 상대적 위치를 검출할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 조작부와의 상대적 위치에 따른 센서값을 출력하는 적어도 하나의 센서를 더 포함하고, 상기 제어부는, 상기 센서로부터 획득한 센서값을 기초로 상기 본체에 대한 상기 조작부의 상대적 위치를 산출할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 센서로부터 획득한 센서값과, 상기 조작부가 특정 위치에 위치할 때 센서에서 출력된 센서값을 포함하도록 미리 작성된 테이블을 기초로 상기 본체에 대한 상기 조작부의 상대적인 위치를 산출할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 테이블은, 상기 조작부가 특정 위치에 위치할 때의 상기 본체에 대한 상기 조작부의 상대적인 위치값과 상기 위치값에 대응되는 예상 센서값이 매칭된 데이터세트를 복수 개 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 테이블에서, 상기 센서로부터 획득한 센서값과 유사한 예상 센서값을 포함하는 적어도 하나의 유사 데이터세트를 검색하고, 기설정된 기준에 따라 상기 적어도 하나의 유사 데이터세트 중 어느 하나의 유사 데이터세트를 기준 데이터세트로 결정하고, 상기 기준 데이터세트의 위치값을 상기 본체에 대한 상기 조작부의 상대적 위치로 판단할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 데이터세트는 빈도값에 대한 항목을 더 포함하고, 상기 테이블은, 기설정된 위치값을 가지도록 상기 조작부를 센서 상에 위치시켜 그 위치에서 상기 센서로부터 예상 센서값을 복수 회 획득하고, 동일한 위치값에 대한 동일한 예상 센서값이 획득되는 경우, 그 위치값 및 예상 센서값을 포함하는 데이터세트의 빈도값을 증가시키는 방법으로 생성될 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 센서로부터 획득한 센서값과 상기 예상 센서값 사이의 센서값의 유사도를 비교하여 상기 유사 데이터세트를 검색할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 테이블에서, 상대적으로 가능성이 높은 데이터세트를 우선 선별하여 상기 유사 데이터세트를 검색하고, 상기 상대적으로 가능성이 높은 데이터세트는, 이전의 적어도 하나의 시점에서의 상기 본체에 대한 상기 조작부의 상대적 위치와 위치연속성이 있는 위치값을 포함하는 적어도 하나의 데이터세트 또는 기설정된 값보다 높은 빈도값을 포함하는 적어도 하나의 데이터세트일 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 유사 데이터세트 중, 이전의 적어도 하나의 시점에서의 상기 본체에 대한 상기 조작부의 상대적 위치와 위치연속성이 있는 위치값을 포함하는 데이터세트를 상기 기준 데이터세트로 검색할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 유사 데이터세트 중, 상기 빈도값이 가장 큰 데이터세트를 기준 데이터세트로 결정할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 센서로부터 획득한 센서값은, 상기 조작부가 특정 위치에 위치한 상태에서 상기 센서로부터 획득한 센서값인 측정센서값에, 상기 조작부가 상기 본체로부터 제거된 상태에서 상기 센서로부터 획득한 센서값인 초기센서값을 반영한 센서값일 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 제어부는, 상기 센서로부터 획득한 센서값과 기설정된 수식을 기초로 동일한 자속(magnetic flux)을 갖는 상기 조작부의 상대적인 위치를 판별하고, 상기 조작부와 상기 센서의 틸팅(tilting)각을 한정함으로써, 상기 본체에 대한 상기 조작부의 상대적인 위치를 산출할 수 있다.
기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시 예들 중 적어도 하나에 의하면, 컨트롤러의 움직임만으로 3차원 이동 객체의 움직임을 조종할 수 있어, 사용자에게 직관성을 부여할 수 있다는 장점이 있다.
또한, 미세조종이 가능해지며 이동객체 제어의 정확도가 향상될 수 있다는 장점이 있다.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
도 1은 종래의 객체 컨트롤러의 실시 예를 보여주는 개략도이다.
도 2는 본 발명의 일 실시예에 따른 객체 컨트롤러를 설명하기 위한 사시도이다.
도 3은 본 발명의 일 실시예에 따른 객체 컨트롤러를 설명하기 위한 블록도이다.
도 4는 도 2의 객체 컨트롤러가 조작부의 인식 영역을 파악하기 위한 개념도이다.
도 5a 내지 도 5d는 도 2의 객체 컨트롤러를 이용하여 객체를 컨트롤 하는 조작 방법의 다양한 예들을 설명하기 위한 개념도이다.
도 6a 및 도 6b는 본 발명의 서로 다른 실시예에 따른 객체 컨트롤러에서 조작부가 본체에 수납되는 것을 설명하기 위한 개념도이다.
도 7a 내지 도 7c는 본 발명의 서로 다른 실시예에 따른 객체 컨트롤러를 설명하기 위한 사시도이다.
도 8은 본 발명의 서로 다른 실시예에 따른 조작부를 설명하기 위한 개념도이다.
도 9는 본 발명의 다른 실시예에 따른 객체 컨트롤러를 설명하기 위한 개념도이다.
도 10은 도 2의 객체 컨트롤러가 본체에 대한 조작부의 상대적인 위치를 판단하는 방법을 설명하기 위한 개념도이다.
도 11은 본 발명의 객체 컨트롤러를 이용하여 컨트롤 할 수 있는 객체를 예시적으로 설명하기 위한 개념도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되는 것은 아니다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서 상에서 언급된 '포함한다', '갖는다', '이루어진다' 등이 사용되는 경우 '~만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함한다.
구성요소를 해석함에 있어서, 별도의 명시적 기재가 없더라도 오차 범위를 포함하는 것으로 해석한다.
위치 관계에 대한 설명일 경우, 예를 들어, '~상에', '~상부에', '~하부에', '~옆에' 등으로 두 부분의 위치 관계가 설명되는 경우, '바로' 또는 '직접'이 사용되지 않는 이상 두 부분 사이에 하나 이상의 다른 부분이 위치할 수도 있다.
소자 또는 층이 다른 소자 또는 층 위 (on)로 지칭되는 것은 다른 소자 바로 위에 또는 중간에 다른 층 또는 다른 소자를 개재한 경우를 모두 포함한다.
비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않는다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 도시된 것이며, 본 발명이 도시된 구성의 크기 및 두께에 반드시 한정되는 것은 아니다.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시예들을 상세히 설명한다.
도 2는 본 발명의 일 실시예에 따른 객체 컨트롤러를 설명하기 위한 사시도이다. 도 3은 본 발명의 일 실시예에 따른 객체 컨트롤러를 설명하기 위한 블록도이다.
도 2 및 도 3을 참조하면, 객체 컨트롤러(1000)는 서로 접촉되지 않은 상태에서 조작되는 본체(100), 조작부(200) 및 제어부(300)를 포함한다.
본체(100)는 센서부(110), 사용자 입력부(120), 출력부(130), 통신부(140) 및 저장부(150)를 포함한다. 또한, 본체(100)의 내부에는 제어부(300)가 배치될 수 있다. 한편, 본체(100)의 상부의 표면에는 조작부(200)가 수직 상부에 이격되어 배치되는 영역을 가이드하도록 표식이 식각되어 있을 수 있다.
센서부(110)는 본체(100)의 일면, 구체적으로 본체(100)의 상면에 가까운 내부에 배치될 수 있다. 본체(100)에 배치되는 센서부(110)는 조작부(200)에 포함되는 또 다른 센서와 서로 상대적인 변위를 측정할 수 있다. 제어부(300)는 측정된 변위를 기반으로 객체(10)에 전달할 조작의 신호를 결정할 수 있다.
사용자 입력부(120)는 조작부(200)와 본체(100) 사이의 상대적 위치에 따른 조작 이외의 객체(10)에 대한 다른 제어를 가능하도록 신호를 입력 가능하도록 본체(100)에 배치된다. 구체적으로 사용자 입력부(120)는 조작부(200)와 본체(100)의 상대적인 변위로는 결정되지 않는 객체(10)의 조작 신호를 입력하거나, 조작부(200)와 본체(100)의 상대적인 변위로 결정되는 신호를 칼리브래이션 하거나, 조작부(200)와 본체(100)의 상대적인 변위로 결정되는 신호의 크기 및 비율을 조정하는 역할로 사용될 수 있다. 조작부(200)와 본체(100)의 상대적인 변위로는 결정되지 않는 객체(10)의 조작 신호는 객체(10)의 회전신호 일 수 있다.
한편, 사용자 입력부(120)는 본체(100)의 전면에 사용자의 엄지 손가락이 아닌 다른 손가락들이 배치되도록 형성될 수 있다. 다만, 이에 한정되지 않고 사용자 입력부(120)는 본체(100)의 다른 위치에 형성되거나, 조작부(200)에 형성될 수 있다.
아울러, 사용자 입력부(120)는, 스크롤 버튼, 휠버튼, 슬라이드 버튼 및 누름 버튼 중 적어도 하나를 포함할 수 있다. 도면을 기준으로 가장 위에 있는 버튼이 휠 버튼이고, 그 아래에는 슬라이드 버튼이 있으며, 그 밑에에는 누름 버튼이 있다.
출력부(130)는 제어부(300)에 의해 발생되는 여러가지 신호를 사용자가 인식할 수 있게 출력하는 구성을 의미한다. 객체 컨트롤러(1000)는 출력부(130)를 통해 사용법 등을 가이드하거나, 객체(10)에 전달되는 신호의 종류나 신호의 크기를 사용자에게 인식시키기 위하여 사용될 수 있다. 예를 들어, 출력부(130)는 광을 발산하는 LED 등의 광원, 소리를 출력하는 스피커(131), 본체(100)를 진동시키는 진동모듈 등이 될 수 있다.
한편, 디스플레이(132)는 출력부(130) 중 하나일 수 있다. 디스플레이(132)는 본체(100)에 사용자가 시인 가능하게 배치될 수 있다. 디스플레이(132)는 객체(10)에 대한 정보, 제어 신호에 대한 정보 및 본체(100)의 설정에 대한 신호를 표시 가능하다.
통신부(140)는 객체(10)에 대한 정보, 제어 신호에 대한 정보 및 본체(100)의 설정에 대한 신호를 외부 단말(20)기와 송, 수신 가능하다. 즉, 통신부(140)는 객체 컨트롤러(1000)가 동작을 조작하고자 하는 객체(10)와 통신하거나, 본체(100) 및/또는 객체(10)와 관련된 정보들을 설정하거나 디스플레이(132) 할 수 있는 외부 단말(20)과 통신할 수 있다.
저장부(150)는 제어부(300)에서 측정한 본체(100)와 조작부(200) 사이의 상대적 초기 위치나, 사용자가 조작부(200)를 중심으로 조작 시험을 할 때 측정된 칼리브래이션을 저장할 수 있다. 또한, 저장부(150)는 객체 컨트롤러(1000)가 다른 종류의 객체(10), 예를 들어 드론, 무인 비행기, 유인 비행기, 게임기, 컴퓨터 프로그램 내의 오브젝트 및 자동차 등을 조작할 때 사용될 수 있는 신호 체계, 프로그램 등이 저장되어 있을 수 있다.
본체(100)는 사용자가 한 손으로 파지 가능하도록 형성될 수 있다. 도 2를 참조하면, 사용자는 한 손으로 객체 컨트롤러(1000)를 사용할 수 있다. 구체적으로, 사용자는 엄지손가락에 조작부(200)를 부착시킨 뒤, 나머지 네 손가락과 손바닥을 이용하여 본체(100)를 파지할 수 있다. 사용자는 객체 컨트롤러(1000)에 대한 이러한 파지를 통해 한 손으로 보다 용이하게 객체(10)를 컨트롤 할 수 있다. 한편, 상술한 설명에 한정되는 것은 아니며, 본체(100)를 바닥 등에 배치한 상태에서 조작부(200)를 사용하거나, 본체(100)는 다른 손으로 잡고 다른 한 손으로 조작부(200)를 사용할 수도 있다.
조작부(200)는 본체(100)와 비접촉되어 본체(100)와 이격된 상태에서 움직여질 수 있다. 이 때, 제어부(300)는 본체(100)와 조작부(200)의 상대적인 위치를 기반으로 객체(10)를 움직일 수 있다.
조작부(200)는 사용자의 손에 부착될 수 있다. 구체적으로 도 2를 참조하면, 사용자의 엄지 손가락에 부착될 수 있다. 조작부(200)는 링 형상으로 형성될 수 있으나, 이에 한하지 않고 사용자의 손에 부착될 수 있는 수단이 구비되면 충분하다. 이에 대해서는 도 8을 참조하여 구체적으로 설명한다.
한편, 조작부(200)와 본체(100)와의 상대적 위치는 3D 마그네틱 센서를 이용하여 검출될 수 있다. 구체적으로, 본체(100)에는 3D 마그네틱 센서가 내장되어 있고, 조작부(200)에는 마그네틱이 내장되어 서로의 변위를 파악할 수 있다. 또한, 조작부(200)와 본체(100)와의 상대적 위치를 검출 가능한 포지션 센서는 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 임피던스 센서, 임피던스 센서와 자기 센서에 대한 하이브리드 센서, 하이브리드 센서, 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), 적외선 센서(IR 센서: infrared sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라) 중 적어도 하나일 수도 있다.
이러한 센서를 이용하여 제어부(300)가 본체(100)와 조작부(200)의 상대적인 위치를 판단하는 구체적인 방법은 도 10을 참조하여 후술하도록 한다.
제어부(300)는 본체(100) 내부에 배치되고, 본체(100)에 대한 조작부(200)의 상대적 위치를 기반으로 객체(10)의 움직임을 제어한다.
예를 들어, 제어부(300)는 사용자 입력부(120)에 입력되는 기 설정된 사용자의 입력에 기반하여, 조작부(200) 및 본체(100)의 일측의 표면과의 상대적 초기 위치(Zero Point)를 설정할 수 있다. 구체적으로, 사용자마다 손의 크기가 다를 수 있으므로, 조작부(200)를 손가락에 끼운 상태에서 본체(100)를 파지했을 때, 편안하게 조작부(200)가 본체(100) 상부에 놓이는 포인트가 다를 수 있다. 이 경우, 조작부(200)가 놓일 수 있는 곳에 표식이 되어 있지만, 사용자가 이곳에 정확하게 자신의 조작부(200)를 배치시키기 어려울 수 있다. 따라서, 편안한 상태에서 조작부(200)를 본체(100)의 상부에 배치한 상태에서 사용자는 사용자 입력부(120)에 기 설정된 입력을 하면, 제어부(300)는 이 때의 조작부(200)와 본체(100)와의 상대적인 거리를 기본 거리, 즉 상대적 초기 위치로 파악할 수 있다.
또한, 제어부(300)는 본체(100)에 대한 조작부(200)의 상대적 초기 위치를 설정한 후, 기 설정된 입력에 따라 조작부(200)의 X축, Y축 및 Z축 중 적어도 하나의 축에 대해서, 상대적 초기 위치를 기준으로 캘리브레이션(Calibration)을 수행할 수 있다. 구체적으로, 상대적 초기 위치의 상태에서 손가락을 X축, Y축 및 Z축 방향으로 천천히 움직이면, 제어부(300)는 이 때의 변위 및 궤적이 해당 사용자의 변위 및 궤적으로 판단하고 이를 기준으로 제어동작을 판단하게 된다.
한편, 제어부(300)는 조작부(200)와 본체(100)의 상부가 기 설정된 변위 이상으로 벗어나는 경우, 객체(10)가 현재 있는 그 자리에서 유지하도록 하는 유지신호를 발생시킬 수 있다. 구체적으로 사용자가 조작부(200)를 손가락에 착용한 상태에서, 본체(100)가 사용자의 손으로부터 이탈되는 경우가 발생할 수 있다. 본체(100)가 낙하하는 과정에서, 본체(100)와 조작부(200)는 서로 큰 변위로 이격되므로 예를 들어, 드론 조작중이라면, 제어부(300)에서는 이를 드론의 상승신호라고 판단할 수 있게 된다. 이러한 경우를 방지하기 위해, 앞서서 측정한 상대적 초기 위치 및 캘리브레이션된 값에서 기설정된 값 이상을 벗어나게 되는 경우, 객체(10)가 위치하던 자리에서 계속 유지하도록 하는 유지신호, 즉 셧다운신호(Shut-Down)를 발생시킬 수 있다.
또한, 제어부(300)는 기 설정된 사용자의 입력에 기반하여, 새로운 객체(10)에 대한 제어가 가능하도록 다른 객체(10)와 통신할 수 있도록 본체(100)의 제어 신호를 설정하는 싱크(Sync) 기능을 포함할 수 있다. 구체적으로, 새로운 객체(10)(예를 들어, 컴퓨터 프로그램 내의 오브젝트 및 자동차 등)에 객체 컨트롤러(1000)를 싱크시켜 조작가능하게 할 수 있다. 이 때에는 사용자 입력부(120)에 기 설정된 입력을 함으로써, 새로운 객체(10)와 객체 컨트롤러(1000)를 싱크시킬 수 있다.
또한, 제어부(300)는, 기 설정된 사용자 입력이 가해지는 것에 기반하여, 상기 객체(10)가 호버링(hovering) 상태를 유지하도록, 통신부(140)의 전송을 오프(OFF) 상태로 설정할 수 있다.
도 4는 도 2의 객체 컨트롤러가 조작부의 인식 영역을 파악하기 위한 개념도이다.
도 4를 참조하면, 조작부(200)가 본체(100)에 대하여 상대적으로 이동하는 영역을 Y축 방향에 대해서 나눈 것을 알 수 있다. 사용자가 조작부(200)를 착용한 상태에서 조작부(200)를 이동시킬 때, 조작부(200)에 대한 미세한 조정이 어려우므로 이러한 영역을 지정하여, 제어부(300)의 출력을 몇 단계로 나눌 수 있다. 이러한 영역의 분리는 사용자의 조작 미숙이나, 피로도에 의한 오작동의 확률을 줄여준다.
이러한 영역을 설정은 사용자의 칼리브래이션 단계에서 설정될 수 있다. 구체적으로, 사용자마다 손가락의 길이나, 이동에 대한 체감 변위가 다르다. 따라서, 객체 컨트롤러(1000)를 사용시, 상대적 초기 위치를 설정하고, X축, Y축 및 Z축에 대해서 단계적으로 변위를 칼리브래이션하여 저장하는 단계를 거쳐갈 수 있다. 구체적으로 설명하자면 다음과 같다.
사용자가 조작부(200)를 착용한 후, 본체(100)를 파지한다. 그 후에 사용자 입력부(120) 등을 통하여 상대적 초기 위치를 설정한다. 상대적 초기 위치를 설정한 후에 객체 컨트롤러(1000)는 자동으로 X축, Y축 및 Z축에 대해서 단계적으로 변위를 설정하도록 사용자에게 요구할 수 있다. 예를 들어, 객체 컨트롤러(1000)는 사용자에게 “오른쪽으로 1단계 이동하십시오.” 라는 출력을 출력부(130)를 통해서 할 수 있다. 그 후에 “오른쪽으로 2단계 이동하십시오.” 라는 출력을 출력부(130)를 통해서 할 수 있다. 이에 따라, 사용자는 조작부(200)를 오른쪽으로 1단계 이동한다. 그 후에 오른쪽으로 2단계, 즉 1단계보다 더 오른쪽으로 이동한 상태로 조작부(200)를 옮기게 된다. 이러한 과정을 반복하는 등의 방법을 통해서 X축, Y축 및 Z축에 대한 영역을 설정할 수 있다.
다시 한번 설명하면, 사용자의 손의 크기 등에 따라서 제1 영역(310), 제2 영역(320a, 320b) 및 제3 영역(330a, 330b)의 설정이 달라질 수 있다. 따라서, 제어부(300)는 객체 컨트롤러(1000)의 작동 초기에 상대적 초기 위치 설정 및 각 영역에 대한 캘리브레이션을 수행할 수 있다. 이러한 상대적 초기 위치 설정 및 각 영역에 대한 캘리브레이션은 사용자 입력부(120)에 기설정된 신호가 입력되면 이루어 질 수 있다.
즉, 조작부(200)와 본체(100)의 상대적인 변위로 결정되는 신호의 칼리브래이션은 다음과 같다. 제어부(300)는 사용자 입력부(120)에 입력되는 기 설정된 사용자의 입력에 기반하여, 조작부(200) 및 본체(100)의 일측의 표면과의 상대적 초기 위치(Zero Point)를 설정할 수 있다. 상대적 초기 위치를 설정한 이후에, 사용자는 조작부(200)의 X축, Y축 및 Z축 중 적어도 하나의 축에 대해서 조작부(200)를 이동시킬 수 있다. 이 때, 센서부(110) 및 제어부(300)는 조작부(200)의 변위를 상대적 초기 위치와 비교하여 캘리브레이션(Calibration)을 수행할 수 있다.
구체적으로 도 4를 참조하면, Y축으로 제1 영역에 조작부(200)가 위치할 때는 제어부(300)에서 객체(10)를 Y축 방향으로 이동시키는 신호가 발생하지 않을 수 있다. 제2 영역에 조작부(200)가 위치할 때는 제어부(300)에서 객체(10)를 Y축 방향으로 기결정된 속도로 이동시키는 신호가 발생된다. 그리고 제3 영역에 조작부(200)가 위치할 때는 제어부(300)에서 객체(10)를 Y축 방향으로 상기 제2 영역에서 발생한 이동 속도보다 더 빠른 속도로 이동시키는 신호가 발생할 수 있다. 이 때, 제어부(300)는 조작부(200)가 각 영역 중 하나의 영역에 위치하는 경우에는 객체(10)를 변위시키는 크기가 동일한 신호를 발생시킬 수 있다. 즉, 제어부(300)는 조작부(200)가 하나의 영역에 위치할 때에는 동일한 크기의 출력으로 객체(10)가 이동할 수 있다.
한편, 이러한 각 축에 대한 영역은 3개의 이상의 영역으로 더 나뉠 수도 있으며, 2개의 영역으로 나뉠 수도 있다. 또한, 복수의 영역으로 나뉘지 않고 Linear하게 설정될 수도 있다.
또한, 제어부(300)는 조작부(200)의 X축, Y축 및 Z축 중 어느 하나의 축의 변위가 다른 두 개의 축의 변위보다 기 설정된 범위보다 클 경우, 객체(10)의 다른 두 개의 축의 변위값을 0로 설정할 수 있다. 예를 들어, 사용자의 엄지 손가락에 조작부(200)가 부착되어 이동할 때에는 손가락의 관절 및 구조상, 조작부(200)가 X축, Y축 또는 Z축으로 Linear하게 움직이기 어려울 수 있다. 따라서, X축, Y축 및 Z축 중 어느 하나의 축의 변위가 다른 두 개의 축의 변위보다 기 설정된 범위보다 클 경우, 기 설정된 범위보다 큰 축으로만 객체(10)가 움직이도록 설정될 수 있다.
이 때, 제어부(300)는 캘리브레이션 값을 기준으로 조작부(200)와 본체의 일측과의 변위를 기반하여 객체(10)를 이동시키는 신호를 발생하게 된다. 그러나 이에 한정되지 않고, 캘리브레이션 값 이외에 기준값으로 객체(10)를 이동시키는 신호를 발생시킬 수 있다. 이 때의 기준값은 캘리브레이션 값에 오차범위를 반영하여 새롭게 산출된 값일 수 있다.
도 5a 내지 도 5d는 도 2의 객체 컨트롤러를 이용하여 객체를 컨트롤 하는 조작 방법의 다양한 예들을 설명하기 위한 개념도이다.
먼저 도 5a를 참조하면, 객체 컨트롤러(1000)가 상대좌표 모드로 객체(10)를 이동시키는 모습이 도시되어 있다. 사용자가 조작부(200)를 제1 방향으로 화살표 a의 백터값으로 이동시켰다. 이런 상황에서 객체(10)는 제1 방향으로 a의 벡터값으로 계속하여 이동하고 있다. 이는 객체 컨트롤러(1000)가 상대좌표 모드로 객체(10)를 움직이는 것으로 볼 수 있다.
구체적으로, 객체 컨트롤러(1000)의 조작부(200)는 상대좌표 모드에서 제1 방향으로 a의 거리만큼 이동된다. 이에 따라, 객체(10)는 제1 방향으로 a의 거리의 절대 값에 비례하는 속도(또는, 일정 비율을 적용한 값의 속도)로 이동하게 된다. 즉, 상대좌표 모드에서는 객체(10)는 a의 비례하는 속도로 계속하여 진행하게 된다.
다음으로 도 5b 및 도 5c를 참조하면, 객체 컨트롤러(1000)가 절대좌표 모드로 객체(10)를 이동시키는 모습이 도시되어 있다. 두 경우 모두 사용자가 조작부(200)를 제1 방향으로 화살표 a의 백터값으로 이동시켰다. 이 때, 도 5b에서는 객체(10)가 제1 방향으로 c의 벡터값으로 이동하게 된다. 그리고 도 5c에서는 객체(10)가 제1 방향으로 d의 벡터값으로 이동하게 된다.
우선 절대좌표 모드는 조작부(200)가 이동한 만큼에 해당하는 출력만큼 객체(10)가 이동한 후에는 멈추게 된다. 따라서, 도 5b에서는 객체(10)가 제1 방향으로 c의 벡터값으로 이동한 후 멈추게 된다. 그리고 도 5c에서는 객체(10)가 제1 방향으로 d의 벡터값으로 이동한 후 멈추게 된다.
그리고, 제어부(300)는 사용자 입력부(120)에 대한 기 설정된 사용자의 입력에 기반하여, 각 영역에서 발생하는 객체(10)를 변위시키는 크기에 대한 비율을 높이거나 줄일 수 있다. 구체적으로, 사용자 입력부(120) 중에서 조작부(200)의 상대적 변위에 일정 비율을 적용한 값으로 객체(10)를 이동시키도록 조정할 수 있다. 예를 들어 도 5b의 제2 사용자 입력키(122)를 어느 일 방향으로 밀게 되면, 상대적으로 적은 백터값으로 객체(10)를 움직일 수 있다. 그리고, 도 5c에서는 제2 사용자 입력키(122)를 어느 일 방향으로 밀지 않고 있다. 이러한 경우에는 조작부(200)에서 움직인 거리에 도 5b와 비교하였을 때 상대적으로 큰 값을 곱한 백터값으로 객체(10)가 이동할 수 있다.
다음으로 도 5d를 참조하면, 객체 컨트롤러(1000)를 이용해 객체(10)를 회전 조작하는 모습이 도시되어 있다. 제어부(300)는 사용자 입력부(120)에 기 설정된 사용자의 입력이 가해지는 것에 기반하여 객체(10)를 회전시키는 신호를 발생시킬 수 있다.
구체적으로, 제1 사용자 입력키(121)는 휠 키로 구성된다. 이런 경우에 휠 키를 돌리면, 객체(10)는 해당 방향으로 회전할 수 있다. 이 때에도 객체 컨트롤러(1000)는 상대좌표 모드 또는 절대좌표 모드로 객체(10)의 이동을 제어할 수 있다.
이러한 상대좌표 모드 및 절대좌표 모드는 제1 사용자 입력키 내지 제4 사용자 입력키(121, 122, 123, 124)에 누름 조작, 누름 조작의 횟수, 누름 조작의 시간 등의 여러 가지 조작 동작 중 기 결정된 조작방법이 입력되는 경우 서로 변경될 수 있다.
한편, 제어부(300)는 사용자가 객체(10)가 제어되는 신호의 크기를 용이하게 파악할 수 있도록, 객체(10)를 제어하도록 발생시키는 신호에 따라 서로 다른 청각, 시각 및 촉각 중 적어도 하나의 신호를 발생시킬 수 있다. 즉, 이러한 변경은 출력부(130)를 통해 사용자가 인식가능하게 출력될 수 있다. 예를 들어, 도 5a에서 상대좌표 모드인 경우, 스피커(131)를 통해 중간 정도 크기의 소리가 날 수 있다. 또한 절대좌표 모드인 도 5b와 도 5c에서는, 객체(10)가 이동되는 백터의 크기에 대응되어 소리의 크기가 결정될 수 있다. 또한, 회전 모드인 도 5d에서는 소리가 주기적으로 날 수 있다. 다만, 디스플레이(132)를 통한 시각적인 출력도 가능하며, 진동을 통한 촉각적인 출력도 가능하다.
도 6a 및 도 6b는 본 발명의 서로 다른 실시예에 따른 객체 컨트롤러에서 조작부가 본체에 수납되는 것을 설명하기 위한 개념도이다.
본 발명의 객체 컨트롤러(1000)의 본체(100)는 조작부(200)를 수납할 수 있는 수납공간(90)을 포함할 수 있다. 구체적으로, 수납공간(90)은 본체(100)의 내부에 조작부(200)를 수납하도록 형성되거나, 본체(100)의 외부에 조작부(200)를 착탈 가능하게 끼워넣도록 형성될 수 있다.
예를 들어 도 6a를 참조하면, 본체(100)는 상부 본체(100)와 하부 본체(100)로 서로 분리 가능하게 형성될 수 있다. 상부 본체(100)에는 나사산이 형성되어 하부 본체(100)와 상대 회전을 통하여 결합 및 분리 가능하다. 다만, 이러한 결합방식에 한정되는 것은 아니다.
상부 본체(100)와 하부 본체(100)가 서로 분리되면, 하부 본체(100) 내부에 내부공간이 형성된다. 이러한 내부공간에 조작부(200)가 수납될 수 있다. 다만, 하부 본체(100)에 내부공간이 형성되는 것에 한하지 않고 상부 본체(100)에 내부공간이 형성될 수도 있다.
다음으로 도 6b를 참조하면, 객체 컨트롤러(2000)의 본체(1100)의 외부에 수납공간(1090)이 리세스되어 있다. 이러한 수납공간(1090)은 조작부(1200)가 안착될 수 있게 조작부(1200)의 형상에 대응하여 형성될 수 있다. 또한, 조작부(1200)가 안착되어 수납된 후에는 조작부(1200)가 쉽게 이탈되지 않도록 이탈방지부재가 더 추가될 수도 있다.
도 7a 내지 도 7c는 본 발명의 서로 다른 실시예에 따른 객체 컨트롤러를 설명하기 위한 사시도이다.
먼저 도 7a를 참조하면, 본체(2100)는 조작시 조작부(2200)가 본체(2100)로부터 이탈되지 않도록, 본체(2100)의 상부면에 조작부(2200)와 결합가능한 연결부재를 포함할 수 있다. 연결부재는 본체(2100)의 상면에 형성된 고리와 연결가능하다. 연결부재는 본체(2100)의 상면에 형성된 고리뿐만이 아니라, 조작부(2200)에 형성된 고리에도 결합가능하다.
제어부는 조작부(2200)와 본체(2100)의 상부가 기 설정된 변위 이상으로 벗어나거나 본체(2100)가 기 설정된 압력 이상의 외력을 받게 되면, 객체(10)가 현재 있는 그 자리에서 유지하도록 하는 유지신호를 발생시킬 수 있다. 이는 연결고리에 의해 조작부(2200)가 본체(2100)로부터 이탈되기 어려우므로, 사용자가 본체(2100) 및 조작부(2200)를 동시에 놓치는 경우에 바닥에 떨어진 조작부(2200)와 본체(2100)와의 상대적 거리에 의해 객체(10)가 조작되지 않도록 하기 위함이다.
한편, 연결부재는 단순히 조작부(2200)와 본체(2100)를 연결시킬 수도 있지만, 본체(2100)측 고리(2192)에서 받는 압력에 의해 객체(10)의 제어와 관련된 정보를 얻을 수도 있다.
본체(3100)는 사용자가 본체(3100)를 용이하게 파지 가능하도록 사용자의 손을 감싸는 스트랩을 구비하거나, 외형에 굴곡이 형성될 수 있다. 구체적으로 도 7b를 참조하면, 본체(3100)에 굴곡부(3170)이 형성되어 있다. 굴곡부(3170)는 본체(3100)에 사용자의 손가락이 배치되는 위치를 가이드할 수 있을 뿐만 아니라, 사용자의 손과 본체(3100)가 용이하게 밀착될 수 있게 한다. 즉, 사용자의 손이 굴곡부(3170)의 내부로 인입되어 밀착되므로 사용자의 손과 본체(3100)가 접촉되는 면적이 넓어진다. 이 뿐만 아니라, 본체(3100)가 중력에 의해 아래로 떨어지려는 힘을 굴곡부(3170) 내부로 인입된 손가락이 받을 수 있어, 본체(3100)에 대한 지지력이 높아질 수 있다.
다음으로 도 7c를 참조하면, 본체(4100)의 상부면이 외부를 향해 볼록하게 돌출될 수 있다. 이러한 돌출면을 지지면(4107)이라고 한다. 조작부(4200)는 지지면(4107) 상에 지지되어 이동가능할 수 있다. 지지면(4107)을 통해 사용자가 본체(4100)의 상부와 이격되어 조작부(4200)를 조작하였을 때의 피로도를 저감시킬 수 있다. 또한, 지지면(4107)을 통해 조작부(4200)와 본체(4100)와의 이격거리를 비교적 일정하게 유지할 수 있다. 또한, 조작부(4200)를 통한 객체(10)의 컨트롤에 대한 정교함이 높아질 수 있다.
또한, 지지면(4107)은 본체(4100)의 중심부를 향해 일정한 압력이상으로 가압되었을 때 누름조작 될 수 있다. 즉, 지지면(4107)이 본체(4100)의 중심부를 향해(좌표상으로 -Z축) 가압하였을 때, 지지면(4107) 자체가 설계된 기결정된 정도의 변위로 하부로 눌릴 수 있다. 조작부(4200) 및 지지면(4107)의 이러한 동작을 통해서, 객체(10)가 하부로 이동하는 신호를 생성할 수 있다.
한편, 본체(4100)는 본체(4100)의 상부의 둘레를 따라 지지면(4107) 상에 돌출되는 이탈방지턱을 포함할 수 있다. 이는, 조작부(4200)가 조작 중에 본체(4100)의 바깥으로 나가는 것을 방지하기 위함이다.
도 8은 본 발명의 서로 다른 실시예에 따른 조작부를 설명하기 위한 개념도이다.
본 발명의 조작부(6200)는 사용자의 손가락에 착탈가능하도록 홀딩수단, 조임수단(5220), 끼움수단(7220) 중 적어도 하나를 포함할 수 있다.
먼저 도 8의 (a)는 조작부(6200)가 스트랩으로 이루어지는 조임수단(5220)을 포함하는 실시예이다. 사용자는 손가락을 조작부(6200)의 내측에 배치한 후, 조임수단(5220)을 양측을 연결하여 결합한다.
도 8의 (b)는 조작부(6200)가 복원력이 이용하여 사용자의 손가락을 압박하며 손가락에 홀딩되는 실시예이다. 본 조작부(6200)는 링 형상에서 일 부분이 삭제된 형상이다. 조작부(6200)의 직경이 좁게 생기므로, 복원력에 의해 조작부(6200)는 사용자의 손가락에 홀딩될 수 있다.
도 8의 (c)는 조작부(7200)가 사용자의 손가락의 굵기에 맞추어 조여짐이 가능한 끼움수단(7220)을 포함하는 실시예에 관한 것이다.
도 9는 본 발명의 다른 실시예에 따른 객체 컨트롤러를 설명하기 위한 개념도이다.
본체(8100)의 상부에는 상면 디스플레이(8101)가 배치되고, 상면 디스플레이(8101)에는 상기 조작부(8200)의 위치 및 진행 방향 등의 정보가 표시될 수 있다.
구체적으로 도 9를 참조하면, 본체(8100)의 상부에는 상면 디스플레이(8132)가 배치된다. 상기 디스플레이(8132)에는 중심점이 표시될 수 있다. 중심점은 본체(8100)의 상부에 조작부(8200)가 배치되었을 때, 표시되는 점이다.
이 때, 중심점의 크기가 작을수록 본체(8100)와 조작부(8200)간의 수직 거리가 긴 것이며, 중심점의 크기가 클수록 본체(8100)와 조작부(8200)간의 수직 거리가 짧은 것을 의미한다. 중심점의 크기가 일정한 크기 이하일 때, 즉 본체(8100)와 조작부(8200)간의 수직 거리가 긴 경우에는 객체(10)에는 상승하라는 신호가 전달될 수 있다. 중심점의 크기가 일정한 크기 이상일 때, 즉 본체(8100)와 조작부(8200)간의 수직 거리가 짧은 경우에는 객체(10)에는 하강하라는 신호가 전달될 수 있다. 또한, 디스플레이(8132)의 화살표(A)는 드론의 이동 방향 및 이동 속도에 대한 벡터값이 시각화되어 표현될 수 있다.
도 10은 도 2의 객체 컨트롤러가 본체에 대한 조작부의 상대적인 위치를 판단하는 방법을 설명하기 위한 개념도이다.
본 발명의 객체 컨트롤러(1000)는 본체(100)에, 조작부(200)와의 거리 변화에 따라 감지된 센서값을 출력하는 두 개의 센서(111)를 포함할 수 있다. 적어도 두 개 이상의 센서(111)를 사용하는 경우, 본체(100)에 대한 조작부(200)의 상대적인 위치를 보다 정확하게 산출할 수 있다. 제어부(300)는 센서(111)로부터 획득한 센서값을 기초로 본체(100)에 대한 조작부(200)의 상대적 위치를 산출한다.
본체(100)에 내장된 센서(111)는 3D 마그네틱 센서일 수 있고, 조작부(200)에는 마그네틱(201)이 내장되어 있을 수 있다. 다만, 센서(111)는 이에 한정되는 것이 아니고 상술한 바와 같이 자외선 센서 등 공지된 임의의 센서가 사용될 수 있지만, 이하에서는 설명의 편의를 위하여, 센서(111)가 3D 마그네틱 센서이고 조작부(200)에 마그네틱(201)이 내장된 것으로 하여 설명하도록 한다.
3D 마그네틱 센서는 X 방향, Y 방향, Z 방향의 자속(magnetic flux)을 감지하여 값을 출력하는 센서를 말한다. 도 10에서, 어느 하나의 마그네틱 센서의 출력값을 S1x, S1y, S1z로 지칭하고, 다른 하나의 마그네틱 센서의 출력값을 S2x, S2y, S2z로 지칭한다.
센서(111)는 본체의 상측에 위치하도록 배치될 수 있다. 그 본체의 위에 조작부가 배되어 센서(111)가 조작부로부터의 자속을 감지할 수 있는 공간은 단위 셀로 구획될 수 있다. 각각의 단위셀은 기설정된 원점(예컨대, 두 센서의 중점)을 기준으로 그 셀의 중심 좌표값이 결정되어 있다. 본체(100)에 대한 조작부(200)의 상대적인 위치는 본체(100) 상에 형성된 단위 셀의 좌표값 중 어느 하나로 결정될 수 있다.
본 실시예에서 가상의 공간 및 단위셀을 6면체로 예시하고 있지만, 이러한 것은 예시에 불과하고, 3차원의 공간 및 단위 셀을 구 형태 등으로 변형하는 것도 가능하다.
도 10을 참조하면, 제어부(300)는 센서(111)로부터 획득한 센서값(S)과 조작부(200)가 특정 위치에 위치할 때 센서에서 출력된 센서값을 포함하도록 미리 작성된 테이블(T)을 기초로, 본체(100)에 대한 조작부(200)의 상대적인 위치를 산출한다.
구체적으로, 제어부(300)는 센서(111)로부터 얻은 센서값(S)을 기초로 하여, 조작부(200)의 마그네틱(201)이 가상의 공간 중 어느 영역에 속하는지를 판단하고, 구획된 영역의 중심 좌표값을 이용하여 본체(100)에 대한 조작부(200)의 상대적인 위치를 산출한다.
미리 작성된 테이블(T)에는, 마그네틱이 각각의 구획된 공간 내에 위치하는 경우의 위치값(즉, 구획된 영역의 중심 좌표값)과 각각의 위치값에 대응되는 예상 센서값 매칭된 데이터세트가 복수 개 포함되어 있다.
테이블(T)은, 마그네틱을 어느 하나의 구획된 지점에 위치시킨 상태에서 3D 마그네틱 센서로부터 복수 회 센서값을 획득하고, 마그네틱을 구획된 모든 지점으로 이동시키며 센서값을 획득하는 방식으로 생성될 수 있다. 동일한 위치값에 대하여 동일한 센서값이 획득되는 경우에는 그 데이터세트를 테이블에 중복하여 기재하지 않고, 해당 데이터세트의 빈도값을 증가시키는 방식으로 테이블을 생성할 수 있다. 따라서, 테이블은 위치값, 예상 센서값 및 빈도값을 포함하는 데이터세트를 복수 개 포함할 수 있다.
여기서, 마그네틱이 센서로부터 동일한 위치에 위치하더라도, 센서에 대하여 마그네틱의 자기장 축의 기울기가 변한다거나 또는 외부 지자기의 요인이 개입되는 등의 영향에 의해 센서에서 측정되는 센서값이 소정의 폭으로 변화하기 때문에, 테이블은 어느 하나의 위치값 (예컨대 (x1, y1, z1))에 대하여 서로 상이한 복수 개의 예상 센서값을 포함한다.
테이블(T)을 사용하여, 본 발명의 객체 컨트롤러 (1000) 제어부(300)가 본체(100)에 대한 조작부(200)의 상대적 위치를 산출하는 구체적인 방법은 다음과 같다.
사용자의 조작에 의해 조작부(200)의 마그네틱(201)이 본체(100) 상의 어느 지점에 위치하게 되면, 각각의 센서(111)는 조작부(200)의 마그네틱(201)으로부터 형성된 자기장의 자속(magnetic flux)을 감지하여 측정된 센서값(S)을 제어부(300)로 전달한다.
조작부(200)의 마그네틱(201)이 단위 셀의 어느 중심 좌표값에 가장 가깝게 위치하는지를 판단하기 위해, 제어부(300)는 센서(111)로부터 획득된 센서값(S)과 테이블(T)에 저장된 각각의 예상 센서값 사이의 센서값의 유사도를 판단한다 (S10).
여기서 센서값의 유사도는, 예를 들어 센서로부터 획득된 센서값(S)과 테이블(T)에 저장된 예상 센서값의 맨해튼 거리(Manhattan distance) 또는 유클리드 거리(Euclidean distance)를 비교함으로써 판단될 수 있다.
제어부(300)는 두 센서값의 유사도 판단에 따라, 센서(111)로부터 얻은 센서값(S)과 유사도가 높은 예상 센서값을 포함하는 데이터세트를 유사 데이터세트로 선별한다 (S20).
센서값의 유사도를 맨해튼 거리 또는 유클리드 거리로 판단하는 경우 유사 데이터세트는, 센서값(S)으로부터 기설정된 맨해튼 또는 유클리드 거리 이하에 포함되는 예상 센서값을 포함하는 데이터세트로 선별될 수 있다.
센서(111)로부터의 센서값(S)과 테이블(T)에 저장된 예상 센서값의 유사도가 크다는 것은, 조작부(200)의 마그네틱(201)의 실제 위치와 예상 센서값에 매칭된 위치값이 일치할 가능성이 크다는 것을 의미할 수 있다. 따라서, 제어부(300)는 센서값(S)과 유사도가 큰 예상 센서값을 포함하는 데이터세트를 유사 데이터세트로 선별하여, 본체(100)와 조작부(200)의 상대적 위치를 산출함에 있어 사용할 수 있다.
한편, 제어부(300)는 유사 데이터세트를 선별할 때, 데이터 처리의 효율성을 위하여 테이블(T)에서 상대적으로 가능성이 높은 데이터세트를 우선 선별하여, 상대적으로 가능성이 높은 데이터세트 중에서 유사 데이터세트를 선별할 수도 있다.
여기서, 상대적으로 가능성이 높은 데이터세트라 함은, 이전의 적어도 하나의 시점에서의 본체(100)에 대한 조작부(2000의 상대적 위치와 위치연속성이 있는 위치값을 포함하는 데이터세트를 의미하는 것일 수도 있다.
위치연속성은 이전 시점에서의 조작부의 위치와 얼마나 인접한지, 이전 시점에서의 조작부의 이동 방향과 방향성이 일치하는지 등을 고려하여 결정될 수 있다. 예를 들어, 직전의 위치와 단순히 인접한 위치를 위치연속성이 높다고 할 수도 있고, 직전의 위치로 이동되어 온 진행 경로를 고려하여 진행 경로가 유지되는 위치를 위치연속성이 높다고 할 수도 있다.
예컨대, 제어부(300)는 직전에 판단된 본체에 대한 조작부의 상대적 위치가 (x0, y0, z0)인 경우, (x0, y0, z0)의 위치값과 위치연속성이 있는 (x1, y1, z1)의 위치값을 포함하는 데이터세트를 상대적으로 가능성이 높은 데이터세트로 하여 유사 데이터세트를 선별할 수 있다. 이 경우, 제어부(300)는 다른 데이터세트의 예상 센서값과 센서부로부터 얻은 센서값의 유사도를 판단하기 이전에, 우선하여 (x1, y1, z1)의 위치값을 포함하는 데이터세트들의 예상 센서값과 센서부로부터 얻은 센서값의 유사도를 비교함으로써, 보다 가능성이 높은 예상 센서값에 대한 유사도 판단을 먼저 수행할 수 있게 된다.
한편, 상대적으로 가능성이 높은 데이터세트라 함은, 기설정된 값보다 높은 빈도값을 포함하는 데이터세트를 의미하는 것일 수도 있다.
이 경우 제어부(300)는 빈도값이 기설정된 값보다 높은 데이터세트를 상대적으로 가능성이 높은 데이터세트로하여 유사 데이터세트를 선별할 수도 있다. 이 경우, 제어부(300)는 다른 데이터세트의 예상 센서값과 센서부로부터 얻은 센서값의 유사도를 판단하기 이전에, 우선하여 빈도값이 30보다 큰 데이터세트들의 예상 센서값과 센서부로부터 얻은 센서값의 유사도를 비교함으로써 보다 가능성이 높은 예상 센서값에 대한 유사도 판단을 먼저 수행할 수 있게 된다.
이렇게 상대적으로 가능성이 높은 데이터세트에 대해서 부분적으로 탐색을 한 후, 확장하여 데이터세트를 탐색하는 방식으로 유사 데이터세트를 선별하게 되면, 테이블 상의 모든 예상 센서값과 센서값의 유사도 판단을 하지 않더라도 신뢰도가 높은 데이터세트를 선별해 낼 수 있으므로, 제어부(300)의 데이터 처리 속도를 높일 수 있다는 점에서 바람직하다.
다음으로, 제어부(300)는 기설정된 기준에 따라 적어도 하나의 유사 데이터세트 중 어느 하나의 유사 데이터세트를 기준 데이터세트로 결정한다 (S30).
유사 데이터세트에서 기준 데이터세트를 결정하는 기설정된 기준은, 이전의 적어도 하나의 시점의 (바람직하게는 직전의) 본체(100)에 대한 조작부(200)의 상대적 위치와 위치연속성이 있는 위치값을 포함하는 데이터세트를 기준 데이터세트로 결정하는 것일 수 있다.
이러한 결정 기준은, 본체(100)에 대한 조작부(200)의 상대적 위치가 선형적(linear)으로 변화하는 것을 전제로 한 것이다. 조작부(200)의 상대적 위치가 이전 시점에 비하여 급격하게 변화하는 것 보다 위치연속성 있는 것이 객체의 움직임을 제어함에 있어 바람직하므로, 이러한 기준 데이터의 선정 기준은 객체의 움직임을 제어함에 있어 신뢰성을 향상시킬 수 있다.
만약, 이러한 위치연속성을 고려한 후에도 하나 이상의 데이터세트가 여전히 유사 데이터세트로 존재하는 경우에는, 제어부(300)는 각각의 유사 데이터세트의 빈도값을 비교하여 빈도값이 높은 데이터세트를 하나의 기준 데이터세트로 결정할 수도 있다. 각각의 데이터세트 모두 위치연속성이 있는 위치값을 가지는 것이라면, 통계적으로 높은 확률을 가지는 데이터세트를 선택하는 것이 객체의 움직임을 제어함에 있어 신뢰성을 향상시킬 수 있기 때문이다.
제어부(300)는 결정된 기준 데이터세트의 위치값을 본체(100)에 대한 조작부(200)의 상대적 위치로 산출한다 (S40).
예컨대, 테이블에서 위치값이 (x2, y2, z2), 예상 센서값이 (-26, 15, 66, 7, -102, 32), 빈도값이 34인 데이터세트가 기준 데이터세트로 결정된 경우, 제어부(300)는 기준 데이터세트의 위치값인 (x2, y2, z2)의 좌표를 본체에 대한 조작부의 상대적 위치로 산출할 수 있다.
한편, 제어부(300)는 본체(100) 및 조작부(200)가 위치하는 환경에서, 외부 지자기의 영향을 배제하고 조작부의 위치를 판단하기 위하여, 도 10에 도시된 방법을 수행하기 이전에 센서(111)로부터 얻은 센서값(S)을 보정하여 사용할 수도 있다.
예를 들어, 제어부(300)는 센서(111)로부터 조작부(200)가 본체(100)로부터 제거된 상태에서의 센서값인 초기센서값을 획득하고, 조작부(200)가 본체(100) 상에 위치한 상태에서의 센서값인 측정센서값을 획득하여, 측정센서값에 초기센서값이 반영된 센서값(예컨대, 초기센서값과 측정센서값의 차이값)을 기초로 본체(100)에 대한 조작부(200)의 상대적인 위치를 산출할 수 있다.
그 밖에도, 본 발명의 객체 컨트롤러에 조작부의 마그네틱을 감지하는 센서와는 다른 별개로, 외부 지자기 만을 측정하는 센서가 더 구비됨으로써, 제어부(300)가 외부의 지자기의 영향을 배제하기 위한 센서값 보정을 하도록 할 수도 있다.
상술한 방식에 따라, 제어부(300)는 센서(111)로부터 얻은 센서값(S)과 테이블(T)을 기초로, 조작부(200)의 마그네틱(201)이 가상의 공간 중 어느 영역에 속하는지를 판단할 수 있고, 이 영역의 위치값을 이용하여 본체(100)에 대한 조작부(200)의 상대적인 위치를 산출할 수 있다.
한편, 제어부(300)는 상술한 도 10의 방식에 한정되지 않고, 기설정된 수식을 사용하여 본체(100)에 대한 조작부(200)의 상대적인 위치를 산출할 수도 있다.
여기서 기설정된 수식은, 센서(111)로부터 획득한 센서값(S)에 기초하여 동일한 자속(magnetic flux)을 갖는 지점을 도출할 수 있도록 구성된 함수일 수 있다.
기설정된 수식을 사용하여 제어부(300)가 본체(100)에 대한 조작부(200)의 상대적 위치를 산출하는 원리는 다음과 같다.
센서로부터 임의의 간격만큼 떨어져 마그네틱이 위치하는 경우, 마그네틱에 의해 형성된 자속(magnetic flux)의 총량은 센서와 마그네틱이 이루는 각도에 무관하다. 따라서, 센서에 어떠한 센서값이 측정되는 경우, 제어부는 센서를 중심으로 동일한 자속(magnetic flux)을 갖는 가상의 구면의 일 지점에 마그네틱이 위치할 것으로 판단할 수 있다.
제어부가 두 센서로부터 센서값을 획득한다면, 제어부는 두 가상의 구면의 접선의 영역에 마그네틱이 위치할 것으로 판단할 수 있다.
즉, 두 센서 중 하나의 센서로부터 획득한 센서값 (S1x, S1y, S1z)을 통해 예상되는 마그네틱의 위치는 그 센서를 중심으로 동일한 자속을 갖는 구면에 위치할 수 있고, 다른 하나의 센서로부터 획득한 센서값 (S2x, S2y, S2z)을 통해 예상되는 마그네틱의 위치는 그 센서를 중심으로 동일한 자속을 갖는 구면에 위치할 수 있다. 따라서, 제어부는 두 센서를 통해 획득한 센서값에 기초하여, 그 센서값을 출력하도록 한 마그네틱이 두 구면의 접선에 위치할 것으로 판단할 수 있다.
이러한 제어부(300)의 연산 과정은 기설정된 수식으로 정리될 수 있으므로, 제어부(300)는 센서(111)로부터 센서값(S)을 획득하는 경우 본체(100)에 대한 조작부(200)의 상대적인 위치의 예상 영역을 산출할 수 있다.
나아가, 마그네틱(201)와 센서(111)의 틸팅(tilting)각 (즉, 조작부(200)가 홀딩된 엄지 손가락이 본체(100) 상에서 움직이는 각도)가 기설정된 각도로 한정되는 경우, 조작부(200) 의 마그네틱(201)이 위치하는 정확한 지점이 결정될 수 있게 되므로, 제어부(300)는 본체에 대한 상기 조작부의 상대적인 위치를 산출할 수 있게 된다.
한편, 본 발명의 객체 컨트롤러(1000)의 컨트롤의 대상이 되는 객체(10)는 도 5a 내지 도 5d 를 참조하여 설명한 바와 같이 드론, 무인 비행기, 로봇, 게임기, 모형 자동차 등과 같은 물리적 대상일 수도 있지만, 본 발명의 객체 컨트롤러(1000)의 컨트롤의 대상이 되는 객체(10)는 이에 한정되지 않고, 컴퓨터, 콘솔게임기 등에서 구현되는 프로그램 내의 오브젝트 또는 3차원 홀로그램 영상 내의 오브젝트 일 수도 있다.
도 11은 본 발명의 객체 컨트롤러를 이용하여 컨트롤 할 수 있는 객체를 예시적으로 설명하기 위한 개념도이다.
도 11을 참조하면, 본 발명의 객체 컨트롤러(1000)에 의해 컨트롤되는 객체(10' 10”)는 프로그램에 의해 구현되어 모니터 등의 표시장치 내에 표시되는 오브젝트일 수 있다.
예컨대, 객체(10')는 표시장치 내에 표시되는 마우스의 커서 또는 포인터일 수 있다. 이때 본 발명의 객체 컨트롤러(1000)는 커서 또는 포인터를 조작하는 마우스와 같은 입력장치의 역할을 하도록 구성될 수 있다. 한편 다른 예로서 컴퓨터에 의해 게임 프로그램이 실행되는 경우, 객체(10'')는 표시장치 상에 표시되는 게임의 특정 캐릭터일 수도 있다. 예를 들어, 컴퓨터에 의해 드론을 비행시키는 게임이 실행되는 경우라면 객체(10'')는 표시장치 내에 표시되는 드론 이미지의 오브젝트일 수 있고, 본 발명의 객체 컨트롤러(1000)는 이러한 오브젝트를 제어하는 입력장치 입력장치의 역할을 하도록 구성될 수 있다.
이처럼 객체(10', 10'')가 프로그램에 의해 구현되어 모니터 등의 표시장치 상에 표시되는 오브젝트인 경우, 본 발명의 객체 컨트롤러(1000)는 해당 프로그램의 동작을 제어하는 제어부와 연동됨으로써 상술한 객체 컨트롤러(1000) 제어 방법에 따라 객체(10', 10'')를 컨트롤 할 수 있다.
또한 도 11에 도시된 바와 같은 객체(10', 10'')를 컨트롤하기 위하여 상술한 다양한 실시예에 따른 객체 컨트롤러(2000, 3000, 4000, 5000, 8000)가 비제한적으로 채용될 수 있음은 물론이다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (12)

  1. 객체의 움직임을 조작 가능한 객체 컨트롤러에 있어서,
    본체;
    상기 본체와 비접촉되는 조작부; 및
    상기 본체 내부에 배치되고, 상기 본체에 대한 상기 조작부의 상대적 위치를 기반으로 상기 객체의 움직임을 제어하는 제어부를 포함하는, 객체 컨트롤러.
  2. 제1항에 있어서,
    상기 조작부와의 상대적 위치에 따른 센서값을 출력하는 적어도 하나의 센서를 더 포함하고,
    상기 제어부는,
    상기 센서로부터 획득한 센서값을 기초로 상기 본체에 대한 상기 조작부의 상대적 위치를 산출하는, 객체 컨트롤러.
  3. 제2항에 있어서,
    상기 제어부는,
    상기 센서로부터 획득한 센서값과, 상기 조작부가 특정 위치에 위치할 때 센서에서 출력된 센서값을 포함하도록 미리 작성된 테이블을 기초로 상기 본체에 대한 상기 조작부의 상대적인 위치를 산출하는, 객체 컨트롤러.
  4. 제3항에 있어서,
    상기 테이블은,
    상기 조작부가 특정 위치에 위치할 때의 상기 본체에 대한 상기 조작부의 상대적인 위치값과 상기 위치값에 대응되는 예상 센서값이 매칭된 데이터세트를 복수 개 포함하는, 객체 컨트롤러.
  5. 제4항에 있어서,
    상기 제어부는,
    상기 테이블에서, 상기 센서로부터 획득한 센서값과 유사한 예상 센서값을 포함하는 적어도 하나의 유사 데이터세트를 검색하고,
    기설정된 기준에 따라 상기 적어도 하나의 유사 데이터세트 중 어느 하나의 유사 데이터세트를 기준 데이터세트로 결정하고,
    상기 기준 데이터세트의 위치값을 상기 본체에 대한 상기 조작부의 상대적 위치로 판단하는, 객체 컨트롤러.
  6. 제5항에 있어서,
    상기 데이터세트는 빈도값에 대한 항목을 더 포함하고,
    상기 테이블은,
    기설정된 위치값을 가지도록 상기 조작부를 센서 상에 위치시켜 그 위치에서 상기 센서로부터 예상 센서값을 복수 회 획득하고,
    동일한 위치값에 대한 동일한 예상 센서값이 획득되는 경우, 그 위치값 및 예상 센서값을 포함하는 데이터세트의 빈도값을 증가시키는 방법으로 생성되는, 객체 컨트롤러.
  7. 제5항에 있어서,
    상기 제어부는,
    상기 센서로부터 획득한 센서값과 상기 예상 센서값 사이의 센서값의 유사도를 비교하여 상기 유사 데이터세트를 검색하는, 객체 컨트롤러.
  8. 제6항에 있어서,
    상기 제어부는,
    상기 테이블에서, 상대적으로 가능성이 높은 데이터세트를 우선 선별하여 상기 유사 데이터세트를 검색하고,
    상기 상대적으로 가능성이 높은 데이터세트는, 이전의 적어도 하나의 시점에서의 상기 본체에 대한 상기 조작부의 상대적 위치와 위치연속성이 있는 위치값을 포함하는 적어도 하나의 데이터세트 또는 기설정된 값보다 높은 빈도값을 포함하는 적어도 하나의 데이터세트인, 객체 컨트롤러.
  9. 제5항에 있어서,
    상기 제어부는,
    상기 유사 데이터세트 중, 이전의 적어도 하나의 시점에서의 상기 본체에 대한 상기 조작부의 상대적 위치와 위치연속성이 있는 위치값을 포함하는 데이터세트를 상기 기준 데이터세트로 검색하는, 객체 컨트롤러.
  10. 제6항에 있어서,
    상기 제어부는,
    상기 유사 데이터세트 중, 상기 빈도값이 가장 큰 데이터세트를 기준 데이터세트로 결정하는, 객체 컨트롤러.
  11. 제5항에 있어서,
    상기 센서로부터 획득한 센서값은,
    상기 조작부가 특정 위치에 위치한 상태에서 상기 센서로부터 획득한 센서값인 측정센서값에, 상기 조작부가 상기 본체로부터 제거된 상태에서 상기 센서로부터 획득한 센서값인 초기센서값을 반영한 센서값인, 객체 컨트롤러.
  12. 제2항에 있어서,
    상기 제어부는,
    상기 센서로부터 획득한 센서값과 기설정된 수식을 기초로 동일한 자속(magnetic flux)을 갖는 상기 조작부의 상대적인 위치를 판별하고, 상기 조작부와 상기 센서의 틸팅(tilting)각을 한정함으로써, 상기 본체에 대한 상기 조작부의 상대적인 위치를 산출하는, 객체 컨트롤러.
PCT/KR2017/011117 2016-10-10 2017-10-10 객체 컨트롤러 WO2018070750A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/340,914 US20190369749A1 (en) 2016-10-10 2017-10-10 Object controller
CN201780076099.5A CN110088712A (zh) 2016-10-10 2017-10-10 物体控制器

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2016-0130885 2016-10-10
KR20160130885 2016-10-10
KR1020170067832A KR102387818B1 (ko) 2016-10-10 2017-05-31 객체 컨트롤러
KR10-2017-0067832 2017-05-31

Publications (1)

Publication Number Publication Date
WO2018070750A1 true WO2018070750A1 (ko) 2018-04-19

Family

ID=61905798

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/011117 WO2018070750A1 (ko) 2016-10-10 2017-10-10 객체 컨트롤러

Country Status (1)

Country Link
WO (1) WO2018070750A1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110029607A (ko) * 2009-09-16 2011-03-23 건국대학교 산학협력단 컨트롤러의 자세 변화를 이용한 무인비행체 비행 제어 시스템 및 비행 제어 시스템의 운영방법
US20110227825A1 (en) * 2008-07-01 2011-09-22 Hillcrest Laboratories, Inc. 3D Pointer Mapping
US20140099853A1 (en) * 2012-10-05 2014-04-10 Qfo Labs, Inc. Remote-control flying copter and method
KR101406461B1 (ko) * 2012-07-16 2014-06-13 전북대학교산학협력단 무선 조종 컨트롤러
KR101653146B1 (ko) * 2015-09-04 2016-09-01 홍유정 드론 컨트롤러
KR20170099716A (ko) * 2016-02-24 2017-09-01 홍유정 객체 컨트롤러

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110227825A1 (en) * 2008-07-01 2011-09-22 Hillcrest Laboratories, Inc. 3D Pointer Mapping
KR20110029607A (ko) * 2009-09-16 2011-03-23 건국대학교 산학협력단 컨트롤러의 자세 변화를 이용한 무인비행체 비행 제어 시스템 및 비행 제어 시스템의 운영방법
KR101406461B1 (ko) * 2012-07-16 2014-06-13 전북대학교산학협력단 무선 조종 컨트롤러
US20140099853A1 (en) * 2012-10-05 2014-04-10 Qfo Labs, Inc. Remote-control flying copter and method
KR101653146B1 (ko) * 2015-09-04 2016-09-01 홍유정 드론 컨트롤러
KR20170099716A (ko) * 2016-02-24 2017-09-01 홍유정 객체 컨트롤러

Similar Documents

Publication Publication Date Title
WO2017146531A1 (ko) 객체 컨트롤러
WO2017213392A1 (en) Drone
WO2017039081A1 (ko) 드론 컨트롤러
WO2014073926A1 (ko) 원격 제어 장치, 디스플레이 장치 및 그 제어 방법
WO2015084111A1 (ko) 제한된 수의 자기장 센서를 이용한 사용자 입력 처리 장치
US8954195B2 (en) Hybrid gesture control haptic system
WO2016117758A1 (ko) 손 재활 운동 시스템 및 방법
WO2016060461A1 (en) Wearable device
WO2017204517A1 (ko) 청소 로봇 및 그 제어 방법
WO2018043780A1 (ko) 이동 로봇 및 그 제어방법
WO2019139273A1 (ko) 로봇 청소기 및 그의 제어방법
WO2021080171A1 (ko) 관성 센서를 이용한 착용 감지 방법 및 장치
WO2016045018A1 (zh) 遥控器及其手柄结构、uav的控制方法
WO2018070750A1 (ko) 객체 컨트롤러
WO2018016666A1 (ko) 파라미터 설정 방법 및 장치
WO2016122153A1 (en) Display apparatus and control method thereof
WO2019103350A1 (ko) 사용자 인터페이스를 적응적으로 구성하기 위한 장치 및 방법
WO2020085537A1 (ko) 동작인식 디바이스 및 이를 이용한 동작인식 방법
WO2020080732A1 (ko) 가상 콘텐츠를 제어하기 위한 인터페이스 방법
KR102387818B1 (ko) 객체 컨트롤러
WO2014163245A1 (ko) 비어홀이 구비된 3 차원 모션 센서
WO2020085538A1 (ko) 동작인식 시스템 및 이를 이용한 동작인식 방법
KR20230117964A (ko) 가상 현실 컨트롤러
KR102385079B1 (ko) 객체 컨트롤러
WO2017183822A1 (ko) 가상현실 기기용 3차원 모션 입력장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17860284

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17860284

Country of ref document: EP

Kind code of ref document: A1