WO2019143204A1 - 객체 제어 방법 및 객체 제어 장치 - Google Patents

객체 제어 방법 및 객체 제어 장치 Download PDF

Info

Publication number
WO2019143204A1
WO2019143204A1 PCT/KR2019/000817 KR2019000817W WO2019143204A1 WO 2019143204 A1 WO2019143204 A1 WO 2019143204A1 KR 2019000817 W KR2019000817 W KR 2019000817W WO 2019143204 A1 WO2019143204 A1 WO 2019143204A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
controllers
command
hands
rotation
Prior art date
Application number
PCT/KR2019/000817
Other languages
English (en)
French (fr)
Inventor
배석형
김용관
이준협
안상균
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020190006921A external-priority patent/KR102239469B1/ko
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to CN201980014644.7A priority Critical patent/CN111770815B/zh
Priority to US16/961,894 priority patent/US20200384654A1/en
Publication of WO2019143204A1 publication Critical patent/WO2019143204A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls

Definitions

  • the following description relates to an object control method and apparatus, and more particularly to a method of controlling an object by determining user input from one or two controllers or by determining a control method and apparatus and user input from one hand or two hands And apparatus.
  • Industrial robots have been used as indispensable production tools in modern industrial fields because they can perform repetitive tasks faster and more precisely than human workers.
  • cooperative robots are emerging as a key element of the concept of smart production in the future 4th industry emphasizing the organic collaboration of human workers and robots. It is expected that maximizing productivity in various industrial fields where robots can not be applied by adding the efficiency and precision of robots to the judgment ability of human workers capable of flexibly coping with various situations.
  • the present invention allows a user to control an object as it appears at its location in any location. It is possible to instantaneously confirm the operation of the object and to manipulate / cope with it while keeping a gaze on the object to be manipulated.
  • the present invention can reduce the working time compared to the existing method by performing a complex motion at a time.
  • the method of operation is the same as the method of moving actual object (rod, flat plate), so non-technical users can learn and use in a short period.
  • the present invention utilizes a support member including a length-varying member and a length-fixing member to instantly and dynamically adjust the precision and speed of operation according to the working conditions.
  • the present invention overcomes the limited range of motion of the wrist and the arm joints of the human body by using one hand or two hands, thereby enabling a wider range of operation to be performed. Further, when the support member is further utilized, It is possible.
  • An object control method includes sensing a control activation / deactivation command generated by a user; Detecting a user command including a movement change amount command and a rotation change amount command in a state in which the control activation / deactivation command is sensed; Determining a user input by the movement change amount command and the rotation change amount command; And controlling the object according to the user input.
  • the step of detecting the user command may detect the user command generated by one of a hand gesture of the user and a gesture of both hands.
  • the step of sensing the control activation / deactivation command may detect a control activation / deactivation command through detection of a hand gesture of a specific shape predetermined in advance.
  • the predetermined hand gesture may be any one of a gesture to contact at least two fingers of the user's fingers and a gesture to grasp the user's fist.
  • the step of determining the user input may include setting a virtual reference figure based on a gesture generated by one or both hands of a user, calculating a movement variation amount and a rotation variation amount The amount of movement and the amount of rotation of the object can be determined.
  • the virtual reference figure may be a plane fixed to a contact point of two fingers that are in contact with each other among the fingers of one hand of the user.
  • the virtual reference figure may be a plane fixed to the contact points of the fingers of the respective hands of the hands of the two hands of the user.
  • the virtual reference figure may be a bar that is primarily formed with reference to one hand of the user, and is formed by being projected on a plane perpendicular to the axis of the object.
  • the virtual reference figure is primarily formed with reference to the contact points of the peaks of the respective hands of the hands of the two hands of the user, And may be a bar that is projected on a plane and formed secondarily.
  • the step of determining the user input may include determining a corresponding ratio based on a distance between two hands of the user, and inputting the movement variation amount and the rotation variation amount corresponding to the corresponding ratio to the user input Can be reflected.
  • the correspondence ratio can be largely determined as the distance between the two hands of the user is short.
  • the step of sensing the user command may include detecting a user command generated by one or two controllers having a signal generating switch, the command being held by one or both hands of the user .
  • the step of sensing the control activation / deactivation command may detect the control activation / deactivation command through ON / OFF detection of a switch provided in the controller.
  • the step of determining the user input may include setting a virtual reference figure based on the one or two controllers, calculating a movement amount of the object based on the movement variation amount and the rotation variation amount of the set reference shape, And the amount of rotation can be determined.
  • the virtual reference figure may be a plane fixed at a specific position of the controller held by one hand of the user.
  • the virtual reference figure may be a plane fixed to specific positions of controllers held by two hands of the user.
  • the virtual reference figure is formed primarily in the length or width direction of the controller held by one hand of the user, and projected on a plane perpendicular to the axis of the object, As shown in FIG.
  • the virtual reference figure is primarily formed to pass through specific positions of controllers held by two hands of the user, and is projected on a plane perpendicular to the axis of the object, As shown in FIG.
  • the step of determining the user input may include determining a corresponding ratio based on distances between controllers held by two hands of the user, The change amount can be reflected to the user input.
  • the corresponding ratio may be determined to be larger as the distance between the controllers is shorter.
  • the step of controlling the object may control the end portion or the axis portion of the object.
  • the step of controlling the object may control either a physical object or a virtual object of virtual reality (VR) or augmented reality (AR).
  • VR virtual reality
  • AR augmented reality
  • the object control apparatus includes sensing means for sensing a control activation / deactivation command, a movement change amount command, and a rotation change amount command generated by a user; And a processor for recognizing a user command by receiving the signal sensed by the sensing means and applying a control signal corresponding to the recognized user command to the object.
  • the object control apparatus may further comprise user command transmission means configured by the user to be able to grasp and for transmitting the user command to the sensing means.
  • the user command transmission means may include a controller having a switch for generating a control activation / deactivation signal, the user being held by one hand.
  • the object control apparatus may further include a support member for fixing the controller.
  • the support member may be any one of a length varying member having an elastic force and a length varying member having no elastic force.
  • the user command transmission means may include two controllers, each of which is grasped by each of the hands of the user, and at least one controller may be provided with a switch for generating a control activation / deactivation signal .
  • the object control apparatus may further include a support member for physically connecting the two controllers.
  • the support member may be any one of a length varying member having an elastic force and a length varying member having no elastic force.
  • controllers by using one or two controllers, or by controlling an object with one hand or two hands, complex tasks such as moving or manipulating an object in three-dimensional space can be effectively performed, Users of non-robot robots can easily and quickly control objects in various industrial work environments. Further, the controller or the user's hand can be connected to the support member to stabilize the operation, and the precision and the quickness can be adjusted.
  • one-hand or two-hand interaction featuring a segment / reference plane model, stability using a support member, and clutching techniques overcomes the human body limitations and allows for greater precision and greater range of motion Can be guaranteed.
  • FIG 1 illustrates an object control system in accordance with one embodiment.
  • FIGS. 2A and 2B are views for explaining a form of controlling an object according to an embodiment.
  • FIG. 3 is a diagram for explaining a process of activating object control according to an embodiment.
  • FIG. 4 is a diagram for explaining a process of selecting an axis part of an object to be controlled according to an embodiment.
  • 5 to 8 are views for explaining a process of rotating an axis portion of an object according to an embodiment.
  • FIG. 9 is a diagram for explaining a process of activating object control according to an embodiment.
  • FIG. 10 is a diagram for explaining a process of selecting an end portion of an object to be controlled according to an embodiment.
  • 11 to 13 are views for explaining a process of controlling the movement of the end portion of the object according to an embodiment.
  • FIGS. 14A and 14B are views for explaining a process of determining a movement amount and a rotation amount of an end portion of an object according to an embodiment.
  • FIG. 15 is a diagram for explaining a process of visually providing an expected operation of an object to be controlled according to an embodiment.
  • Figures 16-20 illustrate examples of controlling an end portion of an object using one or two controllers according to one embodiment.
  • Figures 21 to 25 illustrate examples of controlling an axis portion of an object using one or two controllers according to one embodiment.
  • Figures 26-30 illustrate examples of controlling end portions of an object based on user input determined from one hand or two hands in accordance with one embodiment.
  • 31-35 illustrate examples of controlling an axis portion of an object based on user input determined from one hand or two hands in accordance with an embodiment.
  • 36 is a diagram illustrating an object control method according to an embodiment.
  • FIG. 37 is a diagram illustrating an object control apparatus according to an embodiment.
  • first or second may be used to describe various elements, but such terms should be interpreted solely for the purpose of distinguishing one element from another.
  • first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
  • FIG 1 illustrates an object control system in accordance with one embodiment.
  • an object control system includes an object 110, controllers 120, and sensors 130.
  • the object 110 is an object to be controlled, for example, a remote object to be controlled by a user, or a virtual reality (VR) or augmented reality (AR) A virtual object may be included.
  • a virtual reality (VR) or augmented reality (AR) A virtual object may be included.
  • the remote object may include various real-world objects, such as an industrial robot (e.g., a collaborative robot), a drone, a camera mounted on a dron, and the like.
  • object 110 may include one or more axial portions and end portions. The object 110 may operate based on rotation of one or more axis portions and movement / rotation of the distal portion.
  • the virtual object may be an object included in a virtual reality or augmented reality experienced by a user.
  • a virtual object may be an object that a user wants to control in a game virtual reality.
  • the controllers 120 may be connected to one another by support members.
  • the support member may include a length varying member having an elastic force, a length varying member having no elastic force, and a length fixing member.
  • the length-adjustable member having an elastic force is not limited to a rubber band, a spring, and a material itself.
  • the mechanical linkage and the articulated member are not elastic or elastic, but are designed to have elasticity / restoring force by using pneumatic or various mechanical devices.
  • a length-adjustable length-free member may include devices such as mechanical linkages, multi-joint members, etc. designed to have no resilient force / restitution force.
  • the length fixing member may include a rod, a cable, and the like.
  • the controllers 120 can be held in both hands of the user.
  • the controllers 120 are connected to each other by the supporting members, whereby tension can be induced in both hands holding the controllers 120, and stabilization, precision, and quickness of the operation of both hands can be controlled through such tension.
  • tension can be induced in both hands holding the controllers 120, and stabilization, precision, and quickness of the operation of both hands can be controlled through such tension.
  • the controllers 120 include one or more buttons, and predetermined user inputs may be communicated to the object control system as the button is selected.
  • Sensors 130 may include a vision sensor, for example, to track three-dimensional positions of controllers 120 held in both hands. Through the sensors 130, a user's two-handed position can be sensed in a three-dimensional space and user input based on two-hand interaction can be delivered to the object control system.
  • a vision sensor for example, to track three-dimensional positions of controllers 120 held in both hands. Through the sensors 130, a user's two-handed position can be sensed in a three-dimensional space and user input based on two-hand interaction can be delivered to the object control system.
  • controllers 120 do not exist separately, and sensors 130 track the position of the user's hands and the user input may be determined. Even in this case, there may be a supporting member for connecting the user's hands to each other, and stability, precision and promptness can be controlled more than moving both hands to the air through the supporting member. In addition, by detecting whether the sensors 130 change the hand posture of the user, such as detecting whether the user holds the fist, the user input corresponding to whether or not the buttons included in the controllers 120 are selected can be determined have.
  • FIGS. 2A and 2B are views for explaining a form of controlling an object according to an embodiment.
  • an axis portion 210 of an object may be rotated based on user input according to one embodiment. As part of the object's axis 210 rotates, a portion 230 of the object can rotate about the axis portion 210 together.
  • the distal portion 250 of the object may move based on user input, according to one embodiment.
  • the end portion 250 of the object may be rotated, rotated, or rotated.
  • FIG. 3 is a diagram for explaining a process of activating object control according to an embodiment.
  • a user can activate object control by selecting a button included in the controllers.
  • object control can be activated while simultaneously holding the buttons contained in each of the controllers with both hands of the user. At this time, if any one of the controllers is not selected or the button selection is canceled, the object control can be immediately deactivated. This prevents the malfunction of the object and stops the operation immediately when an unexpected situation occurs, so that the safety of the user can be secured.
  • FIG. 4 is a diagram for explaining a process of selecting an axis part of an object to be controlled according to an embodiment.
  • an axis part of an object to be controlled by a user may be selected according to an embodiment.
  • the axis portion 410 of the object that is touched by the hand of the user holding the controllers or pointed by the user's hand may be identified and selected as the portion the user wishes to control. 1 may be used to specify the axis portion 410 of the object designated by the user, and other sensors (e.g., an image sensor included in the HMD (Head Mounted Display)) may be used May be used.
  • HMD Head Mounted Display
  • the user can select the axis part 410 to be controlled from among the axis parts contained in the object with the right hand sensor.
  • 5 to 8 are views for explaining a process of rotating an axis portion of an object according to an embodiment.
  • an axis portion of an object may be rotated based on user input according to an embodiment.
  • the portion 510 to be rotated together as the axis portion of the object rotates can be identified and mapped to a line segment connecting the positions of the controllers.
  • the portion 510 may be rotated according to the rotation variation amount.
  • the rotated portion 550 from the original position 530 may be shown according to the amount of change in rotation.
  • FIG. 6 a process of rotating a portion of an object based on a rotation variation of a line segment measured using a rotation plane according to an embodiment is illustrated.
  • a line segment and a rotation plane for mathematically expressing the amount of change in rotation can be generated.
  • a line segment defined by the position of the controllers gripped by the user's two hands Can be generated.
  • the axis part of the object to be controlled A rotation plane perpendicular to Can be generated.
  • And rotation plane May not be visualized and provided to the user, Only the rotational variation amount of the line segment And the rotating object May not coincide with each other.
  • Previous line segment for user input And line segments after user input Respectively, The two line segments obtained by projecting , The rotation variation Can be calculated.
  • the ratio of rotation of the shaft portion ( ) can be determined.
  • the corresponding ratio x to be applied can be variously set.
  • the odds ratio or x is set based on the distance between the controllers, set by the user or, or may be determined adaptively according to the situation where the object is controlled. For example, when the situation in which the object is controlled is a situation requiring precise control (for example, robot surgery), the corresponding ratio x is determined to be small, and in a situation where rapid control is required rather than precision (for example, The corresponding ratio x may be largely determined.
  • the precision and speed of object control can be adjusted according to the distance between the controllers.
  • tension along the distance between the controllers can act on the controllers.
  • the greater the distance between the controllers the greater the tension that can be transmitted to both hands of the user gripping the controllers.
  • the precision and speed of the object control can be adjusted adaptively according to the situation of controlling the object by using the supporting member connecting the controllers.
  • the distances between the controllers at the corresponding ratios described above may be applied, and these examples are shown in Figs. 7B and 7C.
  • FIG. 7B shows a case where the distance 710 between the controllers is short
  • FIG. 7C shows a case where the distance 730 between the controllers is long.
  • the corresponding ratio can be set to be small when the object is controlled by the distance 730 between the controllers longer than that when the object is controlled by the distance 710 between the short controllers.
  • the amount of rotation of the axis portion of the object determined according to the rotation variation amount of the line segment can be determined to be small.
  • the shorter the distance between the controllers the larger the amount of rotation of the axis portion of the object, which is determined according to the amount of change in rotation, can be determined.
  • a clutching operation may be applied to the axial part control of an object.
  • a clipping operation that enables object control in a wider range of movement can be applied by overlapping repetitive motion even within the operating range of the limited controllers.
  • FIG. 9 is a diagram for explaining a process of activating object control according to an embodiment.
  • a user can activate object control by pressing a button included in the controllers.
  • object control can be activated while simultaneously holding the buttons contained in each of the controllers with both hands of the user. At this time, if any one of the controllers is not selected or the button selection is canceled, the object control can be immediately deactivated. This prevents the malfunction of the object and stops the operation immediately when an unexpected situation occurs, so that the safety of the user can be secured.
  • FIG. 10 is a diagram for explaining a process of selecting an end portion of an object to be controlled according to an embodiment.
  • an end portion of an object to be controlled by a user may be selected according to an exemplary embodiment.
  • the distal portion 1010 of the object that is touched by the hand of the user holding the controllers or pointed by the user's hand may be identified and selected as the portion the user wishes to control.
  • the sensors described in Fig. 1 may be used, and other sensors (e.g., image sensors included in the HMD) may be used .
  • the user can select the end portion 1010 to be controlled among the axis portions included in the object with the right hand detection.
  • 11 to 13 are views for explaining a process of controlling the movement of the end portion of the object according to an embodiment.
  • a distal portion of an object may move based on user input, according to one embodiment.
  • the end portion 1110 of the object may be identified and mapped to a reference plane 1130 defined by the controllers.
  • the reference plane 1130 is defined by controllers, and may include line segments connecting controllers on a three-dimensional space.
  • the distal end portion 1150 of the object can move based on at least one of the movement variation and the rotation variation of the reference plane 1170.
  • the accuracy and speed of object control can be adjusted according to the distance between the controllers according to an embodiment.
  • tension along the distance between the controllers can act on the controllers.
  • the greater the distance between the controllers the greater the tension that can be transmitted to both hands of the user gripping the controllers.
  • the size of the reference plane 1210 can be determined according to the distances of the controllers.
  • the reference plane 1210 is for controlling the distal portion of the object, and the reference plane 1210 can be set such that the controllers are located at the corners. The process of setting the reference plane 1210 will be described later with reference to Fig.
  • the precision and speed of control to rotate the object can be controlled through this principle. For example, if the distance between the controllers is close, the induced tension is weak and the distance that both hands must be moved is short, so that the precision of the control of rotating the object is lowered, while the speed is increased. On the contrary, when the distance between the controllers is long, the induced tension is strong and the distance by which the hands are moved is long, so that the precision of the control for rotating the object is increased, but the speed may be deteriorated.
  • the precision of the control for moving the object through this principle can be controlled. For example, when the distance between the controllers is close, the induced tension is weak, so that the precision of control to move the object may be degraded. Conversely, when the distance between the controllers is long, the induced tension is strong, so that the precision of the control for moving the object can be increased.
  • the distances between the controllers at the corresponding ratios described above can be applied, and these examples are shown in Figs. 12A and 12B.
  • FIG. 12A shows a case where the distance 1210 between the controllers is short
  • FIG. 12B shows a case where the distance 1230 between the controllers is long.
  • 12A and 12B when the object is controlled by the distance 1230 between the controllers longer than when the object is controlled by the distance 1210 between the short controllers, the amount of movement of the end portion of the object and / The amount of rotation variation can be caused to be small. That is, when the object is controlled by the distance 1230 between the controllers longer than that when the object is controlled by the distance 1210 between the short controllers, the corresponding ratio can be set to be small.
  • the longer the distance between the controllers the smaller the movement variation and / or the rotation variation of the reference plane can be determined.
  • the shorter the distance between the controllers the larger the amount of movement variation and / or the amount of rotation variation of the reference plane can be determined.
  • a clustering operation may be applied to end portion control of an object.
  • a clipping operation that enables object control in a wider range of movement can be applied by overlapping repetitive motion even within the operating range of the limited controllers.
  • FIGS. 14A and 14B are views for explaining a process of determining a movement amount and a rotation amount of an end portion of an object according to an embodiment.
  • the reference plane can be determined for mathematical expressions of movement and rotation.
  • the position of each of the controllers may be the center of the opposite sides of the reference plane.
  • the first vectors May represent an upward vector of each of the controllers.
  • the projected vectors Line segment Lt; / RTI >
  • step 1440 the second vector And passing through the middle position C of the controllers, As a horizontal axis, Can be determined.
  • the second vector May be the vertical vector of the reference plane.
  • the reference plane thus determined may not be visualized and displayed. Furthermore, since only the movement variation and the rotation variation of the reference plane are used, the plates at the end portions of the reference plane and the actual object may not coincide with each other.
  • the movement amount and the rotation amount of the distal end portion of the object may be calculated according to an embodiment.
  • the end portion of the object can be moved according to the amount of movement change of the center point C of the reference plane.
  • C represents the position before the movement
  • C ' represents the position after the movement. Therefore, Can represent the amount of movement change of the reference plane.
  • the amount of movement of the end of the object Can be determined by the following equation.
  • y can be set by various methods as a ratio of movement amount of the center point C of the reference plane to movement amount of the end portion of the object.
  • the corresponding ratio can be determined based on the size of the reference plane corresponding to the distance between the controllers. For example, as the size of the reference plane is larger, a smaller corresponding ratio is applied, so that the amount of movement of the end portion of the object can be determined to be smaller than the amount of movement of the center point C of the reference plane.
  • a corresponding ratio determined according to a situation set by a user or controlled by an object may be applied to determine the amount of movement of the end portion of the object.
  • the end portion of the object may be rotated according to the rotational variation of the vertical vector perpendicular to the reference plane.
  • 14B Represents the vertical vector of the reference plane before rotation, Represents the vertical vector of the reference plane after rotation.
  • a quaternion may be used to indicate the amount of change in rotation of the reference plane, . ≪ / RTI >
  • q represents a quaternion defining rotation, Reference plane before rotation, Can represent the reference plane after rotation.
  • the amount of rotation of the end portion of the object can be determined by the following equation.
  • Equation (2) Represents the amount of rotation of the end portion of the object.
  • x can be set by various methods, as the ratio of rotation variation of the vertical vector perpendicular to the reference plane to the rotation amount of the end portion of the object.
  • the corresponding ratio may be determined based on the size of the reference plane corresponding to the distance between the controllers, set by the user, or adaptively determined according to the situation in which the object is controlled.
  • the rotation amount of each axis included in the object can be determined and rotated through an inverse kinematic technique.
  • FIG. 15 is a diagram for explaining a process of visually providing an expected operation of an object to be controlled according to an embodiment.
  • an expected operation 1520 in which an object 1510 is controlled according to user input according to an embodiment is shown.
  • an expected operation 1520 in which an object 1510 is to be controlled according to a user input may be visually displayed and presented to a user rather than being instantly controlled according to user input.
  • the expected motion 1520 may be displayed semi-transparently on the HMD worn by the user and displayed simultaneously with the real space. After confirming the expected behavior 1520 of the object 1510 according to user input, the user can command control of the object, and the object 1510 can be actually controlled according to the command.
  • the user is visually provided with the expected operation 1520 of the object 1510 so that it is possible to confirm and modify the manner in which the object 1510 is controlled according to the user input so that more sophisticated object control can be enabled.
  • an object control method and apparatus may control an object by determining user input from one or two controllers (see FIGS. 16 through 25), or may use a user input To control the object (see Figs. 26 to 35). This will be described in detail with reference to the following drawings.
  • Figures 16-20 illustrate examples of controlling an end portion of an object using one or two controllers according to one embodiment.
  • FIG. 16 an example for explaining a process of controlling an end portion of an object using one controller according to an embodiment is shown.
  • the position and angle of the controller held by one hand of the user can be tracked in real time.
  • the sensor may include an image sensor, an infrared sensor, or the like.
  • the controller may additionally include an element for improving the tracking accuracy of the sensor, but may not be included according to the embodiment.
  • the control mode can be activated. In other words, it is detected whether the button of the controller is selected, and the control mode can be activated if the button of the controller is selected. Conversely, when the button of the controller is not selected, the control mode can be released. Object control is not performed while the control mode is released.
  • pressing of the button of the controller by the user corresponds to the generation of the control activation / deactivation command by the user, and in particular, it may be an instruction to activate the control.
  • the reference plane whose position and rotation are relatively fixed with respect to the body of the controller can be determined with the button position of the controller as the center.
  • the reference plane is a virtual plane for object control and can be mapped to the end portion of the object to be controlled.
  • the position of the end portion of the object can be controlled by applying a movement change amount to the center point of the reference plane while operating in the control mode to the end portion of the object.
  • the user input is determined based on the movement variation of the reference plane, and the position of the end portion of the object can be controlled according to the determined user input.
  • a second reference plane whose position and rotation are relatively fixed with respect to the distal end portion of the object is determined, and the second reference plane is moved in accordance with the movement variation with respect to the center point of the reference plane, Can be controlled.
  • the rotation of the distal portion of the object can be controlled by applying a rotational variation to the center point of the reference plane to the distal portion of the object.
  • the user input is determined based on the rotational variation of the reference plane, and the rotation of the end portion of the object can be controlled according to the determined user input.
  • a second reference plane whose position and rotation are relatively fixed with respect to the distal end portion of the object is determined, and the second reference plane is rotated according to the rotational variation with respect to the center point of the reference plane, Can be controlled.
  • the user input is determined based on at least one of the movement variation and the rotation variation of the reference plane, and at least one of the position and rotation of the end portion of the object may be controlled according to the determined user input.
  • the user input may be determined by applying a predetermined corresponding ratio to the movement variation amount with respect to the center point of the reference plane.
  • the corresponding ratio is determined to be 1, and the amount of movement change with respect to the center point of the reference plane is directly applied to the user input, so that the position of the end portion of the object can be shifted by the amount of movement change with respect to the center point of the reference plane.
  • the corresponding ratio can be adaptively determined based on the moving speed with respect to the center point of the reference plane according to the embodiment.
  • the corresponding ratio is determined to be larger than 1, so that the position of the end portion of the object can be shifted more than the shift amount of the center plane of the reference plane.
  • the slower the moving velocity of the center point of the reference plane the smaller the corresponding ratio is determined to be 1, so that the position of the distal end of the object can be shifted less than the movement variation with respect to the center point of the reference plane.
  • various elements may be used without limitation to the corresponding decision-making.
  • a predetermined corresponding ratio may be applied to the rotational variation with respect to the center point of the reference plane to determine the user's input, and the detailed description thereof will be omitted because the foregoing description can be applied as it is.
  • the corresponding ratio according to an embodiment may be associated with control accuracy. As the corresponding ratio is smaller than 1, the variation of the reference plane is reflected less at the end portion of the object, so that the control precision is higher. On the other hand, the control precision is lower because the change amount of the reference plane is reflected more at the end portion of the object as the corresponding ratio is larger than 1.
  • the controller may additionally be connected to a support member.
  • the support member may connect the controller to a fixed position, or may be connected to various parts of the user's waistband, user's feet, and the like. Through this support member, it is possible to stabilize the hand movement of gripping the controller and improve the accuracy of the control, and the accuracy and speed of object control can be adjusted adaptively according to the work situation.
  • the support member may include a length varying member having an elastic force and a length varying member having no elastic force.
  • the length-changeable member having an elastic force may represent a stretchable material such as a rubber band or a spring.
  • a length-adjustable member having no elastic force may represent a non-stretchable material such as a mechanical linkage or a polyarticular member.
  • FIG. 18 an example for explaining a process of controlling an end portion of an object using two controllers according to an embodiment is shown.
  • the positions and angles of the controllers gripped by the user's two hands can be tracked in real time.
  • the sensor may include an image sensor, an infrared sensor, or the like.
  • Each of the controllers may separately include an element for improving the tracking accuracy of the sensor, but may not be included according to the embodiment.
  • the control mode can be activated. In other words, it is detected whether the buttons of the controllers have been selected, and the control mode can be activated if the buttons of the controllers are selected. At this time, the control mode activation can be performed only when all the buttons of the two controllers are selected, and the control mode can be released if none of the buttons of the controllers is selected.
  • a reference plane having a relatively fixed vertical direction with respect to a controller body can be determined with respect to the center of the position of the buttons of the controllers while passing through the positions of the buttons of the controllers while operating in the control mode.
  • the reference plane is a virtual plane for object control and can be mapped to the end portion of the object to be controlled.
  • the position of the end portion of the object can be controlled by applying a movement variation to the center point of the reference plane to the end portion of the object.
  • the rotation of the distal portion of the object can be controlled by applying a rotational variation to the center point of the reference plane to the distal portion of the object.
  • the process of controlling the position and / or rotation of the end portion of the object based on the movement change amount and / or the rotation change amount with respect to the center point of the reference plane may be applied as it is in FIG. 16, .
  • the user input may be determined by applying a predetermined corresponding ratio to the movement variation amount with respect to the center point of the reference plane.
  • the corresponding ratio can be determined based on the distance between the two controllers. The shorter the distance between the two controllers, the larger the correspondence ratio is determined than 1, so that the position of the end portion of the object can be shifted more than the movement variation with respect to the center point of the reference plane. Conversely, the greater the distance between the two controllers, the smaller the corresponding ratio is determined to be 1, so that the position of the end portion of the object can be shifted less than the movement variation with respect to the center point of the reference plane.
  • various factors such as the moving speed and the rotation speed with respect to the center point of the reference plane can be used without limitation to the corresponding decision.
  • a predetermined corresponding ratio may be applied to the rotational variation with respect to the center point of the reference plane to determine the user's input, and the detailed description thereof will be omitted because the foregoing description can be applied as it is.
  • FIG. 19 an example is shown in which two controllers are connected to a variable length member according to one embodiment.
  • the controllers may additionally be connected to a variable length member.
  • the variable length member it is possible to stabilize the hand motion for gripping the controllers, thereby improving the accuracy of the control, and the accuracy and speed of the object control can be adaptively adjusted according to the work situation.
  • the controllers may additionally be connected to a length fixing member.
  • the length fixing member may be a non-stretchable and length-variable member.
  • the two controllers connected by the length fixing member may be substantially a single member such as a game pad, a remote control, or the like.
  • the control of the hand can be stabilized by gripping the controllers through the length fixing member, and the accuracy and speed of object control can be adaptively adjusted according to the work situation.
  • Figures 21 to 25 illustrate examples of controlling an axis portion of an object using one or two controllers according to one embodiment.
  • the object to be controlled may include one or more axis portions.
  • a process of selecting one axis portion to be controlled from among a plurality of axis portions may be performed prior to axis control.
  • the position and angle of the controller held in one hand of the user can be tracked in real time.
  • the sensor may include an image sensor, an infrared sensor, or the like.
  • the controller may additionally include an element for improving the tracking accuracy of the sensor, but may not be included according to the embodiment.
  • the control mode can be activated. In other words, it is detected whether the button of the controller is selected, and if the button of the controller is selected, the control mode is activated, whereas if the button of the controller is not selected, the control mode can be released.
  • a reference bar passing through the button position of the controller while operating in the control mode, and parallel to the main body of the controller and relatively fixed in position and rotation with respect to the controller, can be determined.
  • the determined reference bar can be projected perpendicular to a plane perpendicular to the axis of the object to be controlled.
  • the reference bar may be a virtual bar for object control.
  • the rotation variation of the projected reference bar can be applied to the axis portion of the object so that the rotation of the axis portion of the object can be controlled.
  • the user input is determined based on the rotational variation of the projected reference bar, and the rotation of the axis portion of the object can be controlled according to the determined user input.
  • a predetermined correspondence ratio may be applied to the amount of rotation variation of the projected reference bar so that the user input can be determined.
  • the corresponding ratio is determined to be 1, and the amount of change in rotation of the projected reference bar is applied to the user input as it is, and the axis portion of the object can be rotated by the amount of change in rotation of the projected reference rod.
  • the corresponding ratio may be adaptively determined based on the rotational velocity of the projected reference bar in accordance with the embodiment. For example, the faster the rotation speed of the projected reference bar, the greater the corresponding ratio is determined than 1, so that the axis portion of the object can rotate more than the projected reference bar rotation variation. Conversely, the slower the rotation speed of the projected reference bar, the smaller the corresponding ratio is determined to be 1, so that the axis portion of the object can rotate less than the projected reference bar rotation variation.
  • various factors can be used without limitation to the corresponding decision.
  • the controller may additionally be connected to a support member.
  • the support member may connect the controller to a fixed position, and may also be connected to various parts of the user's waistband, the user's feet, and the like.
  • the support member may include a length varying member having an elastic force and a length varying member having no elastic force.
  • FIG. 23 an example for explaining a process of controlling an axis portion of an object using two controllers according to an embodiment is shown.
  • the positions and angles of the controllers gripped by the user's two hands can be tracked in real time.
  • the sensor may include an image sensor, an infrared sensor, or the like.
  • Each of the controllers may separately include an element for improving the tracking accuracy of the sensor, but may not be included according to the embodiment.
  • the control mode can be activated. In other words, it is detected whether the buttons of the controllers have been selected, and the control mode can be activated if the buttons of the controllers are selected. At this time, the control mode activation can be performed only when all the buttons of the two controllers are selected, and the control mode can be released if none of the buttons of the controllers is selected.
  • a reference bar passing through the locations of the buttons of the controllers may be determined.
  • the determined reference bar can be projected perpendicular to a plane perpendicular to the axis of the object to be controlled.
  • the reference bar may be a virtual bar for object control.
  • the rotation variation of the projected reference bar can be applied to the axis portion of the object so that the rotation of the axis portion of the object can be controlled.
  • the user input is determined based on the rotational variation of the projected reference bar, and the rotation of the axis portion of the object can be controlled according to the determined user input.
  • a predetermined correspondence ratio may be applied to the amount of rotation variation of the projected reference bar so that the user input can be determined.
  • the corresponding ratio can be determined based on the distance between the two controllers. The shorter the distance between the two controllers, the larger the correspondence ratio is determined than 1, so that the axis portion of the object can rotate more than the rotation variation of the projected reference bar. Conversely, the greater the distance between the two controllers, the smaller the corresponding ratio is determined to be 1, so that the axis portion of the object can rotate less than the rotational variation of the projected reference rod.
  • various factors such as the rotational speed of the projected reference bar can be used without limitation to the corresponding decision.
  • FIG. 24 an example is shown in which two controllers are connected to a variable length member according to one embodiment.
  • Fig. 25 an example is shown in which two controllers are connected to a length fixing member according to one embodiment.
  • the above description of the length-varying member and the length-fixing member can be applied as it is, so that a detailed description will be omitted.
  • Figures 26-30 illustrate examples of controlling end portions of an object based on user input determined from one hand or two hands in accordance with one embodiment.
  • the user input can be determined based on the movement of the user's hand without the controller, and the object can be controlled according to the determined user input. Since the user does not need to grip the controller, the degree of freedom of the user's motion is improved and the object can be controlled with a more natural movement.
  • the present invention will be described in detail with reference to the drawings.
  • FIG. 26 an example is illustrated to illustrate a process for controlling an end portion of an object based on user input determined from one hand of a user according to an embodiment.
  • the position and angle of one hand of the user and the joint angle of the thumb and index finger can be tracked in real time through the sensor.
  • the sensor may include an image sensor, a depth sensor, and the like.
  • the control mode can be activated. Conversely, if the fingertips are apart from each other and the contact of the fingertips is lost, the control mode can be released.
  • a predetermined gesture e.g., a predetermined hand gesture such as a fist is held
  • the control mode is activated, and when the gesture is lost, Mode may be released.
  • the control mode may be activated depending on whether or not contact of at least two of the fingers of the user has occurred, without being limited to the thumb and forefinger.
  • the contact of the thumb and forefinger corresponds to the generation of the control activation / deactivation command by the user, and in particular, it may be an instruction to activate the control.
  • the reference plane including the thumb axis and the index finger axis may be determined centering on the contact point between the thumb and index finger during operation in the control mode.
  • the reference plane may be determined so as to include the axis of each of the two fingers that are in contact with each other with respect to the contact point of the two fingers that are in contact with each other without being limited to the thumb and index finger according to the embodiment.
  • the reference plane is a virtual plane for object control and can be mapped to the end portion of the object to be controlled.
  • the position of the end portion of the object can be controlled by applying a movement change amount to the center point of the reference plane while operating in the control mode to the end portion of the object.
  • the rotation of the distal portion of the object can be controlled by applying a rotational variation to the center point of the reference plane to the distal portion of the object. In this case, only the position of the end portion of the object is controlled if only the movement change amount with respect to the center point of the reference plane is present, and only the rotation of the end portion of the object is controlled when only the rotation change amount with respect to the center point of the reference plane exists.
  • both the position and the rotation of the end portion of the object can be controlled.
  • the user input may be determined by applying a predetermined corresponding ratio to the movement variation amount with respect to the center point of the reference plane.
  • Fig. 27 there is shown an example in which one hand of a user is connected to a support member in accordance with one embodiment.
  • one hand of the user may additionally be connected to the support member.
  • the support member may connect the controller to a fixed position, or may be connected to various parts of the user's waistband, user's feet, and the like.
  • the support member may include a length varying member having an elastic force and a length varying member having no elastic force.
  • FIG. 28 an example is illustrated to illustrate the process of controlling an end portion of an object based on user input determined from two hands of a user, according to one embodiment.
  • the position and angle of the user's two hands and the joint angle of the thumb and forefinger can be tracked in real time through the sensor.
  • control mode when the thumb and finger fingers of the two hands are in contact with each other, the control mode can be activated. Conversely, if the fingertips of the two hands are apart from each other and the contact of the fingertips is lost, the control mode can be released. At this time, even if the fingertips of one hand of the two hands fall off, the control mode can be released.
  • activation of the control mode may be determined depending on whether or not two predetermined hand gestures are detected from the user.
  • a reference plane passing through the contact points of the fingers of each of the two hands and perpendicular to the thumb axis of either hand about the center of the contact points can be determined.
  • the reference plane is a virtual plane for object control and can be mapped to the end portion of the object to be controlled.
  • the position of the end portion of the object can be controlled by applying a movement change amount to the center point of the reference plane while operating in the control mode to the end portion of the object.
  • the rotation of the distal portion of the object can be controlled by applying a rotational variation to the center point of the reference plane to the distal portion of the object.
  • the user input may be determined by applying a predetermined corresponding ratio to the movement variation amount with respect to the center point of the reference plane. For example, the corresponding ratio can be determined based on the distance between the two hands.
  • a variable length member can stabilize the hand movement to improve the accuracy of the control, and the accuracy and speed of the object control can be adjusted adaptively according to the work situation.
  • a length fixing member may be a non-stretchable and length-variable member.
  • Such a length fixing member can stabilize the hand movement to improve the accuracy of the control, and the accuracy and speed of the object control can be adaptively adjusted according to the work situation.
  • 31-35 illustrate examples of controlling an axis portion of an object based on user input determined from one hand or two hands in accordance with an embodiment.
  • the object to be controlled may include one or more axis portions.
  • a process of selecting one axis portion to be controlled from among a plurality of axis portions may be performed prior to axis control.
  • the position and angle of one hand of the user, the joint angle of the thumb and the index finger, and the position and angle of the palm surface can be tracked in real time through the sensor.
  • control mode can be activated. Conversely, if the fingertips are apart from each other and the contact of the fingertips is lost, the control mode can be released.
  • a reference bar parallel to the palm of the hand can be determined through the center of the ring consisting of the thumb and index finger vertically.
  • the determined reference bar can be projected perpendicular to a plane perpendicular to the axis of the object to be controlled.
  • the reference bar may be a virtual bar for object control.
  • the rotation variation of the projected reference bar can be applied to the axis portion of the object so that the rotation of the axis portion of the object can be controlled.
  • the user input is determined based on the rotational variation of the projected reference bar, and the rotation of the axis portion of the object can be controlled according to the determined user input.
  • a predetermined correspondence ratio may be applied to the amount of rotation variation of the projected reference bar so that the user input can be determined.
  • the support member may connect the controller to a fixed position, and may also be connected to various parts of the user's waistband, the user's feet, and the like.
  • the support member may include a length varying member having an elastic force and a length varying member having no elastic force.
  • FIG. 33 an example is illustrated to illustrate the process of controlling an axis portion of an object based on user input determined from two hands of a user according to an embodiment.
  • the thumb and index finger positions of the user's two hands can be tracked in real time.
  • control mode can be activated. Conversely, if the fingertips are apart from each other and the contact of the fingertips is lost, the control mode can be released.
  • a reference bar passing through the contact points of the fingers of both hands can be determined.
  • the determined reference bar can be projected perpendicular to a plane perpendicular to the axis of the object to be controlled.
  • the rotation variation of the projected reference bar can be applied to the axis portion of the object so that the rotation of the axis portion of the object can be controlled.
  • the user input is determined based on the rotational variation of the projected reference bar, and the rotation of the axis portion of the object can be controlled according to the determined user input.
  • a predetermined correspondence ratio may be applied to the amount of rotation variation of the projected reference bar so that the user input can be determined.
  • the corresponding ratio can be determined based on the distance between the two hands of the user.
  • FIG. 34 an example is shown in which two hands of a user are connected to a length-adjustable member according to one embodiment.
  • 35 an example is shown in which two hands of a user are connected to a length fixing member according to one embodiment.
  • the above description of the length-varying member and the length-fixing member can be applied as it is, so that a detailed description will be omitted.
  • 36 is a diagram illustrating an object control method according to an embodiment.
  • FIG. 36 there is shown an object control method performed by a processor of an object control apparatus according to an embodiment.
  • the object control device senses a control activation / deactivation command generated by the user.
  • the object control device detects a user command including a movement change amount command and a rotation change amount command in a state in which a control activation / deactivation command is sensed.
  • the object control apparatus determines the user input by the movement change amount instruction and the rotation change amount instruction.
  • the object control device controls the object according to user input.
  • FIG. 37 is a diagram illustrating an object control apparatus according to an embodiment.
  • an object control device 3700 includes a sensor 3710, a processor 3720, and an object 3730.
  • the object control device 3700 may further include a controller 3740 according to an embodiment.
  • the sensor 3710, the processor 3720, the object 3730 and the controller 3740 included in the object control device 3700 can perform communication based on at least one of a wired network and a wireless network.
  • the sensor 3710 may also be referred to as sensing means.
  • Controller 3740 may also be referred to as user command delivery means. Since the object control device 3700 can process the above-described operations, a detailed description will be omitted.
  • the embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components.
  • the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • OS operating system
  • the processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG.
  • the processing apparatus may comprise a plurality of processors or one processor and one controller.
  • Other processing configurations are also possible, such as a parallel processor.
  • the software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded.
  • the software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave.
  • the software may be distributed over a networked computer system and stored or executed in a distributed manner.
  • the software and data may be stored on one or more computer readable recording media.
  • the method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination.
  • the program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software.
  • Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
  • program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
  • the components described in the embodiments may be implemented by a programmable logic device such as one or more DSP (Digital Signal Processor), a processor, a controller, an application specific integrated circuit (ASIC), and a field programmable gate array Logic Element, other electronic devices, and combinations thereof.
  • DSP Digital Signal Processor
  • ASIC application specific integrated circuit
  • At least some of the functions or processes described in the embodiments may be implemented by software, and the software may be recorded in a recording medium.
  • the components, functions and processes described in the embodiments may be implemented by a combination of hardware and software.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

객체 제어 방법 및 객체 제어 장치가 개시된다. 개시된 객체 제어 방법은 사용자에 의해 생성되는 제어 활성화/비활성화 명령을 감지하고, 상기 제어 활성화/비활성화 명령이 감지되는 상태에서, 이동 변화량 명령 및 회전 변화량 명령을 포함하는 사용자 명령을 감지하고, 상기 이동 변화량 명령 및 상기 회전 변화량 명령에 의한 사용자 입력을 결정하며, 상기 사용자 입력에 따라 객체를 제어한다.

Description

객체 제어 방법 및 객체 제어 장치
아래의 설명은 객체 제어 방법 및 장치에 관한 것으로, 보다 구체적으로는 한 개 또는 두 개의 컨트롤러로부터 사용자 입력을 결정하거나 제어 방법 및 장치와 한 손 또는 두 손으로부터 사용자 입력을 결정하여 객체를 제어하는 방법 및 장치에 관한 것이다.
산업용 로봇은 인간 작업자에 비해 반복적인 작업을 빠르고 정교하게 수행할 수 있기 때문에 현대 산업현장에서 필수불가결한 생산도구로 이용되어 왔다. 그 중 협동로봇은 인간 작업자와 로봇의 유기적인 협업을 강조하는 미래 4차산업 스마트 생산 개념의 핵심 요소로 부상하고 있다. 다양한 상황에 유연하게 대처할 수 있는 인간 작업자의 판단력에 로봇의 효율성과 정밀성을 더하여 로봇이 적용될 수 없었던 다양한 산업현장에서 생산성이 극대화될 것으로 예상된다.
협동 로봇을 제어하는 방법에는 다음의 두 가지 기법이 있다. 첫 번째로, 작업자가 직접 협동로봇의 몸체에 힘을 가해 움직임을 지시/기록하는 기법이 있다. 그러나, 이러한 기법은 로봇을 움직이게 하기 위한 작업자의 상당한 외력이 필요하고, 작업자가 모든 방향에서 로봇에 가깝게 접근하여 만질 수 있어야 하므로 다양한 설치 환경 변화에 취약하다는 문제점이 있다.
두 번째로, 작업자가 별도로 연결된 단말기의 버튼을 눌러 로봇 움직임을 지시/기록하는 기법이 있다. 그러나, 이러한 기법은 이동 방향이 로봇 기준으로 고정된 절대 좌표계 상에서 정의되어 있으므로 작업자가 본인의 위치/방향에 따라 로봇의 이동 방향에 대해 혼동하기 쉬우며, 한 번에 하나의 이동 방향/축 만을 제어할 수 있어 간단한 움직임조차 지나치게 반복적이게 되어 조작 성능 및 안전이 저하된다는 문제점이 있다.
이러한 문제점들을 해결 가능한 객체 제어 기법이 요구된다.
본 발명은 사용자가 어떠한 위치에서도 자신의 위치에서 보이는 대로 객체를 제어할 수 있다. 조작 대상인 객체에 시선을 유지한 채 객체의 동작을 즉각적으로 확인하며 조작/대처 가능하다.
본 발명은 복합적인 움직임을 한번에 수행함으로써 기존 방법보다 작업시간이 단축될 수 있다. 조작법이 실제 물체(막대, 평판)를 움직이는 방식과 동일하여 비전문 사용자까지 단기에 학습하여 사용할 수 있다.
본 발명은 길이 가변 부재 및 길이 고정 부재를 포함하는 지지부재를 활용하여 즉각적, 동적으로 조작의 정밀도 및 신속도를 작업 상황에 따라 조절 가능하다.
본 발명은 한 손 또는 두 손을 활용함으로써, 인체의 손목 및 팔 관절의 제한적 가동 범위를 극복하여 보다 넓은 가동 범위의 조작이 가능하며, 지지부재를 더 활용할 경우 허공에서 손을 움직이는 것 보다 안정적인 제어 가능하다.
일실시예에 따른 객체 제어 방법은 사용자에 의해 생성되는 제어 활성화/비활성화 명령을 감지하는 단계; 상기 제어 활성화/비활성화 명령이 감지되는 상태에서, 이동 변화량 명령 및 회전 변화량 명령을 포함하는 사용자 명령을 감지하는 단계; 상기 이동 변화량 명령 및 회전 변화량 명령에 의한 사용자 입력을 결정하는 단계; 및 상기 사용자 입력에 따라 객체를 제어하는 단계를 포함한다.
일실시예에 따른 객체 제어 방법에서 상기 사용자 명령을 감지하는 단계는 상기 사용자의 한 손 제스처 및 양 손의 제스처 중 어느 하나에 의해 생성되는 상기 사용자 명령을 감지할 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 제어 활성화/비활성화 명령을 감지하는 단계는 미리 약정된 특정 모양의 손 제스처의 감지여부를 통해 제어 활성화/비활성화 명령을 감지할 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 미리 약정된 특정 모양의 손 제스처는 상기 사용자의 손가락들 중 적어도 두 개의 손가락들을 서로 접촉시키는 제스처 및 상기 사용자가 주먹을 쥐는 제스처 중 어느 하나일 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 사용자 입력을 결정하는 단계는 사용자의 한 손 또는 두 손에 의해 생성된 제스처에 기초하여 가상의 기준 도형을 설정하고, 상기 설정된 기준 도형의 이동 변화량 및 회전 변화량에 따라 상기 객체의 이동량 및 회전량을 결정할 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 가상의 기준 도형은 상기 사용자의 한 손의 손가락들 중 서로 접촉된 두 손가락들의 접촉점에 고정되는 평면일 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 가상의 기준 도형은 상기 사용자의 두 손의 손가락들 중 각 손의 서로 접촉된 손가락들의 접촉점에 고정되는 평면일 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 가상의 기준 도형은 상기 사용자의 한 손을 기준으로 1차적으로 형성되고, 상기 객체의 축에 수직한 평면에 투영되어 2차적으로 형성되는 막대일 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 가상의 기준 도형은 상기 사용자의 두 손의 손가락들 중 각 손의 서로 접촉된 산가락들의 접촉점을 기준으로 1차적으로 형성되고, 상기 객체의 축에 수직한 평면에 투영되어 2차적으로 형성되는 막대일 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 사용자 입력을 결정하는 단계는 상기 사용자의 두 손 간 거리에 기초하여 대응비를 결정하고, 상기 대응비에 따른 상기 이동 변화량 및 상기 회전 변화량을 상기 사용자 입력에 반영시킬 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 대응비는 상기 사용자의 두 손 간 거리가 짧을수록 크게 결정될 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 사용자 명령을 감지하는 단계는 상기 사용자의 한 손 또는 양 손에 의해 파지되고, 신호 발생 스위치를 구비하는 한 개 또는 두 개의 컨트롤러에서 생성되는 사용자 명령을 감지할 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 제어 활성화/비활성화 명령을 감지하는 단계는 상기 컨트롤러에 구비된 스위치의 온/오프(ON/OFF) 감지를 통해 상기 제어 활성화/비활성화 명령을 감지할 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 사용자 입력을 결정하는 단계는 상기 한 개 또는 두 개의 컨트롤러를 기준으로 가상의 기준 도형을 설정하고, 상기 설정된 기준 도형의 이동 변화량 및 회전 변화량에 따라 객체의 이동량 및 회전량을 결정할 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 가상의 기준 도형은 상기 사용자의 한 손에 의해 파지된 컨트롤러의 특정 위치에 고정되는 평면일 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 가상의 기준 도형은 상기 사용자의 두 손에 의해 파지된 컨트롤러들의 특정 위치들에 고정되는 평면일 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 가상의 기준 도형은 상기 사용자의 한 손에 의해 파지된 컨트롤러의 길이 또는 폭 방향으로 1차적으로 형성되고, 상기 객체의 축에 수직한 평면에 투영되어 2차적으로 형성되는 막대일 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 가상의 기준 도형은 상기 사용자의 두 손에 의해 파지된 컨트롤러들의 특정 위치들을 관통하도록 1차적으로 형성되고, 상기 객체의 축에 수직한 평면에 투영되어 2차적으로 형성되는 막대일 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 사용자 입력을 결정하는 단계는 상기 사용자의 두 손에 의해 파지된 컨트롤러들 간 거리에 기초하여 대응비를 결정하고, 상기 대응비에 따른 상기 이동 변화량 및 상기 회전 변화량을 상기 사용자 입력에 반영시킬 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 대응비는 상기 컨트롤러들 간 거리가 짧을수록 크게 결정될 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 객체를 제어하는 단계는 상기 객체의 말단 부분 또는 축 부분을 제어할 수 있다.
일실시예에 따른 객체 제어 방법에서 상기 객체를 제어하는 단계는 실물 객체 및 가상 현실(VR; Virtual Reality)이나 증강 현실(AR; Augmented Reality)의 가상 객체 중 어느 하나를 제어할 수 있다.
일실시예에 따른 객체 제어 장치는 사용자에 의해 생성되는 제어 활성화/비활성화 명령, 이동 변화량 명령 및 회전 변화량 명령을 감지하는 감지수단; 및 상기 감지수단이 감지한 신호를 입력받아 사용자 명령을 인식하고 인식된 사용자 명령에 대응하는 제어신호를 객체에 적용하는 프로세서를 포함한다.
일실시예에 따른 객체 제어 장치는 상기 사용자가 파지가능한 기구물로 구성되고 상기 사용자 명령을 상기 감지수단으로 전달하기 위한 사용자 명령 전달 수단을 더 포함할 수 있다.
일실시예에 따른 객체 제어 장치에서 상기 사용자 명령 전달 수단은 상기 사용자가 한 손에 의해 파지되고 제어 활성화/비활성화 신호 발생용 스위치를 구비한 컨트롤러를 포함할 수 있다.
일실시예에 따른 객체 제어 장치는 상기 컨트롤러를 고정하기 위한 지지부재를 더 포함할 수 있다.
일실시예에 따른 객체 제어 장치에서 상기 지지부재는 탄성력을 가지는 길이 가변 부재 및 탄성력이 없는 길이 가변 부재 중 어느 하나일 수 있다.
일실시예에 따른 객체 제어 장치에서 상기 사용자 명령 전달 수단은 상기 사용자가 양 손 각각에 의해 파지되는 두 개의 컨트롤러들을 포함하되, 적어도 하나의 컨트롤러에는 제어 활성화/비활성화 신호 발생용 스위치가 구비될 수 있다.
일실시예에 따른 객체 제어 장치는 상기 두 개의 컨트롤러들을 물리적으로 연결하기 위한 지지부재를 더 포함할 수 있다.
일실시예에 따른 객체 제어 장치에서 상기 지지부재는 탄성력을 가지는 길이 가변 부재 또는 탄성력이 없는 길이 가변 부재 중 어느 하나일 수 있다.
일실시예에 따르면, 한 개 또는 두 개의 컨트롤러들을 이용하거나, 또는 한 손 또는 두 손을 통해 객체를 제어함으로써, 3차원 공간 상에서 물체의 이동 또는 조작 등의 복잡한 작업을 효과적으로 수행할 수 있으며, 이로써 다양한 산업 분야의 작업 환경에서 로봇 비전문가 사용자들도 손쉽고 빠르게 객체 제어가 가능하다. 또한, 컨트롤러 또는 사용자 손이 지지부재에 연결되어 조작을 안정시킬 수 있으며, 정밀성, 신속성의 조절이 가능해 질 수 있다.
일실시예에 따르면, 선분/기준 평면 모델, 지지부재를 활용한 안정성, 클러칭 기법을 특징으로 가지는 한 손 또는 두 손 인터랙션을 통하여, 인체 구조 상 한계를 극복하고 보다 높은 정밀도와 넓은 가동 범위가 보장될 수 있다.
도 1은 일실시예에 따라 객체 제어 시스템을 나타낸 도면이다.
도 2a 및 도 2b는 일실시예에 따라 객체를 제어하는 형태를 설명하기 위한 도면이다.
도 3은 일실시예에 따라 객체 제어를 활성화시키는 과정을 설명하기 위한 도면이다.
도 4는 일실시예에 따라 제어하고자 하는 객체의 축 부분을 선택하는 과정을 설명하기 위한 도면이다.
도 5 내지 도 8은 일실시예에 따라 객체의 축 부분을 회전시키는 과정을 설명하기 위한 도면이다.
도 9는 일실시예에 따라 객체 제어를 활성화시키는 과정을 설명하기 위한 도면이다.
도 10은 일실시예에 따라 제어하고자 하는 객체의 말단 부분을 선택하는 과정을 설명하기 위한 도면이다.
도 11 내지 도 13은 일실시예에 따라 객체의 말단 부분의 움직임을 제어하는 과정을 설명하기 위한 도면이다.
도 14a 및 도 14b는 일실시예에 따라 객체의 말단 부분의 이동량 및 회전량을 결정하는 과정을 설명하기 위한 도면이다.
도 15는 일실시예에 따라 제어될 객체의 예상 동작을 시각적으로 제공하는 과정을 설명하기 위한 도면이다.
도 16 내지 도 20은 일실시예에 따른 한 개 또는 두 개의 컨트롤러를 이용하여 객체의 말단 부분을 제어하는 예시들을 나타낸다.
도 21 내지 도 25는 일실시예에 따른 한 개 또는 두 개의 컨트롤러를 이용하여 객체의 축 부분을 제어하는 예시들을 나타낸다.
도 26 내지 도 30은 일실시예에 따른 한 손 또는 두 손으로부터 결정된 사용자 입력에 기반하여 객체의 말단 부분을 제어하는 예시들을 나타낸다.
도 31 내지 도 35는 일실시예에 따른 한 손 또는 두 손으로부터 결정된 사용자 입력에 기반하여 객체의 축 부분을 제어하는 예시들을 나타낸다.
도 36은 일실시예에 따라 객체 제어 방법을 나타낸 도면이다.
도 37은 일실시예에 따라 객체 제어 장치를 나타낸 도면이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 아래의 특정한 구조적 내지 기능적 설명들은 단지 실시예들을 설명하기 위한 목적으로 예시된 것으로, 실시예의 범위가 본문에 설명된 내용에 한정되는 것으로 해석되어서는 안된다. 관련 기술 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타내며, 공지된 기능 및 구조는 생략하도록 한다.
도 1은 일실시예에 따라 객체 제어 시스템을 나타낸 도면이다.
도 1을 참조하면, 일실시예에 따른 객체 제어 시스템은 객체(110), 컨트롤러들(120), 센서들(130)을 포함한다.
일실시예에 따른 객체(110)는 제어의 대상이 되는 객체로서, 예를 들어, 사용자가 제어하고자 하는 원격 객체, 또는 가상 현실(VR; Virtual Reality)이나 증강 현실(AR; Augmented Reality)에 포함된 가상 객체를 포함할 수 있다.
여기서, 원격 객체는 산업용 로봇(예컨대, 협동 로봇(collaborative robot)), 드론(drone), 드론에 장착된 카메라 등 다양한 현실 세계의 객체를 제한 없이 포함할 수 있다. 도 1에 예시적으로 도시된 것처럼, 객체(110)는 하나 이상의 축 부분과 말단 부분을 포함할 수 있다. 객체(110)는 하나 이상의 축 부분의 회전과 말단 부분의 이동/회전에 기반하여 동작할 수 있다.
일실시예에 따른 가상 객체는 사용자가 체험하는 가상 현실 또는 증강 현실에 포함된 객체일 수 있다. 예를 들어, 가상 객체는 게임 속 가상 현실에서 사용자가 제어하고자 하는 객체일 수 있다.
일실시예에 따른 컨트롤러들(120)은 지지부재로 서로 연결될 수 있다. 여기서, 지지부재는 탄성력을 가지는 길이 가변 부재, 탄성력이 없는 길이 가변 부재, 길이 고정 부재를 포함할 수 있다. 탄성력을 가지는 길이 가변 부재는 고무 밴드, 용수철, 물질 자체로 신축성이나 탄성력을 가지지는 않지만 공압 또는 여러 기계적 장치를 이용하여 탄성력/복원력을 가지도록 설계된 매케니컬 링키지(mechanical linkage), 다관절 부재 등의 장치를 포함할 수 있다. 탄성력이 없는 길이 가변 부재는 탄성력/복원력을 가지지 않도록 설계된 메케니컬 링키지, 다관절 부재 등의 장치를 포함할 수 있다. 길이 고정 부재는 막대, 케이블 등을 포함할 수 있다.
컨트롤러들(120)은 사용자의 양손에 파지될 수 있다. 컨트롤러들(120)이 지지부재로 서로 연결됨으로써 해당 컨트롤러들(120)을 쥐고 있는 양손에 장력이 유도될 수 있고, 이러한 장력을 통해 양손 조작의 안정화, 정밀성, 신속성이 조절될 수 있다. 다시 말해, 컨트롤러들(120) 사이에 연결된 지지부재를 통해, 허공에서 양손을 움직이는 것보다 안정적인 객체 제어가 가능할 수 있다. 컨트롤러들(120)은 하나 이상의 버튼을 포함하고, 버튼이 선택됨에 따라 미리 정해진 사용자 입력이 객체 제어 시스템으로 전달될 수 있다.
일실시예에 따른 센서들(130)은 양손에 파지된 컨트롤러들(120)의 3차원 위치를 추적하는 장치로서, 예를 들어, 비전 센서를 포함할 수 있다. 센서들(130)을 통해 3차원 공간에서 사용자의 양손 위치를 감지하여 양손 상호작용에 기반한 사용자 입력이 객체 제어 시스템으로 전달될 수 있다.
다른 일실시예에 따르면, 컨트롤러들(120)이 별도로 존재하지 않고, 센서들(130)이 사용자의 양손의 위치를 추적하여 사용자 입력이 결정될 수도 있다. 이 경우에도 사용자의 양손에 서로 연결시키는 지지부재가 존재할 수 있으며, 이러한 지지부재로 허공에 양손을 움직이는 것보다 안정적이고, 정밀성, 신속성이 조절될 수 있다. 또한, 센서들(130)이 사용자가 주먹을 쥐는지 펴는지 여부를 감지하는 등 사용자의 손 자세 변화를 감지함으로써, 컨트롤러들(120)에 포함된 버튼의 선택 여부에 대응되는 사용자 입력이 결정될 수 있다.
도 2a 및 도 2b는 일실시예에 따라 객체를 제어하는 형태를 설명하기 위한 도면이다.
도 2a를 참조하면, 일실시예에 따른 사용자 입력에 기초하여 객체의 축 부분(210)이 회전될 수 있다. 객체의 축 부분(210)이 회전함에 따라 객체의 일 부분(230)이 축 부분(210)을 중심으로 함께 회전할 수 있다.
도 2b를 참조하면, 일실시예에 따른 사용자 입력에 기초하여 객체의 말단 부분(250)이 움직일 수 있다. 사용자 입력에 따라 객체의 말단 부분(250)은 이동하거나, 회전하거나, 또는 이동하면서 회전할 수 있다.
도 3은 일실시예에 따라 객체 제어를 활성화시키는 과정을 설명하기 위한 도면이다.
도 3을 참조하면, 일실시예에 따라 사용자는 컨트롤러들에 포함된 버튼을 선택함으로써 객체 제어를 활성화시킬 수 있다. 예를 들어, 컨트롤러들 각각에 포함된 버튼을 사용자의 양손으로 동시에 누른 상태에서 객체 제어가 활성화될 수 있다. 이 때, 컨트롤러들 중에서 어느 하나의 버튼이 선택되지 않거나 버튼 선택이 해제되는 경우, 즉시 객체 제어가 비활성화될 수 있다. 이를 통해 객체의 오작동을 방지하고, 돌발상황 발생시 즉각적으로 조작을 멈추어 사용자의 안전이 확보될 수 있다.
도 4는 일실시예에 따라 제어하고자 하는 객체의 축 부분을 선택하는 과정을 설명하기 위한 도면이다.
도 4를 참조하면, 일실시예에 따라 사용자가 제어하고자 하는 객체의 축 부분이 선택될 수 있다. 예를 들어, 컨트롤러들을 파지하는 사용자의 손에 의해 터치되거나 또는 사용자의 손에 의해 가리켜지는 객체의 축 부분(410)이 식별되어 사용자가 제어하고자 하는 부분으로 선택될 수 있다. 이와 같이 사용자에 의해 지정되는 객체의 축 부분(410)을 특정하기 위해, 도 1에서 설명한 센서들이 이용될 수 있으며, 이외 다른 센서(예컨대, HMD(Head Mounted Display)에 포함된 이미지 센서 등)가 더 이용될 수도 있다.
예시적으로 도시된 도 4에 따르면, 사용자는 오른손 검지로 객체에 포함된 축 부분들 중에서 제어하고자 하는 축 부분(410)을 선택할 수 있다.
도 5 내지 도 8은 일실시예에 따라 객체의 축 부분을 회전시키는 과정을 설명하기 위한 도면이다.
도 5를 참조하면, 일실시예에 따른 사용자 입력에 기반하여 객체의 축 부분이 회전될 수 있다. 우선, 객체의 축 부분이 회전함에 따라 함께 회전될 부분(510)이 식별되어 컨트롤러들의 위치를 연결하는 선분에 매핑될 수 있다. 이 후 사용자가 컨트롤러들을 움직임으로써 해당 선분의 회전 변화량이 발생하면, 회전 변화량에 따라 부분(510)이 회전될 수 있다. 이 때, 선분의 회전 변화량 중 객체의 축 부분에 수직한 성분만이 고려될 수 있다. 이에 대해서는 도 6을 참조하여 상세히 설명한다. 도 5에서는 회전 변화량에 따라 원래 위치(530)로부터 회전한 부분(550)이 도시될 수 있다.
도 6를 참조하면, 일실시예에 따른 회전 평면을 이용하여 측정된 선분의 회전 변화량에 기반하여 객체의 부분을 회전시키는 과정이 도시된다.
우선, 회전 변화량을 수학적으로 표현하기 위한 선분과 회전 평면이 생성될 수 있다. 사용자의 양손에 파지되는 컨트롤러들의 위치로 정의되는 선분
Figure PCTKR2019000817-appb-img-000001
이 생성될 수 있다. 제어하고자 하는 객체의 축 부분
Figure PCTKR2019000817-appb-img-000002
에 수직한 회전 평면
Figure PCTKR2019000817-appb-img-000003
이 생성될 수 있다. 이 때, 선분
Figure PCTKR2019000817-appb-img-000004
과 회전 평면
Figure PCTKR2019000817-appb-img-000005
은 시각화되어 사용자로 제공되지 않을 수도 있으며, 선분
Figure PCTKR2019000817-appb-img-000006
의 회전 변화량만이 이용되므로, 선분
Figure PCTKR2019000817-appb-img-000007
과 회전 대상
Figure PCTKR2019000817-appb-img-000008
는 서로 일치하지 않을 수 있다.
그리고, 선분
Figure PCTKR2019000817-appb-img-000009
의 회전 변화량이 계산될 수 있다. 사용자 입력 이전 선분
Figure PCTKR2019000817-appb-img-000010
과 사용자 입력 이후 선분
Figure PCTKR2019000817-appb-img-000011
을 각각 회전 평면
Figure PCTKR2019000817-appb-img-000012
에 투사시킴으로써 얻어진 두 개의 선분들
Figure PCTKR2019000817-appb-img-000013
을 이용하여, 회전 변화량
Figure PCTKR2019000817-appb-img-000014
이 계산될 수 있다.
그리고, 회전 변화량
Figure PCTKR2019000817-appb-img-000015
에 일정 대응비를 적용함으로써, 축 부분의 회전량(
Figure PCTKR2019000817-appb-img-000016
)이 결정될 수 있다. 이 때, 적용되는 대응비 x는 다양하게 설정될 수 있다. 예를 들어, 대응비 x는 컨트롤러들 간의 거리에 기초하여 설정되거나, 사용자에 의해 설정되거나, 또는 객체가 제어되는 상황에 따라 적응적으로 결정될 수도 있다. 예를 들어, 객체가 제어되는 상황이 정밀한 제어가 필요한 상황인 경우(예컨대, 로봇 수술 등)에는 대응비 x가 작게 결정되고, 정밀성보다는 신속한 제어가 필요한 상황인 경우(예컨대, 물건 이동 작업 등)에는 대응비 x가 크게 결정될 수도 있다.
일실시예에 따라 컨트롤러들 간의 거리에 따라 객체 제어의 정밀도 및 신속성이 조절될 수 있다.
컨트롤러들이 지지부재로 연결됨에 따라 컨트롤러들 간의 거리에 따른 장력이 컨트롤러들에 작용할 수 있다. 예를 들어, 컨트롤러들 간의 거리가 멀수록 큰 장력이 발생되며, 이러한 장력은 컨트롤러들을 파지하는 사용자의 양손으로 전달될 수 있다.
도 7a를 참조하면, 컨트롤러들 간의 거리에 따라 지지부재에 의해 컨트롤러들에 유도되는 장력의 세기 및 동일한 회전 변화량을 위해 양손이 움직여야 하는 거리가 달라지므로, 컨트롤러들 간의 거리에 의해 객체 제어의 정밀성과 신속성이 조절 가능할 수 있다. 도 7a의 상단에 도시된 "1", "2" 번에서는 동일한 회전 변화량
Figure PCTKR2019000817-appb-img-000017
을 위해 양손이 움직여야 하는 거리가 컨트롤러들 간 거리에 따라 d 1, d 2로 달라지는 것이 도시되며, 이 경우 동일한 객체의 축 부분의 회전량이 야기될 수 있다. 또한, 도 7a의 하단에 도시된 "3", "4" 번에서는 동일한 양손이 움직여야 하는 거리 d 3, d 4를 위해 회전 변화량이 컨트롤러들 간 거리에 따라
Figure PCTKR2019000817-appb-img-000018
로 달라지는 것이 도시되며, 이 경우 객체의 축 부분의 회전량이 달라질 수 있다.
예를 들어, 컨트롤러들 간의 거리가 가까운 경우, 컨트롤러들에 작용하는 장력이 약하고 사용자의 양손이 움직여야 하는 거리가 짧아, 객체 제어의 정밀성이 저하되는 반면 신속성은 증대될 수 있다. 반대로, 컨트롤러들 간의 거리가 먼 경우, 컨트롤러들에 작용하는 장력이 강하고 사용자의 양손이 움직여야 하는 거리가 길어, 객체 제어의 정밀성이 증대되는 반면 신속성은 저하될 수 있다. 이와 같이, 컨트롤러들을 연결하는 지지부재를 이용하여, 객체를 제어하는 상황에 따라 적응적으로 객체 제어의 정밀성 및 신속성을 조절할 수 있다.
일실시예에 따라서는 앞서 설명한 대응비에 컨트롤러들 간의 거리가 적용될 수도 있으며, 이러한 예시들이 도 7b 및 도 7c에 도시되어 있다. 도 7b는 컨트롤러들 간 거리(710)가 짧은 경우를 나타내고, 도 7c는 컨트롤러들 간 거리(730)가 긴 경우를 나타낸다. 도 7b 및 도 7c에 도시된 것처럼, 짧은 컨트롤러들 간 거리(710)로 객체를 제어한 경우보다 긴 컨트롤러들 간 거리(730)로 객체를 제어한 경우에 객체의 축 부분의 회전량이 작게 야기될 수 있다. 즉, 짧은 컨트롤러들 간 거리(710)로 객체를 제어한 경우보다 긴 컨트롤러들 간 거리(730)로 객체를 제어한 경우에 대응비가 작게 설정될 수 있다. 따라서, 컨트롤러들 간의 거리가 길수록 선분의 회전 변화량에 따라 결정되는 객체의 축 부분의 회전량이 작게 결정될 수 있다. 반대로, 컨트롤러들 간의 거리가 짧을수록 회전 변화량에 따라 결정되는 객체의 축 부분의 회전량이 크게 결정될 수 있다.
도 8을 참조하면, 일실시예에 따른 클러칭(clutching) 동작이 객체의 축 부분 제어에 적용될 수 있다. 일실시예에 따르면, 제한된 컨트롤러들의 동작 범위 내에서도 반복적인 움직임을 중첩함으로써, 보다 넓은 이동 범위에서 객체 제어를 가능하게 하는 클러칭 동작이 적용될 수 있다.
도 8에서 객체의 부분(810)을 제어하고자 하는 경우, 사용자는 컨트롤러들에 포함된 버튼을 누른 상태에서 컨트롤러들을 움직여 객체 제어를 수행하고, 버튼에서 손을 떼고 컨트롤러들의 위치를 조정한 후 다시 버튼을 누른 상태로 컨트롤러들을 움직여 객체 제어를 수행할 수 있다. 이로써 실제 컨트롤러들의 동작 범위에 제한되지 않는 객체 제어를 수행할 수 있다.
도 9는 일실시예에 따라 객체 제어를 활성화시키는 과정을 설명하기 위한 도면이다.
도 9를 참조하면, 일실시예에 따라 사용자는 컨트롤러들에 포함된 버튼을 누름으로써 객체 제어를 활성화시킬 수 있다. 예를 들어, 컨트롤러들 각각에 포함된 버튼을 사용자의 양손으로 동시에 누른 상태에서 객체 제어가 활성화될 수 있다. 이 때, 컨트롤러들 중에서 어느 하나의 버튼이 선택되지 않거나 버튼 선택이 해제되는 경우, 즉시 객체 제어가 비활성화될 수 있다. 이를 통해 객체의 오작동을 방지하고, 돌발상황 발생시 즉각적으로 조작을 멈추어 사용자의 안전이 확보될 수 있다.
도 10은 일실시예에 따라 제어하고자 하는 객체의 말단 부분을 선택하는 과정을 설명하기 위한 도면이다.
도 10을 참조하면, 일실시예에 따라 사용자가 제어하고자 하는 객체의 말단 부분이 선택될 수 있다. 예를 들어, 컨트롤러들을 파지하는 사용자의 손에 의해 터치되거나 또는 사용자의 손에 의해 가리켜지는 객체의 말단 부분(1010)이 식별되어 사용자가 제어하고자 하는 부분으로 선택될 수 있다. 이와 같이 사용자에 의해 지정되는 객체의 말단 부분(1010)을 특정하기 위해, 도 1에서 설명한 센서들이 이용될 수 있으며, 이외 다른 센서(예컨대, HMD에 포함된 이미지 센서 등)가 더 이용될 수도 있다. 도 10에서 사용자는 오른손 검지로 객체에 포함된 축 부분들 중에서 제어하고자 하는 말단 부분(1010)을 선택할 수 있다.
도 11 내지 도 13은 일실시예에 따라 객체의 말단 부분의 움직임을 제어하는 과정을 설명하기 위한 도면이다.
도 11을 참조하면, 일실시예에 따른 사용자 입력에 기반하여 객체의 말단 부분이 움직일 수 있다. 우선, 객체의 말단 부분(1110)이 식별되어 컨트롤러들에 의해 정의되는 기준 평면(1130)에 매핑될 수 있다. 기준 평면(1130)은 컨트롤러들에 의해 정의되는 것으로, 3차원 공간 상에서 컨트롤러들을 연결한 선분을 포함할 수 있다. 기준 평면(1170)의 이동 변화량 및 회전 변화량 중 적어도 하나에 기초하여 객체의 말단 부분(1150)이 움직일 수 있다.
도 12를 참조하면, 일실시예에 따라 컨트롤러들 간의 거리에 따라 객체 제어의 정밀도 및 신속성이 조절될 수 있다.
컨트롤러들이 지지부재로 서로 연결됨에 따라 컨트롤러들 간의 거리에 따른 장력이 컨트롤러들에 작용할 수 있다. 예를 들어, 컨트롤러들 간의 거리가 멀수록 큰 장력이 발생되며, 이러한 장력은 컨트롤러들을 파지하는 사용자의 양손으로 전달될 수 있다.
도 12에서는 컨트롤러들의 거리에 따라 기준 평면(1210)의 크기가 결정될 수 있다. 기준 평면(1210)은 객체의 말단 부분을 제어하기 위한 것으로, 컨트롤러들이 모서리에 위치하도록 기준 평면(1210)이 설정될 수 있다. 기준 평면(1210)을 설정하는 과정에 대해서는 도 14를 참조하여 후술한다.
컨트롤러들 간의 거리에 따라 유도되는 장력의 세기 및 동일한 회전 변화량을 입력하기 위해 양손이 움직여야 하는 거리가 달라지므로, 이러한 원리를 통해 객체를 회전시키는 제어의 정밀성과 신속성이 조절될 수 있다. 예를 들어, 컨트롤러들 간의 거리가 가까운 경우, 유도되는 장력이 약하고 양손이 움직여야 하는 거리가 짧으므로, 객체를 회전시키는 제어의 정밀성이 저하되는 반면 신속성이 증대될 수 있다. 반대로, 컨트롤러들 간의 거리가 먼 경우, 유도되는 장력이 강하고 양손이 움직여야 하는 거리가 길게 되므로, 객체를 회전시키는 제어의 정밀성이 증대되는 반면 신속성이 저하될 수 있다.
또한, 컨트롤러들 간의 거리에 따라 지지부재로 유도되는 장력의 세기가 달라지므로, 이러한 원리를 통해 객체를 이동시키는 제어의 정밀성이 조절될 수 있다. 예를 들어, 컨트롤러들 간의 거리가 가까운 경우, 유도되는 장력이 약하므로 객체를 이동시키는 제어의 정밀성이 저하될 수 있다. 반대로, 컨트롤러들 간의 거리가 먼 경우, 유도되는 장력이 강하므로, 객체를 이동시키는 제어의 정밀성이 증대될 수 있다.
일실시예에 따라서는 앞서 설명한 대응비에 컨트롤러들 간의 거리가 적용될 수 있으며, 이러한 예시들이 도 12a 및 도 12b에 도시되어 있다. 도 12a는 컨트롤러들 간 거리(1210)가 짧은 경우를 나타내고, 도 12b는 컨트롤러들 간 거리(1230)가 긴 경우를 나타낸다. 도 12a 및 도 12b에 도시된 것처럼, 짧은 컨트롤러들 간 거리(1210)로 객체를 제어한 경우보다 긴 컨트롤러들 간 거리(1230)로 객체를 제어한 경우에 객체의 말단 부분의 이동 변화량 및/또는 회전 변화량이 작게 야기될 수 있다. 즉, 짧은 컨트롤러들 간 거리(1210)로 객체를 제어한 경우보다 긴 컨트롤러들 간 거리(1230)로 객체를 제어한 경우에 대응비가 작게 설정될 수 있다. 따라서, 컨트롤러들 간의 거리가 길수록 기준 평면의 이동 변화량 및/또는 회전 변화량이 작게 결정될 수 있다. 반대로, 컨트롤러들 간의 거리가 짧을수록 기준 평면의 이동 변화량 및/또는 회전 변화량이 크게 결정될 수 있다.
도 13을 참조하면, 일실시예에 따른 클러칭 동작이 객체의 말단 부분 제어에 적용될 수 있다. 일실시예에 따르면, 제한된 컨트롤러들의 동작 범위 내에서도 반복적인 움직임을 중첩함으로써, 보다 넓은 이동 범위에서 객체 제어를 가능하게 하는 클러칭 동작이 적용될 수 있다.
도 13에서 객체의 말단 부분(1310)을 제어하고자 하는 경우, 사용자는 컨트롤러들에 포함된 버튼을 누른 상태에서 컨트롤러들을 움직여 객체 제어를 수행하고, 버튼에서 손을 떼고 컨트롤러들의 위치를 조정한 후 다시 버튼을 누른 채로 컨트롤러들을 움직여 객체 제어를 수행할 수 있다. 이로써 컨트롤러들의 동작 범위에 제한되지 않는 객체 제어가 수행될 수 있다.
도 14a 및 도 14b는 일실시예에 따라 객체의 말단 부분의 이동량 및 회전량을 결정하는 과정을 설명하기 위한 도면이다.
도 14a를 참조하면, 일실시예에 따라 기준 평면이 결정되는 과정이 도시된다. 이동 및 회전에 대한 수학적 표현을 위해 기준 평면이 결정될 수 있다. 이 때, 컨트롤러들 각각의 위치가 기준 평면의 마주하는 변의 중점이 될 수 있다.
단계(1410)에서, 컨트롤러들 각각에 수직한 제1 벡터들
Figure PCTKR2019000817-appb-img-000019
이 획득될 수 있다. 제1 벡터들
Figure PCTKR2019000817-appb-img-000020
은 컨트롤러들 각각의 위쪽 방향 벡터를 나타낼 수 있다.
단계(1420)에서, 컨트롤러들의 중간 위치 C 또는 선분
Figure PCTKR2019000817-appb-img-000021
상의 특정 위치를 지나면서, 컨트롤러들을 잇는 선분
Figure PCTKR2019000817-appb-img-000022
에 수직하거나 선분
Figure PCTKR2019000817-appb-img-000023
을 관통하는 임시 평면이 결정되고, 임시 평면에 제1 벡터들
Figure PCTKR2019000817-appb-img-000024
을 투사(project)함으로써 투사된 벡터들
Figure PCTKR2019000817-appb-img-000025
이 획득될 수 있다. 투사된 벡터들
Figure PCTKR2019000817-appb-img-000026
은 선분
Figure PCTKR2019000817-appb-img-000027
에 수직할 수 있다.
단계(1430)에서, 투사된 벡터들
Figure PCTKR2019000817-appb-img-000028
간의 평균 등 벡터 연산을 수행함으로써 제2 벡터
Figure PCTKR2019000817-appb-img-000029
가 결정될 수 있다.
단계(1440)에서, 제2 벡터
Figure PCTKR2019000817-appb-img-000030
에 수직하고, 컨트롤러들의 중간 위치 C를 지나면서, 선분
Figure PCTKR2019000817-appb-img-000031
을 가로축으로 하는 등 선분
Figure PCTKR2019000817-appb-img-000032
을 포함하는 기준 평면이 결정될 수 있다. 제2 벡터
Figure PCTKR2019000817-appb-img-000033
는 기준 평면의 수직 벡터일 수 있다.
이와 같이 결정된 기준 평면은 시각화되어 표시되지 않을 수 있다. 또한, 기준 평면의 이동 변화량 및 회전 변화량만이 이용되므로, 기준 평면과 실제 객체의 말단 부분의 플레이트가 서로 일치하지 않을 수 있다.
도 14b를 참조하면, 일실시예에 따라 객체의 말단 부분의 이동량 및 회전량이 계산될 수 있다.
일실시예에 따라 기준 평면의 중심점 C의 이동 변화량에 따라 객체의 말단 부분이 이동될 수 있다. 도 14b에서 C는 이동 전의 위치를 나타내고, C'는 이동 후의 위치를 나타낸다. 따라서,
Figure PCTKR2019000817-appb-img-000034
은 기준 평면의 이동 변화량을 나타낼 수 있다.
객체의 말단 부분의 이동량
Figure PCTKR2019000817-appb-img-000035
은 아래의 수학식으로 결정될 수 있다.
Figure PCTKR2019000817-appb-img-000036
위의 수학식 1에서 y는 기준 평면의 중심점 C의 이동 변화량 대 객체의 말단 부분의 이동량 간 대응비로서, 다양한 방법을 통해 설정될 수 있다. 컨트롤러들 간 거리에 대응되는 기준 평면의 크기에 기초하여 대응비가 결정될 수 있다. 예를 들어, 기준 평면의 크기가 클수록 작은 대응비가 적용되어, 기준 평면의 중심점 C의 이동 변화량에 비해 객체의 말단 부분의 이동량이 작게 결정될 수 있다. 또는, 사용자에 의해 설정되거나 객체가 제어되는 상황에 따라 결정된 대응비가 적용되어 객체의 말단 부분의 이동량이 결정될 수도 있다.
또한, 일실시예에 따라 기준 평면에 수직한 수직 벡터의 회전 변화량에 따라 객체의 말단 부분이 회전될 수 있다. 도 14b에서
Figure PCTKR2019000817-appb-img-000037
는 회전 전 기준 평면의 수직 벡터를 나타내고,
Figure PCTKR2019000817-appb-img-000038
는 회전 후 기준 평면의 수직 벡터를 나타낸다. 기준 평면의 회전 변화량을 나타내기 위해 쿼터니언(quaternion)이 사용될 수 있으며, 기준 평면의 회전 변화량은
Figure PCTKR2019000817-appb-img-000039
로 표시될 수 있다. 여기서, q는 회전을 정의하는 쿼터니언을 나타내고,
Figure PCTKR2019000817-appb-img-000040
은 회전 전 기준 평면,
Figure PCTKR2019000817-appb-img-000041
은 회전 후 기준 평면을 나타낼 수 있다.
객체의 말단 부분의 회전량은 아래의 수학식으로 결정될 수 있다.
Figure PCTKR2019000817-appb-img-000042
위의 수학식 2에서
Figure PCTKR2019000817-appb-img-000043
은 객체의 말단 부분의 회전량을 나타낸다. x는 기준 평면에 수직한 수직 벡터의 회전 변화량 대 객체의 말단 부분의 회전량 간 대응비로서, 다양한 방법을 통해 설정될 수 있다. 대응비는 컨트롤러들 간 거리에 대응되는 기준 평면의 크기에 기초하여 결정되거나, 사용자에 의해 설정되거나, 또는 객체가 제어되는 상황에 따라 적응적으로 결정될 수도 있다.
앞서 설명한 것처럼 객체의 말단 부분의 이동량 및 회전량 중 적어도 하나가 결정되면, 역기구학(inverse kinematic) 기법을 통해 객체에 포함된 각 축의 회전량이 결정되어 회전할 수 있다.
도 15는 일실시예에 따라 제어될 객체의 예상 동작을 시각적으로 제공하는 과정을 설명하기 위한 도면이다.
도 15를 참조하면, 일실시예에 따른 사용자 입력에 따라 객체(1510)가 제어될 예상 동작(1520)이 도시된다.
일실시예에 따라 객체(1510)가 사용자 입력에 따라 즉각적으로 제어되기 보다는 객체(1510)가 사용자 입력에 따라 제어될 예상 동작(1520)이 시각적으로 표시되어 사용자로 제공될 수 있다. 예를 들어, 사용자가 착용하고 있는 HMD에 예상 동작(1520)이 반투명하게 표시되어 현실 공간과 동시에 표시될 수 있다. 사용자 입력에 따른 객체(1510)의 예상 동작(1520)을 확인한 후, 사용자는 객체의 제어를 명령할 수 있으며, 명령에 따라 객체(1510)가 실제 제어될 수 있다.
사용자는 객체(1510)의 예상 동작(1520)을 시각적으로 제공 받음으로써, 사용자 입력에 따라 객체(1510)가 제어될 모습을 미리 확인하고 수정할 수 있어, 보다 정교한 객체 제어가 가능해 질 수 있다.
앞선 설명들은 일실시예에 따른 객체 제어를 구현하는 하나의 실시예에 관한 것으로, 이외에도 구현 가능한 다양한 실시예들이 존재한다. 예를 들어, 객체 제어 방법 및 장치는 한 개 또는 두 개의 컨트롤러로부터 사용자 입력을 결정하여 객체를 제어할 수도 있고(도 16 내지 도 25 참조), 또는 컨트롤러 없이 사용자의 한 손 또는 두 손으로부터 사용자 입력을 결정하여 객체를 제어할 수도 있다(도 26 내지 도 35 참조). 이에 대해서는 아래 도면들을 참조하여 상세히 설명한다.
도 16 내지 도 20은 일실시예에 따른 한 개 또는 두 개의 컨트롤러를 이용하여 객체의 말단 부분을 제어하는 예시들을 나타낸다.
도 16을 참조하면, 일실시예에 따른 한 개의 컨트롤러를 이용하여 객체의 말단 부분을 제어하는 과정을 설명하기 위한 예시가 도시된다.
먼저, 센서를 통해, 사용자의 한 손에 의해 파지된 컨트롤러의 위치와 각도를 실시간으로 추적할 수 있다. 예를 들어, 센서는 이미지 센서, 적외선 센서 등을 포함할 수 있다. 컨트롤러에는 센서의 추적 정확도를 향상시키기 위한 소자가 별도로 포함될 수 있으나, 실시예에 따라 포함되지 않을 수도 있다.
그리고, 사용자에 의해 컨트롤러의 버튼이 눌려지면 제어모드가 활성화될 수 있다. 다시 말해, 컨트롤러의 버튼이 선택되었는지가 감지되고, 만약 컨트롤러의 버튼이 선택되면 제어모드가 활성화될 수 있다. 반대로, 컨트롤러의 버튼이 선택되지 않은 경우, 제어모드가 해제될 수 있다. 제어모드가 해제되는 동안에는 객체 제어가 수행되지 않는다. 여기서, 사용자에 의해 컨트롤러의 버튼이 눌러지는 것은 사용자에 의해 제어 활성화/비활성화 명령이 생성되는 것에 해당하며, 특히 제어를 활성화하라는 명령일 수 있다.
그리고, 제어모드로 동작하는 동안 컨트롤러의 버튼 위치를 중심으로 하고, 컨트롤러의 본체에 대해 위치와 회전이 상대적으로 고정된 기준 평면이 결정될 수 있다. 이 때, 기준 평면은 객체 제어를 위한 가상의 평면으로, 제어하고자 하는 객체의 말단 부분에 맵핑될 수 있다.
그리고, 제어모드로 동작하는 동안 기준 평면의 중심점에 대한 이동 변화량을 객체의 말단 부분에 적용하여, 객체의 말단 부분의 위치가 제어될 수 있다. 다시 말해, 기준 평면의 이동 변화량에 기반하여 사용자 입력이 결정되고, 결정된 사용자 입력에 따라 객체의 말단 부분의 위치가 제어될 수 있다. 예를 들어, 객체의 말단 부분에 대해 위치와 회전이 상대적으로 고정되는 제2 기준 평면이 결정되고, 기준 평면의 중심점에 대한 이동 변화량에 따라 제2 기준 평면이 이동됨으로써, 객체의 말단 부분의 위치가 제어될 수 있다.
또한, 제어모드로 동작하는 동안, 기준 평면의 중심점에 대한 회전 변화량을 객체의 말단 부분에 적용하여, 객체의 말단 부분의 회전이 제어될 수 있다. 다시 말해, 기준 평면의 회전 변화량에 기반하여 사용자 입력이 결정되고, 결정된 사용자 입력에 따라 객체의 말단 부분의 회전이 제어될 수 있다. 예를 들어, 객체의 말단 부분에 대해 위치와 회전이 상대적으로 고정되는 제2 기준 평면이 결정되고, 기준 평면의 중심점에 대한 회전 변화량에 따라 제2 기준 평면이 회전됨으로써, 객체의 말단 부분의 회전이 제어될 수 있다.
이 때, 기준 평면의 중심점에 대한 이동 변화량만이 존재하면 객체의 말단 부분의 위치만이 제어되고, 기준 평면의 중심점에 대한 회전 변화량만이 존재하면 객체의 말단 부분의 회전만이 제어되며, 기준 평면의 중심점에 대한 이동 변화량 및 회전 변화량이 모두 존재하면 객체의 말단 부분의 위치 및 회전이 모두 제어될 수 있다. 다시 말해, 기준 평면의 이동 변화량 및 회전 변화량 중 적어도 하나에 기초하여 사용자 입력이 결정되고, 결정된 사용자 입력에 따라 객체의 말단 부분의 위치 및 회전 중 적어도 하나가 제어될 수 있다.
또한, 실시예에 따라서는 기준 평면의 중심점에 대한 이동 변화량에 소정의 대응비가 적용되어 사용자 입력이 결정될 수 있다. 기본적으로 대응비는 1로 결정되어, 기준 평면의 중심점에 대한 이동 변화량이 그대로 사용자 입력에 적용되어, 객체의 말단 부분의 위치가 기준 평면의 중심점에 대한 이동 변화량만큼 이동될 수 있다. 또는, 실시예에 따라 기준 평면의 중심점에 대한 이동 속도에 기초하여 대응비가 적응적으로 결정될 수 있다. 예를 들어, 기준 평면의 중심점이 이동 속도가 빠를수록 대응비가 1보다 더 크게 결정되어, 객체의 말단 부분의 위치가 기준 평면의 중심점에 대한 이동 변화량보다 더 많이 이동될 수 있다. 반대로, 기준 평면의 중심점의 이동 속도가 느릴수록 대응비가 1보다 더 작게 결정되어, 객체의 말단 부분의 위치가 기준 평면의 중심점에 대한 이동 변화량보다 더 적게 이동될 수 있다. 기준 평면의 중심점에 대한 이동 속도 외에도, 다양한 요소들이 대응비 결정에 제한없이 이용될 수 있다. 마찬가지로, 기준 평면의 중심점에 대한 회전 변화량에 소정의 대응비가 적용되어 사용자 입력이 결정될 수 있으며, 이에 대해서는 앞선 설명이 그대로 적용될 수 있으므로 상세한 설명은 생략한다.
일실시예에 따른 대응비는 제어 정밀도와 연관될 수 있다. 대응비가 1보다 작을수록 기준 평면의 변화량이 객체의 말단 부분에 더 적게 반영되므로, 제어 정밀도는 더 높다고 볼 수 있다. 반대로, 대응비가 1보다 클수록 기준 평면의 변화량이 객체의 말단 부분에 더 크게 반영되므로, 제어 정밀도는 더 낮다고 볼 수 있다.
도 17을 참조하면, 일실시예에 따라 한 개의 컨트롤러가 지지부재로 연결된 예시가 도시된다. 도 16의 예시에서 추가적으로 컨트롤러가 지지부재로 연결될 수 있다. 예를 들어, 지지부재는 컨트롤러를 고정된 위치에 연결시킬 수 있으며, 이외에도 사용자의 허리띠, 사용자의 발 등 다양한 부분에 연결될 수도 있다. 이러한 지지부재를 통해 컨트롤러를 파지하는 손 움직임을 안정시켜 제어의 정확도를 향상시킬 수 있으며, 객체 제어의 정밀도와 신속도를 작업 상황에 따라 적응적으로 조절할 수 있다.
예를 들어, 지지부재는 탄성력을 가지는 길이 가변 부재 및 탄성력이 없는 길이 가변 부재를 포함할 수 있다. 여기서, 탄성력을 가진 길이 가변 부재는 고무 밴드, 용수철 등 신축 소재를 나타낼 수 있다. 탄성력이 없는 길이 가변 부재는 메케니컬 링키지(mechanical linkage), 다관절 부재 등 신축성 없는 소재를 나타낼 수 있다.
도 18을 참조하면, 일실시예에 따른 두 개의 컨트롤러들을 이용하여 객체의 말단 부분을 제어하는 과정을 설명하기 위한 예시가 도시된다.
먼저, 센서를 통해, 사용자의 두 손에 의해 파지된 컨트롤러들의 위치와 각도를 실시간으로 추적할 수 있다. 예를 들어, 센서는 이미지 센서, 적외선 센서 등을 포함할 수 있다. 컨트롤러들 각각에는 센서의 추적 정확도를 향상시키기 위한 소자가 별도로 포함될 수 있으나, 실시예에 따라 포함되지 않을 수도 있다.
그리고, 사용자에 의해 컨트롤러들의 버튼이 눌려지면 제어모드가 활성화될 수 있다. 다시 말해, 컨트롤러들의 버튼들이 선택되었는지가 감지되고, 만약 컨트롤러들의 버튼들이 선택되면 제어모드가 활성화될 수 있다. 이 때, 두 개의 컨트롤러들의 버튼들이 모두 선택되어야 제어모드 활성화가 수행될 수 있으며, 컨트롤러들의 버튼들이 하나라도 선택되지 않으면, 제어모드가 해제될 수 있다.
그리고, 제어모드로 동작하는 동안 컨트롤러들의 버튼들의 위치를 관통하고, 컨트롤러들의 버튼들의 위치 중점을 중심으로 하며, 한 컨트롤러 본체에 대해 수직 방향이 상대적으로 고정된 기준 평면이 결정될 수 있다. 이 때, 기준 평면은 객체 제어를 위한 가상의 평면으로, 제어하고자 하는 객체의 말단 부분에 맵핑될 수 있다.
그리고, 제어모드로 동작하는 동안, 기준 평면의 중심점에 대한 이동 변화량을 객체의 말단 부분에 적용하여, 객체의 말단 부분의 위치가 제어될 수 있다. 또한, 제어모드로 동작하는 동안, 기준 평면의 중심점에 대한 회전 변화량을 객체의 말단 부분에 적용하여, 객체의 말단 부분의 회전이 제어될 수 있다. 기준 평면의 중심점에 대한 이동 변화량 및/또는 회전 변화량에 기반하여 객체의 말단 부분의 위치 및/또는 회전이 제어되는 과정에 대해서는 도 16에서 전술한 내용이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
또한, 실시예에 따라서는 기준 평면의 중심점에 대한 이동 변화량에 소정의 대응비가 적용되어 사용자 입력이 결정될 수 있다. 예를 들어, 두 개의 컨트롤러들 간 거리에 기초하여 대응비가 결정될 수 있다. 두 개의 컨트롤러들 간 거리가 짧을수록 대응비가 1보다 더 크게 결정되어, 객체의 말단 부분의 위치가 기준 평면의 중심점에 대한 이동 변화량보다 더 많이 이동될 수 있다. 반대로, 두 개의 컨트롤러들 간 거리가 멀수록 대응비가 1보다 더 작게 결정되어, 객체의 말단 부분의 위치가 기준 평면의 중심점에 대한 이동 변화량보다 더 적게 이동될 수 있다. 이외에도, 기준 평면의 중심점에 대한 이동 속도, 회전 속도 등 다양한 요소들이 대응비 결정에 제한없이 이용될 수 있다. 마찬가지로, 기준 평면의 중심점에 대한 회전 변화량에 소정의 대응비가 적용되어 사용자 입력이 결정될 수 있으며, 이에 대해서는 앞선 설명이 그대로 적용될 수 있으므로 상세한 설명은 생략한다.
도 19를 참조하면, 일실시예에 따라 두 개의 컨트롤러들이 길이 가변 부재로 연결되는 예시가 도시된다. 도 18의 예시에서 추가적으로 컨트롤러들이 길이 가변 부재로 연결될 수 있다. 이러한 길이 가변 부재를 통해 컨트롤러들을 파지하는 손 움직임을 안정시켜 제어의 정확도를 향상시킬 수 있으며, 객체 제어의 정밀도와 신속도를 작업 상황에 따라 적응적으로 조절할 수 있다.
도 20을 참조하면, 일실시예에 따라 두 개의 컨트롤러들이 길이 고정 부재로 연결되는 예시가 도시된다. 도 18의 예시에서 추가적으로 컨트롤러들이 길이 고정 부재로 연결될 수 있다. 예를 들어, 길이 고정 부재는 신축성이 없으며 길이가 변하지 않는 부재일 수 있다. 길이 고정 부재로 연결된 두 개의 컨트롤러들은 게임패드, 리모트컨트롤(remote control) 등과 같이 실질적으로는 단일 부재일 수도 있다. 이러한 길이 고정 부재를 통해 컨트롤러들을 파지하는 손 움직임을 안정시켜 제어의 정확도를 향상시킬 수 있으며, 객체 제어의 정밀도와 신속도를 작업 상황에 따라 적응적으로 조절할 수 있다.
도 21 내지 도 25는 일실시예에 따른 한 개 또는 두 개의 컨트롤러를 이용하여 객체의 축 부분을 제어하는 예시들을 나타낸다.
도 21을 참조하면, 일실시예에 따른 한 개의 컨트롤러를 이용하여 객체의 축 부분을 제어하는 과정을 설명하기 위한 예시가 도시된다. 제어 대상이 되는 객체에는 하나 이상의 축 부분이 포함될 수 있다. 축 부분이 복수인 경우, 축 제어에 앞서 복수의 축 부분들 중에서 제어하고자 하는 하나의 축 부분을 선택하는 과정이 수행될 수 있다.
먼저, 센서를 통해, 사용자의 한 손에 파지된 컨트롤러의 위치와 각도를 실시간으로 추적할 수 있다. 예를 들어, 센서는 이미지 센서, 적외선 센서 등을 포함할 수 있다. 컨트롤러에는 센서의 추적 정확도를 향상시키기 위한 소자가 별도로 포함될 수 있으나, 실시예에 따라 포함되지 않을 수도 있다.
그리고, 사용자에 의해 컨트롤러의 버튼이 눌려지면 제어모드가 활성화될 수 있다. 다시 말해, 컨트롤러의 버튼이 선택되었는지가 감지되고, 만약 컨트롤러의 버튼이 선택되면 제어모드가 활성화되는 반면, 컨트롤러의 버튼이 선택되지 않으면 제어모드가 해제될 수 있다.
그리고, 제어모드로 동작하는 동안 컨트롤러의 버튼 위치를 관통하고, 컨트롤러의 본체에 평행하며, 컨트롤러에 대해 위치와 회전이 상대적으로 고정된 기준 막대가 결정될 수 있다. 결정된 기준 막대는 제어하고자 하는 객체의 축에 수직한 평면에 수직으로 투영될 수 있다. 이 때, 기준 막대는 객체 제어를 위한 가상의 막대일 수 있다.
그리고, 제어모드로 동작하는 동안 투영된 기준 막대의 회전 변화량을 객체의 축 부분에 적용하여, 객체의 축 부분의 회전이 제어될 수 있다. 다시 말해, 투영된 기준 막대의 회전 변화량에 기반하여 사용자 입력이 결정되고, 결정된 사용자 입력에 따라 객체의 축 부분의 회전이 제어될 수 있다.
실시예에 따라서는 투영된 기준 막대의 회전 변화량에 소정의 대응비가 적용되어 사용자 입력이 결정될 수 있다. 기본적으로 대응비는 1로 결정되어, 투영된 기준 막대의 회전 변화량이 그대로 사용자 입력에 적용되어, 객체의 축 부분이 투영된 기준 막대의 회전 변화량만큼 회전될 수 있다. 또는, 실시예에 따라 투영된 기준 막대의 회전 속도에 기초하여 대응비가 적응적으로 결정될 수 있다. 예를 들어, 투영된 기준 막대의 회전 속도가 빠를수록 대응비가 1보다 더 크게 결정되어, 객체의 축 부분이 투영된 기준 막대의 회전 변화량보다 더 많이 회전할 수 있다. 반대로, 투영된 기준 막대의 회전 속도가 느릴수록 대응비가 1보다 더 작게 결정되어, 객체의 축 부분이 투영된 기준 막대의 회전 변화량보다 더 적게 회전할 수 있다. 이외에도 다양한 요소들이 대응비 결정에 제한없이 이용될 수 있다.
도 22를 참조하면, 일실시예에 따라 한 개의 컨트롤러가 지지부재로 연결된 예시가 도시된다. 도 21의 예시에서 추가적으로 컨트롤러가 지지부재로 연결될 수 있다. 예를 들어, 지지부재는 컨트롤러를 고정된 위치에 연결시킬 수 있으며, 이외에도 사용자의 허리띠, 사용자의 발 등 다양한 부분에도 연결될 수 있다. 예를 들어, 지지부재는 탄성력을 가지는 길이 가변 부재 및 탄성력이 없는 길이 가변 부재를 포함할 수 있다. 이러한 지지부재를 통해 컨트롤러를 파지하는 손 움직임을 안정시켜 제어의 정확도를 향상시킬 수 있으며, 객체 제어의 정밀도와 신속도를 작업 상황에 따라 적응적으로 조절할 수 있다.
도 23을 참조하면, 일실시예에 따라 두 개의 컨트롤러들을 이용하여 객체의 축 부분을 제어하는 과정을 설명하기 위한 예시가 도시된다.
먼저, 센서를 통해, 사용자의 두 손에 의해 파지된 컨트롤러들의 위치와 각도를 실시간으로 추적할 수 있다. 예를 들어, 센서는 이미지 센서, 적외선 센서 등을 포함할 수 있다. 컨트롤러들 각각에는 센서의 추적 정확도를 향상시키기 위한 소자가 별도로 포함될 수 있으나, 실시예에 따라 포함되지 않을 수도 있다.
그리고, 사용자에 의해 컨트롤러들의 버튼이 눌려지면 제어모드가 활성화될 수 있다. 다시 말해, 컨트롤러들의 버튼들이 선택되었는지가 감지되고, 만약 컨트롤러들의 버튼들이 선택되면 제어모드가 활성화될 수 있다. 이 때, 두 개의 컨트롤러들의 버튼들이 모두 선택되어야 제어모드 활성화가 수행될 수 있으며, 컨트롤러들의 버튼들이 하나라도 선택되지 않으면, 제어모드가 해제될 수 있다.
그리고, 제어모드로 동작하는 동안 컨트롤러들의 버튼들의 위치를 관통하는 기준 막대가 결정될 수 있다. 결정된 기준 막대는 제어하고자 하는 객체의 축에 수직한 평면에 수직으로 투영될 수 있다. 이 때, 기준 막대는 객체 제어를 위한 가상의 막대일 수 있다.
그리고, 제어모드로 동작하는 동안 투영된 기준 막대의 회전 변화량을 객체의 축 부분에 적용하여, 객체의 축 부분의 회전이 제어될 수 있다. 다시 말해, 투영된 기준 막대의 회전 변화량에 기반하여 사용자 입력이 결정되고, 결정된 사용자 입력에 따라 객체의 축 부분의 회전이 제어될 수 있다.
실시예에 따라서는 투영된 기준 막대의 회전 변화량에 소정의 대응비가 적용되어 사용자 입력이 결정될 수 있다. 예를 들어, 두 개의 컨트롤러들 간 거리에 기초하여 대응비가 결정될 수 있다. 두 개의 컨트롤러들 간 거리가 짧을수록 대응비가 1보다 더 크게 결정되어, 객체의 축 부분이 투영된 기준 막대의 회전 변화량보다 더 많이 회전할 수 있다. 반대로, 두 개의 컨트롤러들 간 거리가 멀수록 대응비가 1보다 더 작게 결정되어, 객체의 축 부분이 투영된 기준 막대의 회전 변화량보다 더 적게 회전할 수 있다. 이외에도, 투영된 기준 막대의 회전 속도 등 다양한 요소들이 대응비 결정에 제한없이 이용될 수 있다.
도 24를 참조하면, 일실시예에 따라 두 개의 컨트롤러들이 길이 가변 부재로 연결되는 예시가 도시된다. 도 25를 참조하면, 일실시예에 따라 두 개의 컨트롤러들이 길이 고정 부재로 연결되는 예시가 도시된다. 길이 가변 부재와 길이 고정 부재에 대해서는 앞선 설명들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
도 26 내지 도 30은 일실시예에 따른 한 손 또는 두 손으로부터 결정된 사용자 입력에 기반하여 객체의 말단 부분을 제어하는 예시들을 나타낸다.
실시예에 따르면, 앞서 설명한 컨트롤러 없이 사용자의 손 움직임에 기초하여 사용자 입력을 결정하고, 결정된 사용자 입력에 따라 객체를 제어할 수 있다. 사용자가 컨트롤러를 파지할 필요가 없으므로, 사용자 움직임의 자유도가 향상되며, 보다 자연스러운 움직임으로 객체를 제어할 수 있다. 이하, 도면들을 참조하여 상세히 설명한다.
도 26을 참조하면, 일실시예에 따른 사용자의 한 손으로부터 결정된 사용자 입력에 기반하여 객체의 말단 부분을 제어하는 과정을 설명하기 위한 예시가 도시된다.
먼저, 센서를 통해, 사용자의 한 손의 위치와 각도, 엄지 손가락과 검지 손가락의 관절 각도 등을 실시간으로 추적할 수 있다. 예를 들어, 센서는 이미지 센서, 깊이 센서(depth sensor) 등을 포함할 수 있다.
그리고, 엄지 손가락 끝과 검지 손가락 끝이 접촉되면, 제어모드가 활성화될 수 있다. 반대로, 손가락 끝들이 서로 떨어져 손가락 끝들의 접촉이 없어지면, 제어모드가 해제될 수 있다. 다만, 엄지 손가락 끝과 검지 손가락 끝의 접촉은 일시예에 불과하며, 사용자로부터 미리 결정된 제스처(예컨대, 주먹을 쥐는 등 소정의 손 제스처 등)가 감지되면 제어모드가 활성화되고, 해당 제스처가 없어지면 제어모드가 해제될 수도 있다. 또한, 엄지 손가락과 검지 손가락에 제한되지 않고, 사용자의 손가락들 중 적어도 두 개의 손가락들의 접촉이 발생했는지 여부에 따라 제어모드가 활성화될 수도 있다. 여기서, 엄지 손가락 끝과 검지 손가락 끝이 접촉되는 것은 사용자에 의해 제어 활성화/비활성화 명령이 생성되는 것에 해당하며, 특히 제어를 활성화하라는 명령일 수 있다.
그리고, 제어모드로 동작하는 동안 엄지 손가락과 검지 손가락의 접촉점을 중심으로 하며, 엄지 손가락 축과 검지 손가락 축을 포함하는 기준 평면이 결정될 수 있다. 실시예에 따라 엄지 손가락과 검지 손가락에 제한되지 않으며, 서로 접촉된 두 개의 손가락들의 접촉점을 중심으로 하고, 서로 접촉된 두 개의 손가락들 각각의 축을 포함하도록 기준 평면이 결정될 수도 있다. 이 때, 기준 평면은 객체 제어를 위한 가상의 평면으로, 제어하고자 하는 객체의 말단 부분에 맵핑될 수 있다.
그리고, 제어모드로 동작하는 동안 기준 평면의 중심점에 대한 이동 변화량을 객체의 말단 부분에 적용하여, 객체의 말단 부분의 위치가 제어될 수 있다. 또한, 제어모드로 동작하는 동안, 기준 평면의 중심점에 대한 회전 변화량을 객체의 말단 부분에 적용하여, 객체의 말단 부분의 회전이 제어될 수 있다. 이 때, 기준 평면의 중심점에 대한 이동 변화량만이 존재하면 객체의 말단 부분의 위치만이 제어되고, 기준 평면의 중심점에 대한 회전 변화량만이 존재하면 객체의 말단 부분의 회전만이 제어되며, 기준 평면의 중심점에 대한 이동 변화량 및 회전 변화량이 모두 존재하면 객체의 말단 부분의 위치 및 회전이 모두 제어될 수 있다. 또한, 실시예에 따라서는 기준 평면의 중심점에 대한 이동 변화량에 소정의 대응비가 적용되어 사용자 입력이 결정될 수 있다. 이에 대해서는 앞선 설명들이 그대로 적용될 수 있으므로 보다 상세한 설명은 생략한다.
도 27을 참조하면, 일실시예에 따라 사용자의 한 손이 지지부재로 연결된 예시가 도시된다. 도 26의 예시에서 추가적으로 사용자의 한 손이 지지부재로 연결될 수 있다. 예를 들어, 지지부재는 컨트롤러를 고정된 위치에 연결시킬 수 있으며, 이외에도 사용자의 허리띠, 사용자의 발 등 다양한 부분에 연결될 수도 있다. 예를 들어, 지지부재는 탄성력을 가지는 길이 가변 부재 및 탄성력이 없는 길이 가변 부재를 포함할 수 있다. 이러한 지지부재를 통해 손 움직임을 안정시켜 제어의 정확도를 향상시킬 수 있으며, 객체 제어의 정밀도와 신속도를 작업 상황에 따라 적응적으로 조절할 수 있다.
도 28을 참조하면, 일실시예에 따른 사용자의 두 손으로부터 결정된 사용자 입력에 기반하여 객체의 말단 부분을 제어하는 과정을 설명하기 위한 예시가 도시된다.
먼저, 센서를 통해, 사용자의 두 손의 위치와 각도, 엄지 손가락과 검지 손가락의 관절 각도 등을 실시간으로 추적할 수 있다.
그리고, 두 손 각각의 엄지 손가락 끝과 검지 손가락 끝이 접촉되면, 제어모드가 활성화될 수 있다. 반대로, 두 손 각각의 손가락 끝들이 서로 떨어져 손가락 끝들의 접촉이 없어지면, 제어모드가 해제될 수 있다. 이 때, 두 손 중 한 손의 손가락 끝들이 떨어지더라도, 제어모드가 해제될 수 있다. 이외에도 사용자로부터 미리 결정된 두 손 제스처가 감지되는지 여부에 따라 제어모드의 활성화가 결정될 수도 있다.
그리고, 제어모드로 동작하는 동안 두 손 각각의 손가락들의 접촉점들을 관통하며, 접촉점들의 중심을 중심으로 하고, 두 손 중 어느 한 손의 엄지 손가락 축에 수직하는 기준 평면이 결정될 수 있다. 이 때, 기준 평면은 객체 제어를 위한 가상의 평면으로, 제어하고자 하는 객체의 말단 부분에 맵핑될 수 있다.
그리고, 제어모드로 동작하는 동안 기준 평면의 중심점에 대한 이동 변화량을 객체의 말단 부분에 적용하여, 객체의 말단 부분의 위치가 제어될 수 있다. 또한, 제어모드로 동작하는 동안, 기준 평면의 중심점에 대한 회전 변화량을 객체의 말단 부분에 적용하여, 객체의 말단 부분의 회전이 제어될 수 있다. 또한, 실시예에 따라서는 기준 평면의 중심점에 대한 이동 변화량에 소정의 대응비가 적용되어 사용자 입력이 결정될 수 있다. 예를 들어, 두 손 간 거리에 기초하여 대응비가 결정될 수 있다. 이에 대해서는 앞선 설명들이 그대로 적용될 수 있으므로 보다 상세한 설명은 생략한다.
도 29를 참조하면, 일실시예에 따라 사용자의 두 손이 길이 가변 부재로 연결된 예시가 도시된다. 도 28의 예시에서 추가적으로 사용자의 두 손이 길이 가변 부재로 연결될 수 있다. 이러한 길이 가변 부재를 통해 손 움직임을 안정시켜 제어의 정확도를 향상시킬 수 있으며, 객체 제어의 정밀도와 신속도를 작업 상황에 따라 적응적으로 조절할 수 있다.
도 30을 참조하면, 일실시예에 따라 사용자의 두 손이 길이 고정 부재로 연결되는 예시가 도시된다. 도 28의 예시에서 추가적으로 사용자의 두 손이 길이 고정 부재로 연결될 수 있다. 예를 들어, 길이 고정 부재는 신축성이 없으며 길이가 변하지 않는 부재일 수 있다. 이러한 길이 고정 부재를 통해 손 움직임을 안정시켜 제어의 정확도를 향상시킬 수 있으며, 객체 제어의 정밀도와 신속도를 작업 상황에 따라 적응적으로 조절할 수 있다.
도 31 내지 도 35는 일실시예에 따른 한 손 또는 두 손으로부터 결정된 사용자 입력에 기반하여 객체의 축 부분을 제어하는 예시들을 나타낸다.
도 31을 참조하면, 일실시예에 따른 사용자의 한 손으로부터 결정된 사용자 입력에 기반하여 객체의 축 부분을 제어하는 과정을 설명하기 위한 예시가 도시된다. 제어 대상이 되는 객체에는 하나 이상의 축 부분이 포함될 수 있다. 축 부분이 복수인 경우, 축 제어에 앞서 복수의 축 부분들 중에서 제어하고자 하는 하나의 축 부분을 선택하는 과정이 수행될 수 있다.
먼저, 센서를 통해, 사용자의 한 손의 위치와 각도, 엄지 손가락과 검지 손가락의 관절 각도, 손바닥 면의 위치와 각도를 실시간으로 추적할 수 있다.
그리고, 엄지 손가락 끝과 검지 손가락 끝이 접촉되면, 제어모드가 활성화될 수 있다. 반대로, 손가락 끝들이 서로 떨어져 손가락 끝들의 접촉이 없어지면, 제어모드가 해제될 수 있다. 이에 대해서는 앞선 설명들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
그리고, 제어모드로 동작하는 동안 엄지 손가락과 검지 손가락으로 이루어진 고리 중앙을 수직으로 관통하며, 손바닥과 평행한 기준 막대를 결정할 수 있다. 결정된 기준 막대는 제어하고자 하는 객체의 축에 수직한 평면에 수직으로 투영될 수 있다. 이 때, 기준 막대는 객체 제어를 위한 가상의 막대일 수 있다.
그리고, 제어모드로 동작하는 동안 투영된 기준 막대의 회전 변화량을 객체의 축 부분에 적용하여, 객체의 축 부분의 회전이 제어될 수 있다. 다시 말해, 투영된 기준 막대의 회전 변화량에 기반하여 사용자 입력이 결정되고, 결정된 사용자 입력에 따라 객체의 축 부분의 회전이 제어될 수 있다. 실시예에 따라서는 투영된 기준 막대의 회전 변화량에 소정의 대응비가 적용되어 사용자 입력이 결정될 수 있다. 이에 대해서는 앞선 설명들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
도 32를 참조하면, 일실시예에 따라 사용자의 한 손이 지지부재로 연결된 예시가 도시된다. 도 31의 예시에서 추가적으로 한 손이 지지부재로 연결될 수 있다. 예를 들어, 지지부재는 컨트롤러를 고정된 위치에 연결시킬 수 있으며, 이외에도 사용자의 허리띠, 사용자의 발 등 다양한 부분에도 연결될 수 있다. 예를 들어, 지지부재는 탄성력을 가지는 길이 가변 부재 및 탄성력이 없는 길이 가변 부재를 포함할 수 있다. 이러한 지지부재를 통해 컨트롤러를 파지하는 손 움직임을 안정시켜 제어의 정확도를 향상시킬 수 있으며, 객체 제어의 정밀도와 신속도를 작업 상황에 따라 적응적으로 조절할 수 있다.
도 33을 참조하면, 일실시예에 따른 사용자의 두 손으로부터 결정된 사용자 입력에 기반하여 객체의 축 부분을 제어하는 과정을 설명하기 위한 예시가 도시된다.
먼저, 센서를 통해, 사용자의 두 손의 엄지 손가락 끝과 검지 손가락 끝 위치를 실시간으로 추적할 수 있다.
그리고, 두 손 각각의 엄지 손가락 끝과 검지 손가락 끝이 접촉되면, 제어모드가 활성화될 수 있다. 반대로, 손가락 끝들이 서로 떨어져 손가락 끝들의 접촉이 없어지면, 제어모드가 해제될 수 있다. 이에 대해서는 앞선 설명들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
그리고, 제어모드로 동작하는 동안 두 손 각각의 손가락들의 접촉점들을 관통하는 기준 막대가 결정될 수 있다. 결정된 기준 막대는 제어하고자 하는 객체의 축에 수직한 평면에 수직으로 투영될 수 있다.
그리고, 제어모드로 동작하는 동안 투영된 기준 막대의 회전 변화량을 객체의 축 부분에 적용하여, 객체의 축 부분의 회전이 제어될 수 있다. 다시 말해, 투영된 기준 막대의 회전 변화량에 기반하여 사용자 입력이 결정되고, 결정된 사용자 입력에 따라 객체의 축 부분의 회전이 제어될 수 있다. 실시예에 따라서는 투영된 기준 막대의 회전 변화량에 소정의 대응비가 적용되어 사용자 입력이 결정될 수 있다. 예를 들어, 사용자의 두 손 간 거리에 기초하여 대응비가 결정될 수 있다. 이에 대해서는 앞선 설명들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
도 34를 참조하면, 일실시예에 따라 사용자의 두 손이 길이 가변 부재로 연결되는 예시가 도시된다. 도 35를 참조하면, 일실시예에 따라 사용자의 두 손이 길이 고정 부재로 연결되는 예시가 도시된다. 길이 가변 부재와 길이 고정 부재에 대해서는 앞선 설명들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
도 36은 일실시예에 따라 객체 제어 방법을 나타낸 도면이다.
도 36을 참조하면, 일실시예에 따른 객체 제어 장치의 프로세서에 의해 수행되는 객체 제어 방법이 도시된다.
단계(3610)에서, 객체 제어 장치는 사용자에 의해 생성되는 제어 활성화/비활성화 명령을 감지한다. 단계(3620)에서, 객체 제어 장치는 제어 활성화/비활성화 명령이 감지되는 상태에서, 이동 변화량 명령 및 회전 변화량 명령을 포함하는 사용자 명령을 감지한다. 단계(3630)에서, 객체 제어 장치는 이동 변화량 명령 및 회전 변화량 명령에 의한 사용자 입력을 결정한다. 단계(3640)에서, 객체 제어 장치는 사용자 입력에 따라 객체를 제어한다.
도 36에 도시된 각 단계들에는 전술한 사항들이 그대로 적용되므로, 보다 상세한 설명은 생략한다.
도 37은 일실시예에 따라 객체 제어 장치를 나타낸 도면이다.
도 37을 참조하면, 일실시예에 따른 객체 제어 장치(3700)는 센서(3710), 프로세서(3720) 및 객체(3730)를 포함한다. 객체 제어 장치(3700)는 실시예에 따라 컨트롤러(3740)를 더 포함할 수도 있다. 객체 제어 장치(3700)에 포함된 센서(3710), 프로세서(3720), 객체(3730) 및 컨트롤러(3740)는 유선 네트워크 및 무선 네트워크 중 적어도 하나에 기초하여 통신을 수행할 수 있다. 여기서, 센서(3710)는 감지수단으로도 지칭될 수 있다. 컨트롤러(3740)는 사용자 명령 전달 수단으로도 지칭될 수 있다. 객체 제어 장치(3700)는 상술된 동작들을 처리할 수 있으므로, 보다 상세한 설명은 생략한다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
실시예들에서 설명된 구성요소들은 하나 이상의 DSP (Digital Signal Processor), 프로세서 (Processor), 컨트롤러 (Controller), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array)와 같은 프로그래머블 논리 소자 (Programmable Logic Element), 다른 전자 기기들 및 이것들의 조합 중 하나 이상을 포함하는 하드웨어 구성 요소들(hardware components)에 의해 구현될 수 있다. 실시예들에서 설명된 기능들(functions) 또는 프로세스들(processes) 중 적어도 일부는 소프트웨어(software)에 의해 구현될 수 있고, 해당 소프트웨어는 기록 매체(recording medium)에 기록될 수 있다. 실시예들에서 설명된 구성요소들, 기능들 및 프로세스들은 하드웨어와 소프트웨어의 조합에 의해 구현될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.

Claims (30)

  1. 사용자에 의해 생성되는 제어 활성화/비활성화 명령을 감지하는 단계;
    상기 제어 활성화/비활성화 명령이 감지되는 상태에서, 이동 변화량 명령 및 회전 변화량 명령을 포함하는 사용자 명령을 감지하는 단계;
    상기 이동 변화량 명령 및 상기 회전 변화량 명령에 의한 사용자 입력을 결정하는 단계; 및
    상기 사용자 입력에 따라 객체를 제어하는 단계
    를 포함하는 객체 제어 방법.
  2. 제1항에 있어서,
    상기 사용자 명령을 감지하는 단계는
    상기 사용자의 한 손 제스처 및 양 손의 제스처 중 어느 하나에 의해 생성되는 상기 사용자 명령을 감지하는 객체 제어 방법.
  3. 제2항에 있어서,
    상기 제어 활성화/비활성화 명령을 감지하는 단계는
    미리 약정된 특정 모양의 손 제스처의 감지여부를 통해 제어 활성화/비활성화 명령을 감지하는, 객체 제어 방법.
  4. 제3항에 있어서,
    상기 미리 약정된 특정 모양의 손 제스처는
    상기 사용자의 손가락들 중 적어도 두 개의 손가락들을 서로 접촉시키는 제스처 및 상기 사용자가 주먹을 쥐는 제스처 중 어느 하나인, 객체 제어 방법.
  5. 제2항에 있어서,
    상기 사용자 입력을 결정하는 단계는
    사용자의 한 손 또는 두 손에 의해 생성된 제스처에 기초하여 가상의 기준 도형을 설정하고, 상기 설정된 기준 도형의 이동 변화량 및 회전 변화량에 따라 상기 객체의 이동량 및 회전량을 결정하는, 객체 제어 방법.
  6. 제5항에 있어서,
    상기 가상의 기준 도형은
    상기 사용자의 한 손의 손가락들 중 서로 접촉된 두 손가락들의 접촉점에 고정되는 평면인, 객체 제어 방법.
  7. 제5항에 있어서,
    상기 가상의 기준 도형은
    상기 사용자의 두 손의 손가락들 중 각 손의 서로 접촉된 손가락들의 접촉점에 고정되는 평면인, 객체 제어 방법.
  8. 제5항에 있어서,
    상기 가상의 기준 도형은
    상기 사용자의 한 손을 기준으로 1차적으로 형성되고, 상기 객체의 축에 수직한 평면에 투영되어 2차적으로 형성되는 막대인, 객체 제어 방법.
  9. 제5항에 있어서,
    상기 가상의 기준 도형은
    상기 사용자의 두 손의 손가락들 중 각 손의 서로 접촉된 산가락들의 접촉점을 기준으로 1차적으로 형성되고, 상기 객체의 축에 수직한 평면에 투영되어 2차적으로 형성되는 막대인, 객체 제어 방법.
  10. 제2항에 있어서,
    상기 사용자 입력을 결정하는 단계는
    상기 사용자의 두 손 간 거리에 기초하여 대응비를 결정하고, 상기 대응비에 따른 상기 이동 변화량 및 상기 회전 변화량을 상기 사용자 입력에 반영시키는, 객체 제어 방법.
  11. 제10항에 있어서,
    상기 대응비는
    상기 사용자의 두 손 간 거리가 짧을수록 크게 결정되는, 객체 제어 방법.
  12. 제1항에 있어서,
    상기 사용자 명령을 감지하는 단계는
    상기 사용자의 한 손 또는 양 손에 의해 파지되고, 신호 발생 스위치를 구비하는 한 개 또는 두 개의 컨트롤러에서 생성되는 사용자 명령을 감지하는, 객체 제어 방법.
  13. 제12항에 있어서,
    상기 제어 활성화/비활성화 명령을 감지하는 단계는
    상기 컨트롤러에 구비된 스위치의 온/오프(ON/OFF) 감지를 통해 상기 제어 활성화/비활성화 명령을 감지하는, 객체 제어 방법.
  14. 제12항에 있어서,
    상기 사용자 입력을 결정하는 단계는
    상기 한 개 또는 두 개의 컨트롤러를 기준으로 가상의 기준 도형을 설정하고, 상기 설정된 기준 도형의 이동 변화량 및 회전 변화량에 따라 객체의 이동량 및 회전량을 결정하는, 객체 제어 방법.
  15. 제14항에 있어서,
    상기 가상의 기준 도형은
    상기 사용자의 한 손에 의해 파지된 컨트롤러의 특정 위치에 고정되는 평면인, 객체 제어 방법.
  16. 제14항에 있어서,
    상기 가상의 기준 도형은
    상기 사용자의 두 손에 의해 파지된 컨트롤러들의 특정 위치들에 고정되는 평면인, 객체 제어 방법.
  17. 제14항에 있어서,
    상기 가상의 기준 도형은
    상기 사용자의 한 손에 의해 파지된 컨트롤러의 길이 또는 폭 방향으로 1차적으로 형성되고, 상기 객체의 축에 수직한 평면에 투영되어 2차적으로 형성되는 막대인, 객체 제어 방법.
  18. 제14항에 있어서,
    상기 가상의 기준 도형은
    상기 사용자의 두 손에 의해 파지된 컨트롤러들의 특정 위치들을 관통하도록 1차적으로 형성되고, 상기 객체의 축에 수직한 평면에 투영되어 2차적으로 형성되는 막대인, 객체 제어 방법.
  19. 제12항에 있어서,
    상기 사용자 입력을 결정하는 단계는
    상기 사용자의 두 손에 의해 파지된 컨트롤러들 간 거리에 기초하여 대응비를 결정하고, 상기 대응비에 따른 상기 이동 변화량 및 상기 회전 변화량을 상기 사용자 입력에 반영시키는, 객체 제어 방법.
  20. 제19항에 있어서,
    상기 대응비는
    상기 컨트롤러들 간 거리가 짧을수록 크게 결정되는, 객체 제어 방법.
  21. 제1항에 있어서,
    상기 객체를 제어하는 단계는
    상기 객체의 말단 부분 또는 축 부분을 제어하는, 객체 제어 방법.
  22. 제1항에 있어서,
    상기 객체를 제어하는 단계는
    실물 객체 및 가상 현실(VR; Virtual Reality)이나 증강 현실(AR; Augmented Reality)의 가상 객체 중 어느 하나를 제어하는, 객체 제어 방법.
  23. 사용자에 의해 생성되는 제어 활성화/비활성화 명령, 이동 변화량 명령 및 회전 변화량 명령을 감지하는 감지수단; 및
    상기 감지수단이 감지한 신호를 입력받아 사용자 명령을 인식하고 인식된 사용자 명령에 대응하는 제어신호를 객체에 적용하는 프로세서
    를 포함하는, 객체 제어 장치.
  24. 제23항에 있어서,
    상기 사용자가 파지가능한 기구물로 구성되고 상기 사용자 명령을 상기 감지수단으로 전달하기 위한 사용자 명령 전달 수단
    을 더 포함하는, 객체 제어 장치.
  25. 제24항에 있어서,
    상기 사용자 명령 전달 수단은
    상기 사용자가 한 손에 의해 파지되고 제어 활성화/비활성화 신호 발생용 스위치를 구비한 컨트롤러를 포함하는, 객체 제어 장치.
  26. 제25항에 있어서,
    상기 컨트롤러를 고정하기 위한 지지부재
    를 더 포함하는, 객체 제어 장치.
  27. 제26항에 있어서,
    상기 지지부재는
    탄성력을 가지는 길이 가변 부재 및 탄성력이 없는 길이 가변 부재 중 어느 하나인, 객체 제어 장치.
  28. 제24항에 있어서,
    상기 사용자 명령 전달 수단은
    상기 사용자가 양 손 각각에 의해 파지되는 두 개의 컨트롤러들을 포함하되, 적어도 하나의 컨트롤러에는 제어 활성화/비활성화 신호 발생용 스위치가 구비되는, 객체 제어 장치.
  29. 제28항에 있어서,
    상기 두 개의 컨트롤러들을 물리적으로 연결하기 위한 지지부재
    를 더 포함하는, 객체 제어 장치.
  30. 제29에 있어서,
    상기 지지부재는
    탄성력을 가지는 길이 가변 부재 또는 탄성력이 없는 길이 가변 부재 중 어느 하나인, 객체 제어 장치.
PCT/KR2019/000817 2018-01-19 2019-01-21 객체 제어 방법 및 객체 제어 장치 WO2019143204A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201980014644.7A CN111770815B (zh) 2018-01-19 2019-01-21 对象控制方法及对象控制装置
US16/961,894 US20200384654A1 (en) 2018-01-19 2019-01-21 Object control method and object control device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2018-0007069 2018-01-19
KR20180007069 2018-01-19
KR1020190006921A KR102239469B1 (ko) 2018-01-19 2019-01-18 객체 제어 방법 및 객체 제어 장치
KR10-2019-0006921 2019-01-18

Publications (1)

Publication Number Publication Date
WO2019143204A1 true WO2019143204A1 (ko) 2019-07-25

Family

ID=67301840

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/000817 WO2019143204A1 (ko) 2018-01-19 2019-01-21 객체 제어 방법 및 객체 제어 장치

Country Status (1)

Country Link
WO (1) WO2019143204A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100869447B1 (ko) * 2000-05-17 2008-11-21 코닌클리케 필립스 일렉트로닉스 엔.브이. 3차원 모델링 없이 이미지 처리에 의해 타겟을 지시하는 장치 및 방법
KR20100106203A (ko) * 2009-03-23 2010-10-01 삼성전자주식회사 멀티 텔레포인터, 가상 객체 표시 장치, 및 가상 객체 제어 방법
KR20130022996A (ko) * 2011-08-27 2013-03-07 이경자 가상터치스크린을 생성과 제어하는 장치
US20150031455A1 (en) * 2005-08-24 2015-01-29 Nintendo Co., Ltd. Game controller and game system
KR101717375B1 (ko) * 2015-10-21 2017-03-17 세종대학교산학협력단 가상 모니터 기반의 핸드 마우스를 이용한 게임 인터페이스 방법 및 그 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100869447B1 (ko) * 2000-05-17 2008-11-21 코닌클리케 필립스 일렉트로닉스 엔.브이. 3차원 모델링 없이 이미지 처리에 의해 타겟을 지시하는 장치 및 방법
US20150031455A1 (en) * 2005-08-24 2015-01-29 Nintendo Co., Ltd. Game controller and game system
KR20100106203A (ko) * 2009-03-23 2010-10-01 삼성전자주식회사 멀티 텔레포인터, 가상 객체 표시 장치, 및 가상 객체 제어 방법
KR20130022996A (ko) * 2011-08-27 2013-03-07 이경자 가상터치스크린을 생성과 제어하는 장치
KR101717375B1 (ko) * 2015-10-21 2017-03-17 세종대학교산학협력단 가상 모니터 기반의 핸드 마우스를 이용한 게임 인터페이스 방법 및 그 시스템

Similar Documents

Publication Publication Date Title
WO2016017956A1 (en) Wearable device and method of operating the same
WO2020111808A1 (ko) 자율주행 카트
WO2017039081A1 (ko) 드론 컨트롤러
WO2016061774A1 (zh) 一种飞行航线设置方法及装置
EP3707584A1 (en) Method for tracking hand pose and electronic device thereof
WO2016117758A1 (ko) 손 재활 운동 시스템 및 방법
US20140135991A1 (en) Hybrid gesture control haptic system
WO2016200197A1 (ko) 사용자 기준 공간좌표계 상에서의 제스처 검출 방법 및 장치
EP2350788A2 (en) Interface apparatus for generating control command by touch and motion, interface system including the interface apparatus, and interface method using the same
WO2016060461A1 (en) Wearable device
WO2016129923A1 (ko) 디스플레이 장치 및 디스플레이 방법 및 컴퓨터 판독가능 기록매체
WO2016085073A1 (en) Ultrasound sensor and object detecting method thereof
KR20190088910A (ko) 객체 제어 방법 및 객체 제어 장치
WO2016144057A1 (ko) 공간 순응 손가락 모듈 및 이를 구비한 그리퍼
WO2022097862A1 (en) Method of controlling display and electronic device supporting the same
WO2019143204A1 (ko) 객체 제어 방법 및 객체 제어 장치
WO2023085880A1 (ko) 수술 장치 및 이를 포함하는 원격 수술 시스템
WO2010087654A2 (ko) 다중 입력 소스를 이용한 오브젝트 조작 장치
WO2021071030A1 (ko) 센싱 디바이스 및 이를 포함한 로봇 매니퓰레이터
WO2022019582A1 (ko) 로봇 및 그 제어 방법
WO2018045655A1 (zh) 一种调整智能终端操作键位置的方法及系统
WO2023003217A1 (ko) 매니퓰레이터 및 그 제어 방법
WO2020085537A1 (ko) 동작인식 디바이스 및 이를 이용한 동작인식 방법
WO2020080733A1 (ko) 가상 콘텐츠를 제어하기 위한 인터페이스 장치
WO2014168431A1 (ko) 터치이벤트 처리방법 및 이를 위한 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19741561

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19741561

Country of ref document: EP

Kind code of ref document: A1