WO2017213307A1 - Apparatus and method for processing digital image on basis of nui/nux - Google Patents

Apparatus and method for processing digital image on basis of nui/nux Download PDF

Info

Publication number
WO2017213307A1
WO2017213307A1 PCT/KR2016/012235 KR2016012235W WO2017213307A1 WO 2017213307 A1 WO2017213307 A1 WO 2017213307A1 KR 2016012235 W KR2016012235 W KR 2016012235W WO 2017213307 A1 WO2017213307 A1 WO 2017213307A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
engraving
image
pressure
motion
Prior art date
Application number
PCT/KR2016/012235
Other languages
French (fr)
Korean (ko)
Inventor
조경은
치옥용
백승대
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Publication of WO2017213307A1 publication Critical patent/WO2017213307A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Definitions

  • the present invention relates to a technique for implementing digital drawing or digital sculpting, particularly an intuitive drawing image or sculpture from a drawing action or a hand action through a natural user interface (NUI) that is most intuitive to humans.
  • the technical problem to be solved by the present invention is that the conventional digital drawing technology has to utilize expensive professional equipment, such as a dedicated electronic pen or tablet, solve the problem that is difficult for general users to use, and using the electronic pen
  • a drawing image processing method comprising the steps of pre-learning the user's drawing pattern by receiving the user's actual drawing image and the pressure of the hand during drawing; Receiving a drawing motion of the user and recognizing a movement of the drawing means held by the user from the input drawing motion; Reading stroke information by matching the recognized movement of the drawing means with the previously learned drawing pattern; And outputting a drawing image corresponding to the stroke information in real time in response to the drawing motion of the user.
  • the step of pre-learning a drawing pattern of the user may include obtaining a 3D image of the actual drawing of the user by using a depth camera; Measuring pressure of a hand corresponding to the actual drawing of the user using an electromyogram (EMG) sensor attached to the user's hand and converting the pressure into a pen pressure of a drawing means; And matching state values, movements, speeds, and pressures of the drawing means according to the obtained 3D image, and storing the state values together with the stroke shapes of the corresponding viewpoints.
  • EMG electromyogram
  • the drawing pattern of the user is stored for each of a plurality of frames (frames) for the actual drawing, and may include a time series change of the state value and the pen pressure of the drawing means included in each frame. Further, the drawing pattern of the user may be differentiated and stored for each individual user as unique identification information for the user by combining at least two of a state value, a movement, a speed, and a pressure of the drawing means.
  • the step of recognizing the movement of the drawing means may include a 3D image and a 2D image of the drawing means held by the user from a drawing motion of the user input using a depth camera. Extracting each; And calculating the inclination angle of the drawing means, whether the drawing means is in contact with a plane corresponding to the virtual canvas, and the distance by matching the extracted 3D image and the 2D image.
  • the drawing means may have a form of a pen or a brush, and the method may further include identifying a type of the drawing means by using unique information included in a two-dimensional image of the drawing means. have.
  • the reading of the stroke information may include calculating at least two motion information among a state value, a movement, and a speed of the drawing means from the recognized movement of the drawing means; And searching for a value matching the calculated motion information from the previously learned drawing pattern, and returning stroke information reflecting a pen pressure.
  • the drawing image processing method may further include outputting a virtual canvas space using a display means, and displaying the drawing image output in real time in the virtual canvas space.
  • the engraving image processing method by receiving the actual sculpting image of the user and the pressure of the hand of the sculpture received by the type of the carving pattern of the user by the type of carving means Learning in advance; Receiving a sculpting motion of the user and recognizing the type of sculpting means held by the user and the movement of the sculpting means from the input sculpting motion; Reading piece carving information according to the type of carving means by matching the recognized movement of the carving means with the previously learned carving pattern; And outputting a fragment image corresponding to the fragment mark information in real time in response to the fragment motion of the user.
  • the learning of the engraving pattern of the user in advance may include: obtaining a 3D image of the actual carving behavior of the user using a depth camera; Measuring the pressure of the hand corresponding to the actual engraving behavior of the user by using an electromyogram (EMG) sensor attached to the user's hand and converting the pressure into a pressure of the engraving means; And matching a state value, a movement, a speed, and a pressure of the engraving means according to the obtained 3D image, and storing the state values together with the shape of the engraving marks at the corresponding point of time according to the type of the engraving means.
  • the engraving pattern of the user is stored for each of a plurality of frames (frame) for the actual engraving behavior, and may include a time-series change in the state value and pressure of the engraving means included in each frame.
  • the carving means may have a form of a carving knife (carving knife), it may further comprise the step of identifying the type of the carving means using the unique information contained in the two-dimensional image of the carving means.
  • the reading of the engraving mark information may include: calculating at least two pieces of motion information of a state value, a movement, and a speed of the carving means from the recognized movement of the carving means; And searching for a value matched with the calculated motion information from the previously learned piece pattern, and returning piece carving information corresponding to the type of piece means and reflecting pressure.
  • the method may further include adjusting the pressure or the size of the engraving mark in proportion to the speed of the engraving means.
  • the method may further include outputting a virtual fragment object using a display means, and displaying the fragment image output in real time on the virtual fragment object.
  • Embodiments of the present invention it is possible to provide a user with a more realistic drawing or sculpture experience by implementing digital art through NUI the drawing motion or sculpture motion that is most familiar to humans, not a special electronic pen or digitizer, NUI / Based on NUX, it enables fast and familiar adaptation and easy manipulation of digital images to non-professional people of all ages.
  • FIG. 1 is a flowchart illustrating a method of processing a drawing image based on NUI / NUX according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a general environment in which embodiments of the present invention are implemented and accompanying apparatus.
  • FIG. 3 is a diagram illustrating the flow of data according to the operation of embodiments of the present invention.
  • 4 and 5 are diagrams for explaining a method of recognizing the movement of the drawing means.
  • FIG. 6 is a view for explaining a method of measuring the user's pen pressure.
  • FIG. 7 is a block diagram illustrating an apparatus for processing a drawing image based on NUI / NUX according to an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating an environment for implementing a fragment image and an apparatus associated with the fragment image according to another embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating a method of processing a fragment image based on NUI / NUX according to another embodiment of the present invention.
  • 60, 60A, 60B display means
  • a drawing image processing method may include: learning a drawing pattern of a user in advance by receiving an actual drawing image of a user and a pressure of a hand during drawing; Receiving a drawing motion of the user and recognizing a movement of the drawing means held by the user from the input drawing motion; Reading stroke information by matching the recognized movement of the drawing means with the previously learned drawing pattern; And outputting a drawing image corresponding to the stroke information in real time in response to the drawing motion of the user.
  • a method of processing a sculpture image comprising: pre-learning a sculpture pattern of a user for each type of engraving means by receiving an actual sculpting image of a user and a pressure of a hand among pieces; Receiving a sculpting motion of the user and recognizing the type of sculpting means held by the user and the movement of the sculpting means from the input sculpting motion; Reading piece carving information according to the type of carving means by matching the recognized movement of the carving means with the previously learned carving pattern; And outputting a fragment image corresponding to the fragment mark information in real time in response to the fragment motion of the user.
  • Embodiments of the present invention described below have been made to solve the above-mentioned problems, and try to implement a summoning reality-based digital drawing system using NUI technology that is most intuitive to humans.
  • a digital drawing system can realize digital drawing using only ordinary drawing means such as a pencil, pen or brush, or even a flat bar without using a special electronic pen of a general tablet.
  • the user may draw a picture while freely taking a drawing motion on a screen or a display screen projected by the project as if the picture is drawn on a real canvas.
  • the picture effect can be naturally realized according to the inclination angle of the pen / brush, the size of the pressing force or the speed of moving the pen / brush.
  • FIG. 1 is a flowchart illustrating a method of processing a drawing image based on NUI / NUX according to an embodiment of the present invention.
  • the drawing image processing apparatus receives the actual drawing image of the user and the pressure of the hand during drawing to learn the drawing pattern of the user in advance.
  • Drawings or writings differ in habits from person to person, and in the embodiments of the present invention, a drawing pattern is learned based on the force of applying a drawing / drawing habit of an individual to a finger and a moving angle and direction information by holding a pen / brush.
  • EMG electromyogram
  • the S110 process of learning the user's drawing pattern in advance obtains a 3D image of the actual drawing of the user by using a depth camera, and uses an electromyogram (EMG) sensor attached to the user's hand.
  • EMG electromyogram
  • the pressure of the hand corresponding to the actual drawing of the user is measured and converted into the pen pressure of the drawing means, and the state value, the movement, the speed and the pen pressure of the drawing means according to the obtained 3D image are matched, By storing together, it can be implemented.
  • EMG electromyogram
  • the drawing image processing apparatus receives a drawing motion of the user by using a depth camera, recognizes a movement of the drawing means held by the user from the input drawing motion, and separately in this process. EMG sensor is unnecessary.
  • the drawing image processing apparatus reads stroke information by matching the movement of the drawing means recognized in operation S120 with the drawing pattern previously learned in operation S110. Even if the same trajectory line is drawn, the direction or angle of holding the pen is different for each user.Each user can estimate the user's pen pressure from the learned EMG data, and after estimating the pen / brush area from the acquired image, The state of the pen can be estimated from the depth image for.
  • step S130 of reading the stroke information at least two or more motion information of the state value, the movement and the speed of the drawing means is calculated from the recognized movement of the drawing means, and the calculation from the previously learned drawing pattern It is preferable to return the stroke information reflecting the pen pressure by searching for a value matching the motion information.
  • the drawing image processing apparatus outputs a drawing image corresponding to the stroke information in real time in response to the drawing motion of the user. That is, based on the computing power of the current digital processor, steps S120 to S140 may be processed in real time, and operate as if the drawing image is drawn at the end of the drawing means held by the user in response to the user's natural drawing motion. Done.
  • the means for outputting the drawing image preferably recognizes the end of the drawing means held by the user using a depth camera or a sensor, and displays the previously generated drawing image corresponding to the position of the recognized end.
  • FIG. 2 is a diagram illustrating a general environment in which embodiments of the present invention are implemented and accompanying apparatus.
  • the projector 60A or the display device 60B is provided as display means for outputting an image on a normal plane.
  • the virtual canvas space is output using the display means 60A or 60B, and then the NUX is provided to the user by displaying a drawing image output in real time in response to the user's drawing motion in the virtual canvas space.
  • a depth camera 10 for detecting a user's drawing motion is installed, and an EMG sensor 20 for detecting a pen pressure is attached to a part of a user's hand.
  • the projector 60A and the depth camera 10 may be installed at a position that does not affect the user, for example, about 1.5 m.
  • the installed depth camera 10 can recognize the movements of the user's hand and pen / brush, and the electrostatic pressure sensor 20 measures the pressure property by measuring how much force the user uses when drawing. You can judge.
  • FIG. 3 is a diagram illustrating the flow of data according to the operation of embodiments of the present invention.
  • a processor 30 to a controller for example, a computer, which drives software for implementing the drawing image processing method, is used, but the computer and the projector 60 and the depth camera ( 10) Connect it and place it face up on the desk.
  • the depth camera 10 starts to operate.
  • the depth camera 10 recognizes a pen / brush held by the user and switches to a drawing mode in which a user can draw or write, and the user uses a pen / brush on a canvas or white paper to draw a drawing motion. Will draw through. If the user takes a drawing motion that draws or writes on paper, it recognizes this and creates a digital image based on the pen's moving position, which is recognized as a connected line in vector form, and projects it on the screen on the desk.
  • the pen pressure is compared based on the depth data of the height of the pen, and if necessary, the data (50) pre-trained using the EMG sensor to determine the user's EMG. It can be estimated.
  • the user's drawing function but also the gesture recognition function, a simple gesture can be used to quickly change the color and switch to the eraser function.
  • this process is to obtain a three-dimensional image of the user's actual drawing using the depth camera 10, the user's actual using an electromyogram (EMG) sensor attached to the user's hand
  • EMG electromyogram
  • the pressure of the hand corresponding to the drawing is measured and converted into the pressure of the drawing means, and matching the state values, movements, speeds, and pressures of the drawing means according to the three-dimensional image obtained, and storing them together with the stroke shape of the corresponding time point.
  • the user performs drawing or writing with a pen while wearing an EMG sensor, and collects EMG data and depth data (including angles and postures of pens / brushes) of the user to a personalized drawing pattern.
  • EMG data and depth data including angles and postures of pens / brushes
  • the pen / brush state data of one frame may be configured as a data set as shown in Equation 1 below.
  • n represents the current frame and n-1 represents the previous frame.
  • the learning progresses by matching the EMG data with this state value of the pen / brush. Learning is performed by matching changes in EMG data values according to differences in pen / brush state values in two consecutive frames. After the learning is performed, the pen pressure intended by the user may be estimated without the EMG sensor based on the pen / brush state that changes as the user manipulates the pen / brush.
  • the drawing pattern of the user is stored in a plurality of frames for the actual drawing, and preferably includes a time series change of the state value and the pen pressure of the drawing means included in each frame.
  • the drawing pattern of the user may be stored in a differentiated manner for each individual user as unique identification information for the user by combining at least two or more of a state value, a movement, a speed, and a pressure of the drawing means. Inquiry 50 helps to recognize an individual's unique stroke.
  • 4 and 5 are diagrams for explaining a method of recognizing the movement of the drawing means.
  • a depth value of a canvas space (for example, may be a desk plane) is stored through depth data obtained through the depth camera 10. Using this, only the depth value higher than the reference depth value is later selected and the remaining information is discarded.
  • the depth data of the hand part is sensed, and the 2D image data of the corresponding position is analyzed to analyze the 2D image data.
  • the color distribution can be determined and recognized as a hand region.
  • the movement and type of a pen / brush may be recognized by utilizing 2D and 3D image data of an object other than a hand at a position where a user's hand is closest to the canvas.
  • the area on the hand is checked to calculate the distribution of the 3D data, and if the object forms a cylindrical shape, the pen / brush is judged.
  • the angle of the pen can be measured in this manner, and the stroke effect of the pen / brush can be implemented according to the angle.
  • 2D data corresponding to 3D data obtained from the upper and lower regions of the pen may be acquired.
  • the 2D data thus obtained is used to compare the pens / brushes stored in the reference database to estimate the type and select the most similar pen / brush stroke effect. From this, it is possible to create a natural picture regardless of the user using any kind of pen or brush.
  • embodiments of the present invention extract the 3D image and the 2D image of the drawing means of the user from the drawing motion of the user input using a depth camera, respectively, and extract the extracted 3D image and the 3D image.
  • the movement of the drawing means can be recognized by calculating a tilt angle of the drawing means, whether the drawing means is in contact with the plane corresponding to the virtual canvas, and a distance by matching a two-dimensional image.
  • Such drawing means may be in the form of a pen or brush or even be a rod, and identifying the type of the drawing means using the unique information contained in the two-dimensional image of the drawing means. It is possible.
  • FIG. 6 is a diagram for describing a method of measuring a user's pen pressure, and illustrates a situation in which EMG data of a finger muscle is measured during a drawing of a user using an EMG sensor 20 formed in a ring shape.
  • EMG data of a finger at the time of writing and drawing is collected for a plurality of users.
  • the EMG data may be distinguished according to the stationary state and the writing state of the muscle, and the data may be classified according to the gender and age of the user.
  • the data collected from the user is classified through a classification algorithm such as a support vector machine (SVM).
  • SVM support vector machine
  • FIG. 7 is a block diagram illustrating an apparatus 700 for processing a drawing image based on NUI / NUX according to an embodiment of the present invention, and corresponds to each step of the drawing image processing method described above with reference to FIG. 1. It includes a functional block. Therefore, in order to avoid duplication of description, the operation of each component will be outlined here based on the connection structure of hardware.
  • the depth camera 10 is a means for receiving an actual drawing image of the user or a drawing motion of the user, and an electromyogram (EMG) sensor 20 is attached to the user's hand to It is a means of measuring the pressure of the hand corresponding to the actual drawing.
  • EMG electromyogram
  • the memory 40 stores a program for generating a drawing image corresponding to a drawing motion of a user, and includes at least one processor 30 to drive a program for generating the drawing image.
  • the program stored in the memory 40 the input of the actual drawing image of the user and the pressure of the hand in the drawing to learn the drawing pattern of the user in advance, the input of the user's drawing motion of the drawing means of the user hold Recognizes a movement, reads stroke information by matching the recognized movement of the drawing means with the previously learned drawing pattern, and in real time a drawing image corresponding to the stroke information in response to the drawing motion of the user; Contains the commands to print.
  • the program stored in the memory 40 acquires a three-dimensional image of the actual drawing image of the user, converts the pressure of the hand into a pressure of the drawing means, and a state value of the drawing means according to the obtained three-dimensional image. It is preferable to learn the drawing pattern of the user in advance by matching the movement, the speed, and the pen pressure with the stroke shape of the corresponding viewpoint.
  • the drawing pattern of the user is stored for each of a plurality of frames (frames) for the actual drawing, and may include a time series change of the state value and the pen pressure of the drawing means included in each frame.
  • the drawing pattern of the user may be differentiated and stored for each individual user as unique identification information for the user by combining at least two of a state value, a movement, a speed, and a pressure of the drawing means.
  • the program stored in the memory 40 extracts a 3D image and a 2D image of the drawing means of the user from the drawing motion of the user, and matches the extracted 3D image and the 2D image. It is preferable to recognize the movement of the drawing means by calculating the inclination angle of the drawing means, whether the drawing means is in contact with the plane corresponding to the virtual canvas and the distance.
  • the drawing means has a form of a pen or a brush, and the program stored in the memory identifies the type of the drawing means by using unique information contained in a two-dimensional image of the drawing means. can do.
  • the program stored in the memory 40 may calculate motion information of at least two of a state value, a movement, and a speed of the drawing means from the recognized movement of the drawing means, and calculate the motion information from the previously learned drawing pattern. It is preferable to read the stroke information by searching for a matching value and returning stroke information reflecting the pen pressure.
  • the drawing image processing apparatus 700 further includes a display means 60 for outputting a virtual canvas space, wherein the display means 60 is a drawing output in real time.
  • An image may be displayed in the virtual canvas space.
  • the drawing image displayed at this time is preferably displayed corresponding to the position of the end of the drawing means held by the user.
  • FIG. 8 is a diagram illustrating an environment for implementing a fragment image and an accompanying device according to another embodiment of the present invention, and assumes a situation similar to that of FIG. 2.
  • the user performs an action of carving a virtual sculpture object using a carving means, for example, a carving knife, and photographs it using a depth camera 10 to recognize a motion.
  • a carving means for example, a carving knife
  • a depth camera 10 to recognize a motion.
  • the display means 60A e.g., beam project
  • HMD head mounted display
  • AR augmented reality
  • the hand gestures when the user sculpts using the engraving means are more diverse than the hand gestures when drawing.
  • the carving means also have characteristics such as a pen or a brush, it is possible to easily recognize based on the type information of the previously learned carving means.
  • the direction of the engraving means can be determined by the color of the position corresponding to the end of the knife (knife), considering the material of the end of the engraving means can be recognized according to the color of the metal material.
  • the remainder of the engraving means may similarly adopt the method previously employed in drawing recognition. However, if the user recognizes in advance what kind of engraving means is selected through the camera, the accuracy of the recognition may be increased. Once the type of engraving means has been identified, the resulting blade shape can predict the engraving marks that will be formed on the engraving target.
  • the sensing of the hand / finger pressure through the EMG sensor 20 is slightly different from the drawing recognition.
  • the engraving is performed in a small motion, it is necessary to process the pressure applied to the engraving object more precisely based on the pressure data measured from the finger.
  • FIG. 9 is a flowchart illustrating a method of processing a fragment image based on NUI / NUX according to another embodiment of the present invention.
  • the engraving image processing apparatus receives the actual sculpting image of the user and the pressure of the hand among the pieces, and learns the engraving pattern of the user in advance for each type of engraving means.
  • a 3D image of the actual engraving behavior of the user is obtained by using a depth camera, and an electromyogram (EMG) sensor attached to the user's hand corresponds to the actual carving behavior of the user.
  • EMG electromyogram
  • the pressure of the hand is measured and converted into the pressure of the engraving means, and the state values, movements, speeds and pressures of the engraving means according to the three-dimensional image obtained are matched together with the shape of the engraving marks of the corresponding point of time according to the type of the engraving means. Save it.
  • the engraving pattern of the user is stored for each of a plurality of frames (frame) for the actual engraving behavior, it is preferable to include a time-series change in the state value and pressure of the engraving means included in each frame.
  • the engraving image processing apparatus receives a sculpting motion of the user, and recognizes the type of carving means and the movement of the carving means held by the user from the input carving motion.
  • the 3D image and the 2D image of the engraving means held by the user are respectively extracted from the user's engraving motion input using a depth camera, and the extracted 3D image and the 2D image are matched.
  • the inclination angle of the engraving means, whether or not the contact between the engraving means and the reference position corresponding to the virtual engraving object is calculated.
  • the carving means is in the form of a carving knife (carving knife), it is preferable to identify the type of the carving means using the unique information contained in the two-dimensional image of the carving means.
  • the engraving image processing apparatus reads carving information corresponding to the type of engraving means by matching the movement of the carving means recognized in operation S920 with the carving pattern previously learned in operation S910. do.
  • the motion information of at least two of the state value, the movement and the speed of the engraving means is calculated from the recognized movement of the engraving means, and the value matching the calculated motion information is retrieved from the previously learned engraving pattern.
  • Carving information corresponding to the type of engraving means and reflecting the pressure is returned.
  • the engraving image processing by adjusting the pressure or the size of the engraving mark in proportion to the speed of the engraving means, it is possible to simulate the engraving marks imprinted on the object to be carved by the engraving means more similar to the actual engraving behavior. Do.
  • the fragment image processing apparatus outputs a fragment image corresponding to the fragment mark information in real time in response to the fragment motion of the user.
  • the engraving image processing apparatus outputs a virtual sculpture object by using display means such as a head mounted display device or an augmented reality glasses, and displays the sculpture image output in real time on the virtual sculpture object through step S940. You may.
  • inventions of the present invention can be implemented by computer readable codes on a computer readable recording medium.
  • the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.
  • Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to an apparatus and a method for processing a digital image on the basis of an NUI/NUX, which learn a drawing pattern of a user in advance by receiving the actual drawing image of the user and the pressure of the hand at the time of drawing; recognize the movement of a drawing means held by the user by receiving a drawing motion of the user; read stroke information by matching the recognized movement of the drawing means with the previously learned drawing pattern; and output, in real-time, a drawing image corresponding to the stroke information which corresponds to the drawing motion of the user.

Description

NUI/NUX에 기반하여 디지털 영상을 처리하는 장치 및 방법Apparatus and method for processing digital video based on NUI / NUX
본 발명은 디지털 드로잉(digital drawing)이나 디지털 조각(digital sculpting)을 구현하는 기술에 관한 것을, 특히 인간에게 가장 직관적인 NUI(natural user interface)를 통해 드로잉 동작 또는 손 동작으로부터 직관적인 드로잉 영상 또는 조각 영상을 생성하는 디지털 영상의 처리 장치, 방법 및 그 방법을 기록한 기록매체에 관한 것이다.DETAILED DESCRIPTION The present invention relates to a technique for implementing digital drawing or digital sculpting, particularly an intuitive drawing image or sculpture from a drawing action or a hand action through a natural user interface (NUI) that is most intuitive to humans. A digital image processing apparatus, a method for generating an image, and a recording medium recording the method.
웹툰(web-toon)과 같은 인터넷 만화 서비스가 유행하면서 태블릿(tablet)을 이용하여 그림을 그리는 사람이 많아졌고 일반인들도 캘리그라피나 취미용 그림을 그리는 등 디지타이저를 이용한 디지털 드로잉이 점차 대중화되고 있다.With the popularity of Internet cartoon services such as web-toons, more people use tablets to draw pictures, and the general public is increasingly using digital digitizers such as drawing calipers or hobbies. .
기존의 디지털 드로잉 기술은 전자 펜(pen)을 사용하여 특수한 소프트웨어를 통해 디지털 캔버스 상에 그림을 그리는 효과를 구현하는 방식으로 이루어진다. 이와 더불어, 터치 기술을 사용하여 손가락이나 스타일러스를의 궤적을 추적하여 그림을 그리는 방식도 존재한다. 이러한 방식들은 특수한 펜이나 감지 수단을 사용해야 하며, 그림을 그릴 때 실제 펜이나 붓과는 그 감각이 다를 뿐만 아니라, 실제 드로잉에서 체감할 수 있는 조작성을 제공할 수 없었다. 또한, 이러한 감각이 실제 드로잉과는 괴리되어 있어 그림 연습에도 도움이 되지 않았다.Conventional digital drawing technology uses an electronic pen to implement the effect of drawing on a digital canvas through special software. In addition, there is a method of drawing a picture by tracking a trace of a finger or a stylus using touch technology. These methods require the use of special pens or sensing means, and when drawing, their senses are different from those of actual pens and brushes, and they cannot provide the operability that can be felt in actual drawings. In addition, these sensations were different from actual drawings, which did not help in drawing practice.
또한, 디지털 환경에서 예술가가 조각을 한다는 것은 매우 생소한 개념으로서, 조각 대상물을 실제 조각도를 이용하여 깎아내는 제스처만으로 디지털 조각을 구현할 수 있다는 것은 상상 속에서나 가능한 일이었다.In addition, it is a very unfamiliar concept for artists to sculpt in a digital environment, and it was only possible to imagine that digital sculpture could be realized using gestures to cut a sculpture object using a real sculpture.
이하에서 제시되는 선행기술문헌에는 자기장 발생 수단이 구비된 펜을 이용하여 사용자 입력을 감지하는 기술적 수단이 소개되어 있는데, 이 역시 센서와 특수한 장치가 내장된 전용 전자 펜을 이용하여야 한다는 점에서 상기된 바와 동일한 문제점이 예상된다.In the following prior art document, a technical means for detecting a user input using a pen having a magnetic field generating means is introduced, which is also mentioned above in that a dedicated electronic pen with a sensor and a special device is used. The same problem is expected.
<선행기술문헌> 한국 특허공개공보 10-2015-0080480, 2015.07.09 공개<Prior art document> Korean Patent Publication 10-2015-0080480, 2015.07.09 publication
따라서, 일반인들에게는 전용 전자 펜이나 태블릿과 같은 특수한 장비를 사용하지 않고도 실제 연필, 펜이나 붓과 같은 그림 도구를 이용하여 그림을 그리는 것과 유사한 체감을 제공하거나 조각도를 대체하는 평범한 막대형 물체만으로도 마치 조각을 하는 것과 유사한 체감을 제공할 수 있는 간편한 디지털 영상 처리 수단이 요구된다.Therefore, for ordinary people, it is not necessary to use ordinary stick objects that replace the sculpture or provide a feeling similar to drawing with a real pencil, pen or brush, without using special equipment such as a dedicated electronic pen or tablet. There is a need for simple digital image processing means that can provide a immersive experience similar to carving.
본 발명이 해결하고자 하는 기술적 과제는, 종래의 디지털 드로잉 기술이 전용 전자 펜이나 태블릿과 같은 고가의 전문가용 장비를 활용하여야 하는 관계로 일반 사용자가 사용하기 어려운 문제를 해결하고, 이러한 전자 펜을 이용한 드로잉이 실제의 그림 그리기의 경우와 감각이 상이하거나 현장감을 제공하지 못하는 한계를 극복하며, 나아가 조각 예술의 경우 이를 가상 세계를 통해 구현하고자 하는 시도가 전무하였던 고정관점을 넘어서고자 한다.The technical problem to be solved by the present invention is that the conventional digital drawing technology has to utilize expensive professional equipment, such as a dedicated electronic pen or tablet, solve the problem that is difficult for general users to use, and using the electronic pen Overcoming the limitation that drawing is different from the actual drawing and providing a sense of reality, in the case of sculpture art, it tries to go beyond the fixed point of view where no attempt was made to implement it through the virtual world.
상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 드로잉 영상 처리 방법은, 사용자의 실제 드로잉(drawing) 영상과 드로잉 중 손의 압력을 입력받아 상기 사용자의 드로잉 패턴을 미리 학습하는 단계; 사용자의 드로잉 모션(drawing motion)을 입력받고, 입력된 상기 드로잉 모션으로부터 사용자가 쥐고 있는 드로잉 수단의 움직임을 인식하는 단계; 인식된 상기 드로잉 수단의 움직임을 미리 학습된 상기 드로잉 패턴과 매칭하여 스트로크(stroke) 정보를 독출하는 단계; 및 상기 사용자의 드로잉 모션에 대응하여 상기 스트로크 정보에 대응하는 드로잉 영상을 실시간으로 출력하는 단계를 포함한다.In order to solve the above technical problem, a drawing image processing method according to an embodiment of the present invention, comprising the steps of pre-learning the user's drawing pattern by receiving the user's actual drawing image and the pressure of the hand during drawing; Receiving a drawing motion of the user and recognizing a movement of the drawing means held by the user from the input drawing motion; Reading stroke information by matching the recognized movement of the drawing means with the previously learned drawing pattern; And outputting a drawing image corresponding to the stroke information in real time in response to the drawing motion of the user.
일 실시예에 따른 드로잉 영상 처리 방법에서, 상기 사용자의 드로잉 패턴을 미리 학습하는 단계는, 깊이 카메라를 이용하여 상기 사용자의 실제 드로잉에 대한 3차원 영상을 획득하는 단계; 상기 사용자의 손에 부착된 근전도(electromyogram, EMG) 센서를 이용하여 상기 사용자의 실제 드로잉에 대응하는 손의 압력을 측정하고 드로잉 수단의 필압으로 변환하는 단계; 및 획득된 상기 3차원 영상에 따른 드로잉 수단의 상태 값, 움직임, 속도 및 필압을 매칭하되 해당 시점의 스트로크 형태와 함께 저장하는 단계를 포함할 수 있다. 또한, 상기 사용자의 드로잉 패턴은, 실제 드로잉에 대한 복수 개의 프레임(frame)별로 저장되며, 각 프레임에 포함된 드로잉 수단의 상태 값과 필압의 시계열적인 변화를 포함할 수 있다. 나아가, 상기 사용자의 드로잉 패턴은, 상기 드로잉 수단의 상태 값, 움직임, 속도 및 필압 중 적어도 둘 이상의 조합하여 상기 사용자에 대한 고유의 식별 정보로서 개인 사용자별로 차별화되어 저장될 수 있다.In the drawing image processing method according to an embodiment, the step of pre-learning a drawing pattern of the user may include obtaining a 3D image of the actual drawing of the user by using a depth camera; Measuring pressure of a hand corresponding to the actual drawing of the user using an electromyogram (EMG) sensor attached to the user's hand and converting the pressure into a pen pressure of a drawing means; And matching state values, movements, speeds, and pressures of the drawing means according to the obtained 3D image, and storing the state values together with the stroke shapes of the corresponding viewpoints. In addition, the drawing pattern of the user is stored for each of a plurality of frames (frames) for the actual drawing, and may include a time series change of the state value and the pen pressure of the drawing means included in each frame. Further, the drawing pattern of the user may be differentiated and stored for each individual user as unique identification information for the user by combining at least two of a state value, a movement, a speed, and a pressure of the drawing means.
일 실시예에 따른 드로잉 영상 처리 방법에서, 상기 드로잉 수단의 움직임을 인식하는 단계는, 깊이 카메라를 이용하여 입력된 사용자의 드로잉 모션으로부터 사용자가 쥐고 있는 드로잉 수단에 대한 3차원 영상 및 2차원 영상을 각각 추출하는 단계; 및 추출된 상기 3차원 영상 및 상기 2차원 영상을 매칭하여 상기 드로잉 수단의 기울어진 각도, 상기 드로잉 수단과 가상의 캔버스(canvas)에 대응하는 평면과의 접촉 여부 및 거리를 산출하는 단계를 포함할 수 있다. 또한, 상기 드로잉 수단은 펜(pen) 또는 붓(brush)의 형태를 가지며, 상기 드로잉 수단에 대한 2차원 영상 내에 포함된 고유 정보를 이용하여 상기 드로잉 수단의 종류를 식별하는 단계를 더 포함할 수 있다.In the drawing image processing method according to an embodiment, the step of recognizing the movement of the drawing means may include a 3D image and a 2D image of the drawing means held by the user from a drawing motion of the user input using a depth camera. Extracting each; And calculating the inclination angle of the drawing means, whether the drawing means is in contact with a plane corresponding to the virtual canvas, and the distance by matching the extracted 3D image and the 2D image. Can be. In addition, the drawing means may have a form of a pen or a brush, and the method may further include identifying a type of the drawing means by using unique information included in a two-dimensional image of the drawing means. have.
일 실시예에 따른 드로잉 영상 처리 방법에서, 상기 스트로크 정보를 독출하는 단계는, 인식된 상기 드로잉 수단의 움직임으로부터 드로잉 수단의 상태 값, 움직임 및 속도 중 적어도 둘 이상 모션 정보를 산출하는 단계; 및 미리 학습된 상기 드로잉 패턴으로부터 상기 산출된 모션 정보에 매칭되는 값을 검색하여 필압이 반영된 스트로크(stroke) 정보를 반환하는 단계를 포함할 수 있다.In the drawing image processing method according to an exemplary embodiment, the reading of the stroke information may include calculating at least two motion information among a state value, a movement, and a speed of the drawing means from the recognized movement of the drawing means; And searching for a value matching the calculated motion information from the previously learned drawing pattern, and returning stroke information reflecting a pen pressure.
일 실시예에 따른 드로잉 영상 처리 방법은, 디스플레이 수단을 이용하여 가상의 캔버스 공간을 출력하되, 상기 실시간으로 출력되는 드로잉 영상을 상기 가상의 캔버스 공간 내에 표시하는 단계를 더 포함할 수 있다.According to an embodiment, the drawing image processing method may further include outputting a virtual canvas space using a display means, and displaying the drawing image output in real time in the virtual canvas space.
상기 기술적 과제를 해결하기 위하여, 본 발명의 다른 실시예에 따른 조각 영상 처리 방법은, 사용자의 실제 조각(sculpting) 영상과 조각 중 손의 압력을 입력받아 조각 수단의 종류별로 상기 사용자의 조각 패턴을 미리 학습하는 단계; 사용자의 조각 모션(sculpting motion)을 입력받고, 입력된 상기 조각 모션으로부터 사용자가 쥐고 있는 조각 수단의 종류 및 상기 조각 수단의 움직임을 인식하는 단계; 인식된 상기 조각 수단의 움직임을 미리 학습된 상기 조각 패턴과 매칭하여 조각 수단의 종류에 따른 조각 자국(carving) 정보를 독출하는 단계; 및 상기 사용자의 조각 모션에 대응하여 상기 조각 자국 정보에 대응하는 조각 영상을 실시간으로 출력하는 단계를 포함한다.In order to solve the above technical problem, the engraving image processing method according to another embodiment of the present invention, by receiving the actual sculpting image of the user and the pressure of the hand of the sculpture received by the type of the carving pattern of the user by the type of carving means Learning in advance; Receiving a sculpting motion of the user and recognizing the type of sculpting means held by the user and the movement of the sculpting means from the input sculpting motion; Reading piece carving information according to the type of carving means by matching the recognized movement of the carving means with the previously learned carving pattern; And outputting a fragment image corresponding to the fragment mark information in real time in response to the fragment motion of the user.
다른 실시예에 따른 조각 영상 처리 방법에서, 상기 사용자의 조각 패턴을 미리 학습하는 단계는, 깊이 카메라를 이용하여 상기 사용자의 실제 조각 행위에 대한 3차원 영상을 획득하는 단계; 상기 사용자의 손에 부착된 근전도(electromyogram, EMG) 센서를 이용하여 상기 사용자의 실제 조각 행위에 대응하는 손의 압력을 측정하고 조각 수단의 압력으로 변환하는 단계; 및 획득된 상기 3차원 영상에 따른 조각 수단의 상태 값, 움직임, 속도 및 압력을 매칭하되 조각 수단의 종류에 따른 해당 시점의 조각 자국 형태와 함께 저장하는 단계를 포함할 수 있다. 또한, 상기 사용자의 조각 패턴은, 실제 조각 행위에 대한 복수 개의 프레임(frame)별로 저장되며, 각 프레임에 포함된 조각 수단의 상태 값과 압력의 시계열적인 변화를 포함할 수 있다.In the engraving image processing method according to another embodiment, the learning of the engraving pattern of the user in advance may include: obtaining a 3D image of the actual carving behavior of the user using a depth camera; Measuring the pressure of the hand corresponding to the actual engraving behavior of the user by using an electromyogram (EMG) sensor attached to the user's hand and converting the pressure into a pressure of the engraving means; And matching a state value, a movement, a speed, and a pressure of the engraving means according to the obtained 3D image, and storing the state values together with the shape of the engraving marks at the corresponding point of time according to the type of the engraving means. In addition, the engraving pattern of the user is stored for each of a plurality of frames (frame) for the actual engraving behavior, and may include a time-series change in the state value and pressure of the engraving means included in each frame.
다른 실시예에 따른 조각 영상 처리 방법에서, 상기 조각 수단의 움직임을 인식하는 단계는, 깊이 카메라를 이용하여 입력된 사용자의 조각 모션으로부터 사용자가 쥐고 있는 조각 수단에 대한 3차원 영상 및 2차원 영상을 각각 추출하는 단계; 및 추출된 상기 3차원 영상 및 상기 2차원 영상을 매칭하여 상기 조각 수단의 기울어진 각도, 상기 조각 수단과 가상의 조각 대상에 대응하는 기준 위치와의 접촉 여부 및 거리를 산출하는 단계를 포함할 수 있다. 또한, 상기 조각 수단은 조각도(carving knife)의 형태를 가지며, 상기 조각 수단에 대한 2차원 영상 내에 포함된 고유 정보를 이용하여 상기 조각 수단의 종류를 식별하는 단계를 더 포함할 수 있다.In the engraving image processing method according to another embodiment, the step of recognizing the movement of the engraving means, the three-dimensional image and the two-dimensional image of the engraving means held by the user from the user's engraving motion input using the depth camera Extracting each; And matching the extracted 3D image and the 2D image to calculate an inclination angle of the engraving means, whether the engraving means is in contact with a reference position corresponding to the virtual engraving object, and a distance. have. In addition, the carving means may have a form of a carving knife (carving knife), it may further comprise the step of identifying the type of the carving means using the unique information contained in the two-dimensional image of the carving means.
다른 실시예에 따른 조각 영상 처리 방법에서, 상기 조각 자국 정보를 독출하는 단계는, 인식된 상기 조각 수단의 움직임으로부터 조각 수단의 상태 값, 움직임 및 속도 중 적어도 둘 이상 모션 정보를 산출하는 단계; 및 미리 학습된 상기 조각 패턴으로부터 상기 산출된 모션 정보에 매칭되는 값을 검색하여 조각 수단의 종류에 대응하고 압력이 반영된 조각 자국(carving) 정보를 반환하는 단계를 포함할 수 있다. 또한, 상기 압력 또는 상기 조각 자국의 크기를 상기 조각 수단의 속도에 비례하여 조절하는 단계를 더 포함할 수 있다.In the engraving image processing method according to another exemplary embodiment, the reading of the engraving mark information may include: calculating at least two pieces of motion information of a state value, a movement, and a speed of the carving means from the recognized movement of the carving means; And searching for a value matched with the calculated motion information from the previously learned piece pattern, and returning piece carving information corresponding to the type of piece means and reflecting pressure. The method may further include adjusting the pressure or the size of the engraving mark in proportion to the speed of the engraving means.
다른 실시예에 따른 조각 영상 처리 방법에서, 디스플레이 수단을 이용하여 가상의 조각 대상을 출력하되, 상기 실시간으로 출력되는 조각 영상을 상기 가상의 조각 대상 위에 표시하는 단계를 더 포함할 수 있다.In the fragment image processing method according to another embodiment, the method may further include outputting a virtual fragment object using a display means, and displaying the fragment image output in real time on the virtual fragment object.
본 발명의 실시예들은, 특수한 전자 펜이나 디지타이저가 아닌 인간에게 가장 친숙한 드로잉 모션 또는 조각 모션을 NUI를 통해 디지털 예술을 구현함으로써 보다 현장감있는 드로잉 또는 조각 체험을 사용자에게 제공하는 것이 가능하고, NUI/NUX를 기반으로 함으로써 연령대에 무관하게 전문가가 아닌 일반인들에게도 디지털 영상에 대한 빠르고 친숙한 적응과 용이한 조작을 가능하게 한다.Embodiments of the present invention, it is possible to provide a user with a more realistic drawing or sculpture experience by implementing digital art through NUI the drawing motion or sculpture motion that is most familiar to humans, not a special electronic pen or digitizer, NUI / Based on NUX, it enables fast and familiar adaptation and easy manipulation of digital images to non-professional people of all ages.
도 1은 본 발명의 일 실시예에 따른 NUI/NUX에 기반하여 드로잉 영상을 처리하는 방법을 도시한 흐름도이다.1 is a flowchart illustrating a method of processing a drawing image based on NUI / NUX according to an embodiment of the present invention.
도 2는 본 발명의 실시예들이 구현되는 개괄적인 환경과 이에 수반된 장치를 도시한 도면이다.FIG. 2 is a diagram illustrating a general environment in which embodiments of the present invention are implemented and accompanying apparatus.
도 3은 본 발명의 실시예들의 동작에 따른 데이터의 흐름을 도시한 도면이다.3 is a diagram illustrating the flow of data according to the operation of embodiments of the present invention.
도 4 및 도 5는 드로잉 수단의 움직임을 인식하는 방법을 설명하기 위한 도면이다.4 and 5 are diagrams for explaining a method of recognizing the movement of the drawing means.
도 6은 사용자의 필압을 측정하는 방법을 설명하기 위한 도면이다.6 is a view for explaining a method of measuring the user's pen pressure.
도 7은 본 발명의 일 실시예에 따른 NUI/NUX에 기반하여 드로잉 영상을 처리하는 장치를 도시한 블록도이다.7 is a block diagram illustrating an apparatus for processing a drawing image based on NUI / NUX according to an embodiment of the present invention.
도 8은 본 발명의 다른 실시예에 따른 조각 영상을 구현하는 환경과 이에 수반된 장치를 도시한 도면이다.8 is a diagram illustrating an environment for implementing a fragment image and an apparatus associated with the fragment image according to another embodiment of the present invention.
도 9는 본 발명의 다른 실시예에 따른 NUI/NUX에 기반하여 조각 영상을 처리하는 방법을 도시한 흐름도이다.9 is a flowchart illustrating a method of processing a fragment image based on NUI / NUX according to another embodiment of the present invention.
<부호의 설명><Description of the code>
700: 드로잉 영상 처리 장치700: drawing image processing apparatus
10: 깊이 카메라10: depth camera
20: 근전도 센서20: EMG sensor
30: 프로세서30: Processor
40: 메모리40: memory
50: 학습 데이터베이스50: learning database
60, 60A, 60B: 디스플레이 수단60, 60A, 60B: display means
본 발명의 일 실시예에 따른 드로잉 영상 처리 방법은, 사용자의 실제 드로잉(drawing) 영상과 드로잉 중 손의 압력을 입력받아 상기 사용자의 드로잉 패턴을 미리 학습하는 단계; 사용자의 드로잉 모션(drawing motion)을 입력받고, 입력된 상기 드로잉 모션으로부터 사용자가 쥐고 있는 드로잉 수단의 움직임을 인식하는 단계; 인식된 상기 드로잉 수단의 움직임을 미리 학습된 상기 드로잉 패턴과 매칭하여 스트로크(stroke) 정보를 독출하는 단계; 및 상기 사용자의 드로잉 모션에 대응하여 상기 스트로크 정보에 대응하는 드로잉 영상을 실시간으로 출력하는 단계를 포함한다.According to an embodiment of the present invention, a drawing image processing method may include: learning a drawing pattern of a user in advance by receiving an actual drawing image of a user and a pressure of a hand during drawing; Receiving a drawing motion of the user and recognizing a movement of the drawing means held by the user from the input drawing motion; Reading stroke information by matching the recognized movement of the drawing means with the previously learned drawing pattern; And outputting a drawing image corresponding to the stroke information in real time in response to the drawing motion of the user.
본 발명의 다른 실시예에 따른 조각 영상 처리 방법은, 사용자의 실제 조각(sculpting) 영상과 조각 중 손의 압력을 입력받아 조각 수단의 종류별로 상기 사용자의 조각 패턴을 미리 학습하는 단계; 사용자의 조각 모션(sculpting motion)을 입력받고, 입력된 상기 조각 모션으로부터 사용자가 쥐고 있는 조각 수단의 종류 및 상기 조각 수단의 움직임을 인식하는 단계; 인식된 상기 조각 수단의 움직임을 미리 학습된 상기 조각 패턴과 매칭하여 조각 수단의 종류에 따른 조각 자국(carving) 정보를 독출하는 단계; 및 상기 사용자의 조각 모션에 대응하여 상기 조각 자국 정보에 대응하는 조각 영상을 실시간으로 출력하는 단계를 포함한다.In accordance with another aspect of the present invention, there is provided a method of processing a sculpture image, the method comprising: pre-learning a sculpture pattern of a user for each type of engraving means by receiving an actual sculpting image of a user and a pressure of a hand among pieces; Receiving a sculpting motion of the user and recognizing the type of sculpting means held by the user and the movement of the sculpting means from the input sculpting motion; Reading piece carving information according to the type of carving means by matching the recognized movement of the carving means with the previously learned carving pattern; And outputting a fragment image corresponding to the fragment mark information in real time in response to the fragment motion of the user.
디지털 드로잉을 구현하는 종래의 기술적 수단은 특수하게 마련된 전자 펜을 사용하여야 하는 관계로 전문가들이 아닌 일반 사용자들이 사용을 어렵게 만드며, 특히 그림을 그릴 때 실제 그림을 그리는 펜이나 붓과는 그 감각이 상이하여 실제 회화 연습에는 큰 도움이 되지 않는다. 즉, 디지타이저(digitizer)를 통해 드로잉 연습을 반복하더라도 실제 캔버스에 그림을 그리는 것과는 다른 감각을 체득하게 되며, 그로 인해 여전히 경험이 부족한 일반 사용자는 캔버스나 종이 상에서 그림을 그리기 어렵다.Conventional technical means for implementing digital drawing requires the use of specially prepared electronic pens, which makes it difficult for non-professional users to use. The difference is that it is not very helpful for actual conversation practice. In other words, even if you repeat the drawing practice through the digitizer, you get a different feeling from drawing on a real canvas, which makes it difficult for ordinary users who are still inexperienced to draw on canvas or paper.
이하에서 기술되는 본 발명의 실시예들은 상기된 문제점들을 해소하기 위해 안출된 것으로서, 인간에게 가장 직관적인 NUI 기술을 사용하여 소환 현실 기반의 디지털 드로잉 시스템을 구현하고자 한다. 이러한 디지털 드로잉 시스템은 일반 태블릿의 특수한 전자 펜을 사용하지 않고 보통의 드로잉 수단, 예를 들어 연필, 펜이나 붓, 심지어 편 형상의 막대만을 사용하여서도 디지털 드로잉을 구현하는 것이 가능하다. 본 발명의 실시예들을 통해 사용자는 마치 실제 캔버스 상에서 그림을 그리는 방식으로 프로젝트가 투영한 화면이나 디스플레이 화면 상에서 자유롭게 드로잉 모션을 취하면서 그림을 그릴 수 있다. 또한, 실제 드로잉 수단을 사용할 때와 유사하게 펜/붓의 기울어진 각도, 누르는 힘의 크기나 펜/붓을 움직이는 속도에 따라 자연스럽게 그림 효과가 구현될 수 있다. 사용자는 일반 드로잉 수단, 심지어 막대를 사용할 수 있으며, 그림을 그리는 대상(예를 들어 종래의 태블릿과 같은 특수한 장비)이나 위치에 구애받지 않고 일반 종이나 캔버스, 심지어 벽과 같은 다양한 평면/곡면에도 실제와 유사한 감각으로 그림을 그릴 수 있다. 또한, 사용자가 펜/붓을 쥐는 힘을 측정하여 필압으로 변환하되, 펜/붓의 방향 및 힘의 크기에 따라 현실감 있는 그림 효과를 구현할 수 있다.Embodiments of the present invention described below have been made to solve the above-mentioned problems, and try to implement a summoning reality-based digital drawing system using NUI technology that is most intuitive to humans. Such a digital drawing system can realize digital drawing using only ordinary drawing means such as a pencil, pen or brush, or even a flat bar without using a special electronic pen of a general tablet. Through the embodiments of the present invention, the user may draw a picture while freely taking a drawing motion on a screen or a display screen projected by the project as if the picture is drawn on a real canvas. In addition, similar to when using the actual drawing means, the picture effect can be naturally realized according to the inclination angle of the pen / brush, the size of the pressing force or the speed of moving the pen / brush. Users can use common drawing means, even bars, and they can be used on a variety of planes / surfaces, such as plain paper, canvas or even walls, regardless of where they are drawing (e.g. special equipment such as conventional tablets) or their location. You can draw with a sense similar to In addition, while measuring the force of the user grasping the pen / brush to convert to a pen pressure, realistic picture effects can be implemented according to the direction of the pen / brush and the size of the force.
이하에서는, 도면을 참조하여 상기된 기술적 과제를 해결하기 위한 본 발명의 실시예들을 구체적으로 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 명칭 및 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, in the following description and the accompanying drawings, detailed descriptions of well-known functions or configurations that may obscure the subject matter of the present invention will be omitted. In addition, it should be noted that like elements throughout the drawings are represented by the same name and reference numerals as much as possible.
도 1은 본 발명의 일 실시예에 따른 NUI/NUX에 기반하여 드로잉 영상을 처리하는 방법을 도시한 흐름도이다.1 is a flowchart illustrating a method of processing a drawing image based on NUI / NUX according to an embodiment of the present invention.
S110 단계에서, 드로잉 영상 처리 장치는, 사용자의 실제 드로잉(drawing) 영상과 드로잉 중 손의 압력을 입력받아 상기 사용자의 드로잉 패턴을 미리 학습한다. 그림이나 필기는 사람마다 습관의 차이가 있는데, 본 발명의 실시예들에서는 개인의 드로잉/작도 습관을 손가락에 가하는 힘과 펜/붓을 쥐고 움직이는 각도 및 방향 정보를 기준으로 드로잉 패턴을 학습한다. 그림을 그리거나 필기를 할 때에는 손가릭에 가하는 힘이 끊임없이 변화하며, 이는 사용자의 손에 부착된 근전도(electromyogram, EMG) 센서를 통해 획득된 개인별 근전도 데이터 패턴으로부터 확인할 수 있다.In operation S110, the drawing image processing apparatus receives the actual drawing image of the user and the pressure of the hand during drawing to learn the drawing pattern of the user in advance. Drawings or writings differ in habits from person to person, and in the embodiments of the present invention, a drawing pattern is learned based on the force of applying a drawing / drawing habit of an individual to a finger and a moving angle and direction information by holding a pen / brush. When drawing or writing, the force applied to the fingertips is constantly changing, which can be seen from individual EMG data patterns acquired through electromyogram (EMG) sensors attached to the user's hands.
즉, 사용자의 드로잉 패턴을 미리 학습하는 S110 과정은, 깊이 카메라를 이용하여 상기 사용자의 실제 드로잉에 대한 3차원 영상을 획득하고, 상기 사용자의 손에 부착된 근전도(electromyogram, EMG) 센서를 이용하여 상기 사용자의 실제 드로잉에 대응하는 손의 압력을 측정하고 드로잉 수단의 필압으로 변환하며, 획득된 상기 3차원 영상에 따른 드로잉 수단의 상태 값, 움직임, 속도 및 필압을 매칭하되 해당 시점의 스트로크 형태와 함께 저장함으로써, 구현될 수 있다. 특히, 드로잉 패턴을 학습하는 과정에서 축적된 근전도 데이터를 이용하여, 이후 사용자가 실제 디지털 드로잉 영상을 생성하는 경우에는 근전도 센서의 부착과 같은 번거로운 작업이 없이도 자연스러운 드로잉 모션만으로 그에 적합한 스트로크(stroke) 정도를 획득할 수 있다.That is, the S110 process of learning the user's drawing pattern in advance, obtains a 3D image of the actual drawing of the user by using a depth camera, and uses an electromyogram (EMG) sensor attached to the user's hand. The pressure of the hand corresponding to the actual drawing of the user is measured and converted into the pen pressure of the drawing means, and the state value, the movement, the speed and the pen pressure of the drawing means according to the obtained 3D image are matched, By storing together, it can be implemented. In particular, when the user generates an actual digital drawing image by using the EMG data accumulated in the process of learning the drawing pattern, the stroke degree suitable for the natural drawing motion only without the cumbersome work such as the attachment of the EMG sensor Can be obtained.
S120 단계에서, 상기 드로잉 영상 처리 장치는, 깊이 카메라를 이용하여 사용자의 드로잉 모션(drawing motion)을 입력받고, 입력된 상기 드로잉 모션으로부터 사용자가 쥐고 있는 드로잉 수단의 움직임을 인식하며, 이 과정에서는 별도의 근전도 센서가 불필요하다.In operation S120, the drawing image processing apparatus receives a drawing motion of the user by using a depth camera, recognizes a movement of the drawing means held by the user from the input drawing motion, and separately in this process. EMG sensor is unnecessary.
S130 단계에서, 상기 드로잉 영상 처리 장치는, S120 단계를 통해 인식된 상기 드로잉 수단의 움직임을 S110 단계를 통해 미리 학습된 상기 드로잉 패턴과 매칭하여 스트로크(stroke) 정보를 독출한다. 같은 궤적의 선을 그리더라도 사용자마다 펜을 쥐는 방향이나 각도가 다른데, 각각의 사용자마다 학습된 근전도 데이터로부터 사용자의 필압을 추정할 수 있으며, 획득된 영상으로부터 펜/붓 영역을 추정한 후 해당 영역에 대한 깊이(depth) 이미지에서 펜의 상태를 추정할 수 있다.In operation S130, the drawing image processing apparatus reads stroke information by matching the movement of the drawing means recognized in operation S120 with the drawing pattern previously learned in operation S110. Even if the same trajectory line is drawn, the direction or angle of holding the pen is different for each user.Each user can estimate the user's pen pressure from the learned EMG data, and after estimating the pen / brush area from the acquired image, The state of the pen can be estimated from the depth image for.
보다 구체적으로, 스트로크 정보를 독출하는 S130 단계는, 인식된 상기 드로잉 수단의 움직임으로부터 드로잉 수단의 상태 값, 움직임 및 속도 중 적어도 둘 이상 모션 정보를 산출하고, 미리 학습된 상기 드로잉 패턴으로부터 상기 산출된 모션 정보에 매칭되는 값을 검색하여 필압이 반영된 스트로크(stroke) 정보를 반환하는 것이 바람직하다.More specifically, in step S130 of reading the stroke information, at least two or more motion information of the state value, the movement and the speed of the drawing means is calculated from the recognized movement of the drawing means, and the calculation from the previously learned drawing pattern It is preferable to return the stroke information reflecting the pen pressure by searching for a value matching the motion information.
S140 단계에서, 상기 드로잉 영상 처리 장치는, 이제 상기 사용자의 드로잉 모션에 대응하여 상기 스트로크 정보에 대응하는 드로잉 영상을 실시간으로 출력한다. 즉, 현재의 디지털 프로세서의 연산 능력을 바탕으로 S120 단계 내지 S140 단계는 실시간으로 처리될 수 있으며, 마치 사용자의 자연스러운 드로잉 모션에 반응하여 드로잉 영상이 사용자가 쥐고 있는 드로잉 수단의 말단에서 그려지는 것처럼 동작하게 된다. 이를 위해 드로잉 영상을 출력하는 수단은 깊이 카메라나 센서를 이용하여 사용자가 쥐고 있는 드로잉 수단의 말단을 인식하고, 인식된 말단의 위치에 대응하여 앞서 생성된 드로잉 영상을 표시하는 것이 바람직하다.In operation S140, the drawing image processing apparatus outputs a drawing image corresponding to the stroke information in real time in response to the drawing motion of the user. That is, based on the computing power of the current digital processor, steps S120 to S140 may be processed in real time, and operate as if the drawing image is drawn at the end of the drawing means held by the user in response to the user's natural drawing motion. Done. To this end, the means for outputting the drawing image preferably recognizes the end of the drawing means held by the user using a depth camera or a sensor, and displays the previously generated drawing image corresponding to the position of the recognized end.
도 2는 본 발명의 실시예들이 구현되는 개괄적인 환경과 이에 수반된 장치를 도시한 도면이다.FIG. 2 is a diagram illustrating a general environment in which embodiments of the present invention are implemented and accompanying apparatus.
보통의 평면 상에 영상을 출력하는 디스플레이 수단으로서 프로젝터(60A) 또는 디스플레이 장치(60B)를 설치한다. 이러한 디스플레이 수단(60A 또는 60B)을 이용하여 가상의 캔버스 공간을 출력하되, 이후 사용자의 드로잉 모션에 대응하여 실시간으로 출력되는 드로잉 영상을 상기 가상의 캔버스 공간 내에 표시함으로써 사용자에게 NUX를 제공하게 된다.The projector 60A or the display device 60B is provided as display means for outputting an image on a normal plane. The virtual canvas space is output using the display means 60A or 60B, and then the NUX is provided to the user by displaying a drawing image output in real time in response to the user's drawing motion in the virtual canvas space.
이와 더불어, 사용자의 드로잉 모션을 감지하기 위한 깊이 카메라(10)를 설치하고, 필압을 감지하기 위한 근전도 센서(20)를 사용자의 손의 일부에 부착한다. 프로젝터(60A)와 깊이 카메라(10)는 사용자에게 영향을 주지 않는 정도의 위치, 예를 들어 약 1.5m 위에 설치할 수 있다. 이렇게 설치된 깊이 카메라(10)를 통해 사용자의 손과 펜/붓의 움직임을 인식할 수 있으며, 근전도 센서(20)를 통해 사용자가 그림을 그릴 때 얼마만큼의 힘을 사용하지를 측정함으로써 필압 속성을 판단할 수 있다.In addition, a depth camera 10 for detecting a user's drawing motion is installed, and an EMG sensor 20 for detecting a pen pressure is attached to a part of a user's hand. The projector 60A and the depth camera 10 may be installed at a position that does not affect the user, for example, about 1.5 m. The installed depth camera 10 can recognize the movements of the user's hand and pen / brush, and the electrostatic pressure sensor 20 measures the pressure property by measuring how much force the user uses when drawing. You can judge.
도 3은 본 발명의 실시예들의 동작에 따른 데이터의 흐름을 도시한 도면이다.3 is a diagram illustrating the flow of data according to the operation of embodiments of the present invention.
앞서 도 2를 통해 설명한 바와 유사하게, 구현의 관점에서 드로잉 영상 처리 방법을 구현하는 소프트웨어를 구동하는 프로세서(30) 내지 제어기, 예를 들어 컴퓨터를 이용하되, 컴퓨터와 프로젝터(60) 및 깊이 카메라(10)를 연결하여 책상 위쪽에서 책상을 바라보도록 배치한다. 연결된 프로젝터(60)를 통해 책상 위에 드로잉 화면을 투영시키고 드로잉 프로그램을 실행시키면 깊이 카메라(10)가 작동하기 시작한다.As described above with reference to FIG. 2, in view of implementation, a processor 30 to a controller, for example, a computer, which drives software for implementing the drawing image processing method, is used, but the computer and the projector 60 and the depth camera ( 10) Connect it and place it face up on the desk. When the projection screen is projected on the desk through the connected projector 60 and the drawing program is executed, the depth camera 10 starts to operate.
깊이 카메라(10)를 통해 사용자가 쥐고 있는 펜/붓을 인식하고 그림을 그리거나 글씨를 쓸 수 있는 드로잉 모드(mode)로 전환하는데, 이때 사용자는 캔버스나 흰 종이 위에 펜/붓을 이용한 드로잉 모션을 통해 그림을 그리게 될 것이다. 사용자가 종이 위에 그림을 그리거나 글씨를 쓰는 드로잉 모션을 취한다면 이를 인식하여 프로그램 내부에서 벡터 형태의 연결된 선으로 인식된 펜의 이동 위치에 따라 디지털 영상을 생성하여 책상 위의 화면에 투영시킨다.The depth camera 10 recognizes a pen / brush held by the user and switches to a drawing mode in which a user can draw or write, and the user uses a pen / brush on a canvas or white paper to draw a drawing motion. Will draw through. If the user takes a drawing motion that draws or writes on paper, it recognizes this and creates a digital image based on the pen's moving position, which is recognized as a connected line in vector form, and projects it on the screen on the desk.
사용자가 펜/붓을 사용하여 그림을 그릴 때 펜의 높낮이에 대한 깊이 데이터, 만약 필요하다면 근전도 센서를 사용하여 사용자의 근전도를 파악한 데이터를 미리 학습시켜 놓은 데이터(50)를 기준으로 비교하여 필압을 추정할 수 있다. 또한, 사용자가 그리는 기능만 아니고 제스처 인식기능으로 간단한 제스처를 사용하여 빠르게 색깔을 바꿀 수 있고 지우개 기능 등으로 전환할 수도 있을 것이다.When the user draws with the pen / brush, the pen pressure is compared based on the depth data of the height of the pen, and if necessary, the data (50) pre-trained using the EMG sensor to determine the user's EMG. It can be estimated. In addition, not only the user's drawing function, but also the gesture recognition function, a simple gesture can be used to quickly change the color and switch to the eraser function.
앞서 도 1을 통해 소개한 바와 같이, 본 발명의 실시예들은 사용자의 드로잉 패턴을 미리 학습하는 과정이 선행되어야만 한다. 보다 구체적으로, 이 과정은, 깊이 카메라(10)를 이용하여 사용자의 실제 드로잉에 대한 3차원 영상을 획득하고, 상기 사용자의 손에 부착된 근전도(electromyogram, EMG) 센서를 이용하여 상기 사용자의 실제 드로잉에 대응하는 손의 압력을 측정하고 드로잉 수단의 필압으로 변환하며, 획득된 상기 3차원 영상에 따른 드로잉 수단의 상태 값, 움직임, 속도 및 필압을 매칭하되 해당 시점의 스트로크 형태와 함께 저장하는 것이 바람직하다.As described above with reference to FIG. 1, embodiments of the present invention should be preceded by a process of learning a user's drawing pattern in advance. More specifically, this process is to obtain a three-dimensional image of the user's actual drawing using the depth camera 10, the user's actual using an electromyogram (EMG) sensor attached to the user's hand The pressure of the hand corresponding to the drawing is measured and converted into the pressure of the drawing means, and matching the state values, movements, speeds, and pressures of the drawing means according to the three-dimensional image obtained, and storing them together with the stroke shape of the corresponding time point. desirable.
이러한 사전 학습을 위해 사용자는 근전도 센서를 착용한 상태에서 펜으로 그림 또는 필기를 수행하며, 사용자의 근전도 데이터와 깊이 데이터(펜/붓의 각도 내지 자세가 포함된다)를 수집하여 개인화된 드로잉 패턴에 관한 학습 데이터베이스(50)를 구축한다. 예를 들어, 하나의 프레임(frame)의 펜/붓의 상태 데이터는 다음의 수학식 1과 같은 데이터 집합으로 구성될 수 있다.For this pre-learning, the user performs drawing or writing with a pen while wearing an EMG sensor, and collects EMG data and depth data (including angles and postures of pens / brushes) of the user to a personalized drawing pattern. Build a learning database (50). For example, the pen / brush state data of one frame may be configured as a data set as shown in Equation 1 below.
Figure PCTKR2016012235-appb-M000001
Figure PCTKR2016012235-appb-M000001
여기서, Angle은 펜의 각도, Velocity는 펜의 속도 벡터이다. n은 현재의 프레임을 나타내고 n-1은 이전 프레임을 나타낸다.Where Angle is the pen angle and Velocity is the pen's velocity vector. n represents the current frame and n-1 represents the previous frame.
펜/붓의 이러한 상태 값과 근전도 데이터를 대응시켜 학습이 진행된다. 학습은 연속적인 두 개의 프레임에서의 펜/붓의 상태 값의 차이에 따른 근전도 데이터 값의 변화를 매칭하여 수행된다. 학습이 수행된 후, 사용자가 펜/붓을 조작함에 따라 변화하는 펜/붓 상태를 기반으로 근전도 센서가 없이도 사용자가 의도한 필압을 추정할 수 있다.The learning progresses by matching the EMG data with this state value of the pen / brush. Learning is performed by matching changes in EMG data values according to differences in pen / brush state values in two consecutive frames. After the learning is performed, the pen pressure intended by the user may be estimated without the EMG sensor based on the pen / brush state that changes as the user manipulates the pen / brush.
요약하건대, 사용자의 드로잉 패턴은, 실제 드로잉에 대한 복수 개의 프레임(frame)별로 저장되며, 각 프레임에 포함된 드로잉 수단의 상태 값과 필압의 시계열적인 변화를 포함하는 것이 바람직하다. 또한, 이러한 사용자의 드로잉 패턴은, 상기 드로잉 수단의 상태 값, 움직임, 속도 및 필압 중 적어도 둘 이상의 조합하여 상기 사용자에 대한 고유의 식별 정보로서 개인 사용자별로 차별화되어 저장될 수 있으며, 이후 학습된 데이터베이스(50)를 조회함으로써 개인의 고유 스트로크를 인식하는데 도움을 준다.In summary, the drawing pattern of the user is stored in a plurality of frames for the actual drawing, and preferably includes a time series change of the state value and the pen pressure of the drawing means included in each frame. In addition, the drawing pattern of the user may be stored in a differentiated manner for each individual user as unique identification information for the user by combining at least two or more of a state value, a movement, a speed, and a pressure of the drawing means. Inquiry 50 helps to recognize an individual's unique stroke.
도 4 및 도 5는 드로잉 수단의 움직임을 인식하는 방법을 설명하기 위한 도면이다.4 and 5 are diagrams for explaining a method of recognizing the movement of the drawing means.
도 4의 [A]를 참조하면, 먼저 깊이 카메라(10)를 통해 획득한 깊이 데이터를 통해 캔버스 공간(예를 들어, 책상 평면이 될 수 있다)의 깊이 값을 저장한다. 이를 사용하여 나중에 기준 깊이 값보다 높은 깊이 값만을 인식 대상으로 취사 선택하고 나머지 정보는 폐기한다.Referring to [A] of FIG. 4, first, a depth value of a canvas space (for example, may be a desk plane) is stored through depth data obtained through the depth camera 10. Using this, only the depth value higher than the reference depth value is later selected and the remaining information is discarded.
이제 도 4의 [B]를 참조하면, 깊이 카메라(10)의 인식 범위 내에 사용자의 손이 진입한 경우, 손부분의 깊이 데이터를 감지하고 이에 대응하는 위치의 2D 이미지 데이터를 분석하여 피부와 같은 색상 분포를 판별하여 손 영역으로 인식시킬 수 있다.Referring now to [B] of FIG. 4, when the user's hand enters the recognition range of the depth camera 10, the depth data of the hand part is sensed, and the 2D image data of the corresponding position is analyzed to analyze the 2D image data. The color distribution can be determined and recognized as a hand region.
도 5를 참조하면, 사용자의 손 아래 부분이 캔버스와 가장 가까운 위치에서 손이 아닌 오브젝트의 2D 및 3D 이미지 데이터를 함께 활용하여 펜/붓의 움직임과 종류를 인식할 수 있다. 손 아래 부분이 보이지 않는 상황에서 손 위의 영역을 확인하여 3D 데이터의 분포를 계산하고, 원기둥 형태를 형성하는 오브젝트이면 펜/붓으로 판단한다. 원기둥의 각도와 손의 높이에 따라 보이지 않는 펜의 하단부의 위치를 찾을 수 있다. 또한, 이런 방식으로 펜의 각도를 측정할 수 있으며, 펜/붓의 스트로크 효과를 각도에 따라 구현할 수 있다.Referring to FIG. 5, the movement and type of a pen / brush may be recognized by utilizing 2D and 3D image data of an object other than a hand at a position where a user's hand is closest to the canvas. When the lower part of the hand is not visible, the area on the hand is checked to calculate the distribution of the 3D data, and if the object forms a cylindrical shape, the pen / brush is judged. Depending on the angle of the cylinder and the height of the hand, you can find the location of the lower part of the invisible pen. In addition, the angle of the pen can be measured in this manner, and the stroke effect of the pen / brush can be implemented according to the angle.
한편, 펜의 상/하단 영역으로부터 획득된 3D 데이터에 대응하는 2D 데이터를 획득할 수 있다. 이렇게 획득된 2D 데이터를 사용하여 기준 데이터베이스 내에 저장된 펜/붓를 비교하여 그 종류를 추정하고, 가장 유사한 펜/붓의 스트로크 효과를 선택한다. 이로부터 사용자가 어떤한 종류의 펜이나 붓을 사용하더라도 자연스러운 그림을 구현하는 것이 가능하다.Meanwhile, 2D data corresponding to 3D data obtained from the upper and lower regions of the pen may be acquired. The 2D data thus obtained is used to compare the pens / brushes stored in the reference database to estimate the type and select the most similar pen / brush stroke effect. From this, it is possible to create a natural picture regardless of the user using any kind of pen or brush.
요약하건대, 본 발명의 실시예들은, 깊이 카메라를 이용하여 입력된 사용자의 드로잉 모션으로부터 사용자가 쥐고 있는 드로잉 수단에 대한 3차원 영상 및 2차원 영상을 각각 추출하고, 추출된 상기 3차원 영상 및 상기 2차원 영상을 매칭하여 상기 드로잉 수단의 기울어진 각도, 상기 드로잉 수단과 가상의 캔버스(canvas)에 대응하는 평면과의 접촉 여부 및 거리를 산출함으로써, 드로잉 수단의 움직임을 인식할 수 있다. 이러한 드로잉 수단은 펜(pen) 또는 붓(brush)의 형태를 가지거나 심지어 막대가 될 수도 있으며, 상기 드로잉 수단에 대한 2차원 영상 내에 포함된 고유 정보를 이용하여 상기 드로잉 수단의 종류를 식별하는 것이 가능하다.In summary, embodiments of the present invention extract the 3D image and the 2D image of the drawing means of the user from the drawing motion of the user input using a depth camera, respectively, and extract the extracted 3D image and the 3D image. The movement of the drawing means can be recognized by calculating a tilt angle of the drawing means, whether the drawing means is in contact with the plane corresponding to the virtual canvas, and a distance by matching a two-dimensional image. Such drawing means may be in the form of a pen or brush or even be a rod, and identifying the type of the drawing means using the unique information contained in the two-dimensional image of the drawing means. It is possible.
도 6은 사용자의 필압을 측정하는 방법을 설명하기 위한 도면으로서, 반지 형태로 제작된 근전도 센서(20)를 이용하여 사용자의 드로잉 중의 손가락 근육의 근전도 데이터를 측정하는 상황을 예시하였다.FIG. 6 is a diagram for describing a method of measuring a user's pen pressure, and illustrates a situation in which EMG data of a finger muscle is measured during a drawing of a user using an EMG sensor 20 formed in a ring shape.
먼저, 다수의 사용자에 대해 필기 및 그릴 때의 손가락의 근전도 데이터를 수집한다. 근육의 정지 상태 및 필기 상태에 따라 근전도 데이터가 구별될 수 있으며, 사용자의 성별과 연령대에 따라 데이터를 분류할 수도 있다. 사용자로부터 수집된 데이터를 서포트 벡터 머신(support vector machine, SVM) 등의 분류 알고리즘을 통해 그 유형을 분류한다.First, EMG data of a finger at the time of writing and drawing is collected for a plurality of users. The EMG data may be distinguished according to the stationary state and the writing state of the muscle, and the data may be classified according to the gender and age of the user. The data collected from the user is classified through a classification algorithm such as a support vector machine (SVM).
이제 사용자에 대해 드로잉 시의 힘을 많이 안 쓰는 상황과 많이 쓰지 않는 상황을 구별할 수 있으며, 이러한 방식으로 학습된 데이터베이스를 생성한다. 다만, 실제 사용자가 사용할 때에는, 먼저 사용자가 필기하는 동작을 수행시키고 근전도 데이터의 정확도를 보정하는 것이 바람직하다. 사람마다 근육량의 차이가 존재하므로 드로잉 영상 처리 전에 사용자의 실제 측정된 근전도 데이터와 미리 구축된 데이터베이스 내의 근전도 데이터를 비교하여 보정할 수 있다.Now you can distinguish between the less power-intensive and the less-powerful situations for a user, and create a trained database in this way. However, when used by an actual user, it is desirable to first perform a user's writing operation and correct the accuracy of EMG data. Since there is a difference in muscle mass for each person, the measured EMG data of the user may be compared with the EMG data in the pre-established database before correction of the drawing image.
도 7은 본 발명의 일 실시예에 따른 NUI/NUX에 기반하여 드로잉 영상을 처리하는 장치(700)를 도시한 블록도로서, 앞서 도 1을 통해 기술한 드로잉 영상의 처리 방법의 각 단계에 대응하는 기능 블록을 포함한다. 따라서, 설명의 중복을 피하기 위해, 여기서는 하드웨어의 연결 구조를 중심으로 각 구성의 동작을 약술하도록 한다.FIG. 7 is a block diagram illustrating an apparatus 700 for processing a drawing image based on NUI / NUX according to an embodiment of the present invention, and corresponds to each step of the drawing image processing method described above with reference to FIG. 1. It includes a functional block. Therefore, in order to avoid duplication of description, the operation of each component will be outlined here based on the connection structure of hardware.
깊이 카메라(10)는, 사용자의 실제 드로잉(drawing) 영상 또는 사용자의 드로잉 모션(drawing motion)을 입력받는 수단이고, 근전도(electromyogram, EMG) 센서(20)는, 사용자의 손에 부착되어 사용자의 실제 드로잉에 대응하는 손의 압력을 측정하는 수단이다. 이들 장치(10, 20)로부터 측정된 값들은 프로세서(30)에 제공된다.The depth camera 10 is a means for receiving an actual drawing image of the user or a drawing motion of the user, and an electromyogram (EMG) sensor 20 is attached to the user's hand to It is a means of measuring the pressure of the hand corresponding to the actual drawing. The values measured from these devices 10, 20 are provided to the processor 30.
메모리(40)는, 사용자의 드로잉 모션에 대응하는 드로잉 영상을 생성하는 프로그램을 저장하며, 적어도 하나의 프로세서(30)를 구비하여 상기 드로잉 영상을 생성하는 프로그램을 구동한다.The memory 40 stores a program for generating a drawing image corresponding to a drawing motion of a user, and includes at least one processor 30 to drive a program for generating the drawing image.
이때, 상기 메모리(40)에 저장된 프로그램은, 사용자의 실제 드로잉 영상과 드로잉 중 손의 압력을 입력받아 상기 사용자의 드로잉 패턴을 미리 학습하고, 사용자의 드로잉 모션을 입력받아 사용자가 쥐고 있는 드로잉 수단의 움직임을 인식하고, 인식된 상기 드로잉 수단의 움직임을 미리 학습된 상기 드로잉 패턴과 매칭하여 스트로크(stroke) 정보를 독출하며, 상기 사용자의 드로잉 모션에 대응하여 상기 스트로크 정보에 대응하는 드로잉 영상을 실시간으로 출력하는 명령어를 포함한다.At this time, the program stored in the memory 40, the input of the actual drawing image of the user and the pressure of the hand in the drawing to learn the drawing pattern of the user in advance, the input of the user's drawing motion of the drawing means of the user hold Recognizes a movement, reads stroke information by matching the recognized movement of the drawing means with the previously learned drawing pattern, and in real time a drawing image corresponding to the stroke information in response to the drawing motion of the user; Contains the commands to print.
메모리(40)에 저장된 프로그램은, 상기 사용자의 실제 드로잉 영상에 대한 3차원 영상을 획득하고, 상기 손의 압력을 드로잉 수단의 필압으로 변환하며, 획득된 상기 3차원 영상에 따른 드로잉 수단의 상태 값, 움직임, 속도 및 필압을 매칭하되 해당 시점의 스트로크 형태와 함께 저장함으로써, 상기 사용자의 드로잉 패턴을 미리 학습하는 것이 바람직하다. 또한, 상기 사용자의 드로잉 패턴은, 실제 드로잉에 대한 복수 개의 프레임(frame)별로 저장되며, 각 프레임에 포함된 드로잉 수단의 상태 값과 필압의 시계열적인 변화를 포함할 수 있다. 나아가, 상기 사용자의 드로잉 패턴은, 상기 드로잉 수단의 상태 값, 움직임, 속도 및 필압 중 적어도 둘 이상의 조합하여 상기 사용자에 대한 고유의 식별 정보로서 개인 사용자별로 차별화되어 저장될 수 있다.The program stored in the memory 40 acquires a three-dimensional image of the actual drawing image of the user, converts the pressure of the hand into a pressure of the drawing means, and a state value of the drawing means according to the obtained three-dimensional image. It is preferable to learn the drawing pattern of the user in advance by matching the movement, the speed, and the pen pressure with the stroke shape of the corresponding viewpoint. In addition, the drawing pattern of the user is stored for each of a plurality of frames (frames) for the actual drawing, and may include a time series change of the state value and the pen pressure of the drawing means included in each frame. Further, the drawing pattern of the user may be differentiated and stored for each individual user as unique identification information for the user by combining at least two of a state value, a movement, a speed, and a pressure of the drawing means.
상기 메모리(40)에 저장된 프로그램은, 상기 사용자의 드로잉 모션으로부터 사용자가 쥐고 있는 드로잉 수단에 대한 3차원 영상 및 2차원 영상을 각각 추출하고, 추출된 상기 3차원 영상 및 상기 2차원 영상을 매칭하여 상기 드로잉 수단의 기울어진 각도, 상기 드로잉 수단과 가상의 캔버스(canvas)에 대응하는 평면과의 접촉 여부 및 거리를 산출함으로써, 상기 드로잉 수단의 움직임을 인식하는 것이 바람직하다. 여기서, 상기 드로잉 수단은 펜(pen) 또는 붓(brush)의 형태를 가지며, 상기 메모리에 저장된 프로그램은, 상기 드로잉 수단에 대한 2차원 영상 내에 포함된 고유 정보를 이용하여 상기 드로잉 수단의 종류를 식별할 수 있다.The program stored in the memory 40 extracts a 3D image and a 2D image of the drawing means of the user from the drawing motion of the user, and matches the extracted 3D image and the 2D image. It is preferable to recognize the movement of the drawing means by calculating the inclination angle of the drawing means, whether the drawing means is in contact with the plane corresponding to the virtual canvas and the distance. Here, the drawing means has a form of a pen or a brush, and the program stored in the memory identifies the type of the drawing means by using unique information contained in a two-dimensional image of the drawing means. can do.
상기 메모리(40)에 저장된 프로그램은, 인식된 상기 드로잉 수단의 움직임으로부터 드로잉 수단의 상태 값, 움직임 및 속도 중 적어도 둘 이상 모션 정보를 산출하고, 미리 학습된 상기 드로잉 패턴으로부터 상기 산출된 모션 정보에 매칭되는 값을 검색하여 필압이 반영된 스트로크(stroke) 정보를 반환함으로써, 상기 스트로크 정보를 독출하는 것이 바람직하다.The program stored in the memory 40 may calculate motion information of at least two of a state value, a movement, and a speed of the drawing means from the recognized movement of the drawing means, and calculate the motion information from the previously learned drawing pattern. It is preferable to read the stroke information by searching for a matching value and returning stroke information reflecting the pen pressure.
나아가, 본 발명의 일 실시예에 따른 드로잉 영상 처리 장치(700)는, 가상의 캔버스 공간을 출력하는 디스플레이 수단(60)을 더 포함하되, 상기 디스플레이 수단(60)은, 상기 실시간으로 출력되는 드로잉 영상을 상기 가상의 캔버스 공간 내에 표시할 수 있다. 또한, 이때 표시되는 드로잉 영상은 사용자가 쥐고 있는 드로잉 수단의 말단의 위치에 대응하여 표시되는 것이 바람직하다.Furthermore, the drawing image processing apparatus 700 according to an embodiment of the present invention further includes a display means 60 for outputting a virtual canvas space, wherein the display means 60 is a drawing output in real time. An image may be displayed in the virtual canvas space. In addition, the drawing image displayed at this time is preferably displayed corresponding to the position of the end of the drawing means held by the user.
이하에서는 상기된 디지털 드로잉 영상 처리 기법을 디지털 조각 영상 처리 기법에 응용하는 방법을 설명하도록 한다.Hereinafter, a method of applying the above-described digital drawing image processing technique to a digital fragment image processing technique will be described.
도 8은 본 발명의 다른 실시예에 따른 조각 영상을 구현하는 환경과 이에 수반된 장치를 도시한 도면으로서, 앞서 기술한 도 2의 구성과 유사한 상황을 가정하였다.FIG. 8 is a diagram illustrating an environment for implementing a fragment image and an accompanying device according to another embodiment of the present invention, and assumes a situation similar to that of FIG. 2.
사용자는 조각 수단, 예를 들어 조각도(carving knife)를 이용해 가상의 조각 대상을 조각하는 행위를 수행하고, 깊이 카메라(10)를 이용해 이를 촬영하여 동작을 인식시키도록 한다. 도 2의 경우와는 달리, 도 8에서는 구현상의 필요에 따라 디스플레이 수단(60A)(예를 들어, 빔 프로젝트)를 제거하고 헤드 마운트 디스플레이(head mounted display, HMD) 또는 증강현실(augmented reality, AR) 안경 등의 장치로 대체하여 생성된 조각 영상을 출력하는 것이 가능하다.The user performs an action of carving a virtual sculpture object using a carving means, for example, a carving knife, and photographs it using a depth camera 10 to recognize a motion. Unlike in the case of FIG. 2, in FIG. 8, the display means 60A (e.g., beam project) is removed and a head mounted display (HMD) or augmented reality (AR) is implemented according to implementation needs. ) It is possible to output the fragment image generated by replacing with a device such as glasses.
도 8을 참조하면, 사용자가 조각 수단을 이용하여 조각할 때의 손동작은 그림을 그릴 때의 손동작과는 달리 좀 더 다양하다. 그러나 조각 수단도 펜이나 붓과 같은 특성이 있기 때문에 미리 학습된 조각 수단의 유형 정보에 기초하여 용이하게 인식하는 것이 가능하다. 다만, 조각 수단의 방향을 여러 각도에서 판단해야 할 필요가 있다. 조각 수단의 방향은 말단의 날(knife)에 해당하는 위치의 색상으로 판단할 수 있으며, 조각 수단의 말단의 재질이 금속임을 고려하여 금속 재질의 색상에 따른 특징을 인식할 수 있다. 조각 수단의 남은 부분은 앞서 드로잉 인식에서 할용하였던 방식을 유사하게 채택할 수 있다. 다만, 사용자가 어떠한 종류의 조각 수단을 선택하였는지 미리 카메라를 통해 인식시킬 경우 인식의 정확도가 증가할 수 있을 것이다. 이제 조각 수단의 종류가 식별되었다면, 그에 따른 날 모양을 통해 조각 대상에 형성될 조각 자국을 예측할 수 있다.Referring to FIG. 8, the hand gestures when the user sculpts using the engraving means are more diverse than the hand gestures when drawing. However, since the carving means also have characteristics such as a pen or a brush, it is possible to easily recognize based on the type information of the previously learned carving means. However, it is necessary to determine the direction of the engraving means from various angles. The direction of the engraving means can be determined by the color of the position corresponding to the end of the knife (knife), considering the material of the end of the engraving means can be recognized according to the color of the metal material. The remainder of the engraving means may similarly adopt the method previously employed in drawing recognition. However, if the user recognizes in advance what kind of engraving means is selected through the camera, the accuracy of the recognition may be increased. Once the type of engraving means has been identified, the resulting blade shape can predict the engraving marks that will be formed on the engraving target.
근전도 센서(20)를 통한 손/손가락 압력의 감지는 드로잉 인식과는 조금 상이한 부분이 존재한다. 조각 영상 처리의 경우에는 사용자의 손의 이동 속도와 압력의 상관 관계를 보다 정교하게 연관지어 처리할 필요가 있다. 예를 들어, 사용자가 손을 빠르게 이동할수록 보다 강한 압력으로 인해 조각 자국에 그 결과가 반영되어야 할 것이다. 이와 달리, 작은 동작으로 조각을 진행할 경우 손가락으로부터 측정된 압력 데이터를 중심으로 조각 대상에 가해지는 압력을 보다 정밀하게 처리할 필요가 있다. 특히, 조각의 경우 기준치 이하의 속도로 매우 작은 동작을 진행할 경우 근전도 센서(20)를 통해 측정된 데이터를 주로 활용하는 것이 바람직하다.The sensing of the hand / finger pressure through the EMG sensor 20 is slightly different from the drawing recognition. In the case of the fragment image processing, it is necessary to more precisely correlate the correlation between the moving speed of the user's hand and the pressure. For example, the faster the user moves his or her hand, the more pressure will have to be reflected in the engraving. On the contrary, when the engraving is performed in a small motion, it is necessary to process the pressure applied to the engraving object more precisely based on the pressure data measured from the finger. Particularly, in the case of engraving, when a very small operation is performed at a speed below a reference value, it is preferable to mainly use data measured by the EMG sensor 20.
도 9는 본 발명의 다른 실시예에 따른 NUI/NUX에 기반하여 조각 영상을 처리하는 방법을 도시한 흐름도이다.9 is a flowchart illustrating a method of processing a fragment image based on NUI / NUX according to another embodiment of the present invention.
S910 단계에서, 조각 영상 처리 장치는, 사용자의 실제 조각(sculpting) 영상과 조각 중 손의 압력을 입력받아 조각 수단의 종류별로 상기 사용자의 조각 패턴을 미리 학습한다. 이 과정에서는, 깊이 카메라를 이용하여 상기 사용자의 실제 조각 행위에 대한 3차원 영상을 획득하고, 상기 사용자의 손에 부착된 근전도(electromyogram, EMG) 센서를 이용하여 상기 사용자의 실제 조각 행위에 대응하는 손의 압력을 측정하고 조각 수단의 압력으로 변환하며, 획득된 상기 3차원 영상에 따른 조각 수단의 상태 값, 움직임, 속도 및 압력을 매칭하되 조각 수단의 종류에 따른 해당 시점의 조각 자국 형태와 함께 저장한다. 여기서, 상기 사용자의 조각 패턴은, 실제 조각 행위에 대한 복수 개의 프레임(frame)별로 저장되며, 각 프레임에 포함된 조각 수단의 상태 값과 압력의 시계열적인 변화를 포함하는 것이 바람직하다.In operation S910, the engraving image processing apparatus receives the actual sculpting image of the user and the pressure of the hand among the pieces, and learns the engraving pattern of the user in advance for each type of engraving means. In this process, a 3D image of the actual engraving behavior of the user is obtained by using a depth camera, and an electromyogram (EMG) sensor attached to the user's hand corresponds to the actual carving behavior of the user. The pressure of the hand is measured and converted into the pressure of the engraving means, and the state values, movements, speeds and pressures of the engraving means according to the three-dimensional image obtained are matched together with the shape of the engraving marks of the corresponding point of time according to the type of the engraving means. Save it. Here, the engraving pattern of the user is stored for each of a plurality of frames (frame) for the actual engraving behavior, it is preferable to include a time-series change in the state value and pressure of the engraving means included in each frame.
S920 단계에서, 상기 조각 영상 처리 장치는, 사용자의 조각 모션(sculpting motion)을 입력받고, 입력된 상기 조각 모션으로부터 사용자가 쥐고 있는 조각 수단의 종류 및 상기 조각 수단의 움직임을 인식한다. 이 과정에서는, 깊이 카메라를 이용하여 입력된 사용자의 조각 모션으로부터 사용자가 쥐고 있는 조각 수단에 대한 3차원 영상 및 2차원 영상을 각각 추출하고, 추출된 상기 3차원 영상 및 상기 2차원 영상을 매칭하여 상기 조각 수단의 기울어진 각도, 상기 조각 수단과 가상의 조각 대상에 대응하는 기준 위치와의 접촉 여부 및 거리를 산출한다. 여기서, 상기 조각 수단은 조각도(carving knife)의 형태를 가지며, 상기 조각 수단에 대한 2차원 영상 내에 포함된 고유 정보를 이용하여 상기 조각 수단의 종류를 식별하는 것이 바람직하다.In operation S920, the engraving image processing apparatus receives a sculpting motion of the user, and recognizes the type of carving means and the movement of the carving means held by the user from the input carving motion. In this process, the 3D image and the 2D image of the engraving means held by the user are respectively extracted from the user's engraving motion input using a depth camera, and the extracted 3D image and the 2D image are matched. The inclination angle of the engraving means, whether or not the contact between the engraving means and the reference position corresponding to the virtual engraving object is calculated. Here, the carving means is in the form of a carving knife (carving knife), it is preferable to identify the type of the carving means using the unique information contained in the two-dimensional image of the carving means.
S930 단계에서, 상기 조각 영상 처리 장치는, S920 단계를 통해 인식된 상기 조각 수단의 움직임을 S910 단계를 통해 미리 학습된 상기 조각 패턴과 매칭하여 조각 수단의 종류에 따른 조각 자국(carving) 정보를 독출한다. 이 과정에서는, 인식된 상기 조각 수단의 움직임으로부터 조각 수단의 상태 값, 움직임 및 속도 중 적어도 둘 이상 모션 정보를 산출하고, 미리 학습된 상기 조각 패턴으로부터 상기 산출된 모션 정보에 매칭되는 값을 검색하여 조각 수단의 종류에 대응하고 압력이 반영된 조각 자국(carving) 정보를 반환한다. 이때 조각 영상 처리의 경우, 상기 압력 또는 상기 조각 자국의 크기를 상기 조각 수단의 속도에 비례하여 조절함으로써 조각 수단에 의해 조각 대상에 새겨지는 조각 자국을 보다 실제의 조각 행위와 유사하게 모사하는 것이 가능하다.In operation S930, the engraving image processing apparatus reads carving information corresponding to the type of engraving means by matching the movement of the carving means recognized in operation S920 with the carving pattern previously learned in operation S910. do. In this process, the motion information of at least two of the state value, the movement and the speed of the engraving means is calculated from the recognized movement of the engraving means, and the value matching the calculated motion information is retrieved from the previously learned engraving pattern. Carving information corresponding to the type of engraving means and reflecting the pressure is returned. At this time, in the engraving image processing, by adjusting the pressure or the size of the engraving mark in proportion to the speed of the engraving means, it is possible to simulate the engraving marks imprinted on the object to be carved by the engraving means more similar to the actual engraving behavior. Do.
S940 단계에서, 상기 조각 영상 처리 장치는, 상기 사용자의 조각 모션에 대응하여 상기 조각 자국 정보에 대응하는 조각 영상을 실시간으로 출력한다.In operation S940, the fragment image processing apparatus outputs a fragment image corresponding to the fragment mark information in real time in response to the fragment motion of the user.
나아가, 상기 조각 영상 처리 장치는 헤드 마운트 디스플레이 장치 내지 증강현실 안경과 같은 디스플레이 수단을 이용하여 가상의 조각 대상을 출력하되, 상기 S940 단계를 통해 실시간으로 출력되는 조각 영상을 상기 가상의 조각 대상 위에 표시할 수도 있다.Furthermore, the engraving image processing apparatus outputs a virtual sculpture object by using display means such as a head mounted display device or an augmented reality glasses, and displays the sculpture image output in real time on the virtual sculpture object through step S940. You may.
한편, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, embodiments of the present invention can be implemented by computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. And functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.
이상에서 본 발명에 대하여 그 다양한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described above with reference to various embodiments thereof. Those skilled in the art will understand that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.
앞서 기술한 바와 같이 종래의 태블릿이나 디지타이저를 이용하는 경우 전용 전자 펜 내지 특수한 감지 수단을 필요로 하기 때문에 사용자는 실제로 그림을 그리는 것과 다른 느낌을 체감하게 된다. 이에 비해, 상기된 본 발명의 실시예들은, 인간에게 가장 친숙한 드로잉 모션 또는 조각 모션을 NUI를 통해 인식시킴으로써, 마치 실제로 그림을 그리거나 조각을 하는 느낌을 사용자에게 제공하는 것이 가능하다. 특히, NUI/NUX를 기반으로 디지털 드로잉 또는 디지털 조각을 구현함으로써, 대부분의 연령대를 포함하여 전문가가 아닌 일반인들에게도 빠르고 친숙한 적응과 용이한 조작을 가능하게 한다.As described above, when using a conventional tablet or a digitizer, a user needs a dedicated electronic pen or special sensing means, so the user may feel different from actually drawing. In contrast, the embodiments of the present invention described above, by recognizing the drawing motion or sculpture motion that is most familiar to humans through the NUI, it is possible to provide the user with the feeling of actually drawing or sculpting. In particular, by implementing digital drawing or digital sculpture based on NUI / NUX, it enables quick and familiar adaptation and easy operation to non-professional ordinary people including most ages.

Claims (16)

  1. 사용자의 실제 드로잉(drawing) 영상과 드로잉 중 손의 압력을 입력받아 상기 사용자의 드로잉 패턴을 미리 학습하는 단계;Learning the drawing pattern of the user in advance by receiving an actual drawing image of the user and pressure of a hand during drawing;
    사용자의 드로잉 모션(drawing motion)을 입력받고, 입력된 상기 드로잉 모션으로부터 사용자가 쥐고 있는 드로잉 수단의 움직임을 인식하는 단계;Receiving a drawing motion of the user and recognizing a movement of the drawing means held by the user from the input drawing motion;
    인식된 상기 드로잉 수단의 움직임을 미리 학습된 상기 드로잉 패턴과 매칭하여 스트로크(stroke) 정보를 독출하는 단계; 및Reading stroke information by matching the recognized movement of the drawing means with the previously learned drawing pattern; And
    상기 사용자의 드로잉 모션에 대응하여 상기 스트로크 정보에 대응하는 드로잉 영상을 실시간으로 출력하는 단계를 포함하는 드로잉 영상 처리 방법.And outputting a drawing image corresponding to the stroke information in real time in response to the drawing motion of the user.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 사용자의 드로잉 패턴을 미리 학습하는 단계는,Pre-learning the drawing pattern of the user,
    깊이 카메라를 이용하여 상기 사용자의 실제 드로잉에 대한 3차원 영상을 획득하는 단계;Acquiring a 3D image of the actual drawing of the user using a depth camera;
    상기 사용자의 손에 부착된 근전도(electromyogram, EMG) 센서를 이용하여 상기 사용자의 실제 드로잉에 대응하는 손의 압력을 측정하고 드로잉 수단의 필압으로 변환하는 단계; 및Measuring pressure of a hand corresponding to the actual drawing of the user using an electromyogram (EMG) sensor attached to the user's hand and converting the pressure into a pen pressure of a drawing means; And
    획득된 상기 3차원 영상에 따른 드로잉 수단의 상태 값, 움직임, 속도 및 필압을 매칭하되 해당 시점의 스트로크 형태와 함께 저장하는 단계를 포함하는 드로잉 영상 처리 방법.And matching a state value, a movement, a speed and a pen pressure of the drawing means according to the obtained 3D image, and storing the state value together with the stroke shape of the corresponding view point.
  3. 제 2 항에 있어서,The method of claim 2,
    상기 사용자의 드로잉 패턴은,The drawing pattern of the user,
    실제 드로잉에 대한 복수 개의 프레임(frame)별로 저장되며, 각 프레임에 포함된 드로잉 수단의 상태 값과 필압의 시계열적인 변화를 포함하는 것을 특징으로 하는 드로잉 영상 처리 방법.And a time series change of the pressure value and the state value of the drawing means included in each frame, the frame being stored for each actual frame.
  4. 제 2 항에 있어서,The method of claim 2,
    상기 사용자의 드로잉 패턴은,The drawing pattern of the user,
    상기 드로잉 수단의 상태 값, 움직임, 속도 및 필압 중 적어도 둘 이상의 조합하여 상기 사용자에 대한 고유의 식별 정보로서 개인 사용자별로 차별화되어 저장되는 것을 특징으로 하는 드로잉 영상 처리 방법.And at least two of a state value, a movement, a speed, and a pressure of the drawing means are differentiated and stored for each individual user as unique identification information for the user.
  5. 제 1 항에 있어서,The method of claim 1,
    상기 드로잉 수단의 움직임을 인식하는 단계는,Recognizing the movement of the drawing means,
    깊이 카메라를 이용하여 입력된 사용자의 드로잉 모션으로부터 사용자가 쥐고 있는 드로잉 수단에 대한 3차원 영상 및 2차원 영상을 각각 추출하는 단계; 및Extracting a 3D image and a 2D image of the drawing means held by the user from the input drawing motion of the user using a depth camera; And
    추출된 상기 3차원 영상 및 상기 2차원 영상을 매칭하여 상기 드로잉 수단의 기울어진 각도, 상기 드로잉 수단과 가상의 캔버스(canvas)에 대응하는 평면과의 접촉 여부 및 거리를 산출하는 단계를 포함하는 드로잉 영상 처리 방법.Calculating the inclination angle of the drawing means, whether the drawing means is in contact with a plane corresponding to the virtual canvas, and the distance by matching the extracted 3D image and the 2D image. Image processing method.
  6. 제 5 항에 있어서,The method of claim 5,
    상기 드로잉 수단은 펜(pen) 또는 붓(brush)의 형태를 가지며,The drawing means has the form of a pen or brush,
    상기 드로잉 수단에 대한 2차원 영상 내에 포함된 고유 정보를 이용하여 상기 드로잉 수단의 종류를 식별하는 단계를 더 포함하는 드로잉 영상 처리 방법.And identifying the type of the drawing means by using the unique information included in the two-dimensional image of the drawing means.
  7. 제 1 항에 있어서,The method of claim 1,
    상기 스트로크 정보를 독출하는 단계는,The reading of the stroke information may include:
    인식된 상기 드로잉 수단의 움직임으로부터 드로잉 수단의 상태 값, 움직임 및 속도 중 적어도 둘 이상 모션 정보를 산출하는 단계; 및Calculating motion information of at least two of a state value, a movement, and a speed of the drawing means from the recognized movement of the drawing means; And
    미리 학습된 상기 드로잉 패턴으로부터 상기 산출된 모션 정보에 매칭되는 값을 검색하여 필압이 반영된 스트로크(stroke) 정보를 반환하는 단계를 포함하는 드로잉 영상 처리 방법.And searching for a value matching the calculated motion information from the previously learned drawing pattern, and returning stroke information reflecting a pen pressure.
  8. 제 1 항에 있어서,The method of claim 1,
    디스플레이 수단을 이용하여 가상의 캔버스 공간을 출력하되, 상기 실시간으로 출력되는 드로잉 영상을 상기 가상의 캔버스 공간 내에 표시하는 단계를 더 포함하는 드로잉 영상 처리 방법.And outputting a virtual canvas space by using display means, and displaying the drawing image output in real time in the virtual canvas space.
  9. 사용자의 실제 조각(sculpting) 영상과 조각 중 손의 압력을 입력받아 조각 수단의 종류별로 상기 사용자의 조각 패턴을 미리 학습하는 단계;Receiving a user's actual sculpting image and the pressure of a hand in the sculpture and learning the engraving pattern of the user in advance by the type of engraving means;
    사용자의 조각 모션(sculpting motion)을 입력받고, 입력된 상기 조각 모션으로부터 사용자가 쥐고 있는 조각 수단의 종류 및 상기 조각 수단의 움직임을 인식하는 단계;Receiving a sculpting motion of the user and recognizing the type of sculpting means held by the user and the movement of the sculpting means from the input sculpting motion;
    인식된 상기 조각 수단의 움직임을 미리 학습된 상기 조각 패턴과 매칭하여 조각 수단의 종류에 따른 조각 자국(carving) 정보를 독출하는 단계; 및Reading piece carving information according to the type of carving means by matching the recognized movement of the carving means with the previously learned carving pattern; And
    상기 사용자의 조각 모션에 대응하여 상기 조각 자국 정보에 대응하는 조각 영상을 실시간으로 출력하는 단계를 포함하는 조각 영상 처리 방법.And outputting a fragment image corresponding to the fragment mark information in real time in response to the fragment motion of the user.
  10. 제 9 항에 있어서,The method of claim 9,
    상기 사용자의 조각 패턴을 미리 학습하는 단계는,Pre-learning the engraving pattern of the user,
    깊이 카메라를 이용하여 상기 사용자의 실제 조각 행위에 대한 3차원 영상을 획득하는 단계;Acquiring a 3D image of the actual carving behavior of the user by using a depth camera;
    상기 사용자의 손에 부착된 근전도(electromyogram, EMG) 센서를 이용하여 상기 사용자의 실제 조각 행위에 대응하는 손의 압력을 측정하고 조각 수단의 압력으로 변환하는 단계; 및Measuring the pressure of the hand corresponding to the actual engraving behavior of the user by using an electromyogram (EMG) sensor attached to the user's hand and converting the pressure into a pressure of the engraving means; And
    획득된 상기 3차원 영상에 따른 조각 수단의 상태 값, 움직임, 속도 및 압력을 매칭하되 조각 수단의 종류에 따른 해당 시점의 조각 자국 형태와 함께 저장하는 단계를 포함하는 조각 영상 처리 방법.And matching the state values, motions, speeds, and pressures of the engraving means according to the obtained three-dimensional image, and storing them together with the shape of the engraving marks of the corresponding point of time according to the type of the engraving means.
  11. 제 10 항에 있어서,The method of claim 10,
    상기 사용자의 조각 패턴은,The engraving pattern of the user,
    실제 조각 행위에 대한 복수 개의 프레임(frame)별로 저장되며, 각 프레임에 포함된 조각 수단의 상태 값과 압력의 시계열적인 변화를 포함하는 것을 특징으로 하는 조각 영상 처리 방법.And a time series change of pressure and state values of engraving means included in each frame.
  12. 제 9 항에 있어서,The method of claim 9,
    상기 조각 수단의 움직임을 인식하는 단계는,Recognizing the movement of the engraving means,
    깊이 카메라를 이용하여 입력된 사용자의 조각 모션으로부터 사용자가 쥐고 있는 조각 수단에 대한 3차원 영상 및 2차원 영상을 각각 추출하는 단계; 및Extracting a three-dimensional image and a two-dimensional image of the engraving means held by the user from the engraving motion of the user input using the depth camera; And
    추출된 상기 3차원 영상 및 상기 2차원 영상을 매칭하여 상기 조각 수단의 기울어진 각도, 상기 조각 수단과 가상의 조각 대상에 대응하는 기준 위치와의 접촉 여부 및 거리를 산출하는 단계를 포함하는 조각 영상 처리 방법.Calculating the inclination angle of the engraving means, whether the engraving means is in contact with a reference position corresponding to the virtual engraving object, and matching the extracted three-dimensional image and the two-dimensional image. Treatment method.
  13. 제 12 항에 있어서,The method of claim 12,
    상기 조각 수단은 조각도(carving knife)의 형태를 가지며,The engraving means is in the form of a carving knife,
    상기 조각 수단에 대한 2차원 영상 내에 포함된 고유 정보를 이용하여 상기 조각 수단의 종류를 식별하는 단계를 더 포함하는 조각 영상 처리 방법.And identifying the type of engraving means by using the unique information contained in the two-dimensional image of the engraving means.
  14. 제 9 항에 있어서,The method of claim 9,
    상기 조각 자국 정보를 독출하는 단계는,Reading the piece mark information,
    인식된 상기 조각 수단의 움직임으로부터 조각 수단의 상태 값, 움직임 및 속도 중 적어도 둘 이상 모션 정보를 산출하는 단계; 및Calculating at least two motion information of the state value, the movement and the speed of the carving means from the recognized movement of the carving means; And
    미리 학습된 상기 조각 패턴으로부터 상기 산출된 모션 정보에 매칭되는 값을 검색하여 조각 수단의 종류에 대응하고 압력이 반영된 조각 자국(carving) 정보를 반환하는 단계를 포함하는 조각 영상 처리 방법.And searching for a value matching the calculated motion information from the previously learned piece pattern, and returning piece carving information corresponding to a type of piece means and reflecting pressure.
  15. 제 14 항에 있어서,The method of claim 14,
    상기 압력 또는 상기 조각 자국의 크기를 상기 조각 수단의 속도에 비례하여 조절하는 단계를 더 포함하는 조각 영상 처리 방법.And adjusting the pressure or the size of the engraving mark in proportion to the speed of the engraving means.
  16. 제 9 항에 있어서,The method of claim 9,
    디스플레이 수단을 이용하여 가상의 조각 대상을 출력하되, 상기 실시간으로 출력되는 조각 영상을 상기 가상의 조각 대상 위에 표시하는 단계를 더 포함하는 조각 영상 처리 방법.And outputting a virtual piece object using a display means, and displaying the piece piece image output in real time on the virtual piece object.
PCT/KR2016/012235 2016-06-07 2016-10-28 Apparatus and method for processing digital image on basis of nui/nux WO2017213307A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160070503A KR101775080B1 (en) 2016-06-07 2016-06-07 Drawing image processing apparatus and method based on natural user interface and natural user experience
KR10-2016-0070503 2016-06-07

Publications (1)

Publication Number Publication Date
WO2017213307A1 true WO2017213307A1 (en) 2017-12-14

Family

ID=59924851

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/012235 WO2017213307A1 (en) 2016-06-07 2016-10-28 Apparatus and method for processing digital image on basis of nui/nux

Country Status (2)

Country Link
KR (1) KR101775080B1 (en)
WO (1) WO2017213307A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102151780B1 (en) 2018-11-28 2020-09-03 안희철 A drawing method using a font created through a handwriting, performed on one or more processors of a computing device, a computer program stored on a computer-readable storage medium for carrying out method, and a handwriting system
CN111125403B (en) * 2019-11-27 2022-07-05 浙江大学 Aided design drawing method and system based on artificial intelligence

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695800A (en) * 1992-09-17 1994-04-08 Nippon Nesamatsuku Kk Pen grip type input device
JPH07160829A (en) * 1993-12-09 1995-06-23 Matsushita Electric Ind Co Ltd Device and method for handwritten symbol recognition having learning function
KR20120099017A (en) * 2009-10-23 2012-09-06 마이크로소프트 코포레이션 Decorating a display environment
JP2015001978A (en) * 2013-06-17 2015-01-05 三星電子株式会社Samsung Electronics Co.,Ltd. Method of recognizing motion using gripped object, and device and system therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695800A (en) * 1992-09-17 1994-04-08 Nippon Nesamatsuku Kk Pen grip type input device
JPH07160829A (en) * 1993-12-09 1995-06-23 Matsushita Electric Ind Co Ltd Device and method for handwritten symbol recognition having learning function
KR20120099017A (en) * 2009-10-23 2012-09-06 마이크로소프트 코포레이션 Decorating a display environment
JP2015001978A (en) * 2013-06-17 2015-01-05 三星電子株式会社Samsung Electronics Co.,Ltd. Method of recognizing motion using gripped object, and device and system therefor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LEANDRO MIRANDA: "Real-Time Gesture Recognition from Depth Data through Key Poses Learning and Decision Forests", GRAPHICS, PATTERNS AND IMAGES (SIBGRAPI) , 2012 25TH SIBGRAPI CONFERENCE, vol. 25, 22 August 2013 (2013-08-22), pages 268 - 275, XP032283156 *

Also Published As

Publication number Publication date
KR101775080B1 (en) 2017-09-05

Similar Documents

Publication Publication Date Title
Grudin Integrating paper and digital information on EnhancedDesk: a method for realtime finger tracking on an augmented desk system
WO2017118075A1 (en) Human-machine interaction system, method and apparatus
CN110310288A (en) Method and system for the Object Segmentation in mixed reality environment
KR20130099317A (en) System for implementing interactive augmented reality and method for the same
US20080018595A1 (en) Video-based image control system
JP2002213947A (en) System for measuring position of target, and method therefor
Premaratne et al. Historical development of hand gesture recognition
Antoshchuk et al. Gesture recognition-based human–computer interaction interface for multimedia applications
CN106293099A (en) Gesture identification method and system
JP7087364B2 (en) Information processing equipment, information processing systems and programs
WO2017213307A1 (en) Apparatus and method for processing digital image on basis of nui/nux
WO2015199470A1 (en) Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same
KR20090040839A (en) Augmented reality computer device
WO2024054079A1 (en) Artificial intelligence mirroring play bag
JP7408562B2 (en) Program, information processing device, quantification method, and information processing system
US20020158848A1 (en) Optical position determination on plain paper
Abdallah et al. An overview of gesture recognition
TWI648556B (en) Slam and gesture recognition method
WO2018048227A1 (en) Device, method and program for generating multidimensional reaction-type image, and method and program for reproducing multidimensional reaction-type image
Jain et al. Human computer interaction–Hand gesture recognition
CN114167997A (en) Model display method, device, equipment and storage medium
Khan et al. Gesture recognition using Open-CV
Habibi Detecting surface interactions via a wearable microphone to improve augmented reality text entry
WO2018150758A1 (en) Information processing device, information processing method, and storage medium
Kwon A study on taekwondo training system using hybrid sensing technique

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16904740

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16904740

Country of ref document: EP

Kind code of ref document: A1