KR20060084945A - Method of generating brush touch effect using touch pad - Google Patents

Method of generating brush touch effect using touch pad Download PDF

Info

Publication number
KR20060084945A
KR20060084945A KR1020050005714A KR20050005714A KR20060084945A KR 20060084945 A KR20060084945 A KR 20060084945A KR 1020050005714 A KR1020050005714 A KR 1020050005714A KR 20050005714 A KR20050005714 A KR 20050005714A KR 20060084945 A KR20060084945 A KR 20060084945A
Authority
KR
South Korea
Prior art keywords
touch
brush
movement
touch pad
touch object
Prior art date
Application number
KR1020050005714A
Other languages
Korean (ko)
Inventor
이화정
김동훈
이현수
류연복
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020050005714A priority Critical patent/KR20060084945A/en
Publication of KR20060084945A publication Critical patent/KR20060084945A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 터치 패드(Touch Pad)를 이용해서 붓으로 글씨를 쓰거나 그림을 그리는 듯한 효과를 내는 방법에 관한 것이다.The present invention relates to a method for producing an effect of writing or drawing with a brush using a touch pad.

본 발명은 터치 패드(Touch Pad)에 접촉되는 사용자의 손이나 펜 등의 터치 오브젝트(Touch Object)의 움직임을 감지하는 단계; 상기 감지신호로부터 터치 오브젝트와 터치 패드 간의 접지 면적을 타원형으로 재구성하고 상기 터치 오브젝트의 움직임에 따른 가속도를 구하며, 스플라인 법(Spline Method)을 통해서 좌표를 생성하여 상기 터치 오브젝트의 움직임에 따른 곡선을 구하는 단계; 오프라인에서 학습 과정을 통해서 구해진 변형 가능한 물체(Deformable Object)에 관한 데이터를 기반으로 상기 터치 오브젝트 감지신호를 실시간으로 모델링하는 단계; 상기 분석 결과를 토대로 하여 터치 오브젝트 이동 궤적에 따른 붓의 굵기, 형태, 농도를 결정하고 상기 결정된 굵기, 형태, 농도에 대응하는 붓 터치 영상을 생성하여 디스플레이하는 단계; 를 포함하여 이루어지는 것을 특징으로 한다.The present invention includes the steps of detecting the movement of a touch object, such as a user's hand or a pen in contact with the touch pad (Touch Pad); Reconstructing the ground area between the touch object and the touch pad into an ellipse from the detection signal, obtaining acceleration according to the movement of the touch object, and generating a coordinate through a spline method to obtain a curve according to the movement of the touch object. step; Modeling the touch object detection signal in real time based on data on a deformable object obtained through an offline learning process; Determining the thickness, shape, and density of the brush according to the movement trace of the touch object based on the analysis result, and generating and displaying a brush touch image corresponding to the determined thickness, shape, and concentration; Characterized in that comprises a.

터치 패드, 붓 효과, 그래픽, 페인팅Touch Pad, Brush Effects, Graphics, Painting

Description

터치 패드 기반의 붓 효과 생성방법{METHOD OF GENERATING BRUSH TOUCH EFFECT USING TOUCH PAD}How to create brush effect based on touch pad {METHOD OF GENERATING BRUSH TOUCH EFFECT USING TOUCH PAD}

도1은 본 발명에 적용된 터치 패드의 입력 및 붓 효과 처리된 영상 디스플레이의 예를 나타낸 도면1 is a diagram illustrating an example of an image display processed with an input and a brush effect of a touch pad applied to the present invention.

도2는 본 발명에서 터치 패드를 이용한 붓 효과 처리방법의 플로우차트2 is a flowchart of a brush effect processing method using a touch pad in the present invention;

도3은 본 발명에서 서예의 정자체를 쓰기 위한 학습 데이터를 기반으로 실시간 움직임 모델링할 경우의 예상되는 결과의 예를 나타낸 도면3 is a view showing an example of the expected results when real-time motion modeling based on the training data for writing sperm of calligraphy in the present invention

도4는 본 발명에서 동양화를 그리기 위한 학습 데이터를 기반으로 실시간 움직임 모델링할 경우의 예상되는 결과의 예를 나타낸 도면4 is a view showing an example of the expected results when real-time motion modeling based on the training data for drawing oriental painting in the present invention

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

10: 터치 패드 20: 터치 오브젝트(사용자의 손)10: touch pad 20: touch object (user's hand)

30: 붓 효과 영상30: brush effect image

본 발명은 PC, 스마트 폰, PDA 등에서 사용자 인터페이스 장치로 사용하는 터치 패드(Touch Pad)에 손이나 펜 등의 터치 오브젝트(Touch Object)를 이용해서 입력된 신호를 확률적 모델링(Spline Method, Deformable Object)을 기반으로 하여 붓으로 그림을 그리거나 글씨를 쓰는 듯한 효과를 내는 방법에 관한 것이다.The present invention is a stochastic modeling method of a signal input using a touch object such as a hand or a pen to a touch pad used as a user interface device in a PC, a smart phone, a PDA, or the like. It is about how to make an effect like drawing or writing with a brush based on).

PC를 기반으로 하여 붓 효과와 유사한 그림 그리기 효과를 나타내는 툴(Tool)을 가진 소프트웨어가 있지만 이 경우는 붓의 두께를 사용자가 직접 지정해야 하고, 마우스의 움직임을 추적해서 간단히 색칠을 하기 때문에 정확한 붓 효과라고 말하기는 어렵다. 또한 먹물을 붓에 묻혀서 글씨를 쓰는 듯한 서예나, 그림을 그리는 듯한 동영화 기법의 효과를 포함하여, 유채색의 물감을 붓에 묻혀서 글씨를 쓰거나 그림을 그리는 효과는 전혀 낼 수 없다는 제약이 있다.There is software that has a PC-based tool that produces a painting effect similar to the brush effect, but in this case, you need to specify the thickness of the brush yourself. It's hard to say it's an effect. In addition, there are limitations that writing or painting with colored paints can not be done at all, including the effect of calligraphy that looks like writing with ink on a brush or the movie technique of drawing.

이를 좀 더 상세하게 살펴본다.Let's look at this in more detail.

실제 공간에서 먹물을 비롯하여 유채색 물감을 붓에 듬뿍 묻힌 상태로 종이에 글씨를 쓰거나 그림을 그린다고 가정해 보자. 이러한 경우 글씨를 쓰거나 그림을 그리는 사람이 붓을 들고 종이에 밀착시키는 정도(접지 면적, 힘)와 붓을 이동시키는 속도(가속도), 그리고 이 두가지의 조합, 예를 들면 붓을 종이에 대고 이동할 때 그 이동 궤적 상의 시작과 중간 중간, 끝 지점에 이르기 까지의 접지 면적과 속도의 미세한 변화 등에 의해서 글씨나 그림은 색농도, 형태, 그려지는 곡선이나 직선의 미학적 형태, 그리고 물감이 종이에 스며들면서 번지는 정도, 등의 다양한 요소에 영향을 받아 예술적인 붓 터치가 살아나게 된다.Suppose you write or draw on a piece of paper with plenty of colored paint, including ink and ink, in a real space. In this case, the extent to which the writing or drawing person picks up the brush and adheres it to the paper (ground area, force), the speed at which the brush moves (acceleration), and a combination of the two, for example, when moving the brush against the paper Fine changes in the ground area and speed from the beginning, middle, and end points of the movement trajectory to the color or shape of the text or figure, the aesthetic form of the curve or straight line drawn, and the color of the paint penetrate the paper. It is influenced by various factors such as the degree, and the artistic brush touch comes to life.

그렇지만 앞서 설명한 바와 같이 PC를 기반으로 하여 마우스를 움직이는 것으로는 이러한 실사의 멋을 내기란 사실상 불가능하다. 그 것은 붓을 들고 있는 손 동작의 섬세함과 역동성을 마우스로 표현한다는 것이 거의 불가능하기 때문이며, 선의 두께나 농도를 실시간으로 변화시켜 줄 수 없기 때문이다. 그렇기 때문에 마우스로 붓 효과를 낸다는 것은 거의 정형화된 두께와 색, 농도로 붓 터치 효과를 약간 모사하는 정도에 불과하게 된다.However, as explained earlier, moving a mouse based on a PC is virtually impossible to make this photorealistic. This is because it is almost impossible to express the fineness and dynamics of a hand holding a brush with a mouse and cannot change the thickness or density of lines in real time. For this reason, creating a brush effect with a mouse is almost similar to the brush touch effect with a typical thickness, color, and density.

따라서, PC 뿐만 아니라 스마트 폰이나 PDA를 비롯한 여러 가지 다양한 이동 통신 단말기 상에서도 사용자가 그림을 그리거나 글씨를 쓸 때, 보다 더 섬세하고 역동적이며, 사실감 넘치는 그림이나 글씨를 그래픽 처리할 수 있는 수단이 필요하고, 특히 예술적인 감각을 충분하게 확보할 수 있도록 실제 생활 공간 상에서 붓을 사용하는 것처럼 붓 터치의 효과를 기기에서도 충분하게 낼 수 있는 수단이 필요하다.Therefore, when a user draws or writes on not only a personal computer but also various mobile communication terminals such as a smart phone or a PDA, a means for graphic processing of a more detailed, dynamic and realistic picture or text is needed. In particular, there is a need for a means that can sufficiently effect the effect of the brush touch on the device, such as using a brush in a real living space so as to secure sufficient artistic sense.

본 발명의 목적은 터치 패드를 이용해서 붓으로 그림을 그리거나 글씨를 쓰는 듯한 효과를 내는 방법을 제공하는데 있다.An object of the present invention is to provide a method for producing the effect of drawing or writing with a brush using a touch pad.

본 발명은 컴퓨터 그래픽 기반의 페인팅 툴에서 입력장치로 터치 패드를 사용하고, 이 터치 패드를 이용해서 사용자가 손이나 펜으로 그림을 그리거나 글씨를 쓸 때 붓으로 그림을 그리거나 글씨를 쓰는 것과 같은 붓 효과를 내는 방법을 제공하는데 그 목적이 있다.The present invention uses a touch pad as an input device in a computer graphics-based painting tool, and when the user draws or writes with a hand or a pen, the user uses a touch pad to write or write with a brush. The goal is to provide a way to create a brush effect.

본 발명은 PC 뿐만 아니라 스마트 폰이나 PDA 등의 이동 통신 단말기와 같이 마이크로 프로세서-컴퓨터를 기반으로 하는 기기에서 입력장치로 터치 패드를 사용하고, 이 터치 패드를 이용해서 손이나 펜으로 그림을 그리거나 글씨를 쓸 때 예술적인 붓 터치 효과를 낼 수 있는 터치 패드 기반의 붓 효과 생성방법을 제공하는데 그 목적이 있다.The present invention uses a touch pad as an input device in a microprocessor-computer based device such as a mobile communication terminal such as a smart phone or a PDA as well as a PC, and uses the touch pad to draw a picture with a hand or a pen. The purpose of the present invention is to provide a touch pad-based brush effect generation method that can produce artistic brush touch effects when writing.

본 발명은 터치 패드를 이용해서 손이나 펜으로 그림을 그리거나 글씨를 쓸 때, 손이나 펜의 특성을 분석하여 마치 붓으로 그림을 그리거나 글씨를 쓰는 듯한 농도, 굵기, 형태, 흘림, 번짐 등의 붓 터치 효과를 낼 수 있도록 한 붓 효과 생성방법을 제공하는데 그 목적이 있다.In the present invention, when drawing or writing with a hand or a pen using a touch pad, the characteristics of the hand or pen are analyzed, and the density, thickness, shape, shedding, bleeding, etc. are as if the drawing or writing is made with a brush. The purpose of the present invention is to provide a method for creating a brush effect to make a brush touch effect.

상기 목적을 달성하기 위한 본 발명의 터치 패드 기반의 붓 효과 생성방법은, 터치 패드(Touch Pad)에 접촉되는 터치 오브젝트(Touch Object)의 움직임을 감지하는 단계; 상기 터치 패드에 접촉되는 터치 오브젝트의 움직임 특성을 확률적으로 모델링(Modeling)하여 상기 터치 오브젝트의 터치 패드 상에서의 움직임에 따른 붓 터치 영상을 생성하여 디스플레이하는 단계; 를 포함하여 이루어지는 것을 특징으로 한다.In accordance with an aspect of the present invention, there is provided a method of generating a brush effect based on a touch pad, the method comprising: detecting a movement of a touch object in contact with a touch pad; Probabilistically modeling a movement characteristic of the touch object in contact with the touch pad to generate and display a brush touch image according to the movement of the touch object on the touch pad; Characterized in that comprises a.

또한 본 발명에서 상기 모델링된 터치 오브젝트에 의해서 붓의 굵기, 형태, 농도를 결정하는 것을 특징으로 한다.In addition, the thickness of the brush, the shape, the concentration is determined by the modeled touch object in the present invention.

또한 상기 목적을 달성하기 위한 본 발명의 터치 패드 기반의 붓 효과 생성방법은, 터치 패드(Touch Pad)에 접촉되는 터치 오브젝트(Touch Object)의 움직임을 감지하는 단계; 상기 터치 패드에 접촉되는 터치 오브젝트의 움직임 특성을 확률적 모델링(Modeling) 기반으로 분석하고 오브젝트 이동 궤적에 따른 붓의 굵기, 형태, 농도를 결정하는 단계; 상기 결정된 굵기, 형태, 농도에 대응하는 붓 터치 영상을 생성하여 디스플레이하는 단계; 를 포함하여 이루어지는 것을 특징으로 한 다.In addition, the touch pad-based brush effect generation method of the present invention for achieving the above object, the step of detecting the movement of the touch object (Touch Object) in contact with the touch pad (Touch Pad); Analyzing the movement characteristics of the touch object in contact with the touch pad based on stochastic modeling and determining the thickness, shape, and concentration of the brush according to the object movement trajectory; Generating and displaying a brush touch image corresponding to the determined thickness, shape, and concentration; Characterized in that comprises a.

또한 본 발명에서 상기 붓 효과의 굵기, 형태, 농도는 상기 터치 오브젝트의 접지 면적과 터치 오브젝트 이동 시의 가속도에 의존하여 실시간으로 변화되는 것을 특징으로 한다.Further, in the present invention, the thickness, shape, and density of the brush effect may be changed in real time depending on the ground area of the touch object and the acceleration when the touch object moves.

또한 본 발명에서 상기 터치 오브젝트의 움직임 특성은 터치 패드와 오브젝트 사이의 접지 면적과 오브젝트의 움직임에 대한 가속도인 것을 특징으로 한다.In the present invention, the movement characteristic of the touch object is characterized in that the ground area between the touch pad and the object and the acceleration of the movement of the object.

또한 본 발명에서 상기 터치 오브젝트의 움직임 특성은 터치 패드와 오브젝트 사이의 접지 면적을 터치 패드의 센서를 통해서 구하고, 이를 타원 형태로 재구성하는 것을 특징으로 한다.In the present invention, the movement characteristic of the touch object is characterized by obtaining the ground area between the touch pad and the object through the sensor of the touch pad, and reconstructing it into an ellipse form.

또한 본 발명에서 상기 터치 오브젝트의 움직임 특성은 터치 패드 상에서 이동하는 상기 오브젝트의 단위 시간당 속도 변화를 실시간으로 구한 가속도인 것을 특징으로 한다.In addition, in the present invention, the movement characteristic of the touch object is an acceleration obtained by obtaining a change in velocity per unit time of the object moving on the touch pad in real time.

또한 본 발명에서 상기 터치 오브젝트의 움직임 특성에 대한 확률적인 모델링은 곡선을 그리는 스플라인 법(Spline Method)과 변형 가능한 물체(Deformable Object)로 정의하는 것을 특징으로 한다.In the present invention, probabilistic modeling of the motion characteristics of the touch object is characterized in that it is defined as a spline method for drawing a curve and a deformable object.

또한 본 발명에서 상기 터치 오브젝트의 움직임 특성에 대한 확률적인 모델링은 오프라인에서 구해진 학습 데이터를 기반으로 하여 실시간으로 구해지는 것을 특징으로 한다.In the present invention, probabilistic modeling of the motion characteristics of the touch object is characterized in that it is obtained in real time based on the learning data obtained offline.

또한 본 발명에서 상기 터치 오브젝트의 움직임 특성에 대한 확률적인 모델링은 오프라인에서 글씨를 쓰는 경우나, 예술적인 그림을 그리는 경우 등으로 분류 해서 구해진 학습 데이터를 기반으로 하여 실시간으로 구해지는 것을 특징으로 한다.In the present invention, probabilistic modeling of the motion characteristics of the touch object is characterized in that it is obtained in real time based on learning data obtained by classifying it as a case of writing letters or drawing an artistic picture.

또한 상기 목적을 달성하기 위한 본 발명의 터치 패드 기반의 붓 효과 생성방법은, 터치 패드(Touch Pad)에 접촉되는 사용자의 손이나 펜 등의 터치 오브젝트(Touch Object)의 움직임을 감지하는 단계; 상기 감지신호로부터 터치 오브젝트와 터치 패드 간의 접지 면적을 타원형으로 재구성하고 상기 터치 오브젝트의 움직임에 따른 가속도를 구하며, 스플라인 법(Spline Method)을 통해서 좌표를 생성하여 상기 터치 오브젝트의 움직임에 따른 곡선을 구하는 단계; 오프라인에서 학습 과정을 통해서 구해진 변형 가능한 물체(Deformable Object)에 관한 데이터를 기반으로 상기 터치 오브젝트 감지신호를 실시간으로 모델링하는 단계; 상기 분석 결과를 토대로 하여 터치 오브젝트 이동 궤적에 따른 붓의 굵기, 형태, 농도를 결정하고 상기 결정된 굵기, 형태, 농도에 대응하는 붓 터치 영상을 생성하여 디스플레이하는 단계; 를 포함하여 이루어지는 것을 특징으로 한다.In addition, the touch pad-based brush effect generation method of the present invention for achieving the above object, the step of detecting the movement of a touch object (Touch Object), such as a user's hand or a pen in contact with the touch pad (Touch Pad); Reconstructing the ground area between the touch object and the touch pad into an ellipse from the detection signal, obtaining acceleration according to the movement of the touch object, and generating a coordinate through a spline method to obtain a curve according to the movement of the touch object. step; Modeling the touch object detection signal in real time based on data on a deformable object obtained through an offline learning process; Determining the thickness, shape, and density of the brush according to the movement trace of the touch object based on the analysis result, and generating and displaying a brush touch image corresponding to the determined thickness, shape, and concentration; Characterized in that comprises a.

또한 본 발명에서 상기 타원형으로 재구성된 접지 면적과 상기 가속도는 서로 연계되어 붓의 굵기와 형태 및 농도를 결정하는 요소로 동시에 함께 작용하여 붓 터치 영상을 생성하는 것을 특징으로 한다.In addition, in the present invention, the elliptical reconstructed ground area and the acceleration are linked to each other and simultaneously act as elements for determining the thickness, shape, and concentration of the brush to generate a brush touch image.

또한 본 발명에서 상기 타원형으로 재구성된 접지 면적과 상기 가속도는 서로 연계되어 붓의 굵기와 형태 및 농도를 결정하는 요소로 동시에 함께 작용하여, 접지 면적은 주로 붓의 굵기와 비례하고, 가속도는 주로 색의 농도에 반비례하여 붓 터치 영상을 생성하는 것을 특징으로 한다. In addition, in the present invention, the elliptical reconstructed ground area and the acceleration are linked to each other and simultaneously act as factors for determining the thickness, shape, and concentration of the brush, and the ground area is mainly proportional to the thickness of the brush, and the acceleration is mainly color. The brush touch image is generated in inverse proportion to the concentration of.                     

이하, 첨부된 도면을 참조하여 상기한 바와 같이 이루어지는 본 발명의 터치 패드 기반의 붓 효과 생성방법의 실시예를 설명한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the touch pad-based brush effect generation method of the present invention made as described above.

본 발명의 터치 패드 기반의 붓 효과 생성방법은 터치 패드를 사용자 인터페이스로 사용하는 기기에서 수행된다. 터치 패드를 사용자 인터페이스로 사용하는 스마트 폰, PDA를 비롯하여 여러 가지 다양한 이동 통신 단말기가 그 예가 될 수 있으며 PC에도 적용될 수 있다.The touch pad-based brush effect generation method of the present invention is performed in a device using the touch pad as a user interface. For example, a variety of mobile communication terminals, such as smart phones and PDAs using a touch pad as a user interface, may be applied to PCs.

터치 패드를 사용하는 경우의 입력은 사용자 손이나 펜을 통해서 이루어지게 된다. 터치 패드는 패드 상에 접촉되는 오브젝트를 감지하고, 감지된 오브젝트가 지시하거나 입력하는 정보를 인식하는 시스템을 갖추고 있다. 그리고 시스템-기기 내부에는 터치 패드의 터치 오브젝트 인식과 그 인식 결과를 바탕으로 하여 필요한 제어나, 데이터 처리, 데이터의 출력(디스플레이 등)을 수행하는 모듈이 구축되어 있다. 특히, 본 발명에서 사용할 도1의 흐름도에 따른 일련의 터치 패드 기반의 붓 효과 생성방법을 실행하는 프로세서, 그래픽-페인팅 엔진/툴, 메모리 등을 기본적으로 탑재하고 있다.In the case of using the touch pad, the input is made through a user's hand or a pen. The touch pad is equipped with a system that senses an object contacted on the pad and recognizes the information indicated or input by the sensed object. In addition, a module is built in the system-device to perform necessary control, data processing, and data output (display, etc.) based on the touch object recognition of the touch pad and the recognition result thereof. In particular, a processor, a graphics-painting engine / tool, a memory, and the like, which execute a series of touch pad-based brush effect generation methods according to the flowchart of FIG. 1 to be used in the present invention, are basically installed.

도1은 본 발명에 적용되는 터치 패드(10)와 터치 오브젝트(사용자의 손)(20), 그리고 터치 오브젝트의 움직임을 감지한 신호를 확률적 모델링을 기반으로 하여 분석한 결과에 따라 생성 및 디스플레이되는 영상(30)의 예를 보여준다.1 is generated and displayed according to a result of analyzing a touch pad 10, a touch object (a user's hand) 20, and a signal detecting a movement of a touch object based on probabilistic modeling according to the present invention. An example of the image 30 is shown.

본 발명에서는 터치 패드(10)에 펜이나 사용자의 손과 같은 오브젝트(20)를 접촉시킨 상태로 오브젝트를 이동시키면 그 움직임을 터치 패드(10)에서 감지하고, 감지된 신호를 입력으로 하여 도2에 나타낸 바와 같은 수순으로 붓의 굵기와 형태, 농도를 정하여 해당 영상(30)을 터치 패드(10) 상의 화면에 실시간으로 디스플레이하여 준다.In the present invention, when the object is moved while the object 20 such as a pen or the user's hand is in contact with the touch pad 10, the movement is detected by the touch pad 10, and the detected signal is input. The thickness, shape, and concentration of the brush are determined in the order as shown in the figure, and the corresponding image 30 is displayed on the screen on the touch pad 10 in real time.

도2는 본 발명에 따른 터치 패드 기반의 붓 효과 생성방법의 수순을 나타낸 플로우차트 이다.2 is a flowchart illustrating a procedure of a method for generating a brush effect based on a touch pad according to the present invention.

도2에 나타낸 바와 같이 본 발명에 따른 터치 패드 기반의 붓 효과 생성방법에서는, 터치 패드를 통해서 사용자의 손이나 펜 등의 터치 오브젝트의 움직임을 입력받고, 입력된 터치 오브젝트의 움직임에 따른 곡선은 스플라인 법(Spline Method)을 통해서 좌표를 생성하며, 오프라인에서 학습 과정을 통해서 구해진 변형 가능한 물체(Deformable Object)에 관한 데이터를 기반으로 하여 상기 입력된 신호를 실시간으로 모델링한다. 즉, 실시간으로 터치 오브젝트와 터치 패드 간의 접지 면적, 가속도를 구하게 되며, 여기서 접지 면적과 가속도는 실시간으로 연산을 하게 되고, 또한 상기 접지 면적은 타원형으로 재구성한다.As shown in FIG. 2, in the method for generating a brush effect based on a touch pad according to the present invention, a movement of a touch object such as a user's hand or a pen is received through a touch pad, and a curve according to the movement of the input touch object is splined. Coordinates are generated through a Spline Method, and the input signal is modeled in real time based on data on a deformable object obtained through an offline learning process. That is, the ground area and the acceleration between the touch object and the touch pad are calculated in real time, where the ground area and the acceleration are calculated in real time, and the ground area is reconfigured into an ellipse.

이와 같이 터치 패드 상에서의 터치 오브젝트의 특성을 분석해서 예술적인 붓 효과를 내는데, 이 과정을 상기 도2를 참조하여 상세하게 살펴본다.As described above, the characteristics of the touch object on the touch pad are analyzed to produce an artistic brush effect. This process will be described in detail with reference to FIG. 2.

제1 단계(S10)는 터치 패드의 입력장치(사용자의 손이나, 펜 입력장치)의 움직임을 감지하는 단계이다. 앞서 설명한 바와 같이 터치 패드는 터치 패드 상에 접촉되는 오브젝트에 대해서 그 패드 상에서의 위치(좌표) 및 그 위치의 변화를 감지하며 이 것을 토대로 하여 이동 방향과 이동 궤적 까지도 인식할 수 있다.The first step S10 is a step of detecting a movement of an input device (a user's hand or a pen input device) of the touch pad. As described above, the touch pad senses a position (coordinate) on the pad and a change in the position with respect to an object contacted on the touch pad, and based on this, the touch pad may also recognize a movement direction and a movement trajectory.

즉, 제1 단계(S10)는 시스템에서 도1에 나타낸 바와 같이 상기 터치 패드(10) 상에 접촉되는 터치 오브젝트(20)의 움직임을 감지하는 것이다. 이렇게 감지 된 움직임은 그 터치 오브젝트(20)의 특성을 분석하는데 사용된다. 본 발명에서 사용될 터치 오브젝트(20)의 특성은 터치 오브젝트와 터치 패드 사이의 접지 면적과 터치 오브젝트의 움직임에 대한 가속도 이다.That is, the first step S10 is to detect the movement of the touch object 20 in contact with the touch pad 10 as shown in FIG. 1 in the system. The detected motion is used to analyze the characteristics of the touch object 20. The characteristics of the touch object 20 to be used in the present invention are the ground area between the touch object and the touch pad and the acceleration for the movement of the touch object.

제2 단계(S20)에서는 상기 입력신호를 실시간으로 모델링하여 붓 터치 효과를 생성하는 과정이다. 즉, 상기 터치 오브젝트(20)의 움직임에 따른 곡선은 스플라인 법(Spline Method)을 통해서 해당 좌표를 생성하며, 오프라인에서 학습과정을 통해서 구해진 변형 가능한 물체(Deformable Object)에 관한 데이터를 기반으로 상기 입력된 신호를 실시간 모델링하는 과정이다.In the second step (S20) it is a process of generating a brush touch effect by modeling the input signal in real time. That is, the curve according to the movement of the touch object 20 generates corresponding coordinates through a spline method, and the input is based on data on a deformable object obtained through an offline learning process. This is a process of real time modeling the processed signal.

상기 제2 단계(S20)에서 단계(S21)는 접지 면적을 타원형으로 재구성하는 과정이다. 즉, 상기 터치 패드(10) 상에 접촉되는 오브젝트(20)의 접지 면적을 타원형으로 재구성하는 것이다. 접지 면적을 타원형으로 재구성함으로써 붓이 종이에 접촉된 것과 같은 인식이 이루어질 수 있는 것이다. 타원형으로 재구성된 접지 면적은 붓의 굵기를 결정하는 주 요소로 작용하며, 그 이동 방향과 궤적 및 오브젝트 접지 면적의 순간 순간의 미세한 변화 등에 따라서 타원형이 그리는 붓의 굵기 또한 시시각각으로 섬세하게 변화될 것이다. 물론, 후에 설명하겠지만 타원형으로 재구성된 접지 면적은 이동 속도와 연계되어 붓의 형태와 농도를 결정하는 요소로도 함께 작용하게 될 것이다.In the second step S20, step S21 is a process of reconfiguring the ground area into an elliptical shape. That is, the ground area of the object 20 in contact with the touch pad 10 is reconfigured into an elliptical shape. By reconstructing the ground area into an elliptical shape, a recognition can be made such that the brush is in contact with paper. The oval reconstructed ground area acts as the main factor to determine the thickness of the brush, and the thickness of the brush drawn by the oval will change delicately every moment depending on the direction of movement, the trajectory, and the minute change of the moment of the object ground area. . Of course, as will be described later, the elliptical reconstructed ground area will also act as a factor in determining the shape and concentration of the brush in relation to the movement speed.

단계(S22)는 가속도를 계산하는 과정이다. 즉, 상기 터치 패드(10) 상에서 이동하는 터치 오브젝트(20)의 단위 시간당 속도의 변화를 실시간으로 계산하는 것이다. 이러한 가속도는 붓 터치 효과에서 특히 색 농도를 결정하는 주 요소로 작용 하며, 가속도가 크면 색 농도는 엷어지고, 가속도가 작다면 색 농도는 짙어지는 방법으로 가속도를 붓 터치 효과에 반영할 수 있을 것이다. 즉, 종이 위를 빠르게 움직이는 붓은 그 만큼 물감이 종이에 스며드는 정도를 줄일 수 있기 때문에 색 농도가 자연스럽게 엷어질 수 있고 반대의 경우도 일어날 수 있으므로 본 발명에서도 가속도에 따라 붓 터치 효과의 색 농도에 변화를 주는 것이다. 이 가속도 또한 앞서 설명한 접지 면적과 함께 고려되어 붓 터치 효과를 생성한다.Step S22 is a process of calculating the acceleration. That is, a change in speed per unit time of the touch object 20 moving on the touch pad 10 is calculated in real time. This acceleration acts as the main factor in determining the color depth, especially in the brush touch effect. If the acceleration is large, the color depth becomes thinner, and if the acceleration is small, the color depth becomes dark. . That is, since the paintbrush that moves on paper can reduce the amount of paint penetrating the paper, the color density can be naturally thinned and vice versa. To give. This acceleration is also taken into account with the ground area described above to create the brush touch effect.

예를 들어, 접지 면적이 크고 가속도도 크다면 엷은 농도의 굵은 필체나 곡선을 생성하고, 접지 면적이 크고 가속도는 작다면 짙은 농도의 굵은 필체나 곡선을 생성한다. 다른 경우로, 접지 면적이 작고 가속도가 크다면 엷은 농도의 가는 필체나 곡선을 생성하고, 접지 면적이 작고 가속도가 작다면 짙은 농도의 가는 필체나 곡선을 생성하는 것이다.For example, if the ground area is large and the acceleration is high, a thin handwriting or curve of thin density is generated. If the ground area is large and the acceleration is small, a thick handwriting or curve of dark density is generated. In other cases, small ground planes and high accelerations produce thin handwriting or curves of lighter concentrations. Smaller ground areas and small accelerations produce thin handwriting or curves of darker concentrations.

다음 단계(S23)는 스플라인 법을 통해 곡선의 좌표를 생성하는 과정이다. 즉, 터치 오브젝트(20)가 터치 패드(10) 상에서 그림을 그리거나 글씨를 쓰기 위하여 움직일 때 그 움직이는 궤적을 인식하고 인식된 궤적에 대응하는 곡선을 그려내기 위한 과정이다.Next step (S23) is a process of generating the coordinates of the curve through the spline method. That is, when the touch object 20 moves to draw or write on the touch pad 10, the touch object 20 recognizes the moving trajectory and draws a curve corresponding to the recognized trajectory.

다음 단계(S24)는 변형 가능한 물체(Deformable Object)를 기반으로 확률적 모델링을 실시간 수행하는 과정으로서, 오프라인에서 학습과정을 통해서 구해진 변형 가능한 물체에 관한 데이터를 기반으로 상기 입력된 신호를 실시간으로 모델링하는 것이다.The next step (S24) is a process of performing probabilistic modeling based on a deformable object in real time, and modeling the input signal in real time based on data on the deformable object obtained through an offline learning process. It is.

즉, 본 발명에서 상기 확률적 모델링은 곡선을 그리는 스플라인 법(Spline Method)과 변형 가능한 물체(Deformable Object)로 정의하였고, 여기서 상기 확률적인 모델링은 오프라인에서 구해진 학습 데이터를 기반으로 하여 실시간으로 구하게 되는 것이다. 상기 오프라인에서 구해지는 학습 데이터는 글씨를 쓰는 경우와 예술적인 그림을 그리는 경우 등으로 분류해서 학습을 하게 된다. 글씨의 경우는 정자체나 흘림체 등을 쓰는 경우에 대해서 학습을 수행하고, 그 학습된 데이터를 기반으로 하여 상기 움직임을 실시간으로 모델링하는 것이다.That is, in the present invention, the probabilistic modeling is defined as a spline method for drawing a curve and a deformable object, and the probabilistic modeling is obtained in real time based on the learning data obtained offline. will be. The learning data obtained off-line is classified into a case of writing a letter, a case of drawing an artistic picture, and the like. In the case of writing, learning is performed in the case of writing a sperm or shedding, and modeling the motion in real time based on the learned data.

이와 같이 모델링된 손이나 펜 등의 터치 오브젝트(20)는 붓의 굵기, 형태, 색의 농도를 결정하게 된다.The touch object 20 such as a hand or a pen modeled as described above determines the thickness, shape, and color density of the brush.

다음 단계(S30)에서는 상기 입력신호 모델링 과정(S20)을 수행하여 구해진 결과를 바탕으로 하여 해당되는 붓 터치 영상(30)을 터치 패드(10) 상의 화면에 디스플레이하여 줌으로써, 섬세하고 역동적으로 변화되는 글씨나 그림의 표현이 이루어지게 된다.In the next step (S30), by displaying the corresponding brush touch image 30 on the screen on the touch pad 10, based on the result obtained by performing the input signal modeling process (S20), the delicate and dynamic Expression of letters and pictures will be made.

도3은 실제 적용의 예이며, 서예의 정자체를 쓰기 위한 학습 데이터를 기반으로 실시간으로 움직임을 모델링할 경우 예상되는 결과이다. 도4는 실제 적용의 또 다른 예이며, 동양화를 그리기 위한 학습 데이터를 기반으로 실시간으로 움직임을 모델링할 경우 예상되는 결과이다.3 is an example of practical application, and is expected when modeling motion in real time based on learning data for writing calligraphy. 4 is another example of actual application, and is expected when modeling motion in real time based on learning data for drawing oriental paintings.

도3에 나타낸 바와 같이, 글씨를 쓰는 경우에 있어서도 하나의 획을 써 내려갈 때에 굵기와 형태, 농도의 변화가 앞서 설명한 바와 같이 터치 패드와 터치 오브젝트 간의 접지 면적(붓과 종이 사이의 접촉 면적과 같은 개념), 터치 패드 상에서 이동하는 터치 오브젝트의 가속도(붓의 이동 속도)에 따라 섬세하고 역동적으로 디스플레이 가능한 것을 알 수 있다.As shown in Fig. 3, even in the case of writing, changes in thickness, shape, and density when writing down a stroke, as described above, are the ground area between the touch pad and the touch object (such as the contact area between the brush and paper). Concept), it can be seen that it is possible to display delicately and dynamically according to the acceleration (speed of movement of the brush) of the touch object moving on the touch pad.

또한 도4에 나타낸 바와 같이, 동양화를 그리는 경우에 있어서도 하나의 선을 그릴 때에 그 굵기와 형태, 농도의 변화가 접지 면적 및 가속도에 따라 섬세하고 역동적으로 디스플레이 가능한 것을 알 수 있다.In addition, as shown in Fig. 4, even in the case of drawing oriental paintings, it can be seen that when one line is drawn, changes in thickness, shape, and concentration can be displayed delicately and dynamically according to the ground area and acceleration.

본 발명에 따른 터치 패드 기반의 붓 효과 생성방법은 무채색은 물론, 유채색에 대해서도 같은 효과를 낼 수 있으며, 동양화를 예시하였으나 서양화의 경우에도 마찬가지로 붓 터치 효과를 낼 수 있음은 재론의 여지가 없다.The touch pad-based brush effect generation method according to the present invention can produce the same effect not only for achromatic colors, but also for chromatic colors.

본 발명은 기존의 마우스 입력장치의 한계 때문에 구현이 불가능하였던 붓 효과를, 터치 패드의 입력수단(사용자의 손이나 펜 등)을 통해서 접지 면적, 움직임, 속도 등의 더 많은 정보를 이용해서 구현이 가능하도록 하였다. 이러한 기능은 터치 패드가 적용된 스마트 폰, PDA, 이동 통신 단말기 뿐만 아니라 PC에 적용해서 기존의 딱딱한 붓 효과를 벗어나 다양하고 동적이며 섬세한 붓 효과를 나타낼 수 있게 하며, 서예의 예술적인 효과와 예술적인 동양화를 그릴 수 있는 기반을 제공한다.The present invention implements the brush effect, which could not be implemented due to the limitation of the existing mouse input device, by using more information such as ground area, movement, and speed through the input means of the touch pad (such as a user's hand or pen). It was made possible. These features can be applied to smart phones, PDAs, mobile communication terminals as well as PCs, as well as PCs, so that they can exhibit various dynamic and delicate brush effects beyond the existing hard brush effects. Provides a foundation to draw

또한 본 발명에 따르면, 사용자가 손이나 펜으로 직접 터치 패드 상에서 글씨를 쓰거나 그림을 그릴 수 있기 때문에 기존의 마우스 입력장치를 사용하는 경우보다 훨씬 섬세한 표현이 가능하고, 예술적인 기교(붓 놀림)를 충분히 반영하여 이를 영상화시켜 표현할 수 있게 된다.In addition, according to the present invention, since the user can directly write or draw on the touch pad with a hand or a pen, much finer expression is possible than when using a conventional mouse input device, and artistic finesse (brush teasing) is possible. It can be sufficiently reflected and imaged to express it.

Claims (13)

터치 패드(Touch Pad)에 접촉되는 터치 오브젝트(Touch Object)의 움직임을 감지하는 단계; 상기 터치 패드에 접촉되는 터치 오브젝트의 움직임 특성을 확률적 모델링(Modeling) 기반으로 분석하고 오브젝트 이동 궤적에 따른 붓의 굵기, 형태, 농도를 결정하는 단계; 상기 결정된 굵기, 형태, 농도에 대응하는 붓 터치 영상을 생성하여 디스플레이하는 단계; 를 포함하여 이루어지는 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.Detecting a movement of a touch object in contact with the touch pad; Analyzing the movement characteristics of the touch object in contact with the touch pad based on stochastic modeling and determining the thickness, shape, and concentration of the brush according to the object movement trajectory; Generating and displaying a brush touch image corresponding to the determined thickness, shape, and concentration; Touch pad-based brush effect generation method comprising a. 제 1 항에 있어서, 상기 붓 효과의 굵기, 형태, 농도는 상기 터치 오브젝트의 접지 면적과 터치 오브젝트 이동 시의 가속도에 의존하여 실시간으로 변화되는 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.The method of claim 1, wherein the thickness, shape, and concentration of the brush effect are changed in real time depending on the ground area of the touch object and the acceleration when the touch object moves. 제 1 항에 있어서, 상기 터치 오브젝트의 움직임 특성은 터치 패드와 오브젝트 사이의 접지 면적과 오브젝트의 움직임에 대한 가속도인 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.The method of claim 1, wherein the movement characteristic of the touch object is an acceleration of movement of the object and a ground area between the touch pad and the object. 제 1 항에 있어서, 상기 터치 오브젝트의 움직임 특성은 터치 패드와 오브젝트 사이의 접지 면적을 터치 패드의 센서를 통해서 구하고, 이를 타원 형태로 재구성하는 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.The method of claim 1, wherein the movement characteristics of the touch object are obtained by obtaining a ground area between the touch pad and the object through a sensor of the touch pad, and reconstructing the elliptical shape. 제 1 항에 있어서, 상기 터치 오브젝트의 움직임 특성은 터치 패드 상에서 이동하는 상기 오브젝트의 단위 시간당 속도 변화를 실시간으로 구한 가속도인 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.The method of claim 1, wherein the movement characteristic of the touch object is an acceleration obtained by obtaining a change in velocity per unit time of the object moving on the touch pad in real time. 제 1 항에 있어서, 상기 터치 오브젝트의 움직임 특성에 대한 확률적인 모델링은 곡선을 그리는 스플라인 법(Spline Method)과 변형 가능한 물체(Deformable Object)로 정의하는 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.The method of claim 1, wherein the probabilistic modeling of the movement characteristics of the touch object is defined by a spline method for drawing a curve and a deformable object. . 제 1 항에 있어서, 상기 터치 오브젝트의 움직임 특성에 대한 확률적인 모델링은 오프라인에서 구해진 학습 데이터를 기반으로 하여 실시간으로 구해지는 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.The method of claim 1, wherein the probabilistic modeling of the movement characteristics of the touch object is obtained in real time based on learning data obtained offline. 제 1 항에 있어서, 상기 터치 오브젝트의 움직임 특성에 대한 확률적인 모델링은 오프라인에서 글씨를 쓰는 경우나, 예술적인 그림을 그리는 경우 등으로 분류해서 구해진 학습 데이터를 기반으로 하여 실시간으로 구해지는 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.The method of claim 1, wherein the probabilistic modeling of the movement characteristics of the touch object is obtained in real time based on learning data obtained by classifying a writing or an artistic drawing offline. How to create a brush effect based on the touch pad. 터치 패드(Touch Pad)에 접촉되는 사용자의 손이나 펜 등의 터치 오브젝트(Touch Object)의 움직임을 감지하는 단계; 상기 감지신호로부터 터치 오브젝트와 터치 패드 간의 접지 면적을 타원형으로 재구성하고 상기 터치 오브젝트의 움직임에 따른 가속도를 구하며, 스플라인 법(Spline Method)을 통해서 좌표를 생성하여 상기 터치 오브젝트의 움직임에 따른 곡선을 구하는 단계; 오프라인에서 학습 과정을 통해서 구해진 변형 가능한 물체(Deformable Object)에 관한 데이터를 기반으로 상기 터치 오브젝트 감지신호를 실시간으로 모델링하는 단계; 상기 분석 결과를 토대로 하여 터치 오브젝트 이동 궤적에 따른 붓의 굵기, 형태, 농도를 결정하고 상기 결정된 굵기, 형태, 농도에 대응하는 붓 터치 영상을 생성하여 디스플레이하는 단계; 를 포함하여 이루어지는 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.Detecting a movement of a touch object such as a user's hand or a pen in contact with the touch pad; Reconstructing the ground area between the touch object and the touch pad into an ellipse from the detection signal, obtaining acceleration according to the movement of the touch object, and generating a coordinate through a spline method to obtain a curve according to the movement of the touch object. step; Modeling the touch object detection signal in real time based on data on a deformable object obtained through an offline learning process; Determining the thickness, shape, and density of the brush according to the movement trace of the touch object based on the analysis result, and generating and displaying a brush touch image corresponding to the determined thickness, shape, and concentration; Touch pad-based brush effect generation method comprising a. 제 9 항에 있어서, 상기 타원형으로 재구성된 접지 면적과 상기 가속도는 서로 연계되어 붓의 굵기와 형태 및 농도를 결정하는 요소로 동시에 함께 작용하여 붓 터치 영상을 생성하는 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.10. The method of claim 9, wherein the elliptical reconstructed ground area and the acceleration are linked to each other to simultaneously determine the thickness, shape, and concentration of the brush to generate a brush touch image. How to create a brush effect. 제 9 항에 있어서, 상기 타원형으로 재구성된 접지 면적과 상기 가속도는 서로 연계되어 붓의 굵기와 형태 및 농도를 결정하는 요소로 동시에 함께 작용하여, 접지 면적은 주로 붓의 굵기와 비례하고, 가속도는 주로 색의 농도에 반비례하여 붓 터치 영상을 생성하는 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.10. The method according to claim 9, wherein the elliptical reconstructed ground area and the acceleration are simultaneously linked to each other to determine the thickness, shape, and concentration of the brush so that the ground area is mainly proportional to the thickness of the brush, and the acceleration is A method for generating a brush effect based on a touch pad, characterized in that to generate a brush touch image mainly in inverse proportion to the color density. 터치 패드(Touch Pad)에 접촉되는 터치 오브젝트(Touch Object)의 움직임을 감지하는 단계; 상기 터치 패드에 접촉되는 터치 오브젝트의 움직임 특성을 확률적으로 모델링(Modeling)하여 상기 터치 오브젝트의 터치 패드 상에서의 움직임에 따른 붓 터치 영상을 생성하여 디스플레이하는 단계; 를 포함하여 이루어지는 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.Detecting a movement of a touch object in contact with the touch pad; Probabilistically modeling a movement characteristic of the touch object in contact with the touch pad to generate and display a brush touch image according to the movement of the touch object on the touch pad; Touch pad-based brush effect generation method comprising a. 제 12 항에 있어서, 상기 모델링된 터치 오브젝트에 의해서 붓의 굵기, 형태, 농도를 결정하는 것을 특징으로 하는 터치 패드 기반의 붓 효과 생성방법.The method of claim 12, wherein the thickness, shape, and density of the brush are determined by the modeled touch object.
KR1020050005714A 2005-01-21 2005-01-21 Method of generating brush touch effect using touch pad KR20060084945A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050005714A KR20060084945A (en) 2005-01-21 2005-01-21 Method of generating brush touch effect using touch pad

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050005714A KR20060084945A (en) 2005-01-21 2005-01-21 Method of generating brush touch effect using touch pad

Publications (1)

Publication Number Publication Date
KR20060084945A true KR20060084945A (en) 2006-07-26

Family

ID=37174810

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050005714A KR20060084945A (en) 2005-01-21 2005-01-21 Method of generating brush touch effect using touch pad

Country Status (1)

Country Link
KR (1) KR20060084945A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080066416A (en) * 2007-01-12 2008-07-16 삼성전자주식회사 User interface methods in mobile terminal having touch screen
WO2009035184A1 (en) * 2007-09-14 2009-03-19 Korea Research Institute Of Standards And Science Method for implementing touch pad using tactile sensor
WO2009113754A1 (en) * 2008-03-12 2009-09-17 Atlab Inc. Touch sensor device and pointing coordinate determination method thereof
WO2012027599A3 (en) * 2010-08-27 2012-04-19 Intel Corporation Touch sensing apparatus and method
KR101385682B1 (en) * 2012-08-31 2014-04-18 길아현 Electronic brush device.
KR101385683B1 (en) * 2012-08-31 2014-05-14 길아현 Electronic Canvas for Electronic Brush.
US8786607B2 (en) 2008-01-28 2014-07-22 Samsung Electronics Co., Ltd. Apparatus and method of generating personal fonts
KR101423524B1 (en) * 2011-12-21 2014-08-01 주식회사 더클락웍스 User interface for drawing, and system and method for sharing drawings
KR101423699B1 (en) * 2013-04-19 2014-08-01 주식회사 에이디자인 Input device and method for touch screen
WO2017026821A1 (en) * 2015-08-13 2017-02-16 삼성전자 주식회사 Electronic device and input method of electronic device
US10359878B2 (en) 2015-09-24 2019-07-23 Samsung Electronics Co., Ltd. Method for providing events corresponding to touch attributes and electronic device thereof

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080066416A (en) * 2007-01-12 2008-07-16 삼성전자주식회사 User interface methods in mobile terminal having touch screen
WO2009035184A1 (en) * 2007-09-14 2009-03-19 Korea Research Institute Of Standards And Science Method for implementing touch pad using tactile sensor
US8786607B2 (en) 2008-01-28 2014-07-22 Samsung Electronics Co., Ltd. Apparatus and method of generating personal fonts
WO2009113754A1 (en) * 2008-03-12 2009-09-17 Atlab Inc. Touch sensor device and pointing coordinate determination method thereof
CN101965549B (en) * 2008-03-12 2013-06-05 艾勒博科技股份有限公司 Touch sensor device and pointing coordinate determination method thereof
KR101445990B1 (en) * 2010-08-27 2014-09-29 인텔 코포레이션 Techniques for augmenting a digital on-screen graphic
WO2012027599A3 (en) * 2010-08-27 2012-04-19 Intel Corporation Touch sensing apparatus and method
US9788075B2 (en) 2010-08-27 2017-10-10 Intel Corporation Techniques for augmenting a digital on-screen graphic
US9363571B2 (en) 2010-08-27 2016-06-07 Intel Corporation Touch sensing apparatus and method
KR101423524B1 (en) * 2011-12-21 2014-08-01 주식회사 더클락웍스 User interface for drawing, and system and method for sharing drawings
KR101385683B1 (en) * 2012-08-31 2014-05-14 길아현 Electronic Canvas for Electronic Brush.
KR101385682B1 (en) * 2012-08-31 2014-04-18 길아현 Electronic brush device.
KR101423699B1 (en) * 2013-04-19 2014-08-01 주식회사 에이디자인 Input device and method for touch screen
WO2017026821A1 (en) * 2015-08-13 2017-02-16 삼성전자 주식회사 Electronic device and input method of electronic device
KR20170019879A (en) * 2015-08-13 2017-02-22 삼성전자주식회사 Electronic device and method for inputting in electronic device
EP3336675A4 (en) * 2015-08-13 2018-08-01 Samsung Electronics Co., Ltd. Electronic device and input method of electronic device
US10564751B2 (en) 2015-08-13 2020-02-18 Samsung Electronics Co., Ltd Electronic device and input method of electronic device
US10359878B2 (en) 2015-09-24 2019-07-23 Samsung Electronics Co., Ltd. Method for providing events corresponding to touch attributes and electronic device thereof

Similar Documents

Publication Publication Date Title
KR20060084945A (en) Method of generating brush touch effect using touch pad
CN111381754B (en) Handwriting processing method, equipment and medium
TWI827633B (en) System and method of pervasive 3d graphical user interface and corresponding readable medium
US9268418B2 (en) Simulation of an erodible tip in a natural media drawing and/or painting simulation
CN102937850B (en) Method for beautifying handwriting in real time and electronic equipment
US10203765B2 (en) Interactive input system and method
Crowley et al. Vision for man machine interaction
CN105046730B (en) Written handwriting rendering method and device applied to writing brush
JP4663077B2 (en) Object verification method and augmented reality display system
US9817489B2 (en) Texture capture stylus and method
CN102317892B (en) The method of control information input media, message input device, program and information storage medium
Bonnici et al. Sketch-based interaction and modeling: where do we stand?
US10217253B2 (en) Methods and apparatus for simulation of a stateful brush tip in a natural media drawing and/or painting simulation
KR102212846B1 (en) Information processing device, information processing method, and recording medium
CN106774938A (en) Man-machine interaction integrating device based on somatosensory device
Shetty et al. Virtual mouse using object tracking
CN111782131A (en) Pen point implementation method, device, equipment and readable storage medium
Suriya et al. A survey on hand gesture recognition for simple mouse control
CN106547377A (en) Stroke display output method and device of writing system
CN104407696A (en) Virtual ball simulation and control method of mobile device
CN104951811B (en) Row style line recognition methods and device applied to brush writing
CN103823628A (en) Calligraphy stoke simulating method combined with pen pressure
JP7408562B2 (en) Program, information processing device, quantification method, and information processing system
Shin et al. Simulating oriental brush character considered with aerial action of pen tablet
US20220122335A1 (en) Scaling and rendering virtual hand

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application