KR20170085836A - Information input device for use in 3D design, and Method for producing 3D image with the same - Google Patents

Information input device for use in 3D design, and Method for producing 3D image with the same Download PDF

Info

Publication number
KR20170085836A
KR20170085836A KR1020160005473A KR20160005473A KR20170085836A KR 20170085836 A KR20170085836 A KR 20170085836A KR 1020160005473 A KR1020160005473 A KR 1020160005473A KR 20160005473 A KR20160005473 A KR 20160005473A KR 20170085836 A KR20170085836 A KR 20170085836A
Authority
KR
South Korea
Prior art keywords
pattern
signal
sensor
input
command
Prior art date
Application number
KR1020160005473A
Other languages
Korean (ko)
Inventor
김명식
백오현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160005473A priority Critical patent/KR20170085836A/en
Priority to PCT/KR2016/009291 priority patent/WO2017122895A1/en
Publication of KR20170085836A publication Critical patent/KR20170085836A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Multimedia (AREA)

Abstract

정보입력장치 및 이를 이용한 3차원 이미지 생성 방법이 개시된다. 정보입력장치는 구조물에 설치된 터치센서, 압력센서, 및 관성센서를 구비한다. 정보입력장치에 대한 사용자의 조작 패턴은 제1 내지 제3입력패턴으로 사전에 정의된다. 제1 및 제2입력패턴은 터치센서와 압력센서로부터의 신호에 대하여 원본이미지에 대한 함몰명령과 돌출명령으로 각각 정의한 패턴이고, 제3입력패턴은 관성센서로부터의 신호에 대해서 원본이미지의 가공 동작 제어와 관련한 제어명령으로 정의한 패턴이다. 사용자는 정보입력장치를 손으로 만지면서 패턴에 해당되는 작업을 하여 원본이미지를 가공할 수 있다.An information input device and a method for generating a three-dimensional image using the same are disclosed. The information input device includes a touch sensor, a pressure sensor, and an inertial sensor installed in the structure. The user's operation pattern with respect to the information input device is predefined as the first to third input patterns. The first and second input patterns are patterns defined by a depression command and a protrusion command for the original image with respect to the signals from the touch sensor and the pressure sensor respectively and the third input pattern is a pattern defined by the processing operation of the original image It is a pattern defined by a control command related to control. The user can manipulate the original image by touching the information input device with his or her hand and performing the operation corresponding to the pattern.

Description

3차원 형상 디자인을 위한 정보입력장치 및 이를 이용한 3차원 이미지 생성 방법 {Information input device for use in 3D design, and Method for producing 3D image with the same}Technical Field [0001] The present invention relates to an information input device for three-dimensional shape design and a three-dimensional image generation method using the same,

본 발명은 3차원 형상 디자인을 위한 정보입력장치 및 이를 이용한 3차원 이미지 생성 방법에 관한 것으로서, 보다 상세하게는, 입체적 구조물 형태로 제작되어 사용자가 구조물에 대해 손조작을 가함으로써 원본이미지의 형상을 가공할 수 있도록 한 정보입력장치 및 이를 이용한 3차원 이미지 생성 방법에 관한 것이다.The present invention relates to an information input device for three-dimensional shape design and a method for generating a three-dimensional image using the same. More particularly, the present invention relates to a three- And a method for generating a three-dimensional image using the apparatus.

컴퓨터를 이용하여 원하는 이미지를 제작하는 다양한 툴이 개발되어 있으며, 이러한 툴은 대개 3차원 이미지를 제작하는 방안도 제공하고 있다. 2차원 이미지를 제작하는 방식과 동일하게, 3차원 이미지를 제작하는 데에 있어서도 키보드와 마우스 등이 주된 입력장치로서 사용된다. 키보드와 마우스를 통해 입력하는 방식은 마우스를 이용하여 원본이미지의 특정 위치를 지정한 후 그 위치에 대해 키보드를 이용하여 선을 그림으로써 원하는 이미지를 만들어가는 방식이다.Various tools have been developed to produce desired images using a computer, and these tools usually provide a way to produce three-dimensional images. Similar to the method of producing a two-dimensional image, a keyboard and a mouse are used as a main input device in producing a three-dimensional image. The method of inputting through the keyboard and the mouse is to designate a specific position of the original image using a mouse and then draw a line using the keyboard with respect to that position to create a desired image.

그런데 이런 방식은 이미지의 한 부분에 대해 가공을 하는 데에도 많은 수의 조작이 요구되어 사용자의 작업량이 매우 크다는 단점이 있다. 나아가, 이러한 방식은 일정 수준 이상의 도안이 핸드 드래프트 등에 의해 완료된 이후에 정확한 이미지를 작성하는 데에 적합하며, 예컨대 정형화되어 있지 않은 예술품을 작업자의 직관에 의존하여 조금씩 가공하면서 완성해가는 방식에는 적합하지 않다.However, this method has a disadvantage in that a large number of operations are required to process a part of the image, and the workload of the user is very large. Furthermore, this method is suitable for creating an accurate image after a certain level of design is completed by a hand draft or the like. For example, it is suitable for a method of finishing an artwork which is not stereotyped, not.

이러한 단점을 해결하기 위하여, 터치센서나 압력센서를 구비한 입체적 구조물 형태의 정보입력장치를 마련하여 구조물의 특정 부위를 누르는 방식에 의하여 원본이미지 상의 원하는 부위를 함몰시키는 등의 가공을 할 수 있도록 한 방안이 제시되어 있다.In order to solve such a problem, an information input device in the form of a three-dimensional structure equipped with a touch sensor or a pressure sensor is provided to press a specific part of the structure so that a desired part of the original image can be depressed There is a suggestion.

일본특허공개 제2002-032173호(정보입력장치)는 기본 구조물을 겔상 물질로 구성하고 기본 구조물에 가해진 압력과 그 압력이 작용하는 점 및 시간을 감지하는 감지수단을 마련한 정보입력장치를 개시하고 있다. 사용자가 수작업에 의해 기본 구조물을 누르는 등의 방식으로 원하는 작업에 대한 명령을 입력하면, 화면 상에 표시되어 있는 현재의 이미지에서 해당되는 지점에 대해 입체적 형상의 변형이 일어나게 된다.Japanese Patent Laying-Open No. 2002-032173 (Information Input Device) discloses an information input device in which a basic structure is made of a gel-like material and a pressure applied to the basic structure and a sensing means for sensing a point and a time at which the pressure acts . When a user inputs a command for a desired operation in a manner such as pressing a basic structure by hand, the three-dimensional shape is deformed with respect to the corresponding point in the current image displayed on the screen.

미국특허공개 US2015-0067560은 터치와 압력을 감지할 수 있는 입력 기가상에 사용자가 미리 설정한 접촉 강도가 발생되면 해당 강도에 따라 그래픽 객체를 제거하거나 그래픽 객체의 외형을 조절하는 기술을 개시하고 있다.U.S. Patent Application Publication No. US2015-0067560 discloses a technology for removing a graphic object or controlling the appearance of a graphic object according to the intensity when a preset contact intensity is generated in a virtual input device capable of sensing touch and pressure .

한국특허공개 제2002-0073890호(손의 주물거림을 이용한 3차원 모델링 시스템 및 그 방법)은 사용자의 손이나 손가락과 동일한 움직임 및 모양을 갖는 가상의 손이나 손가락을 가상 공간 내에 형상화하고, 실제 손이나 손가락의 움직임 및 모양에 따른 가상 물체와 가상의 손이나 손가락이 접촉된 공간적 영역을 계산하여 계산된 만큼 가상물체를 변형시키는 기술을 개시하고 있다.Korean Patent Laid-Open Publication No. 2002-0073890 (a three-dimensional modeling system using a casting of a hand and a method thereof) forms a virtual hand or a finger having the same movement and shape as a user's hand or finger in a virtual space, And a spatial region in which a virtual object and a virtual hand or a finger are in contact with each other according to the movement and shape of the finger are calculated and transformed as much as the calculated virtual object.

한국특허공개 제2010-0119940호(휴대용 단말기에서 3차원 컨텐츠를 생성하기 위한 장치 및 방법)은 휴대용 단말기에서 3차원 컨텐츠 제작을 위한 저작 툴을 제공한다. 화면 상의 터치패드에 3차원 객체 변형을 위한 압력이 가해지면 압력 강도에 따른 변환 값을 확인하여 3차원 객체에 적용한다.Korean Patent Publication No. 2010-0119940 (an apparatus and method for generating three-dimensional content in a portable terminal) provides a authoring tool for creating three-dimensional content in a portable terminal. When the pressure for deforming the three-dimensional object is applied to the touch pad on the screen, the conversion value according to the pressure intensity is confirmed and applied to the three-dimensional object.

이러한 종래기술은 다음과 같은 문제점이 있다.Such conventional techniques have the following problems.

종래기술들은 정보입력장치를 사용자가 수작업으로 조작하여 형상을 조형하는 방안을 제시하고 있는데, 이는 주로 어느 방향을 함몰시키는 조작 방안만을 제시할 뿐이고 돌출시키는 조작 방안은 제시하지 못한다. 따라서 원본 이미지의 형상에서 일 부위를 돌출시키는 가공을 하고자 하는 작업이 불가능하거나, 매우 복잡한 방식의 조작을 통해 이를 실행하여야 한다.Conventional techniques suggest a method of shaping a shape by manually manipulating an information input device by a user. However, this method merely suggests a manipulation method for depressing any direction, and does not provide a manipulation method for protruding. Therefore, it is impossible to perform a process of protruding a part in the shape of the original image, or it must be executed through a very complicated manner of operation.

또한, 종래기술은 터치센서만을 이용하거나 터치센서와 압력센서만을 이용함으로써 터치된 위치와 그 위치에서의 압력을 통해 변형을 가할 위치와 정도를 결정한다. 따라서 동일한 하나의 변형 작업에 대해 사용자에게 편리한 다양한 방식의 입력 조작 방안을 제시하지 못하고 있다.In addition, the prior art uses a touch sensor alone or only a touch sensor and a pressure sensor to determine a touched position and a position and degree of a strain through pressure at the touched position. Therefore, it is not possible to provide a variety of input manipulation methods that are convenient for the user for the same one transformation operation.

또한, 종래기술은 사용자가 원본이미지에 대해 어떤 제어명령을 가하고자 할 경우, 다양한 제어명령의 효과적인 입력 방안을 제시하지 못한다. 예컨대 사용자가 현재의 원본이미지가 화면에 표시되는 방향을 변화시키고자 하거나, 현재 표시되는 원본이미지를 회전시키거나 확대/축소시켜 표시하고자 할 경우, 사용자는 정보입력장치 외의 추가의 별도 입력장치(예컨대 키보드, 마우스 등)를 이용하여 이러한 부가적인 동작을 하여야 한다.In addition, the prior art fails to provide an effective input method of various control commands when the user intends to execute any control command on the original image. For example, when the user wishes to change the direction in which the current original image is displayed on the screen, rotates the original image to be displayed, or enlarges / reduces the displayed original image, the user can input additional additional input devices Keyboard, mouse, etc.).

또한, 종래기술은 동작 모드의 전환이 자유롭지 못하다. 예컨대 사용자가 원본 이미지의 여러 부분을 함몰시키는 작업을 계속하다가 다른 부분을 돌출시키는 작업으로 전환하는 등의 작업을 할 경우에도 별도의 추가 입력장치를 사용하여야 한다.In addition, the prior art is not free to switch the operation mode. For example, when a user continues work to depress various parts of an original image, and then switches to an operation of projecting another part, a separate additional input device should be used.

일본특허공개 제2002-032173호(정보입력장치)Japanese Patent Laid-Open No. 2002-032173 (information input apparatus) 미국특허공개 US2015-0067560(Graphical User Interface for Manipulating Framed Graphical Object)United States Patent Application Publication No. US2015-0067560 (Graphical User Interface for Manipulating Framed Graphical Object) 한국특허공개 제2002-0073890호(손의 주물거림을 이용한 3차원 모델링 시스템 및 그 방법)Korean Patent Laid-Open Publication No. 2002-0073890 (Three-dimensional modeling system using the fretting of the hand and method thereof) 한국특허공개 제2010-0119940호(휴대용 단말기에서 3차원 컨텐츠를 생성하기 위한 장치 및 방법)Korean Patent Publication No. 2010-0119940 (Apparatus and method for generating three-dimensional content in a mobile terminal)

본 발명은 상기와 같은 종래의 정보입력장치의 단점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은, 3차원 입체 이미지를 제작하는 작업을 하는 데에 있어서 원본이미지에 대한 부위별 함몰 작업과 돌출작업이 가능하고 함몰위치와 함몰 정도에 대해서도 직관적으로 손쉽게 설정할 수 있게 함으로써, 사용자가 수작업으로 원하는 이미지를 가공하는 데에 있어서 보다 편리하게 작업할 수 있도록 하는 것이다.The object of the present invention is to solve the disadvantages of the conventional information input apparatus as described above, and it is an object of the present invention to provide a three-dimensional image processing apparatus, It is possible to work easily and to easily set the depression position and the depression degree intuitively so that the user can work more conveniently in manually processing the desired image.

본 발명의 다른 목적은, 3차원 입체 이미지 생성 작업에 있어서 다양한 센서를 이용하여 다양한 변형 조작에 대한 감지가 가능하게 하고 또한 원본이미지 자체에 대한 각종 제어명령의 입력이 쉽게 이루어질 수 있도록 하는 것이다.It is another object of the present invention to enable detection of various deformation operations using various sensors in a three-dimensional image generation operation, and to easily input various control commands to the original image itself.

본 발명의 일 측면에 따르면, 소정의 크기로 제작된 구조물; 상기 구조물에 설치되며 상기 구조물이 터치되는 지점인 터치위치를 감지하는 터치센서; 상기 구조물에 설치되며 상기 구조물에 가해지는 압력인 터치압력을 감지하는 압력센서; 상기 구조물에 설치되며 상기 구조물의 공간상에서의 이동을 감지하는 관성센서; 및 상기 터치센서, 상기 압력센서, 및 상기 관성센서에서 감지한 신호를 컴퓨터로 전송하기 위한 인터페이스;를 포함하는 것을 특징으로 하는 3차원 형상 디자인을 위한 정보입력장치가 제공된다.According to an aspect of the present invention, there is provided a structure having a predetermined size; A touch sensor installed on the structure and sensing a touch position, which is a point where the structure is touched; A pressure sensor installed on the structure and sensing a touch pressure which is a pressure applied to the structure; An inertial sensor installed on the structure and sensing movement of the structure in space; And an interface for transmitting signals sensed by the touch sensor, the pressure sensor, and the inertial sensor to a computer.

상기 터치센서는 호버링센서를 포함하여 구성될 수 있다.The touch sensor may include a hovering sensor.

본 발명의 정보입력장치는, 상기 구조물에 설치되며 상기 구조물의 외표면에 가해지는 면방향의 장력을 감지하는 장력센서를 더 포함할 수 있다.The information input device of the present invention may further include a tension sensor installed in the structure and sensing a tensile force applied to the outer surface of the structure in the plane direction.

상기 구조물은 원형 복원력을 가지는 연성 재질로 제조되는 것이 바람직하다.The structure is preferably made of a soft material having a circular restoring force.

본 발명의 다른 측면에 의하면, 정보입력장치로부터 입력된 신호에 따라 컴퓨터를 이용하여 원본이미지를 가공한 3차원 이미지를 생성하는 방법이 제공된다. 여기에서 상기 정보입력장치는 3차원 구조물 및 상기 구조물에 설치된 터치센서, 압력센서, 및 관성센서를 포함한다. 상기 방법은 : a) 상기 정보입력장치에 대한 사용자의 조작 패턴에 대하여 제1 내지 제3입력패턴으로 사전에 정의하여 마련하는 단계로서, 상기 제1 및 제2입력패턴은 상기 터치센서와 상기 압력센서로부터의 신호들 중 하나 또는 둘 이상의 조합을 포함하는 신호에 대하여 상기 원본이미지의 일 부위에 대한 함몰명령과 돌출명령으로 각각 정의한 패턴이고, 상기 제3입력패턴은 상기 관성센서로부터의 신호를 포함하는 신호에 대해서 상기 원본이미지의 가공 동작 제어와 관련한 소정의 제어명령으로 정의한 패턴인, 상기 a) 단계; b) 상기 정보입력장치로부터 입력되는 신호가 대해 상기 제1 내지 제3입력패턴에 해당되는지 여부를 판별하는 단계; 및 c) 상기 제1입력패턴 또는 상기 제2입력패턴이 입력됨에 따라 소정의 입체형상으로 형성되어 있는 상기 원본이미지의 특정 부위가 특정 정도로 함몰 또는 돌출되도록 상기 원본이미지의 형상을 변형시키고, 상기 제3입력패턴이 입력됨에 따라 상기 제3입력패턴에 부합되는 상기 원본이미지에 대한 제어동작을 수행하는 단계;를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of generating a three-dimensional image by processing an original image using a computer according to a signal input from an information input device. The information input device includes a three-dimensional structure and a touch sensor, a pressure sensor, and an inertial sensor provided on the structure. The method comprising the steps of: a) predefining the operation pattern of the user with respect to the information input device in terms of first to third input patterns, wherein the first and second input patterns are generated by the touch sensor and the pressure Wherein the first input pattern includes a signal from the inertial sensor, and the third input pattern includes a signal from the inertial sensor, wherein the third input pattern includes a signal from the inertial sensor Wherein the predetermined pattern is a pattern defined by a predetermined control command related to the control of the machining operation of the original image with respect to the signal to be processed. b) determining whether a signal input from the information input device corresponds to the first to third input patterns; And c) deforming the shape of the original image such that a specific portion of the original image formed in a predetermined three-dimensional shape as the first input pattern or the second input pattern is input is recessed or protruded to a certain degree, And performing a control operation on the original image corresponding to the third input pattern as the input pattern is input.

상기 제1입력패턴은, 상기 터치센서로부터의 신호에 대해 함몰지점으로 정의하고 상기 압력센서로부터의 신호에 대해 함몰정도로 정의한 패턴으로 구성될 수 있다.The first input pattern may be defined as a depression point with respect to a signal from the touch sensor and a pattern defined by a degree of depression with respect to a signal from the pressure sensor.

상기 제1입력패턴은, 상기 터치센서에 의해 감지된 터치영역 또는 복수의 지점에 의해 결정되는 영역에 대해 함몰영역으로 정의한 패턴으로 구성될 수 있다.The first input pattern may be a pattern defined as a depression region with respect to an area determined by a touch region or a plurality of points sensed by the touch sensor.

상기 제2입력패턴은, 상기 터치센서로부터의 신호에 대해 돌출지점으로 정의하고 상기 압력센서로부터의 신호에 대해 돌출정도로 정의한 패턴으로 구성될 수 있다.The second input pattern may be defined as a protruding point with respect to a signal from the touch sensor and a pattern defined as a protruding degree with respect to a signal from the pressure sensor.

상기 제2입력패턴은, 상기 터치센서에 의해 감지된 터치영역 또는 복수의 지점에 의해 결정되는 영역에 대해 돌출영역으로 정의한 패턴으로 구성될 수 있다.The second input pattern may be a pattern defined as a protruding region for a touch region sensed by the touch sensor or an area determined by a plurality of points.

상기 제2입력패턴은, 상기 터치센서에 의해 감지된 복수의 이격된 지점에서 특정 지점으로 수렴하는 드래그 신호에 대해 상기 특정 지점에서의 상기 돌출명령으로 정의한 패턴으로 구성될 수 있다.The second input pattern may be a pattern defined by the protrusion command at the specific point with respect to a drag signal converging to a specific point at a plurality of spaced points sensed by the touch sensor.

상기 제2입력패턴은, 상기 드래그 신호의 드래그 종료 지점에 의해 정의되는 영역에 대해 돌출영역으로 정의한 패턴으로 구성될 수 있다.The second input pattern may be a pattern defined as a protruding region with respect to an area defined by a drag end point of the drag signal.

상기 제2입력패턴은, 상기 드래그 신호의 드래그 길이에 대해 돌출정도로 정의한 패턴으로 구성될 수 있다.The second input pattern may have a pattern defined by a degree of protrusion with respect to a drag length of the drag signal.

상기 터치센서는 호버링센서를 포함하여 구성될 수 있으며, 이때 상기 제2입력패턴은 상기 호버링센서에 의해 감지된 호버링 신호에 대해 상기 돌출명령으로 정의한 패턴으로 구성될 수 있다.The touch sensor may include a hovering sensor, wherein the second input pattern may have a pattern defined by the protrusion command for a hovering signal sensed by the hovering sensor.

상기 제2입력패턴은, 상기 호버링 신호가 복수의 이격된 지점에서 특정 지점으로 수렴하는 드래그 신호인 경우 상기 특정 지점에서의 상기 돌출명령으로 정의한 패턴으로 구성될 수 있다.The second input pattern may be a pattern defined by the protruding command at the specific point when the hovering signal is a drag signal converging to a specific point at a plurality of spaced apart points.

상기 제2입력패턴은, 상기 드래그 신호의 드래그 종료 지점에 의해 정의되는 영역에 대해 돌출영역으로 정의한 패턴으로 구성될 수 있다.The second input pattern may be a pattern defined as a protruding region with respect to an area defined by a drag end point of the drag signal.

상기 제2입력패턴은, 상기 드래그 신호의 드래그 길이에 대해 돌출정도로 정의한 패턴으로 구성될 수 있다.The second input pattern may have a pattern defined by a degree of protrusion with respect to a drag length of the drag signal.

상기 제2입력패턴은 상기 호버링 신호가 상기 호버링센서의 표면으로부터 멀어지는 이격신호인 경우에 대해 상기 돌출명령으로 정의한 패턴으로 구성될 수 있다.The second input pattern may be configured in a pattern defined by the protuberance command for the case where the hovering signal is a separation signal away from the surface of the hovering sensor.

상기 제2입력패턴은, 상기 이격신호의 발생 전에 별도로 감지되거나 상기 이격신호의 출발점에 의해 감지된 호버링영역 또는 복수의 지점에 의해 결정되는 영역에 대해 돌출영역으로 정의한 패턴으로 구성될 수 있다.The second input pattern may be formed as a hovering region sensed before the generation of the separation signal or as a protrusion region defined by a plurality of points detected by the starting point of the separation signal.

상기 정보입력장치는 상기 구조물의 표면에서의 면 방향의 장력을 감지하는 장력센서를 더 포함할 수 있으며, 이때 상기 제2입력패턴은 상기 장력센서로부터의 신호에 대해 돌출명령으로 정의한 패턴으로 구성될 수 있다.The information input device may further include a tension sensor for detecting a tensile force in a plane direction on the surface of the structure, wherein the second input pattern is configured with a pattern defined as a protrusion command for a signal from the tension sensor .

상기 제2입력패턴은, 상기 터치센서에 의해 감지된 복수의 지점 또는 상기 장력센서에 의해 감지된 장력 방향의 수렴지점에 의해 결정되는 영역에 대해 돌출영역으로 정의한 패턴으로 구성될 수 있다.The second input pattern may be a pattern defined as a protruding region for a plurality of points sensed by the touch sensor or an area determined by a convergence point of the tension direction sensed by the tension sensor.

상기 제2입력패턴은, 상기 압력센서로부터의 신호에 대해 돌출정도로 정의한 패턴으로 구성될 수 있다.The second input pattern may be a pattern defined by a degree of protrusion with respect to a signal from the pressure sensor.

한편, 상기 제3입력패턴은, 상기 관성센서로부터의 신호에 대해 상기 원본이미지의 표시 화면상에서의 이동명령으로 정의한 패턴으로 구성될 수 있다.The third input pattern may be a pattern defined by a movement command on the display screen of the original image with respect to a signal from the inertial sensor.

상기 이동명령은 상기 원본이미지의 표시 화면상에서의 회전명령을 포함할 수 있다.The movement command may include a rotation command on the display screen of the original image.

상기 제3입력패턴은, 상기 관성센서로부터의 신호에 대해 상기 원본이미지의 표시 화면상에서의 크기변경명령으로 정의한 패턴으로 구성될 수 있다.The third input pattern may be a pattern defined as a magnitude change command on the display screen of the original image with respect to a signal from the inertial sensor.

상기 제3입력패턴은, 상기 관성센서로부터의 신호에 대해 상기 제1입력패턴과 상기 제2입력패턴 사이의 모드전환명령으로 정의한 패턴으로 구성될 수 있다.The third input pattern may be a pattern defined by a mode switching command between the first input pattern and the second input pattern with respect to a signal from the inertial sensor.

상기 a) 단계에서는 상기 제어명령을 정의하는 제4입력패턴이 추가로 마련되며, 상기 제4입력패턴은 상기 터치센서와 상기 압력센서 중 적어도 어느 하나로부터의 신호를 포함하는 신호의 조합에 의해 정의된다.Wherein a fourth input pattern for defining the control command is additionally provided in the step a) and the fourth input pattern is defined by a combination of signals including signals from at least one of the touch sensor and the pressure sensor do.

상기 제4입력패턴은, 상기 제1입력패턴과 상기 제2입력패턴간의 모드전환명령, 상기 원본이미지의 표시 화면상에서의 이동명령, 및 상기 원본이미지의 표시 화면상에서의 크기변경명령 중 어느 하나를 포함할 수 있다.Wherein the fourth input pattern is one of a mode switching command between the first input pattern and the second input pattern, a movement command on the display screen of the original image, and a size change command on the display screen of the original image .

상기 제4입력패턴은, 상기 터치센서로부터의 특정 지점에 대한 감지 신호 또는 소정 이상의 넓이에 대한 감지 신호, 또는 상기 압력센서로부터의 소정 이상의 압력에 대한 감지 신호에 대해 정의된다.The fourth input pattern is defined for a sensing signal for a specific point from the touch sensor or a sensing signal for a predetermined space or a sensing signal for a predetermined pressure or more from the pressure sensor.

본 발명의 3차원 이미지 생성 방법은, 상기 함몰명령과 상기 돌출명령에 따라 상기 원본이미지가 가공되는 위치 또는 영역에 대하여 별도의 보조입력장치로부터 입력받는 단계를 더 포함할 수 있다.The method of generating a three-dimensional image according to an exemplary embodiment of the present invention may further include receiving a position or an area of the original image from a separate auxiliary input device according to the depression command and the protrusion command.

본 발명에 따르면, 3차원 입체 이미지를 생성하는 작업을 하는 데에 있어서 원본이미지에 대한 부위별 함몰 작업과 돌출작업을 매우 손쉽게 할 수 있다. 또한, 작업자는 원본이미지의 각 부위별 함몰위치와 함몰 정도에 대해서도 직관적으로 손쉽게 설정할 수 있다. 또한 원본이미지 자체에 대한 회전이나 확대/축소, 또는 원본이미지에 대한 변형의 동작 모드에 대한 제어명령을 쉽게 입력할 수 있다.According to the present invention, it is possible to greatly facilitate depressing work and protruding work for a part of an original image in generating a three-dimensional image. In addition, the operator can intuitively and easily set the depression position and depression degree of each part of the original image. You can also easily enter control commands for the rotation mode, zoom mode, or deformation mode of the original image itself.

도 1 은 본 발명에 따른 정보입력장치가 화면에 표시된 원본이미지의 변형 가공에 사용되는 상태를 도시한 도면.
도 2 는 도 1 의 정보입력장치의 세부 구성을 도시한 블록도.
도 3 은 도 1 의 정보입력장치의 물리적 구성을 개략적으로 도시한 도면.
도 4 는 도 1 의 정보입력장치에 채용되어 있는 장력센서의 동작 원리를 설명하기 위한 도면.
도 5 는 도 1 의 구성에 의해 수행되는 본 발명에 따른 3차원 이미지 생성 방법을 도시한 순서도.
도 6 내지 도 22 는 도 1 의 정보입력장치를 통해 입력되는 다양한 명령 입력 방식을 예시한 도면.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a view showing a state in which an information input apparatus according to the present invention is used for transformation processing of an original image displayed on a screen; Fig.
2 is a block diagram showing the detailed configuration of the information input device of FIG.
3 is a view schematically showing a physical configuration of the information input device of FIG.
4 is a view for explaining the operation principle of a tension sensor employed in the information input apparatus of Fig.
5 is a flowchart showing a method of generating a three-dimensional image according to the present invention performed by the configuration of FIG.
6 to 22 are diagrams illustrating various command input methods input through the information input device of FIG. 1;

이하에서는 본 발명의 다양한 실시예에 대하여 도면을 참조하여 보다 구체적으로 설명한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the drawings.

도 1 은 본 발명에 따른 3D 형상 다지인을 위한 정보입력장치(100)가 화면에 표시된 원본이미지(210)의 변형 가공에 사용되는 상태를 도시한 도면이다.FIG. 1 is a diagram showing a state in which an information input apparatus 100 for a 3D shape recognizer according to the present invention is used for transformation processing of an original image 210 displayed on a screen.

본 발명에 따른 정보입력장치(100)는 컴퓨터와 유무선 방식으로 데이터 통신 가능하게 연결되어, 컴퓨터의 모니터(200) 화면상에 원본이미지(210)를 표시한 상태에서 원본이미지(210)를 변형 가공하는 데에 사용된다. 정보입력장치(100)를 사용자가 손으로 조작함으로써 변형을 가하면 정보입력장치(100) 가해진 변형에 대응되는 변형이 원본이미지(210)에 대해 가해지고, 이에 따라 원본이미지(210)를 사용자가 원하는 형태로 가공할 수 있다. 최초의 원본이미지(210)는 예컨대 구형 물체의 형상이거나 실린더형 물체의 형상일 수 있다.The information input apparatus 100 according to the present invention is connected to a computer so as to be capable of data communication in a wired or wireless manner and displays an original image 210 on a screen of a monitor 200 of a computer, . When the information input apparatus 100 is deformed by the user's manipulation by hand, a deformation corresponding to the deformation applied to the information input apparatus 100 is applied to the original image 210, . The original original image 210 may be, for example, a shape of a spherical object or a shape of a cylindrical object.

도 2 는 도 1 의 정보입력장치(100)의 세부 구성을 도시한 블록도이고, 도 3 은 도 1 의 정보입력장치의 물리적 구성을 개략적으로 도시한 도면이다.FIG. 2 is a block diagram showing the detailed configuration of the information input apparatus 100 of FIG. 1, and FIG. 3 is a diagram schematically showing the physical configuration of the information input apparatus of FIG.

본 발명에 따른 정보입력장치(100)는 구조물(160), 터치센서(110), 압력센서(120), 관성센서(130), 장력센서(140) 및 인터페이스(150)를 구비한다.The information input apparatus 100 according to the present invention includes a structure 160, a touch sensor 110, a pressure sensor 120, an inertial sensor 130, a tension sensor 140, and an interface 150.

구조물(160)은 사용자가 손으로 파지하기에 적당한 소정의 크기로 제작된된다. 구조물(160)의 형상은 어떠한 형상도 가능하나, 그 외표면이 균등한 형상을 갖도록 구형 또는 계란형 등으로 제작되는 것이 바람직하다. 구조물(160)은 예컨대 연성 재질인 실리콘이나 그 밖의 재질의 겔상 물질로 제조되어 사용자가 구조물(160)의 외면을 눌러 변형시킨 후 짧은 시간 내에 원형으로 복원되는 복원력을 갖는 것이 바람직하다.The structure 160 is made in a predetermined size suitable for grasping by a user. The shape of the structure 160 may be any shape, but it is preferable that the structure 160 is formed in a spherical shape or an egg shape so that the outer surface of the structure 160 has an even shape. The structure 160 may be made of, for example, a soft material such as silicon or another material, and may have a restoring force that is restored to a circular shape within a short period of time after the user presses the outer surface of the structure 160.

터치센서(110)는 구조물(160)의 외표면 설치되어 구조물(160)이 터치되는 지점인 터치위치를 감지한다. 터치센서(110)의 감지 대상은 사용자의 손이나 손가락의 터치 또는 스타일러스펜과 같은 보조도구의 접촉이다. 터치센서(110)는 호버링(hovering)센서를 포함하여 구성될 수 있다. 호버링센서는 센서 표면의 직접적인 접촉 외에도 센서 표면에 일정 거리 이내로 접근된 물체를 감지함으로써, 비접촉 상태에서의 외부 물체의 접근을 감지한다.The touch sensor 110 detects the touch position, which is the point where the structure 160 is touched by being installed on the outer surface of the structure 160. An object to be sensed by the touch sensor 110 is a touch of a user's hand or a finger, or an auxiliary tool such as a stylus pen. The touch sensor 110 may be configured to include a hovering sensor. In addition to the direct contact of the sensor surface, the hovering sensor senses the approach of an external object in a noncontact state by sensing an object approaching the sensor surface within a certain distance.

압력센서(120)는 구조물(160)의 외표면에 설치되어 구조물(160)에 가해지는 압력을 감지한다. 사용자가 구조물(160)의 어느 부위를 누르면 누르는 압력을 압력센서(120)가 감지하여 그에 대한 신호를 발생시킨다.The pressure sensor 120 is installed on the outer surface of the structure 160 to sense the pressure applied to the structure 160. The pressure sensor 120 senses the pressure that the user presses on any part of the structure 160 and generates a signal therefor.

관성센서(130)는 구조물(160) 내에 설치되어 구조물(160)의 공간상에서의 이동을 감지한다. 관성센서(150)는 예컨대 자이로스코프로 구성될 수 있다. 관성센서(130)는 구조물(160)이 상하좌우 방향의 이동은 물론이고 회전 방향의 이동도 감지할 수 있는 센서로 구성되는 것이 바람직하다.The inertial sensor 130 is installed in the structure 160 to sense the movement of the structure 160 in space. The inertial sensor 150 may comprise, for example, a gyroscope. The inertial sensor 130 preferably includes a sensor capable of detecting the movement of the structure 160 in the vertical and horizontal directions as well as the rotational direction.

장력센서(140)는 구조물(160)에 설치되어 구조물(160)의 외표면에 가해지는 면방향의 장력을 감지한다. 도 4 는 장력센서의 감지 대상을 설명하기 위한 도면으로서, 사용자가 예컨대 구조물(160)의 표면의 일 부위를 두 손가락으로 파지하여 잡아당기면 구조물(160)의 표면에는 잡아당긴 부위를 중심으로 면방향에서 당겨지는 힘이 가해진다. 장력센서(140)는 면방향에서 당겨지는 힘을 크기를 감지한다.The tensile force sensor 140 is installed on the structure 160 and senses the tension in the plane direction applied to the outer surface of the structure 160. 4 is a view for explaining an object to be sensed by the tension sensor. When a user grasps and pulls one part of the surface of the structure 160 with two fingers, Lt; / RTI > The tension sensor 140 senses the magnitude of the force pulled in the surface direction.

인터페이스(150)는 터치센서(110), 압력센서(120), 관성센서(130), 및 장력센서(140)에서 감지한 신호를 컴퓨터로 전송하기 위한 경로를 제공한다. 인터페이스(150)는 컴퓨터의 통신 인터페이스와 데이터통신 가능하게 연결되며, 유무선 방식의 연결 모두 가능하나 무선 방식의 연결이 더 바람직하다.The interface 150 provides a path for transmitting signals sensed by the touch sensor 110, the pressure sensor 120, the inertial sensor 130, and the tension sensor 140 to a computer. The interface 150 is connected to the communication interface of the computer so as to be capable of data communication, and both wired and wireless connections are possible, but a wireless connection is more preferable.

이하에서는 이와 같은 구성을 갖는 정보입력장치(100)를 이용하여 원본이미지(210)를 가공하여 3차원 이미지를 생성하는 방법을 기술한다. 도 5 는 도 1 의 구성에 의해 수행되는 본 발명에 따른 3차원 이미지 생성 방법을 도시한 순서도이다.Hereinafter, a method of generating a three-dimensional image by processing an original image 210 using the information input apparatus 100 having such a configuration will be described. FIG. 5 is a flowchart illustrating a method for generating a three-dimensional image according to the present invention performed by the configuration of FIG.

컴퓨터는 인터페이스(150)로부터 각종 센서(110, 120, 130, 140)의 신호를 입력받으며, 컴퓨터 내에는 사용자가 정보입력장치(100)를 조작함에 따라 감지되는 각종 센서(110, 120, 130, 140)의 신호에 대해 몇 가지 패턴(제1입력패턴 내지 제3입력패턴)이 사전에 정의되어 있다.(S310) 각 패턴은 각 센서(110, 120, 130, 140)들 중 어느 하나로부터의 신호 또는 둘 이상으로부터의 신호의 조합에 대해 소정의 명령을 대응시킴으로써 정의된다.The computer receives signals of the various sensors 110, 120, 130 and 140 from the interface 150 and various sensors 110, 120, 130, and 140 sensed by the user operating the information input apparatus 100, Several patterns (first to third input patterns) are predefined for the signals of the sensors 110, 120, 130, and 140 (S310). Signal or a combination of signals from two or more signals.

컴퓨터는 이와 같은 패턴이 정의되어 저장된 상태에서 정보입력장치(100)로부터의 신호를 수신한다.(S320) 컴퓨터는 수신된 신호를 분석하여 사전에 미리 정의되어 있는 패턴에 해당되는 신호인지 여부를 판단하며(S330), 사전에 정의된 패턴인 경우 동 패턴에 대해 정의되어 있는 명령에 따라 원본이미지(210)를 가공하거나 원본이미지(210)에 대한 직접적인 제어동작 또는 원본이미지(210)의 가공 작업에 부수적으로 요구되는 각종 제어동작을 수행한다.(S340)The computer receives a signal from the information input apparatus 100 in a state where such a pattern is defined and stored (S320). The computer analyzes the received signal to determine whether it is a signal corresponding to a predefined pattern (S330). If the pattern is a predefined pattern, the original image 210 is processed according to a command defined for the pattern, or a direct control operation on the original image 210 or a processing operation on the original image 210 And performs various control operations required additionally (S340)

이와 같은 과정이 사용자가 원하는 이미지가 완성될 때까지 반복함으로써 사용자는 원하는 형상의 3차원 이미지를 생성할 수 있다.By repeating this process until the desired image is completed, the user can generate a three-dimensional image of a desired shape.

본 발명에서는 정보입력장치(100)에 대한 사용자의 조작 패턴에 대하여 제1입력패턴 내지 제3입력패턴으로 정의한다.In the present invention, a user's operation pattern for the information input apparatus 100 is defined as a first input pattern to a third input pattern.

제1입력패턴은 터치센서(110)와 압력센서(120)로부터의 신호들 중 하나 또는 둘 이상의 조합을 포함하는 신호에 대하여 원본이미지(210)의 일 부위에 대한 함몰명령을 정의한 패턴이다. 제2입력패턴은 마찬가지로 터치센서(110)와 압력센서(120)로부터의 신호들 중 하나 또는 둘 이상의 조합을 포함하는 신호에 대하여 원본이미지(210)의 일 부위에 대한 돌출명령을 정의한 패턴이다. 제3입력패턴은 관성센서(130)로부터의 신호를 포함하는 신호에 대해서 원본이미지(210)의 가공 동작 제어와 관련한 소정의 제어명령으로 정의한 패턴이다. 여기에서 제어명령은 원본이미지(210)의 화면상에서의 이동이나 회전 또는 확대/축소 등과 같은 원본이미지(210) 자체에 대한 명령, 및 원본이미지(210)에 대한 명령 입력 시 동일한 종류의 입력일지라도 다르게 인식하도록 하는 동작모드에 대한 전환 명령 등을 포함한다. 전술한 도 5 의 S340 단계에서, 컴퓨터는 입력되는 패턴이 제1입력패턴 또는 제2입력패턴이 입력되는 경우에는 소정의 입체형상으로 형성되어 있는 원본이미지(210)의 특정 부위가 특정 정도로 함몰 또는 돌출되도록 원본이미지(210)의 형상을 변형시키고, 제3입력패턴이 입력되는 경우에는 제3입력패턴에 부합되는 제어동작을 수행한다.The first input pattern is a pattern defining a depression command for one part of the original image 210 with respect to a signal including one or two or more of the signals from the touch sensor 110 and the pressure sensor 120. The second input pattern is a pattern that defines a protrusion command for one part of the original image 210 with respect to a signal including one or two or more of signals from the touch sensor 110 and the pressure sensor 120. [ The third input pattern is a pattern defined by a predetermined control command related to the control of the machining operation of the original image 210 with respect to the signal including the signal from the inertia sensor 130. Here, the control command may be a command for the original image 210 itself, such as movement on the screen of the original image 210, rotation or enlargement / reduction, and the like, And a switching instruction for an operation mode for recognizing the operation mode. 5, when a first input pattern or a second input pattern is input, the computer determines whether a specific portion of the original image 210 formed in a predetermined three-dimensional shape is depressed The shape of the original image 210 is modified so as to protrude, and when the third input pattern is input, a control operation conforming to the third input pattern is performed.

이하에서는 도 6 내지 도 22 를 참조하여 도 1 의 정보입력장치(100)를 통해 입력되는 다양한 명령 입력 방식을 설명한다.Hereinafter, various command input methods input through the information input apparatus 100 of FIG. 1 will be described with reference to FIGS.

도 6 은 함몰명령을 입력하기 위한 제1입력패턴의 입력방법을 예시하는 도면이다. 사용자가 손가락을 이용하여 정보입력장치(100)의 특정 부위를 누르면, 정보입력장치(100)의 구조물(160)이 함몰 변형되면서 터치센서(110)와 압력센서(120)가 감지 신호를 발생시킨다. 이에 따라 터치센서(110)에 의해 터치된 위치 및 압력센서에 의해 누름 압력이 감지되어 두 센서(110, 120)가 신호를 발생시킨다. 즉, 터치센서(110)는 함몰지점을 정의하고 압력센서(120)는 함몰정도를 정의한다. 두 센서(110, 120)가 발생시킨 신호는 인터페이스(150)를 통해 컴퓨터에 전달되고, 이에 따라 원본이미지(210)에는 대응되는 위치에서 대응되는 크기의 함몰 변형이 가해진다.6 is a diagram illustrating a method of inputting a first input pattern for inputting a depression command. When the user presses a specific part of the information input device 100 using the finger, the touch sensor 110 and the pressure sensor 120 generate a sensing signal as the structure 160 of the information input device 100 is depressed and deformed . Accordingly, the pushing pressure is sensed by the position touched by the touch sensor 110 and the pressure sensor, and the two sensors 110 and 120 generate a signal. That is, the touch sensor 110 defines a depression point and the pressure sensor 120 defines a depression degree. The signals generated by the two sensors 110 and 120 are transmitted to the computer via the interface 150 so that a corresponding depression of the original image 210 is applied at a corresponding position.

도 7 은 두 개의 지점이 동시에 함몰되도록 정보입력장치(100)가 조작된 상태를 도시하는 도면이다. 두 개의 지점이 동시에 함몰되도록 정보입력장치(100)가 조작되면, 이에 대해서는 두 지점을 연결하는 선이 함몰되도록 정의된다. 따라서, 사용자는 두 지점의 연결선분에 의해 결정되는 영역에 대해 함몰영역으로 지정하여 한 번의 조작으로 선상의 함몰 형태를 가공할 수 있다.7 is a view showing a state in which the information input apparatus 100 is operated so that two points are concurrently depressed. When the information input apparatus 100 is operated so that two points are concurrently depressed, a line connecting two points is defined to be recessed. Therefore, the user can designate the depression area with respect to the area determined by the connecting line segments of the two points and process the depression shape on the line by one operation.

도 8 은 세 개의 지점이 동시에 함몰되도록 정보입력장치(100)가 조작된 상태를 도시하고 있다. 세 개 이상의 지점이 동시에 함몰되면 함몰된 지점들을 연결하는 선들에 의해 정보입력장치(100)의 외표면에 넓이를 갖는 면이 정의된다. 도 8 과 같이 세 개의 지점을 함몰시키는 경우, 도 9 와 같은 삼각형 형상의 영역이 정의된다. 이에 따라 원본이미지(210)에는 삼각형으로 정의된 영역에 대한 함몰 변형이 가해진다. 이때, 도 8 및 9 와 같은 원하는 영역을 정의하는 데에 있어서는, 정보입력장치(100)의 외표면을 원하는 도형의 형태로 연속적으로 드래그함으로써 정의할 수도 있다. 즉, 사용자는 하나의 손가락을 이용하여 도 9 와 같은 삼각형의 형상을 정보입력장치(100)의 외표면에서 손가락을 떼지 않은 상태로 연속적으로 그림으로써 함몰영역을 정의할 수 있다. 이러한 방식에 의하면 함몰영역을 원하는 크기와 모양으로 자유롭게 정의할 수 있다.8 shows a state in which the information input apparatus 100 is operated so that three points are concurrently depressed. When three or more points are concurrently recessed, a surface having a width on the outer surface of the information input apparatus 100 is defined by lines connecting depressed points. When three points are depressed as shown in FIG. 8, a triangular region as shown in FIG. 9 is defined. Accordingly, the original image 210 is subjected to the depression transformation for the region defined by the triangle. 8 and 9, it is also possible to define the desired area by continuously dragging the outer surface of the information input apparatus 100 in the form of a desired graphic. That is, the user can define the depression area by continuously drawing the shape of the triangle as shown in FIG. 9 using the single finger, without removing the finger from the outer surface of the information input apparatus 100. According to this method, the depression region can be freely defined in a desired size and shape.

한편, 터치센서(110)에 의해 감지된 터치 지점은 이론적으로는 하나의 지점으로 산출 가능하나 실제로는 터치된 지점을 포함하는 일정 크기의 영역이 터치된다. 이러한 터치영역 자체를 함몰되는 영역으로 정의할 수도 있다. 예컨대 사용자가 끝이 뾰족한 스타일러스펜으로 정보입력장치(100)를 터치하는 경우에는 매우 작은 영역이, 손가락을 이용하여 정보입력장치(100)를 터치하는 경우에는 비교적 큰 영역이 터치영역으로서 감지된다. 따라서 실제 터치된 터치영역 자체를 함몰영역으로 정의할 경우, 사용자는 정보입력장치(100)를 터치하는 때의 터치 도구 또는 터치 방식을 변경함으로써 터치영역을 가변시킬 수 있고, 이에 따라 한 번의 조작으로 원하는 정도의 넓이를 갖는 영역에 대해 함몰명령을 입력할 수 있다.On the other hand, the touch point sensed by the touch sensor 110 can be computed as one point in theory, but in reality, a region having a predetermined size including the touched point is touched. The touch region itself may be defined as a recessed region. For example, when the user touches the information input device 100 with a sharp stylus pen, a very small area is detected as a touch area when the information input device 100 is touched with a finger. Therefore, when the actual touched area is defined as a depression area, the user can vary the touch area by changing the touching tool or the touching method at the time of touching the information input apparatus 100, It is possible to input a depression command for an area having a desired extent.

전술한 바와 같이, 제2입력패턴은 돌출명령을 입력하기 위한 패턴으로 정의되어 있다. 이때, 돌출명령은 전술한 제1입력패턴에서와 동일한 방식으로 정의될 수 있다. 즉, 도 6 내지 도 9 를 참조하여 설명한 예 및 이들의 변형예는 함몰명령에 대한 것이지만, 터치센서(110)로부터의 신호에 대해 돌출지점으로 정의하고 압력센서(120)로부터의 신호에 대해 돌출정도로 정의함으로써 동일한 방식의 조작에 대해 돌출명령으로 인식하도록 정의할 수 있다. 마찬가지로, 터치센서(110)에 의해 감지된 터치영역 또는 복수의 지점에 의해 결정되는 영역에 대해 돌출영역으로 정의할 수 있다.As described above, the second input pattern is defined as a pattern for inputting the protrusion command. At this time, the protrusion command can be defined in the same manner as in the above-described first input pattern. 6 to 9 and the modified examples thereof are for the depression command, but the depression point is defined as the protrusion point with respect to the signal from the touch sensor 110 and the protrusion point is protruded from the signal from the pressure sensor 120 , It is possible to define that the manipulation of the same type is recognized as a protrusion command. Similarly, a protruding region can be defined for a touch region sensed by the touch sensor 110 or an area determined by a plurality of points.

그런데, 이와 같은 경우에는 변형이 가해질 지점 또는 영역과 변형의 정도에 대해서는 동일한 방식이 적용되므로, 함몰명령인지 돌출명령인지 여부에 대한 별도의 동작모드 전환을 위한 명령이 필요하다. 동작모드의 전환은 별도의 추가 입력장치(예컨대 키보드나 마우스)를 이용하여 입력할 수도 있고, 정보입력장치(100) 자체에 대해 별도의 구별되는 조작 방식에 대해 모드전환 명령으로 정의함으로써 정보입력장치(100)만을 이용하여 입력할 수도 있다. 이와 같은 동작모드의 전환을 위한 정보입력장치(100) 조작의 다양한 예에 대해서는 후술된다.In this case, since the same method is applied to the point or area to be deformed and the extent of deformation, a separate command for switching the operation mode is required for whether it is a depression command or a protrusion command. The operation mode can be switched by using a separate additional input device (for example, a keyboard or a mouse), or by defining a different mode of operation for the information input device 100 itself as a mode switching command, (100). Various examples of the operation of the information input apparatus 100 for switching the operation mode will be described later.

도 10 은 돌출명령을 함몰명령과 구분되는 방식으로 입력하기 위하여 정의되는 제2입력패턴의 일 예를 도시하고 있다. 도 10 에서는, 제2입력패턴은 터치센서(110)에 의해 감지된 복수의 이격된 지점에서 특정 지점으로 수렴하는 드래그 신호에 대해 이 특정 지점에서의 돌출명령으로 정의한다. 즉, 사용자는 두 손가락을 정보입력장치(100)의 표면에 접촉시킨 후 최초 접촉 지점으로부터 서로 가까워지는 방향으로 두 손가락을 동시에 드래그시킨다. 도 10 을 참조하면, 검지손가락과 엄지손가락이 동시에 정보입력장치(100)에 접촉된 상태에서 검지손가락은 S1 길이만큼 드래그되고 엄지손가락은 S2 길이만큼 드래그되며, 그 후 손가락을 뗀 지점들은 d1 길이만큼 이격되어 있다. 이러한 조작에 대해서, d1 에 의해 정의된 길이만큼의 구간이 외측으로 돌출되도록 하는 돌출명령으로 정의된다. 이때, S1 의 길이와 S2 의 길이를 각각 감지하여 이를 돌출정도에 대한 입력으로 정의할 수 있다. 예컨대 S2 의 길이가 S1 의 길이보다 긴 경우 d1 구간 중 검지손가락에 가까운 구간보다 엄지손가락에 가까운 구간에서의 돌출 정도가 더 크도록 원본이미지(210)를 변형시킨다.FIG. 10 shows an example of a second input pattern defined for inputting a protrusion command in a manner different from a depression command. In Fig. 10, the second input pattern is defined as a protrusion command at this specific point for a drag signal converging to a specific point at a plurality of spaced points sensed by the touch sensor 110. [ That is, the user touches the two fingers on the surface of the information input device 100 and then simultaneously drags the two fingers in a direction approaching each other from the initial touch point. 10, the index finger is dragged by S1 length and the thumb is dragged by S2 length in a state where the index finger and the thumb are in contact with the information input device 100 at the same time, . For such an operation, it is defined as a protrusion command which causes the section of the length defined by d1 to protrude outward. At this time, the length of S1 and the length of S2 may be respectively detected and defined as an input to the degree of protrusion. For example, when the length of S2 is longer than the length of S1, the original image 210 is deformed so that the degree of protrusion in a section closer to the thumb is larger than a section near the index finger in the section d1.

도 11 은 도 10 과 유사한 방식이 세 개의 지점에 의해 결정되는 삼각형 영역에 대해 적용된 예를 도시하고 있다. 세 개의 지점이 세 개의 손가락에 의해 접촉된 상태에서 내측으로 수렴되도록 드래그되면, 드래그 신호의 드래그 종료 지점에 의해 정의되는 삼각형 영역에 대해 돌출영역으로 정의된다. 이때에도 드래그 신호의 드래그 길이에 대해 돌출정도를 정의할 수 있으며, 각 드래그 길이의 다과에 대해 돌출 정도의 다과가 달라지도록 정의될 수 있다.Fig. 11 shows an example in which a scheme similar to Fig. 10 is applied to a triangular area determined by three points. When three points are dragged to converge inward with three fingers in contact, they are defined as protruding regions for the triangular region defined by the drag end point of the drag signal. At this time, the degree of protrusion can be defined with respect to the drag length of the drag signal, and the magnitude of the extrusion degree can be defined to be different with respect to the refresh of each drag length.

도 12 는 터치센서(110)로서 호버링(hovering)센서가 채용된 예를 도시하고 있다. 호버링센서는 터치센서(110)가 그 기능의 일부로서 구비하도록 일체형으로 제작될 수도 있고 터치센서(110) 외에 별도의 센서로서 추가로 구비될 수도 있다. 호버링센서가 구비되는 경우에는 돌출명령을 정의하는 제2입력패턴에 대해 함몰명령과는 다른 더욱 다양한 방식의 조작을 대응시킬 수 있다.Fig. 12 shows an example in which a hovering sensor is employed as the touch sensor 110. Fig. The hovering sensor may be integrally formed so that the touch sensor 110 is included as a part of the function, or may be additionally provided as a separate sensor in addition to the touch sensor 110. In the case where the hovering sensor is provided, it is possible to correspond to a second input pattern defining the protrusion command in a more various manner of operation than the protrusion command.

도 12 와 같이, 정보입력장치(100)의 표면으로부터 일정 거리 이격된 위치에서 사용자가 도 10 에 도시한 바와 유사한 동작을 수행한다. 이러한 움직임은 호버링센서에 의해 감지되며, 호버링센서에 의해 발생되는 호버링신호는 돌출명령으로 정의된다. 도 12 이 동작에 대해 돌출영역의 정의, 돌출정도의 정의 등의 적용은 도 10 및 도 11 을 참조하여 기술한 변형예들이 모두 유사하게 적용될 수 있다. 즉, 호버링 신호가 복수의 이격된 지점에서 특정 지점으로 수렴하는 드래그 신호인 경우 특정 지점에서의 돌출명령으로 정의할 수 있다. 또한 도 12 에 도시된 동작의 결과 최종적으로 드래그가 종료된 두 지점 사이의 구간이 돌출영역으로 정의된다. 이때에도 전술한 예와 마찬가지로 드래그 신호의 드래그 길이는 돌출정도를 정의할 수 있으며, 각 드래그 선의 드래그 길이가 다른 경우 돌출정도가 돌출영역 내의 각 부분별로 상이한 것으로 정의할 수 있다.As shown in FIG. 12, the user performs an operation similar to that shown in FIG. 10 at a position spaced from the surface of the information input apparatus 100 by a predetermined distance. This movement is sensed by the hovering sensor, and the hovering signal generated by the hovering sensor is defined as an overhang command. 12, the application of the definition of the protruding area, the definition of the degree of protrusion, and the like to this operation can be similarly applied to all of the modifications described with reference to Figs. 10 and 11. Fig. In other words, if the hovering signal is a drag signal that converges to a specific point at a plurality of spaced points, it can be defined as a protrusion command at a specific point. Also, as a result of the operation shown in FIG. 12, a section between the two points at which the final drag ends is defined as a protruding area. At this time, the drag length of the drag signal can define the degree of protrusion, and when the drag length of each drag line is different, the degree of protrusion can be defined to be different for each part in the protrusion area.

도 13 은 호버링 센서를 채용한 경우 제2입력패턴을 다른 방식으로 정의할 수 있는 예를 도시한 도면이다. 즉, 제2입력패턴은 호버링 신호가 상기 호버링센서의 표면으로부터 멀어지는 이격신호인 경우에 대해 돌출명령으로 정의한 패턴이다. 사용자는 두 손가락을 정보입력장치(100)의 표면에 매우 접근된 위치에 놓은 후 정보입력장치(100)의 표면으로부터 두 손가락을 이격시킨다. 이러한 이격동작에 의해 호버링 센서는 이격신호를 발생시키며, 이때 최초에 두 손가락의 위치 사이의 간격(d2)는 돌출영역을 정의한다. 이 경우에도 마찬가지로 세 개 이상의 손가락을 이용해서 돌출영역은 소정의 모양을 갖는 평면의 영역으로 정의될 수 있다. 또한, 사용자는 최초에 둘 이상의 손가락을 정보입력장치(100)의 표면에 접촉시킨 후 이격동작을 할 수도 있으며, 이 경우에는 둘 이상의 손가락이 최초에 접촉된 지점들에 의해 돌출영역으로 정의될 수 있다. 이와 같이, 본 실시예에서는 이격신호의 발생 전에 별도로 감지되거나 이격신호의 출발점에 의해 감지된 호버링영역 또는 복수의 지점에 의해 결정되는 영역이 돌출영역으로 정의된다.13 is a diagram showing an example in which a second input pattern can be defined in a different manner when a hovering sensor is employed. That is, the second input pattern is a pattern defined as a protrusion command for the case where the hovering signal is a separation signal away from the surface of the hovering sensor. The user places the two fingers in a position very close to the surface of the information input apparatus 100 and then separates the two fingers from the surface of the information input apparatus 100. [ The hovering sensor generates a separation signal by this separation operation, wherein the interval (d2) between the positions of two fingers at first defines a protrusion area. Also in this case, similarly, the protruding area using three or more fingers can be defined as a plane area having a predetermined shape. In addition, the user may initially make two or more fingers touch the surface of the information input device 100 and then perform the spacing operation. In this case, two or more fingers may be defined as protruding areas have. As described above, in this embodiment, a hovering region sensed before the generation of the separation signal or sensed by the starting point of the separation signal or an area determined by a plurality of points is defined as the projection region.

도 14 와 도 15 는 사용자가 먼저 돌출영역을 정의한 후에 돌출명령을 호버링 센서를 이용하여 입력하는 방안을 예시하고 있다.FIGS. 14 and 15 illustrate how the user first inputs the protrusion command using the hovering sensor after defining the protrusion area.

도 14 와 같이, 사용자는 하나의 손가락을 이용하여 정보입력장치(100)의 표면에 원하는 도형(도 14 에서는 삼각형)을 그린다. 이에 따라 터치센서(110)에 의하여 감지된 신호에 따라 돌출영역이 먼저 정의된다. 그리고 나서, 사용자는 도 15 에 도시된 바와 같이 손바닥 전체를 정보입력장치(100)의 표면에 근접시킨 후에 이격시키는 이격동작을 수행한다. 이 이격동작은 호버링 센서에 의해 감지되며, 도 14 와 같이 사전에 선택되어 있던 돌출영역에 대한 돌출명령으로 인식된다.As shown in FIG. 14, the user draws a desired figure (triangle in FIG. 14) on the surface of the information input apparatus 100 using one finger. Accordingly, the protruding area is first defined according to the signal sensed by the touch sensor 110. [ Then, the user performs a separation operation to move the entire palm to the surface of the information input apparatus 100, as shown in Fig. This separation operation is detected by the hovering sensor, and is recognized as a protrusion command for the previously selected protrusion area as shown in Fig.

한편, 전술한 바와 같이, 본 발명에 따른 정보입력장치는 장력센서(140)를 추가로 구비할 수 있다. 도 16 에 도시된 바와 같이, 사용자가 정보입력장치(100)의 구조물(160)의 표면을 둘 이상의 손가락을 이용하여 파지한 상태에서 서로 접근되는 안쪽 방향으로 당길 때 구조물(160)의 표면에는 당겨진 방향으로 면 방향에서의 장력이 가해지며, 장력센서(140)는 이러한 장력을 감지한다. 이때, 터치센서(110)에 의해 감지된 복수의 지점 또는 장력센서(140)에 의해 감지된 장력 방향의 수렴 지점에 의하여 돌출영역이 정의될 수 있다. 도 16 에서 A3 는 터치센서(110)에 의해 감지된 두 손가락 사이의 영역으로 정의된 돌출영역이다. 이 경우에도 전술한 실시예들과 유사한 방식으로, 도 16 에 도시된 장력의 크기 d3 는 돌출정도를 정의할 수 있다. 나아가, 본 실시예에서는, 압력센서(120)로부터의 신호에 대해 돌출정도로 정의할 수 있으며, 이 경우에는 장력센서(140)가 장력이 가해지는 것을 감지하는 것은 돌출명령이 입력된 것으로만 취급되며 장력의 크기 자체는 돌출정도와 무관한 것으로 취급된다.Meanwhile, as described above, the information input apparatus according to the present invention may further include a tension sensor 140. As shown in FIG. 16, when the user grasps the surface of the structure 160 of the information input apparatus 100 using two or more fingers and pulls inward to approach each other, the surface of the structure 160 is pulled And the tension sensor 140 senses such a tension. At this time, the protruding region can be defined by a plurality of points sensed by the touch sensor 110 or a convergence point of the tension direction sensed by the tension sensor 140. In Fig. 16, A3 is a protruding region defined by an area between two fingers sensed by the touch sensor 110. [ In this case also, in a manner similar to the above-described embodiments, the magnitude d3 of the tension shown in Fig. 16 can define the degree of protrusion. Further, in this embodiment, the signal from the pressure sensor 120 can be defined as the degree of protrusion. In this case, the tension sensor 140 detects that the tension is applied only to the input of the protrusion command The magnitude of the tension itself is treated as irrelevant to the degree of extrusion.

전술한 바와 같이 제3입력패턴은 각종 제어명령에 대하여 정의하며, 본 발명에서 제어명령은 관성센서(130)로부터의 신호를 포함하는 신호에 관하여 정의된다. 관성센서(130)는 정보입력장치(100)의 공간상에서의 이동 자체를 감지할 수 있으므로, 정보입력장치(100)에 대한 회전 또는 수평/수직 방향의 이동 자체를 원본이미지(210)에 대한 표시 화면상에서의 동일한 방식의 이동명령으로 정의할 수 있다.As described above, the third input pattern defines various control commands, and in the present invention, the control command is defined with respect to the signal including the signal from the inertial sensor 130. [ The inertial sensor 130 can detect the movement itself in the space of the information input apparatus 100 so that the rotation of the information input apparatus 100 or the movement in the horizontal / It can be defined as a movement command in the same way on the screen.

도 17 에 도시된 바와 같이 정보입력장치(100) 자체를 좌측으로 이동시키면 원본이미지(210)는 모니터(200)의 표시화면 상에서 좌측으로 이동한다.When the information input apparatus 100 itself is moved to the left as shown in FIG. 17, the original image 210 moves to the left on the display screen of the monitor 200.

이동명령의 한 예로서 회전명령을 포함할 수 있다. 도 18 에 도시된 바와 같이 정보입력장치(100) 자체를 회전시키면, 회전은 관성센서(130)에 의해 감지되어 원본이미지(210)는 표시 화면상에서 대응되는 각도로 회전한다. 따라서 사용자는 원하는 방향으로 원본이미지(210)를 회전시킨 후 다시 원본이미지(210)에 대해 원하는 변형 가공 작업을 할 수 있다.As an example of the movement command, the rotation command may be included. As shown in FIG. 18, when the information input apparatus 100 itself is rotated, the rotation is detected by the inertial sensor 130, and the original image 210 is rotated at a corresponding angle on the display screen. Accordingly, the user can rotate the original image 210 in a desired direction, and then perform a desired deformation processing operation on the original image 210 again.

한편, 관성센서(130)를 이용하여 정의되는 제3입력패턴은 원본이미지(210)의 표시 화면상에서의 크기변경명령을 포함할 수 있다. 예컨대, 도 19 와 같이 정보입력장치(100)를 우측으로 조금 이동시킨 후 곧바로 좌측으로 이동시키는 동작에 대해 원본이미지(210)의 크기 확대 명령으로 정의하고, 도 20 과 같이 반대로 정보입력장치를 좌측으로 조금 이동시킨 후 곧바로 우측으로 이동시키는 동작에 대해 원본이미지(210)의 크기 축소 명령으로 정의할 수 있다. 이에 따라 원본이미지(210)는 표시 상태가 확대 또는 축소되고, 사용자는 이를 통해 국소 부위를 확대하여 정밀한 가공을 하거나 다시 축소하여 전체를 조망하면서 가공을 할 수 있다.Meanwhile, the third input pattern defined using the inertial sensor 130 may include a magnitude change command on the display screen of the original image 210. For example, as shown in FIG. 19, an operation of moving the information input apparatus 100 to the right and then moving it to the left is defined as a command to increase the size of the original image 210, The size of the original image 210 may be defined as a size reduction command. As a result, the display state of the original image 210 is enlarged or reduced, and the user can enlarge the local region to perform precise processing or reduce the size again so as to view the entire image.

한편, 제3입력패턴은 관성센서(130)로부터의 신호에 대해 제1입력패턴과 제2입력패턴 사이의 모드전환명령으로 정의한 패턴을 포함할 수 있다. 일 예로서, 전술한 도 19 및 도 20 에 도시된 바와 같은 동작에 대해 확대/축소 명령으로 정의하지 않고 함몰명령 입력모드와 돌출명령 입력모드로 각각 정의할 수 있다. 이러한 방식에 의하면, 예컨대 함몰명령에 대한 제1입력패턴과 돌출명령에 대한 제2입력패턴을 동일한 패턴으로 정의하되 함몰인지 돌출인지 여부에 대해서만 모드 전환을 통해 결정하도록 할 수 있다. 이 경우, 함몰/돌출 영역과 함몰/돌출 정도에 대해서는 동일한 방식으로 정의되며, 해당 영역에 대한 해당 정도의 가공 명령이 함몰명령인지 돌출명령인지 여부는 정보입력장치(100)의 관성센서(130)의 신호에 의존하여 정의된다. 따라서 사용자는 단순화된 조작방식으로 함몰 또는 돌출 변형 가공을 할 수 있게 된다.Meanwhile, the third input pattern may include a pattern defined by a mode switching command between the first input pattern and the second input pattern with respect to the signal from the inertial sensor 130. As an example, the operation as shown in FIGS. 19 and 20 can be defined as a depression command input mode and a protrusion command input mode, respectively, without defining them as an enlargement / reduction command. According to this method, for example, the first input pattern for the depression command and the second input pattern for the protrusion command are defined in the same pattern, and only the depression or protrusion can be determined through mode switching. In this case, it is defined in the same manner as the depression / protrusion area and the depression / protrusion degree, and whether or not the machining order corresponding to the corresponding area is the depression command or the protrusion command is determined by the inertia sensor 130 of the information input apparatus 100, Lt; / RTI > signal. Therefore, the user can perform depression or protrusion deformation processing in a simplified operation mode.

한편, 사용자가 정보입력장치(100)를 사용하는 동안에는 정보입력장치(100)는 그 공간상의 위치 자체가 조금씩 움직일 수밖에 없다. 따라서, 이러한 점을 고려하여, 관성센서(130)가 이동명령, 크기변경명령, 모드전환명령 등으로 인식하는 것은 관성센서(130)가 단순히 정보입력장치(100)의 움직임을 감지하는 것에 대해서만 정의하지 않고 관성센서(130)가 감지한 크기가 소정 이상이 되는 것을 추가적인 조건으로하여 정의하는 것이 바람직하다.On the other hand, while the user is using the information input apparatus 100, the information input apparatus 100 has to move its position in the space itself little by little. In consideration of this point, the inertial sensor 130 recognizes the motion command, the magnitude change command, the mode change command, or the like because the inertial sensor 130 simply defines the motion detection of the information input apparatus 100 It is preferable to define the condition that the size sensed by the inertial sensor 130 becomes a predetermined value or more as an additional condition.

본 발명이 바람직한 실시예에 의하면, 상기한 바와 같은 제1 내지 제3입력패턴 외에도 제4입력패턴이 추가로 마련될 수 있다. 이때 제4입력패턴은 터치센서(110)와 압력센서(120) 중 적어도 어느 하나로부터의 신호를 포함하는 신호의 조합에 의해 정의되는 것이 바람직하다.According to a preferred embodiment of the present invention, in addition to the first to third input patterns, a fourth input pattern may be additionally provided. Here, the fourth input pattern is preferably defined by a combination of signals including signals from at least one of the touch sensor 110 and the pressure sensor 120.

제4입력패턴은 제1입력패턴과 제2입력패턴간의 모드전환명령일 수 있다. 이때의 모드전환명령은 전술한 바와 같은 돌출명령 입력모드인지 함몰명령 입력모드인지를 결정하는 명령과 동일한 의미이며, 전술한 경우와의 차이점은 모드전환명령이 관성센서(130)로부터의 신호에 대해서만 정의하는지 아니면 관성센서(130)로부터의 신호와 함께 터치센서(110) 또는 압력센서(120)로부터의 신호 또는 이들의 조합 신호가 입력되는 경우에 대해서 정의하는지의 차이이다.The fourth input pattern may be a mode switching command between the first input pattern and the second input pattern. The mode change command is the same as the command for determining whether the mode is the protrusion command input mode or the depression command input mode as described above. The difference from the above case is that the mode change command is only for the signal from the inertial sensor 130 Or a signal from the touch sensor 110 or the pressure sensor 120 together with a signal from the inertial sensor 130 or a combination signal thereof is defined.

또한, 제4입력패턴은 전술한 바와 같은 원본이미지(210)에 대한 이동명령, 또는 크기변경명령일 수도 있으며, 이 경우도 차이는 터치센서(110) 및/또는 압력센서(120)를 추가적으로 이용하는지의 여부이다.In addition, the fourth input pattern may be a movement command or a magnitude change command for the original image 210 as described above. In this case, the difference may be determined by additionally using the touch sensor 110 and / or the pressure sensor 120 .

이때, 제4입력패턴을 정의하기 위한 추가 신호는, 터치센서(110)로부터의 특정 지점에 대한 감지 신호 또는 소정 이상의 넓이에 대한 감지 신호일 수 있고, 또는 압력센서(120)로부터의 소정 이상의 압력에 대한 감지 신호일 수 있다.At this time, the additional signal for defining the fourth input pattern may be a sensing signal for a specific point from the touch sensor 110 or a sensing signal for a predetermined width or more, or may be a predetermined signal from the pressure sensor 120 May be a detection signal for

도 21 은 이러한 경우에 대한 예시를 보여준다. 사용자가 두 손의 손바닥 전체를 이용하여 정보입력장치(100) 전체를 감싸쥐는 경우, 터치센서(110)는 매우 넓은 영역에 대한 터치를 감지하게 된다. 이러한 상태 자체에 대해서 제4입력패턴으로 정의할 수도 있고, 이러한 상태에서 도 19 에 도시된 바와 같이 정보입력장치(100)를 좌우로 빠르게 흔드는 동작에 대해 제4입력패턴으로 정의할 수도 있다. 마찬가지 방식으로, 도시되지는 않았으나 사전에 정의된 특정의 한 지점을 사전에 정의된 특정의 세기 이상으로 누르는 동작에 대해, 또는 이러한 동작과 함께 도 19 에 도시된 바와 같이 정보입력장치(100)를 빠르게 흔드는 동작에 대해, 제4입력패턴으로 정의할 수도 있다.Fig. 21 shows an example of this case. When the user holds the whole of the information input apparatus 100 using the entire palm of both hands, the touch sensor 110 senses a touch on a very wide area. This state may be defined as a fourth input pattern. In this state, as shown in FIG. 19, a fourth input pattern may be defined for an operation of swinging the information input apparatus 100 to the left and right as shown in FIG. In a similar manner, for the operation of pressing a not-shown but predetermined one specific point over a predefined specific intensity, or in conjunction with such operation, the information input device 100 For a fast rocking motion, it may be defined as a fourth input pattern.

한편, 이상의 실시예에서는 함몰명령과 돌출명령에 따라 원본이미지(210)가 가공되는 함몰/돌출 위치 또는 영역에 대하여 주로 터치센서(110)로부터의 신호의 의존하여 정의하였으나, 이와는 달리 또는 이와 병행하여 별도의 보조입력장치로부터 함몰/돌출 위치 또는 영역을 입력받도록 구성할 수도 있다.In the above embodiment, the depression / protrusion position or the area where the original image 210 is processed depends mainly on the signal from the touch sensor 110 in accordance with the depression command and the protrusion command. Alternatively, or in parallel thereto It may be configured to receive the depression / protrusion position or area from a separate auxiliary input device.

이는 예컨대 마우스를 이용하여 화면상의 커서를 움직여 특정 지점을 지정하거나 특정 영역을 설정하는 방식으로 위치 또는 영역을 지정하도록 하고, 이와 같이 마우스에 의해 위치/영역이 지정되는 경우에는 동 위치/지점에 대해서는 별도로 함몰/돌출 위치를 결정하지 않고 함몰/돌출의 정도만을 결정하도록 하는 방식이다. 이와 같은 방식에 의하면, 예컨대 사용자가 화면을 보면서 세밀한 부위를 정교하게 지정할 수 있으므로, 개략적으로 완성된 이미지에 대해 정밀한 마무리 작업을 하는 것이 용이하게 된다.For example, when a cursor or a cursor on the screen is moved using a mouse to designate a specific point or a specific area is set, a position or an area is designated. In this way, when a position / area is designated by a mouse, And only the degree of depression / protrusion is determined without separately determining the depression / protrusion position. According to this method, for example, since a user can precisely designate a detailed area while viewing the screen, it is easy to finely finish the roughly finished image.

이상 설명한 바와 같이, 본 발명에 따르면 사용자는 3차원 입체 이미지를 제작하는 작업을 하는 데에 있어서 원본이미지에 대한 부위별 함몰 작업과 돌출작업을 다양한 조작 방식에 의하여 용이하게 수행할 수 있다. 또한, 3차원 입체 이미지 생성 작업에 있어서 다양한 센서를 이용하여 다양한 변형 조작에 대한 감지가 가능하게 되고, 또한 원본이미지 자체에 대한 각종 제어명령의 입력이 쉽게 이루어질 수 있게 된다.As described above, according to the present invention, the user can easily perform the depression work and the protrusion work for the original image by various manipulation methods in the work of producing the three-dimensional stereoscopic image. Further, in the three-dimensional image generation operation, it is possible to detect various deformation operations using various sensors, and various control commands to the original image itself can be easily input.

100 : 정보입력장치 110 : 터치센서
120 : 압력센서 130 : 관성센서
140 : 장력센서 150 : 인터페이스
100: information input device 110: touch sensor
120: pressure sensor 130: inertia sensor
140: tension sensor 150: interface

Claims (29)

3차원 형상 디자인을 위한 정보입력장치로서,
소정의 크기로 제작된 구조물;
상기 구조물에 설치되며 상기 구조물이 터치되는 지점인 터치위치를 감지하는 터치센서;
상기 구조물에 설치되며 상기 구조물에 가해지는 압력인 터치압력을 감지하는 압력센서;
상기 구조물에 설치되며 상기 구조물의 공간상에서의 이동을 감지하는 관성센서; 및
상기 터치센서, 상기 압력센서, 및 상기 관성센서에서 감지한 신호를 컴퓨터로 전송하기 위한 인터페이스;
를 포함하는 것을 특징으로 하는 정보입력장치.
An information input device for three-dimensional shape design,
A structure having a predetermined size;
A touch sensor installed on the structure and sensing a touch position, which is a point where the structure is touched;
A pressure sensor installed on the structure and sensing a touch pressure which is a pressure applied to the structure;
An inertial sensor installed on the structure and sensing movement of the structure in space; And
An interface for transmitting signals sensed by the touch sensor, the pressure sensor, and the inertial sensor to a computer;
And an information input device for inputting the information.
제 1 항에 있어서,
상기 터치센서는 호버링센서를 포함하는 것을 특징으로 하는 정보입력장치.
The method according to claim 1,
Wherein the touch sensor includes a hovering sensor.
제 1 항에 있어서,
상기 구조물에 설치되며 상기 구조물의 외표면에 가해지는 면방향의 장력을 감지하는 장력센서;
를 더 포함하는 것을 특징으로 하는 정보입력장치.
The method according to claim 1,
A tension sensor installed on the structure and sensing a tensile force in a plane direction applied to an outer surface of the structure;
Further comprising: an information input device for inputting information to the information input device.
제 1 항에 있어서,
상기 구조물은 원형 복원력을 가지는 연성 재질로 제조되는 것을 특징으로 하는 정보입력장치.
The method according to claim 1,
Wherein the structure is made of a soft material having a circular restoring force.
정보입력장치로부터 입력된 신호에 따라 컴퓨터를 이용하여 원본이미지를 가공한 3차원 이미지를 생성하는 방법으로서,
상기 정보입력장치는 3차원 구조물 및 상기 구조물에 설치된 터치센서, 압력센서, 및 관성센서를 포함하며,
상기 방법은 :
a) 상기 정보입력장치에 대한 사용자의 조작 패턴에 대하여 제1 내지 제3입력패턴으로 사전에 정의하여 마련하는 단계로서,
상기 제1 및 제2입력패턴은 상기 터치센서와 상기 압력센서로부터의 신호들 중 하나 또는 둘 이상의 조합을 포함하는 신호에 대하여 상기 원본이미지의 일 부위에 대한 함몰명령과 돌출명령으로 각각 정의한 패턴이고,
상기 제3입력패턴은 상기 관성센서로부터의 신호를 포함하는 신호에 대해서 상기 원본이미지의 가공 동작 제어와 관련한 소정의 제어명령으로 정의한 패턴인,
상기 a) 단계;
b) 상기 정보입력장치로부터 입력되는 신호가 대해 상기 제1 내지 제3입력패턴에 해당되는지 여부를 판별하는 단계; 및
c) 상기 제1입력패턴 또는 상기 제2입력패턴이 입력됨에 따라 소정의 입체형상으로 형성되어 있는 상기 원본이미지의 특정 부위가 특정 정도로 함몰 또는 돌출되도록 상기 원본이미지의 형상을 변형시키고, 상기 제3입력패턴이 입력됨에 따라 상기 제3입력패턴에 부합되는 상기 원본이미지에 대한 제어동작을 수행하는 단계;
를 포함하는 것을 특징으로 하는 3차원 이미지 생성 방법.
A method for generating a three-dimensional image of an original image by using a computer according to a signal input from an information input device,
The information input device includes a three-dimensional structure and a touch sensor, a pressure sensor, and an inertial sensor provided on the structure,
The method comprising:
a) providing a user's operation pattern to the information input device in advance by defining the first to third input patterns,
Wherein the first and second input patterns are patterns defined by a depression command and a protrusion command for one part of the original image with respect to a signal including one or two or more combinations of the signals from the touch sensor and the pressure sensor ,
Wherein the third input pattern is a pattern defined by a predetermined control command related to control of a processing operation of the original image with respect to a signal including a signal from the inertial sensor,
The step a);
b) determining whether a signal input from the information input device corresponds to the first to third input patterns; And
c) transforming the shape of the original image so that a specific part of the original image formed in a predetermined three-dimensional shape as the first input pattern or the second input pattern is inputted is depressed or protruded to a certain degree, Performing a control operation on the original image corresponding to the third input pattern as the input pattern is input;
And generating a three-dimensional image.
제 5 항에 있어서,
상기 제1입력패턴은,
상기 터치센서로부터의 신호에 대해 함몰지점으로 정의하고 상기 압력센서로부터의 신호에 대해 함몰정도로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
6. The method of claim 5,
Wherein the first input pattern comprises:
Wherein the pattern is defined as a depression point with respect to a signal from the touch sensor and is defined as a depression degree with respect to a signal from the pressure sensor.
제 6 항에 있어서,
상기 제1입력패턴은,
상기 터치센서에 의해 감지된 터치영역 또는 복수의 지점에 의해 결정되는 영역에 대해 함몰영역으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
The method according to claim 6,
Wherein the first input pattern comprises:
Wherein the pattern is defined as a depression region with respect to an area determined by a touch region or a plurality of points sensed by the touch sensor.
제 5 항에 있어서,
상기 제2입력패턴은,
상기 터치센서로부터의 신호에 대해 돌출지점으로 정의하고 상기 압력센서로부터의 신호에 대해 돌출정도로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
6. The method of claim 5,
Wherein the second input pattern comprises:
Wherein the pattern is defined as a protruding point with respect to a signal from the touch sensor and a protruding degree with respect to a signal from the pressure sensor.
제 8 항에 있어서,
상기 제2입력패턴은,
상기 터치센서에 의해 감지된 터치영역 또는 복수의 지점에 의해 결정되는 영역에 대해 돌출영역으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
9. The method of claim 8,
Wherein the second input pattern comprises:
Wherein the pattern is defined as a protruded region for a region determined by a touch region or a plurality of points sensed by the touch sensor.
제 5 항에 있어서,
상기 제2입력패턴은,
상기 터치센서에 의해 감지된 복수의 이격된 지점에서 특정 지점으로 수렴하는 드래그 신호에 대해 상기 특정 지점에서의 상기 돌출명령으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
6. The method of claim 5,
Wherein the second input pattern comprises:
Wherein the pattern is defined as the protrusion command at the specific point with respect to a drag signal converging to a specific point at a plurality of spaced points sensed by the touch sensor.
제 10 항에 있어서,
상기 제2입력패턴은,
상기 드래그 신호의 드래그 종료 지점에 의해 정의되는 영역에 대해 돌출영역으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
11. The method of claim 10,
Wherein the second input pattern comprises:
Wherein the drag image is a pattern defined as a protruded area for an area defined by a drag end point of the drag signal.
제 10 항에 있어서,
상기 제2입력패턴은,
상기 드래그 신호의 드래그 길이에 대해 돌출정도로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
11. The method of claim 10,
Wherein the second input pattern comprises:
Wherein the drag image is a pattern defined as a degree of protrusion with respect to a drag length of the drag signal.
제 5 항에 있어서,
상기 터치센서는 호버링센서를 포함하며,
상기 제2입력패턴은 상기 호버링센서에 의해 감지된 호버링 신호에 대해 상기 돌출명령으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
6. The method of claim 5,
Wherein the touch sensor includes a hovering sensor,
Wherein the second input pattern is a pattern defined as the protrusion command for a hovering signal sensed by the hovering sensor.
제 13 항에 있어서,
상기 제2입력패턴은,
상기 호버링 신호가 복수의 이격된 지점에서 특정 지점으로 수렴하는 드래그 신호인 경우 상기 특정 지점에서의 상기 돌출명령으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
14. The method of claim 13,
Wherein the second input pattern comprises:
Wherein the hovering signal is a pattern defined by the protrusion command at the specific point when the hovering signal is a drag signal converging to a specific point at a plurality of spaced apart points.
제 14 항에 있어서,
상기 제2입력패턴은,
상기 드래그 신호의 드래그 종료 지점에 의해 정의되는 영역에 대해 돌출영역으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
15. The method of claim 14,
Wherein the second input pattern comprises:
Wherein the drag image is a pattern defined as a protruded area for an area defined by a drag end point of the drag signal.
제 14 항에 있어서,
상기 제2입력패턴은,
상기 드래그 신호의 드래그 길이에 대해 돌출정도로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
15. The method of claim 14,
Wherein the second input pattern comprises:
Wherein the drag image is a pattern defined as a degree of protrusion with respect to a drag length of the drag signal.
제 13 항에 있어서,
상기 제2입력패턴은 상기 호버링 신호가 상기 호버링센서의 표면으로부터 멀어지는 이격신호인 경우에 대해 상기 돌출명령으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
14. The method of claim 13,
Wherein the second input pattern is a pattern defined as the protrusion command for the case where the hovering signal is a separation signal that is away from the surface of the hovering sensor.
제 17 항에 있어서,
상기 제2입력패턴은,
상기 이격신호의 발생 전에 별도로 감지되거나 상기 이격신호의 출발점에 의해 감지된 호버링영역 또는 복수의 지점에 의해 결정되는 영역에 대해 돌출영역으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
18. The method of claim 17,
Wherein the second input pattern comprises:
Wherein the pattern is defined as a hovering region sensed before the generation of the separation signal or as a protruding region for an area determined by a plurality of points detected by the starting point of the separation signal.
제 5 항에 있어서,
상기 정보입력장치는 상기 구조물의 표면에서의 면 방향의 장력을 감지하는 장력센서를 더 포함하며,
상기 제2입력패턴은 상기 장력센서로부터의 신호에 대해 돌출명령으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
6. The method of claim 5,
Wherein the information input device further comprises a tension sensor for sensing a tension in a surface direction on a surface of the structure,
Wherein the second input pattern is a pattern defined as a protrusion command for a signal from the tension sensor.
제 19 항에 있어서,
상기 제2입력패턴은,
상기 터치센서에 의해 감지된 복수의 지점 또는 상기 장력센서에 의해 감지된 장력 방향의 수렴지점에 의해 결정되는 영역에 대해 돌출영역으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
20. The method of claim 19,
Wherein the second input pattern comprises:
Wherein the pattern is defined as a protrusion area for a plurality of points sensed by the touch sensor or an area determined by a convergence point of the tension direction sensed by the tension sensor.
제 19 항에 있어서,
상기 제2입력패턴은,
상기 압력센서로부터의 신호에 대해 돌출정도로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
20. The method of claim 19,
Wherein the second input pattern comprises:
Wherein the pattern is defined as a degree of protrusion with respect to a signal from the pressure sensor.
제 5 항에 있어서,
상기 제3입력패턴은,
상기 관성센서로부터의 신호에 대해 상기 원본이미지의 표시 화면상에서의 이동명령으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
6. The method of claim 5,
Wherein the third input pattern comprises:
Wherein the pattern is defined as a movement command on the display screen of the original image with respect to a signal from the inertial sensor.
제 22 항에 있어서,
상기 이동명령은 상기 원본이미지의 표시 화면상에서의 회전명령을 포함하는 것을 특징으로 하는 3차원 이미지 생성 방법.
23. The method of claim 22,
Wherein the movement instruction includes a rotation instruction on the display screen of the original image.
제 5 항에 있어서,
상기 제3입력패턴은,
상기 관성센서로부터의 신호에 대해 상기 원본이미지의 표시 화면상에서의 크기변경명령으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
6. The method of claim 5,
Wherein the third input pattern comprises:
Wherein the pattern is defined as a magnitude change command on the display screen of the original image with respect to a signal from the inertial sensor.
제 5 항에 있어서,
상기 제3입력패턴은,
상기 관성센서로부터의 신호에 대해 상기 제1입력패턴과 상기 제2입력패턴 사이의 모드전환명령으로 정의한 패턴인 것을 특징으로 하는 3차원 이미지 생성 방법.
6. The method of claim 5,
Wherein the third input pattern comprises:
Wherein the pattern is defined as a mode switching command between the first input pattern and the second input pattern with respect to a signal from the inertial sensor.
제 5 항에 있어서,
상기 a) 단계에서는 상기 제어명령을 정의하는 제4입력패턴이 추가로 마련되며, 상기 제4입력패턴은 상기 터치센서와 상기 압력센서 중 적어도 어느 하나로부터의 신호를 포함하는 신호의 조합에 의해 정의되는 것을 특징으로 하는 3차원 이미지 생성 방법.
6. The method of claim 5,
Wherein a fourth input pattern for defining the control command is additionally provided in the step a) and the fourth input pattern is defined by a combination of signals including signals from at least one of the touch sensor and the pressure sensor Dimensional image.
제 26 항에 있어서,
상기 제4입력패턴은,
상기 제1입력패턴과 상기 제2입력패턴간의 모드전환명령, 상기 원본이미지의 표시 화면상에서의 이동명령, 및 상기 원본이미지의 표시 화면상에서의 크기변경명령 중 어느 하나를 포함하는 것을 특징으로 하는 3차원 이미지 생성 방법.
27. The method of claim 26,
Wherein the fourth input pattern includes:
A mode change command between the first input pattern and the second input pattern, a move command on the display screen of the original image, and a size change command on the display screen of the original image. How to create a dimensional image.
제 26 항에 있어서,
상기 제4입력패턴은,
상기 터치센서로부터의 특정 지점에 대한 감지 신호 또는 소정 이상의 넓이에 대한 감지 신호, 또는 상기 압력센서로부터의 소정 이상의 압력에 대한 감지 신호에 대해 정의되는 것을 특징으로 하는 3차원 이미지 생성 방법.
27. The method of claim 26,
Wherein the fourth input pattern includes:
Wherein the detection signal is defined for a sensing signal for a specific point from the touch sensor or a sensing signal for a predetermined area or a sensed signal for a predetermined pressure from the pressure sensor.
제 5 항에 있어서,
상기 함몰명령과 상기 돌출명령에 따라 상기 원본이미지가 가공되는 위치 또는 영역에 대하여 별도의 보조입력장치로부터 입력받는 단계를 더 포함하는 것을 특징으로 하는 3차원 이미지 생성 방법.
6. The method of claim 5,
Further comprising the step of receiving an input from a separate auxiliary input device for a position or an area where the original image is processed according to the depression command and the protrusion command.
KR1020160005473A 2016-01-15 2016-01-15 Information input device for use in 3D design, and Method for producing 3D image with the same KR20170085836A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160005473A KR20170085836A (en) 2016-01-15 2016-01-15 Information input device for use in 3D design, and Method for producing 3D image with the same
PCT/KR2016/009291 WO2017122895A1 (en) 2016-01-15 2016-08-23 Information input device for three-dimensional shape design and three-dimensional image generation method using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160005473A KR20170085836A (en) 2016-01-15 2016-01-15 Information input device for use in 3D design, and Method for producing 3D image with the same

Publications (1)

Publication Number Publication Date
KR20170085836A true KR20170085836A (en) 2017-07-25

Family

ID=59311341

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160005473A KR20170085836A (en) 2016-01-15 2016-01-15 Information input device for use in 3D design, and Method for producing 3D image with the same

Country Status (2)

Country Link
KR (1) KR20170085836A (en)
WO (1) WO2017122895A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020073890A (en) * 2001-03-16 2002-09-28 한국전자통신연구원 Three - Dimensional Modeling System Using Hand-Fumble and Modeling Method
WO2006013520A2 (en) * 2004-08-02 2006-02-09 Koninklijke Philips Electronics N.V. System and method for enabling the modeling virtual objects
KR101562827B1 (en) * 2008-10-23 2015-10-23 삼성전자주식회사 Apparatus and method for manipulating virtual object
KR101743948B1 (en) * 2010-04-07 2017-06-21 삼성전자주식회사 Method for hover sensing in the interactive display and method for processing hover sensing image
KR20140044237A (en) * 2012-10-04 2014-04-14 삼성전자주식회사 Flexible apparatus and the flexible apparatus controlling method

Also Published As

Publication number Publication date
WO2017122895A1 (en) 2017-07-20

Similar Documents

Publication Publication Date Title
US10417827B2 (en) Syndication of direct and indirect interactions in a computer-mediated reality environment
JP5784003B2 (en) Multi-telepointer, virtual object display device, and virtual object control method
JP5515067B2 (en) Operation input device, operation determination method, and program
KR20190009846A (en) Remote hover touch system and method
KR101678880B1 (en) Apparatus of providing virtyal keyboard and method contolling thereof
WO2012039140A1 (en) Operation input apparatus, operation input method, and program
KR101318244B1 (en) System and Method for Implemeting 3-Dimensional User Interface
CN104040476B (en) The equipment of the method for the display of operation energy multi-point touch and the display with energy multi-point touch
TW201218036A (en) Method for combining at least two touch signals in a computer system
JP6270495B2 (en) Information processing apparatus, information processing method, computer program, and storage medium
US20120313968A1 (en) Image display system, information processing apparatus, display device, and image display method
JP6335015B2 (en) Information processing apparatus, information processing method, and program
JP2012022458A (en) Information processing apparatus and control method thereof
GB2531112B (en) Optical digital ruler
KR20170085836A (en) Information input device for use in 3D design, and Method for producing 3D image with the same
JP6373710B2 (en) Graphic processing apparatus and graphic processing program
KR101766592B1 (en) Modeling method and apparatus for 3D objects using intuitive interface
JP5618926B2 (en) Multipointing device control method and program
JPS62150423A (en) Coordinate input device
WO2022196222A1 (en) Detection processing device, detection processing method, and information processing system
JP2005332231A (en) Pointing method, pointing device and program therefor
EP3374847B1 (en) Controlling operation of a 3d tracking device
KR101507881B1 (en) interface control method using one point
KR101671831B1 (en) Apparatus for sharing data and providing reward in accordance with shared data
KR20240036543A (en) I/o expansion system using mr

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal