KR101598579B1 - User interface and method for providing guidance information - Google Patents

User interface and method for providing guidance information Download PDF

Info

Publication number
KR101598579B1
KR101598579B1 KR1020090018014A KR20090018014A KR101598579B1 KR 101598579 B1 KR101598579 B1 KR 101598579B1 KR 1020090018014 A KR1020090018014 A KR 1020090018014A KR 20090018014 A KR20090018014 A KR 20090018014A KR 101598579 B1 KR101598579 B1 KR 101598579B1
Authority
KR
South Korea
Prior art keywords
touch
coordinate system
guidance
coordinate
movement
Prior art date
Application number
KR1020090018014A
Other languages
Korean (ko)
Other versions
KR20100099490A (en
Inventor
한승주
박준아
욱 장
이현정
김창용
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090018014A priority Critical patent/KR101598579B1/en
Publication of KR20100099490A publication Critical patent/KR20100099490A/en
Application granted granted Critical
Publication of KR101598579B1 publication Critical patent/KR101598579B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

안내정보를 제공하는 사용자 인터페이스 장치 및 안내정보 제공 방법이 개시된다. 본 발명의 일 실시예에 따른 사용자 인터페이스 장치는 터치 신호를 감지하여 터치 동작이 실행될 좌표계를 설정하고, 설정된 좌표계를 기초로 터치 신호의 터치 포인트 개수 및 터치 움직임 형태에 따라 터치 동작을 가이드하는 안내정보를 제공한다.A user interface apparatus and a guidance information providing method for providing guidance information are disclosed. The user interface device according to an embodiment of the present invention detects a touch signal to set a coordinate system in which a touch operation is to be performed and sets guide information for guiding the touch operation according to the number of touch points and the type of touch movement on the basis of the set coordinate system Lt; / RTI >

터치, 안내정보, 안내정보, 가상객체 Touch, guide information, guide information, virtual object

Description

안내정보를 제공하는 사용자 인터페이스 장치 및 안내정보 제공 방법 {User interface and method for providing guidance information}[0001] The present invention relates to a user interface apparatus and a guidance information providing method,

본 발명의 일 양상은 사용자 인터페이스에 관한 것으로, 보다 상세하게는 터치 스크린을 이용하는 사용자 인터페이스에 관한 것이다.One aspect of the present invention relates to a user interface, and more particularly, to a user interface using a touch screen.

최근 휴대전화 등의 단말에 있어서, 이용할 수 있는 기능이 증가함에 따라 해당 기능들에 대응하는 사용자 인터페이스, 예를 들면 메뉴 키 또는 버튼들도 증가하고 있다. 그런데, 증가된 사용자 인터페이스의 복잡함으로 인해서 단말의 사용자는 신속하게 특정 기능을 갖는 사용자 인터페이스를 선택 또는 설정하는데 어려움을 느낄 수 있다.2. Description of the Related Art [0002] In recent years, as functions available to terminals such as mobile phones have increased, user interfaces corresponding to corresponding functions, such as menu keys or buttons, have increased. However, due to the increased complexity of the user interface, the user of the terminal may find it difficult to quickly select or set a user interface having a specific function.

따라서, 사용자의 편리함을 위하여 물리적인 방식을 벗어난 터치 인터페이스를 이용한 장치 또는 방법이 제안되었다. 터치 인터페이스를 이용한 방식은 사람과 직접적으로 상호 작용(interaction)하는 가장 단순한 방식이다.Accordingly, for the convenience of the user, an apparatus or method using a touch interface that is out of the physical system has been proposed. The touch interface approach is the simplest way to interact directly with people.

일 양상에 따라, 2차원 또는 3차원 공간에서 좌표 변환을 쉽고 직관적이며 정교하게 제어할 수 있는 사용자 인터페이스 장치 및 그 방법을 제안한다.According to one aspect, a user interface device and method for easily, intuitively and precisely controlling coordinate transformation in a two-dimensional or three-dimensional space are proposed.

일 양상에 따른 사용자 인터페이스 장치는, 터치 신호를 감지하는 터치 인식부, 감지된 터치 신호를 분석하여 터치 동작이 실행될 좌표계를 설정하는 좌표계 결정부 및 터치 신호의 터치 포인트 개수 및 터치 움직임 형태에 따라 설정된 좌표계를 기초로 터치 동작을 가이드하는 안내정보를 제공하는 안내정보 출력부를 포함한다.A user interface device according to one aspect includes a touch recognition unit for sensing a touch signal, a coordinate system determination unit for setting a coordinate system in which a touch operation is to be performed by analyzing the sensed touch signal, And a guide information output unit for providing guide information for guiding the touch operation based on the coordinate system.

한편 다른 양상에 따른 안내정보 제공방법은, 터치 신호를 감지하는 단계, 감지된 터치 신호를 분석하여 터치 동작이 실행될 좌표계를 설정하는 단계및 터치 신호의 터치 포인트 개수 및 터치 움직임 형태에 따라 설정된 좌표계를 기초로 터치 동작을 가이드하는 안내정보를 제공하는 단계를 포함한다.According to another aspect of the present invention, there is provided a guidance information providing method comprising: sensing a touch signal; analyzing a sensed touch signal to set a coordinate system in which a touch operation is to be performed; setting a coordinate system set according to the number of touch points of the touch signal, And providing guide information for guiding the touch operation as a basis.

본 발명의 일 실시예에 따르면, 2차원 또는 3차원 공간에서 좌표 변환을 쉽고 직관적이며 정교하게 제어할 수 있다. 특히 2차원 화면에 디스플레이되는 3차원 형태의 객체를 포함한 가상세계를 대상으로 안내정보를 제공함에 따라, 직관적이며 정교하게 3D 조작을 제어할 수 있다. 나아가 동시에 입력되는 멀티 터치를 인식하여 안내정보를 제공함에 따라, 편리하고 직관적인 좌표 변환이 가능하다.According to an embodiment of the present invention, it is possible to easily, intuitively and precisely control the coordinate transformation in a two-dimensional or three-dimensional space. Especially, it provides intuitive and precise control of 3D manipulation by providing guidance information to a virtual world including a 3D object displayed on a 2D screen. In addition, by recognizing multi-touch input at the same time and providing guidance information, convenient and intuitive coordinate transformation is possible.

이하에서는 첨부한 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the terms described below are defined in consideration of the functions of the present invention, which may vary depending on the intention of the user, the operator, or the custom. Therefore, the definition should be based on the contents throughout this specification.

도 1은 본 발명의 일 실시예에 따른 사용자 인터페이스 장치(1)의 구성도이다. 도 1을 참조하면, 일 실시예에 따른 사용자 인터페이스 장치는 터치 인식부(10), 좌표계 결정부(20) 및 안내정보 출력부(30)를 포함한다.1 is a configuration diagram of a user interface device 1 according to an embodiment of the present invention. Referring to FIG. 1, a user interface device according to an embodiment includes a touch recognition unit 10, a coordinate system determination unit 20, and a guidance information output unit 30.

일 실시예에 따르면, 사용자 인터페이스 장치(1)는 터치 스크린을 구비하는 단말이다. 단말은 휴대 전화, 개인 휴대정보 단말기(PDA), MP3 플레이어, 휴대용 멀티미디어 플레이어(PMP), 네비게이션, 전자사전, 전자수첩 등일 수 있으나 이에 한정되지 않는다. According to one embodiment, the user interface device 1 is a terminal having a touch screen. The terminal can be, but not limited to, a cellular phone, a personal digital assistant (PDA), an MP3 player, a portable multimedia player (PMP), navigation, an electronic dictionary,

일 실시예에 따른 사용자 인터페이스 장치(1)는 사용자가 터치 방식을 통해 좌표 변환을 쉽고 직관적이며 정교하게 수행할 수 있도록 터치 동작을 유도하는 안내정보(guidance information)를 제공한다.The user interface device 1 according to an embodiment provides guidance information for guiding a touch operation so that a user can perform coordinate transformation easily, intuitively and precisely through a touch method.

사용자 인터페이스 장치(1)의 터치 인식부(10)는 터치 스크린(2)을 통해 입력되는 터치 신호를 감지한다. 터치 신호 감지를 위해 터치 스크린(2)의 표면은 LCD(Liquid Crystal Display)와 같은 디스플레이 화면 형태일 수 있으며, 디스플레이 화면에 터치 센서가 배치된다. 터치센서는 접촉식 또는 비접촉식일 수 있다. 예를 들면, 손가락 또는 손가락 대용의 포인팅 장치의 접촉에 따라 변화되는 압력을 감지하는 압력 터치 센서, 접촉에 따라 변화되는 정전용량을 감지하는 정전용량 터치 센서 등의 접촉식 센서일 수 있다. 또한 카메라, 광학센서, 광선차단, 전기장, 열 감지, 소리감지 등을 이용한 비접촉식 터치센서일 수 있으나 이에 한정되지 않는다. 나아가 터치 센서는 동시에 여러 터치를 인식하는 멀티 터치 기능을 갖을 수 있다.The touch recognition unit 10 of the user interface device 1 senses a touch signal input through the touch screen 2. [ In order to detect a touch signal, the surface of the touch screen 2 may be a display screen such as a liquid crystal display (LCD), and a touch sensor is disposed on the display screen. The touch sensor may be contact or non-contact. For example, the touch sensor may be a pressure touch sensor that senses a pressure that is changed in accordance with a touch of a pointing device for a finger or a finger, and a capacitive touch sensor that senses a capacitance that changes in accordance with a touch. But is not limited to, a non-contact type touch sensor using a camera, an optical sensor, a light blocking, an electric field, a heat sensing, a sound sensing, Furthermore, the touch sensor can have a multi-touch function that recognizes multiple touches at the same time.

한편, 좌표계 결정부(20)는 터치 인식부(10)를 통해 감지된 터치 신호를 분석하여 터치 동작이 실행될 좌표계를 설정한다. 이때 터치 인식부(10)는 선택 대상과 터치 영역에 따라 터치 동작이 실행될 좌표계를 설정할 수 있다. 좌표계는 로컬 좌표계, 월드 좌표계 또는 뷰 좌표계일 수 있다. 로컬 좌표계는 대상체인 객체를 대상으로 설정되는 좌표계이고, 월드 좌표계는 객체의 주변 환경을 대상으로 설정되는 좌표계이며, 뷰 좌표계는 사용자가 바라보는 시점에 따라 다르게 보이는 대상체를 나타내는 좌표계이다, 좌표계 결정부(20)의 좌표 설정 과정에 대한 상세한 설명은 도 3 내지 도 5f에서 후술한다.On the other hand, the coordinate system determination unit 20 analyzes the touch signal sensed by the touch recognition unit 10 and sets a coordinate system in which the touch operation is to be performed. At this time, the touch recognition unit 10 can set a coordinate system in which the touch operation is to be performed according to the selection target and the touch area. The coordinate system may be a local coordinate system, a world coordinate system, or a view coordinate system. The world coordinate system is a coordinate system that is set with respect to the surrounding environment of the object. The view coordinate system is a coordinate system that shows an object that appears differently according to the viewpoint of the user. The coordinate system determination unit A detailed description of the coordinate setting process of the display unit 20 will be described later with reference to FIG. 3 to FIG. 5F.

안내정보 출력부(30)는 좌표계 결정부(20)를 통해 설정된 좌표계를 기초로, 터치 신호의 터치 포인트 개수와 터치 움직임 형태에 따라 터치 동작을 가이드하는 안내정보를 터치 스크린(2)에 제공한다. 안내정보 출력부(30)의 안내정보 제공 과정에 대한 상세한 설명은 도 6 내지 도 9e에서 후술한다.The guide information output unit 30 provides guidance information for guiding the touch operation to the touch screen 2 according to the number of touch points of the touch signal and the type of touch movement based on the coordinate system set through the coordinate system determination unit 20 . Details of the guide information providing process of the guide information outputting unit 30 will be described later with reference to FIGS. 6 to 9E.

이때 안내정보 출력부(30)는 직교 좌표 가이던스(Rectangular coordinate guidance) 또는 구면 좌표 가이던스(Spherical coordinate guidance) 중 적어도 하나를 터치 스크린(2)에 제공할 수 있다. 직교 좌표 가이던스는 직각으로 교차하는 좌표 형태이며, 구면 좌표 가이던스는 경선과 위선으로 이루어지는 좌표 형태이다. At this time, the guide information output unit 30 may provide at least one of rectangular coordinate guidance or spherical coordinate guidance to the touch screen 2. The Cartesian coordinate guidance is a coordinate form intersecting at a right angle, and the spherical coordinate guidance is a coordinate form composed of a meridian and a hypocrite.

나아가, 사용자 인터페이스 장치(1)는 동작 실행부(미도시)를 더 포함할 수 있다. 동작 실행부는 안내정보 출력부(30)를 통해 제공되는 안내정보를 기초로 사용자로부터 입력되는 터치 신호에 따라 대상체에 대해 이동, 회전 또는 신축 동작을 실행한다.Furthermore, the user interface device 1 may further include an operation execution unit (not shown). The operation executing unit executes a movement, rotation, or expansion / contraction operation on the object based on the touch signal input from the user based on the guidance information provided through the guide information output unit 30. [

한편, 일 실시예에 따른 사용자 인터페이스 장치(1)는 2차원 화면에 디스플레이되는 3차원 형태의 객체를 포함하는 가상세계를 대상으로 안내정보를 제공할 수 있다. 가상세계는 사용자 인터페이스 장치(1)의 화면을 통해 3차원 형태의 객체를 디스플레이하여 사용자가 마치 현실 세계에 있는 것과 같은 기분을 느끼게 할 수 있다. 예를 들면, 어떤 특정한 환경이나 상황을 컴퓨터로 만들어서, 그것을 사용하는 사람이 실제 주변 상황·환경과 상호작용을 하고 있는 것처럼 제공할 수 있다. Meanwhile, the user interface device 1 according to an exemplary embodiment may provide guidance information to a virtual world including a three-dimensional object displayed on a two-dimensional screen. The virtual world can display a three-dimensional object through the screen of the user interface device 1, so that the user can feel as if he is in the real world. For example, a certain environment or situation can be created on a computer so that the person using the environment can interact with the surrounding environment.

여기서 객체는 아바타(Avatar) 또는 물체일 수 있다. 특히 가상현실 세계의 사용자는 그래픽 아이콘인 아바타를 통해 이동하고 소통할 수 있는데, 아바타는 텍스처, 2D, 3D 형태로 화면에 디스플레이될 수 있다. 전술한 가상세계는 가상 현실게임에 활용될 수 있으나, 가상세계는 게임에만 한정되는 것이 아니라 그 외의 다양한 분야에 적용될 수 있다.Here, the object may be an avatar or an object. Particularly, users of virtual reality world can move and communicate through avatar which is graphic icon, and avatar can be displayed on the screen in texture, 2D and 3D form. The virtual world described above can be utilized in a virtual reality game, but the virtual world can be applied not only to a game but also to various other fields.

도 2는 본 발명의 일 실시예에 따른 안내정보 제공방법을 도시한 흐름도이다.2 is a flowchart illustrating a guidance information providing method according to an embodiment of the present invention.

도 2를 참조하면, 일 실시예에 따른 사용자 인터페이스 장치는 사용자로부터 입력되는 터치 신호를 감지한다(S200). 그리고, 감지된 터치 신호를 분석하여 터치 동작이 실행될 좌표계를 설정한다(S210). 이어서, 사용자 인터페이스 장치는 터치 신호의 터치 포인트 위치와 터치 움직임 형태에 따라, 설정된 좌표계를 기초로 터치 동작을 안내하는 안내정보를 제공한다(S220). 나아가, 사용자 인터페이스 장치가 이동, 회전 또는 신축 동작을 실행하는 단계(S230)를 더 포함할 수 있다.Referring to FIG. 2, a user interface device according to an exemplary embodiment senses a touch signal input from a user (S200). Then, the coordinate system in which the touch operation is to be performed is set by analyzing the sensed touch signal (S210). Then, the user interface device provides guidance information for guiding the touch operation based on the set coordinate system according to the touch point position of the touch signal and the touch movement type (S220). Further, the user interface apparatus may further include a step S230 of performing a movement, rotation, or stretching operation.

도 3은 본 발명의 일 실시예에 따른 좌표계 설정방법을 도시한 흐름도이다.3 is a flowchart illustrating a method of setting a coordinate system according to an embodiment of the present invention.

도 3을 참조하면, 일 실시예에 따른 사용자 인터페이스 장치는 감지된 터치 신호의 선택 대상과 터치 영역에 따라 터치 동작이 실행될 좌표계(Coordinate system)를 설정한다. 이때, 사용자 인터페이스 장치는 터치가 감지되는 지점의 좌표(coordinate)에 해당되는 위치정보를 이용하여 터치 신호의 선택 대상 및 터치 영역을 인식할 수 있다.Referring to FIG. 3, a user interface device according to an embodiment sets a coordinate system in which a touch operation is performed according to a touch target of a sensed touch signal and a touch area. At this time, the user interface device can recognize the selection target of the touch signal and the touch area using the position information corresponding to the coordinate of the point where the touch is sensed.

우선, 일 실시예에 따른 사용자 인터페이스 장치는 감지된 터치 신호를 분석하여, 선택 대상이 객체를 포함하는지를 판단한다(S300). 판단 결과(S300), 선택 대상이 객체를 벗어나면 좌표계를 사용자가 바라보는 시점으로 터치 동작이 실행될 뷰 좌표계(View Coordinate system)로 설정한다(S310). 뷰 좌표계는 사용자가 마치 카메라를 통해 대상체를 바라보았을 때 카메라의 높이 및 방향에 따라 다르게 보이는 대상체를 나타내기 위한 좌표계로서, 카메라의 평면 이동과 회전 변환 방식 을 이용해 뷰를 변환할 수 있다.First, the user interface device according to an embodiment analyzes the sensed touch signal to determine whether the selection object includes an object (S300). If the selection object is out of the object (S300), the coordinate system is set to the view coordinate system (S310) in which the touch operation is to be performed when the user views the coordinate system. The view coordinate system is a coordinate system for representing an object that looks different depending on the height and direction of the camera when the user views the object through the camera, and can convert the view using the camera's plane movement and rotation conversion method.

한편, 판단 결과(S300) 감지된 터치 신호의 선택 대상이 객체이면, 사용자 인터페이스 장치는 대상을 선택하는 선택 신호와 다른 터치 신호의 터치 영역이 객체인지를 판단한다(S320). 판단 결과(S320), 대상을 선택하는 선택 신호와 다른 터치 신호의 터치 영역이 객체 이내이면, 사용자 인터페이스 장치는 좌표계를 객체에 대한 터치 동작이 실행될 로컬 좌표계(Local Coordinate system)로 설정한다(S330). 로컬 좌표계는 해당 객체(예를 들면, 아바타)의 위치, 방향 또는 객체의 변환을 지정하는 데 사용될 수 있다. 이때, 선택 신호 및 선택 신호와 다른 터치 신호는 사용자로부터 동시에 터치되는 멀티 터치 신호일 수 있다.If it is determined in operation S300 that the sensed target of the touch signal is an object, the user interface device determines whether the touch region of the touch signal is an object other than the selection signal for selecting the object in operation S320. If the touch area of the touch signal other than the selection signal for selecting the object is within the object (S320), the user interface device sets the coordinate system to the local coordinate system in which the touch operation for the object is to be performed (S330) . The local coordinate system can be used to specify the position, orientation, or transformation of the object (e.g., avatar) of the object. At this time, the touch signal different from the selection signal and the selection signal may be a multi-touch signal which is simultaneously touched by the user.

한편, 판단 결과(S320) 선택 신호와 다른 터치 신호의 터치 영역이 객체를 벗어나면, 사용자 인터페이스 장치는 좌표계를 객체의 주변 환경에 대한 터치 동작이 실행될 월드 좌표계(World Coordinate system)로 설정한다(S340). 월드 좌표계는 객체의 주변 환경에 대해 터치 동작을 실행하는 좌표계로서, 객체가 존재하는 세계에서 서로 상대적으로 객체를 위치시키거나 이용하는 데 유용할 수 있다. 이때, 선택 신호 및 선택 신호와 다른 터치 신호는 사용자로부터 동시에 터치되는 멀티 터치 신호일 수 있다.If the touch area of the touch signal other than the selection signal is out of the object as a result of the determination (S320), the user interface device sets the coordinate system to the world coordinate system in which the touch operation to the surrounding environment of the object is to be performed (World Coordinate system) ). The world coordinate system is a coordinate system that performs a touch operation on the object's surrounding environment and can be useful for locating or using objects relative to each other in the world in which they are located. At this time, the touch signal different from the selection signal and the selection signal may be a multi-touch signal which is simultaneously touched by the user.

도 4a 및 도 4b는 본 발명의 일 실시예에 따라 설정되는 좌표계를 도시한 참조도이다.4A and 4B are reference views showing a coordinate system set according to an embodiment of the present invention.

도 4a 및 도 4b를 참조하면, 로컬 좌표계와 월드 좌표계는 객체를 중심으로 형성되는 좌표계이므로 객체의 선택 과정이 필요하며, 뷰 좌표계와 구분된다. 도 4a는 로컬 좌표계를 도시한 것이며, 도 4b는 월드 좌표계를 도시한 것이다. 도 4a에 도시된 바와 같이, 객체가 사용자로부터 터치를 통해 선택(예를 들면, 도 4a의 점)된 후 사용자의 다른 터치 제스쳐(예를 들면, 도 4a의 시계방향 회전 곡선 형태)를 통해 객체 영역 내에서 터치가 감지되는 경우, 터치 동작을 실행할 좌표계를 로컬 좌표계로 설정한다. 이에 비해 도 4b에 도시된 바와 같이, 객체가 사용자로부터 터치를 통해 선택(예를 들면, 도 4b의 점)된 후 사용자의 다른 터치 제스쳐(예를 들면, 도 4b의 시계방향 회전 곡선 형태)가 객체 영역을 벗어나는 경우, 좌표계를 월드 좌표계로 설정한다.Referring to FIGS. 4A and 4B, since the local coordinate system and the world coordinate system are coordinate systems formed around the object, an object selection process is required and is distinguished from the view coordinate system. FIG. 4A shows a local coordinate system, and FIG. 4B shows a world coordinate system. As shown in FIG. 4A, after an object is selected (e.g., a point in FIG. 4A) by a touch from a user, the object is moved through another touch gesture of the user (for example, When a touch is detected in the area, the coordinate system on which the touch operation is to be performed is set to the local coordinate system. On the other hand, as shown in FIG. 4B, after the object is selected (for example, the point of FIG. 4B) by the touch from the user, another touch gesture of the user (for example, If you are outside the object area, set the coordinate system to the world coordinate system.

도 5a 내지 도 5f는 본 발명의 일 실시예에 따른 좌표계 설정에 따른 터치 동작 실행 과정을 설명하기 위한 참조도이다.5A to 5F are reference views for explaining a touch operation execution process according to a coordinate system setting according to an embodiment of the present invention.

도 5a 및 도 5b는 뷰 좌표계에 대한 실시예이다. 도 5a 및 도 5b를 참조하면, 사용자의 터치 동작을 통한 선택 대상이 객체(도 5a의 게시판 또는 박스)를 벗어나고 선택신호와 다른 터치 동작이 시계 방향으로 위쪽을 향하는 곡선 형태(도 5a의 화살표 방향)일 경우, 일 실시예에 따른 사용자 인터페이스 장치는 사용자가 상위 각도에서 바라보았을 때의 뷰(View)에 해당되는 뷰 좌표계로 좌표계를 설정한다. Figures 5A and 5B show an embodiment of a view coordinate system. 5A and 5B, when a selection target through a touch operation of a user moves out of an object (a bulletin board or a box in FIG. 5A) and a touch operation different from the selection signal moves upward in a clockwise direction , The user interface device according to an embodiment sets a coordinate system to a view coordinate system corresponding to a view when the user looks at an upper angle.

한편, 도 5c 및 도 5d는 로컬 좌표계에 대한 실시예이다. 도 5c 및 도 5d를 참조하면, 대상을 선택하는 선택 신호와 다른 터치 신호의 터치 영역이 물체(도 5c의 박스) 이내이고 터치 동작이 우측으로 향하는 곡선 형태(도 5c의 화살표 방향)일 경우, 일 실시예에 따른 사용자 인터페이스 장치는 물체가 우측으로 회전되었을 때에 해당되는 로컬 좌표계로 좌표계를 설정한다.5C and 5D show an embodiment of the local coordinate system. 5C and 5D, when the touch region of the touch signal different from the selection signal for selecting the object is within the object (box in FIG. 5C) and the touch operation is directed to the right (arrow direction in FIG. 5C) The user interface device according to one embodiment sets the coordinate system to the local coordinate system when the object is rotated to the right.

도 5e 및 도 5f는 월드 좌표계에 대한 실시예이다. 도 5e 및 도 5f를 참조하면, 대상을 선택하는 선택 신호와 다른 터치 신호의 터치 영역이 물체(도 5e의 박스)를 벗어나고, 터치 동작이 시계 방향으로 위쪽을 향하는 곡선 형태(도 5e의 화살표 방향)일 경우, 일 실시예에 따른 사용자 인터페이스 장치는 물체 주변의 환경이 상측으로 회전되었을 때에 해당되는 월드 좌표계로 좌표계를 설정한다.5E and 5F show an embodiment of the world coordinate system. 5E and 5F, when the touch region of the touch signal other than the selection signal for selecting the object is out of the object (the box in Fig. 5E) and the touch operation is upwardly curved in the clockwise direction ), The user interface device according to one embodiment sets the coordinate system to the corresponding world coordinate system when the environment around the object is rotated upward.

도 6은 일 실시예에 따른 안내정보 제공방법을 상세히 도시한 상세 흐름도이다.6 is a detailed flowchart illustrating a method for providing guidance information according to an exemplary embodiment of the present invention.

도 6을 참조하면, 일 실시예에 따른 사용자 인터페이스 장치는 감지된 터치 포인트 개수를 분석(S600)하여 사용자의 터치 동작을 결정한다. 즉, 사용자 인터페이스 장치는 감지된 터치 포인트(S600) 하나인 경우 터치 동작을 이동(Move) 동작으로 결정한다(S605). Referring to FIG. 6, the user interface apparatus according to an embodiment analyzes the sensed number of touch points (S600) to determine a touch operation of the user. That is, the user interface device determines that the touch operation is a move operation when the sensed touch point S600 is one (S605).

그리고, 터치 포인트가 복수 개인 경우 터치 움직임이 곡선 또는 직선 형태인지를 분석(S610)하여, 터치 움직임이 곡선 형태이면 터치 동작을 회전(Rotate) 동작으로 결정하고(S615), 터치 움직임이 직선 형태이면 터치 동작을 신축(Scale) 동작으로 결정한다(S620). 신축 동작은 선택 대상을 늘이거나 줄이는 행동을 말한다.If there is a plurality of touch points, it is analyzed whether the touch movement is a curve or a straight line (S610). If the touch movement is a curved line, the touch operation is determined as a rotation operation (S615) The touch operation is determined as a scaling operation (S620). The stretching action refers to the action of increasing or decreasing the selection target.

이어서, 터치 동작이 이동 동작으로 결정된 경우(S605) 직교 좌표 가이던스를 제공한다(S625). 그리고, 터치 동작이 회전 동작으로 결정된 경우(S615) 구면 좌표 가이던스를 제공한다(S630). 또한, 터치 동작이 신축 동작으로 결정된 경 우(S620), 신축 동작이 균형적인지에 따라(S635) 균형적인 신축 동작인 경우 구면 좌표 가이던스를 제공하고(S640), 부분적 신축 동작인 경우 직교 좌표 가이던스를 제공한다(S645). 균형적인 신축 동작은 대립되는 양 방향으로 동일하게 신축 동작이 실행되는 경우이며, 부분적 신축 동작은 대립되는 양 방향으로 동일하지 않게 신축 동작이 실행되는 경우를 말한다.Next, if the touch operation is determined to be a movement operation (S605), a rectangular coordinate guidance is provided (S625). If the touch operation is determined as the rotation operation (S615), the spherical coordinate guidance is provided (S630). If it is determined that the touch operation is a stretching operation (S620), a spherical coordinate guidance is provided (S640) in accordance with whether the stretching operation is balanced (S635) or a balanced stretching operation (S640) (S645). The balanced expansion and contraction operation refers to the case where the expansion and contraction operation is performed in the opposite directions in the same way and the partial expansion and contraction operation refers to the case where the expansion and contraction operation is performed not in the opposite directions.

도 7a 및 도 7b는 본 발명의 일 실시예에 따른 이동(Move) 동작에 따른 좌표 가이던스를 설명하기 위한 참조도이다.7A and 7B are reference views for explaining a coordinate guidance according to a movement operation according to an embodiment of the present invention.

도 7a 및 도 7b를 참조하면, 이동 동작에 따른 좌표 가이던스는 직각으로 교차하는 좌표 형태이다. 이때 직교 좌표 가이던스는 도 8a 및 도 8b에 도시된 바와 같이 그물망의 그리드(grid, 격자) 형태일 수 있다. 직교 좌표 가이던스는 2차원 또는 3차원 공간에서 사용될 수 있으나, 4차원 이상의 공간에서 이용될 수도 있다. 7A and 7B, the coordinate guidance according to the movement operation is a coordinate form intersecting at right angles. At this time, the rectangular coordinate guidance may be in the form of a grid of a mesh as shown in FIGS. 8A and 8B. Cartesian coordinate guidance can be used in a two-dimensional or three-dimensional space, but it can also be used in a space of four or more dimensions.

도 8a 및 도 8b는 본 발명의 일 실시예에 따른 회전(Rotate) 동작에 따른 좌표 가이던스를 설명하기 위한 참조도이다.8A and 8B are reference views for explaining coordinate guidance according to a rotation operation according to an embodiment of the present invention.

도 8a 및 도 8b를 참조하면, 구면 좌표 가이던스는 3차원 공간 상의 점들을 위도 또는 경도 형태로 나타내는 좌표계로, 보통 (r,θ,φ)로 출력될 수 있다. 원점에서의 거리 r은 0부터 까지, z축에서의 각도 θ는 0부터 π까지, z축을 축으로 x축에서부터 돌아간 각 φ는 0부터 2π 까지의 값을 갖는 걸로 제한하기도 한다. θ는 위도로, φ는 경도로 표현되는 경우도 있다. 나아가, 구면 좌표 가이던스는 회전 각도를 제공하는 식별점이 출력될 수 있다.Referring to FIGS. 8A and 8B, the spherical coordinate guidance is a coordinate system in which points on a three-dimensional space are expressed in the form of latitude or longitude, and may be output as normal (r,?,?). The distance r from the origin may be limited to 0, the angle θ in the z-axis from 0 to π, and the angle φ from the x-axis along the z-axis to values from 0 to 2π. ? is latitude and? is sometimes expressed in longitude. Furthermore, the spherical coordinate guidance can be output as an identification point providing a rotation angle.

도 9a 내지 도 9e는 본 발명의 일 실시예에 따른 신축(Scale) 동작에 따른 좌표 가이던스를 설명하기 위한 참조도이다.9A to 9E are reference views for explaining coordinate guidance according to a scaling operation according to an embodiment of the present invention.

도 9a를 참조하면, 객체의 전체 균형적 신축 동작인 경우에는 사용자 인터페이스 장치는 구면 좌표 가이던스를 화면에 제공한다. 이에 비해 도 9b를 참조하면, 부분적 신축 동작인 경우 직교 좌표 가이던스를 제공한다. 또는 도 9c에 도시된 바와 같이 사용자 인터페이스 장치는 신축 동작시 직교 좌표 가이던스 및 구면 좌표 가이던스 모두를 화면에 제공할 수 있다.Referring to FIG. 9A, when the object is a fully balanced stretching operation, the user interface device provides the spherical coordinate guidance to the screen. In contrast, referring to FIG. 9B, a rectangular stretching operation provides a rectangular coordinate guidance. Or as shown in Fig. 9C, the user interface device can provide both the Cartesian coordinate guidance and the spherical coordinate guidance on the screen during the stretching operation.

도 10a 내지 도 10e는 본 발명의 일 실시예에 따른 터치 동작 결정 과정을 설명하기 위한 참조도이다. 도 10a 내지 도 10e를 참조하면, 이동, 회전, 신축 동작은 사용자로부터 감지되는 터치 제스쳐에 따라 결정된다. 이동 동작은 한 포인트 터치 동작으로 이루어진다. 예를 들면, 도 10a에 도신된 바와 같이, 사용자로부터 한 포인트 터치 동작을 통해 물체가 선택된 후 끌어 당겨질 수 있다.10A to 10E are reference views for explaining a touch operation determining process according to an embodiment of the present invention. 10A to 10E, movement, rotation, and stretching operations are determined according to a touch gesture sensed by a user. The movement operation is performed by a one-point touch operation. For example, as shown in FIG. 10A, an object may be selected and then pulled through a point touch operation from the user.

한편, 회전 동작과 신축 동작은 두 포인트 터치 동작으로 이루어진다. 이때 신축 동작은 직선 방향의 움직임으로 형성된다. 예를 들면, 도 10b 및 도 10c에 도시된 바와 같이, 객체 위에 두 포인터를 위치하고 한 점 또는 두 점이 직선 방향으로 드래그되는 경우 신축 동작으로 결정될 수 있다. 이에 비해 회전 동작은 곡선 방향의 움직임으로 형성된다. 예를 들면, 도 10d는 한 기준점을 중심으로 한 회전 동작이며, 도 10e는 두 점의 중심을 기준점으로 한 회전 동작이다. 전술한 이동, 회전 및 신축 동작은 2D와 3D에서 모두 구현 가능하다.On the other hand, the rotation operation and the stretching operation are performed by a two-point touch operation. At this time, the stretching and shrinking motion is formed in a linear motion. For example, as shown in Figs. 10B and 10C, when two pointers are placed on an object and one or two points are dragged in a linear direction, it can be determined as a stretching operation. On the other hand, the rotation operation is formed as a movement in the curved direction. For example, FIG. 10D shows a rotation operation around a reference point, and FIG. 10E shows a rotation operation with the centers of two points as reference points. The movement, rotation, and stretching operations described above can be implemented in both 2D and 3D.

이제까지 본 발명에 대하여 그 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The embodiments of the present invention have been described above. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

도 1은 본 발명의 일 실시예에 따른 사용자 인터페이스 장치의 구성도,1 is a configuration diagram of a user interface device according to an embodiment of the present invention;

도 2는 본 발명의 일 실시예에 따른 안내정보 제공방법을 도시한 흐름도,FIG. 2 is a flowchart illustrating a guide information providing method according to an embodiment of the present invention;

도 3은 본 발명의 일 실시예에 따른 좌표계 설정방법을 도시한 흐름도,3 is a flowchart illustrating a method of setting a coordinate system according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따라 설정되는 좌표계를 도시한 참조도,4 is a reference diagram showing a coordinate system set in accordance with an embodiment of the present invention;

도 5a 내지 도 5f는 본 발명의 일 실시예에 따른 좌표계 설정에 따른 터치 동작 실행 과정을 설명하기 위한 참조도,5A to 5F are views for explaining a touch operation execution process according to a coordinate system setting according to an embodiment of the present invention.

도 6은 일 실시예에 따른 안내정보 제공방법을 상세히 도시한 상세 흐름도,6 is a detailed flowchart illustrating a method for providing guidance information according to an exemplary embodiment of the present invention.

도 7a 및 도 7b는 본 발명의 일 실시예에 따른 이동 동작에 따른 좌표 가이던스를 설명하기 위한 참조도,7A and 7B are views for explaining the coordinate guidance according to the movement operation according to the embodiment of the present invention,

도 8a 및 도 8b는 본 발명의 일 실시예에 따른 회전 동작에 따른 좌표 가이던스를 설명하기 위한 참조도,8A and 8B are views for explaining coordinate guidance according to a rotation operation according to an embodiment of the present invention;

도 9a 내지 도 9e는 본 발명의 일 실시예에 따른 신축 동작에 따른 좌표 가이던스를 설명하기 위한 참조도,9A to 9E are reference views for explaining coordinate guidance according to an expansion and contraction operation according to an embodiment of the present invention,

도 10a 내지 도 10e는 본 발명의 일 실시예에 따른 터치 동작 결정과정을 설명하기 위한 참조도이다.10A to 10E are reference views for explaining a touch operation determining process according to an embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명>Description of the Related Art

1 : 사용자 인터페이스 장치 2 : 터치 스크린1: User interface device 2: Touch screen

10 : 터치 인식부 20 : 좌표계 결정부10: Touch recognition unit 20: Coordinate system determination unit

30 : 안내정보 출력부30: Guide information output section

Claims (15)

터치 신호를 감지하는 터치 인식부;A touch recognition unit for sensing a touch signal; 상기 감지된 터치 신호를 분석하여 터치 동작이 실행될 좌표계를 설정하는 좌표계 결정부; 및A coordinate system determination unit for analyzing the sensed touch signal to set a coordinate system in which a touch operation is to be performed; And 상기 터치 신호의 터치 포인트 개수 및 터치 움직임 형태에 따라 상기 설정된 좌표계를 기초로 상기 터치 동작을 가이드하는 안내정보를 제공하는 안내정보 출력부를 포함하며,And a guide information output unit for providing guide information for guiding the touch operation based on the set coordinate system according to the number of touch points of the touch signal and the type of touch movement, 상기 안내정보 출력부는,The guide information output unit may output, 상기 터치 포인트가 하나인 경우 상기 터치 동작을 이동 동작으로 결정하고, Determines that the touch operation is a movement operation when the touch point is one, 상기 터치 포인트가 복수 개인 경우 상기 터치 움직임이 곡선 형태이면 상기 터치 동작을 회전 동작으로 결정하고, If the touch movement is in a curved shape, the touch operation is determined as a rotation operation, 상기 터치 포인트가 복수 개이고 상기 터치 움직임이 직선 형태이면 상기 터치 동작을 신축 동작으로 결정하는 사용자 인터페이스 장치.Wherein the controller determines that the touch operation is a stretching operation when the touch points are plural and the touch movement is a straight line. 제 1 항에 있어서, 상기 안내정보 출력부는,The information processing apparatus according to claim 1, 2차원 화면에 디스플레이되는 3차원 형태의 객체를 포함하는 가상세계를 대상으로 상기 안내정보를 제공하는 사용자 인터페이스 장치.A user interface apparatus for providing the guidance information to a virtual world including a three-dimensional object displayed on a two-dimensional screen. 제 1 항에 있어서, 상기 안내정보 출력부는,The information processing apparatus according to claim 1, 직각으로 교차하는 직교 좌표 가이던스 또는 경선과 위선으로 이루어지는 구면 좌표 가이던스 중 적어도 하나의 안내정보를 제공하는 사용자 인터페이스 장치.Wherein the guiding information is at least one of a rectangular coordinate guidance intersecting at a right angle or a spherical coordinate guidance composed of a meridian and a hypocrisy. 삭제delete 제 3 항에 있어서, 상기 안내정보 출력부는,The information processing apparatus according to claim 3, 상기 결정된 터치 동작이 상기 이동 동작인 경우 상기 직교 좌표 가이던스를, 상기 회전 동작인 경우 상기 구면 좌표 가이던스를, 균형적인 신축 동작인 경우 상기 구면 좌표 가이던스를, 부분적 신축 동작인 경우 상기 직교 좌표 가이던스를 각각 제공하는 사용자 인터페이스 장치.The spherical coordinate guidance in the case of the rotation operation, the spherical coordinate guidance in the case of a balanced expansion and contraction operation, and the rectangular coordinate guidance in the case of the partial expansion and contraction operation, respectively Providing user interface device. 제 3 항에 있어서, 상기 안내정보 출력부는,The information processing apparatus according to claim 3, 상기 구면 좌표 가이던스에 회전 각도를 제공하는 식별점을 제공하는 사용자 인터페이스 장치.And provides an identification point that provides a rotation angle to the spherical coordinate guidance. 제 1 항에 있어서, 상기 좌표계 결정부는,The apparatus according to claim 1, 상기 감지된 터치 신호의 선택 대상과 터치 영역에 따라 상기 좌표계를 설정하는 사용자 인터페이스 장치.And sets the coordinate system according to a touch object and a selection target of the sensed touch signal. 제 7 항에 있어서, 상기 좌표계 결정부는,8. The apparatus according to claim 7, 상기 감지된 터치 신호의 선택 대상이 객체이고 상기 대상을 선택하는 선택 신호와 다른 터치 신호의 터치 영역이 상기 객체 이내이면 상기 좌표계를 상기 객체에 대한 터치 동작이 실행될 로컬 좌표계로, If the object of selection of the sensed touch signal is an object and a touch region of a touch signal different from a select signal for selecting the object is within the object, the coordinate system is a local coordinate system, 상기 감지된 터치 신호의 선택 대상이 객체이고 상기 선택 신호와 다른 터치 신호의 터치 영역이 상기 객체를 벗어나면 상기 객체의 주변 환경에 대한 터치 동작이 실행될 월드 좌표계로, And a touch operation to the surrounding environment of the object is performed when the touch target of the sensed touch signal is an object and the touch region of the touch signal different from the select signal is out of the object, 상기 감지된 터치 신호의 선택 대상이 객체를 벗어나면 사용자가 바라보는 시점으로 터치 동작이 실행될 뷰 좌표계로 각각 설정하는 사용자 인터페이스 장치.And sets the view coordinate system in which the touch operation is to be performed, when the object of selection of the sensed touch signal is out of the object, to the viewpoint of the user. 제 1 항에 있어서,The method according to claim 1, 상기 안내정보 출력부를 통해 제공되는 안내정보를 기초로 사용자로부터 입력되는 터치 신호에 따라 대상체에 대해 이동, 회전 또는 신축 동작을 실행하는 동작 실행부를 더 포함하는 사용자 인터페이스 장치.And an operation executing unit for executing a movement, rotation, or stretching operation with respect to the object in accordance with the touch signal input from the user based on the guide information provided through the guide information output unit. 터치 신호를 감지하는 단계;Sensing a touch signal; 상기 감지된 터치 신호를 분석하여 터치 동작이 실행될 좌표계를 설정하는 단계; 및Analyzing the sensed touch signal to set a coordinate system in which a touch operation is to be performed; And 상기 터치 신호의 터치 포인트 개수 및 터치 움직임 형태에 따라 상기 설정된 좌표계를 기초로 상기 터치 동작을 가이드하는 안내정보를 제공하는 단계를 포함하며,Providing guiding information for guiding the touch operation based on the set coordinate system according to the number of touch points of the touch signal and the type of touch movement, 상기 안내정보를 제공하는 단계는,Wherein the step of providing the guide information comprises: 상기 터치 포인트가 하나인 경우 상기 터치 동작을 이동 동작으로 결정하고, Determines that the touch operation is a movement operation when the touch point is one, 상기 터치 포인트가 복수 개인 경우 상기 터치 움직임이 곡선 형태이면 상기 터치 동작을 회전 동작으로 결정하고, If the touch movement is in a curved shape, the touch operation is determined as a rotation operation, 상기 터치 포인트가 복수 개이고 상기 터치 움직임이 직선 형태이면 상기 터치 동작을 신축 동작으로 결정하고,Determining that the touch operation is a stretching operation when the touch points are plural and the touch movement is a straight line, 상기 결정된 터치 동작이 상기 이동 동작인 경우 직교 좌표 가이던스를, 상기 회전 동작인 경우 구면 좌표 가이던스를, 균형적인 신축 동작인 경우 구면 좌표 가이던스를, 부분적 신축 동작인 경우 직교 좌표 가이던스를 각각 제공하는 안내정보 제공방법.A spherical coordinate guidance when the determined touch operation is the movement operation, a spherical coordinate guidance when the rotation operation is a balanced operation, a spherical coordinate guidance when the operation is a balanced expansion operation, and a rectangular coordinate guidance when the determined touch operation is the movement operation, Delivery method. 제 10 항에 있어서, 상기 안내정보를 제공하는 단계는,11. The method of claim 10, wherein providing the guide information comprises: 2차원 화면에 디스플레이되는 3차원 형태의 객체를 포함하는 가상세계를 대상으로 상기 안내정보를 제공하는 안내정보 제공방법.A guidance information providing method for providing guidance information to a virtual world including a three-dimensional object displayed on a two-dimensional screen. 제 10 항에 있어서, 11. The method of claim 10, 상기 직교 좌표 가이던스는 직각으로 교차하는 좌표 형태이고, 상기 구면 좌표 가이던스는 경선과 위선으로 이루어지는 좌표 형태인 안내정보 제공방법.Wherein the rectangular coordinate guidance is a coordinate form intersecting at right angles, and the spherical coordinate guidance is a coordinate form composed of a meridian and a hypocrisy. 삭제delete 제 10 항에 있어서, 상기 좌표계를 설정하는 단계는,The method of claim 10, wherein the step of setting the coordinate system comprises: 상기 감지된 터치 신호의 선택 대상과 터치 영역에 따라 상기 좌표계를 설정하는 안내정보 제공방법.And setting the coordinate system according to the touch target and the touch area of the sensed touch signal. 제 10 항에 있어서,11. The method of claim 10, 상기 제공되는 안내정보를 기초로 사용자로부터 입력되는 터치 신호에 따라 대상체에 대해 이동, 회전 또는 신축 동작을 실행하는 단계를 더 포함하는 안내정보 제공방법.Further comprising the step of performing a movement, rotation, or stretching operation on the object in accordance with the touch signal input from the user based on the provided guidance information.
KR1020090018014A 2009-03-03 2009-03-03 User interface and method for providing guidance information KR101598579B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090018014A KR101598579B1 (en) 2009-03-03 2009-03-03 User interface and method for providing guidance information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090018014A KR101598579B1 (en) 2009-03-03 2009-03-03 User interface and method for providing guidance information

Publications (2)

Publication Number Publication Date
KR20100099490A KR20100099490A (en) 2010-09-13
KR101598579B1 true KR101598579B1 (en) 2016-02-29

Family

ID=43005782

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090018014A KR101598579B1 (en) 2009-03-03 2009-03-03 User interface and method for providing guidance information

Country Status (1)

Country Link
KR (1) KR101598579B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101484957B1 (en) * 2011-12-27 2015-01-21 삼성메디슨 주식회사 Image processing apparatus and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172621A (en) 2005-12-23 2007-07-05 Metaio Gmbh Method and system for determining inaccurate information in extended reality sensing system
JP2007233647A (en) 2006-02-28 2007-09-13 Shinano Kenshi Co Ltd Presentation data processing apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080104858A (en) * 2007-05-29 2008-12-03 삼성전자주식회사 Method and apparatus for providing gesture information based on touch screen, and information terminal device including the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172621A (en) 2005-12-23 2007-07-05 Metaio Gmbh Method and system for determining inaccurate information in extended reality sensing system
JP2007233647A (en) 2006-02-28 2007-09-13 Shinano Kenshi Co Ltd Presentation data processing apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
윤호섭 외 1인. HMM 인식기 상에서 방향, 속도 및 공간 특징량에 따른 제스처 인식 성능 비교. 정보과학회논문지 : 소프트웨어 및 응용. 2003년 6월, 제30권, 제5호, pp.430-443.*

Also Published As

Publication number Publication date
KR20100099490A (en) 2010-09-13

Similar Documents

Publication Publication Date Title
US10296134B2 (en) Information processor, information processing method, and computer program
US8466934B2 (en) Touchscreen interface
US9575562B2 (en) User interface systems and methods for managing multiple regions
KR101542625B1 (en) Method and apparatus for selecting an object within a user interface by performing a gesture
JP4743267B2 (en) Information processing apparatus, information processing method, and program
KR101541928B1 (en) visual feedback display
EP2972669B1 (en) Depth-based user interface gesture control
US9244544B2 (en) User interface device with touch pad enabling original image to be displayed in reduction within touch-input screen, and input-action processing method and program
KR101809636B1 (en) Remote control of computer devices
US20110037727A1 (en) Touch sensor device and pointing coordinate determination method thereof
KR101646616B1 (en) Apparatus and Method for Controlling Object
US20090289902A1 (en) Proximity sensor device and method with subregion based swipethrough data entry
US20090278812A1 (en) Method and apparatus for control of multiple degrees of freedom of a display
KR20100041006A (en) A user interface controlling method using three dimension multi-touch
US20090288889A1 (en) Proximity sensor device and method with swipethrough data entry
US9778780B2 (en) Method for providing user interface using multi-point touch and apparatus for same
KR20090087270A (en) Method and apparatus for 3d location input
US20130249807A1 (en) Method and apparatus for three-dimensional image rotation on a touch screen
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
WO2012027014A1 (en) Single touch process to achieve dual touch experience field
KR101535738B1 (en) Smart device with touchless controlling operation function and the control method of using the same
KR101598579B1 (en) User interface and method for providing guidance information
CN107368247B (en) Method/system for managing field project, computer readable storage medium and terminal
KR20140101276A (en) Method of displaying menu based on depth information and space gesture of user
KR20140083303A (en) Method for providing user interface using one point touch, and apparatus therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200120

Year of fee payment: 5