KR20100047981A - 오브젝트 실행 방법 및 장치 - Google Patents

오브젝트 실행 방법 및 장치 Download PDF

Info

Publication number
KR20100047981A
KR20100047981A KR1020080106935A KR20080106935A KR20100047981A KR 20100047981 A KR20100047981 A KR 20100047981A KR 1020080106935 A KR1020080106935 A KR 1020080106935A KR 20080106935 A KR20080106935 A KR 20080106935A KR 20100047981 A KR20100047981 A KR 20100047981A
Authority
KR
South Korea
Prior art keywords
pressure value
input
vibration
attribute information
unit
Prior art date
Application number
KR1020080106935A
Other languages
English (en)
Other versions
KR101569176B1 (ko
Inventor
정한철
권오재
신창범
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020080106935A priority Critical patent/KR101569176B1/ko
Priority to US12/569,288 priority patent/US9405367B2/en
Priority to EP09171857.7A priority patent/EP2182421B1/en
Priority to CN200910174901.1A priority patent/CN101727179B/zh
Publication of KR20100047981A publication Critical patent/KR20100047981A/ko
Application granted granted Critical
Publication of KR101569176B1 publication Critical patent/KR101569176B1/ko
Priority to US15/218,779 priority patent/US10409373B2/en
Priority to US16/564,692 priority patent/US10996758B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 오브젝트 실행에 관한 것으로 특히, 상기 오브젝트의 속성정보에 따라 촉각적인 수단에 의해 오브젝트를 실행하는 방법 및 장치에 관한 것이다. 본 발명의 오브젝트를 실행하는 장치는 적어도 하나의 오브젝트를 표시하는 표시부와, 상기 적어도 하나의 오브젝트 중에서 하나의 오브젝트 선택을 요청하고, 사용자로부터 입력된 압력을 감지하는 입력부와, 상기 오브젝트가 선택되면, 선택된 오브젝트의 속성정보에 따라 설정된 압력값을 확인하고, 상기 입력부를 통해 입력된 압력값과 상기 설정된 압력값을 비교하여 상기 선택된 오브젝트의 실행여부를 결정하는 제어부를 포함하며, 상기 입력부는 상기 오브젝트의 압력값에 해당하는 레벨의 진동을 발생하는 진동발생부를 포함한다.
오브젝트, 속성정보, 압력값, 진동발생, 촉각적 피드백

Description

오브젝트 실행 방법 및 장치{Method and Apparatus for executing an object}
본 발명은 오브젝트 실행에 관한 것으로 특히, 상기 오브젝트의 속성정보에 따라 촉각적인 수단에 의해 오브젝트를 실행하는 방법 및 장치에 관한 것이다.
데스크탑 컴퓨터(Desktop Computer), 이동통신 단말기 등 어플리케이션(Application)을 구동하면서 사용자로부터의 선택 입력에 해당하는 기능을 수행하는 전자기기는 일반적으로 선택을 위해 사용자에게 시각적으로 구비하는 기능들을 표시한다. 이러한 전자기기들에서 상기 기능들을 표시하는 방법은 기술의 발전과 사용자 선호의 변화에 따라 텍스트(Text) 기반의 표시에서 시각적인 이미지(Image)나 아이콘(Icon) 기반의 표시로 변화되고 있다.
한편, 텍스트로 구성되는 데이터나 최근 많이 이용되는 음악, 사진, 비디오 등의 멀티미디어 데이터 등 각종 데이터를 포함하는 오브젝트(Object), 예를 들어, 파일(File)이나 폴더(Folder), 또는 이를 표현하는 아이콘 등은 생성되어 저장되는 때에 관련된 속성 정보들과 함께 저장된다. 파일의 속성정보들은 예를 들어 멀티미디어 파일의 경우 생성일시, 파일의 종류, 파일명, 재생시간 등이 있을 수 있다. 이렇게 저장된 속성정보들은 사용자 등에 의해 파일, 폴더, 또는 아이콘이 선택되면 사용자에게 제공되는데, 일반적으로 시각적으로 표시된다. 예를 들어, 컴퓨터의 경우 특정 어플리케이션이 구동되는 때 해당하는 파일들이 표시된다고 가정하고, 표시된 파일들 중에서 하나의 파일이 선택되어 속성정보 표시를 의미하는 동작이 입력되면, 예를 들어, 마우스(Mouse)의 오른쪽 버튼(Button)이 클릭(Click)되면, 상기 선택된 파일의 크기, 이름, 생성날짜 등 상기 선택된 파일의 속성정보가 표시됨으로써 사용자에게 제공된다. 또한 표시된 파일을 실행하고자 하는 경우 선택된 파일에 대해 모든 종류의 파일에 일률적으로 적용되는 동작, 예를 들어, 마우스에서 왼쪽 버튼의 한번 클릭이 입력되면 상기 선택된 파일이 실행된다. 따라서, 상술한 방법에 의하면 사용자는 원하는 파일의 속성정보를 확인하고자 하는 경우 마우스의 오른쪽 버튼을 클릭하여 시각적으로 표시되는 다수의 속성정보들 중에서 원하는 속성정보를 찾아야하고, 또는 설정된 속성정보에 상관없이 동일한 동작에 의해 해당하는 파일을 실행시킨다. 즉, 시각적으로 확인하지 않으면 사용자가 원하는 속성정보를 확인하는 것이 용이하지 않으며 속성정보에 상관없이 동일한 동작에 의해 어느 파일이든지 실행되므로 파일의 속성이 제대로 사용자에게 인식되지 못한다. 따라서, 사용자 만족도 향상을 위해 사용자가 속성정보를 시각적으로 확인하지 않더라도 사용자에게 이에 대한 정보가 제공되며, 상기 속성정보에 따른 실행동작에 의해 선택된 오브젝트가 실행되도록 하는 방안이 요구된다.
따라서 이를 위해 본 발명은 속성정보에 따라 오브젝트를 실행하는 방법 및 장치를 제공한다.
본 발명의 바람직한 실시예의 일 견지에 따르면, 본 발명의 오브젝트를 실행하는 장치는 적어도 하나의 오브젝트를 표시하는 표시부와, 상기 적어도 하나의 오브젝트 중에서 하나의 오브젝트 선택을 요청하고, 사용자로부터 입력된 압력을 감지하는 입력부와, 상기 오브젝트가 선택되면, 선택된 오브젝트의 속성정보에 따라 설정된 압력값을 확인하고, 상기 입력부를 통해 입력된 압력값과 상기 설정된 압력값을 비교하여 상기 선택된 오브젝트의 실행여부를 결정하는 제어부를 포함한다. 상기 입력부는 상기 오브젝트의 압력값에 해당하는 레벨의 진동을 발생하는 진동발생부를 포함한다.
본 발명의 바람직한 실시예의 다른 견지에 따르면, 본 발명의 오브젝트 실행방법은 오브젝트의 선택이 요청되는 과정과, 상기 선택된 오브젝트의 속성정보에 따라 설정된 압력값을 확인하는 과정과, 상기 오브젝트의 실행을 요청하는 압력이 입력되면, 상기 설정된 압력값 및 상기 입력된 압력의 압력값을 비교하는 과정과, 비교 후 상기 입력된 압력값이 상기 설정된 압력값 이상이면 상기 오브젝트를 실행하는 과정을 포함한다.
전술한 바와 같은 내용들은 당해 분야 통상의 지식을 가진 자가 후술되는 본 발명의 구체적인 설명으로부터 보다 잘 이해할 수 있도록 하기 위하여 본 발명의 특징들 및 기술적인 장점들을 다소 넓게 약술한 것이다. 이러한 특징들 및 장점들 이외에도 본 발명의 청구범위의 주제를 형성하는 본 발명의 추가적인 특징들 및 장점들이 후술되는 본 발명의 구체적인 설명으로부터 잘 이해될 것이다.
본 발명은 시각적인 정보뿐만 아니라 촉각적인 피드백을 통하여 직관적이고 효율적인 사용자 인터페이스(User Interface)를 구성할 수 있는 이점이 있다. 또한 본 발명은 오브젝트의 속성정보에 따라 압력값이 설정되어 시각적으로 확인하지 않더라도 사용자가 촉각적으로 상기 오브젝트의 속성정보를 확인할 수 있다. 오브젝트 속성정보에 따른 촉각적인 피드백 또는 촉각적인 실행요청이라는 새로운 형태(Modality)의 인터페이스로 인해 사용자 만족도를 향상시킬 수 있다. 또한, 오브젝트에 설정된 압력값에 따라 오브젝트 실행여부를 결정할 수 있기 때문에 중요한 오브젝트 실행의 실수를 감소시킬 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.
오브젝트 예를 들어, 파일이나 폴더, 또는 이를 표현하는 아이콘 등의 속성정보에 따라 설정된 정보, 예를 들어 압력값 정보를 사용자에게 제공하고, 이에 상응하는 입력 예를 들어, 압력이 입력되면 상기 오브젝트를 실행하는 과정을 이하 도면들을 참조하여 설명한다. 이하 설명의 편의를 위하여 속성정보에 따라 설정된 정보는 압력값 정보로 예를 들어 설명하며, 이러한 압력값 정보는 해당하는 진동을 발생함으로써 사용자에게 제공되는 경우를 예로 들어 설명한다. 본 발명을 설명하기에 앞서서 본 발명에서 사용되는 용어를 정의한다.
이하에서 사용되는 '오브젝트(Object)'는 전자기기의 표시부를 통하여 표시되는 데이터 및 기능, 상기 데이터 또는 기능을 포함하는 파일, 폴더, 또는 이를 표현하는 아이콘뿐만 아니라 상기 표시부를 통하여 표시되지 않는 기능 등 어떠한 정보를 포함하는 모든 것을 통칭한다.
'속성정보(Attribute)'는 데이터의 표현 또는 데이터의 신속한 탐색을 위해 일정한 규칙에 따라 상기 데이터에 부여되는 데이터를 의미하며, 예를 들어 상기 데이터가 특정 데이터를 포함하는 파일의 경우 생성일시, 파일의 종류, 파일명, 중요도 등이 있을 수 있다. 또한 본 발명의 오브젝트는 속성정보를 가지며, 특정 어플리케이션 구동시 상기 특정 어플리케이션에 해당하는 모든 오브젝트들에 공통으로 포함되는 속성정보에 따라 오브젝트에 압력값이 설정될 수 있다.
본 발명의 오브젝트를 실행하는 장치는 하나의 장치에 의해 오브젝트를 실행할 수 있고, 또는 입력장치가 별도의 장치로 구비되어 오브젝트 실행할 수 있다. 먼저 도 1은 입력장치가 별도의 장치로 구비되어 오브젝트를 실행하는 장치를 도시한다.
도 1은 본 발명의 일실시예에 따른 오브젝트를 실행하는 장치를 도시하는 블록도이다.
도 1을 참조하면, 어플리케이션을 구비하며 오프젝트들을 실행하는 호스트(Host) 장치(100)는 제어부(110), 표시부(120), 저장부(130)를 포함하고, 사용자 등으로부터의 입력을 수신하고, 속성정보를 촉각적으로 사용자에게 제공하는 입력장치(101)는 입력제어부(140), 압력감지부(150), 진동발생부(160)를 포함한다. 상기 호스트 장치(100) 및 입력장치(101)는 본 발명의 오브젝트를 실행하기 위해 요구되는 구성요소들을 도시한 것이며, 다른 기능 실행을 위해 도 1에 도시된 구성요소들 이외에도 다른 구성요소들이 추가로 구성될 수 있음은 물론이다. 또한, 무선으로 호스트 장치(100)와 입력장치(101)간에 통신하는 경우 호스트 장치(100) 및 입력장치(101)에 무선 통신을 위한 무선통신부가 추가로 구성될 수 있다. 여기에서 호스트 장치(100) 및 입력장치(101)는 예를 들어, 각각 컴퓨터 및 마우스, 또는 인터넷 프로토콜(Internet Protocol: IP) 텔레비전(TV) 및 리모콘(Remote control)이 될 수 있으며, 상기 호스트 장치(100)는 데스크탑 컴퓨터(Desktop Computer), 랩탑 컴퓨터(Laptop Computer), IPTV, 이동통신 단말기, 스마트폰(Smart Phone) 등 오브젝트를 포함하고 이를 실행하는 모든 장치가 될 수 있다.
제어부(110)는 호스트 장치(100)의 전반적인 동작을 제어한다. 특히, 제어부(110)는 오브젝트에 압력값을 특정 속성정보에 따라 자동으로 또는 사용자로부터 의 입력에 따라 설정하고, 입력장치(101)로부터 오브젝트 선택 신호를 수신하면 선택된 오브젝트에 설정된 압력값을 확인한 후 상기 압력값이 대응하는 진동값 정보를 입력장치(101)로 전송하고, 입력장치(101)로부터 압력이 입력되고 상기 입력된 압력의 압력값이 상기 설정된 압력값이상이면 상기 선택된 오브젝트를 실행한다.
이를 위해 제어부(110)는 속성정보 확인부(112) 및 압력값 변환부(114)를 포함할 수 있다. 속성정보 확인부(112)는 오브젝트에 설정된 압력값을 확인하고, 입력된 압력값과 오브젝트에 설정된 압력값이상인지 확인한다. 압력값 변환부(114)는 입력장치(101)로부터 입력된 압력을 오브젝트에 설정된 압력값으로 변환하고, 속성정보에 따라 오브젝트에 설정된 압력값에 해당하는 촉각적 피드백(Feedback), 예를 들어, 진동발생을 위해 진동값으로 변환한다. 표시부(120)는 호스트 장치(100)의 상태 및 프로그램 수행 중에 발생하는 화면 데이터를 표시하고, 포인터(Pointer)를 포함한 사용자 등에 의한 입력장치의 조작 상태를 표시한다. 이때, 표시부(120)는 액정 크리스탈 디스플레이(Liquid Crystal Display, 이하 'LCD'로 칭함)로 구현될 수 있으며, LCD 제어부, 표시 데이터를 저장할 수 있는 메모리 및 LCD 표시소자 등을 구비할 수 있다. 저장부(130)는 프로그램 메모리 및 데이터 메모리로 구성될 수 있다. 프로그램 메모리에는 호스트 장치(100)의 일반적인 동작을 제어하기 위한 프로그램들을 저장할 수 있다. 데이터 메모리에는 상기 프로그램들을 수행하는 중에 발생되는 데이터를 일시 저장하거나 외부로부터 입력되는 데이터 및 프로그램 수행 중에 발생되는 데이터를 저장한다. 또한, 데이터 메모리에는 오브젝트에 설정된 속성정보 및 속성정보에 따른 압력값, 각 압력값에 해당하는 진동값에 대한 정보가 저장될 수 있다.
입력제어부(140)는 입력장치(101)의 동작을 제어하며, 사용자 등으로부터 압력감지부(150)를 통해 입력되는 압력을 호스트 장치(100)의 제어부(110)로 전송하고, 제어부(110)로부터 전송되는 진동값에 따라 진동발생부(160)에 의해 진동 발생을 제어한다. 압력감지부(150)는 힘센서(Force sensor)와 같은 압력을 감지하는 센서를 구비하며 사용자 등으로부터 입력되는 압력을 감지한다. 진동발생부(160)는 진동모터(Actuator)와 같은 진동을 발생하는 장치를 구비하며 진동을 발생시킨다.
호스트 장치(100) 및 입력장치(101)에 의해 오브젝트를 실행하는 예를 도 2 및 도 3을 참조하여 자세하게 설명한다.
도 2는 본 발명의 일실시예에 따라 분리된 호스트 장치와 입력장치에 의해 오브젝트를 실행하는 예를 도시하는 예시도이다. 도 2의 화면(201)은 도 1의 호스트 장치(100)의 표시부(120)에 오브젝트들이 표시된 예이고, 마우스(202)는 입력장치(101)의 예를 도시하는 예이다.
도 2를 참조하면, 화면(201)에 표시된 오브젝트들(211 내지 215)은 '탐색기'어플리케이션을 구동시 표시되는 오브젝트들이라고 가정한다. 구체적으로 오브젝트, 영화폴더(211)는 영화에 관련된 파일들을 포함하는 폴더이고, 속성정보인 중요도에 따라 낮은 중요도를 가지는 것으로 가정하여 영화폴더(211)는 1의 압력값이 '1'(221)과 같이 설정될 수 있다. 도 2의 화면(201)에서는 설명의 편의를 위해 오브젝트들에 설정된 압력값들(221 내지 225)이 표시되는 것으로 도시하였으나, 압력값들(221 내지 225)은 표시되지 않을 수 있다. 오브젝트, 음악폴더(212)는 음악에 관련된 파일들을 포함하는 폴더이고, 낮은 중요도를 가지는 것으로 가정하여 음악폴더(211)는 1의 압력값이 '1'(222)과 같이 설정될 수 있다. 여기에서 음악폴더(212)는 마우스(202)로부터의 입력에 의해 포인터(230)가 위치하는 폴더이다. 사용자는 마우스(202) 조작에 의해 포인터(230)를 이동시킴으로써 상기 포인터가 위치하는 영역에 존재하는 오브젝트를 선택할 수 있다. 또한 선택된 오브젝트는 다른 비선택된 오브젝트들과 다르게 표시될 수 있으며, 예를 들어, 화면(201)의 음악폴더(212)와 같이 주변의 오브젝트들(211 및 213)보다 위로 올려진 형태로 표시될 수 있다.
오브젝트, 금융폴더(213)는 금융에 관련된 데이터 및/또는 파일들을 포함하는 폴더이고, 높은 중요도를 가지는 것으로 가정하여 금융폴더(213)는 3의 압력값이 '3'(223)과 같이 설정될 수 있다. 오브젝트, 일정폴더(214)는 사용자의 스케쥴(Schedule)에 관련된 데이터 및/또는 파일들을 포함하는 폴더이고, 중간적인 중요도를 가지는 것으로 가정하여 일정폴더(214)는 2의 압력값이 '2'(224)와 같이 설정될 수 있다. 오브젝트, 여행폴더(215)는 여행에 관련된 파일들을 포함하는 폴더이고, 낮은 중요도를 가지는 것으로 가정하여 여행폴더(215)는 1의 압력값이 '1'(225)과 같이 설정될 수 있다. 여기에서 탐색 어플리케이션에 해당하는 오브젝트들은 '생성일시', '종류', '크기', '내용', '중요도' 등 다수의 속성정보를 포함하며, 상기 다수의 속성정보들 중에서 '중요도'에 의해 분류되어 분류된 레벨에 따라 압력값이 설정된 것으로 가정하여 설명하였으나, '중요도' 속성정보 이외의 다른 속성정보에 의해 분류되어 압력값이 설정될 수 있음은 물론이다. 예를 들어, 오 브젝트가 멀티미디어 파일인 경우 상기 파일에 포함된 멀티미디어 데이터의 재생 시간 또는 멀티미디어 데이터의 크기에 따라 분류되어 압력값이 설정될 수 있다. 또한, 중요도의 분류 레벨도 낮은 등급, 중간 등급, 높은 등급의 3단계로 분류되는 것으로 가정하여 낮은 등급에 '1'이, 중간 등급에 '2'가, 높은 등급에 '3'이 각각 할당된 경우를 가정하여 설명하였다. 그러나 이러한 분류 레벨은 3단계 이외에도 다양하게 변경될 수 있음은 물론이다. 분류 레벨에 따라 압력값 설정은 해당하는 속성정보에 따라 자동으로 압력값이 설정될 수 있고, 또는 사용자 등에 의해 수동으로 오브젝트에 압력값을 설정할 수 있다. 본 발명에서는 설명의 편의를 위하여 분류 기준이 되는 속성정보에 따라 자동으로 압력값이 설정되는 것으로 가정하여 설명한다.
화면(201)과 같이 오브젝트 즉, 음악폴더(212)에 포인터(230)가 위치함으로써 음악폴더(212)가 선택되는 경우 도 1의 제어부(110), 특히 속성정보 확인부(112)는 음악폴더(212)에 설정된 압력값 '1'을 확인한다. 속성정보 확인부(112)가 압력값을 확인하면 압력값 변환부(114)는 상기 압력값 '1'에 대응되는 '약한 진동'에 해당하는 진동값으로 변환한다. 이렇게 변환된 진동값이 제어부(110)로부터 마우스(202) 특히, 입력제어부(140)로 전달되면, 진동발생부(160)에 의해 '약한 진동'에 해당하는 진동이 발생된다. 여기에서 진동값은 속성정보의 분류 레벨에 따라 '약한 진동', '중간 진동', '강한 진동'의 3단계로 분류되는 것으로 가정하며, 각 단계에 해당하는 진동 발생은 진동모터에 따라 다르게 설정될 수 있다. 예를 들어, 전압에 따라 '약한 진동'은 0.5볼트(Volt: v)의 전압에 의한 진동을, '중간 진동' 은 1v의 전압에 의한 진동을, '강한 진동'은 2v의 전압에 의한 진동을 발생시키거나, 진동발생 시간에 따라 '약한 진동'은 0.1초 동안, '중간 진동'은 1초 동안, '강한 진동'은 3초 동안 진동을 발생시키는 것이 있을 수 있다. 본 발명에서는 진동발생 시간에 따라 각 단계에 해당하는 진동이 발생되는 것으로 가정한다. 이렇게 분류된 단계에 따라 발생되는 진동 강도를 느낌으로써 사용자에 의해 선택된 오브젝트에 설정된 속성정보를 촉각적으로 확인할 수 있다.
또한, 화면(201)에서 압력값 '1'로 설정된 오브젝트들 즉, 영화폴더(211), 음악폴더(212)를 실행하기 위하여 사용자로부터 마우스(202)에 의해 입력되어야 하는 압력은 입력값 '2' 또는 입력값 '3'으로 설정된 오브젝트들 즉, 금융폴더(213), 일정폴더(214), 여행폴더(215)를 실행하기 위하여 사용자로부터 마우스(202)에 의해 입력되어야 하는 압력보다 작다. 즉, 설정된 3단계의 압력레벨을 고려할 때, 압력값 '1'로 설정된 오브젝트들은 약한 압력입력으로 해당 오브젝트의 실행이 가능하지만, 압력값 '3'으로 설정된 오브젝트들은 강한 압력이 입력된 경우에만 해당 오브젝트의 실행이 가능하다. 이때 압력레벨에 따른 압력값은 입력장치(101)의 압력감지부(150)에 구비된 힘센서에 따라 미리 설정된다. 또한, 오브젝트 실행을 위해 일정시간 동안 압력값을 입력하는 실행이 요청되는 경우 실행되는 오브젝트의 압력값이 일정시간동안 유지되어 입력되어야 상기 오브젝트가 성공적으로 실행된다. 예를 들어, 일정폴더(214)에 포함된 파일들을 여행폴더(215)로 이동시키고자 드래그 앤 드롭(Drag and Drop)이 요청되는 경우 상기 설정된 압력값이상인 압력값이 상기 오프젝트의 이동 실행시간동안 입력장치(101)를 통해 입력되어야 한다. 만 약 입력되는 압력값이 상기 설정된 압력값보다 작으면 상기 일정폴더(214)로부터 여행폴더(215)로의 이동이 중지된다.
도 3은 본 발명의 다른 일실시예에 따라 분리된 호스트 장치와 입력장치에 의해 오브젝트를 실행하는 예를 도시하는 예시도이다.
도 3을 참조하면, 도 2의 화면(201)에서 음악 폴더(212)가 선택되어 화면(302)과 같이 음악 폴더에 해당하는 폴더들('팝송', '가요')이 표시된 상태에서 사용자 등에 의해 입력장치(302)로부터 '가요' 폴더의 삭제가 요청된 경우 삭제 확인을 요청하는 팝업(Popup)(310)이 표시될 수 있다. 여기에서 오브젝트들, '예'(311) 및 '아니오'(312)는 선택된 '가요' 폴더의 삭제여부를 지시하는 오브젝트들로서 삭제를 지시하는 오브젝트, '예'(311)가 취소를 지시하는 오브젝트, '아니오'(312)에 비해 높은 중요도로 분류될 수 있다. 따라서, 오브젝트, '예'(311)는 압력값 '3'이 설정되고, 오브젝트, '아니오'(312)는 압력값 '1'이 설정된다. 이렇게 압력값이 '3'으로 설정된 오브젝트, '예'(311)를 실행시키기 위하여 사용자로부터 마우스(302)를 통해 입력되는 압력은 압력값이 '1'로 설정된 오브젝트, '아니오'(312)를 실행시키기 위하여 입력되는 압력보다 강한 압력이 입력되어야한다. 이때 도 2의 포인터(230)를 이용하여 해당 오브젝트, '예'(311) 또는 오브젝트, '아니오'(312) 상에 포인터를 위치시키면 해당하는 오브젝트에 설정된 압력값에 따른 진동이 마우스(302)를 통해 사용자에게 전달될 수 있다. 또한, 포인터가 해당하는 오브젝트, '예'(311) 또는 오브젝트, '아니오'(312) 상에 위치한 후 마우스(302)를 통해 사용자로부터 위치된 오브젝트에 설정된 압력값에 상응하는 압력이 입력되면 상기 오브젝트가 실행된다. 여기에서 압력의 강도는 마우스(302)에 구비된 힘센서를 고려하여 미리 정해진다.
상술한 바와 같은 속성정보에 따른 진동 발생 또는 해당 압력에 의한 오브젝트 실행에 대해 도 4를 참조하여 자세하게 설명한다.
도 4는 본 발명의 일실시예에 따라 오브젝트를 실행하는 과정을 도시하는 흐름도이다.
도 4를 참조하면, 도 1의 제어부(110)는 405 단계에서 사용자로부터의 입력에 따라 특정 어플리케이션을 실행하고 상기 특정 어플리케이션에 해당하는 다수의 오브젝트를 표시부(120)에 표시한다. 제어부(110)는 410 단계에서 입력장치(101)로부터 입력되는 신호에 따라 표시부(120)에 표시된 오브젝트들 중에서 하나의 오브젝트가 선택되는지 즉, 하나의 오브젝트 상에 포인터가 위치하는지 확인한다. 하나의 오브젝트가 선택되면, 415 단계에서 제어부(110), 특히 속성정보 확인부(112)는 상기 선택된 오브젝트에 설정된 압력값을 확인한다. 하나의 오브젝트가 선택되지 않으면 405 단계로 되돌아간다.
420 단계에서 제어부(110)는 입력장치(101)로부터 압력이 입력되는지 확인한다. 압력이 입력되면 제어부(110)는 440 단계로 진행하고, 압력이 입력되지 않으면 425 단계에서 제어부(110) 특히, 압력값 변환부(114)는 확인된 압력값을 이에 대응하는 진동값으로 변환한다. 430 단계에서 제어부(110)는 변환된 진동값을 진동발생을 위해 입력장치(101)로 전송한다. 435 단계에서 제어부(110)는 입력장치(101)로부터 상기 오브젝트로부터 이동을 지시하는 신호가 입력되는지 즉, 선택된 오브젝 트 상에 위치한 포인터의 이동이 있는지 확인한다. 포인터의 이동이 있으면, 제어부(110)는 410 단계로 되돌아간다.
압력이 입력되지 않으면, 440 단계에서 제어부(110)는 입력된 압력값을 확인한다. 여기에서 압력값은 입력장치(101)로부터 호스트 장치(100)로 입력되는 압력입력값을 압력값 변환부(114)에서 압력값으로 변환함으로써 확인될 수 있다. 445 단계에서 속성정보 확인부(112)는 상기 선택된 오브젝트에 설정된 압력값과 입력장치(101)로부터 입력된 압력값을 확인한다. 상기 입력된 압력값이 상기 설정된 압력값 이상이면 450 단계에서 제어부(110)는 상기 선택된 오브젝트를 실행한다. 이때 오브젝트 실행을 위해 일정시간 동안 압력값을 입력하는 실행요청이 입력되는 경우, 예를 들어 드래그 앤 드롭(Drag and Drop)이 요청되면, 제어부(110)는 입력되는 압력값이 상기 설정된 압력값을 유지하는지 확인하는 과정을 더 수행할 수 있다. 상기 입력된 압력값이 상기 설정된 압력값보다 작으면 제어부(110)는 435 단계로 진행한다.
다음으로 하나의 장치에 의해 오브젝트가 실행되는 예를 도 5를 참조하여 설명한다.
도 5는 본 발명의 다른 실시예에 따른 오브젝트를 실행하는 장치를 도시하는 블록도이다.
도 5를 참조하면, 단말기(500)는 터치스크린(Touch Screen)(510), 제어부(520), 진동발생부(530), 저장부(540)를 포함한다. 터치스크린(510)은 표시부(512)와 입력부(514)를 구비할 수 있다. 터치스크린(510)은 표시부와 입력부의 기능을 포함하며 키 또는 버튼(Button) 누름 등에 의한 입력이 아닌 표시부 화면에 접촉되는 터치(Touch)를 감지함으로써 입력을 수신한다. 이때 터치스크린(510)은 사용자 등에 의해 표시부 화면에 접촉되는 하나 이상의 터치를 감지할 수 있다. 표시부(512)는 단말기(500)의 상태 및 프로그램 수행 중에 발생하는 화면 데이터를 표시하고, 사용자 등에 의한 입력 상태를 표시한다. 이때, 표시부(512)는 액정 크리스탈 디스플레이(Liquid Crystal Display, 이하 'LCD'로 칭함)로 구현될 수 있으며, LCD 제어부, 표시 데이터를 저장할 수 있는 메모리 및 LCD 표시소자 등을 구비할 수 있다. 입력부(514)는 표시부(512)에 장착될 수 있으며, 사용자로부터의 수신된 입력에 해당하는 신호를 발생한다. 즉, 입력부(514)는 사용자의 조작신호가 터치스크린(510)에 입력되는 입력 이벤트(Event)가 발생하면, 그에 따른 물리량(예컨대, 저항, 정전용량 등)의 변화를 검출하여 입력 이벤트의 발생을 감지하는 터치 감지모듈(도시되지 않음)과, 입력 이벤트에 따른 물리량의 변화를 디지털 신호로 변환하는 신호변환 모듈(도시되지 않음)을 구비할 수 있다. 신호변환 모듈은 물리량의 변화로 발생된 입력 이벤트가 터치 이벤트인지 드래그(Drag) 이벤트인지 등을 판단하며 터치 감지모듈에 의해 감지된 입력 이벤트의 발생 좌표를 감지한다. 또한 입력부(514)는 사용자 등으로부터 압력감지부(516)를 통해 입력되는 압력을 감지하여 제어부(520)로 전송한다. 압력감지부(516)는 힘센서(Force sensor)와 같은 압력을 감지하는 센서를 구비하며 사용자 등으로부터 입력되는 압력을 감지한다.
제어부(520)는 단말기(500)의 전반적인 동작을 제어한다. 특히, 제어부(520)는 오브젝트에 압력값을 특정 속성정보에 따라 자동으로 또는 사용자로부터의 입력 에 따라 설정하고, 입력부(514)로부터 오브젝트 선택 신호를 수신하면 선택된 오브젝트에 설정된 압력값을 확인한 후 상기 압력값이 대응하는 진동값 정보를 진동발생부(530)로 전송하고, 입력부(514)로부터 입력된 압력값이 상기 설정된 압력값이상이면 상기 선택된 오브젝트를 실행한다. 이를 위해 제어부(520)는 속성정보 확인부(522) 및 압력값 변환부(524)를 포함할 수 있다. 속성정보 확인부(522)는 오브젝트에 설정된 압력값을 확인하고, 입력된 압력값과 오브젝트에 설정된 압력값이상인지 확인한다. 압력값 변환부(524)는 입력부(514)로부터 입력된 압력을 오브젝트에 설정된 압력값으로 변환하고, 속성정보에 따라 오브젝트에 설정된 압력값에 해당하는 진동발생을 위해 진동값으로 변환한다.
진동발생부(530)는 진동모터(Actuator)와 같은 진동을 발생하는 장치를 구비하며 제어부(520)의 제어 하에 해당 레벨의 진동을 발생시킨다. 저장부(540)는 프로그램 메모리 및 데이터 메모리로 구성될 수 있다. 프로그램 메모리에는 단말기(500)의 일반적인 동작을 제어하기 위한 프로그램들을 저장할 수 있다. 데이터 메모리에는 상기 프로그램들을 수행하는 중에 발생되는 데이터를 일시 저장하거나 외부로부터 입력되는 데이터 및 프로그램 수행 중에 발생되는 데이터를 저장한다. 또한, 데이터 메모리에는 오브젝트에 설정된 속성정보 및 속성정보에 따른 압력값, 각 압력값에 해당하는 진동값에 대한 정보가 저장될 수 있다.
상기 단말기(500)는 본 발명의 오브젝트를 실행하기 위해 요구되는 구성요소들을 도시한 것이며, 다른 기능 실행을 위해 도 5에 도시된 구성요소들 이외에도 다른 구성요소들이 추가로 구성될 수 있음은 물론이다. 여기에서 단말기(500)는 통 신 단말기, 개인용 휴대 단말기(Personal Data Assistance: PDA), 스마트폰 등 입력부를 별도로 구비하지 않는 모든 단말기가 될 수 있다.
도 6은 본 발명의 다른 실시예에 따라 입력부를 포함하는 장치에 의한 오브젝트를 실행하는 예를 도시하는 예시도이다. 도 6의 화면(601)은 도 5의 단말기(500)의 표시부(512)에 오브젝트들이 표시된 예이다.
도 6을 참조하면, 화면(601)에 표시된 오브젝트들(611 내지 613)은 도 2에서와 같이 '탐색기'어플리케이션을 구동시 표시되는 오브젝트들이라고 가정한다. 구체적으로 오브젝트, 영화폴더(611)는 영화에 관련된 파일들을 포함하는 폴더이고, 속성정보인 중요도에 따라 낮은 중요도를 가지는 것으로 가정하여 영화폴더(611)는 1의 압력값이 '1'(621)과 같이 설정될 수 있다. 도 6의 화면(601)에서는 설명의 편의를 위해 오브젝트들에 설정된 압력값들(621 내지 623)이 표시되는 것으로 도시하였으나, 압력값들(621 내지 623)은 표시되지 않을 수 있다. 오브젝트, 음악폴더(612)는 음악에 관련된 파일들을 포함하는 폴더이고, 낮은 중요도를 가지는 것으로 가정하여 음악폴더(611)는 1의 압력값이 '1'(622)과 같이 설정될 수 있다. 여기에서 음악폴더(212)가 위치하는 영역에 사용자의 손가락 일부분(612)이 표시부(512)의 화면(601)에 터치함으로써 상기 음악폴더(212)가 선택된 것으로 가정한다. 즉, 사용자는 신체 일부분(602)을 표시부(512)에 터치함으로써 터치된 영역에 위치하는 오브젝트를 선택할 수 있다. 또한 선택된 오브젝트는 다른 비선택된 오브젝트들과 다르게 표시될 수 있으며, 예를 들어, 화면(601)의 음악폴더(612)와 같이 주변의 오브젝트들(611 및 613)보다 위로 올려진 형태로 표시될 수 있다. 오브젝 트, 금융폴더(613)는 금융에 관련된 데이터 및/또는 파일들을 포함하는 폴더이고, 높은 중요도를 가지는 것으로 가정하여 금융폴더(613)는 3의 압력값이 '3'(623)과 같이 설정될 수 있다.
여기에서 탐색 어플리케이션에 해당하는 오브젝트들은 '생성일시', '종류', '크기', '내용', '중요도' 등 다수의 속성정보를 포함하며, 상기 다수의 속성정보들 중에서 '중요도'에 의해 분류되어 분류된 레벨에 따라 압력값이 설정된 것으로 가정하여 설명하였으나, '중요도' 속성정보 이외의 다른 속성정보에 의해 분류되어 압력값이 설정될 수 있음은 물론이다. 예를 들어, 오브젝트가 멀티미디어 파일인 경우 상기 파일에 포함된 멀티미디어 데이터의 재생 시간 또는 멀티미디어 데이터의 크기에 따라 분류되어 압력값이 설정될 수 있다. 또한, 중요도의 분류 레벨도 낮은 등급, 중간 등급, 높은 등급의 3단계로 분류되는 것으로 가정하여 낮은 등급에 '1'이, 중간 등급에 '2'가, 높은 등급에 '3'이 각각 할당된 경우를 가정하여 설명하였다. 그러나 이러한 분류 레벨은 3단계 이외에도 다양하게 변경될 수 있음은 물론이다. 분류 레벨에 따라 압력값 설정은 해당하는 속성정보에 따라 자동으로 압력값이 설정될 수 있고, 또는 사용자 등에 의해 수동으로 오브젝트에 압력값을 설정할 수 있다. 본 발명에서는 설명의 편의를 위하여 분류 기준이 되는 속성정보에 따라 자동으로 압력값이 설정되는 것으로 가정하여 설명한다.
화면(601)과 같이 오브젝트 즉, 음악폴더(612)가 위치하는 영역에 사용자의 손가락(602)이 표시부(512)에 터치함으로써 음악폴더(612)가 선택되는 경우 도 5의 제어부(520), 특히 속성정보 확인부(522)는 음악폴더(612)에 설정된 압력값 '1'을 확인한다. 속성정보 확인부(522)가 압력값을 확인하면 압력값 변환부(524)는 상기 압력값 '1'에 대응되는 '약한 진동'에 해당하는 진동값으로 변환한다. 이렇게 변환된 진동값이 제어부(520)의 제어하에 진동발생부(530)에 의해 '약한 진동'에 해당하는 진동이 발생된다. 여기에서 진동값은 속성정보의 분류 레벨에 따라 '약한 진동', '중간 진동', '강한 진동'의 3단계로 분류되는 것으로 가정하며, 각 단계에 해당하는 진동 발생은 진동모터에 따라 다르게 설정될 수 있다. 예를 들어, 전압에 따라 '약한 진동'은 0.5볼트(Volt: v)의 전압에 의한 진동을, '중간 진동'은 1v의 전압에 의한 진동을, '강한 진동'은 2v의 전압에 의한 진동을 발생시키거나, 진동발생 시간에 따라 '약한 진동'은 0.1초 동안, '중간 진동'은 1초 동안, '강한 진동'은 3초 동안 진동을 발생시키는 것이 있을 수 있다. 본 발명에서는 진동발생 시간에 따라 각 단계에 해당하는 진동이 발생되는 것으로 가정한다. 이렇게 분류된 단계에 따라 발생되는 진동 강도를 느낌으로써 사용자에 의해 선택된 오브젝트에 설정된 속성정보를 촉각적으로 확인할 수 있다.
또한, 화면(601)에서 압력값 '1'로 설정된 오브젝트들 즉, 영화폴더(611), 음악폴더(612)를 실행하기 위하여 사용자에 의한 터치에 의해 입력되어야 하는 압력은 입력값 '3'으로 설정된 오브젝트 즉, 금융폴더(613)를 실행하기 위하여 사용자로부터 입력되어야 하는 압력보다 작다. 즉, 설정된 3단계의 압력레벨을 고려할 때, 압력값 '1'로 설정된 오브젝트들은 약한 압력 입력으로 해당 오브젝트의 실행이 가능하지만, 압력값 '3'으로 설정된 오브젝트는 강한 압력이 입력된 경우에만 해당 오브젝트의 실행이 가능하다. 이때 압력레벨에 따른 압력값은 압력감지 부(516)에 구비된 힘센서에 따라 미리 설정된다. 여기에서 사용자로부터 입력되는 압력은 사용자의 손가락 등(602)에 의해 표시부(512)가 압력되는 정도를 입력감지부(516)에 감지된 힘센서가 감지함으로써 측정될 수 있다. 또한, 오브젝트 실행을 위해 일정시간 동안 압력값을 입력하는 실행이 요청되는 경우 실행되는 오브젝트의 압력값이 일정시간동안 유지되어 입력되어야 상기 오브젝트가 성공적으로 실행된다.
상술한 바와 같은 입력부를 구비한 단말기에 의해 오브젝트를 실행하는 과정은 도 4와 같은 과정을 통해 실행되므로 자세한 설명은 생략한다.
한편 본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것을 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
도 1은 본 발명의 일실시예에 따른 오브젝트를 실행하는 장치를 도시하는 블록도.
도 2는 본 발명의 일실시예에 따라 분리된 호스트 장치와 입력장치에 의해 오브젝트를 실행하는 예를 도시하는 예시도.
도 3은 본 발명의 다른 일실시예에 따라 분리된 호스트 장치와 입력장치에 의해 오브젝트를 실행하는 예를 도시하는 예시도.
도 4는 본 발명의 일실시예에 따라 오브젝트를 실행하는 과정을 도시하는 흐름도.
도 5는 본 발명의 다른 실시예에 따른 오브젝트를 실행하는 장치를 도시하는 블록도.
도 6은 본 발명의 다른 실시예에 따라 입력부를 포함하는 장치에 의한 오브젝트를 실행하는 예를 도시하는 예시도.

Claims (14)

  1. 오브젝트의 선택이 요청되는 과정과,
    상기 선택된 오브젝트의 속성정보에 따라 설정된 압력값을 확인하는 과정과,
    상기 오브젝트의 실행을 요청하는 압력이 입력되면, 상기 설정된 압력값 및 상기 입력된 압력의 압력값을 비교하는 과정과,
    비교 후 상기 입력된 압력값이 상기 설정된 압력값 이상이면 상기 오브젝트를 실행하는 과정을 포함함을 특징으로 하는 오브젝트 실행방법.
  2. 제 1항에 있어서,
    상기 압력값 확인후 상기 압력값에 해당하는 레벨의 진동을 발생하는 과정을 더 포함함을 특징으로 하는 오브젝트 실행방법.
  3. 제 1항에 있어서, 상기 속성정보는,
    상기 오브젝트의 크기, 중요도, 파일 개수, 실행시간 중의 어느 하나임을 특징으로 하는 오브젝트 실행방법.
  4. 제 1항에 있어서,
    상기 실행이 드래그 앤 드롭(Drag & Drop)에 의한 상기 오브젝트의 이동인 경우, 드래그 동안 입력되는 압력값과 상기 설정된 압력값을 비교하는 과정과,
    상기 입력된 압력값이 상기 설정된 압력값보다 작으면 상기 오브젝트 실행을 중지하는 과정을 더 포함함을 특징으로 하는 오브젝트 실행방법.
  5. 오브젝트를 실행하는 장치에 있어서,
    적어도 하나의 오브젝트를 표시하는 표시부와,
    상기 적어도 하나의 오브젝트 중에서 하나의 오브젝트 선택을 요청하고, 사용자로부터 입력된 압력을 감지하는 입력부와,
    상기 오브젝트가 선택되면, 선택된 오브젝트의 속성정보에 따라 설정된 압력값을 확인하고, 상기 입력부를 통해 입력된 압력값과 상기 설정된 압력값을 비교하여 상기 선택된 오브젝트의 실행여부를 결정하는 제어부를 포함함을 특징으로 하는 오브젝트 실행 장치.
  6. 제 5항에 있어서, 상기 제어부는,
    상기 입력된 압력값이 상기 설정된 압력값 이상이면 상기 오브젝트를 실행하는 과정을 포함함을 특징으로 하는 오브젝트 실행장치.
  7. 제 5항에 있어서, 상기 입력부는,
    상기 오브젝트의 압력값에 해당하는 레벨의 진동을 발생하는 진동발생부를 더 포함함을 특징으로 하는 오브젝트 실행장치.
  8. 제 5항에 있어서, 상기 속성정보는,
    상기 오브젝트의 크기, 중요도, 파일 개수, 실행시간 중의 어느 하나임을 특징으로 하는 오브젝트 실행장치.
  9. 제 5항에 있어서,
    상기 표시부 및 상기 제어부는 호스트 장치를 구성함을 특징으로 하는 오브젝트 실행장치.
  10. 제 9항에 있어서, 상기 호스트 장치는 양방향 통신 가능 텔레비전, 컴퓨터, 및 통신단말기 중 어느 하나이고, 상기 입력부는 마우스, 리모콘 중 어느 하나임을 특징으로 하는 오브젝트 실행장치.
  11. 제 5항에 있어서,
    상기 표시부, 상기 제어부, 및 상기 입력부는 일체로 구성되고, 터치스트린을 구비하는 단말기임을 특징으로 하는 오브젝트 실행장치.
  12. 제 5에 있어서, 상기 제어부는,
    상기 표시부에서 상기 하나의 오브젝트가 위치하는 영역에 마우스의 포인터가 위치하면 상기 하나의 오브젝트가 선택된 것으로 판단함을 특징으로 하는 오브젝트 실행장치.
  13. 제 6항에 있어서, 상기 제어부는,
    상기 실행이 드래그 앤 드롭(Drag & Drop)에 의한 상기 오브젝트의 이동인 경우, 드래그 동안 입력되는 압력값과 상기 설정된 압력값을 비교하고, 상기 입력된 압력값이 상기 설정된 압력값보다 작으면 상기 오브젝트 실행을 중지함을 특징으로 하는 오브젝트 실행장치.
  14. 제 5항에 있어서,
    상기 적어도 하나의 오브젝트의 속성정보, 상기 속성정보에 따라 설정된 압력값, 및 압력값에 해당하는 진동값을 저장하는 저장부를 더 포함함을 특징으로 하는 오브젝트 실행장치.
KR1020080106935A 2008-10-30 2008-10-30 오브젝트 실행 방법 및 장치 KR101569176B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020080106935A KR101569176B1 (ko) 2008-10-30 2008-10-30 오브젝트 실행 방법 및 장치
US12/569,288 US9405367B2 (en) 2008-10-30 2009-09-29 Object execution method using an input pressure and apparatus executing the same
EP09171857.7A EP2182421B1 (en) 2008-10-30 2009-09-30 Object execution method and apparatus
CN200910174901.1A CN101727179B (zh) 2008-10-30 2009-10-29 对象执行方法和设备
US15/218,779 US10409373B2 (en) 2008-10-30 2016-07-25 Object execution method using an input pressure and apparatus executing the same
US16/564,692 US10996758B2 (en) 2008-10-30 2019-09-09 Object execution method using an input pressure and apparatus executing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080106935A KR101569176B1 (ko) 2008-10-30 2008-10-30 오브젝트 실행 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020150156769A Division KR101722207B1 (ko) 2015-11-09 2015-11-09 오브젝트 실행 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20100047981A true KR20100047981A (ko) 2010-05-11
KR101569176B1 KR101569176B1 (ko) 2015-11-20

Family

ID=41478967

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080106935A KR101569176B1 (ko) 2008-10-30 2008-10-30 오브젝트 실행 방법 및 장치

Country Status (4)

Country Link
US (3) US9405367B2 (ko)
EP (1) EP2182421B1 (ko)
KR (1) KR101569176B1 (ko)
CN (1) CN101727179B (ko)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4600548B2 (ja) 2008-08-27 2010-12-15 ソニー株式会社 再生装置、再生方法、およびプログラム
US9235588B1 (en) * 2010-12-29 2016-01-12 Symantec Corporation Systems and methods for protecting deduplicated data
US8952987B2 (en) * 2011-05-19 2015-02-10 Qualcomm Incorporated User interface elements augmented with force detection
JPWO2013001779A1 (ja) * 2011-06-27 2015-02-23 京セラ株式会社 携帯電子機器
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
KR101189633B1 (ko) * 2011-08-22 2012-10-10 성균관대학교산학협력단 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말
US9069460B2 (en) * 2011-09-12 2015-06-30 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US20130179827A1 (en) * 2011-10-17 2013-07-11 Marcus Eriksson Electronic device interface
US8942414B2 (en) * 2011-10-25 2015-01-27 Samsung Electronics Co., Ltd Method and apparatus for making personalized contents
JP5957875B2 (ja) * 2011-12-26 2016-07-27 ソニー株式会社 ヘッドマウントディスプレイ
WO2013116926A1 (en) 2012-02-06 2013-08-15 Hothead Games, Inc. Virtual opening of boxes and packs of cards
JP2015511834A (ja) 2012-02-06 2015-04-23 ホットヘッド ゲームズ インコーポレイテッド 仮想競争グループ管理システム及び方法
CN102750811B (zh) * 2012-03-09 2015-01-28 张伟明 一种防止误操作的遥控部件、智能系统及方法
US9146655B2 (en) 2012-04-06 2015-09-29 Samsung Electronics Co., Ltd. Method and device for executing object on display
US9377937B2 (en) 2012-04-06 2016-06-28 Samsung Electronics Co., Ltd. Method and device for executing object on display
WO2013151322A1 (en) * 2012-04-06 2013-10-10 Samsung Electronics Co., Ltd. Method and device for executing object on display
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
EP2847658B1 (en) 2012-05-09 2017-06-21 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
EP2847662B1 (en) 2012-05-09 2020-02-19 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
JP6002836B2 (ja) 2012-05-09 2016-10-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
EP2847660B1 (en) 2012-05-09 2018-11-14 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
CN107728906B (zh) 2012-05-09 2020-07-31 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
JP6273263B2 (ja) 2012-05-09 2018-01-31 アップル インコーポレイテッド ユーザ接触に応答して追加情報を表示するための、デバイス、方法、及びグラフィカルユーザインタフェース
IL221862A (en) * 2012-09-10 2015-03-31 Elbit Systems Ltd Attacking a physical touch event on optical touch screens
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
CN105264479B (zh) 2012-12-29 2018-12-25 苹果公司 用于对用户界面分级结构进行导航的设备、方法和图形用户界面
JP6093877B2 (ja) 2012-12-29 2017-03-08 アップル インコーポレイテッド 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース
JP6158947B2 (ja) 2012-12-29 2017-07-05 アップル インコーポレイテッド タッチ入力からディスプレイ出力への関係間を遷移するためのデバイス、方法及びグラフィカルユーザインタフェース
CN107832003B (zh) 2012-12-29 2021-01-22 苹果公司 用于放大内容的方法和设备、电子设备和介质
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN104216548B (zh) * 2013-06-04 2020-06-23 联想(北京)有限公司 触控反馈方法、装置及电子设备
EP3144780A1 (en) * 2013-06-11 2017-03-22 Immersion Corporation Systems and methods for pressure-based haptic effects
EP3584671B1 (en) 2014-06-27 2022-04-27 Apple Inc. Manipulation of calendar application in device with touch screen
CN104391783A (zh) * 2014-07-24 2015-03-04 贵阳朗玛信息技术股份有限公司 一种软件调试方法及装置
US9635069B2 (en) * 2014-08-06 2017-04-25 Verizon Patent And Licensing Inc. User feedback systems and methods
CN115623117A (zh) 2014-09-02 2023-01-17 苹果公司 电话用户界面
KR102497720B1 (ko) 2014-09-02 2023-02-10 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
US10055121B2 (en) * 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
CN105159547B (zh) * 2015-08-27 2018-03-02 广东欧珀移动通信有限公司 一种人机交互方法及用户终端
US10664151B2 (en) * 2015-12-03 2020-05-26 International Business Machines Corporation Adaptive electronic event reminder
CN105892880A (zh) * 2015-12-11 2016-08-24 乐视网信息技术(北京)股份有限公司 一种歌曲播放进度控制方法及装置
CN105653168B (zh) * 2015-12-28 2021-12-24 联想(北京)有限公司 电子设备及其控制方法
CN105892664B (zh) * 2016-03-31 2021-05-18 联想(北京)有限公司 一种信息处理方法及电子设备
CN105930050B (zh) * 2016-04-13 2018-01-26 腾讯科技(深圳)有限公司 行为确定方法及装置
US9919213B2 (en) 2016-05-03 2018-03-20 Hothead Games Inc. Zoom controls for virtual environment user interfaces
AU2017100667A4 (en) 2016-06-11 2017-07-06 Apple Inc. Activity and workout updates
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
US10004991B2 (en) 2016-06-28 2018-06-26 Hothead Games Inc. Systems and methods for customized camera views in virtualized environments
US10010791B2 (en) 2016-06-28 2018-07-03 Hothead Games Inc. Systems and methods for customized camera views and customizable objects in virtualized environments
JP2018036959A (ja) * 2016-09-01 2018-03-08 株式会社デンソーテン 制御装置、入力装置、入力システム、表示装置および制御方法
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
US20180200623A1 (en) * 2017-01-19 2018-07-19 Machine Zone, Inc. System and method for controlling game play using fingerprint recognition
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
US11023037B2 (en) * 2019-01-17 2021-06-01 Joseph J. Boudeman Advanced communication method and apparatus

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0566293B1 (en) * 1992-04-15 2003-07-16 Xerox Corporation Graphical drawing and editing systems and methods therefor
US5675329A (en) * 1996-05-09 1997-10-07 International Business Machines Corporation Method of obtaining a second function from keys on a keyboard using pressure differentiation
US6002395A (en) * 1996-10-31 1999-12-14 Ncr Corporation System and method for building, testing and integrating a graphical touch user interface
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6243080B1 (en) 1998-07-14 2001-06-05 Ericsson Inc. Touch-sensitive panel with selector
EP1003188A3 (en) 1998-11-19 2001-04-25 Key Tronic Corporation Ergonomic computer keyboard
GB2344905A (en) 1998-12-17 2000-06-21 Canon Kk Hand held electronic device with back entry touch pad
US6331852B1 (en) * 1999-01-08 2001-12-18 Ati International Srl Method and apparatus for providing a three dimensional object on live video
US7134095B1 (en) * 1999-10-20 2006-11-07 Gateway, Inc. Simulated three-dimensional navigational menu system
US6466198B1 (en) * 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US6822635B2 (en) * 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US6707942B1 (en) * 2000-03-01 2004-03-16 Palm Source, Inc. Method and apparatus for using pressure information for improved computer controlled handwriting recognition, data entry and user authentication
US6825861B2 (en) * 2001-01-08 2004-11-30 Apple Computer, Inc. Three state icons for operation
US6967642B2 (en) * 2001-01-31 2005-11-22 Microsoft Corporation Input device with pattern and tactile feedback for computer input and control
US7216305B1 (en) * 2001-02-15 2007-05-08 Denny Jaeger Storage/display/action object for onscreen use
US7012595B2 (en) 2001-03-30 2006-03-14 Koninklijke Philips Electronics N.V. Handheld electronic device with touch pad
GB2381499A (en) 2001-10-30 2003-05-07 Electrotextiles Co Ltd :Detecting a degree of manual interaction with a manually operable key
JP4149926B2 (ja) 2001-11-01 2008-09-17 イマージョン コーポレーション 触知感覚を与える方法及び装置
US6824069B2 (en) * 2002-01-30 2004-11-30 Howard B. Rosen Programmable thermostat system employing a touch screen unit for intuitive interactive interface with a user
US7456823B2 (en) * 2002-06-14 2008-11-25 Sony Corporation User interface apparatus and portable information apparatus
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
JP3867664B2 (ja) 2002-12-12 2007-01-10 ソニー株式会社 入力装置、携帯型情報処理装置、リモートコントロール装置、および入力装置における圧電アクチュエータ駆動制御方法
KR100536621B1 (ko) 2003-10-21 2005-12-14 한국과학기술원 촉감과 역감을 전달하는 마우스 인터페이스 장치
US8164573B2 (en) * 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
JP2005332063A (ja) 2004-05-18 2005-12-02 Sony Corp 触覚機能付き入力装置、情報入力方法及び電子機器
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7511703B2 (en) * 2004-06-28 2009-03-31 Microsoft Corporation Using size and shape of a physical object to manipulate output in an interactive display application
KR100608589B1 (ko) * 2004-07-24 2006-08-03 삼성전자주식회사 3차원 모션 그래픽 사용자 인터페이스 및 이를 제공하는방법 및 장치
JP4134008B2 (ja) * 2004-11-19 2008-08-13 任天堂株式会社 画像処理装置および画像処理プログラム
US7847789B2 (en) 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US7619616B2 (en) * 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
US7629966B2 (en) * 2004-12-21 2009-12-08 Microsoft Corporation Hard tap
JP2006345209A (ja) * 2005-06-08 2006-12-21 Sony Corp 入力装置、情報処理装置、情報処理方法、及びプログラム
US7676767B2 (en) * 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
US8578290B2 (en) * 2005-08-18 2013-11-05 Microsoft Corporation Docking and undocking user interface objects
KR100719850B1 (ko) 2005-08-24 2007-05-18 엘지전자 주식회사 진동세기 조절기능이 구비된 이동통신 단말기 및 그동작방법
US7509588B2 (en) * 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US8068605B2 (en) 2006-03-07 2011-11-29 Sony Ericsson Mobile Communications Ab Programmable keypad
US8402382B2 (en) * 2006-04-21 2013-03-19 Google Inc. System for organizing and visualizing display objects
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US8120584B2 (en) * 2006-12-21 2012-02-21 Cypress Semiconductor Corporation Feedback mechanism for user detection of reference location on a sensing device
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8269729B2 (en) * 2007-01-31 2012-09-18 Perceptive Pixel Inc. Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
JP2008305174A (ja) * 2007-06-07 2008-12-18 Sony Corp 情報処理装置、情報処理方法、プログラム
US7952498B2 (en) * 2007-06-29 2011-05-31 Verizon Patent And Licensing Inc. Haptic computer interface
US11126321B2 (en) * 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US20090135142A1 (en) * 2007-11-27 2009-05-28 Motorola, Inc. Data entry device and method
US20090140986A1 (en) * 2007-11-30 2009-06-04 Nokia Corporation Method, apparatus and computer program product for transferring files between devices via drag and drop
US20090140989A1 (en) 2007-12-04 2009-06-04 Nokia Corporation User interface
US9513704B2 (en) * 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
US8526767B2 (en) * 2008-05-01 2013-09-03 Atmel Corporation Gesture recognition
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods

Also Published As

Publication number Publication date
CN101727179A (zh) 2010-06-09
US9405367B2 (en) 2016-08-02
US10996758B2 (en) 2021-05-04
US10409373B2 (en) 2019-09-10
EP2182421A1 (en) 2010-05-05
US20100114974A1 (en) 2010-05-06
CN101727179B (zh) 2014-07-16
KR101569176B1 (ko) 2015-11-20
US20190391661A1 (en) 2019-12-26
EP2182421B1 (en) 2014-01-08
US20160334873A1 (en) 2016-11-17

Similar Documents

Publication Publication Date Title
US10996758B2 (en) Object execution method using an input pressure and apparatus executing the same
US11320931B2 (en) Swipe-based confirmation for touch sensitive devices
US8217905B2 (en) Method and apparatus for touchscreen based user interface interaction
US9152321B2 (en) Touch sensitive UI technique for duplicating content
US9367208B2 (en) Move icon to reveal textual information
US20120026105A1 (en) Electronic device and method thereof for transmitting data
US20090251432A1 (en) Electronic apparatus and control method thereof
US20160004373A1 (en) Method for providing auxiliary information and touch control display apparatus using the same
US9898111B2 (en) Touch sensitive device and method of touch-based manipulation for contents
US20150347358A1 (en) Concurrent display of webpage icon categories in content browser
US20130191781A1 (en) Displaying and interacting with touch contextual user interface
US20140331187A1 (en) Grouping objects on a computing device
TWI512601B (zh) 電子裝置及其控制方法與電腦程式產品
US20150346919A1 (en) Device, Method, and Graphical User Interface for Navigating a Content Hierarchy
KR20150083730A (ko) 컴퓨팅 디바이스에서 컨텐츠 복사 실행 방법, 컨텐츠 붙여넣기 실행 방법 및 컴퓨팅 디바이스
KR20100034411A (ko) 파일 속성정보 입력 방법 및 장치
KR101722207B1 (ko) 오브젝트 실행 방법 및 장치
EP2711805A1 (en) Method for handling a gesture-based user interface
US20190087077A1 (en) Information processing apparatus, screen control method
KR20150111651A (ko) 즐겨찾기모드 조작방법 및 이를 수행하는 터치 스크린을 포함하는 장치
KR101869261B1 (ko) 오브젝트 실행 방법 및 장치
EP2711804A1 (en) Method for providing a gesture-based user interface
US20120169627A1 (en) Electronic device and method thereof for transmitting data
KR102205235B1 (ko) 즐겨찾기모드 조작방법 및 이를 수행하는 터치 스크린을 포함하는 장치
US20220066630A1 (en) Electronic device and touch method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
FPAY Annual fee payment

Payment date: 20181030

Year of fee payment: 4