KR102104910B1 - 입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법 - Google Patents

입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법 Download PDF

Info

Publication number
KR102104910B1
KR102104910B1 KR1020130022387A KR20130022387A KR102104910B1 KR 102104910 B1 KR102104910 B1 KR 102104910B1 KR 1020130022387 A KR1020130022387 A KR 1020130022387A KR 20130022387 A KR20130022387 A KR 20130022387A KR 102104910 B1 KR102104910 B1 KR 102104910B1
Authority
KR
South Korea
Prior art keywords
input unit
unit
copy
portable device
pen
Prior art date
Application number
KR1020130022387A
Other languages
English (en)
Other versions
KR20140108010A (ko
Inventor
이주연
박진형
이상협
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130022387A priority Critical patent/KR102104910B1/ko
Priority to AU2014221602A priority patent/AU2014221602B2/en
Priority to RU2015140993A priority patent/RU2676251C2/ru
Priority to PCT/KR2014/001555 priority patent/WO2014133312A1/en
Priority to CN201480011003.3A priority patent/CN105027034B/zh
Priority to EP14156873.3A priority patent/EP2772831B1/en
Priority to US14/193,629 priority patent/US10372211B2/en
Publication of KR20140108010A publication Critical patent/KR20140108010A/ko
Priority to US16/460,294 priority patent/US11422627B2/en
Application granted granted Critical
Publication of KR102104910B1 publication Critical patent/KR102104910B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/40Aspects of automatic or semi-automatic exchanges related to call centers
    • H04M2203/401Performance feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/50Aspects of automatic or semi-automatic exchanges related to audio conference
    • H04M2203/5036Aspects of automatic or semi-automatic exchanges related to audio conference using conference for collection of feedback

Abstract

입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법이 제공된다. 보다 상세하게는 입력 유닛과 휴대 장치간에 발생되는 카피 앤 페이스트를 위한 터치 인터랙션에 기초하여 입력 유닛에서 출력되는 촉각 및/또는 청각 피드백에 대응되는 제어 정보를 제공하는 휴대 장치 및 그 방법이 개시된다. 개시되는 실시예 중 일부는 입력 유닛과 휴대 장치 사이에서 입력 유닛에 의해 수신되는 카피 명령 및 페이스트 명령에 응답하여 입력 유닛에서 사용자에게 제공되는 펜 진동 소자를 통해 출력되는 촉각 피드백 및 펜 스피커를 통해 출력되는 청각 피드백에 대응되는 제어 정보를 입력 유닛으로 전송하는 휴대 장치 및 그 방법을 제공한다.

Description

입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법{PORTABLE APPARATUS FOR PROVIDING HAPTIC FEEDBACK WITH AN INPUT UNIT AND METHOD THEREFOR}
본 발명은 입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법에 관한 것으로 더욱 상세하게는, 입력 유닛과 휴대 장치 간에 발생되는 터치 인터랙션에 의해 입력 유닛에서 출력되는 촉각 및/또는 청각 피드백을 제공하는 휴대 장치 및 그 방법에 관한 것이다.
최근 휴대 장치에서 제공하는 다양한 서비스 및 기능들은 점차 확대되고 있다. 이러한 휴대 단말의 효용 가치를 높이고 사용자들의 다양한 욕구를 만족시키기 위해서 휴대 장치에서 실행 가능한 다양한 애플리케이션들이 개발되고 있다.
이에 따라 최근 스마트 폰, 휴대폰, 노트 PC 및 태블릿 PC와 같은 이동이 가능하고, 터치 스크린을 가지는 휴대 장치 내에는 하나 이상의 애플리케이션들이 저장될 수 있다. 저장된 애플리케이션들을 실행시키기 위한 단축 아이콘이 휴대 단말의 터치 스크린 상에 표시된다. 이에 따라 사용자는 터치 스크린 상에 표시된 단축 아이콘들 중 어느 하나를 선택(예를 들어, 터치)하여 원하는 애플리케이션을 휴대 단말에서 실행시킬 수 있다. 휴대 단말의 터치 스크린 상에는 단축 아이콘들 외에도 위젯, 사진, 동영상 또는 문서 등과 같은 다양한 형태의 객체들이 표시되고 있다.
휴대 단말은 표시된 객체들에 사용자의 엄지를 포함하는 손가락, 스타일러스 펜과 같은 입력 유닛을 이용한 터치 입력 방식을 제공하고 있다. 또한, 터치 입력 방식은 호버링(hovering)과 같은 비접촉 입력 방식을 포함한다.
터치 스크린에서 사용자에 의한 터치 입력이 있을 경우, 진동 소자 등을 통해 사용자가 마치 물리적인 버튼을 누르는 조작감을 느낄 수 있도록 진동을 발생시킨다. 이와 같이 다양한 터치 입력 기술의 연구가 꾸준히 이루어지고 있으며, 사용자들에게 현실감 있는 다중 감각 인터페이스에 대한 수요를 충족시키기 위한 연구가 활발하게 진행되고 있다.
따라서, 본 발명의 목적은 입력 유닛과 휴대 장치간에 발생되는 터치 인터랙션에 의해 입력 유닛에서 출력되는 촉각 및/또는 청각 피드백을 제공하는 휴대 장치 및 그 방법에 관한 것이다.
본 발명의 다른 목적은 입력 유닛과 휴대 장치간에 발생되는 카피 앤 페이스트를 위한 터치 인터랙션에 의해 입력 유닛에서 출력되는 촉각 및/또는 청각 피드백에 대응되는 제어 정보를 제공하는 휴대 장치 및 그 방법에 관한 것이다.
본 발명의 다른 목적은 입력 유닛과 휴대 장치 사이에서, 입력 유닛에 의해 수신되는 카피 명령 및 페이스트 명령에 응답하여 입력 유닛에서 사용자에게 제공되는 촉각 피드백 및 선택적으로 제공되는 청각 피드백에 대응되는 각각의 제어 정보를 제공하는 휴대 장치 및 그 방법에 관한 것이다.
본 발명의 다른 목적은 입력 유닛과 휴대 장치 사이에서, 입력 유닛에 의해 발생되는 카피 명령 및 페이스트 명령에 응답하여 휴대 장치의 터치 스크린에 시각 피드백을 제공하는 휴대 장치 및 그 방법에 관한 것이다.
본 발명의 다른 목적은 입력 유닛과 휴대 장치 사이에서, 입력 유닛에 의해 발생되는 카피 명령 및 페이스트 명령에 응답하여 휴대 장치에서 촉각 및 청각 피드백을 제공하는 휴대 장치 및 그 방법에 관한 것이다.
상기와 같은 본 발명의 목적을 달성하기 위해, 본 발명에 따른 휴대 장치의 피드백 제공방법은, 터치 스크린에 객체를 표시하는 과정과, 상기 터치 스크린에서 입력 유닛에 의한 제1 입력을 검출하는 과정과, 상기 제1 입력에 응답하여 객체를 식별하는 과정과, 상기 식별된 객체를 카피하는 카피 명령을 상기 입력 유닛에서부터 수신하는 과정과, 상기 수신된 카피 명령에 응답하여 결정된 촉각 피드백에 대응되는 제1 제어 명령을 상기 입력 유닛에게 전송하는 과정을 포함할 수 있다.
삭제
본 발명은 객체를 표시하는 터치 스크린과, 입력 유닛과 통신 가능한 통신부와, 상기 터치 스크린 및 상기 통신부를 제어하는 제어부를 포함하고, 상기 제어부는, 상기 터치 스크린에 표시된 상기 객체에 대한 제1 입력에 응답하여 객체를 식별하고, 상기 입력 유닛에서부터 상기 식별된 객체를 카피하는 카피 명령의 수신에 응답하여, 결정된 촉각 피드백에 대응되는 제1 제어 신호를 상기 통신부를 통해 상기 입력 유닛으로 전송하도록 제어할 수 있다.
삭제
본 발명에 따른 입력 유닛의 피드백 제공방법은 입력 유닛의 장치 정보를 휴대 장치로 전송하는 과정과, 상기 휴대 장치의 터치 스크린에서 식별된 객체를 카피하는 카피 명령을 상기 휴대 장치로 전송하는 과정과, 상기 휴대 장치에서부터 상기 카피 명령에 대응되는 제1 제어 신호를 수신하는 과정과, 상기 수신된 제1 제어 신호에 대응되는 촉각 피드백을 펜 진동소자를 통해 출력하는 과정을 포함할 수 있다.
삭제
본 발명의 입력 유닛은, 펜 진동 소자와, 휴대 장치와 통신 가능한 펜 통신부와, 상기 펜 진동소자 및 상기 펜 통신부를 제어하는 제어부를 포함하고, 상기 제어부는, 상기 휴대 장치의 터치 스크린에서 식별된 객체를 카피하는 카피 명령을 상기 펜 통신부를 통해 상기 휴대 장치로 전송하고, 상기 휴대 장치에서부터 상기 펜 통신부를 통해 수신된 제1 제어 신호에 대응되는 촉각 피드백을 상기 펜 진동소자를 통해 출력하도록 제어할 수 있다.
삭제
본 발명에 따르면, 입력 유닛과 휴대 장치간에 발생되는 직관적인 터치 인터랙션에 의해 사용자에게 쉬운 카피 앤 페이스트 인터랙션을 제공할 수 있다.
입력 유닛과 휴대 장치간에 발생되는 직관적인 터치 인터랙션에 의해 입력 유닛에서 출력되는 촉각 및/또는 청각 피드백을 사용자에게 제공할 수 있다.
입력 유닛과 휴대 장치간에 발생되는 카피 앤 페이스트를 위한 직관적인 터치 인터랙션에 의해 입력 유닛에서 사용자에게 출력되는 촉각 및/또는 청각 피드백에 대응되는 제어 정보를 제공할 수 있다.
입력 유닛과 휴대 장치 사이에서, 입력 유닛에 의해 발생되는 직관적인 카피 명령 및 페이스트 명령에 응답하여 입력 유닛에서 사용자에게 제공되는 촉각 피드백에 대응되는 제어 정보 및 선택적으로 제공되는 청각 피드백에 대응되는 제어 정보를 제공할 수 있다.
입력 유닛과 휴대 장치 사이에서, 입력 유닛에 의해 발생되는 직관적인 카피 명령 및 페이스트 명령에 응답하여 휴대 장치의 터치 스크린에서 시각 피드백을 제공할 수 있다.
입력 유닛과 휴대 장치 사이에서, 입력 유닛에 의해 발생되는 직관적인 카피 명령 및 페이스트 명령에 응답하여 휴대 장치의 진동 모터에서 촉각 피드백 및 스피커에서 청각 피드백을 제공할 수 있다.
도 1은 본 발명의 실시예에 따른 휴대 장치를 나타내는 개략적인 블록도이고;
도 2는 본 발명의 실시예에 따른 휴대 장치를 나타내는 개략적인 전면 사시도이고;
도 3은 본 발명의 실시예에 따른 휴대 장치를 나타내는 개략적인 후면 사시도이고;
도 4는 본 발명의 실시예에 따른 터치 스크린의 내부를 나타내는 개략적인 단면도이고;
도 5는 본 발명의 실시예에 따른 입력 유닛을 나타내는 개략적인 블럭도이고;
도 6은 본 발명의 실시예에 따른 휴대 장치의 피드백 제공방법을 나타내는 개략적인 순서도이고;
도 7a 내지 도 7i는 본 발명의 실시예에 따른 휴대 장치의 피드백 제공방법들을 나타내는 도면이고;
도 8은 본 발명의 실시예에 따른 휴대 장치의 촉각 파형의 예를 나타내는 도면이고;
도 9는 본 발명의 다른 실시예에 따른 휴대 장치의 피드백 제공방법을 나타내는 개략적인 순서도이고;
도 10a 내지 도 10g는 본 발명의 다른 실시예에 따른 휴대 장치의 피드백 제공방법들을 나타내는 도면이고;
도 11은 본 발명의 다른 실시예에 따른 휴대 장치의 촉각 파형의 예를 나타내는 도면이고;
도 12는 본 발명의 다른 실시예에 따른 휴대 장치의 피드백 제공방법의 예를 나타내는 도면이고;
도 13 내지 도 15는 본 발명의 실시예에 따른 휴대 장치의 촉각 파형의 예를 나타내는 도면이다.
이하, 본 발명을 제조하고 사용하는 방법을 상세히 설명한다. 도면들에서 동일한 참조번호 또는 부호는 동일한 부품 또는 구성요소를 나타낸다.
"제1", "제2"등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명의 실시예에 따른 휴대 장치를 나타내는 개략적인 블록도이다.
도 1을 참조하면, 휴대 장치(100)는 이동통신 유닛(120), 서브통신 유닛(130) 및 커넥터(165)를 이용하여 외부 장치(도시되지 아니함)와 연결될 수 있다. “외부 장치”는 다른 휴대 장치(도시되지 아니함), 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 입력 유닛(도시되지 아니함), 태블릿PC(도시되지 아니함) 및 서버(도시되지 아니함)를 포함한다. 휴대 장치는 휴대 가능하고 데이터 송수신이 가능한 장치로서 적어도 하나의 터치 스크린이 구비될 수 있다. 이러한, 휴대 장치는 휴대폰, 스마트 폰, 태블릿 PC, 3D-TV, 스마트 TV, LED TV, LCD TV등을 포함하며 이외도 주변 기기 또는 원거리에 위치한 다른 장치와 데이터 송수신이 가능한 장치를 포함한다.
휴대 장치(100)는 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 포함한다. 또한, 휴대 장치(100)는 제어부(110), 이동통신 유닛(120), 서브통신 유닛(130), 멀티미디어 유닛(140), 카메라 유닛(150), GPS 유닛(155), 입/출력 유닛(160), 센서 유닛(170), 저장부(175) 및 전원공급부(180)를 포함한다. 서브통신 유닛(130)은 무선랜 유닛(131) 및 근거리통신 유닛(132) 중 적어도 하나를 포함하고, 멀티미디어 유닛(140)은 방송통신 유닛(141), 오디오재생 유닛(142) 및 동영상재생 유닛(143) 중 적어도 하나를 포함한다. 카메라 유닛(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 유닛(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 키패드(166) 및 입력 유닛(167) 중 적어도 하나를 포함하고, 센서 유닛(170)은 근접 센서(171) 및 조도 센서(172)를 포함한다.
제어부(110)는 AP(Application Processor, 111), 휴대 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 휴대 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 휴대 장치(100)에서 수행되는 작업에 대한 기억영역으로 사용되는 램(RAM, 113)을 포함할 수 있다.
제어부(110)는 휴대 장치(100)의 전반적인 동작 및 휴대 장치(100)의 내부 구성요소들(120 내지 195) 간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부(110)는 전원공급부(180)로부터 내부 구성요소들(120 내지 195)에게 전원 공급을 제어한다. 또한, 제어부(190)는 저장부(175)에 저장된 OS(Operation System) 및 애플리케이션을 실행한다.
AP(111)는 그래픽 처리를 위한 GPU(Graphic Processing Unit, 도시되지 아니함)을 포함할 수 있다. AP(111)는 코어(도시되지 아니함)와 GPU(도시되지 아니함)가 SoC(System On Chip)일 수 있다. AP(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 배수의 코어를 포함할 수 있다. 또한, AP(111), 롬(112) 및 램(113)은 내부버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 이동통신 유닛(120), 서브통신 유닛(130), 멀티미디어 유닛(140), 카메라 유닛(150), GPS 유닛(155), 입/출력 유닛(160), 센서 유닛(170), 저장부(175), 전원공급부(180), 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 제어할 수 있다.
본 발명의 실시 예에 따른 제어부(110)는 터치 스크린에 객체를 표시하고, 터치 스크린에서 입력 유닛에 의한 제1 터치를 검출하고, 제1 터치에 응답하여 제1 터치가 검출된 객체를 카피 대상(target)으로 카피하는 카피 명령을 상기 입력 유닛에서부터 수신하고, 수신된 카피 명령에 응답하여 결정된 촉각 피드백에 대응되는 제1 제어 명령을 입력 유닛에게 전송하도록 제어할 수 있다.
제어부(110)는 터치 스크린에 카피 명령에 대응되는 시각 피드백을 표시하고, 선택된 객체 및 신규 객체 중 적어도 하나에서 제공되도록 제어할 수 있다.
제어부(110)는 터치 스크린에 선택된 객체의 현재 사이즈를 기결정된 사이즈로 등속도 천이하여 상기 입력 유닛의 터치가 검출된 위치로 이동하는 시각 피드백을 표시하도록 제어할 수 있다.
제어부(110)는 신규 객체인 피펫(pipette)에서 액체를 흡입하는 시각 피드백을 표시하도록 제어할 수 있다.
제어부(110)는 입력 유닛의 카피 명령에 대응되는 카피 정보를 입력 유닛 및 외부 서버 중 하나로 전송하도록 제어할 수 있다.
제어부(110)는 입력 유닛에서부터 상기 입력 유닛의 장치 정보를 수신가능하고, 수신된 장치 정보에 기초하여 카피 정보를 입력 유닛 및 상기 외부 서버 중 하나로 전송하도록 제어할 수 있다.
제어부(110)는 터치 스크린에 입력 유닛의 터치 제스처에 응답하여 선택된 객체의 카피 실행에 대응되는 선택가능한 카피 아이콘을 표시하도록 제어할 수 있다.
제어부(110)는 터치 스크린에서 상기 입력 유닛의 제2 터치를 검출하고, 제2 터치에 응답하여 카피된 객체를 페이스트 할 페이스트 위치에서 카피된 객체를 페이스트 할 페이스트 명령을 입력 유닛으로부터 수신하고, 수신된 페이스트 명령에 응답하여 결정된 촉각 피드백에 대응되는 제2 제어 명령을 입력 유닛으로 전송하고, 카피된 객체를 페이스트 위치에 표시하도록 제어할 수 있다.
제어부(110)는 터치 스크린에 상기 페이스트 명령에 대응되는 시각 피드백을 표시하도록 제어할 수 있다.
제어부(110)는 터치 스크린에 카피된 객체의 카피 전 원래 사이즈로 등속도 천이하여 선택된 페이스트 위치로 이동하는 시각 피드백을 표시하도록 제어할 수 있다.
제어부(110)는 터치 스크린에 신규 객체인 피펫에서부터 액체를 배출하는 시각 피드백을 표시하도록 제어할 수 있다.
제어부(110)는 통신 유닛을 통해 페이스트 명령에 대응되는 카피 정보를 상기 입력 유닛 및 외부 서버 중 적어도 하나에서부터 수신하도록 제어할 수 있다.
제어부(110)는 터치 스크린에 입력 유닛의 터치 제스처에 응답하여 카피 대상 객체의 페이스트 실행에 대응되는 선택가능한 페이스트 아이콘을 표시하도록 제어할 수 있다.
이동통신 유닛(120)은 제어부의 제어에 따라, 하나 또는 복수의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 휴대 장치(100)가 외부 장치와 연결되도록 한다. 이동통신 유닛(120)은 휴대 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 휴대 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS), 멀티미디어 메시지(MMS) 및 데이터 통신을 위한 무선 신호를 송/수신한다.
서브통신 유닛(130)은 무선랜 유닛(131)과 근거리통신 유닛(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 유닛(131)만 포함하거나, 근거리통신 유닛(132)만 포함하거나 또는 무선랜 유닛(131)과 근거리통신 유닛(132) 모두 포함할 수 있다.
무선랜 유닛(131)은 제어부의 제어에 따라, AP(access point)(도시되지 아니함)가 설치된 장소에서 무선을 이용하여 인터넷에 연결될 수 있다. 무선랜 유닛(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 유닛(132)은 제어부의 제어에 따라, 휴대 장치(100)와 외부장치 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association) 및 NFC(Near Field Communication) 등이 포함될 수 있다.
휴대 장치(100)는 성능에 따라 이동통신 유닛(120), 무선랜 유닛(131), 및 근거리통신 유닛(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 휴대 장치(100)는 성능에 따라 이동통신 유닛(120), 무선랜 유닛(131), 및 근거리통신 유닛(132)들의 조합을 포함할 수 있다.
본 발명의 실시예에서 “통신 유닛”이라는 용어는 이동통신 유닛(120), 서브 통신 유닛(130)을 포함한다. 본 발명의 실시예에 따라 통신 유닛은 제어부의 제어에 따라 입력 유닛(167)의 장치 정보를 입력 유닛(167)에서부터 수신할 수 있다.
통신 유닛은 제어부의 제어에 따라 입력 유닛(167)의 카피 명령에 대응되는 제어 정보를 입력 유닛(167)로 전송할 수 있다. 통신 유닛은 제어부의 제어에 따라 입력 유닛(167)의 카피 명령에 대응되는 카피 정보를 입력 유닛(167) 또는 외부 서버로 전송할 수 있다.
또한, 통신 유닛은 제어부의 제어에 따라 입력 유닛(167)의 페이스트 명령에 대응되는 제어 정보를 입력 유닛(167)으로 전송할 수 있다. 통신 유닛은 제어부의 제어에 따라 입력 유닛(167)의 페이스트 명령에 대응되는 카피 정보를 입력 유닛(167) 또는 외부 서버에서부터 수신할 수 있다.
멀티미디어 유닛(140)은 방송통신 유닛(141), 오디오 재생 유닛(142) 또는 동영상 재생 유닛(143)을 포함할 수 있다. 방송통신 유닛(141)은 제어부의 제어에 따라, 방송통신 안테나(도시되지 아니함)를 통해 외부의 방송국에서부터 송출되는 방송 신호(예를 들어, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예를 들어, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신하고, 터치 스크린, 비디오 코덱 유닛(Codec unit, 도시되지 아니함) 및 오디오 코덱 유닛(도시되지 아니함)을 이용하여 재생할 수 있다.
오디오 재생 유닛(142)는 제어부의 제어에 따라, 휴대 장치(100)의 저장부(175)에 기 저장되거나 또는 휴대장치(100)의 외부에서부터 수신되는 오디오 소스(예를 들어, 파일 확장자가 mp3, wma, ogg 또는 wav인 오디오 파일)를 오디오 코덱 유닛을 이용하여 재생할 수 있다.
본 발명의 실시 예에 따라 오디오 재생 유닛(142)는 제어부의 제어에 따라 입력 유닛(167)의 카피 명령에 대응되는 청각 피드백(예를 들어, 저장부에 기저장된 카피 명령에 대응되는 오디오 소스의 출력 등)을 오디오 코덱 유닛을 이용하여 재생할 수 있다. 또한, 오디오 재생 유닛(142)는 제어부의 제어에 따라 입력 유닛(167)의 페이스트 명령에 대응되는 청각 피드백(예를 들어, 저장부에 기저장된 페이스트 명령에 대응되는 오디오 소스의 출력 등)을 오디오 코덱 유닛을 이용하여 재생할 수 있다.
동영상 재생 유닛(143)은 제어부의 제어에 따라 휴대 장치(100)의 저장부(175)에 기 저장되거나 또는 휴대장치(100)의 외부에서부터 수신되는 디지털 동영상 파일(예를 들어, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 비디오 코덱 유닛을 이용하여 재생할 수 있다. 휴대 장치(100)에 설치가능한 대부분의 애플리케이션은 오디오 코덱 유닛 또는 비디오 코덱 유닛을 이용하여 오디오 및 동영상을 재생할 수 있다.
본 발명의 실시 예에 따라 동영상 재생 유닛(142)는 제어부의 제어에 따라 입력 유닛(167)의 카피 명령에 대응되는 시각 피드백을 비디오 코덱 유닛을 이용하여 재생할 수 있다. 또한, 동영상 재생 유닛(142)는 제어부의 제어에 따라 입력 유닛(167)의 페이스트 명령에 대응되는 시각 피드백을 비디오 코덱 유닛을 이용하여 재생할 수 있다.
많은 종류의 비디오 및 오디오 코덱 유닛이 생산 및 판매되고 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다. 또한, 동영상재생 유닛(143)은 비디오 코덱 유닛 또는 오디오 코덱 유닛을 이용하여 오디오 소스를 재생할 수 있다.
멀티미디어 유닛(140)은 방송통신 유닛(141)을 제외하고 오디오재생 유닛(142)과 동영상재생 유닛(143)을 포함할 수 있다. 또한, 멀티미디어 유닛(140)의 오디오재생 유닛(142) 또는 동영상재생 유닛(143)은 제어부(100)에 포함될 수 있다. 본 발명의 실시 예에서 "비디오 코덱 유닛"이라는 용어는 하나 또는 복수의 비디오 코덱 유닛을 포함한다. 본 발명의 실시 예에서 "오디오 코덱 유닛"이라는 용어는 하나 또는 복수의 오디오 코덱 유닛을 포함한다.
카메라 유닛(150)은 제어부의 제어에 따라 정지이미지 또는 동영상을 촬영하는 전면(100a)의 제1 카메라(151) 및 후면(100c)의 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 카메라 유닛(150)은 제1 카메라(151)와 제2 카메라(152) 중 하나 또는 양자를 모두 포함할 수 있다. 또한, 제1 카메라(151) 또는 제2 카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(예를 들어, 플래시(153))를 포함할 수 있다.
카메라 유닛(150)의 제어부의 제어에 따라 제1 카메라(151)와 제2 카메라(152)는 추가 카메라(도시되지 아니함)와 인접(예를 들어, 도2의 전면(100a)의 제1 카메라(151) 또는 도3의 후면(100c)의 제2 카메라(152)는 추가 카메라(도시되지 아니함)와의 간격이 2 cm 보다 크고, 8 cm 보다 작은)하게 위치하여 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다.
GPS 유닛(155)은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 주기적으로 전파(예를 들어, GPS위성(도시되지 아니함)의 정확한 위치 정보와 시간 정보)를 수신한다. 휴대 장치(100)는 복수의 GPS위성(도시되지 아니함)에서부터 수신되는 전파를 이용하여 휴대 장치(100)의 위치, 속도 및 시간을 알 수 있다.
입/출력 유닛(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 키패드(166) 및 입력 유닛(167) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 전면(100a)의 하부에 있는 메뉴 버튼(161a), 홈 버튼(161b), 및 돌아가기 버튼(back button, 161c)을 포함한다. 버튼(161)은 측면(100b)의 전원/잠금 버튼(161d) 및 적어도 하나의 볼륨 버튼(161e)을 포함할 수 있다. 또한, 버튼(161)은 홈 버튼(161a)만을 포함할 수 있다. 버튼(161)은 물리적 버튼이 아니라 터치 버튼으로 구현될 수 있다. 또한, 버튼(161)은 터치 스크린(190)내에 표시될 수 있다.
마이크(162)는 제어부의 제어에 따라, 외부에서부터 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다. 마이크(162)에서 생성된 전기적인 신호는 오디오 코덱 유닛에서 변환되어 저장부(175)에 저장되거나 또는 스피커(163)을 통해 출력될 수 있다. 마이크(162)는 휴대 장치(100)의 전면(100a), 측면(100b) 및 후면(100c)에 하나 또는 복수로 위치할 수 있다. 또한, 측면(100b)에만 적어도 하나 이상의 마이크가 위치할 수 있다.
스피커(163)는 제어부의 제어에 따라 오디오 코덱 유닛을 이용하여 이동통신 유닛(120), 서브통신 유닛(130), 멀티미디어 유닛(140) 또는 카메라 유닛(150)의 다양한 신호(예를 들어, 무선신호, 방송신호, 오디오 소스, 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 휴대 장치(100) 외부로 출력할 수 있다.
스피커(163)는 휴대 장치(100)가 수행하는 기능에 대응되는 사운드(예를 들어, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 휴대 장치(100)의 전면(100a), 측면(100b) 및 후면(100c)에 적어도 하나의 스피커(163)가 위치할 수 있다. 도2 및 도3에서와 같이 전면(100a)과 후면(100c)에 복수의 스피커들(163a)(163b)이 위치한다. 또한, 전면(100a)에 복수의 스피커들(163a)(163b)이 위치하거나 또는, 전면(100a)에 하나의 스피커(163a) 및 후면(100c)에 복수의 스피커들(도시되지 아니함)이 위치할 수 있다.
또한, 측면(100b)에 적어도 하나의 스피커(도시되지 아니함)가 위치치할 수 있다. 측면(100a)(100b)에 적어도 하나의 스피커(도시되지 아니함)가 위치하는 휴대 장치(100)는 전면(100a) 및 후면(100c)에 스피커가 위치하는 경우와 다른 사운드 출력 효과를 제공할 수 있다.
본 발명의 실시 예에 따라 스피커(163)는 제어부의 제어에 따라 입력 유닛(167)의 카피 명령에 대응되는 청각 피드백을 출력할 수 있다. 또한, 스피커(163)는 제어부의 제어에 따라 입력 유닛(167)의 페이스트 명령에 대응되는 청각 피드백을 출력할 수 있다.
진동 모터(164)는 제어부의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모터(164)는 리니어 진동 모터, 바 타입 진동 모터 코인 타입 진동 모터 또는 압전 소자 진동 모터를 포함할 수 있다. 다른 휴대 장치(도시되지 아니함)로부터 음성통화 요청이 수신되는 경우, 진동 모드에 있는 휴대 장치(100)에서 진동모터(164)가 동작한다. 진동모터(164)는 휴대 장치(100)에 하나 또는 복수로 위치할 수 있다. 또한, 진동모터(164)는 휴대 장치(100) 전체를 진동되게 하거나 또는 휴대 장치(100)의 일부분만 진동되게 할 수 있다.
본 발명의 실시 예에 따라 진동 모터(164)는 제어부의 제어에 따라 입력 유닛(167)의 카피 명령에 대응되는 촉각 피드백을 출력할 수 있다. 또한, 진동 모터(164)는 제어부의 제어에 따라 입력 유닛(167)의 페이스트 명령에 대응되는 촉각 피드백을 출력할 수 있다. 진동 모터(164)는 제어부에 의해 제어 명령에 기초하여 다양한 촉각 피드백(예를 들어, 진동의 세기 및 진동 지속 시간)을 제공할 수 있다.
커넥터(165)는 휴대 장치(100)와 외부 장치(도시되지 아니함) 또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부의 제어에 따라, 커넥터(165)에 연결된 유선 케이블을 통해 휴대 장치(100)의 저장부(175)에 저장된 데이터를 외부 장치(도시되지 아니함)로 전송하거나 또는 외부 장치(도시되지 아니함)에서부터 데이터를 수신할 수 있다. 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)에서부터 전원이 입력되거나 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 휴대 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 휴대 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치 스크린(190)에 표시되는 가상 키패드(도시되지 아니함)를 포함한다. 휴대 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함)는 휴대 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
입력 유닛(167)은 휴대 장치(100)의 터치 스크린(190)에 표시되는 객체(예를 들어, 메뉴, 텍스트, 이미지, 도형 및 아이콘)를 터치하거나 선택할 수 있다. 입력 유닛(167)은 예를 들어, 정전 용량 방식, 저항방식 및 전자기 유도(electromagnetic induction) 방식의 터치 스크린을 터치하거나 가상 키보드를 이용하여 문자 등을 입력할 수 있다. 예를 들어, 입력 유닛(167)은 스타일러스 또는 휴대 장치(100)의 통신 유닛으로부터 수신된 제어 정보를 이용하여 내장된 펜 진동 소자(544, 예를 들어, 진동 모터 또는 액추에이터(actuator))가 진동하는 햅틱 펜(haptic pen, 167) 등이 있다. 또한, 휴대 장치(100)에서부터 수신되는 제어 정보가 아니라 햅틱 펜(167)에 내장된 센서(예를 들어, 가속도 센서, 도시되지 아니함)에서 검출된 센싱 정보를 이용하여 진동 소자가 진동할 수 있다. 입력 유닛에 대한 보다 상세한 설명을 도4 및 도 5에서 후술한다.
센서 유닛(170)은 휴대 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서유닛(170)은 사용자의 휴대 장치(100)의 전면(100a) 상부에 위치하고, 휴대 장치(100)에 대한 접근여부를 검출하는 근접센서(171), 휴대 장치(100) 주변의 빛의 양을 검출하는 조도센서(172), 휴대 장치(100)에 가해지는 3축(예를 들어, x축, y축, z축)의 기울기를 검출하는 가속도 센서(도시되지 아니함), 휴대 장치(100)의 회전관성을 이용하여 방향을 검출하는 자이로 센서(도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 또는 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다. 센서 유닛(170)은 휴대 장치의 운동 가속도와 중력 가속도가 더해진 가속도를 측정가능하며, 휴대 장치(170)가 움직이지 않는 경우, 중력 가속도만을 측정할 수 있다. 예를 들어, 휴대 장치(100)의 전면이 위로 향하는 경우, 중력 가속도는 양(+)방향이고, 휴대 장치(100)의 후면이 위로 향하는 경우, 중력가속도는 음(-)의 방향일 수 있다.
센서 유닛(170)에 포함되는 적어도 하나의 센서는 휴대 장치(100)의 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부로 전송한다. 센서유닛(170)의 센서들은 휴대 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다.
저장부(175)는 제어부의 제어에 따라 이동통신 유닛(120), 서브통신 유닛(130), 멀티미디어 유닛(140), 카메라 유닛(150), GPS 유닛(155), 입/출력 유닛(160), 센서 유닛(170), 및 터치 스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 휴대 장치(100) 또는 제어부의 제어를 위한 제어 프로그램과 제조사에서 제공되거나 외부로부터 다운로드 받은 애플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 이미지들, 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
본 발명의 실시예에 따른 저장부(175)는 입력 유닛(167)에서부터 수신된 장치 정보, 카피 명령 및 페이스트 명령을 저장할 수 있다. 저장부(175)는 입력 유닛(167)에서부터 입력되는 제1 터치에 대응되는 제1 터치 정보(예를 들어, 터치의 X와 Y좌표, 터치 시간 등) 또는 제1 호버링에 대응되는 제1 호버링 정보(예를 들어, 호버링의 X, Y와 Z좌표, 호버링 시간 등)를 저장할 수 있다. 저장부(175)는 입력 유닛(167)에서 수신되는 카피 명령에 대응되어 사용자가 인지가능한 터치 스크린(190)에 표시되는 시각 피드백, 스피커(163)에 출력되는 청각 피드백 및 진동 모터(164)에서 출력되는 촉각 피드백을 저장할 수 있다. 또한, 저장부(175)는 입력 유닛(167)에서부터 입력되는 제2 터치에 대응되는 제2 터치 정보 또는 제2 호버링에 대응되는 제2 호버링 정보를 저장할 수 있다. 저장부(175)는 입력 유닛(167)에서 수신되는 페이스트 명령에 대응되어 사용자가 인지가능한 터치 스크린(190)에 표시되는 시각 피드백, 스피커(163)에 출력되는 청각 피드백 및 진동 모터(164)에서 출력되는 촉각 피드백을 저장할 수 있다.
본 발명의 실시 예에서 “저장부”라는 용어는 저장부(175), 제어부 내 롬(112), 램(113) 또는 휴대 장치(100)에 장착되는 메모리 카드(도시되지 아니함)(예를 들어, micro SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
전원공급부(180)는 제어부의 제어에 따라, 휴대 장치(100)에 위치하는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 전면(100a)에 위치하는 터치 스크린(190)과 후면(100c) 사이에 위치된다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블(도시되지 아니함)을 통해 외부의 전원 소스(도시되지 아니함)에서부터 입력되는 전원을 휴대 장치(100)로 공급할 수 있다.
터치 스크린(190)은 사용자에게 다양한 서비스(예를 들어, 통화, 데이터 전송, 방송, 사진촬영, 동영상, 또는 애플리케이션)에 대응되는 GUI(Graphical User Interface)를 제공할 수 있다. 터치 스크린(190)은 GUI를 통해 입력되는 하나 또는 복수의 터치에 대응되는 아날로그 신호를 터치 스크린 컨트롤러(195)로 전송한다. 터치 스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 터치가능한 입력 유닛(167)을 통해 하나 또는 복수의 터치를 입력 받을 수 있다.
본 발명의 실시예에서 터치는 터치 스크린(190)과 사용자의 신체 또는 터치가능한 입력 유닛(167)의 접촉에 한정되지 않고, 비접촉(예를 들어, 터치 스크린(190)과 사용자의 신체 또는 입력 유닛(167)과의 검출가능한 간격이 30 mm 이하의 호버링(hovering))을 포함할 수 있다. 터치 스크린(190)에서 검출가능한 비접촉 간격은 휴대 장치(100)의 성능 또는 구조에 따라 변경될 수 있다.
터치 스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전 용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다. 터치 스크린(190)에 대한 보다 상세한 설명은 도 4에서 후술한다.
본 발명의 실시 예에 따라 터치스크린(190)은 제어부의 제어에 따라 입력 유닛(167)의 카피 명령에 대응되는 시각 피드백을 출력할 수 있다. 또한, 터치스크린(190)는 제어부의 제어에 따라 입력 유닛(167)의 페이스트 명령에 대응되는 촉각 피드백을 출력할 수 있다.
터치 스크린 컨트롤러(195)는 터치 스크린(190)에서부터 수신된 하나 또는 복수의 터치에 대응되는 아날로그 신호를 디지털 신호(예를 들어, 터치 위치에 대응되는 X와 Y좌표)로 변환하여 제어부로 전송한다. 제어부는 터치 스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 터치 스크린 상의 터치 위치에 대응되는 X와 Y좌표를 산출할 수도 있다. 또한, 제어부는 터치 스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 터치 스크린(190)을 제어할 수 있다. 예를 들어, 제어부는 입력된 터치에 응답하여 터치 스크린(190)에 표시된 단축 아이콘(도시되지 아니함)이 선택되었음을 표시 또는 선택된 단축 아이콘(도시되지 아니함)에 대응되는 애플리케이션을 실행하여 표시할 수 있다.
본 발명의 실시 예에 따라, 하나의 터치 스크린 컨트롤러(195)는 터치 스크린(190)을 제어할 수 있다. 휴대 장치(100)의 성능 또는 구조에 대응하여 터치 스크린 컨트롤러(195)는 제어부에 포함될 수도 있다. 터치 스크린 컨트롤러(195)에 대한 보다 상세한 설명은 도 4에서 후술한다.
도 1의 휴대 장치(100)에 도시된 구성요소들은 휴대 장치(100)의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성요소들의 위치는 휴대 장치(100)의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 2는 본 발명의 실시 예에 따른 휴대 장치를 나타내는 개략적인 전면 사시도이다.
도 3은 본 발명의 실시 예에 따른 휴대 장치를 나타내는 개략적인 후면 사시도이다.
도 2 및 도 3을 참조하면, 휴대 장치(100)의 전면(100a) 중앙부에는 터치 스크린(190)이 위치한다. 도 2에서는, 휴대 장치(100)에 사용자가 로그인하는 경우, 터치 스크린(190)에 홈 화면이 표시된 예를 나타낸다. 휴대 장치(100)은 서로 다른 복수의 홈 화면들을 가질 수 있다. 홈 화면(191)은 자주 사용되는 애플리케이션들을 실행하기 위한 단축 아이콘들(191a, 191b, 191c), 메뉴 화면을 표시하는 메뉴 전환키(191d), 시간 및 날씨 등이 표시할 수 있다. 상기 홈 화면(191)의 상단에는 배터리 충전상태, 수신신호의 세기, 현재 시각과 같은 장치(100)의 상태를 표시하는 상태바(Status Bar, 192)가 표시될 수 있다. 휴대 장치(100)의 홈 화면(191)은 운영체제(operating system, OS)에 따라 상태 바(601)가 표시되지 않을 수 있다.
휴대 장치(100)의 전면(100a) 하부에는 홈 버튼(161a), 메뉴 버튼(161b), 및 돌아 가기 버튼(161c)이 위치한다. 버튼(161)은 물리적 버튼이 아니라 터치 버튼으로 구현될 수 있다. 또한, 버튼(161)은 터치 스크린(190)내에 표시될 수 있다.
휴대 장치(100)의 전면(100a) 상부에는 제1 카메라(151)와 근접 센서(171) 및 조도 센서(172)가 위치할 수 있다. 휴대 단말(100)의 후면(100c)에는 제2 카메라(152), 플래시(flash, 153), 스피커(163)가 위치할 수 있다.
휴대 장치(100)의 측면(100b)에는 예를 들어 전원/잠금 버튼(161d), 볼륨 버튼(161e), 하나 또는 복수의 마이크들(162) 등이 위치할 수 있다.
휴대 장치(100)의 하단 측면에는 커넥터(165)가 형성된다. 커넥터(165)는 다수의 전극들이 형성되어 있으며 외부 장치와 유선으로 연결될 수 있다. 또한, 휴대 장치(100)의 하단 측면에는 입력 유닛(167)이 위치할 수 있다. 입력 유닛(167)은 휴대 장치(100) 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 휴대 장치(100)로부터 인출될 수 있다.
도 4는 본 발명의 실시 예에 따른 터치 스크린의 내부를 나타내는 개략적인 단면도이다.
도 4를 참조하면, 터치 스크린(190)은 엄지를 포함하는 손가락 또는 입력 유닛(167)의 터치 입력을 검출하기 위한 제1 터치 패널(190a), 화면 표시를 위한 표시 패널(190b), 입력 유닛(167)의 입력을 검출하기 위한 제2 터치 패널(191)이 차례로 적층된 구성을 갖는다. 본 발명의 다른 실시 예에 따라 터치 스크린(190)의 제1 터치 패널(190a)은 표시 패널(190b)의 아래에 위치될 수도 있다.
제1 터치 패널(190a)은 정전용량 방식 터치 패널로서, 유리의 양면에 얇은 금속 전도성 물질(예를 들면, ITO(Indium Tin Oxide:산화 인듐주석) 막 등)을 코팅하여 유리표면에 전류가 흐르도록 하고 전하를 저장할 수 있는 유전체로 코팅된 패널이다. 이러한 제1 터치 패널(190a)의 표면에 사용자의 손가락 또는 입력 유닛(167)이 터치되는 경우, 정전기에 의해 일정량의 전하가 터치된 위치로 이동하고, 제1 터치 패널(190a)은 전하의 이동에 따른 전류의 변화량을 인식해서 터치된 위치를 검출하게 된다.
표시 패널(190b)은 다수의 픽셀들(pixels)을 구비하고, 상기 픽셀들을 통해 영상을 표시한다. 예를 들어, 표시 패널(190b)로는 액정표시장치(LCD), 유기발광다이오드(Organic LED), LED 등이 있다. 표시 패널(190b)은 휴대 장치(100)의 각종 동작 상태, 애플리케이션 또는 서비스 실행 등에 따른 다양한 영상과 복수의 객체들을 표시한다.
제2 터치 패널(191)은 EMR(Electronic Magnetic Resonance) 방식 터치 패널로서, 복수의 루프 코일이 미리 정해진 제1 방향 및 제1 방향과 교차하는 제2 방향에 각각 배치되어 그리드 구조를 가지는 전자 유도 코일 센서(도시되지 아니함)와, 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부(도시되지 아니함)를 포함한다. 제2 터치 패널(191)의 루프 코일에 공진 회로를 내장하는 입력 유닛(167)이 인접하는 경우, 해당 루프 코일에서부터 발생되는 자계가 입력 유닛(167)의 공진 회로에 전자기 유도에 기초한 전류를 발생시킨다. 입력 유닛(167) 내의 공진 회로를 구성하는 코일(510)에서부터 유도 자계가 발생하게 되고, 제2 터치 패널(191)은 유도 자계를 신호 수신 상태에 있는 루프 코일에서 검출하게 되어 입력 유닛(167)의 호버링(Hovering) 위치, 터치 위치, 및 휴대 단말(100)은 표시 패널(100)로부터 입력 유닛(167)의 펜 팁(541)까지의 호버링 높이(h)를 검출할 수 있다.
터치 스크린(190)에서 펜 팁(541)까지의 호버링 높이(h)는 휴대 단말(100)의 성능 또는 구조에 대응하여 변경될 수 있음은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
제2 터치 패널(191)은 입력 유닛(167)에 의한 호버링 또는 터치 검출 전용으로 이용될 수 있다. 입력 유닛(167)은 전자기 펜 또는 EMR 펜으로도 지칭될 수 있다. 또한, 입력 유닛(167)은 상기 제1 터치 패널(190a)을 통해 검출되는 공진회로가 포함되지 아니한 일반 펜과는 상이할 수 있다. 입력 유닛(167)은 펜 팁(541)에 인접된 영역에 위치되는 코일(510)에 의해 발생하는 전자기 유도 값을 변경할 수 있는 버튼(542)을 포함할 수 있다. 입력 유닛(167)에 대한 보다 상세한 설명은 도 5에서 후술한다.
터치 스크린 컨트롤러(195)는 제1 터치패널(190a)에 대응되는 제1 터치 패널 컨트롤러(도시되지 아니함)와 제2 터치패널(191)에 대응되는 제2 터치 패널 컨트롤러(도시되지 아니함)를 각각 포함할 수 있다. 제1 터치 패널 컨트롤러(도시되지 아니함)는 제1 터치 패널(190a)에서부터 엄지를 포함하는 손가락 또는 입력유닛(167) 터치의 검출에 의해 수신된 아날로그 신호를 디지털 신호(예를 들어, X와 Y좌표)로 변환하여 제어부로 전송한다. 제2 터치 패널 컨트롤러(도시되지 아니함)는 제2 터치 패널(191)로부터 입력 유닛(167)의 호버링 또는 터치 검출에 의해 수신된 아날로그 신호를 디지털 신호(예를 들어, X, Y 및 Z 좌표)로 변환하여 제어부로 전송한다.
제어부는 상기 제1 터치 패널 컨트롤러(도시되지 아니함) 및 제2 터치 패널 컨트롤러(도시되지 아니함)에서부터 각각 수신된 디지털 신호를 이용하여 제1 터치 패널(190a), 표시 패널(190b) 및 제2 터치 패널(191)을 제어할 수 있다. 제어부는 엄지를 포함하는 손가락 또는 입력 유닛(167)의 터치 또는 호버링에 응답하여 표시 패널(190b)에 화면을 표시할 수 있다. 또한 하나의 터치 스크린 컨트롤러(195)는 제1 터치패널(190a) 및 제2 터치패널(191)을 제어할 수 있다.
본 발명의 실시 예에서 “터치 스크린 컨트롤러”라는 용어는 터치 스크린 컨트롤러(195), 제1 터치 스크린 컨트롤러(도시되지 아니함) 또는 제2 터치 스크린 컨트롤러(도시되지 아니함)를 포함한다.
따라서 본 발명의 실시 예에 따른 휴대 장치(100)의 제어부(110)는 사용자의 엄지를 포함하는 손가락 또는 입력 유닛(167)에 의한 터치 및/또는 호버링을 구별하여 검출할 수 있다. 도 4에서는 단지 하나의 터치 스크린에 대해서만 도시하였으나, 본 발명의 다른 실시예에 따른 휴대 장치(100) 하나의 터치 스크린뿐만 아니라 복수의 터치 스크린을 구비할 수 있다. 각각의 터치 스크린은 각각의 하우징에 위치하며 힌지에 의해 상호 연결되거나 또는 플렉시블한 하나의 하우징에 복수의 터치 스크린이 위치할 수 있다. 복수의 터치 스크린 각각은 도 4에 도시된 바와 같이, 표시 패널과 적어도 하나의 터치 패널을 포함하여 구성된다.
도 5는 본 발명의 실시예에 따른 입력 유닛을 나타내는 개략적인 블럭도이다.
도 5를 참조하면, 입력 유닛(167)은 펜 통신 유닛(520)을 이용하여 휴대 장치(100), 다른 휴대 장치(도시되지 아니함), 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC(도시되지 아니함) 및 외부 서버(도시되지 아니함)와 연결될 수 있다.
입력 유닛(167)은 펜 제어부(510), 펜 통신 유닛(520), 코일(530), 펜 팁(felt-tip, 541), 펜 버튼(542), 펜 스피커(543), 펜 진동소자(544), 펜 메모리(550) 및 펜 배터리(560)을 포함할 수 있다.
펜 제어부(510)는 펜 통신 유닛(520), 코일(530), 펜 팁(pen felt-tip, 541), 펜 버튼(542), 펜 스피커(543), 펜 진동소자(544), 펜 메모리(550) 및 펜 배터리(560)를 제어할 수 있다. 펜 제어부(510)는 입력 유닛(167)의 전반적인 동작 및 입력 유닛(167)의 내부 구성요소들(520 내지 560) 간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 펜 제어부(510)는 펜 팁(541)이 터치 스크린(190) 상에 접촉 또는 호버링이 검출될 수 있는 위치(예를 들어, 20 mm 이하)에 위치하는 경우, 펜 통신 유닛(520)을 통해 휴대 장치(100)에서부터 수신된 제1 및/또는 제2 제어 신호를 분석하고, 제1 및/또는 제2 제어 신호에 기초하여 입력 유닛(167)에 구비된 펜 진동 소자(544)의 진동 주기, 진동 세기 등을 제어한다. 펜 제어부(510)는 펜 배터리(560)로부터 내부 구성요소들(520 내지 550)에게 전원 공급을 제어한다.
본 발명의 실시 예에 따라 펜 제어부(510)는 휴대 장치(100)에 표시되는 객체가 입력 유닛(167)의 터치 또는 호버링에 의해 선택된 후, 버튼(542)이 사용자에 의해 눌러지는 경우, 상기 객체를 카피 대상으로 카피하는 카피 명령을 상기 펜 통신 유닛(520)을 통해 전송하도록 제어할 수 있다. 펜 제어부(510)는 휴대 장치(100)에서부터 카피 명령에 대응되는 카피 정보 중 일부를 펜 통신 유닛(520)을 통해 수신하도록 제어할 수 있다. 카피 정보는 카피 대상 객체에 대응되는 객체데이터, 파일명, 파일 사이즈, 파일 타입, 파일 저장위치 및 카피 시간을 포함할 수 있다. 또한, 펜 제어부(510)는 외부 서버(도시되지 아니함)에서부터 카피 명령에 대응되는 카피 정보 중 일부를 펜 통신 유닛(520)을 통해 수신하도록 제어할 수 있다. 펜 스피커(543)는 입력 유닛(167)의 하우징에 하나 또는 복수 개가 위치할 수 있다.
펜 통신 유닛(520)은 무선랜 유닛(도시되지 아니함) 및 2.4 GHz대역을 사용하는 근거리 통신 유닛(도시되지 아니함) 중 하나를 포함할 수 있다. 또는 펜 통신 유닛(520)은 무선랜 유닛(도시되지 아니함) 및 근거리 통신 유닛(도시되지 아니함)을 모두 포함할 수 있다. 펜 통신 유닛(520)은 펜 제어부(510)의 제어에 따라 휴대 장치(100) 및 외부 서버(도시되지 아니함)와 연결될 수 있다.
본 발명의 실시 예에 따라 펜 통신 유닛(520)은 펜 제어부(510)의 제어에 따라 휴대 장치(100)와 같이 근거리 통신 유닛(132)을 가지는 휴대 장치(100)와 페어링(paring)을 통해 연결되어 제어 신호 및 데이터를 송수신할 수 있다. 펜 통신 유닛(520)은 휴대 장치(100)에서부터 전송되는 제어 신호를 수신하여 펜 제어부(510)로 전달할 수 있다. 펜 통신 유닛(520)은 휴대 장치(100)에서부터 수신되는 제어 신호를 분석할 수도 있다. 본 발명의 실시 예에서는 근거리 통신 유닛의 예로서 블루투스 통신을 사용하였으나, 지그비(ZigBee), 초 광대역 통신(Ultra Wide Band: UWB) 또는 무선인식(RFID) 등과 같이 근거리에서 통신채널을 형성하여 신호를 송수신할 수 있는 근거리 통신 유닛으로 대체되어 사용되거나, 또는 함께 사용될 수 있다.
코일(530)은 휴대 장치(100)의 제2 터치 패널(191)의 루프 코일과의 상호 작용에 의해 유도 자계가 발생한다. 휴대 장치(100)는 코일(530)에서 발생된 유도 자계를 수신하여 입력 유닛(167)의 호버링(Hovering) 위치, 터치 위치, 및 휴대 단말(100)은 터치 스크린(190)에서부터 입력 유닛(167)의 펜 팁(541)까지 높이(h)를 검출할 수 있다.
펜 버튼(542)은 사용자에 의해 눌러지는 경우 코일(510)에서 발생하는 전자기 유도 값을 변경할 수 있다. 펜 버튼(542)은 물리적 버튼 또는 터치 버튼을 포함할 수 있다.
펜 스피커(543)는 펜 제어부(510)의 제어에 따라 펜 메모리(550)에 저장된 다양한 사운드 소스를 출력할 수 있다. 본 발명의 실시예에 따른 펜 스피커(543)는 버튼(542)에 의해 발생하는 카피 명령에 응답하여 휴대 장치(100)에서부터 수신되는 제1 제어 명령에 대응되는 청각 피드백을 출력할 수 있다. 펜 스피커(543)는 버튼(542)에 의해 발생하는 페이스트 명령에 응답하여 휴대 장치(100)에서부터 수신되는 제2 제어 명령에 대응되는 청각 피드백을 출력할 수 있다. 또한, 펜 스피커(543)는 펜 진동 소자(520)의 진동 주기 및/또는 진동 세기에 대응하는 사운드를 출력할 수 있다. 펜 스피커(560)는 입력 유닛(167)에서 출력되는 제1 및/또는 제2 제어 신호에 대응하는 사운드를 휴대 단말(100)에 구비된 스피커(163)와 실질적으로 동시(예를 들어, 시간 간격이 5 ms 이하)에 또는 결정된 시간(예: 20 ms) 후에 출력할 수 있다.
펜 진동소자(544)는 펜 제어부(510)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다.
본 발명의 실시예에 따라 펜 진동소자(544)는 휴대 장치(100)에서부터 수신된 제1 제어 신호 및/또는 제2 제어 신호에 기초하여 활성화되어 촉각 피드백을 사용자에게 제공할 수 있다. 펜 진동소자(544)는 입력 유닛(167) 전체를 진동되게 하거나 또는 입력 유닛(167)의 일부분만 진동되게 할 수 있다.
펜 메모리(550)는 펜 제어부(510)의 제어에 따라 펜 통신 유닛(520), 코일(530), 펜 버튼(542), 펜 스피커(543), 펜 진동소자(544) 및 펜 배터리(560)의 동작에 대응되게 입/출력 되는 신호 또는 데이터를 저장할 수 있다.
본 발명의 실시 예에 따라 펜 메모리(550)는 입력 유닛(167)의 장치 정보를 저장할 수 있다. 예를 들어, 장치 정보는 모델명, 고유의 장치 ID(device ID), 메모리 잔량, 객체데이터 유무, 블루투스 버전 또는 블루투스 프로파일을 포함할 수 있다. 또한, 펜 메모리(550)는 휴대 장치(100)에서부터 수신되는 제1 및/또는 제2 제어 신호 및 제1 및/또는 제2 제어 신호에 기초하여 펜 진동소자(544)를 진동되게 하는 하나 또는 복수의 촉각 파형을 저장할 수 있다.
펜 배터리(560)은 펜 제어부(510)의 제어에 따라 입력 유닛의 구성 요소들(510 내지 550)에게 전원을 공급할 수 있다. 펜 배터리(560)는 배터리 잔량이 충분하지 않은 경우 별도의 유선 케이블(도시되지 아니함) 또는 무선을 이용하여 충전할 수 있다.
본 발명의 실시예에 따라 제어 신호는 펜 제어부(510)의 제어에 따라 입력 유닛(167)의 펜 통신 유닛(520)을 통해 수신된다. 제어 신호는 휴대 장치(100)에서부터 수신된 신호이며, 미리 정해진 시간 동안 또는 호버링이 종료되는 시점까지 주기적으로 입력 유닛(167)에서 수신될 수 있다. 제어 신호는 예를 들어, 입력 유닛(167)의 진동 소자의 모드를 활성화하기 위한 정보, 입력 유닛(167)의 진동 세기를 나타내는 정보, 입력 유닛(167)의 진동 소자의 모드를 비활성화하기 위한 정보, 펜 진동 소자(520)의 진동하는 총 시간을 나타내는 정보 중 적어도 하나를 포함한다. 제어 신호는 약 8 바이트의 크기를 가지며 미리 정해진 주기(예: 5 ms)에 따라 휴대 장치(100)에서 반복적으로 전송될 수 있다. 예를 들어, 제어 신호는 아래 [표 1]과 같은 정보를 포함할 수 있다.
필드 진동 소자 활성 진동 세기 진동 소자 비활성
정보 1 125 125 131 131 0 2
[표 1]과 같이, 제어 신호는 입력 유닛의 펜 진동 소자(520)를 활성화하기 위한 정보, 펜 진동 소자(520)의 진동 세기를 나타내는 정보 및 펜 진동 소자(520)를 비활성화하기 위한 정보를 포함한다. 그리고, 제어 신호는 5 ms 단위로 입력 유닛(167)으로 전송될 수 있으나, 이는 하나의 실시 예일 뿐 촉각 파형의 주기에 따라 제어 신호의 전송은 가변적일 수 있다. 제어 신호의 전송 주기와 전송 기간 역시 가변적이다. 전송 기간은 호버링 인식이 종료되는 시점까지의 기간일 수 있다. 제어 신호의 크기는 휴대 장치(100)와 입력 유닛(167)의 무선 통신 방식, 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 5의 입력 유닛(167)에 도시된 구성요소들은 입력 유닛(167)의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성요소들의 위치는 휴대 장치(100)의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 6은 본 발명의 실시 예에 따른 휴대 장치의 피드백 제공방법을 나타내는 개략적인 순서도이다.
도 7a 내지 도 7i는 본 발명의 실시 예에 따른 휴대 장치의 피드백 제공방법들을 나타내는 도면이다.
도 8은 본 발명의 실시 예에 따른 휴대 장치의 촉각 파형의 예를 나타내는 도면이다.
도 6의 단계(S601)에서, 터치 스크린에 하나 또는 복수의 객체를 표시한다.
도 7a를 참조하면, 터치 스크린(190)에는 복수의 애플리케이션 화면(710)(720)이 표시된다. 표시되는 애플리케이션 화면(710)에는 객체(711)가 표시된다. 본 발명의 실시예에 따른 객체는 휴대 장치(100)의 터치 스크린상(190)에 디스플레이되거나, 디스플레이될 수 있는 것으로서, 문서, 위젯, 사진, 지도, 동영상, 이메일, SMS 메시지 및 MMS 메시지 중 적어도 하나를 포함하며 입력 유닛(167)에 의해 실행, 삭제, 취소, 저장 및 변경될 수 있다. 이러한, 객체는 단축 아이콘, 썸네일 이미지 및 휴대 장치에서 적어도 하나의 객체를 저장하고 있는 폴더를 포괄하는 의미로도 사용될 수 있다. 예를 들어, 하나의 애플리케이션의 화면(710)은 웹 브라우저 화면이고, 다른 애플리케이션 화면(720)은 노트 애플리케이션 화면이다. 또한, 도 6a에서는 실행된 하나의 애플리케이션 화면(710)이 표시될 수도 있다. 또한, 복수의 애플리케이션이 실행되나, 하나의 애플리케이션(710)이 표시되고, 다른 애플리케이션 화면(720)은 표시되지 않을 수도 있다.
터치 스크린(190)에 표시되는 애플리케이션 화면의 예는 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 수 있는 것이다.
제어부는 통신 유닛을 이용하여 주변의 블루투스 통신이 가능한 입력 유닛(167)을 검색(discovery)한다. 또한 제어부는 통신 유닛을 통해 입력 유닛(167)에서부터 장치 정보(예를 들어, 모델명, 고유한 장치 ID(device ID), 메모리 잔량, 블루투스 버전 또는 블루투스 프로파일 등 )를 수신할 수 있다. 입력 유닛(167)과 연결되는 경우, 제어부는 통신 유닛을 통해 입력 유닛(167)과 페어링(pairing)을 수행한다. 제어부는 수동(예를 들어, 휴대 장치(100)에서 입력 유닛(167)을 검색) 또는 자동(예를 들어, 입력 유닛(167)이 휴대 단말(100)에서 검출되는 경우, 입력 유닛(167)의 등록을 위한 팝업(pop-up) 표시) 중 하나를 이용하여 입력 유닛(167)과 페어링 할 수 있다. 제어부는 페어링을 통해 입력 유닛(167)의 장치 정보(예를 들어, 모델명, 고유한 장치 ID(device ID), 메모리 잔량, 블루투스 버전 또는 블루투스 프로파일 등)를 수신할 수 있다. 또는 제어부는 페어링 후 입력 유닛(167)의 장치 정보를 수신할 수 있다. 수신된 장치 정보는 휴대 장치(100)의 저장부에 저장된다. 제어부는 입력 유닛(167)의 장치 정보를 이용하여 본 발명의 실시예를 수행할 수 있다. 페어링을 통해 휴대 장치(100)와 입력 유닛(167)은 상대 기기가 통신 가능한 상태이며, 인증 과정에 사용할 링크키(link key)를 공유하고 있어 상호 암호화된 연결을 설정할 수 있으며, 상호 간의 데이터를 전송할 수 있음을 의미한다.
입력 유닛(167)의 장치 정보의 예는 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 수 있는 것이다.
도 6의 단계(S602)에서, 입력 유닛의 제1 터치를 검출한다.
도 7b를 참조하면, 애플리케이션 화면(710)에 표시되는 객체(711)가 입력 유닛(167)에 의해 터치된다. 제어부는 터치 스크린(190), 펜 인식 패널(191) 및 터치 스크린 컨트롤러를 통해 애플리케이션 화면(710)에서 입력 유닛(167)의 제1 터치(712)를 검출한다. 제어부는 터치 스크린 컨트롤러로부터 제1 터치(712)에 대응되는 제1 위치 정보(예를 들어, 제1 터치(712)에 대응되는 X1과 Y1좌표를 수신한다.
또한, 애플리케이션 화면(710)에 표시되는 객체(711)에서 입력 유닛(167)의 호버링이 검출된다. 제어부는 펜 인식 패널(191) 및 터치 스크린 컨트롤러를 통해 애플리케이션 화면(710)에서 입력 유닛(167)의 호버링을 검출한다. 제어부는 터치 스크린 컨트롤러로부터 검출된 호버링(712a)에 대응되는 제2 위치 정보(예를 들어, 호버링(712a)에 대응되는 X2와 Y2좌표를 수신한다.
제어부는 수신된 제1 위치정보에 포함된 터치 스크린(190)상의 터치 또는 제2 위치 정보에 포함된 터치 스크린(190)상의 호버링 위치, 터치 검출 시간(예를 들어, 14시 17분) 및 터치에 대응되는 터치 정보(예를 들어, 터치 압력 또는 호버링 높이 등)를 저장부에 저장할 수 있다. 터치 스크린(190)에 접촉되는 터치(712)는 예를 들어, 엄지를 포함하는 손가락들 중 하나 또는 터치 가능한 입력 유닛(167)에 의해 발생할 수 있다.
검출되는 터치의 개수는 휴대 장치(100)의 성능 또는 구조에 대응하여 변경될 수 있음은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 수 있는 것이다.
도 6의 단계(S603)에서, 카피 대상 객체를 선택한다.
도 7c를 참조하면, 제어부는 입력 유닛(167)의 터치에 대응되는 객체(711)를 선택(711a) 할 수 있다. 제어부는 입력 유닛(167)의 호버링에 대응되는 객체(711)를 선택(711a) 할 수 있다. 예를 들어, 객체(711)의 선택은 객체(711)의 가장자리에 테두리를 표시, 객체(711)의 가장자리에 별도의 기호(예를 들어, □, ◇, ○ 등)를 표시 또는 객체(711) 컬러를 다르게 표시할 수 있다. 제어부는 터치 스크린 컨트롤러로부터 수신된 입력 유닛(167)의 터치에 대응되는 제1 위치정보(X1과 Y1좌표) 또는 호버링에 대응되는 제2 위치정보(X2와 Y2좌표)를 이용하여 객체(711)를 선택할 수 있다. 제어부는 기저장된 입력 유닛(167)의 장치 정보와 선택된 객체(711)에 대응되는 객체 정보(예를 들어, 파일명, 파일 사이즈, 파일 타입, 파일 확장자 또는 파일 저장 위치 등)을 매핑하여 애플리케이션(710) 내 임시 저장공간(도시되지 아니함) 또는 클립보드(도시되지 아니함)에 저장할 수 있다. 제어부는 객체(711)의 선택에 대응하여 터치 스크린(190)을 통한 시각 피드백(예를 들어, 플래쉬, 동영상 등), 스피커(163)를 이용한 청각 피드백(예를 들어, 사운드 출력) 및 진동 모터(164)를 이용한 촉각 피드백(예를 들어, 진동 출력 등) 중 적어도 하나를 휴대 단말(100)을 통해 제공할 수 있다. 예를 들어, 제어부는 시각 피드백, 청각 피드백 및 촉각 피드백 중 하나를 제공하거나 시각 피드백, 청각 피드백 및 촉각 피드백의 조합을 제공할 수 있다.
제어부는 기저장된 입력 유닛(167)의 장치 정보 및 객체(711)의 선택에 응답하여 통신 유닛을 통해 펜 진동 소자(544)에서 출력되는 촉각 피드백(예를 들어, 진동 출력 등)에 대응되는 제1 제어 신호를 블루투스 SPP(Serial Port Profile)로 입력 유닛(167)에게 전송하도록 제어할 수 있다. 휴대 단말(100)에서부터 수신된 제1 제어 신호에 기초하여 입력 유닛(167)은 펜 진동 소자(544)에서 출력되는 촉각 피드백(예를 들어, 진동 출력 등)을 제공할 수 있다.
또한, 제어부는 통신 유닛을 통해 촉각 피드백에 대응되는 제1 제어 신호와 별개로 기저장된 입력 유닛(167)의 장치 정보 및 객체(711)의 선택에 응답하여 펜 스피커(543)에서 출력되는 청각 피드백(예를 들어, 사운드 출력)에 대응되는 제1 제어 신호를 블루투스 SPP(Serial Port Profile)로 입력 유닛(167)에게 전송하도록 제어할 수 있다. 휴대 단말(100)에서부터 수신된 제1 제어 신호에 기초하여 입력 유닛(167)은 펜 스피커(543)에서 출력되는 청각 피드백(예를 들어, 사운드 출력)을 제공할 수 있다. 또한, 펜 제어부(510)는 촉각 피드백 및 청각 피드백 중 하나를 제공하거나 촉각 피드백 및 청각 피드백의 조합으로 제공할 수 있다.
제어부는 휴대 단말(100)에서 제공되는 촉각, 청각 또는 시각 피드백과 입력 유닛(167)에서 제공되는 촉각 또는 청각 피드백이 동일한 제1 제어 신호 및 다른 제어 신호 중 하나를 통신 유닛을 통해 전송하도록 제어 할 수 있다.
도 6의 단계(S604)에서, 입력 유닛의 버튼에 의한 카피 명령을 수신한다.
도 7d를 참조하면, 제어부는 선택된 객체(711)에 대한 카피 명령(copy command)을 입력 유닛(167)에서부터 블루투스 SPP(Serial Port Profile)로 수신할 수 있다. 제어부는 수신된 카피 명령을 기저장된 입력 유닛(167)의 장치 정보와 매핑하여 저장부에 저장한다.
사용자에 의해 버튼(542)이 눌러지는 경우(713), 펜 제어부(510)는 입력 유닛(167)의 동작 모드를 카피 모드로 전환한다. 펜 제어부(510)는 펜 통신 유닛(520)을 통해 카피 명령을 휴대 장치(100)로 전송하도록 제어할 수 있다. 카피 명령은 펜 제어부(510)의 제어에 따라 펜 통신 유닛(520)을 통해 미리 결정된 시간(예를 들어, 5 s)동안 주기적으로(예를 들어, 50 ms) 전송될 수 있다. 또한, 펜 제어부(510)는 사용자에 의해 버튼(542)이 한번 더 눌러지는 경우, 펜 제어부(510)는 입력 유닛(167)의 현재 동작 모드인 카피 모드를 해제할 수 있다. 또한, 사용자에 의해 호버링중인 입력 유닛(167)의 버튼(542)이 눌러지는 경우(713), 펜 제어부(510)는 입력 유닛(167)의 동작 모드를 카피 모드로 전환할 수 있다. 펜 제어부(510)는 펜 통신 유닛(520)을 통해 카피 명령을 블루투스 SPP(Serial Port Profile)로 휴대 장치(100)에게 전송하도록 제어할 수 있다. 카피 명령은 펜 제어부(510)의 제어에 따라 펜 통신 유닛(520)을 통해 미리 결정된 시간(예를 들어, 5 s)동안 주기적으로(예를 들어, 50 ms)으로 전송될 수 있다. 또한, 펜 제어부(510)는 사용자에 의해 버튼(542)이 한번 더 눌러지는 경우(713), 펜 제어부(510)는 입력 유닛(167)의 동작 모드인 카피 모드를 해제할 수 있다.
입력 유닛(167)의 버튼에 의한 카피 명령의 수신이 아닌 경우, 단계(S609)로 진행한다.
도 6의 단계(S605)에서, 터치 스크린에 시각 피드백을 표시하고, 촉각 피드백에 대응되는 제어 명령을 입력 유닛으로 전송한다.
도 7e 및 도 7g를 참조하면, 수신된 카피 명령에 응답하여, 제어부는 객체(711)를 기결정된 사이즈(711b, 예를 들어, 원 사이즈의 25%인 50 pixel X 60 pixel)로 축소되는 시각 피드백(714)을 표시한다. 시각 피드백(714)은 제1 터치 위치(712)를 기준으로 객체의 현재 사이즈(711, 예를 들어, 200 pixel X 240 pixel)에서부터 기결정된 사이즈(711b)로 축소된다. 시각 피드백(714)은 객체의 현재 사이즈(711)에서부터 기결정된 사이즈(711b)까지 등속(constant velocity)으로 점진적으로 축소된다. 또한, 시각 피드백(714)은 객체의 현재 사이즈의 중심 위치를 기준으로(도시되지 아니함)에서부터 기결정된 사이즈(711b)로 축소될 수 있다. 기결정된 사이즈(711b)로 축소가 완료되고, 입력 유닛(167)이 입력 유닛(167)의 호버링이 검출되는 높이보다 더 터치 스크린(190)에서 멀어지는 경우, 제어부는 축소된 객체(711b)를 표시하지 않을 수 있다. 입력 유닛(167)이 입력 유닛(167)의 호버링이 검출되는 높이보다 더 터치 스크린(190)에 근접하는 경우, 제어부는 축소된 객체(711b)를 표시할 수 있다.
제어부는 수신된 카피 명령에 응답하여 기저장된 입력 유닛(167)의 장치 정보를 이용하여 제1 제어 신호를 블루투스 SPP(Serial Port Profile)로 입력 유닛(167)에게 전송하도록 제어할 수 있다. 제1 제어 신호는 펜 진동 소자(544)를 통한 촉각 피드백(715)에 대한 촉각 정보를 포함할 수 있다. 예를 들어, <표 1>은 촉각 정보의 예시이다. 제1 제어 신호는 펜 스피커(543)을 통한 청각 피드백(716)에 대한 청각 정보를 포함할 수 있다. 청각 정보는 펜 스피커(543)를 통해 출력되는 사운드 소스를 포함할 수 있다. 입력 유닛(167)은 촉각 피드백에 대응되는 촉각 정보 및 청각 피드백에 대응되는 청각 정보를 펜 메모리(550)에 기 저장할 수 있다. 제어 정보는 펜 메모리(550)에 저장된 사운드 소스에 대응되는 파일명, 파일 타입, 펜 스피커(543) 활성 정보, 사운드 세기 정보 및 펜 스피커(543) 비활성 정보를 포함할 수 있다.
제어부는 입력 유닛(167)에 대한 제1 제어 신호의 전송 시작과 시각 피드백 표시를 동시에 하거나 제1 제어 신호의 전송 시작과 시각 피드백의 표시 중 하나를 우선하여 수행할 수 있다.
본 발명의 다른 실시예에 따라 객체(711)의 시각 피드백뿐만 아니라 신규 객체(714b)를 이용한 추가 시각 피드백(714a)을 선택적으로 제공할 수 있다. 도 7f를 참조하면, 시각 피드백(714)이 표시되는 경우, 신규 객체(714b)는 객체(711)에 인접(예를 들어, 객체와 20 mm 이하)하여 표시된다. 신규 객체(714b)는 액체를 흡입하지 않은 빈 피펫(pipette)이다. 객체(711)의 사이즈가 기 결정된 사이즈로 점진적으로 축소되는 시각 피드백(714)에 응답하여, 제어부는 액체를 점진적으로 흡입하는 피펫(714b)을 표시할 수 있다. 객체(711)가 기결정된 사이즈(711b)로 축소가 완료되는 경우, 제어부는 액체 흡입이 완료된 피펫(714c)을 표시할 수 있다. 제어부는 액체 흡입이 완료된 피펫(714c)을 결정된 시간(예를 들어, 500 ms)동안 표시할 수 있다.
제어부는 수신된 카피 명령에 응답하여 시각 피드백뿐만 아니라, 진동 모터(164)를 통해 촉각 피드백이 출력되도록 제어할 수 있다. 제어부는 도 8과 같은 촉각 정보에 대응되게 진동 모터(164)를 진동시켜 촉각 피드백을 제공할 수 있다. 도 8에 대한 상세한 설명은 도 6의 단계(S606)에서 후술한다. 제어부는 수신된 카피 명령에 응답하여 시각 피드백뿐만 아니라, 스피커(163)를 통해 청각 피드백에 대응되는 사운드 소스를 출력하도록 제어할 수도 있다.
도 6의 단계(S606)에서, 입력 유닛에서 촉각 피드백과 청각 피드백을 제공한다.
도 7e 및 도 8을 참조하면, 펜 제어부(510)는 제어 명령을 블루투스 SPP(Serial Port Profile)로 펜 통신 유닛(520)을 통해 수신할 수 있다. 펜 제어부(510)는 수신된 제어 명령에 응답하여, 제어 정보에 포함된 촉각 정보에 대응되는 촉각 피드백을 펜 진동소자(544)에서 출력(예를 들어, 도 8)하도록 제어할 수 있다.
도 8의 가로 축(X축)은 진동 모터(164)의 진동 시간을 나타내고 단위는 50 ms(805a)이다. 세로 축(Y축)은 진동 모터(164)의 진동 세기를 나타내고 단위는 500 mV(805b)이다. 도 8의 촉각 정보에 대응되는 촉각 파형은 0 V에서부터 1.6 V까지 점진적으로 증가하고, 급격하게 0 V로 감소하는 진동임을 알 수 있다.
전처리 구간(810a)에서, 펜 제어부(510)는 휴대 장치(100)에서 수신된 제어 정보를 분석 및/또는 저장하고, 펜 진동소자(544)에 전원을 공급할 수 있다. 예를 들어, 전처리 구간(810a)은 펜 진동소자(544)에서 진동을 발생하기 전 구간을 의미할 수 있다.
가속 구간(810b)는 펜 진동 소자(544)에서 진동 시간 및 진동 세기가 증가하는 구간을 의미한다. 가속 구간(810b)에서 가속 구간(810b) 및 최대 세기(810d)는 카피 정보에 포함된 파일 사이즈 또는 카피 프로세싱 시간에 따라 변경될 수 있다. 예를 들어, 파일 사이즈가 1 MB인 객체의 가속 구간은 파일 사이즈가 500 KB인 객체의 가속 구간보다 최대 가속 구간이 길고 최대 세기가 클 수 있다. 카피 프로세싱 시간이 1.5 s인 객체의 가속 구간은 카피 프로세싱 시간이 500 ms보다 최대 가속 구간이 길고 최대 세기가 클 수 있다.
감속 구간(810c)은 최대 세기(810d)인 펜 진동 소자(544)의 진동이 감속하는 구간을 의미한다. 펜 제어부(510)는 감속 구간(810c)에서 촉각 피드백의 출력을 완료할 수 있다. 감속 구간(810c)은 가속 구간(810b)보다 시간 축(X축)이 짧거나 같을 수 있다. 본 발명의 다른 실시 예는 도 8 이외에 진동 시간, 진동 주기, 진동 세기가 다른 다양한 촉각 파형(예를 들어, 도 13 내지 도 15)이 저장되어 있으며, 기 저장된 촉각 파형(예를 들어, 도 13 내지 도 15)의 조합으로 또 다른 촉각 파형을 생성 및 저장할 수 있다.
펜 제어부(510)는 수신된 제어 명령에 응답하여, 제어 정보에 포함된 청각 정보(예를 들어, 사운드 소스)에 대응되는 청각 피드백을 펜 스피커(543)에서 출력하도록 제어할 수 있다. 펜 제어부(510)는 촉각 피드백 및 청각 피드백 중 하나를 선택적으로 출력하도록 제어할 수 있다.
도 6의 단계(S607)에서, 입력 유닛의 메모리 잔량을 확인한다.
제어부는 기저장된 입력 유닛(167)의 장치 정보를 이용하여 입력 유닛(167)의 펜 메모리(550)의 잔량과 객체(711)의 객체 정보에 포함되는 파일 사이즈를 비교할 수 있다.
비교 결과에 따라, 제어부는 객체(711)의 객체데이터를 포함하는 카피 정보 및 객체(711)의 객체데이터를 제외한 카피 정보 중 하나를 입력 유닛(167)으로 전송할 수 있다.
본 발명의 실시 예에서, 입력 유닛의 메모리 잔량의 확인은 단계(S603 내지 S605)에서 진행될 수 있음은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
입력 유닛의 메모리 잔량이 충분하지 않은 경우, 단계(S612)로 진행한다.
도 6의 단계(S608)에서, 카피 정보를 입력 유닛으로 전송한다.
펜 메모리(550)의 잔량이 객체(711)의 파일 사이즈보다 큰 경우, 제어부는 객체(711)에 대응되는 카피 정보를 입력 유닛(167)의 장치 정보를 이용하여 블루투스 SPP(Serial Port Profile)로 펜 통신유닛(520)에게 전송하도록 제어할 수 있다. 카피 정보는 객체데이터, 파일명, 파일 사이즈, 파일 타입, 파일 저장위치 및 카피 시간 등을 포함할 수 있다.
펜 메모리(550)의 잔량이 객체(711)의 파일 사이즈보다 작은 경우, 제어부는 객체(711)에 대응되는 카피 정보를 입력 유닛(167)의 장치정보를 이용하여 펜 통신유닛(520)으로 전송할 수 없다. 대신, 제어부는 객체데이터를 제외한 카피 정보를 입력 유닛(167)의 장치정보를 이용하여 블루투스 SPP(Serial Port Profile)로 펜 통신유닛(520)에게 전송할 수 있다.
제어부는 입력 유닛(167)으로 카피 정보의 전송이 완료되는 경우, 휴대 장치(100)에서 제공되는 시각, 촉각 및 청각 피드백의 출력을 완료할 수 있다.
도 6의 단계(S608)에서, 제어부는 카피 정보를 입력 유닛으로 전송하는 경우, 휴대 장치의 피드백 제공방법은 종료된다.
도 6의 단계(S604)로 되돌아가서, 입력 유닛의 버튼에 의한 카피 명령이 아닌 경우, 단계(S609)로 진행한다.
도 6의 단계(S609)에서, 입력 유닛의 터치 제스처를 검출한다.
제어부는 입력 유닛(167)의 터치 제스처(도시되지 아니함)를 검출한다. 입력 유닛(167)에 의한 터치제스처(예를 들어, 회전(rotate), 플릭(flick), 또는 롱 프레스(long press))가 터치 스크린(190)에서 검출되는 경우, 제어부는 터치 스크린(190)과 터치 스크린 컨트롤러를 이용하여 터치(712)의 연속적인 움직임(예를 들어, 터치 제스처 움직임에 대응되는 연속적인 X와 Y좌표, 도시되지 아니함)을 검출할 수 있다. 제어부는 검출된 터치(712)에서 시작되는 연속적인 움직임을 저장부에 저장할 수 있다. 터치(712)의 연속적인 움직임은 터치 스크린상의 접촉이 연속적으로 유지되는 것을 의미한다. 예를 들어, 롱 프레스의 경우, 터치의 연속적인 움직임이 아니라 터치의 유지되는 시간이 2 s 이상인 터치 제스처를 의미할 수 있다.
또한, 제어부는 호버링중인 입력 유닛(167)의 터치제스처(예를 들어, 회전(rotate), 플릭(flick), 또는 롱 프레스(long press))가 터치 스크린(190)에 입력되는 경우, 제어부는 펜 인식 패널(191)과 터치 스크린 컨트롤러를 이용하여 입력 유닛(167)의 연속적인 움직임(예를 들어, 터치 제스처 움직임에 대응되는 연속적인 X와 Y좌표, 도시되지 아니함)을 검출할 수 있다. 제어부는 검출된 호버링 위치에서 시작되는 연속적인 움직임을 저장부에 저장할 수 있다.
도 6의 단계(S609)에서의 터치 제스처가 환경 설정을 통해 변경될 수 있음은 당해 기술분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 6의 단계(S609)에서 입력 유닛의 터치 제스처가 검출되지 않는 경우, 종료한다.
도 6의 단계(S610)에서, 카피 아이콘을 표시한다.
도 7h를 참조하면, 제어부는 입력된 터치 제스처에 응답하여 아이콘 그룹(720)을 표시할 수 있다. 아이콘 그룹(720)은 카피 아이콘(720a), 컷(cut) 아이콘(720b) 또는 삭제 아이콘(720c)을 포함한다. 아이콘 그룹(720)에서 표시되는 아이콘은 휴대 장치(100)의 성능 또는 구조에 대응하여 추가, 변경 또는 삭제될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 6의 단계(S611)에서, 카피 아이콘의 선택에 의한 카피 명령을 수신 또는 입력 받는다.
도 7i를 참조하면, 표시된 아이콘 그룹(720)에서 입력 유닛(167)에 의해 카피 아이콘(720a)이 선택된다(721). 제어부는 입력 유닛(167)에 의해 카피 아이콘(720a)의 선택(721)에 대응되는 카피 명령을 수신한다. 제어부는 수신된 카피 명령을 기저장된 입력 유닛(167)의 장치 정보와 매핑하여 저장부에 저장한다. 카피 아이콘(720a)이 선택되는 경우, 제어부는 아이콘 그룹(720)을 표시하지 않도록 제어할 수 있다.
제어부는 입력된 카피 명령에 대응되는 입력 유닛의 모드 전환 신호를 입력 유닛으로 전송하도록 제어할 수 있다. 수신된 모드 전환 신호에 응답하여, 펜 제어부(510)는 입력 유닛(167)의 동작 모드를 카피 모드로 전환한다. 펜 제어부(510)는 사용자에 의해 버튼(542)이 눌러지는 경우, 펜 제어부(510)는 입력 유닛(167)의 동작 모드인 카피 모드를 해제할 수 있다.
또한, 제어부는 호버링중인 입력 유닛(167)에 의해 카피 아이콘(720a)이 선택 되는 경우, 제어부는 입력된 카피 명령에 대응되는 입력 유닛의 모드 전환 신호를 입력 유닛으로 전송하도록 제어할 수 있다. 수신된 모드 전환 신호에 응답하여, 펜 제어부(510)는 입력 유닛(167)의 동작 모드를 카피 모드로 전환한다. 펜 제어부(510)는 사용자에 의해 버튼(542)이 눌러지는 경우, 펜 제어부(510)는 입력 유닛(167)의 동작 모드인 카피 모드를 해제할 수 있다.
도 6의 단계(S611)에서, 카피 아이콘의 선택에 의한 카피 명령이 수신되는 경우, 단계(S605)로 진행한다.
도 6의 단계(S607)로 되돌아가서, 입력 유닛의 메모리 잔량이 충분하지 않은 경우, 단계(S612)로 진행한다.
도 6의 단계(S612)에서 카피 정보를 외부 서버로 전송한다.
펜 메모리(550)의 잔량이 객체(711)의 파일 사이즈보다 작은 경우, 제어부는 객체(711)에 대응되는 카피 정보 중 객체 데이터가 없는 제1 카피 정보를 입력 유닛(167)의 장치 정보를 이용하여 펜 통신유닛(520)으로 전송하도록 제어할 수 있다. 제어부는 카피 정보 중 객체 데이터를 저장부에 저장된 제조사의 외부 서버(도시되지 아니함)의 URL 및 통신 유닛을 통해 외부 서버로 전송하도록 제어할 수 있다. 제어부는 제1 카피 정보와 외부 서버의 URL을 매핑하여 저장부에 저장할 수 있다. 제어부는 입력 유닛(167)으로 전송된 제1 카피 정보를 이용하여 외부 서버로 전송된 객체 데이터를 수신할 수 있다. 또한, 제어부는 카피 정보 중 객체 데이터를 저장부의 클립 보드(도시되지 아니함)에 저장할 수 있다. 클립보드에 저장된 객체 데이터는 입력 유닛(167)에 전송된 제1 카피 정보를 이용하여 휴대 장치(100)내에서 페이스트를 할 수 있다.
본 발명에서 휴대 장치(100), 입력 유닛(167) 및 외부 서버 사이의 카피 명령, 제어 정보 및 카피 정보의 송/수신은 다양한 통신 방식을 지원하는 휴대 장치(100), 입력 유닛(167) 및 외부 서버의 통신 유닛을 이용하여 수행되며, 블루투스에 한정되지 않음은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
제어부는 외부 서버(도시되지 아니함)로 카피 정보의 전송이 완료되는 경우, 휴대 장치(100)에서 제공되는 시각, 촉각 및 청각 피드백의 출력을 완료할 수 있다.
도 6의 단계(S612)에서, 제어부는 카피 정보를 외부 서버로 전송하는 경우, 휴대 장치의 피드백 제공방법은 종료된다.
도 9는 본 발명의 다른 실시 예에 따른 휴대 장치의 피드백 제공방법을 나타내는 개략적인 순서도이다.
도 10a 내지 도 10g는 본 발명의 다른 실시 예에 따른 휴대 장치의 피드백 제공방법들을 나타내는 도면이다.
도 11은 본 발명의 다른 실시예에 따른 휴대 장치의 촉각 파형의 예를 나타내는 도면이다.
도 9의 단계(S901)에서, 입력 유닛의 제2 터치를 검출한다.
도 10a를 참조하면, 노트 애플리케이션 화면(720)에 입력 유닛(167)에 의해 터치된다. 제어부는 터치 스크린(190), 펜 인식 패널(191) 및 터치 스크린 컨트롤러를 통해 노트 애플리케이션 화면(720)에서 입력 유닛(167)의 제2 터치(1012)를 검출한다. 제어부는 터치 스크린 컨트롤러로부터 제2 터치(1012)에 대응되는 제3 위치 정보(예를 들어, 제2 터치 1012에 대응되는 X3과 Y3좌표를 수신한다.
노트 애플리케이션 화면(720)에 입력 유닛(167)의 호버링이 검출된다. 제어부는 펜 인식 패널(191) 및 터치 스크린 컨트롤러를 통해 노트 애플리케이션 화면(720)에서 입력 유닛(167)의 호버링을 검출한다. 제어부는 터치 스크린 컨트롤러로부터 검출된 호버링(1012a)에 대응되는 제4 위치 정보(예를 들어, 호버링(1012a)에 대응되는 X4와 Y4좌표를 수신한다.
제어부는 수신된 제3 위치정보에 포함된 터치 스크린(190)상의 터치 또는 제4 위치 정보에 포함된 터치 스크린(190)상의 호버링 위치, 터치 검출 시간(예를 들어, 14시 20분) 및 터치에 대응되는 터치 정보(예를 들어, 터치 압력 또는 호버링 높이 등)를 저장부에 저장할 수 있다. 터치 스크린(190)에 접촉되는 터치(1012)는 예를 들어, 엄지를 포함하는 손가락들 중 하나 또는 터치가능한 입력 유닛(167)에 의해 발생할 수 있다.
검출되는 터치의 개수는 휴대 장치(100)의 성능 또는 구조에 대응하여 변경될 수 있음은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 수 있는 것이다.
제어부는 입력 유닛(167)에서부터 장치 정보(예를 들어, 모델명, 고유한 장치 ID(device ID), 메모리 잔량, 블루투스 버전 또는 블루투스 프로파일 등)를 수신할 수 있다. 제어부는 입력 유닛(167)으로부터 카피 정보(예를 들어, 객체데이터, 파일명, 파일 사이즈, 파일 타입, 파일 저장위치 및 카피 시간 등을 포함)를 수신할 수 있다. 입력 유닛(167)에 카피 정보가 있는 경우, 제어부는 입력 유닛으로부터 카피 정보를 수신할 수도 있다. 수신된 장치 정보 및 카피 정보는 저장부에 저장될 수 있다. 제어부는 입력 유닛(167)의 장치 정보를 이용하여 본 발명의 실시예를 수행할 수 있다.
도 9의 단계(S902)에서, 페이스트 위치를 선택한다.
도 10a를 참조하면, 제어부는 입력 유닛(167)의 터치에 대응되는 페이스트 위치(1012)를 선택할 수 있다. 제어부는 입력 유닛(167)의 호버링에 대응되는 페이스트 위치(1012a)를 선택할 수 있다. 제어부는 터치 스크린 컨트롤러로부터 수신된 입력 유닛(167)의 터치에 대응되는 제3 위치정보(X3과 Y3좌표) 또는 호버링에 대응되는 제4 위치정보(X4와 Y4좌표)를 이용하여 페이스트 위치(1012a)를 선택할 수 있다. 제어부는 기저장된 입력 유닛(167)의 장치 정보와 제3 위치 정보 또는 제4 위치 정보를 매핑하여 노트 애플리케이션(720) 내 임시 저장공간(도시되지 아니함) 또는 클립보드(도시되지 아니함)에 저장할 수 있다. 제어부는 페이스트 위치 선택에 대응하여 터치 스크린(190)을 통한 시각 피드백(예를 들어, 플래쉬, 동영상 등), 스피커(163)를 이용한 청각 피드백(예를 들어, 사운드 출력) 및 진동 모터(164)를 이용한 촉각 피드백(예를 들어, 진동 출력 등) 중 적어도 하나를 휴대 단말(100)을 통해 제공할 수 있다. 예를 들어, 제어부는 시각 피드백, 청각 피드백 및 촉각 피드백 중 하나를 제공하거나 시각 피드백, 청각 피드백 및 촉각 피드백의 조합을 제공할 수 있다.
제어부는 기저장된 입력 유닛(167)의 장치 정보 및 페이스트 위치 선택에 응답하여 통신 유닛을 통해 펜 진동 소자(544)에서 출력되는 촉각 피드백(예를 들어, 진동 출력 등)에 대응되는 제2 제어 신호를 블루투스 SPP(Serial Port Profile)로 입력 유닛(167)에게 전송하도록 제어할 수 있다. 휴대 단말(100)에서부터 수신된 제2 제어 신호에 기초하여 입력 유닛(167)은 펜 진동 소자(544)에서 출력되는 촉각 피드백(예를 들어, 진동 출력 등)을 제공할 수 있다.
또한, 제어부는 통신 유닛을 통해 촉각 피드백에 대응되는 제2 제어 신호와 별개로 기저장된 입력 유닛(167)의 장치 정보 및 페이스트 위치 선택에 응답하여 펜 스피커(543)에서 출력되는 청각 피드백(예를 들어, 사운드 출력)에 대응되는 제2 제어 신호를 블루투스 SPP(Serial Port Profile)로 입력 유닛(167)에게 전송하도록 제어할 수 있다. 휴대 단말(100)에서부터 수신된 제2 제어 신호에 기초하여 입력 유닛(167)은 펜 스피커(543)에서 출력되는 청각 피드백(예를 들어, 사운드 출력)을 제공할 수 있다. 또한, 펜 제어부(510)는 촉각 피드백 및 청각 피드백 중 하나를 제공하거나 촉각 피드백 및 청각 피드백의 조합으로 제공할 수 있다.
제어부는 휴대 단말(100)에서 제공되는 촉각, 청각 또는 시각 피드백과 입력 유닛(167)에서 제공되는 촉각 또는 청각 피드백이 동일한 제2 제어 신호 및 다른 제어 신호 중 하나를 통신 유닛을 통해 전송하도록 제어할 수 있다.
도 9의 단계(S903)에서, 입력 유닛의 버튼에 의한 페이스트 명령을 수신한다.
도 10b를 참조하면, 제어부는 카피된 객체(711)의 페이스트 명령(paste command)을 입력 유닛(167)에서부터 블루투스 SPP(Serial Port Profile)로 수신할 수 있다. 제어부는 수신된 페이스트 명령을 기저장된 입력 유닛(167)의 장치 정보와 매핑하여 저장부에 저장한다. 제어부는 수신된 페이스트 명령에 응답하여 페이스트 위치(1012a)에 기결정된 사이즈의 객체(도 7g의 711b이며 도 10b에는 도시되지 아니함)를 표시할 수 있다.
사용자에 의해 버튼(542)이 눌러지는 경우(1013), 펜 제어부(510)는 입력 유닛(167)의 동작 모드를 페이스트 모드로 전환한다. 펜 제어부(510)는 펜 통신 유닛(520)을 통해 페이스트 명령을 휴대 장치(100)로 전송하도록 제어할 수 있다. 페이스트 명령은 펜 제어부(510)의 제어에 따라 펜 통신 유닛(520)을 통해 미리 결정된 시간(예를 들어, 5 s)동안 주기적으로(예를 들어, 50 ms) 전송될 수 있다. 또한, 펜 제어부(510)는 사용자에 의해 버튼(542)이 한번 더 눌러지는 경우, 펜 제어부(510)는 입력 유닛(167)의 현재 동작 모드인 페이스트 모드를 해제할 수 있다. 또한, 사용자에 의해 호버링중인 입력 유닛(167)의 버튼(542)이 눌러지는 경우(1013), 펜 제어부(510)는 입력 유닛(167)의 동작 모드를 페이스트 모드로 전환할 수 있다. 펜 제어부(510)는 펜 통신 유닛(520)을 통해 페이스트 명령을 블루투스 SPP(Serial Port Profile)로 휴대 장치(100)에게 전송하도록 제어할 수 있다. 페이스트 명령은 펜 제어부(510)의 제어에 따라 펜 통신 유닛(520)을 통해 미리 결정된 시간(예를 들어, 5 s)동안 주기적으로(예를 들어, 50 ms) 전송될 수 있다. 또한, 펜 제어부(510)는 사용자에 의해 버튼(542)이 한번 더 눌러지는 경우, 펜 제어부(510)는 입력 유닛(167)의 동작 모드인 페이스트 모드를 해제할 수 있다.
입력 유닛(167)의 버튼에 의한 페이스트 명령의 수신이 아닌 경우, 단계(S909)로 진행한다.
도 9의 단계(S904)에서, 터치 스크린에 시각 피드백을 표시하고, 촉각 피드백에 대응되는 제어 명령을 입력 유닛으로 전송한다.
도 10c 및 도 10d를 참조하면, 수신된 페이스트 명령에 응답하여, 제어부는 페이스트 위치(1012a)에 기결정된 사이즈의 객체(711b)를 객체(1011)로 확대하는 시각 피드백(1014)을 표시한다. 시각 피드백(1014)은 제3 터치 위치(1012a)를 기준으로 객체의 원래 사이즈(1011, 예를 들어, 200 pixel X 240 pixel)로 확대된다. 시각 피드백(1014)은 객체의 기결정된 사이즈(711b)에서부터 객체의 원래 사이즈(1011)까지 등속(constant velocity)으로 점진적으로 확대된다. 또한, 시각 피드백(1014)은 페이스트 위치(1012a)의 중심 위치를 기준으로(도시되지 아니함) 객체(1011)로 확대될 수 있다.
제어부는 수신된 페이스트 명령에 응답하여 기저장된 입력 유닛(167)의 장치 정보를 이용하여 제2 제어 신호를 블루투스 SPP(Serial Port Profile)로 입력 유닛(167)에게 전송하도록 제어할 수 있다. 제2 제어 신호는 펜 진동 소자(544)를 통한 촉각 피드백(1015)에 대한 촉각 정보를 포함할 수 있다. 제2 제어 신호는 펜 스피커(543)을 통한 청각 피드백(1016)에 대한 청각 정보를 포함할 수 있다. 청각 정보는 펜 스피커(543)를 통해 출력되는 사운드 소스를 포함할 수 있다. 입력 유닛(167)은 촉각 피드백에 대응되는 촉각 정보 및 청각 피드백에 대응되는 청각 정보를 펜 메모리(550)에 기 저장할 수 있다. 제어 정보는 펜 메모리(550)에 저장된 사운드 소스에 대응되는 파일명, 파일 타입, 펜 스피커(543) 활성 정보, 사운드 세기 정보 및 펜 스피커(543) 비활성 정보를 포함할 수 있다.
제어부는 입력 유닛(167)에 대한 제2 제어 신호의 전송 시작과 시각 피드백 표시를 동시에 하거나 제2 제어 신호의 전송 시작과 시각 피드백의 표시 중 하나를 우선하여 수행할 수 있다.
본 발명의 다른 실시 예에 따라 객체(1011)의 시각 피드백뿐만 아니라 신규 객체(1014b)를 이용한 추가 시각 피드백(1014a)을 선택적으로 제공할 수 있다. 도 10d를 참조하면, 시각 피드백(1014)이 표시되는 경우, 신규 객체(1014b)는 객체(711b)에 인접(예를 들어, 원래 사이즈의 객체(1011)의 바깥)하여 표시된다. 신규 객체(1014b)는 액체를 흡입이 완료된 피펫(pipette)이다. 기 결정된 사이즈의 객체(711)가 원래 사이즈의 객체(1011)로 점진적으로 확대되는 시각 피드백(1014)에 응답하여, 제어부는 액체를 점진적으로 배출하는 피펫(1014b)을 표시할 수 있다. 원래 사이즈의 객체(711)로 확대가 완료되는 경우, 제어부는 액체 배출이 완료된 피펫(1014c)을 표시할 수 있다. 제어부는 액체 흡입이 완료된 피펫(1014c)을 결정된 시간(예를 들어, 500 ms)동안 표시할 수 있다.
제어부는 수신된 카피 명령에 응답하여 시각 피드백뿐만 아니라, 진동 모터(164)를 통해 촉각 피드백이 출력되도록 제어할 수 있다. 제어부는 도 11과 같은 촉각 정보에 대응되게 진동 모터(164)를 진동시켜 촉각 피드백을 제공할 수 있다. 도 11에 대한 상세한 설명은 도 9의 단계(S905)에서 후술한다. 제어부는 수신된 카피 명령에 응답하여 시각 피드백뿐만 아니라, 스피커(163)를 통해 청각 피드백에 대응되는 사운드 소스를 출력하도록 제어할 수도 있다.
도 9의 단계(S605)에서, 입력 유닛에서 촉각 피드백과 청각 피드백을 제공한다.
도 10c 및 도 11을 참조하면, 펜 제어부(510)는 제어 명령을 블루투스 SPP(Serial Port Profile)로 펜 통신 유닛(520)을 통해 수신할 수 있다. 펜 제어부(510)는 수신된 제어 명령에 응답하여, 제어 정보에 포함된 촉각 정보에 대응되는 촉각 피드백을 펜 진동소자(544)에서 출력하도록 제어할 수 있다.
도 11의 가로 축(X축)은 진동 모터(164)의 진동 시간을 나타내고 단위는 50 ms(1105a)이다. 세로 축(Y축)은 진동 모터(164)의 진동 세기를 나타내고 단위는 500 mV(1105b)이다. 도 11의 촉각 정보에 대응되는 촉각 파형은 0 V에서부터 1.3 V까지 급격하게 증가하고, 점진적으로 0 V로 감소하는 진동임을 알 수 있다.
전처리 구간(1110a)에서, 펜 제어부(510)는 휴대 장치(100)에서 수신된 제어 정보를 분석 및/또는 저장하고, 펜 진동소자(544)에 전원을 공급할 수 있다. 예를 들어, 전처리 구간(1110a)은 펜 진동소자(544)에서 진동을 발생하기 전 구간을 의미할 수 있다.
가속 구간(1110b)은 펜 진동 소자(544)에서 진동 시간 및 진동 세기가 증가하는 구간을 의미한다. 가속 구간(1110b)에서 가속 구간(1110b) 및 최대 세기(1110d)는 카피 정보에 포함된 파일 사이즈 또는 페이스트 프로세싱 시간에 따라 변경될 수 있다. 예를 들어, 파일 사이즈가 1 MB인 객체의 가속 구간은 파일 사이즈가 500 KB인 객체의 가속 구간보다 최대 가속 구간이 짧고 최대 세기가 클 수 있다. 페이스트 프로세싱 시간이 500 ms인 객체의 가속 구간은 페이스트 프로세싱 시간이 1.5 s보다 가속 구간이 짧고 최대 세기가 클 수 있다.
감속 구간(810c)은 최대 세기(1110d)인 펜 진동 소자(544)의 진동이 감속하는 구간을 의미한다. 펜 제어부(510)는 감속 구간(1110c)에서 촉각 피드백의 출력을 완료할 수 있다. 감속 구간(1110c)은 가속 구간(1110b)보다 시간 축(X축)이 길거나 같을 수 있다. 본 발명의 다른 실시예는 도 11 이외에 진동 시간, 진동 주기, 진동 세기가 다른 다양한 촉각 파형(예를 들어, 도 13 내지 도 15)이 저장되어 있으며, 기 저장된 촉각 파형(예를 들어, 도 13 내지 도 15)의 조합으로 또 다른 촉각 파형을 생성 및 저장할 수 있다.
펜 제어부(510)는 수신된 제어 명령에 응답하여, 제어 정보에 포함된 청각 정보(예를 들어, 사운드 소스)에 대응되는 청각 피드백을 펜 스피커(543)에서 출력하도록 제어할 수 있다. 펜 제어부(510)는 촉각 피드백 및 청각 피드백 중 하나를 선택적으로 출력하도록 제어할 수 있다.
도 9의 단계(S906)에서, 입력 유닛의 메모리에 객체데이터를 포함하는 카피 정보가 있는지를 확인한다.
제어부는 기저장된 입력 유닛(167)의 장치 정보 및 카피 정보를 이용하여 입력 유닛(167)의 펜 메모리(550)에 객체데이터를 포함하는 카피 정보의 유무를 확인할 수 있다.
확인 결과에 따라, 제어부는 장치 정보를 이용하여 객체데이터를 포함하는 카피 정보를 입력 유닛(167)에게 전송하도록 요청할 수 있다. 본 발명의 실시 예에서, 객체데이터를 포함하는 카피 정보의 확인은 단계(S901 내지 S904)에서 진행될 수 있음은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
입력 유닛(167)의 펜 메모리에 객체데이터를 포함하는 카피 정보가 없는 경우, 단계(S912)로 진행한다.
도 9의 단계(S907)에서, 객체 데이터를 포함하는 카피정보를 입력 유닛에서부터 수신한다.
제어부는 객체 데이터를 포함하는 카피정보를 블루투스 SPP(Serial Port Profile)로 입력 유닛(167)의 펜 통신유닛(520)에게 요청하고, 수신받도록 제어할 수 있다. 카피 정보는 객체 데이터, 파일명, 파일 사이즈, 파일 타입, 파일 저장위치 및 카피 시간 등을 포함할 수 있다. 제어부는 수신된 객체데이터를 포함하는 카피 정보는 저장부에 저장한다. 제어부는 입력 유닛(167)에서부터 객체 데이터를 포함하는 카피 정보의 수신이 완료되는 경우, 휴대 장치(100)에서 제공되는 시각, 촉각 및 청각 피드백의 출력을 완료할 수 있다.
도 9의 단계(S908)에서, 객체를 표시한다.
도 10e를 참조하면, 제어부는 수신된 카피 정보를 이용하여, 객체(1011)을 표시한다. 터치스크린의 애플리케이션 화면(710)(720)에 동일한 두 개의 객체가 표시된다. 도 9의 단계(S908)에서, 제어부는 객체(1011)를 표시하는 경우, 휴대 장치의 피드백 제공방법은 종료된다.
도 9의 단계(S903)로 되돌아가서, 입력 유닛의 버튼에 의한 페이스트 명령이 아닌 경우, 단계(S909)로 진행한다.
도 9의 단계(S909)에서, 입력 유닛의 터치 제스처를 검출한다.
제어부는 입력 유닛(167)의 터치 제스처(도시되지 아니함)를 검출한다. 입력 유닛(167)에 의한 터치제스처(예를 들어, 회전(rotate), 플릭(flick), 또는 롱 프레스(long press))가 터치 스크린(190)에서 검출되는 경우, 제어부는 터치 스크린(190)과 터치 스크린 컨트롤러를 이용하여 터치(1012)의 연속적인 움직임(예를 들어, 터치제스처 움직임에 대응되는 연속적인 X와 Y좌표, 도시되지 아니함)을 검출할 수 있다. 제어부는 검출된 터치(1012)에서 시작되는 연속적인 움직임을 저장부에 저장할 수 있다. 터치(1012)의 연속적인 움직임은 터치 스크린상의 접촉이 연속적으로 유지되는 것을 의미한다. 예를 들어, 롱 프레스의 경우, 터치의 연속적인 움직임이 아니라 터치의 유지되는 시간이 2 s 이상인 터치 제스처를 의미할 수 있다.
또한, 제어부는 호버링중인 입력 유닛(167)의 터치제스처(예를 들어, 회전(rotate), 플릭(flick), 또는 롱 프레스(long press))가 터치 스크린(190)에 입력되는 경우, 제어부는 펜 인식 패널(191)과 터치 스크린 컨트롤러를 이용하여 입력 유닛(167)의 연속적인 움직임(예를 들어, 터치 제스처 움직임에 대응되는 연속적인 X와 Y좌표, 도시되지 아니함)을 검출할 수 있다. 제어부는 검출된 호버링 위치에서 시작되는 연속적인 움직임을 저장부에 저장할 수 있다.
도 9의 단계(S909)에서의 터치 제스처가 환경 설정을 통해 변경될 수 있음은 당해 기술분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 9의 단계(S909)에서 입력 유닛의 터치 제스처가 검출되지 않는 경우, 종료한다.
도 9의 단계(S910)에서, 페이스트 아이콘을 표시한다.
도 10f를 참조하면, 제어부는 입력된 터치 제스처에 응답하여 페이스트 아이콘 (1020)을 표시할 수 있다. 터치 제스처에 응답하여 표시되는 아이콘은 휴대 장치(100)의 성능 또는 구조에 대응하여 추가, 변경 또는 삭제될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 9의 단계(S911)에서, 페이스트 아이콘의 선택에 의한 페이스트 명령을 수신 또는 입력 받는다.
도 10g를 참조하면, 표시된 페이스트 아이콘(1020)에서 입력 유닛(167)에 의해 페이스트 아이콘(1020)이 선택된다(1021) 제어부는 입력 유닛(167)에 의해 페이스트 아이콘(1020)의 선택(1021)에 대응되는 페이스트 명령을 수신한다. 제어부는 수신된 페이스트 명령을 기저장된 입력 유닛(167)의 장치 정보와 매핑하여 저장부에 저장한다. 페이스트 아이콘(1020a)이 선택되는 경우, 제어부는 페이스트 아이콘(1020)을 표시하지 않도록 제어할 수 있다.
제어부는 입력된 페이스트 명령에 대응되는 입력 유닛의 모드 전환 신호를 입력 유닛으로 전송하도록 제어할 수 있다. 수신된 모드 전환 신호에 응답하여, 펜 제어부(510)는 입력 유닛(167)의 동작 모드를 페이스트 모드로 전환한다. 펜 제어부(510)는 사용자에 의해 버튼(542)이 눌러지는 경우, 펜 제어부(510)는 입력 유닛(167)의 현재 동작 모드인 페이스트 모드를 해제할 수 있다.
또한, 제어부는 호버링중인 입력 유닛(167)에 의해 페이스트 아이콘(1020)이 선택 되는 경우, 제어부는 입력된 페이스트 명령에 대응되는 입력 유닛의 모드 전환 신호를 입력 유닛으로 전송하도록 제어할 수 있다. 수신된 모드 전환 신호에 응답하여, 펜 제어부(510)는 입력 유닛(167)의 동작 모드를 페이스트 모드로 전환한다. 펜 제어부(510)는 사용자에 의해 버튼(542)이 눌러지는 경우, 펜 제어부(510)는 입력 유닛(167)의 동작 모드인 페이스트 모드를 해제할 수 있다.
도 9의 단계(S911)에서, 페이스트 아이콘의 선택에 의한 페이스트 명령이 수신되는 경우, 단계(S904)로 진행한다.
도 9의 단계(S906)로 되돌아가서, 입력 유닛의 메모리에 객체데이터를 포함하는 카피 정보가 없는 경우, 단계(S912)로 진행한다.
도 9의 단계(S912)에서 카피 정보를 외부 서버에서부터 수신한다.
제어부는 객체 데이터가 없는 제1 카피정보를 블루투스 SPP(Serial Port Profile)로 입력 유닛(167)의 펜 통신유닛(520)으로 요청하고, 수신받도록 제어할 수 있다. 또한, 제어부는 저장부에 기저장된 카피 정보와 외부 서버의 URL 및 통신 유닛을 이용하여 외부 서버에 저장된 객체 데이터의 다운 로드를 외부 서버에 요청하고, 수신받도록 제어할 수 있다.
본 발명에서 휴대 장치(100), 입력 유닛(167) 및 외부 서버 사이의 카피 명령, 제어 정보 및 카피 정보의 송/수신은 다양한 통신 방식을 지원하는 휴대 장치(100), 입력 유닛(167) 및 외부 서버의 통신 유닛을 이용하여 수행되며, 블루투스에 한정되지 않음은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
제어부는 외부 서버에서 수신된 객체 데이터 및 입력 유닛에서부터 수신된 제1 카피 정보를 저장부에 저장할 수 있다. 제어부는 외부 서버에서부터 객체 데이터 및 입력 유닛(167)에서부터 제1 카피 정보의 수신이 완료되는 경우, 휴대 장치(100)에서 제공되는 시각, 촉각 및 청각 피드백의 출력을 완료할 수 있다.
도 9의 단계(S912)에서, 카피 정보를 외부 서버 및 입력 유닛으로부터 수신되는 경우, 단계(S908)로 진행한다.
도 12는 본 발명의 다른 실시 예에 따른 휴대 장치의 피드백 제공방법의 예를 나타내는 도면이다.
도 12를 참조하면, 도 7 및 도 10과는 다르게 복수의 휴대 단말 간에 제공되는 피드백 제공방법이다.
도 12를 참조하면, 복수의 휴대 장치(101)(102)사이에 입력 유닛(167)을 이용한 카피 앤 페이스트(copy & paste)에 대응되는 피드백을 복수의 휴대 장치(101)(102)에서 제공될 수 있다. 입력 유닛(167)의 메모리 잔량이 충분한 경우, 제1 휴대 장치(101)의 제어부는 입력 유닛(167)에 의해 선택된 객체(711)에 대응되는 제어 정보 및 객체 데이터를 포함하는 카피 정보를 블루투스 SPP(Serial Port Profile)로 입력 유닛(167)에게 전송할 수 있다. 제2 휴대 장치(102)의 제어부는 입력 유닛(167)과의 검색(discovery) 및 페어링을 통해 입력 유닛(167)이 카피 정보를 가지고 있음을 알 수 있다. 제2 휴대 장치(102)의 제어부는 입력 유닛(167)의 페이스트 명령에 대응하여 제어 정보 및 카피 정보를 블루투스 SPP(Serial Port Profile)로 입력 유닛(167)에서부터 수신할 수 있다.
입력 유닛(167)의 메모리 잔량이 불충분한 경우, 제1 휴대 장치(101)의 제어부는 입력 유닛(167)에 의해 선택된 객체(711)에 대응되는 제어 정보 및 객체 데이터가 제외된 제1 카피 정보를 블루투스 SPP(Serial Port Profile)로 입력 유닛(167)에게 전송할 수 있다. 제1 휴대 장치(101)의 제어부는 객체 데이터를 통신 유닛을 통해 외부 서버로 전송할 수 있다. 또한, 제1 휴대 장치(101)의 제어부는 객체 데이터를 통신 유닛을 통해 제2 휴대 장치(102)로 전송할 수도 있다.
제2 휴대 장치(102)의 제어부는 입력 유닛(167)과의 검색(discovery) 및 페어링을 통해 입력 유닛(167)이 제어 정보 및 제1 카피 정보를 가지고 있음을 알 수 있다. . 제2 휴대 장치(102)의 제어부는 입력 유닛(167)의 페이스트 명령에 대응하여 제어 정보 및 제1 카피 정보를 블루투스 SPP(Serial Port Profile)로 입력 유닛(167)에서부터 수신할 수 있다. 제2 휴대 장치(102)의 제어부는 객체 데이터를 통신 유닛을 통해 외부 서버에서부터 수신할 수 있다. 또한, 제2 휴대 장치(101)의 제어부는 객체 데이터를 통신 유닛을 통해 제1 휴대 장치(101)에서부터 수신할 수도 있다.
복수의 휴대 단말 간에 제공되는 피드백 제공방법은 하나의 휴대 단말 내에서 제공되는 피드백 제공방법(예를 들어, 카피 대상 객체 선택, 객체의 카피에 대응되는 카피 명령 송/수신, 촉각 피드백, 제어 명령, 카피 정보 및 페이스트 위치 선택 및 객체의 페이스트에 대응되는 페이스트 명령 송/수신, 촉각 피드백, 제어 명령 및 카피 정보 등)과 실질적으로 동일하므로, 중복되는 설명을 생략한다.
도 13 내지 도 15는 본 발명의 실시 예에 따른 휴대 장치의 촉각 파형의 예를 나타내는 도면이다.
도 8 및 도 11를 참조하면, 도 13 내지 도 15은 햅틱 파형이 주기적으로 복수 회 반복됨을 알 수 있다. 도 13 내지 도 15의 가로 축(X축)은 진동 모터(164)의 진동 시간을 나타내고 단위는 50 ms이다. 또한, 세로 축(Y축)은 진동 모터(164)의 진동 세기를 나타내고 단위는 500 mV이다.
도 13을 참조하면, 도 13의 촉각 파형은 0 V에서부터 800 mV까지 점진적으로 증가하고, 점진적으로 100 mV로 감소한 후 다시 증가를 반복하는 진동임을 알 수 있다. 도 8에서 설명한 가속 구간과 감속 구간은 대칭적임을 알 수 있다.
도 14를 참조하면, 도 14의 촉각 파형은 0 V에서부터 900 mV까지 점진적으로 증가하고, 500 mV로 급격히 감소하고 점진적으로 200 mV로 감소한 후, 다시 증가를 반복하는 진동임을 알 수 있다.
도 15를 참조하면, 도 15의 촉각 파형은 0 V에서부터 950 mV까지 점진적으로 증가하고, 100 mV로 급격히 감소한 후, 다시 증가를 반복하는 진동임을 알 수 있다.
본 발명의 다른 실시예는 도 13 내지 도 15 이외에 진동 시간, 진동 주기, 진동 세기가 다른 다양한 촉각 파형(도시되지 아니함)이 저장부에 저장되어 있으며, 기 저장된 다양한 촉각 파형(도시되지 아니함)의 조합으로 또 다른 촉각 파형을 생성 및 저장할 수 있음은 해당 기술분야의 통상의 지식을 가진 자에게 용이하게 이행될 수 있는 것이다.
본 발명의 예시적 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
이상과 같이 본 발명은 비록 한정된 예시적 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 예시적 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 예시적 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
100: 휴대 장치 110: 제어부
120: 이동 통신 유닛 130: 서브 통신 유닛
163: 스피커 164: 진동 모터
167: 입력 유닛 510: 펜 메모리
520: 펜 통신 유닛 543: 펜 스피커
544: 펜 진동 소자 190: 터치스크린

Claims (32)

  1. 터치 스크린에 객체를 표시하는 과정과,
    상기 터치 스크린에서 입력 유닛에 의한 제1 입력을 검출하는 과정과,
    상기 제1 입력에 응답하여 객체를 식별하는 과정과,
    상기 식별된 객체를 카피하는 카피 명령을 상기 입력 유닛에서부터 수신하는 과정과,
    상기 수신된 카피 명령에 응답하여 결정된 촉각 피드백에 대응되는 제1 제어 명령을 상기 입력 유닛에게 전송하는 과정을 포함하는 휴대 장치의 피드백 제공방법.
  2. 제1항에 있어서,
    상기 제1 입력은 상기 입력 유닛의 터치 또는 호버링 중 어느 하나를 포함하는 휴대 장치의 피드백 제공방법.
  3. 제1항에 있어서,
    상기 터치 스크린에 상기 카피 명령에 대응되는 시각 피드백을 표시하는 과정을 더 포함하고,
    상기 시각 피드백은 상기 식별된 객체, 및 상기 식별된 객체에 인접하고 상기 카피 명령에 대응되는 신규 객체 중 적어도 하나에서 제공되는 휴대 장치의 피드백 제공방법.
  4. 제3항에 있어서,
    상기 식별된 객체의 시각 피드백은 상기 식별된 객체의 현재 사이즈를 기결정된 사이즈로 등속도 천이하여 상기 입력 유닛에 의한 상기 제1 입력이 검출된 위치로 이동하는 시각 피드백을 포함하는 휴대 장치의 피드백 제공방법.
  5. 제3항에 있어서,
    상기 신규 객체는 피펫(pipette)을 포함하고,
    상기 신규 객체의 시각 피드백은 상기 피펫에서 액체를 흡입하는 시각 피드백을 포함하고,
    상기 신규 객체의 시각 피드백 제공 시간은 상기 식별된 객체에 대응되는 파일 사이즈 및 카피 프로세싱 시간 중 하나에 의해 변경되는 휴대 장치의 피드백 제공방법.
  6. 제1항에 있어서,
    상기 카피 명령에 대응되는 카피 정보를 상기 입력 유닛 및 외부 서버 중 하나로 전송하는 과정을 더 포함하고,
    상기 카피 정보는 상기 식별된 객체에 대응되는 객체 데이터, 파일명, 파일 사이즈, 파일 타입, 파일 저장위치 및 카피 시간 중 복수를 포함하는 휴대 장치의 피드백 제공방법.
  7. 제6항에 있어서,
    상기 입력 유닛으로부터 상기 입력 유닛의 장치 정보를 수신하는 과정을 더 포함하고,
    상기 카피 정보는 상기 장치 정보에 기초하여 상기 입력 유닛 및 상기 외부 서버 중 하나로 전송하는 휴대 장치의 피드백 제공방법.
  8. 제7항에 있어서,
    상기 카피 정보 중 일부는 상기 장치 정보에 기초하여 상기 입력 유닛으로 전송하고, 상기 카피 정보 중 나머지는 상기 장치 정보에 기초하여 상기 외부 서버로 전송하는 과정을 더 포함하는 휴대 장치의 피드백 제공방법.
  9. 제1항에 있어서,
    상기 카피 명령은 상기 입력 유닛의 버튼 및 상기 입력 유닛의 터치 제스처 중 하나를 포함하는 휴대 장치의 피드백 제공방법.
  10. 제9항에 있어서,
    상기 입력 유닛의 터치 제스처에 응답하여 상기 식별된 객체에 인접하여 상기 식별된 객체의 카피 실행에 대응되는 선택 가능한 카피 아이콘을 표시하는 휴대 장치의 피드백 제공방법.
  11. 제1항에 있어서,
    상기 터치 스크린에서 상기 입력 유닛의 제2 입력을 검출하는 과정과,
    상기 제2 입력에 응답하여 상기 카피된 객체를 페이스트 할 페이스트 위치를 식별하는 과정과,
    상기 페이스트 위치에 상기 카피된 객체를 페이스트 할 페이스트 명령을 상기 입력 유닛으로부터 수신하는 과정과,
    상기 수신된 페이스트 명령에 응답하여 결정된 촉각 피드백에 대응되는 제2 제어 명령을 상기 입력 유닛에게 전송하는 과정과,
    상기 카피된 객체를 상기 페이스트 위치에 표시하는 과정을 더 포함하는 휴대 장치의 피드백 제공방법.
  12. 제11항에 있어서,
    상기 제2 입력은 상기 입력 유닛의 터치 또는 호버링 중 어느 하나를 포함하는 휴대 장치의 피드백 제공방법.
  13. 제11항에 있어서,
    상기 터치 스크린에 상기 페이스트 명령에 대응되는 시각 피드백을 표시하는 과정을 더 포함하는 휴대 장치의 피드백 제공방법.
  14. 제13항에 있어서,
    상기 시각 피드백은 상기 카피된 객체의 카피 전 원래 사이즈로 등속도 천이하여 상기 식별된 페이스트 위치로 이동하는 시각 피드백을 포함하는 휴대 장치의 피드백 제공방법.
  15. 제13항에 있어서,
    상기 시각 피드백은 신규 객체의 시각 피드백을 포함하고,
    상기 신규 객체의 시각 피드백은 피펫에서부터 액체를 배출하는 시각 피드백을 포함하고,
    상기 시각 피드백의 제공 시간은 상기 카피된 객체에 대응되는 파일사이즈 및 페이스트 프로세싱 시간 중 하나에 의해 변경되는 휴대 장치의 피드백 제공방법.
  16. 제11항에 있어서,
    상기 페이스트 명령에 대응되는 카피 정보를 상기 입력 유닛 및 외부 서버 중 하나로부터 수신하는 과정을 더 포함하고,
    상기 카피 정보는 상기 식별된 객체에 대응되는 객체 데이터, 파일명, 파일 사이즈, 파일 타입, 파일 저장위치 및 카피 시간 중 복수를 포함하는 휴대 장치의 피드백 제공방법.
  17. 제16항에 있어서,
    상기 입력 유닛으로부터 상기 입력 유닛의 장치 정보를 수신하는 과정을 더 포함하고,
    상기 카피 정보는 상기 장치 정보에 기초하여 상기 입력 유닛 및 상기 외부 서버 중 적어도 하나로부터 수신하는 휴대 장치의 피드백 제공방법.
  18. 제17항에 있어서,
    상기 카피 정보 중 일부는 상기 장치 정보에 기초하여 상기 입력 유닛에서부터 수신하고, 상기 카피 정보 중 나머지는 상기 장치 정보에 기초하여 상기 외부 서버에서부터 수신하는 휴대 장치의 피드백 제공방법.
  19. 제11항에 있어서,
    상기 페이스트 명령은 상기 입력 유닛의 버튼 및 상기 입력 유닛의 터치 제스처 중 하나를 포함하는 휴대 장치의 피드백 제공방법.
  20. 제19항에 있어서,
    상기 입력 유닛의 터치 제스처에 응답하여 상기 식별된 객체에 인접하여 상기 객체의 페이스트 실행에 대응되는 선택 가능한 페이스트 아이콘을 표시하는 휴대 장치의 피드백 제공방법.
  21. 객체를 표시하는 터치 스크린과,
    입력 유닛과 통신 가능한 통신부와,
    상기 터치 스크린 및 상기 통신부를 제어하는 제어부를 포함하고,
    상기 제어부는,
    상기 터치 스크린에 표시된 상기 객체에 대한 제1 입력에 응답하여 객체를 식별하고,
    상기 입력 유닛에서부터 상기 식별된 객체를 카피하는 카피 명령의 수신에 응답하여, 결정된 촉각 피드백에 대응되는 제1 제어 신호를 상기 통신부를 통해 상기 입력 유닛으로 전송하도록 제어하는 휴대 장치.
  22. 제21항에 있어서,
    상기 제어부는 상기 카피 명령에 대응되는 시각 피드백을 상기 터치 스크린에 표시하도록 제어하는 휴대 장치.
  23. 제21항에 있어서,
    상기 제어부는 상기 카피 명령에 대응되는 청각 피드백을 상기 휴대 장치에 포함된 스피커를 통해 출력하도록 제어하는 휴대 장치.
  24. 제21항에 있어서,
    상기 제어부는 상기 입력 유닛으로부터 상기 입력 유닛의 장치 정보를 상기 통신부를 통해 수신하고,
    상기 장치 정보에 기초하여 상기 카피 명령에 대응되는 카피 정보 중 일부를 상기 통신부를 통해 상기 입력 유닛으로 전송하도록 제어하는 휴대 장치.
  25. 제21항에 있어서,
    상기 제어부는,
    상기 터치 스크린에서 검출된 제2 입력에 응답하여 카피된 객체를 페이스트할 페이스트 위치를 식별하고,
    상기 입력 유닛에서부터 상기 카피된 객체를 페이스트하는 페이스트 명령의 수신에 응답하여, 결정된 촉각 피드백에 대응되는 제2 제어 신호를 상기 통신부를 통해 상기 입력 유닛으로 전송하도록 제어하는 휴대 장치.
  26. 제25항에 있어서,
    상기 제어부는 상기 페이스트 명령에 응답하여 상기 터치 스크린을 통한 시각 피드백 및 상기 휴대 장치에 포함된 스피커를 통한 청각 피드백 중 적어도 하나를 출력하도록 제어하는 휴대 장치.
  27. 입력 유닛의 장치 정보를 휴대 장치로 전송하는 과정과,
    상기 휴대 장치의 터치 스크린에서 식별된 객체를 카피하는 카피 명령을 상기 휴대 장치로 전송하는 과정과,
    상기 휴대 장치에서부터 상기 카피 명령에 대응되는 제1 제어 신호를 수신하는 과정과,
    상기 수신된 제1 제어 신호에 대응되는 촉각 피드백을 펜 진동소자를 통해 출력하는 과정을 포함하는 입력 유닛의 피드백 제어방법.
  28. 제27항에 있어서,
    상기 수신된 제1 제어 신호에 대응되는 청각 피드백을 상기 입력 유닛의 펜 스피커를 통해 출력하는 과정을 더 포함하는 입력 유닛의 피드백 제어방법.
  29. 제27항에 있어서,
    상기 휴대 장치의 상기 터치 스크린에서 페이스트 위치에 상기 카피된 객체를 페이스트하는 페이스트 명령을 상기 휴대 장치로 전송하는 과정과,
    상기 휴대 장치에서부터 상기 페이스트 명령에 대응되는 제2 제어 신호를 수신하는 과정과,
    상기 수신된 제2 제어 신호에 대응되는 촉각 피드백 및 청각 피드백을 출력하는 과정을 더 포함하는 입력 유닛의 피드백 제어방법.
  30. 펜 진동 소자와,
    휴대 장치와 통신 가능한 펜 통신부와,
    상기 펜 진동소자 및 상기 펜 통신부를 제어하는 제어부를 포함하고,
    상기 제어부는,
    상기 휴대 장치의 터치 스크린에서 식별된 객체를 카피하는 카피 명령을 상기 펜 통신부를 통해 상기 휴대 장치로 전송하고,
    상기 휴대 장치에서부터 상기 펜 통신부를 통해 수신된 제1 제어 신호에 대응되는 촉각 피드백을 상기 펜 진동소자를 통해 출력하도록 제어하는 입력 유닛.
  31. 제30항에 있어서,
    펜 스피커를 더 포함하고,
    상기 제어부는 상기 제1 제어 신호에 대응되는 청각 피드백을 상기 펜 스피커를 통해 출력하도록 제어하는 입력 유닛.
  32. 제30항에 있어서,
    상기 제어부는,
    상기 휴대 장치의 상기 터치 스크린에서 페이스트 위치에 상기 카피된 객체를 페이스트하는 페이스트 명령을 상기 펜 통신부를 통해 상기 휴대 장치로 전송하고,
    상기 휴대 장치에서부터 수신된 상기 페이스트 명령에 대응되는 제2 제어 신호에 대응되는 촉각 피드백 및 청각 피드백을 출력하도록 제어하는 입력 유닛.
KR1020130022387A 2013-02-28 2013-02-28 입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법 KR102104910B1 (ko)

Priority Applications (8)

Application Number Priority Date Filing Date Title
KR1020130022387A KR102104910B1 (ko) 2013-02-28 2013-02-28 입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법
AU2014221602A AU2014221602B2 (en) 2013-02-28 2014-02-26 Apparatus and method for providing haptic feedback to input unit
RU2015140993A RU2676251C2 (ru) 2013-02-28 2014-02-26 Устройство и способ для предоставления тактильной обратной связи в блок ввода
PCT/KR2014/001555 WO2014133312A1 (en) 2013-02-28 2014-02-26 Apparatus and method for providing haptic feedback to input unit
CN201480011003.3A CN105027034B (zh) 2013-02-28 2014-02-26 用于向输入单元提供触觉反馈的设备和方法
EP14156873.3A EP2772831B1 (en) 2013-02-28 2014-02-26 Apparatus and method for providing haptic feedback to input unit
US14/193,629 US10372211B2 (en) 2013-02-28 2014-02-28 Apparatus and method for providing haptic feedback to input unit
US16/460,294 US11422627B2 (en) 2013-02-28 2019-07-02 Apparatus and method for providing haptic feedback to input unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130022387A KR102104910B1 (ko) 2013-02-28 2013-02-28 입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20140108010A KR20140108010A (ko) 2014-09-05
KR102104910B1 true KR102104910B1 (ko) 2020-04-27

Family

ID=50235925

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130022387A KR102104910B1 (ko) 2013-02-28 2013-02-28 입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법

Country Status (7)

Country Link
US (2) US10372211B2 (ko)
EP (1) EP2772831B1 (ko)
KR (1) KR102104910B1 (ko)
CN (1) CN105027034B (ko)
AU (1) AU2014221602B2 (ko)
RU (1) RU2676251C2 (ko)
WO (1) WO2014133312A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023210970A1 (ko) * 2022-04-24 2023-11-02 주식회사 피앤씨솔루션 증강현실 전용 필기도구를 이용한 증강현실 텍스쳐 전시 방법

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD741888S1 (en) * 2013-01-15 2015-10-27 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
US9703946B2 (en) * 2014-03-31 2017-07-11 Stmicroelectronics Asia Pacific Pte Ltd Secure pairing method, circuit and system for an intelligent input device and an electronic device
KR102497720B1 (ko) 2014-09-02 2023-02-10 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
KR20160063834A (ko) * 2014-11-27 2016-06-07 삼성전자주식회사 포인팅 장치, 인터페이스 장치 및 디스플레이 장치
US9846484B2 (en) * 2014-12-04 2017-12-19 Immersion Corporation Systems and methods for controlling haptic signals
EP3241098B1 (en) * 2015-01-04 2023-02-22 Microsoft Technology Licensing, LLC Active stylus communication with a digitizer
US9924019B2 (en) 2015-05-15 2018-03-20 Microsoft Technology Licensing, Llc Automatic device pairing
US20160349862A1 (en) * 2015-05-26 2016-12-01 FiftyThree, Inc. Digital stylus with push button and dial
US10248247B2 (en) * 2015-11-05 2019-04-02 Egalax_Empia Technology Inc. Tethered stylus, touch sensitive electronic device and system and method thereof
KR101807655B1 (ko) * 2015-12-01 2017-12-11 주식회사 퓨처플레이 사용자 인터페이스를 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
DE102015016152A1 (de) * 2015-12-12 2017-06-14 Daimler Ag Haptische Rückmeldung bei einer Nutzerschnittstelle
CN107450826B (zh) * 2016-05-31 2021-01-05 夏普株式会社 显示系统、输入装置、显示装置、以及显示方法
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK179657B1 (en) 2016-06-12 2019-03-13 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback
US10296089B2 (en) * 2016-08-10 2019-05-21 Microsoft Technology Licensing, Llc Haptic stylus
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
EP3365756A1 (en) * 2016-09-06 2018-08-29 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US10459612B2 (en) * 2016-10-05 2019-10-29 Microsoft Technology Licensing, Llc Select and move hint
US20180101986A1 (en) * 2016-10-10 2018-04-12 Aaron Mackay Burns Drawing in a 3d virtual reality environment
US10809870B2 (en) * 2017-02-09 2020-10-20 Sony Corporation Information processing apparatus and information processing method
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
US10871829B2 (en) * 2017-12-05 2020-12-22 Tactai, Inc. Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects
JP6704010B2 (ja) * 2018-04-09 2020-06-03 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法
USD918220S1 (en) * 2018-06-13 2021-05-04 Juniper Networks, Inc. Display screen or portions thereof with animated graphical user interface
US10778534B2 (en) 2018-06-13 2020-09-15 Juniper Networks, Inc. Virtualization infrastructure underlay network performance measurement and monitoring
US10719148B2 (en) * 2018-07-10 2020-07-21 Microsoft Technology Licensing, Llc Coupling a pen device to a companion device based on pen proximity
KR102506158B1 (ko) 2018-07-30 2023-03-07 삼성전자주식회사 디지털 펜을 포함하는 전자 장치
KR102535015B1 (ko) * 2019-01-22 2023-05-22 삼성디스플레이 주식회사 표시 장치와 그의 구동 방법
US10824249B2 (en) * 2019-04-05 2020-11-03 Microsoft Technology Licensing, Llc Stylus for zero force activation
US20220236802A1 (en) * 2019-09-06 2022-07-28 Dot Incorporation Input feedback based smart pen and protruding feedback based smart tablet
CN111459313B (zh) * 2020-03-31 2022-03-29 维沃移动通信有限公司 对象控制方法、触控笔及电子设备
TWI731650B (zh) * 2020-04-15 2021-06-21 宏碁股份有限公司 觸控筆、觸控電子裝置與觸控系統
US11671696B2 (en) 2021-04-19 2023-06-06 Apple Inc. User interfaces for managing visual content in media
US20230229279A1 (en) * 2021-04-19 2023-07-20 Apple Inc. User interfaces for managing visual content in media
US11500467B1 (en) 2021-05-25 2022-11-15 Microsoft Technology Licensing, Llc Providing haptic feedback through touch-sensitive input devices
US20230319224A1 (en) * 2022-03-10 2023-10-05 Apple Inc. User interfaces for managing visual content in a media representation
EP4298777A1 (en) * 2022-05-10 2024-01-03 Google LLC Upgrading legacy devices for interoperability with a matter network
JP7348368B1 (ja) 2022-09-21 2023-09-20 レノボ・シンガポール・プライベート・リミテッド 情報処理システム、情報処理装置、プログラム、および、制御方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118993A (ja) 2010-12-02 2012-06-21 Immersion Corp 触覚フィードバック支援によるテキスト操作

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US20050017351A1 (en) * 2003-06-30 2005-01-27 Ravi Kramadhati V. Silicon on diamond wafers and devices
US20050071761A1 (en) * 2003-09-25 2005-03-31 Nokia Corporation User interface on a portable electronic device
US7367976B2 (en) * 2003-11-17 2008-05-06 Sherwood Services Ag Bipolar forceps having monopolar extension
GB0402022D0 (en) * 2004-01-30 2004-03-03 Hewlett Packard Development Co Method of obtaining at least a portion ofa document
US7489306B2 (en) * 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
US20060158440A1 (en) * 2005-01-19 2006-07-20 Motion Computing Inc. Active dynamic tactile feedback stylus
US20060262106A1 (en) * 2005-05-20 2006-11-23 Lg Electronics Inc. Pen input device with data storage
US8212820B2 (en) * 2006-05-04 2012-07-03 Nintendo Co., Ltd. Virtual suction tool
KR100942704B1 (ko) * 2007-11-26 2010-02-16 한국전자통신연구원 촉각 피드백이 가능한 입력 장치, 이를 이용한 촉각 상호작용 시스템 및 방법
US8395587B2 (en) * 2007-12-21 2013-03-12 Motorola Mobility Llc Haptic response apparatus for an electronic device
US8201109B2 (en) * 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
KR101503835B1 (ko) * 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
DE102008052296A1 (de) * 2008-10-18 2010-04-22 Recaro Aircraft Seating Gmbh & Co. Kg Passagiersitzvorrichtung
US8321802B2 (en) * 2008-11-13 2012-11-27 Qualcomm Incorporated Method and system for context dependent pop-up menus
US9468846B2 (en) * 2009-01-30 2016-10-18 Performance Designed Products Llc Tactile feedback apparatus and method
US9875013B2 (en) * 2009-03-16 2018-01-23 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US8279053B2 (en) * 2009-05-19 2012-10-02 Korea Institute Of Science And Technology Apparatus and method for vibrotactile mobile device
KR101647377B1 (ko) * 2009-05-22 2016-08-10 엘지전자 주식회사 무선 통신 시스템에서 안테나 전송 전력에 따른 적응적인 다중 안테나 전송 방법 및 장치
US8239785B2 (en) 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US20110185299A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US8416066B2 (en) * 2010-04-29 2013-04-09 Microsoft Corporation Active vibrations
EP2611143A4 (en) * 2010-08-24 2014-04-16 Lg Electronics Inc METHOD FOR CONTROLLING CONTINUOUS CONTENTS AND PORTABLE DEVICE AND SYSTEM FOR CONSISTENT CONSUMPTION THEREWITH
JP5656511B2 (ja) * 2010-08-26 2015-01-21 京セラ株式会社 表示装置
US9639178B2 (en) * 2010-11-19 2017-05-02 Apple Inc. Optical stylus
US10120446B2 (en) * 2010-11-19 2018-11-06 Apple Inc. Haptic input device
JP5790380B2 (ja) * 2011-09-28 2015-10-07 株式会社Jvcケンウッド 電子機器、電子機器の制御方法、及び、プログラム
US9304608B2 (en) * 2011-12-20 2016-04-05 Htc Corporation Stylus device
US9208001B2 (en) * 2012-03-08 2015-12-08 Blackberry Limited Object mediated data transfer between electronic devices
US9164599B2 (en) * 2012-08-10 2015-10-20 Adobe Systems Incorporated Multifunctional stylus
US10642376B2 (en) * 2012-11-28 2020-05-05 Intel Corporation Multi-function stylus with sensor controller

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118993A (ja) 2010-12-02 2012-06-21 Immersion Corp 触覚フィードバック支援によるテキスト操作

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023210970A1 (ko) * 2022-04-24 2023-11-02 주식회사 피앤씨솔루션 증강현실 전용 필기도구를 이용한 증강현실 텍스쳐 전시 방법

Also Published As

Publication number Publication date
CN105027034B (zh) 2018-04-10
US10372211B2 (en) 2019-08-06
AU2014221602A1 (en) 2015-06-04
KR20140108010A (ko) 2014-09-05
WO2014133312A1 (en) 2014-09-04
EP2772831A3 (en) 2016-01-06
US20190324546A1 (en) 2019-10-24
RU2015140993A (ru) 2017-04-11
US11422627B2 (en) 2022-08-23
US20140245139A1 (en) 2014-08-28
RU2676251C2 (ru) 2018-12-26
CN105027034A (zh) 2015-11-04
RU2015140993A3 (ko) 2018-03-14
AU2014221602B2 (en) 2019-02-28
EP2772831A2 (en) 2014-09-03
EP2772831B1 (en) 2019-08-21

Similar Documents

Publication Publication Date Title
KR102104910B1 (ko) 입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법
US10401964B2 (en) Mobile terminal and method for controlling haptic feedback
KR102091077B1 (ko) 입력 유닛의 피드백을 제어하는 휴대 단말 및 방법과, 이를 제공하는 상기 입력 유닛 및 방법
KR102081817B1 (ko) 디지타이저 모드 전환 방법
EP2946265B1 (en) Portable terminal and method for providing haptic effect to input unit
US9977497B2 (en) Method for providing haptic effect set by a user in a portable terminal, machine-readable storage medium, and portable terminal
KR101815720B1 (ko) 진동 제어 방법 및 장치
KR20150007799A (ko) 영상 디스플레이를 제어하는 전자 장치 및 방법
US20160048209A1 (en) Method and apparatus for controlling vibration
KR20150104808A (ko) 피드백을 출력하는 전자 장치 및 방법
KR20140126129A (ko) 잠금 및 해제를 제어하는 장치 및 방법
EP2753053B1 (en) Method and apparatus for dynamic display box management
US20140340336A1 (en) Portable terminal and method for controlling touch screen and system thereof
KR20140105331A (ko) 터치 스크린 상에서 객체 디스플레이를 제어하는 휴대 단말 및 방법
US9794396B2 (en) Portable terminal and method for controlling multilateral conversation
US9633225B2 (en) Portable terminal and method for controlling provision of data
KR20150008963A (ko) 스크린을 제어하는 휴대 단말 및 방법
KR20140068585A (ko) 터치스크린에서 손 터치와 펜 터치의 구별 방법 및 장치
KR20140038854A (ko) 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법
KR102146832B1 (ko) 스타일러스 펜의 입력 지점을 측정하는 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant