KR20140088446A - 마우스 기능 제공 방법 및 이를 구현하는 단말 - Google Patents

마우스 기능 제공 방법 및 이를 구현하는 단말 Download PDF

Info

Publication number
KR20140088446A
KR20140088446A KR1020130000324A KR20130000324A KR20140088446A KR 20140088446 A KR20140088446 A KR 20140088446A KR 1020130000324 A KR1020130000324 A KR 1020130000324A KR 20130000324 A KR20130000324 A KR 20130000324A KR 20140088446 A KR20140088446 A KR 20140088446A
Authority
KR
South Korea
Prior art keywords
touch
holding
mouse
pointer
threshold
Prior art date
Application number
KR1020130000324A
Other languages
English (en)
Other versions
KR102044826B1 (ko
Inventor
정창진
곽태원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130000324A priority Critical patent/KR102044826B1/ko
Priority to JP2013268825A priority patent/JP6139397B2/ja
Priority to PCT/KR2013/012210 priority patent/WO2014107005A1/en
Priority to EP13199665.4A priority patent/EP2752754B1/en
Priority to AU2013276998A priority patent/AU2013276998B2/en
Priority to US14/146,639 priority patent/US9880642B2/en
Priority to CN201410001485.6A priority patent/CN103914249B/zh
Publication of KR20140088446A publication Critical patent/KR20140088446A/ko
Application granted granted Critical
Publication of KR102044826B1 publication Critical patent/KR102044826B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 터치패널을 가지는 휴대 단말을 마우스로 사용할 수 있도록 한 방법 및 단말에 관한 것이다. 본 발명의 일 실시예에 따른 마우스 기능 제공 방법은 터치패널을 포함한 표시부를 가지는 휴대 단말의 마우스 기능 제공 방법에 있어서, 마우스 호스트 어플리케이션의 실행 요청에 응답하여 상기 표시부의 화면에 마우스 동작 이미지를 표시하는 단계; 상기 마우스 동작 이미지에 대한 터치입력기구의 터치를 검출하는 단계; 상기 터치입력기구의 움직임이 발생한 경우 상기 터치가 검출된 시점부터 카운트된 터치 홀딩 시간이 제 1 홀딩 임계치를 초과하는지 여부를 결정하는 단계; 및 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하는 경우 이미지 이동 명령을 출력 단말로 전송하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하지 않는 경우 포인터 이동 명령을 상기 출력 단말로 전송하는 단계를 포함한다.

Description

마우스 기능 제공 방법 및 이를 구현하는 단말{METHOD FOR PROVIDING FUNCTION OF MOUSE AND TERMINAL IMPLEMENTING THE SAME}
본 발명은 마우스 기능 제공 방법 및 이를 구현하는 단말에 관한 것으로, 특히 터치패널을 가지는 휴대 단말을 마우스로 사용할 수 있도록 한 방법 및 단말에 관한 것이다.
최근 휴대 단말은 터치패널을 구비하는 것이 일반적인 추세이고, 터치패널을 이용한 마우스 기능 제공 방법이 제안되어 있다. 즉 터치패널을 가지는 휴대 단말(예, 스마트폰)이 마우스 기능을 위한 입력 단말로 사용되고, 휴대 단말에 연결된 단말(예, TV, PC, 프로젝터 등)이 출력 단말로 사용된다. 그러나 종래 터치패널을 이용한 마우스 기능 제공 방법에 따르면 휴대 단말은 마우스의 왼쪽 버튼, 오른쪽 버튼 및 휠의 기능을 구현하고 있으나 사용자가 직관적으로 이용하기 불편하다는 문제점이 있다. 예컨대, 패닝(panning)이나 스크롤(scroll)의 경우 사용자는 휴대 단말에 구비된 하드키 또는 화면에 표시된 소프트키를 터치입력기구(예, 펜이나 엄지)로 누르고, 그와 동시에 다른 터치입력기구(예, 검지)를 화면에 접촉한 상태에서 이동해야 하는 불편함이 있다.
본 발명은 전술한 문제점을 해결하기 위해 안출된 것으로서, 터치패널을 가지는 휴대 단말을 이용하여 사용자가 보다 편리하고 직관적으로 마우스 기능을 이용할 수 있도록 한 방법 및 단말을 제공함을 목적으로 한다.
본 발명의 일 실시예에 따른 마우스 기능 제공 방법은 터치패널을 포함한 표시부를 가지는 휴대 단말의 마우스 기능 제공 방법에 있어서, 마우스 호스트 어플리케이션의 실행 요청에 응답하여 상기 표시부의 화면에 마우스 동작 이미지를 표시하는 단계; 상기 마우스 동작 이미지에 대한 터치입력기구의 터치를 검출하는 단계; 상기 터치입력기구의 움직임이 발생한 경우 상기 터치가 검출된 시점부터 카운트된 터치 홀딩 시간이 제 1 홀딩 임계치를 초과하는지 여부를 결정하는 단계; 및 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하는 경우 이미지 이동 명령을 출력 단말로 전송하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하지 않는 경우 포인터 이동 명령을 상기 출력 단말로 전송하는 단계를 포함한다.
본 발명의 다른 실시예에 따른 마우스 기능 제공 방법은 단말의 마우스 기능 제공 방법에 있어서, 이미지를 표시하고 그 위에 포인터를 표시하는 단계; 터치패널을 가지는 휴대 단말로부터 제 1 터치 좌표를 수신하고, 이후에 제 2 터치 좌표를 수신하는 단계; 상기 제 1 터치 좌표와 상기 제 2 터치 좌표의 변화량을 이동 임계치와 비교하여 상기 터치패널에 대한 터치입력기구의 이동 여부를 결정하는 단계; 상기 터치입력기구의 움직임이 발생한 경우 상기 제 1 터치 좌표가 수신된 시점부터 카운트된 터치 홀딩 시간이 제 1 홀딩 임계치를 초과하는지 여부를 결정하는 단계; 및 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하는 경우 상기 포인터와 함께 상기 이미지를 이동하여 표시하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하지 않는 경우 상기 포인터를 이동하여 표시하는 단계를 포함한다.
본 발명에 따른 휴대 단말은 터치패널을 가지는 표시부; 이미지와 포인터를 표시하는 출력 단말과 통신하는 통신부; 상기 표시부 및 상기 통신부를 제어하는 제어부를 포함하고, 상기 제어부는, 마우스 호스트 어플리케이션의 실행 요청에 응답하여 상기 표시부의 화면에 마우스 동작 이미지를 표시하도록 제어하고, 상기 마우스 동작 이미지에 대한 터치입력기구의 터치를 검출하고, 상기 터치입력기구의 움직임이 발생한 경우 상기 터치가 검출된 시점부터 카운트된 터치 홀딩 시간이 제 1 홀딩 임계치를 초과하는지 여부를 결정하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하는 경우 이미지 이동 명령을 출력 단말로 전송하도록 제어하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하지 않는 경우 포인터 이동 명령을 상기 출력 단말로 전송하도록 제어한다.
본 발명에 따른 단말은 이미지를 표시하고 그 위에 포인터를 표시하는 표시부; 터치패널을 가지는 휴대 단말로부터 제 1 터치 좌표를 수신하고, 이후에 제 2 터치 좌표를 수신하는 통신부; 상기 표시부 및 상기 통신부를 제어하는 제어부를 포함하고, 상기 제어부는, 상기 제 1 터치 좌표와 상기 제 2 터치 좌표의 변화량을 이동 임계치와 비교하여 상기 터치패널에 대한 터치입력기구의 이동 여부를 결정하고, 상기 터치입력기구의 움직임이 발생한 경우 상기 제 1 터치 좌표가 수신된 시점부터 카운트된 터치 홀딩 시간이 제 1 홀딩 임계치를 초과하는지 여부를 결정하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하는 경우 상기 포인터와 함께 상기 이미지를 이동하여 표시하도록 제어하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하지 않는 경우 상기 포인터를 이동하여 표시하도록 제어한다.
이상으로, 본 발명은 터치패널을 가지는 휴대 단말을 이용하여 사용자가 보다 편리하고 직관적으로 마우스 기능을 이용할 수 있도록 한 방법 및 단말을 제공한다.
도 1은 본 발명의 일 실시예에 따른 입력 단말의 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 출력 단말의 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 흐름도이다.
도 4 내지 도 8은 본 발명의 일 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 화면들이다.
도 9는 본 발명의 다른 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명의 또 다른 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 흐름도이다.
도 11은 본 발명의 또 다른 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 화면이다.
도 12는 본 발명의 또 다른 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 흐름도이다.
도 13 내지 도 16은 본 발명의 또 다른 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 화면들이다.
본 발명의 상세한 설명에 앞서, 이하에서 사용되는 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다. 따라서 아래 설명과 첨부된 도면은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원 시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. 또한, 첨부 도면에서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 따라서 본 발명은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되어지지 않는다.
본 발명에서 입력 단말은 터치패널을 가지고, 출력 단말과 통신 가능한 휴대 단말 예컨대, 스마트폰, 태블릿 PC 등이다. 본 발명에서 출력 단말은 입력 단말로부터 입력 정보를 수신하고, 입력 정보에 대응되는 기능을 실행하는 단말 예컨대, 태블릿 PC, 데스크탑 PC, 멀티미디어 기기(예컨대, 홈시어터, 스피커, MP3, 캠코더 등), TV, 프로젝터, 프로젝터에 연결된 PC, 표시부가 구비된 가전기기(예컨대, 냉장고, 주방용품 등)이다.
도 1은 본 발명의 일 실시예에 따른 입력 단말의 블록 구성도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 입력 단말(100)은 표시부(110), 키입력부(120), 저장부(130), 무선통신부(140), 오디오처리부(150), 스피커(SPK), 마이크(MIC) 및 제어부(170)를 포함한다.
표시부(110)는 제어부(170)의 제어 하에 이미지를 화면(screen on which at least one image is shown)에 표시한다. 즉 제어부(170)가 데이터를 "화면에 표시할 이미지"로 처리(예컨대, 디코딩(decoding))하여 버퍼에 저장하면, 표시부(110)는 버퍼에 저장된 이미지를 아날로그 신호로 변환하여 화면에 표시한다. 표시부(110)에 전원이 공급되면 표시부(110)는 잠금 이미지를 화면에 표시한다. 잠금 이미지가 표시되고 있는 상태에서 잠금 해제 정보(즉, 패스워드)가 검출되면 제어부(170)는 잠금을 해제한다. 즉 표시부(110)는 제어부(170)의 제어 하에 잠금 이미지 대신 다른 이미지를 표시한다. 여기서 잠금 해제 정보는 사용자가 화면에 표시된 키패드 또는 키입력부(120)를 이용해 입력 단말(100)에 입력한 텍스트(예, 1234)이거나, 표시부(110)에 대한 사용자의 터치의 궤적, 터치의 방향 또는 터치의 종류이거나, 마이크(MIC)를 통해 입력 단말(100)에 입력된 사용자의 음성 데이터이다. 한편 다른 이미지는 홈 이미지, 어플리케이션 실행 이미지, 키패드 또는 메뉴 등이다. 홈 이미지는 배경 이미지와 이 위에 표시되는 다수의 아이콘을 포함한다. 아이콘들은 각각 어플리케이션 또는 콘텐츠(예, 사진 파일, 비디오 파일, 녹음 파일, 문서, 메시지 등)를 지시한다. 사용자가 아이콘들 중 하나 예컨대, 어플리케이션 아이콘을 선택(예, 마우스 호스트 어플리케이션(131)에 대응되는 아이콘을 탭)하면, 제어부(170)는 해당 앱(예, 마우스 호스트 어플리케이션(131))을 실행하고, 그 실행 이미지를 표시하도록 표시부(110)를 제어한다. 표시부(110)는 제어부(170)의 제어 하에, 최하층에 미리 정해진 배경(background) 이미지(예컨대, 사용자에 의해 설정된 사진, 디폴트(default)로 지정된 이미지, 외부에서 다운로드된 이미지 등)를 표시한다. 그리고 표시부(110)는 제어부(170)의 제어 하에, 배경 이미지 위에 적어도 하나의 다른 이미지를 표시한다. 또한 표시부(110)는 제어부(170)의 제어 하에, 제 1 이미지를 제 1 영역에 표시하고 제 2 이미지를 제 2 영역에 표시할 수 있다. 표시부(110)는 액정 표시 장치(Liquid Crystal Display : LCD), OLED(Organic Light Emitted Diode), AMOLED(Active Matrix Organic Light Emitted Diode) 또는 플랙서블 디스플레이(Flexible display)로 구성될 수 있다.
터치패널(111)은 표시부(110)에 안착(place on)된다. 구체적으로 터치패널(111)은 표시부(110)의 화면에 위치하는 애드 온 타입(add-on type)이나 표시부(110) 내에 삽입되는 온 셀 타입(on-cell type) 또는 인 셀 타입(in-cell type)으로 구현된다.
터치패널(111)은 터치패널(111)에 대한 사용자 제스처에 응답하여 아날로그 신호(예, 터치이벤트)를 발생하고, 아날로그 신호를 A/D 변환하여 제어부(170)로 전달한다. 여기서 터치이벤트는 터치 좌표(x, y)를 포함한다. 예컨대, 터치패널(111)의 컨트롤러는 다수의 터치 좌표들 중 대표를 결정하고, 결정된 터치 좌표를 제어부(170)로 전달한다. 이러한 컨트롤은 제어부(170)에서 수행될 수도 있다. 제어부(170)는 터치패널(111)로부터 터치 좌표가 수신될 경우 터치입력기구(예, 손가락이나 펜)가 터치패널(111)에 터치된 것으로 결정하고 터치패널(111)로부터 터치 좌표가 수신되지 않을 경우 터치입력기구의 터치가 해제된 것으로 결정한다. 또한 제어부(170)는 터치된 좌표가 예컨대, (x0, y0)에서 (x1, y2)로 변화되고, 그 변화량(예컨대, D(D2 = (x0 - x1)2 + (y0 - y1)2)이 미리 설정된 "이동 임계치(예컨대, 1밀리미터)"를 초과할 경우 제어부(170)는 터치입력기구의 움직임이 발생된 것으로 결정한다. 제어부(170)는 터치입력기구의 이동에 응답하여 터치의 위치변화량(dx, dy) 및 터치입력기구의 이동 속도 등을 산출한다. 제어부(170)는 터치 좌표, 터치입력기구의 터치 해제 여부, 터치입력기구의 이동 여부, 터치입력기구의 위치변화량 및 터치입력기구의 이동 속도 등을 기반으로, 사용자 제스처를 터치, 멀티 터치, 탭(Tap), 더블 탭(Double Tap), 롱 탭(Long tap), 탭 앤 터치(Tap & touch), 드래그(Drag), 플릭(Flick), 프레스(Press), 핀치인(pinch in) 및 핀치아웃(pinch out) 등 중에서 어느 하나로 결정한다. 터치는 사용자가 화면의 터치패널(111)의 어느 한 지점에 터치입력기구를 접촉하는 제스처이고, 멀티 터치는 여러 지점에 다수의 터치입력기구(예, 엄지와 검지)를 접촉하는 제스처이고, 탭은 화면의 어느 한 지점에 터치입력기구가 터치된 후 이동 없이 해당 지점에서 터치 해제(touch-off)되는 제스처이고, 더블 탭은 어느 한 지점을 연속적으로 두 번 탭하는 제스처이고, 롱 탭은 탭보다 상대적으로 길게 터치한 후 터치입력기구의 이동 없이 해당 지점에서 터치입력기구의 터치를 해제하는 제스처이고, 탭 앤 터치는 화면의 어느 지점을 탭한 후 해당 지점을 소정 시간(예, 0.5초)이내에 다시 터치하는 제스처이고, 드래그는 어느 한 지점을 터치한 상태에서 터치입력기구를 소정 방향으로 이동시키는 제스처이고, 플릭은 드래그에 비해 터치 기구를 빠르게 이동시킨 후 터치 해제하는 제스처이고, 프레스는 어느 한 지점을 터치한 후 소정 시간(예, 2초)이상 움직임없이 터치를 유지하는 제스처이고, 핀치 인은 두 개의 터치입력기구로 두 지점을 동시에 멀티 터치한 후 터치 기구들의 간격을 좁히는 제스처이고, 핀치 아웃은 터치입력기구들의 간격을 넓히는 제스처이다. 즉 터치는 터치패널(111)에 접촉(contact)한 것을 의미하고, 그 밖의 제스처들은 터치의 변화를 의미한다.
터치패널(111)은 손 제스처를 감지하는 손 터치패널과 펜 제스처를 감지하는 펜 터치패널를 포함하여 구성된 복합 터치패널일 수 있다. 여기서 손 터치패널은 정전용량 방식(capacitive type)으로 구성된다. 물론 손 터치패널은 저항막 방식(resistive type), 적외선 방식 또는 초음파 방식으로 구성될 수도 있다. 또한 손 터치패널은 사용자의 손 제스처에 의해서만 터치이벤트를 발생하는 것은 아니며, 다른 물체(예, 정전용량 변화를 가할 수 있는 전도성 재질의 물체)에 의해서도 터치이벤트를 생성할 수 있다. 펜 터치패널은 전자 유도 방식(electromagnetic induction type)으로 구성될 수 있다. 이에 따라 펜 터치패널은 자기장을 형성할 수 있도록 특수 제작된 터치용 스타일러스 펜에 의해 터치이벤트를 생성한다.
키입력부(120)는 숫자 또는 문자 정보를 입력받고 각종 기능들을 설정하기 위한 다수의 키들을 포함할 수 있다. 이러한 키들은 메뉴 불러오기 키, 화면 온/오프 키, 전원 온/오프 키 및 볼륨 조절키 등을 포함할 수 있다. 키입력부(120)는 사용자 설정 및 입력 단말(100)의 기능 제어와 관련한 키 이벤트를 생성하여 제어부(170)로 전달한다. 키 이벤트는 전원 온/오프 이벤트, 볼륨 조절 이벤트, 화면 온/오프 이벤트, 셔터 이벤트 등을 포함할 수 있다. 제어부(170)는 이러한 키 이벤트에 응답하여 상기한 구성들을 제어한다. 한편 키입력부(120)의 키는 하드 키(hard key)라 하고 표시부(110)에 표시되는 가상의(virtual) 키는 소프트 키(soft key)로 지칭될 수 있다.
저장부(secondary memory unit; 130)는 디스크, 램(RAM), 롬(ROM) 및 플래시 메모리 등으로 구성된다. 저장부(130)는 제어부(170)의 제어 하에, 입력 단말(100)에서 생성되거나 무선통신부(140) 또는 유선통신부(160)를 통해 외부장치(예, 서버, 데스크탑 PC, 태블릿 PC 등)로부터 수신한 데이터를 저장한다.
저장부(130)는 부팅 프로그램, 적어도 하나 이상의 운영체제 및 어플리케이션들(특히, 마우스 호스트 어플리케이션(131))을 저장한다. 운영체제는 하드웨어와 어플리케이션 사이 그리고 어플리케이션들 사이의 인터페이스 역할을 하고, CPU, GPU, 메인메모리(162) 및 저장부(130) 등의 컴퓨터 자원을 관리한다. 어플리케이션들은 내재화 어플리케이션(embedded application)과 서드파티 어플리케이션(3rd party application)으로 분류된다. 예컨대 내재화 어플리케이션은 웹 브라우저(Web browser), 이메일(email) 프로그램, 인스턴트 메신저(instant messenger) 등이다. 마우스 호스트 어플리케이션(131)은 사용자가 휴대 단말을 마우스로 사용할 수 있도록 하기 위한 프로그램이다. 제어부(170)로 배터리의 전원이 공급되면 먼저 부팅 프로그램이 제어부(170)의 메인메모리(main memory unit)으로 로딩(loading)된다. 이러한 부팅 프로그램은 운영체제들을 메인메모리로 로딩한다. 운영체제는 어플리케이션들을 메인메모리로 로딩한다.
무선통신부(140)는 제어부(170)의 제어 하에, 네트워크를 통해 외부장치와 음성 통화, 화상 통화 또는 데이터 통신을 수행한다. 무선통신부(140)는 송신되는 신호의 주파수를 상승변환 및 증폭하는 무선주파수 송신부와, 수신되는 신호의 주파수를 저잡음 증폭 및 하강 변환하는 무선주파수 수신부를 포함한다. 또한 무선 통신부(140)는 이동 통신 모듈(예컨대, 3세대(3-Generation) 이동통신모듈, 3.5(3.5-Generation)세대 이동통신모듈 또는 4(4-Generation)세대 이동통신모듈 등), 디지털 방송 모듈(예컨대, DMB 모듈) 및 근거리 통신 모듈(예, 와이파이(Wi-Fi) 모듈, 블루투스(bluetooth) 모듈(141), NFC(Near Field Communication) 모듈)을 포함한다. 근거리 통신 모듈 특히, 블루투스 모듈(141)은 제어부(170)의 제어 하에, 입력 정보를 출력 단말로 전송한다. 여기서 입력 정보에는 터치 좌표를 포함한다. 또한 입력 정보에는 기능 실행 정보(예, 포인터 이동, 이미지 이동 또는 주밍(zooming) 등)를 포함할 수 있다.
오디오 처리부(150)는 스피커(SPK) 및 마이크(MIC)와 결합하여 음성 인식, 음성 녹음, 디지털 레코딩(recording) 및 통화를 위한 오디오 신호(예, 음성 데이터)의 입력 및 출력을 수행한다. 오디오 처리부(150)는 제어부(170)로부터 오디오 신호를 수신하고, 수신한 오디오 신호를 아날로그로 D/A 변환하고 증폭한 후 스피커(SPK)로 출력한다. 오디오 처리부(150)는 마이크(MIC)으로부터 수신한 오디오 신호를 디지털로 A/D 변환한 후 제어부(170)로 제공한다. 스피커(SPK)는 오디오 처리부(150)로부터 수신한 오디오 신호를 음파(sound wave)로 변환하여 출력한다. 마이크(MIC)는 사람이나 기타 소리원(sound source)들로부터 전달된 음파를 오디오 신호로 변환한다.
유선통신부(160)는 유선(예, USB 케이블)을 통해 외부 장치(예컨대, 출력 단말)와 연결된다. 즉 입력 단말(100)은 무선통신부(140) 대신, 유선통신부(160)를 통해 입력 정보를 출력 단말로 전송할 수 있다.
제어부(170)는 입력 단말(100)의 전반적인 동작 및 입력 단말(100)의 내부 구성들 간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행하고, 배터리에서 상기 구성들로의 전원 공급을 제어한다. 제어부(170)는 다수의 CPU(central processing unit)들을 포함한다. 주지된 바와 같이 CPU는 자료의 연산 및 비교와, 명령어의 해석 및 실행 등을 수행하는 컴퓨터 시스템의 핵심적인 제어 유닛이다. CPU는 데이터나 명령을 일시 저장하는 각종 레지스터들을 포함한다.
제어부(170)는 적어도 하나 이상의 GPU(graphic processing unit)를 포함할 수 있다. GPU는 CPU를 대신하여, 그래픽과 관련한 자료의 연산 및 비교와, 명령어의 해석 및 실행 등을 수행하는 그래픽 제어 유닛이다. CPU과 GPU는 각각, 두 개 이상의 독립 코어(예, 쿼드 코어(quad-core))가 단일 집적 회로로 이루어진 하나의 패키지(package)로 통합될 수 있다. 즉 CPU들은 하나의 멀티 코어 프로세서로 통합된 것일 수 있다. 또한 다수의 GPU들도 하나의 멀티 코어 프로세서로 통합된 것일 수 있다. 또한 CPU와 GPU는 하나의 칩으로 통합(SoC; System on Chip)된 것일 수 있다. 또한 CPU와 GPU는 멀티 레이어(multi layer)로 패키징(packaging)된 것일 수 있다. 한편 CPU 및 GPU를 포함하는 구성은 AP(Application Processor)라고 지칭될 수 있다.
제어부(170)는 메인메모리(main memory unit) 예컨대, 램(RAM)을 포함한다. 메인메모리는 저장부(130)로부터 로딩된 각종 프로그램 예컨대, 부팅 프로그램, 운영체제 및 마우스 호스트 어플리케이션을 저장한다. 즉 제어부(170)의 CPU들과 GPU들은 이와 같은 프로그램에 액세스하여 프로그램의 명령을 해독하고, 해독 결과에 따른 기능을 실행한다. 특히, CPU들 중 적어도 하나는 마우스 호스트 어플리케이션(131)의 기능들을 실행한다. 이러한 마우스 호스트 어플리케이션(131)의 기능들은 아래 흐름도를 참조하여 상세히 설명한다. 또한 제어부(170)는 저장부(130)에 기록(write)할 데이터를 임시 저장하고 저장부(130)로부터 읽어 온(read) 데이터를 임시 저장하는 캐시메모리를 포함한다.
디지털 기기의 컨버전스(convergence) 추세에 따라 변형이 매우 다양하여 모두 열거할 수는 없으나, 입력 단말(100)은 GPS 모듈, 진동 모터, 액세서리, 이어 잭 등과 같이 상기에서 언급되지 않은 구성들을 더 포함할 수 있다. 여기서 액세서리는 입력 단말(100)로부터 분리가 가능한 입력 단말(100)의 부속품으로써 예컨대, 터치를 위한 펜이 될 수 있다. 또한 입력 단말(100)은 그 제공 형태에 따라 상기한 구성들에서 특정 구성이 제외되거나 다른 구성으로 대체될 수도 있다.
도 2는 본 발명의 일 실시예에 따른 출력 단말의 블록 구성도이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 출력 단말(200)은 표시부(210), 키입력부(220), 저장부(230), 무선통신부(240), 오디오처리부(250), 스피커(SPK), 마이크(MIC) 및 제어부(270)를 포함한다.
표시부(210)는 제어부(270)의 제어 하에, 이미지(예, 사진, 웹 페이지, 전자책의 페이지, 다수의 썸네일(thumbnail), 음악 리스트 등)를 표시하고 포인터를 표시한다. 표시부(210)는 제어부(270)의 제어 하에, 포인터를 항상 화면의 최상층에 표시한다. 예컨대, 마우스 게스트 어플리케이션(231)이 실행되면 포인터가 화면에 표시된다. 표시부(210)는 액정 표시 장치(Liquid Crystal Display : LCD), OLED(Organic Light Emitted Diode), AMOLED(Active Matrix Organic Light Emitted Diode) 또는 플랙서블 디스플레이(Flexible display)로 구성될 수 있다. 한편, 출력 단말(200)이 프로젝터인 경우 표시부(210)는 제어부(270)로부터 수신된 이미지를 스크린에 영사하는 광학장치로 구성될 수 있다.
저장부(230)는 부팅 프로그램, 적어도 하나 이상의 운영체제 및 어플리케이션들(특히, 마우스 게스트 어플리케이션(231))을 저장한다. 마우스 게스트 어플리케이션(231)은 사용자가 휴대 단말을 마우스로 사용할 수 있도록 하기 위한 프로그램이다. 마우스 게스트 어플리케이션(231)은 운영체제에 의해 제어부(270)의 메인메모리로 로딩된다.
무선통신부(240)는 근거리 통신 모듈 특히, 블루투스 모듈(241)을 포함한다. 블루투스 모듈(241)은 제어부(270)의 제어 하에, 입력 정보를 입력 단말(100)로부터 수신한다.
유선통신부(260)는 유선(예, USB 케이블)을 통해 외부 장치(예컨대, 입력 단말(100))와 연결된다. 즉 출력 단말(200)은 무선통신부(240) 대신, 유선통신부(260)를 통해 입력 정보를 입력 단말(100)로부터 수신할 수 있다. 또한 유선통신부(260)는 프로젝터와 연결될 수 있다. 프로젝터가 유선통신부(260)에 연결되면 제어부(270)는 이미지와 포인터를 표시하도록 프로젝터를 제어할 수 있다.
제어부(270)는 자신의 메인메모리에 액세스하여 프로그램 예컨대, 마우스 게스트 어플리케이션(231)의 명령을 해독하고, 해독 결과에 따른 기능을 실행한다. 예컨대, 제어부(270)는 무선통신부(240)를 통해 입력 단말(100)로부터 터치 좌표(x_host, y_host)를 수신하고, 터치 좌표(x_host, y_host)를 포인터 좌표(x_pointer, y_pointer)로 변환하고, 포인터 좌표(x_pointer, y_pointer)에 포인터를 표시하도록 표시부(210)를 제어한다. 이외에 마우스 게스트 어플리케이션(231)의 기능들은 아래 흐름도를 참조하여 상세히 설명한다.
한편, 출력 단말(200)은 상기 구성들 이외에, 키입력부, 오디오처리부, 스피커, 마이크 및 이어잭 등을 더 포함할 수 있다.
도 3은 본 발명의 일 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 흐름도이다. 도 4 내지 도 8은 본 발명의 일 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 화면들이다.
도 1 내지 도 8을 참조하면, 입력 단말(100)의 제어부(170)는 터치패널(111) 또는 키입력부(120)로부터 마우스 호스트 어플리케이션(131)의 실행 요청(예컨대, 해당 아이콘을 탭)을 검출한다. 이러한 실행 요청에 응답하여 제어부(170)는 마우스 호스트 어플리케이션(131)을 메인메모리로 로딩하고, 마우스 호스트 어플리케이션(131)의 기능을 실행한다. 먼저, 제어부(170)는 화면에 도 4에 도시된 바와 같은 마우스 동작 이미지(410)를 표시하도록 표시부(110)를 제어한다. 또한 제어부(170)는 도 5a에 도시된 바와 같은 포인터(510)를 표시하도록 출력 단말(200)을 원격 제어한다. 예컨대, 블루투스 모듈(141)은 제어부(170)의 제어 하에, "마우스 게스트 어플리케이션 실행 명령"을 출력 단말(200)로 전송한다. 이에 따라 출력 단말(200)의 무선통신부(240)는 입력 단말(200)로부터 이 명령을 수신하고, 제어부(270)로 전달한다. 입력 단말(100)의 명령에 응답하여 제어부(270)는 마우스 게스트 어플리케이션(231)을 실행하고, 포인터(510)를 표시하도록 표시부(210)를 제어한다. 이때 포인터(510)의 위치는 미리 정해진 좌표이거나 혹은 랜덤하게 결정된 좌표일 수 있다. 또한, 포인터(510)는 화면의 최상층에 표시된다. 예컨대, 도 5a를 참조하면, 배경 이미지(530)가 최하층에 표시되고, 사진(520)이 그 위에 표시되고, 사진(520) 위에 포인터(510)가 표시된다.
단계 310에서 제어부(170)는 마우스 동작 이미지(410)에 대한 터치입력기구(420)의 터치를 검출한다. 예컨대, 제어부(170)는 t0시점에 터치패널(111)로부터 터치 좌표(x_host_0, y_host_0)를 수신하게 되고, 이에 따라 마우스 동작 이미지(410)에 대한 터치(420)가 발생된 것을 인식한다. 터치(420)에 응답하여 제어부(170)는 터치 좌표(x_host_0, y_host_0)를 출력 단말(200)에 전송하도록 무선통신부(140)를 제어한다. 출력 단말(200)의 제어부(270)는 무선통신부(240)를 통해 터치 좌표(x_host_0, y_host_0)를 수신하고, 이를 포인터 좌표(x_pointer_0, y_pointer_0)에 매핑한다.
터치(420)에 응답하여 단계 320에서 제어부(170)는 터치 홀딩 시간을 카운트하기 시작한다. 즉, t0 시점부터 터치 홀딩 시간이 카운트된다.
단계 330에서 제어부(170)는 터치입력기구(420)의 이동 여부를 결정한다. 예컨대, 제어부(170)는, t0 시점에 터치패널(111)로부터 수신된 터치 좌표(x_host_0, y_host_0)와 tn 시점에 터치패널(111)로부터 수신된 터치 좌표(x_host_n, y_host_n)의 변화량이 미리 설정된 "이동 임계치(예컨대, 1밀리미터)"를 초과할 경우 움직임(430)이 발생된 것으로 결정한다.
터치입력기구(420)의 움직임이 발생한 경우 단계 340에서 제어부(170)는 카운트된 터치 홀딩 시간을 확인하고, 확인된 터치 홀딩 시간이 미리 설정된 "홀딩 임계치(예컨대, 1초)"를 초과하는지 여부를 결정한다.
터치 홀딩 시간이 홀딩 임계치를 초과할 경우 단계 350에서 제어부(170)는 "이미지 이동 명령"과 터치 좌표(x_host_n, y_host_n)를 출력 단말(200)로 전송하도록 무선통신부(140)를 제어한다. 출력 단말(200)의 무선통신부(240)는 "이미지 이동 명령"과 터치 좌표(x_host_n, y_host_n)를 수신하고, 이들을 제어부(270)로 전달한다. 그러면, 제어부(270)는 터치 좌표(x_host_n, y_host_n)를 포인터 좌표(x_pointer_n, y_pointer_n)로 변환하고, 포인터 좌표(x_pointer_n, y_pointer_n)를 이용하여 방향 및 거리를 산출한다. 다음으로 제어부(270)는 산출된 방향 및 거리 중 적어도 하나를 이용하여 포인터의 밑에 위치한 이미지를 이동시킨다. 일례로 도 5b를 참조하면, 제어부(270)는 산출된 방향으로 산출된 거리만큼 포인터(510)와 함께 그 밑에 위치한 이미지(520)를 이동시킨다. 다른 예로 도 4, 도 6a 및 6b를 참조하면, 이동(430) 즉, 패닝(panning)에 의해 제 1 이미지(610)가 제 2 이미지(620)로 교체된다. 여기서 제 1 이미지(610)는 예컨대, 웹 페이지, 홈 이미지 또는 전자책의 페이지이다. 제 2 이미지(620)는 다른 웹 페이지, 다른 홈 이미지 또는 전자책의 다른 페이지이다. 또 다른 예로 도 7, 도 8a 및 도 8b를 참조하면, 항목(예컨대, 연락처들을 각각 나타내는 항목들) 4 내지 8이 표시된다. 이때 아래쪽으로 스크롤(710)이 발생된 경우, 항목 7 및 8은 사라지고 항목 1 내지 5가 표시된다. 이상으로, "사용자가 1초(홀딩 임계치) 이상 홀딩한 후 터치기구를 움직인다"는 의미는 사용자가 마우스 왼쪽 버튼을 누른 상태에서 마우스를 움직이는 것에 해당되거나, 사용자가 마우스의 휠을 돌리는 조작하는 것에 해당된다.
터치 홀딩 시간이 홀딩 임계치를 초과하지 않은 경우 단계 360에서 제어부(170)는 "포인터 이동 명령"과 터치 좌표(x_host_n, y_host_n)를 출력 단말(200)로 전송하도록 무선통신부(140)를 제어한다. 출력 단말(200)의 무선통신부(140)는 "포인터 이동 명령"과 터치 좌표(x_host_n, y_host_n)를 수신하고, 이들을 제어부(270)로 전달한다. 그러면, 제어부(270)는 터치 좌표(x_host_n, y_host_n)를 포인터 좌표(x_pointer_n, y_pointer_n)로 변환하고, 포인터 좌표(x_pointer_n, y_pointer_n)를 이용하여 방향 및 거리를 산출한다. 다음으로, 도 5c를 참조하면, 제어부(270)는 산출된 방향으로 산출된 거리만큼 포인터(510)만을 이동시킨다. 이상으로, "사용자가 1초 전에 터치기구를 움직인다"는 의미는 사용자가 마우스의 버튼을 누르지 않고 단지 마우스를 움직이는 것에 해당된다.
도 9는 본 발명의 다른 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 흐름도이다.
도 9를 참조하면, 단계 910에서 출력 단말(200)의 제어부(270)는 이미지와 포인터를 표시한다. 구체적으로, 표시부(210)는 제어부(270)의 제어 하에, 이미지(예컨대, 사진, 홈 이미지, 웹 페이지 등)를 표시한다. 무선통신부(240)는 입력 단말(100)로부터 "마우스 게스트 어플리케이션 실행 명령"을 수신하고, 이를 제어부(270)로 전달한다. 이에 응답하여 제어부(270)는 마우스 게스트 어플리케이션(231)을 실행하고, 포인터를 표시하도록 표시부(210)를 제어한다.
단계 920에서 제어부(270)는 무선통신부(240)를 통해 입력 단말(100)로부터 터치좌표(x_host_0, y_host_0)를 수신한다. 이에 따라, 제어부(270)는 터치좌표(x_host_0, y_host_0)를 포인터 좌표(x_pointer_0, y_pointer_0)에 매핑한다.
단계 930에서 제어부(270)는 터치 홀딩 시간을 카운트하기 시작한다. 즉, 터치좌표(x_host_0, y_host_0)가 수신된 t0시점부터 터치 홀딩 시간이 카운트된다.
단계 940에서 제어부(270)는 터치입력기구의 이동 여부를 결정한다. 예컨대, 제어부(270)는, t0 시점에 입력 단말(100)로부터 수신된 터치 좌표(x_host_0, y_host_0)와 tn 시점에 입력 단말(100)로부터 수신된 터치 좌표(x_host_n, y_host_n)의 변화량이 미리 설정된 "이동 임계치(예컨대, 1밀리미터)"를 초과할 경우 움직임이 발생된 것으로 결정한다.
터치입력기구의 움직임이 발생한 경우 단계 950에서 제어부(170)는 카운트된 터치 홀딩 시간을 확인하고, 확인된 터치 홀딩 시간이 미리 설정된 "홀딩 임계치(예컨대, 1초)"를 초과하는지 여부를 결정한다.
터치 홀딩 시간이 홀딩 임계치를 초과할 경우 단계 960에서 제어부(270)는 이미지를 이동한다. 이러한 이미지의 이동과 관련된 예시들은 단계 350에서 설명되었다. 터치 홀딩 시간이 홀딩 임계치를 초과하지 않은 경우 단계 970에서 제어부(270)는 포인터를 이동한다.
도 10은 본 발명의 또 다른 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 흐름도이다. 도 11은 본 발명의 또 다른 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 화면이다.
앞서 도 3을 참조하여 설명되었듯이, 먼저 마우스 동작 이미지가 입력 단말(100)의 화면에 표시되고 포인터가 출력 단말(200)의 화면에 표시된다.
도 10 및 도 11을 참조하면, 단계 1010에서 입력 단말(100)의 제어부(170)는 마우스 동작 이미지에 대한 터치를 검출한다.
터치에 응답하여 단계 1020에서 제어부(170)는 터치 홀딩 시간을 카운트하기 시작한다. 즉, 제어부(170)는 터치패널(111)로부터 터치 좌표(x_host_0, y_host_0)를 수신하게 된 t0 시점부터 터치 홀딩 시간을 카운트한다.
단계 1030에서 제어부(170)는 터치입력기구의 이동 여부를 결정한다. 이동 여부의 결정과 관련된 예시는 단계 330에서 설명되었다.
터치입력기구의 움직임이 발생한 경우 단계 1040에서 제어부(170)는 카운트된 터치 홀딩 시간을 확인하고, 확인된 터치 홀딩 시간이 미리 설정된 "제 1 홀딩 임계치(예컨대, 1초)"를 초과하는지 여부를 결정한다.
터치 홀딩 시간이 제 1 홀딩 임계치를 초과할 경우 단계 1050에서 제어부(170)는 "이미지 이동 명령"과 터치 좌표(x_host_n, y_host_n)를 출력 단말(200)로 전송하도록 무선통신부(140)를 제어한다.
터치 홀딩 시간이 제 1 홀딩 임계치를 초과하지 않은 경우 단계 1060에서 제어부(170)는 "포인터 이동 명령"과 터치 좌표(x_host_n, y_host_n)를 출력 단말(200)로 전송하도록 무선통신부(140)를 제어한다.
한편, 단계 1030에서 제어부(170)가 터치의 움직임이 발생하지 않은 것으로 결정한 경우, 단계 1070에서 제어부(170)는 터치 홀딩 시간이 미리 설정된 제 2 홀딩 임계치(예컨대, 2초)를 초과하는지 여부를 결정한다.
터치 홀딩 시간이 제 2 홀딩 임계치를 초과할 경우 단계 1080에서 제어부(170)는 "팝업 메뉴 표시 명령"을 출력 단말(200)로 전송하도록 무선통신부(140)를 제어한다. 출력 단말(200)의 무선통신부(240)는 팝업 메뉴 표시 명령을 수신하고, 이를 제어부(270)로 전달한다. 그러면, 제어부(270)는 도 11에 도시된 바와 같은 팝업 메뉴(1110)를 표시하도록 표시부(210)를 제어한다. 이상으로, 사용자가 제 2 홀딩 임계치를 초과하여 터치를 홀딩한다는 의미는 마우스의 오른쪽 버튼을 누른 것에 해당된다.
도 12는 본 발명의 또 다른 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 흐름도이다.
도 12를 참조하면, 단계 1210에서 출력 단말(200)의 제어부(270)는 이미지와 포인터를 표시한다. 이미지와 포인터의 표시와 관련된 예시는 앞서 도 9를 참조하여 설명되었다.
단계 1220에서 제어부(270)는 무선통신부(240)를 통해 입력 단말(100)로부터 터치좌표(x_host_0, y_host_0)를 수신하고, 이를 포인터 좌표(x_pointer_0, y_pointer_0)에 매핑한다.
단계 1230에서 제어부(270)는 터치 홀딩 시간을 카운트하기 시작한다. 즉, 터치좌표(x_host_0, y_host_0)가 수신된 t0시점부터 터치 홀딩 시간이 카운트된다.
단계 1240에서 제어부(270)는 터치입력기구의 이동 여부를 결정한다. 이동 여부의 결정과 관련된 예시는 단계 940에서 설명되었다.
터치의 움직임이 발생한 경우 단계 1250에서 제어부(170)는 카운트된 터치 홀딩 시간을 확인하고, 확인된 터치 홀딩 시간이 미리 설정된 제 1 홀딩 임계치(예, 1초)를 초과하는지 여부를 결정한다.
터치 홀딩 시간이 제 1 홀딩 임계치를 초과할 경우 단계 1260에서 제어부(270)는 이미지를 이동한다. 이러한 이미지의 이동과 관련된 예시들은 단계 350에서 설명되었다. 터치 홀딩 시간이 제 1 홀딩 임계치를 초과하지 않은 경우 단계 1270에서 제어부(270)는 포인터를 이동한다.
한편, 단계 1240에서 제어부(270)가 터치의 움직임이 발생하지 않은 것으로 결정한 경우, 단계 1280에서 제어부(270)는 터치 홀딩 시간이 미리 설정된 제 2 홀딩 임계치(예컨대, 2초)를 초과하는지 여부를 결정한다.
터치 홀딩 시간이 제 2 홀딩 임계치를 초과할 경우 단계 1290에서 제어부(270)는 도 11에 도시된 바와 같은 팝업 메뉴(1110)를 표시하도록 표시부(210)를 제어한다.
도 13 내지 도 16은 본 발명의 또 다른 실시예에 따른 마우스 기능 제공 방법을 설명하기 위한 화면들이다.
먼저 도 13 및 도 14를 참조하여 줌인(zoom-in)의 일례에 대해 설명한다. 제어부(170)는 터치패널(111)로부터 멀티 터치를 검출한다. 예컨대, 제어부(170)는 t0 시점에 터치패널(111)로부터 제 1 터치좌표(1311)와 제 2 터치좌표(1312)를 동시에 수신한다. 그러면, 제어부(170)는 멀티 터치가 발생된 것으로 인식하고, 이에 따라 제 1 터치좌표(1311) 및 제 2 터치좌표(1312)를 출력 단말(200)에 전송하도록 무선통신부(140)를 제어한다. 출력 단말(200)의 제어부(270)는 무선통신부(240)를 통해 입력 단말(100)로부터 제 1 터치좌표(1311)와 제 2 터치좌표(1312)를 수신하고, 이들을 제 1 포인터좌표(1411)와 제 2 포인터좌표(1412)로 변환하고, 이들(1411, 1412)의 간격 D1을 계산한다. 또한 제어부(270)는 도 14a에 도시된 바와 같이, 제 1 포인터좌표(1411)와 제 2 포인터좌표(1412)에 각각 제 1 포인터(1420)와 제 2 포인터(1420)를 표시하도록 표시부(210)를 제어한다.
이후 제어부는 tn 시점에 제 3 터치좌표(1313)와 제 4 터치좌표(1314)를 터치패널(111)로부터 동시에 수신하고, 이들을 출력 단말(200)에 전송하도록 무선통신부(140)를 제어한다. 그러면, 출력 단말(200)의 제어부(270)는 이들(1313, 1314)을 제 3 포인터좌표(1413)과 제 4 포인터좌표(1414)로 변환한다. 그리고 제어부(270)는 도 14b에 도시된 바와 같이, 제 3 포인터좌표(1413)과 제 4 포인터좌표(1414)에 각각 제 1 포인터(1420)와 제 2 포인터(1430)를 표시하도록 표시부(210)를 제어한다. 또한 제어부(270)는 제 3 포인터좌표(1413)과 제 4 포인터좌표(1414)의 간격 D2를 계산하고, D2 < D1인지 여부를 결정하고, D2 < D1인 경우 이미지(1440)를 축소하고, 도 14b에 도시된 바와 같이 축소된 이미지(1440')를 표시하도록 표시부(210)를 제어한다.
다음으로 줌인의 다른 예에 대해 설명한다. 제어부(170)는 터치패널(111)로부터 핀치 인를 검출한다. 구체적으로, 제어부(170)는 t0 시점에 터치패널(111)로부터 제 1 터치좌표와 제 2 터치좌표를 동시에 수신한다. 그러면, 제어부(170)는 멀티 터치가 발생된 것으로 인식하고, 이들의 간격 D1을 계산한다. 이후 제어부는 tn 시점에 제 3 터치좌표와 제 4 터치좌표를 터치패널(111)로부터 동시에 수신하고, 이들의 간격 D2를 계산한다. D2 < D1인 경우 제어부(170)는 줌인 명령을 출력 단말(200)에 전송하도록 무선통신부(140)를 제어한다. 출력 단말(200)의 제어부(270)는 줌인 명령에 응답하여, 표시되는 이미지들 중 하나를 선택(예컨대, 최상층에 위치한 이미지를 선택)하고, 이를 축소하고, 축소된 이미지를 표시하도록 표시부(210)를 제어한다.
다음으로 도 15 및 도 16을 참조하여 줌아웃(zoom-out)의 일례에 대해 설명한다. 제어부(170)는 터치패널(111)로부터 멀티 터치를 검출한다. 예컨대, 제어부(170)는 t0 시점에 터치패널(111)로부터 제 1 터치좌표(1511)와 제 2 터치좌표(1512)를 동시에 수신한다. 그러면, 제어부(170)는 멀티 터치가 발생된 것으로 인식하고, 이에 따라 제 1 터치좌표(1511) 및 제 2 터치좌표(1512)를 출력 단말(200)에 전송하도록 무선통신부(140)를 제어한다. 출력 단말(200)의 제어부(270)는 무선통신부(240)를 통해 입력 단말(100)로부터 제 1 터치좌표(1511)와 제 2 터치좌표(1512)를 수신하고, 이들을 제 1 포인터좌표(1611)와 제 2 포인터좌표(1612)로 변환하고, 이들(1611, 1612)의 간격 D1을 계산한다. 또한 제어부(270)는 도 16a에 도시된 바와 같이, 제 1 포인터좌표(1611)와 제 2 포인터좌표(1612)에 각각 제 1 포인터(1620)와 제 2 포인터(1620)를 표시하도록 표시부(210)를 제어한다.
이후 제어부는 tn 시점에 제 3 터치좌표(1513)와 제 4 터치좌표(1514)를 터치패널(111)로부터 동시에 수신하고, 이들을 출력 단말(200)에 전송하도록 무선통신부(140)를 제어한다. 그러면, 출력 단말(200)의 제어부(270)는 이들(1513, 1514)을 제 3 포인터좌표(1613)과 제 4 포인터좌표(1614)로 변환한다. 그리고 제어부(270)는 도 16b에 도시된 바와 같이, 제 3 포인터좌표(1613)과 제 4 포인터좌표(1614)에 각각 제 1 포인터(1620)와 제 2 포인터(1630)를 표시하도록 표시부(210)를 제어한다. 또한 제어부(270)는 제 3 포인터좌표(1613)과 제 4 포인터좌표(1614)의 간격 D2를 계산하고, D2 > D1인지 여부를 결정하고, D2 > D1인 경우 이미지(1640)를 확대하고, 도 16b에 도시된 바와 같이 확대된 이미지(1640')를 표시하도록 표시부(210)를 제어한다.
다음으로 줌아웃의 다른 예에 대해 설명한다. 제어부(170)는 터치패널(111)로부터 핀치 아웃을 검출한다. 구체적으로, 제어부(170)는 t0 시점에 터치패널(111)로부터 제 1 터치좌표와 제 2 터치좌표를 동시에 수신한다. 그러면, 제어부(170)는 멀티 터치가 발생된 것으로 인식하고, 이들의 간격 D1을 계산한다. 이후 제어부는 tn 시점에 제 3 터치좌표와 제 4 터치좌표를 터치패널(111)로부터 동시에 수신하고, 이들의 간격 D2를 계산한다. D2 > D1인 경우 제어부(170)는 줌아웃 명령을 출력 단말(200)에 전송하도록 무선통신부(140)를 제어한다. 출력 단말(200)의 제어부(270)는 줌아웃 명령에 응답하여, 표시되는 이미지들 중 하나를 선택(예컨대, 최상층에 위치한 이미지를 선택)하고, 이를 확대하고, 확대된 이미지를 표시하도록 표시부(210)를 제어한다.
상술한 바와 같은 본 발명에 따른 마우스 기능 제공 방법은 다양한 컴퓨터를 통하여 수행될 수 있는 프로그램 명령으로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 여기서 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 포함할 수 있다. 또한 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수 있다. 또한 기록매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기매체(Magnetic Media)와, CD-ROM, DVD와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 롬(ROM)과, 램(RAM)과, 플래시 메모리 등과 같은 하드웨어 장치가 포함될 수 있다. 또한 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라, 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드가 포함될 수 있다. 하드웨어 장치는 본 발명을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있다.
본 발명에 따른 마우스 기능 제공 방법 및 휴대 단말은 전술한 실시 예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위에서 다양하게 변형하여 실시할 수가 있다.
100: 입력 단말
110: 표시부 111: 터치패널
120: 키입력부 130: 저장부
131: 마우스 호스트 어플리케이션
140: 무선통신부 141: 블루투스 모듈
150: 오디오 처리부 160: 유선통신부
170: 제어부
200: 출력 단말
210: 표시부 230: 저장부
231: 마우스 게스트 어플리케이션
240: 무선통신부 241: 블루투스 모듈
260: 유선통신부 270: 제어부

Claims (16)

  1. 터치패널을 포함한 표시부를 가지는 휴대 단말의 마우스 기능 제공 방법에 있어서,
    마우스 호스트 어플리케이션의 실행 요청에 응답하여 상기 표시부의 화면에 마우스 동작 이미지를 표시하는 단계;
    상기 마우스 동작 이미지에 대한 터치입력기구의 터치를 검출하는 단계;
    상기 터치입력기구의 움직임이 발생한 경우 상기 터치가 검출된 시점부터 카운트된 터치 홀딩 시간이 제 1 홀딩 임계치를 초과하는지 여부를 결정하는 단계; 및
    상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하는 경우 이미지 이동 명령을 출력 단말로 전송하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하지 않는 경우 포인터 이동 명령을 상기 출력 단말로 전송하는 단계를 포함하는 마우스 기능 제공 방법.
  2. 제 1 항에 있어서,
    상기 터치 홀딩 시간이 제 2 홀딩 임계치를 초과하는지 여부를 결정하는 단계와,
    상기 터치 홀딩 시간이 상기 제 2 홀딩 임계치를 초과하는 경우 팝업 메뉴 표시 명령을 상기 출력 단말로 전송하는 단계를 더 포함하고,
    상기 제 2 홀딩 임계치는 상기 제 1 홀딩 임계치보다 큰 값인 것을 특징으로 하는 마우스 기능 제공 방법.
  3. 제 1 항에 있어서,
    상기 마우스 호스트 어플리케이션의 실행 요청에 응답하여 마우스 게스트 어플리케이션 실행 명령을 상기 출력 단말로 전송하는 단계를 더 포함하는 마우스 기능 제공 방법.
  4. 단말의 마우스 기능 제공 방법에 있어서,
    이미지를 표시하고 그 위에 포인터를 표시하는 단계;
    터치패널을 가지는 휴대 단말로부터 제 1 터치 좌표를 수신하고, 이후에 제 2 터치 좌표를 수신하는 단계;
    상기 제 1 터치 좌표와 상기 제 2 터치 좌표의 변화량을 이동 임계치와 비교하여 상기 터치패널에 대한 터치입력기구의 이동 여부를 결정하는 단계;
    상기 터치입력기구의 움직임이 발생한 경우 상기 제 1 터치 좌표가 수신된 시점부터 카운트된 터치 홀딩 시간이 제 1 홀딩 임계치를 초과하는지 여부를 결정하는 단계; 및
    상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하는 경우 상기 포인터와 함께 상기 이미지를 이동하여 표시하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하지 않는 경우 상기 포인터를 이동하여 표시하는 단계를 포함하는 마우스 기능 제공 방법.
  5. 제 4 항에 있어서,
    상기 터치 홀딩 시간이 제 2 홀딩 임계치를 초과하는지 여부를 결정하는 단계와,
    상기 터치 홀딩 시간이 상기 제 2 홀딩 임계치를 초과하는 경우 팝업 메뉴를 표시하는 단계를 더 포함하고,
    상기 제 2 홀딩 임계치는 상기 제 1 홀딩 임계치보다 큰 값인 것을 특징으로 하는 마우스 기능 제공 방법.
  6. 제 4 항에 있어서,
    상기 포인터를 표시하는 단계는,
    상기 휴대 단말로부터 마우스 게스트 어플리케이션 실행 명령을 수신하는 단계와,
    상기 마우스 게스트 어플리케이션 실행 명령에 응답하여 상기 포인터를 표시하는 단계를 포함하는 것을 특징으로 하는 마우스 기능 제공 방법.
  7. 터치패널을 가지는 표시부;
    이미지와 포인터를 표시하는 출력 단말과 통신하는 통신부;
    상기 표시부 및 상기 통신부를 제어하는 제어부를 포함하고,
    상기 제어부는,
    마우스 호스트 어플리케이션의 실행 요청에 응답하여 상기 표시부의 화면에 마우스 동작 이미지를 표시하도록 제어하고, 상기 마우스 동작 이미지에 대한 터치입력기구의 터치를 검출하고, 상기 터치입력기구의 움직임이 발생한 경우 상기 터치가 검출된 시점부터 카운트된 터치 홀딩 시간이 제 1 홀딩 임계치를 초과하는지 여부를 결정하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하는 경우 이미지 이동 명령을 출력 단말로 전송하도록 제어하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하지 않는 경우 포인터 이동 명령을 상기 출력 단말로 전송하도록 제어하는 것을 특징으로 하는 휴대 단말.
  8. 제 7 항에 있어서,
    상기 제어부는,
    상기 터치 홀딩 시간이 제 2 홀딩 임계치를 초과하는지 여부를 결정하고, 상기 터치 홀딩 시간이 상기 제 2 홀딩 임계치를 초과하는 경우 팝업 메뉴 표시 명령을 상기 출력 단말로 전송하도록 제어하고,
    상기 제 2 홀딩 임계치는 상기 제 1 홀딩 임계치보다 큰 값인 것을 특징으로 하는 휴대 단말.
  9. 제 7 항에 있어서,
    상기 제어부는,
    상기 마우스 호스트 어플리케이션의 실행 요청에 응답하여 마우스 게스트 어플리케이션 실행 명령을 상기 출력 단말로 전송하도록 제어하는 휴대 단말.
  10. 제 7 항에 있어서,
    상기 통신부는 상기 출력 단말과 통신하기 위한 블루투스 모듈을 포함하는 것을 특징으로 하는 휴대 단말.
  11. 제 7 항에 있어서,
    상기 출력 단말은 프로젝터, TV, 멀티미디어 기기, 표시부가 구비된 가전기기 및 컴퓨터 중 어느 하나인 것을 특징으로 하는 휴대 단말.
  12. 이미지를 표시하고 그 위에 포인터를 표시하는 표시부;
    터치패널을 가지는 휴대 단말로부터 제 1 터치 좌표를 수신하고, 이후에 제 2 터치 좌표를 수신하는 통신부;
    상기 표시부 및 상기 통신부를 제어하는 제어부를 포함하고,
    상기 제어부는,
    상기 제 1 터치 좌표와 상기 제 2 터치 좌표의 변화량을 이동 임계치와 비교하여 상기 터치패널에 대한 터치입력기구의 이동 여부를 결정하고, 상기 터치입력기구의 움직임이 발생한 경우 상기 제 1 터치 좌표가 수신된 시점부터 카운트된 터치 홀딩 시간이 제 1 홀딩 임계치를 초과하는지 여부를 결정하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하는 경우 상기 포인터와 함께 상기 이미지를 이동하여 표시하도록 제어하고, 상기 터치 홀딩 시간이 상기 제 1 홀딩 임계치를 초과하지 않는 경우 상기 포인터를 이동하여 표시하도록 제어하는 것을 특징으로 하는 단말.
  13. 제 12 항에 있어서,
    상기 제어부는,
    상기 터치 홀딩 시간이 제 2 홀딩 임계치를 초과하는지 여부를 결정하고, 상기 터치 홀딩 시간이 상기 제 2 홀딩 임계치를 초과하는 경우 팝업 메뉴를 표시하도록 제어하고,
    상기 제 2 홀딩 임계치는 상기 제 1 홀딩 임계치보다 큰 값인 것을 특징으로 하는 단말.
  14. 제 12 항에 있어서,
    상기 제어부는,
    상기 통신부를 통해 상기 휴대 단말로부터 마우스 게스트 어플리케이션 실행 명령을 수신하고, 상기 마우스 게스트 어플리케이션 실행 명령에 응답하여 상기 포인터를 표시하도록 제어하는 것을 특징으로 하는 단말.
  15. 제 12 항에 있어서,
    상기 통신부는 상기 휴대 단말과 통신하기 위한 블루투스 모듈을 포함하는 것을 특징으로 하는 단말.
  16. 제 12 항에 있어서,
    상기 단말은 프로젝터, TV, 멀티미디어 기기, 표시부가 구비된 가전기기 및 컴퓨터 중 어느 하나인 것을 특징으로 하는 단말.
KR1020130000324A 2013-01-02 2013-01-02 마우스 기능 제공 방법 및 이를 구현하는 단말 KR102044826B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020130000324A KR102044826B1 (ko) 2013-01-02 2013-01-02 마우스 기능 제공 방법 및 이를 구현하는 단말
JP2013268825A JP6139397B2 (ja) 2013-01-02 2013-12-26 マウス機能提供方法およびこれを具現する端末
PCT/KR2013/012210 WO2014107005A1 (en) 2013-01-02 2013-12-26 Mouse function provision method and terminal implementing the same
EP13199665.4A EP2752754B1 (en) 2013-01-02 2013-12-27 Remote mouse function method and terminals
AU2013276998A AU2013276998B2 (en) 2013-01-02 2013-12-27 Mouse function provision method and terminal implementing the same
US14/146,639 US9880642B2 (en) 2013-01-02 2014-01-02 Mouse function provision method and terminal implementing the same
CN201410001485.6A CN103914249B (zh) 2013-01-02 2014-01-02 鼠标功能提供方法和实施所述方法的终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130000324A KR102044826B1 (ko) 2013-01-02 2013-01-02 마우스 기능 제공 방법 및 이를 구현하는 단말

Publications (2)

Publication Number Publication Date
KR20140088446A true KR20140088446A (ko) 2014-07-10
KR102044826B1 KR102044826B1 (ko) 2019-11-14

Family

ID=49916926

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130000324A KR102044826B1 (ko) 2013-01-02 2013-01-02 마우스 기능 제공 방법 및 이를 구현하는 단말

Country Status (7)

Country Link
US (1) US9880642B2 (ko)
EP (1) EP2752754B1 (ko)
JP (1) JP6139397B2 (ko)
KR (1) KR102044826B1 (ko)
CN (1) CN103914249B (ko)
AU (1) AU2013276998B2 (ko)
WO (1) WO2014107005A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160073194A (ko) * 2014-12-16 2016-06-24 인하대학교 산학협력단 이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체
KR20170118875A (ko) * 2015-06-10 2017-10-25 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 제스처 제어 방법, 장치 및 시스템
US11119601B2 (en) 2017-03-29 2021-09-14 Samsung Electronics Co., Ltd. Screen output method using external device and electronic device for supporting the same

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101924835B1 (ko) * 2011-10-10 2018-12-05 삼성전자주식회사 터치 디바이스의 기능 운용 방법 및 장치
US8539375B1 (en) * 2012-02-24 2013-09-17 Blackberry Limited Method and apparatus for providing a user interface on a device enabling selection of operations to be performed in relation to content
EP2631747B1 (en) 2012-02-24 2016-03-30 BlackBerry Limited Method and apparatus for providing a user interface on a device that indicates content operators
CN104317483A (zh) * 2014-10-22 2015-01-28 成都西可科技有限公司 一种移动终端屏幕上的光标位置控制及操作方法
JP6429692B2 (ja) * 2015-03-20 2018-11-28 シャープ株式会社 電子機器
CN104793862B (zh) * 2015-04-10 2018-04-24 深圳市美贝壳科技有限公司 无线投影照片的放缩控制方法
JP6721951B2 (ja) * 2015-07-03 2020-07-15 シャープ株式会社 画像表示装置、画像表示制御方法、および、画像表示システム
CN106020666A (zh) * 2016-05-17 2016-10-12 青岛海信移动通信技术股份有限公司 一种鼠标功能实现方法及装置
KR101961907B1 (ko) * 2017-06-26 2019-03-25 (주)모멘터스 사용자 터치 유지 시간에 기초한 이동단말기의 컨텐츠 제공 방법
CN110032326A (zh) * 2019-03-29 2019-07-19 网易(杭州)网络有限公司 移动终端显示画面的控制方法、装置、设备和存储介质
US11620006B2 (en) * 2020-07-07 2023-04-04 Hyundai Mobis Co., Ltd. Display control system using knob
CN112054950B (zh) * 2020-08-29 2022-05-13 腾讯科技(深圳)有限公司 资源传输方法、装置、终端及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110039929A (ko) * 2009-10-12 2011-04-20 라오넥스(주) 멀티터치 방식 입력제어 시스템
JP2012048325A (ja) * 2010-08-24 2012-03-08 Canon Inc 情報処理装置、その制御方法、プログラム及び記憶媒体
JP2012208645A (ja) * 2011-03-29 2012-10-25 Kyocera Corp 電子機器

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185258A (ja) * 2002-12-03 2004-07-02 Hitachi Ltd 情報処理装置
US7432916B2 (en) * 2004-12-09 2008-10-07 Universal Electronics, Inc. Controlling device with dual-mode, touch-sensitive display
JP4171509B2 (ja) * 2006-11-27 2008-10-22 富士通株式会社 入力処理方法及びそれを実施する入力処理装置
KR100720335B1 (ko) * 2006-12-20 2007-05-23 최경순 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법
JP2009104268A (ja) * 2007-10-22 2009-05-14 Hitachi Displays Ltd 座標検出装置、及びタッチパネルを用いた操作方法
WO2010148483A1 (en) * 2009-06-22 2010-12-29 University Of Manitoba Computer mouse with built-in touch screen
US9513798B2 (en) * 2009-10-01 2016-12-06 Microsoft Technology Licensing, Llc Indirect multi-touch interaction
US20110231796A1 (en) * 2010-02-16 2011-09-22 Jose Manuel Vigil Methods for navigating a touch screen device in conjunction with gestures
RU2012142254A (ru) * 2010-03-08 2014-04-20 Нокиа Корпорейшн Пользовательский интерфейс
US20110227947A1 (en) * 2010-03-16 2011-09-22 Microsoft Corporation Multi-Touch User Interface Interaction
US20110248948A1 (en) * 2010-04-08 2011-10-13 Research In Motion Limited Touch-sensitive device and method of control
CN102262465B (zh) * 2010-05-26 2016-10-05 鸿富锦精密工业(深圳)有限公司 具有触摸输入单元的电子装置及其触摸输入方法
JP5728008B2 (ja) 2010-06-16 2015-06-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 情報入力装置、情報入力方法及びプログラム
US8593418B2 (en) * 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
JP2012093940A (ja) * 2010-10-27 2012-05-17 Kddi Corp 遠隔操作システム、遠隔操作方法およびプログラム
JP2012108771A (ja) * 2010-11-18 2012-06-07 Panasonic Corp 画面操作システム
US8963847B2 (en) * 2010-12-06 2015-02-24 Netflix, Inc. User interface for a remote control device
KR20120064756A (ko) * 2010-12-10 2012-06-20 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 화면 표시 방법 및 장치
US8760424B2 (en) * 2011-03-17 2014-06-24 Intellitact Llc Touch enhanced interface
WO2012135373A2 (en) * 2011-04-01 2012-10-04 Analog Devices, Inc. A dedicated user interface controller for feedback responses

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110039929A (ko) * 2009-10-12 2011-04-20 라오넥스(주) 멀티터치 방식 입력제어 시스템
JP2012048325A (ja) * 2010-08-24 2012-03-08 Canon Inc 情報処理装置、その制御方法、プログラム及び記憶媒体
JP2012208645A (ja) * 2011-03-29 2012-10-25 Kyocera Corp 電子機器

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160073194A (ko) * 2014-12-16 2016-06-24 인하대학교 산학협력단 이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체
KR20170118875A (ko) * 2015-06-10 2017-10-25 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 제스처 제어 방법, 장치 및 시스템
US10956025B2 (en) 2015-06-10 2021-03-23 Tencent Technology (Shenzhen) Company Limited Gesture control method, gesture control device and gesture control system
US11119601B2 (en) 2017-03-29 2021-09-14 Samsung Electronics Co., Ltd. Screen output method using external device and electronic device for supporting the same
US11669190B2 (en) 2017-03-29 2023-06-06 Samsung Electronics Co., Ltd. Screen output method using external device and electronic device for supporting the same
US11747933B2 (en) 2017-03-29 2023-09-05 Samsung Electronics Co., Ltd. Screen output method using external device and electronic device for supporting the same

Also Published As

Publication number Publication date
JP2014132456A (ja) 2014-07-17
EP2752754B1 (en) 2022-07-20
US9880642B2 (en) 2018-01-30
EP2752754A2 (en) 2014-07-09
US20140184510A1 (en) 2014-07-03
AU2013276998A1 (en) 2014-07-17
EP2752754A3 (en) 2017-10-25
KR102044826B1 (ko) 2019-11-14
WO2014107005A1 (en) 2014-07-10
CN103914249A (zh) 2014-07-09
AU2013276998B2 (en) 2019-01-24
CN103914249B (zh) 2019-03-12
JP6139397B2 (ja) 2017-05-31

Similar Documents

Publication Publication Date Title
KR102044826B1 (ko) 마우스 기능 제공 방법 및 이를 구현하는 단말
JP6999513B2 (ja) イメージ表示方法及び携帯端末
KR102010955B1 (ko) 프리뷰 제어 방법 및 이를 구현하는 휴대 단말
KR102049784B1 (ko) 데이터 표시 방법 및 장치
KR102190904B1 (ko) 윈도우 제어 방법 및 이를 지원하는 전자장치
US20150012881A1 (en) Method for controlling chat window and electronic device implementing the same
US20170003812A1 (en) Method for providing a feedback in response to a user input and a terminal implementing the same
KR102022288B1 (ko) 터치 입력 방법 및 휴대 단말
KR102098258B1 (ko) 콘텐츠 편집 방법 및 이를 구현하는 전자기기
US20150128031A1 (en) Contents display method and electronic device implementing the same
US20140164186A1 (en) Method for providing application information and mobile terminal thereof
KR20140141089A (ko) 사용자 입력에 응답하여 어플리케이션을 실행하는 전자 장치
KR20140105354A (ko) 터치 감응 유저 인터페이스를 포함하는 전자장치
KR20140074496A (ko) 로그인 관리 방법 및 휴대 단말
KR20140032851A (ko) 터치 입력 처리 방법 및 휴대 단말
KR102076193B1 (ko) 이미지 표시 방법 및 휴대 단말
KR20140029827A (ko) 이미지 처리 방법 및 휴대 단말
KR20200015680A (ko) 이미지 표시 방법 및 휴대 단말

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right