KR101019163B1 - 마우스 - Google Patents

마우스 Download PDF

Info

Publication number
KR101019163B1
KR101019163B1 KR1020090015319A KR20090015319A KR101019163B1 KR 101019163 B1 KR101019163 B1 KR 101019163B1 KR 1020090015319 A KR1020090015319 A KR 1020090015319A KR 20090015319 A KR20090015319 A KR 20090015319A KR 101019163 B1 KR101019163 B1 KR 101019163B1
Authority
KR
South Korea
Prior art keywords
unit
touch
touch recognition
recognition unit
mouse
Prior art date
Application number
KR1020090015319A
Other languages
English (en)
Other versions
KR20100096441A (ko
Inventor
이경노
정일권
Original Assignee
삼성전기주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전기주식회사 filed Critical 삼성전기주식회사
Priority to KR1020090015319A priority Critical patent/KR101019163B1/ko
Priority to US12/568,388 priority patent/US20100214221A1/en
Publication of KR20100096441A publication Critical patent/KR20100096441A/ko
Application granted granted Critical
Publication of KR101019163B1 publication Critical patent/KR101019163B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

마우스가 개시된다. 영상표시부를 포함하는 컴퓨터에 정보를 입력하는 장치로서, 케이스의 일면에 결합되는 터치인식부, 터치인식부의 표면의 촉감이 변화되도록 터치인식부의 일면과 평행한 방향으로 터치인식부를 진동시키는 구동부 및 구동부의 동작 주파수를 제어하는 제어부를 포함하는 마우스는, 사용자가 접촉하는 부분에 촉감을 변화시켜 마우스를 사용하는 사용자에게 보다 향상된 조작감을 전달할 수 있다.
마우스, 촉감, 피드백, 압전소자

Description

마우스{Mouse}
본 발명은 마우스에 관한 것이다.
마우스는 컴퓨터의 영상표시부 상에 표시되는 포인터를 동작시키기 위해 사용되는 입력장치이다. 마우스는 케이스, 컴퓨터의 본체와 연결되는 케이블 및 케이스의 이동을 감지하는 위치인식부를 포함할 수 있다.
마우스를 컴퓨터와 연결시키면, 영상표시부에 포인터가 표시된다. 이 때, 사용자는 마우스의 케이스를 이동시키고, 위치인식부는 이를 감지하여 컴퓨터에 전달함으로써, 사용자는 포인터를 이동시킬 수 있게 된다.
그리고, 포인터가 영상표시부 상에 표시되는 아이콘 상에 위치한 경우, 사용자는 케이스의 상측에 형성되는 버튼을 누름으로써, 그 아이콘에 해당하는 기능을 실행시키거나, 선택한 아이콘을 드래그(drag)하여 이동시킬 수 있다.
위와 같이, 사용자는 마우스의 조작을 통해 컴퓨터에 일정한 명령을 실행시키는 등의 정보를 입력할 수 있으나, 마우스의 조작을 시각으로만 인식할 수 있어 마우스의 조작감이 떨어지는 문제가 있었다.
본 발명은 사용자가 조작하는데 있어서, 촉감의 형태를 가지는 피드백을 제공할 수 있는 마우스를 제공하는 것이다.
본 발명의 일 측면에 따르면, 영상표시부를 포함하는 컴퓨터에 정보를 입력하는 장치로서, 케이스의 일면에 결합되는 터치인식부, 터치인식부의 표면의 촉감이 변화되도록 터치인식부의 일면과 평행한 방향으로 터치인식부를 진동시키는 구동부 및 구동부의 동작 주파수를 제어하는 제어부를 포함하는 마우스가 제공된다.
여기서, 구동부의 동작 주파수는 1kHz이상일 수 있으며, 가청 주파수 이상일 수도 있다. 그리고, 구동부는 압전소자를 포함하여 이루어질 수 있으며, 터치인식부의 일측에 결합될 수 있다. 또한, 터치인식부는 터치패널을 포함하여 이루어질 수 있다.
한편, 제어부는, 터치인식부의 터치 위치에 따라 구동부가 터치인식부를 상이한 주파수로 진동시키도록, 구동부를 제어할 수 있으며, 제어부는 터치인식부의 일부를 가상의 촉감제시영역으로 구획하며, 터치인식부의 터치 위치가 촉감제시영역 내인지 여부에 따라 구동부가 상이한 주파수로 터치인식부를 진동시키도록, 구동부를 제어할 수도 있다.
그리고, 제어부는, 마우스의 이동에 의해 이동되며 영상표시부에 표시되는 포인터를 수용하는 가상의 화면인식영역으로 영상표시부의 일부를 구획할 수 있다.
이 때, 영상표시부에 아이콘이 표시되면, 제어부는 화면인식영역 내에 수용되는 아이콘의 위치에 따라 터치인식부의 일부를 촉감제시영역으로 구획할 수 있다.
또한, 영상표시부에는 스크롤바가 표시되면, 제어부는 화면인식영역 내에 수용되는 스크롤바가 연장되는 방향을 따라 불연속적으로 터치인식부의 일부를 촉감제시영역으로 구획할 수 있다.
한편, 포인터는 터치인식부의 터치에 따라 동작될 수 있다.
본 발명의 실시예에 따르면, 사용자가 접촉하는 부분에 촉감을 변화시켜 마우스를 사용하는 사용자에게 보다 향상된 조작감을 전달할 수 있다.
본 발명의 특징, 이점이 이하의 도면과 발명의 상세한 설명으로부터 명확해질 것이다.
이하, 본 발명에 따른 마우스의 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 일 실시예에 따른 마우스(1000)를 나타낸 사시도이고, 도 2는 본 발명의 일 실시예에 따른 마우스(1000)를 기능적 단위로 나타낸 개념도이다.
도 1, 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 마우스(1000)는, 영상표시부를 포함하는 컴퓨터에 정보를 입력하는 장치로서, 케이스(101)의 일면에 결합되는 터치인식부(200), 터치인식부(200)의 표면의 촉감이 변화되도록 터치인식부(200)의 일면과 평행한 방향으로 터치인식부(200)를 진동시키는 구동부(400) 및 구동부(400)의 동작 주파수를 제어하는 제어부(300)를 포함함으로써, 사용자가 접촉하는 부분에 촉감을 변화시켜 마우스(1000)를 사용하는 사용자에게 보다 향상된 조작감을 전달할 수 있다.
케이스(101)는 마우스(1000)의 몸체를 이루는 부분으로, 마우스(1000)를 이루는 구성들이 구비될 수 있는 공간을 제공한다. 케이스(101)의 전방 우측에는 제1 버튼(102)이 설치된다. 사용자는 제1 버튼(102)을 조작하여 컴퓨터의 영상표시부에 표시되는 아이콘 등을 선택할 수 있다.
케이스(101)의 전방 좌측에는 제2 버튼(104)이 설치된다. 사용자는 제2 버튼(104)을 조작하여 영상표시부에 표시되는 아이콘 등과 관련된 기능을 열람할 수 있다.
케이스(101)의 전방 중앙에는 터치인식부(200)가 설치된다. 터치인식부(200)는 사용자가 터치인식부(200)의 일면을 터치하는 경우, 터치 위치에 대한 정보를 후술할 제어부(300)에 전달할 수 있다.
또한, 사용자는 터치인식부(200)를 터치함으로써, 상술한 제1 버튼(102)과 같이, 영상표시부에 표시되는 아이콘 등을 선택하거나, 그 기능을 실행시킬 수 있다. 터치인식부(200)는 그 일면에 가해지는 압력에 반응하는 센서를 격자형태로 배치하여, 터치 위치의 좌표를 인식할 수 있다.
도 3, 4는 본 발명의 일 실시예에 따른 마우스(1000)에 적용 가능한 터치인식부(200)의 다른 예를 나타낸 평면도이다. 터치인식부(200)는 다양한 형태로 구현될 수 있으며, 예를 들어, 도 3에 도시된 바와 같이, 터치면(212)의 일측에 발광부(214, 216)를 구비하고, 그 타측에 수광부(215, 217)를 구비하는 광센서모듈(210)의 형태로 구현될 수 있다.
또한, 도 4에 도시된 바와 같이, 터치인식부(210)는 예를 들어, QTC(quantum tunneling composite) 또는 FSR(force sensitive resistance)과 같은 압력감지물질(211)을 격자 형태로 북수 개를 배치하여 구현될 수도 있다. 이 때, 후술할 구동부(400)는 터치면(212)의 일측 또는 압력감지물질(211)의 일측에 결합될 수 있다.
도 2에 도시된 바와 같이, 구동부(400)는 터치인식부(200)의 표면의 촉감이 변화되도록 터치인식부(200)의 일면과 평행한 방향으로 터치인식부(200)를 진동시킬 수 있다.
구동부(400)는 예를 들어 압전소자를 포함하여 이루어질 수 있으며, 바(bar) 형태로 형성되어 터치인식부(200)의 일측에 결합될 수 있다. 압전소자는 그 분극 방향에 따라 다양한 형태의 고주파 진동을 구현할 수 있으며, 도 2에서는 x방향으로 터치인식부(200)를 진동시킬 수 있다.
도 5, 6는 본 발명의 일 실시예에 따른 마우스(1000)의 동작원리를 나타낸 개념도이다. 도 5에 도시된 바와 같이, 사용자가 터치인식부(200)의 표면에 접촉하여 그 표면 상을 이동하는 경우, 터치인식부(200)가 사용자의 손가락이 이동하는 속도(Vm) 보다 느린 속도(Vv, 터치인식부(200)의 일면의 어느 한 지점의 임의의 시점의 속도)로 진동한다면, 사용자는 터치인식부(200)의 표면의 질감에 따른 촉감과 함께 손가락의 이동 방향과 반대 방향의 마찰력(F)을 느낄 수 있다.
그러나, 도 6에 도시된 바와 같이, 사용자의 손가락이 이동하는 속도(Vm') 보다 터치인식부(200)가 더 빠른 속도(Vv', 터치인식부(200)의 일면의 어느 한 지점의 임의의 시점의 속도)로 진동하는 경우, 사용자는 손가락이 이동하는 방향과 동일한 방향의 마찰력(F')을 느낄 수 있다. 다시 말해, 터치인식부(200)의 표면의 마찰력이 감소한 것과 같은 촉감을 느낄 수 있다.
한편, 사람의 피부에는 여러 수용기들이 존재하며, 각각의 수용기들은 주파수 범위에 따라 서로 다른 정보를 뇌로 전달할 수 있다. 그 가운데 진동을 수용하는 파시니 소체(Pacinian corpuscule)는 10 ~ 500 Hz범위에서 진동을 감지할 수 있다.
따라서, 구동부(400)는 500 Hz이상으로 터치인식부(200)를 진동시킴으로써, 사용자에게 진동이 아닌 터치인식부(200)의 표면의 마찰력의 감소로 인한 촉감이 변화된 것으로 인식될 수 있는 정보를 사용자에게 제공할 수 있다.
사용자에 따라 진동으로 인식할 수 있는 범위의 주파수는 조금씩 상이할 수 있고, 예를 들어 1kHz이상의 주파수로 터치인식부(200)가 진동하는 경우 대부분의 사용자가 터치인식부(200)의 표면의 촉감이 변화된 것으로 인식할 수 있다.
또한, 가청주파수인 20kHz이상에서 구동부(400)의 한계 진동수, 예를 들어 압전소자를 이용하는 경우 600kHz이하의 범위에서는 터치인식부(200)의 진동으로 인한 소음을 사용자가 인식할 수 없어, 사용자는 터치인식부(200)의 표면의 촉감이 변화된 정보만을 인식할 수 있다.
도 2에 도시된 바와 같이, 제어부(300)는 구동부(400)와 전기적으로 연결될 수 있으며, 구동부(400)의 동작 주파수를 조절할 수 있다. 제어부(300)는 구동부(400)뿐만 아니라 터치인식부(200) 및 위치인식부(100)와도 전기적으로 연결될 수 있다. 또한, 마우스(1000)가 컴퓨터에 설치되는 경우, 제어부(300)는 컴퓨터와 전기적으로 연결될 수 있음을 물론이다.
제어부(300)는 마우스(1000)의 동작을 제어하기 위해 마우스(1000)의 내부에 설치되는 회로물의 형태로 구현될 수 있으며, 마우스(1000)가 설치되는 컴퓨터 내부의 프로그램의 형태로 구현될 수도 있음을 물론이다.
제어부(300)는 터치인식부(200)로부터 사용자의 터치 위치에 대한 정보를 수신하고, 그 가압 위치에 따라 구동부(400)가 터치인식부(200)를 상이한 주파수로 진동시키도록 구동부(400)를 제어할 수 있다.
즉, 제어부(300)는 사용자의 조작에 의해 터치인식부(200)의 터치 위치가 변화하는 경우, 그에 따라 구동부(400)의 동작 주파수를 달리하여, 터치인식부(200)의 표면의 촉감이 특정 영역에서 그 이외의 영역과 상이한 조작감을 사용자에게 제공할 수 있다.
한편, 제어부(300)는 구동부(400)의 동작 주파수뿐만 아니라 구동부(400)에 인가되는 전압의 크기를 조절함으로써, 구동부(400)의 진폭을 제어할 수 있다. 구 동부(400)의 진폭은 동작 주파수와 함께 터치인식부(200)의 표면의 촉감을 변화시키는 요인 중에 하나로, 동일한 동작 주파수에서도 인가되는 전압의 크기에 따라 사용자에게 상이한 촉감의 변화를 제공할 수 있다.
위치인식부(100)는 마우스(1000)의 이동 량을 인식하여 영상표시부(20) 상에 표시되는 포인터(40)의 이동시킬 수 있는 부분이다. 위치인식부(100)는 예를 들어 볼과, 볼에 서로 직각으로 접하는 복수의 엔코더를 포함하여 구현될 수 있으며, 발광소자와 수광소자를 포함하는 광학모듈로 구현될 수도 있음은 물론이다.
도 7, 8은 본 발명의 일 실시예에 따른 마우스(1000)의 동작에 따라 모니터(10)의 동작을 나타낸 정면도이며, 도 9은 본 발명의 일 실시예에 따른 마우스(1000)의 터치인식부(200)를 나타낸 평면도이다.
도 7, 8에 도시된 바와 같이, 컴퓨터는 영상표시부(20)가 구비되는 모니터(10)를 포함할 수 있다. 마우스(1000)는 컴퓨터와 전기적으로 결합될 수 있으며, 사용자가 마우스(1000)를 이동시키면, 위치인식부(100)는 마우스(1000)의 이동 량을 인식하여 이를 제어부(300)로 전달하고, 제어부(300)는 이를 컴퓨터에 전달하여 영상표시부(20) 상에 표시되는 포인터(40)를 이동시킬 수 있다.
이 때, 제어부(300)는 영상표시부(20)의 일부를 화면인식영역(50)으로 구획할 수 있다. 화면인식영역(50)은 그 중앙에 포인터(40)를 수용하며, 마우스(1000)의 이동에 의해 포인터(40)와 함께 이동될 수 있다.
화면인식영역(50)은 영상표시부(20) 상에 표시되는 아이콘(30) 또는 스크롤바(32)와 같은 목적물(object)을 인식할 수 있으며, 영상표시부(20)에 표시되는 터 치인식부(200)에 상응하는 영역이다.
즉, 도 8에 도시된 바와 같이, 사용자가 마우스(1000)를 이동시켜, 화면인식영역(50) 내에 아이콘(30)이 수용되면, 제어부(300)는 화면인식영역(50) 내에 수용되는 아이콘(30)의 위치와 형태에 따라 터치인식부(200)의 일부를 촉감제시영역(31)으로 구획할 수 있다.
이 때, 제어부(300)는 사용자가 촉감제시영역(31) 내를 터치하는 경우, 터치인식부(200)를 진동시키도록 구동부(400)를 제어하여, 촉감제시영역(31) 외의 영역과 상이한 촉감을 사용자에게 전달할 수 있다.
따라서, 화면인식영역(50)은 사용자가 터치하여 조작하는 터치인식부(200)가 영상표시부(20) 상에 표시되는 영역이며, 촉감제시영역(31)은 아이콘(30)의 위치와 형상에 따라 터치인식부(200)에 형성되는 영역이다.
결국, 사용자는 영상표시부(20)를 통해 아이콘(30)을 시각으로 인식할 수 있으며, 터치감지부를 통해 이를 촉감으로 인식할 수 있게 된다.
한편, 사용자가 터치인식부(200)의 표면을 터치하면, 터치인식부(200)는 터치 위치에 대한 정보를 제어부(300)에 전달하고, 제어부(300)는 이를 컴퓨터에 전달함으로써, 화면인식영역(50) 내에서 포인터(40)를 이용하여, 포인터(40)가 위치하는 아이콘(30)을 선택할 수 있다.
그리고, 사용자는 터치인식부(200)를 두 번 터치하면, 상술한 바와 같이, 사용자의동작을 마우스(1000)가 컴퓨터에 전달하여, 포인터(40)가 위치하는 아이콘(30)을 실행시킬 수도 있다.
도 10은 본 발명의 일 실시예에 따른 마우스(1000)의 동작에 따라 모니터(10)의 동작을 나타낸 정면도이고, 도 11는 본 발명의 일 실시예에 따른 마우스(1000)의 터치인식부(200)를 나타낸 평면도이다.
도 10에 도시된 바와 같이, 화면인식영역(50) 내에 스크롤바(32)가 수용되면, 제어부(300)는 도 11에 도시된 바와 같이, 스크롤바(32)가 연장되는 방향으로, 불연속적으로 터치인식부(200)의 일부를 구획하여 촉감제시영역(31)을 형성한다.
즉, 촉감제시영역(31)은 터치인식부(200)의 가로 방향으로 연장되는 형태를 가지며, 서로 이격되어 세로 방향으로 복수 개가 형성될 수 있다.
사용자가 스크롤바(32)를 이동시키기 위해 터치인식부(200)의 표면을 세로 방향으로 쓸어 내리면, 제어부(300)는 터치 위치가 촉감제시영역(31) 내인 경우에만 구동부(400)가 터치인식부(200)를 진동시키도록 제어할 수 있다.
이 때, 사용자는 스크롤 동작에 대한 피드백을 영상표시부(20)에 의해 시각적으로뿐만 아니라 터치인식부(200)를 통해 촉감으로도 전달받을 수 있게 된다. 따라서, 사용자는 마우스(1000)의 조작으로 인한 피드백을 보다 확실하게 인식할 수 있게 된다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 마우스를 나타낸 사시도.
도 2는 본 발명의 일 실시예에 따른 마우스를 기능적 단위로 나타낸 개념도.
도 3, 4는 본 발명의 일 실시예에 따른 마우스에 적용 가능한 터치인식부의 다른 예를 나타낸 평면도.
도 5, 6는 본 발명의 일 실시예에 따른 마우스의 동작원리를 나타낸 개념도.
도 7, 8은 본 발명의 일 실시예에 따른 마우스의 동작에 따라 모니터의 동작을 나타낸 정면도.
도 9은 본 발명의 일 실시예에 따른 마우스의 터치인식부를 나타낸 평면도.
도 10은 본 발명의 일 실시예에 따른 마우스의 동작에 따라 모니터의 동작을 나타낸 정면도.
도 11는 본 발명의 일 실시예에 따른 마우스의 터치인식부를 나타낸 평면도.
<도면의 주요부분에 대한 부호의 설명>
101: 케이스 200: 터치인식부
300: 제어부 400: 구동부
1000: 마우스

Claims (12)

  1. 영상표시부를 포함하는 컴퓨터에 정보를 입력하는 장치로서,
    케이스의 일면에 결합되는 터치인식부;
    사용자와 상기 터치인식부의 표면 사이의 마찰력의 변화로 인해 상기 터치인식부의 표면의 촉감이 변화되도록, 상기 터치인식부의 일면과 평행한 방향으로 상기 터치인식부를 진동시키는 구동부; 및
    상기 터치인식부의 가압 위치에 따라 상기 터치인식부를 상이한 주파수로 진동시키도록 상기 구동부의 동작 주파수를 제어하는 제어부를 포함하는 마우스.
  2. 제1항에 있어서,
    상기 구동부의 동작 주파수는 1kHz이상인 것을 특징으로 하는 마우스.
  3. 제2항에 있어서,
    상기 구동부의 동작 주파수는 가청 주파수 이상인 것을 특징으로 하는 마우스.
  4. 제1항에 있어서,
    상기 구동부는 압전소자를 포함하여 이루어지는 것을 특징으로 하는 마우스.
  5. 제1항에 있어서,
    상기 구동부는 상기 터치인식부의 일측에 결합되는 것을 특징으로 하는 마우스.
  6. 제1항에 있어서,
    상기 터치인식부는 터치패널을 포함하여 이루어지는 것을 특징으로 하는 마우스.
  7. 제1항에 있어서,
    상기 제어부는
    상기 터치인식부의 터치 위치에 따라 상기 구동부가 상기 터치인식부를 상이한 주파수로 진동시키도록, 상기 구동부를 제어하는 것을 특징으로 하는 마우스.
  8. 제7항에 있어서,
    상기 제어부는
    상기 터치인식부의 일부를 가상의 촉감제시영역으로 구획하며,
    상기 터치인식부의 터치 위치가 상기 촉감제시영역 내인지 여부에 따라 상기 구동부가 상이한 주파수로 상기 터치인식부를 진동시키도록, 상기 구동부를 제어하는 것을 특징으로 하는 마우스.
  9. 제8항에 있어서,
    상기 제어부는
    상기 마우스의 이동에 의해 이동되며 상기 영상표시부에 표시되는 포인터를 수용하는 가상의 화면인식영역으로 상기 영상표시부의 일부를 구획하는 것을 특징으로 하는 마우스.
  10. 제9항에 있어서,
    상기 영상표시부에는 아이콘이 표시되며,
    상기 제어부는
    상기 화면인식영역 내에 수용되는 상기 아이콘의 위치에 따라 상기 터치인식부의 일부를 상기 촉감제시영역으로 구획하는 것을 특징으로 하는 마우스.
  11. 제9항에 있어서,
    상기 영상표시부에는 스크롤바가 표시되며,
    상기 제어부는
    상기 화면인식영역 내에 수용되는 상기 스크롤바가 연장되는 방향을 따라 불연속적으로 상기 터치인식부의 일부를 상기 촉감제시영역으로 구획하는 것을 특징으로 하는 마우스.
  12. 제9항에 있어서,
    상기 포인터는 상기 터치인식부의 터치에 따라 동작되는 것을 특징으로 하는 마우스.
KR1020090015319A 2009-02-24 2009-02-24 마우스 KR101019163B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090015319A KR101019163B1 (ko) 2009-02-24 2009-02-24 마우스
US12/568,388 US20100214221A1 (en) 2009-02-24 2009-09-28 Mouse

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090015319A KR101019163B1 (ko) 2009-02-24 2009-02-24 마우스

Publications (2)

Publication Number Publication Date
KR20100096441A KR20100096441A (ko) 2010-09-02
KR101019163B1 true KR101019163B1 (ko) 2011-03-04

Family

ID=42630529

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090015319A KR101019163B1 (ko) 2009-02-24 2009-02-24 마우스

Country Status (2)

Country Link
US (1) US20100214221A1 (ko)
KR (1) KR101019163B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101157769B1 (ko) * 2010-12-31 2012-06-25 대성전기공업 주식회사 마우스 햅틱 장치
KR101961786B1 (ko) * 2012-07-12 2019-03-25 삼성전자 주식회사 터치스크린을 포함하는 단말을 이용한 마우스 기능의 제공 방법 및 장치
US10318070B2 (en) * 2017-02-15 2019-06-11 Honeywell International Inc. Touch detector with a code debugger

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030082968A (ko) * 2001-03-09 2003-10-23 임머숀 코퍼레이션 랩톱 컴퓨터 및 기타 휴대 장치용 햅틱 인터페이스
KR20070072754A (ko) * 2006-01-02 2007-07-05 삼성전자주식회사 사용자 인터페이스 시스템 및 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6211861B1 (en) * 1998-06-23 2001-04-03 Immersion Corporation Tactile mouse device
JP4144947B2 (ja) * 1998-04-01 2008-09-03 富士通コンポーネント株式会社 マウス
US5977867A (en) * 1998-05-29 1999-11-02 Nortel Networks Corporation Touch pad panel with tactile feedback
US6313825B1 (en) * 1998-12-28 2001-11-06 Gateway, Inc. Virtual input device
JP2003140823A (ja) * 2001-11-08 2003-05-16 Sony Computer Entertainment Inc 情報入力デバイス及び情報処理プログラム
JP4056528B2 (ja) * 2005-02-03 2008-03-05 Necインフロンティア株式会社 電子機器
JP4498967B2 (ja) * 2005-04-01 2010-07-07 株式会社日本自動車部品総合研究所 スイッチング装置
JP5208362B2 (ja) * 2005-10-28 2013-06-12 ソニー株式会社 電子機器
US7626579B2 (en) * 2006-11-01 2009-12-01 Immersion Corporation Sanitizing a touch panel surface

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030082968A (ko) * 2001-03-09 2003-10-23 임머숀 코퍼레이션 랩톱 컴퓨터 및 기타 휴대 장치용 햅틱 인터페이스
KR20070072754A (ko) * 2006-01-02 2007-07-05 삼성전자주식회사 사용자 인터페이스 시스템 및 방법

Also Published As

Publication number Publication date
KR20100096441A (ko) 2010-09-02
US20100214221A1 (en) 2010-08-26

Similar Documents

Publication Publication Date Title
CN107209569B (zh) 用于触觉反馈组件的间隙传感器
JP5352619B2 (ja) 操作入力装置
EP1927916A1 (en) Apparatus, method, and medium for outputting tactile feedback on display device
US9939901B2 (en) Haptic feedback assembly
CN104679233B (zh) 用于生成摩擦和振动触感效果的系统和方法
JP2020181591A (ja) 人間コンピュータインタフェースシステム
KR102214929B1 (ko) 촉각 제공 장치 및 방법
US20160349847A1 (en) Electronic device, input apparatus, and drive controlling method
US20160349846A1 (en) Electronic device, input apparatus, and drive controlling method
WO2013169303A1 (en) Adaptive haptic feedback for electronic devices
JP2010086471A (ja) 操作感提供装置、および操作感フィードバック方法、並びにプログラム
JP6143179B2 (ja) 操作入力装置
KR101524906B1 (ko) 촉각 생성장치, 고분자 유전체 기반 구동기, 이를 이용한 촉각 액추에이터, 촉감 액추에이터, 인터페이스 장치, 촉각 피드백 제공장치
JP5539788B2 (ja) 触感呈示装置
KR101081586B1 (ko) 촉감제시 인터페이스 장치
KR20100107997A (ko) 펜형태의 촉감 제시 장치와 그를 이용한 촉감 인터페이스 시스템
JP6891971B2 (ja) 駆動制御装置、電子機器、及び、駆動制御方法
KR101019163B1 (ko) 마우스
US10576369B2 (en) Game controller
JP7317494B2 (ja) 電子機器及び電子機器の制御方法
KR101054939B1 (ko) 촉감제시 인터페이스 장치
KR20100107996A (ko) 터치면을 구비한 펜형 촉감 제시 장치와 그를 이용한 촉감 인터페이스 시스템
KR101033954B1 (ko) 촉감제시 인터페이스 장치 제어방법
KR102155689B1 (ko) 곡면 상에 배치된 복수의 촉각 생성 진동자를 갖는 햅틱 모듈 및 이를 이용한 촉각 환상 생성 시스템
KR20110030517A (ko) 터치 감지 인터페이스 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131224

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150202

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160111

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee