KR20120004569A - 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체 - Google Patents

모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체 Download PDF

Info

Publication number
KR20120004569A
KR20120004569A KR1020100065123A KR20100065123A KR20120004569A KR 20120004569 A KR20120004569 A KR 20120004569A KR 1020100065123 A KR1020100065123 A KR 1020100065123A KR 20100065123 A KR20100065123 A KR 20100065123A KR 20120004569 A KR20120004569 A KR 20120004569A
Authority
KR
South Korea
Prior art keywords
mobile device
sound
sensor
detected
touch
Prior art date
Application number
KR1020100065123A
Other languages
English (en)
Other versions
KR101210538B1 (ko
Inventor
여운승
박시화
김근형
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020100065123A priority Critical patent/KR101210538B1/ko
Publication of KR20120004569A publication Critical patent/KR20120004569A/ko
Application granted granted Critical
Publication of KR101210538B1 publication Critical patent/KR101210538B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체가 제공된다.
본 발명에 따른 모바일 기기 인터페이스 장치는 모바일 기기 인터페이스 장치로서, 상기 장치는 모바일 기기 움직임 방향을 검출하는 제 1 센서; 소리를 검출하는 제 2 센서; 및 상기 제 1 센서에 의하여 검출된 모바일 기기 움직임 방향에 대응되는 모바일 기기 제어 신호를 생성시키는 제어부를 포함하며, 여기에서 상기 제어부는 상기 제 2 센서에 의하여 검출된 소리의 소리 정보가 사용자 터치에 의한 소리의 소리 정보에 대응되는 경우에만 상기 제어 신호를 생성시킨다.
본 발명에 따른 모바일 기기 인터페이스 장치는 터치 패널에 대한 사용자 조작 없이도 모바일 기기의 임의 면에서의 사용자 터치로부터 발생하는 움직임의 방향성에 기반하여 모바일 기기를 조작할 수 있게 한다. 따라서, 사용자는 모바일 기기의 전면, 후면 등의 일 면을 사용자가 간단히 두드림으로써 모바일 기기를 효과적으로 조작, 제어할 수 있다

Description

모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체{Apparatus and method of interface for mobile device, and recording medium for the same}
본 발명은 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체에 관한 것으로, 보다 상세하게는 모바일 기기의 일 면을 사용자가 간단히 두드림으로써 모바일 기기를 효과적으로 조작, 제어할 수 있는 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체에 관한 것이다.
최근에 사용자의 입력을 용이하게 하기 위해 터치 인터페이스를 구비하는 사용자 단말 등의 모바일 기기가 증가하는 추세이다. 특히 터치 인터페이스가 장착된 대부분의 휴대용 미디어 단말기나 사용자 단말 등의 모바일 기기는 디스플레이 화면 상에서 사용자의 터치를 감지하여 동작되도록 설계가 되어 있다. 이러한 모바일 기기의 조작을 위해서 사용자는 터치패널에 대한 터치 제스쳐를 수행하여야 하는데, 문제는 다양한 기능이 동시에 수행되는 모바일 기기의 특성상, 이미 특정 기능을 수행하는 모바일 기기를 다시 조작하고자 하는 경우 다시 터치 인터페이스에 대한 활성화와 후속하는 직접 조작이 필요하다. 예를 들어 터치 스크린이 꺼져 있는 경우에는 이를 다시 활성화한 후, 터치 제스처 등의 스크린 조작을 수행하여야 한다. 이와 함께, 정전식 터치 스크린의 경우 직접 피부와 접촉하여야 하므로, 장갑을 착용한 상태에서는 스크린을 통한 기기 조작이 불가능하다.
또한, 대한민국 공개특허 10-2010-0027660는 멀티미디어 기기의 상, 하, 좌, 우 방향의 측면에 각각 별도의 측면 터치 인터페이스를 구비하고, 각각의 측면 터치 인터페이스의 터치 입력을 통해 전면 터치 인터페이스의 디스플레이 화면을 제어하는 방식을 개시한다. 하지만, 상기 종래 기술은 우선 측면에 별도의 터치 인터페이스를 구비하여야 하는 기술적 문제가 있다. 또한, 외부와의 접촉, 충격이 잦은 기기의 측면에 이러한 터치 인터페이스를 구비시키는 경우, 기기의 신뢰성에 문제가 될 수도 있다.
따라서 본 발명이 해결하려는 과제는 터치 조작 이외의 또 다른 방식에 기반한 새로운 모바일 기기 인터페이스 장치를 제공하는 것이다.
본 발명이 해결하려는 또 다른 과제는 터치 조작 이외의 또 다른 방식에 기반한 새로운 모바일 기기 인터페이스 방법을 제공하는 것이다.
상기 과제를 해결하기 위하여, 본 발명은 모바일 기기 인터페이스 장치로서, 상기 장치는 모바일 기기 움직임 방향을 검출하는 제 1 센서; 소리를 검출하는 제 2 센서; 및 상기 제 1 센서에 의하여 검출된 모바일 기기 움직임 방향에 대응되는 모바일 기기 제어 신호를 생성시키는 제어부를 포함하며, 여기에서 상기 제어부는 상기 제 2 센서에 의하여 검출된 소리의 소리 정보가 사용자 터치에 의한 소리의 소리 정보에 대응되는 경우에만 상기 제어 신호를 생성시키는 것을 특징으로 하는 모바일 기기 인터페이스 장치를 제공한다.
본 발명의 일 실시예에서 상기 사용자 터치는 상기 모바일 기기의 임의 면에 대한 사용자의 두드림 제스쳐이다.
본 발명의 또 다른 일 실시예에서 상기 모바일 기기 인터페이스 장치는 상기 모바일 기기의 움직임 방향에 대응하는 제어 신호가 저장된 메모리부를 더 포함한다.
상기 소리정보는 검출된 소리의 시간에 따른 음량 변화 또는 주파수 정보 또는 둘 다를 동시에 포함할 수 있으며, 상기 제 1 센서는 가속도 센서일 수 있다.
본 발명의 일 실시예에서 상기 제 1 센서는 상기 모바일 기기의 임의 면에 대한 사용자 두드림으로부터 발생하는 모바일 기기 움직임 방향을 구분하여, 검출할 수 있으며, 상기 제 2 센서는 마이크로폰이다.
본 발명은 상술한 모바일 기기 인터페이스 장치를 구동시키기 위한 프로그램 명령어가 기록된 기록매체를 제공하며, 상술한 모바일 기기 인터페이스 장치를 포함하는 모바일 기기를 제공한다.
상기 또 다른 과제를 해결하기 위하여, 본 발명은 모바일 기기의 인터페이스 방법으로, 상기 방법은 상기 모바일 기기의 움직임 방향을 제 1 검출하는 단계; 상기 모바일 기기로부터 발생하는 소리를 제 2 검출하는 단계; 상기 제 2 검출된 소리가 모바일 기기에 대한 사용자 터치로부터 발생하였는지를 판단하는 단계; 상기 제 2 검출된 소리가 상기 모바일 기기에 대한 사용자 터치로부터 발생한 경우, 상기 제 1 검출된 모바일 기기 움직임 방향에 대응되는 모바일 기기 제어 신호를 결정하는 단계; 및 상기 결정된 제어 신호에 따라 상기 모바일 기기를 제어하는 단계를 포함하는 방법을 제공한다.
본 발명의 일 실시예에서 상기 제 1 검출은 상기 모바일 기기에 구비된 가속도 센서에 의하여 수행되며, 상기 제 1 검출은 모바일 기기의 임의 면에 대한 사용자 터치로부터 발생하는 모바일 기기 움직임을 모두 검출할 수 있다.
본 발명의 또 다른 일 실시예에서 상기 제 2 검출된 소리가 모바일 기기에 대한 사용자 터치로부터 발생한 것으로 판단되지 않는 경우, 상기 제어 신호에 따라 모바일 기기를 제어하는 단계가 수행되지 않으며, 상기 사용자 터치는 상기 모바일 기기의 임의 면 중 어느 일 면에 대한 두드림 제스쳐이다.
본 발명의 일 실시예에서 상기 제 2 검출된 소리가 모바일 기기에 대한 사용자 터치로부터 발생하였는지를 결정하는 단계는 제 2 검출된 소리의 시간에 따른 음량 변화 또는 주파수 정보 또는 이 둘 다를 기준한다.
본 발명은 또한 상술한 모바일 기기 인터페이스 방법을 구현하기 위한 프로그램 명령어가 기록된 기록매체를 제공한다.
본 발명에 따른 모바일 기기 인터페이스 장치는 터치 패널에 대한 사용자 조작 없이 모바일 기기의 임의 면에서의 사용자 터치로부터 발생하는 움직임의 방향성에 기반하여 모바일 기기를 조작할 수 있게 한다. 본 발명에 따르면 모바일 기기의 전면, 후면 등의 일 면을 사용자가 간단히 두드림으로써 모바일 기기를 효과적으로 조작, 제어할 수 있다. 더 나아가 스크린을 볼 수 없는 경우, 예를 들면 주머니 속에 모바일 기기가 있거나, 스크린 잠금이 걸려있는 경우에도 간단한 두드림 동작만으로도 기기의 기능 조작 가능하다. 또한, 정전식 터치 스크린을 장착한 기기에서도 장갑을 착용한 상태로 사용할 수 있다는 점에서 그 장점이 있다.
도 1은 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치를 이용한 모바일 기기 활용예를 나타내는 도면이다.
도 3 및 4는 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치의 활용예를 나타내는 도면이다.
도 5 및 6은 본 발명의 또 다른 일 실시예에 따른 모바일 기기 인터페이스 장치의 활용예를 나타내는 도면이다.
도 7 및 8은 터치 스크린에 표시된 컨텐츠를 터치스크린 전면 터치에 의하여 확대(zoom-in)시키는 활용예를 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 모바일 기기의 인터페이스 방법의 단계도이다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로서, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “...부”, “...기”, “모듈”, “블록” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
본 발명은 모바일 기기의 임의 면을 사용자가 터치할 때 발생하는 모바일 기기의 움직임 방향에 의하여 모바일 기기를 조작, 제어하는 모바일 기기 인터페이스 장치를 제공한다. 즉, 본 발명응ㄴ 종래 기술과 달리 측면 테두리에 별도의 터치 패널 등을 구비하지 않고, 가속도 센서에 의하여 기기 움직임 방향을 검출하고, 이를 통하여 모바일 기기를 조작한다. 따라서, 별도로 터치 패널을 활성화시키거나, 또 다른 터치 메뉴로 이동할 필요 없이, 모바일 기기의 임의 면에 대한 터치만으로도 모바일 기기를 효과적으로 제어할 수 있다.
도 1은 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치의 블록도이다.
도 1을 참조하면, 본 발명에 따른 모바일 기기 인터페이스 장치는 모바일 기기에 구비되며, 상기 모바일 기기의 임의 면에 대한 사용자 터치로부터 발생하는 상기 모바일 기기의 움직임 방향을 검출하는 제 1 센서(110); 상기 모바일 기기에 구비되어, 소리를 검출하는 제 2 센서(120)을 포함한다. 본 발명의 일 실시예에 따른 인터페이스 장치는 제 1 센서(110)에 의하여 검출된 모바일 기기의 움직임 방향에 따라 기 설정된 모바일 기기의 제어신호를 생성시키는 제어부(130)를 더 포함하는데, 본 발명에서 상기 제어부(130)는 상기 제 2 센서(120)에 의하여 검출된 소리의 소리 정보가 사용자 터치에 의한 소리의 소리 정보에 대응되는 경우에만 상기 제어 신호를 생성시킨다.
본 발명에서 상기 제 1 센서로 가속도 센서 등과 같이 사용자 터치로부터 발생하는 모바일 기기의 미세 움직임 및 그 방향을 검출할 수 있는 임의의 센서가 사용될 수 있다. 특히 사용자 터치로부터 발생 가능한 모바일 기기 움직임은 사각 테두리뿐만 아니라, 전면, 후면 등의 모바일 기기 평행면일 수 있다. 즉, 모바일 기기의 임의 면에 대한 사용자의 두드림 제스쳐와 같은 터치 제스쳐에 의하여 모바일 기기 움직임이 발생하며, 본 발명은 이러한 움직임 방향이 구별 가능하다는 점에 착안한 것이다. 예를 들면, 터치 스크린을 구비한 모바일 기기의 경우에도, 별도로 터치 스크린을 활성화시키지 않은 상태에서도, 터치스크린 전면을 간단히 두드림으로써 소정 명령을 수행할 수 있다.
본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치는 상기 모바일 기기의 움직임 방향 각각에 대응하는 명령 신호가 저장된 메모리부(미도시)를 더 포함할 수 있다.
도 2는 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치를 이용한 모바일 기기 활용예를 나타내는 도면이다.
도 2를 참조하면, 상기 모바일 기기(210)의 상, 하, 좌, 우, 전면 및 후면에 대한 사용자 터치에 따라 6 방향(1 내지 6)으로 모바일 기기 움직임이 발생한다. 이 경우, 6 방향으로의 움직임에 대하여 각각 동일하거나, 상이한 명령 신호가 상기 메모리부(미도시)에 저장된 후, 매칭되는 움직임 방향에 따라 원하는 제어 신호가 생성될 수 있다. 하지만, 상술한 바와 같이 움직임에 따른 제어 신호는 제 2 센서에 의하여 검출된 소리가 사용자 터치에 의한 소리인 경우에만 생성되는데, 이는 하기 도면을 이용하여 보다 상세히 설명된다.
도 3 및 4는 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치의 활용예를 나타내는 도면이다.
도 3을 참조하면, 사용자는 모바일 기기(310)의 좌측 테두리를 두드린다. 이 경우 좌측 테두리 터치를 통하여 모바일 기기가 움직일 뿐만 아니라, 테두리 터치에 따라 발생하는 특정한 소리, 즉, 특정 음색 또는 음량 또는 특정 음량 및 음색을 가지는 소리가 검출된다. 따라서, 가속도 센서 등에 의한 모바일 기기의 순간적인 우측으로의 움직임과 사용자 터치에 따라 발생하는 소리의 소리 정보를 통하여, 상기 모바일 기기에 포함된 인터페이스 장치의 제어부는 모바일 기기의 상기 터치 패턴에 대응되는 명령 신호를 생성시킨다. 도 4에서는 웹 브라우징에서 다음 창으로의 이동 명령이 수행되는 예를 나타낸다.
하지만, 도 4는 사용자는 테두리를 터치하지 않고, 모바일 기기를 오른쪽으로 빨리 움직이는 경우를 나타낸다. 이 경우, 테두리 두드림과 비슷한 형태의 움직임 방향 및 패턴이 검출되나, 테두리 터치에 따른 소리는 검출되지 않는다. 이 경우, 모바일 기기에 포함된 인터페이스 장치의 제어부는 테두리 터치 패턴에 대응되는 명령 신호를 생성시키지 않게 되며, 현재 웹 브라우징 화면이 계속 유지된다.
도 5 및 6은 본 발명의 또 다른 일 실시예에 따른 모바일 기기 인터페이스 장치의 활용예를 나타내는 도면이다.
도 5는 터치 스크린을 구비한 모바일 기기(600)에서 터치 스크린이 아이들(idle)상태인 경우를 나타낸다. 즉, 장시간 모바일 기기를 사용하지 않거나, 모바일 기기를 잠근 경우, 터치 스크린은 화면이 표시되지 않는 아이들 상태가 되며, 종래 기술에 따르면 아이들 상태의 터치 스크린 전면은 입력 수단으로서는 무의미하였으며, 모바일 기기의 제어를 위하여 사용자는 터치 스크린을 다시 활성화시켜야만 했다. 하지만, 본 발명의 경우 터치 스크린이 활성화되었는지 여부와 상관없이 사용자의 터치, 예를 들면 두드리는 제스쳐에 의하여 모바일 기기의 제어가 가능하다.
도 6은 상기 아이들 상태인 터치 스크린 전면(610)을 사용자가 두드린 경우를 나타내는 도면이다.
도 6을 참조하면, 터치 스크린 전면의 두드림에 따라 발생하는 모바일 기기의 움직임과 소리 정보에 의하여 재생 중인 현재 컨텐츠가 다음 차례의 다음 컨텐츠로 변환된다.
도 7 및 8은 터치 스크린에 표시된 컨텐츠를 터치스크린 전면 터치에 의하여 확대(zoom-in)시키는 경우를 나타낸다. 이때 상기 컨텐츠 확대 중심은 검출된 터치 지점이 되며, 확대 수준 또한 검출된 움직임 방향 및/또는 소리 크기에 대응하여 결정될 수 있다.
더 나아가, 본 발명은 상기 또 다른 과제를 해결하기 위하여, 상술한 모바일 기기 인터페이스 장치를 포함하는 모바일 기기를 제공한다. 여기에서, 모바일 기기라 함은 통상적인 사용자 단말 이외에, MP3, PMP, 노트북 등과 같이 사용자가 휴대가능하며, 가속도 센서 및 마이크로폰에 의하여 사용자 터치에 의한 움직임 및 소리를 검출할 수 있는 임의의 모든 전자기기를 지칭한다.
본 발명은 상기 또 다른 과제를 해결하기 위하여, 복수 면을 갖는 모바일 기기의 인터페이스 방법을 제공한다.
도 9는 본 발명의 일 실시예에 따른 모바일 기기의 인터페이스 방법의 단계도이다.
도 9를 참조하면, 상기 실시예에 따른 인터페이스 방법은 상기 모바일 기기의 움직임 방향을 제 1 검출하는 단계(S110); 상기 모바일 기기로부터 발생하는 소리를 제 2 검출하는 단계(S120); 상기 제 2 검출된 소리가 모바일 기기에 대한 사용자 터치로부터 발생한 것인지를 판단하는 단계(S130); 상기 제 2 검출된 소리가 모바일 기기의 사용자 터치로부터 발생한 것으로 판단된 경우, 상기 제 1 검출된 모바일 기기 움직임 방향에 대응되는 모바일 기기 제어 신호를 결정하는 단계(S140); 및 상기 결정된 제어 신호에 따라 상기 모바일 기기를 제어하는 단계(S150)를 포함한다.
본 발명의 일 실시예에서 상기 제 1 검출은 상기 모바일 기기에 구비된 가속도 센서에 의하여 수행될 수 있으며, 상기 제 1 검출은 모바일 기기의 임의 면에 대한 사용자 터치로부터 발생하는 모바일 기기 움직임을 모두 구분하여, 검출할 수 있다.
본 발명은 상기 제 1 검출에 의하여 모바일 기기의 테두리뿐만 아니라, 전면, 후면에서의 사용자 터치에 의한 모바일 기기의 움직임 방향이 구분하여, 검출된다. 더 나아가, 상기 제 2 검출된 소리가 모바일 기기에 대한 사용자 터치로부터 발생한 것으로 판단되지 않는 경우, 상기 제어 신호에 따라 모바일 기기를 제어하는 단계 등이 수행되지 않는다. 상기 소리 정보 및 움직임 방향에 따라 모바일 기기를 제어하는 실시예는 이미 상술한 바와 같으며, 중복을 피하기 위하여 이하 생략한다.
상기 제 1 검출과 제 2 검출은 임의 순서로 순차적으로 검출되거나, 또는 실질적으로 동시에 검출될 수 있으며, 이는 모두 본 발명의 범위에 속한다.
본 발명의 일 실시예에서 상기 사용자 터치는 상기 모바일 기기의 임의 면 중 어느 일 면에 대한 두드림 제스쳐이며, 상기 제 2 검출된 소리가 모바일 기기에 대한 사용자 터치로부터 발생하였는지를 결정하는 단계(S130)는 제 2 검출된 소리의 시간에 따른 음량 변화 또는 주파수 정보 또는 이 둘 다를 기준으로 결정될 수 있다. 즉, 본 발명은 검출된 소리의 소리 정보를 추출하고, 이로써 기설정된 사용자 터치에 따른 소리의 소리 정보와 비교하는데, 상기 소리 정보는 검출된 소리의 시간에 따른 음량 변화 또는 주파수 정보 또는 이 둘 다를 포함할 수 있다. 예를 들면, 소정 크기 이상의 음량 변화를 소리 정보로 채용하는 경우, 사용자가 테두리를 두드리는 경우 소정 수준 이상의 음량 증가-감소가 검출된다. 이때 연속하는 음량 증가-감소는 외부 소음과 달리 매우 짧은 시간에서 음량 변화가 발생하므로, 시간-음량의 상관관계로부터 테두리 터치여부를 매칭시킬 수 있다.
이와 다른 구성으로, 사용자가 테두리를 터치하는 경우 발생하는 고유의 주파수 정보와 실제 검출된 소리의 주파수 정보를 비교하는 방식으로도 테두리 터치에 따른 소리 정보를 검출할 수 있다. 하지만 상술한 방식들은 모두 본 발명의 예시로서, 테두리 터치로부터 발생하는 소리와 다른 요인에 의하여 발생하는 소리를 비교, 구분할 수 있는 한, 임의의 모든 방식이 본 발명의 범위에서 사용될 수 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명이 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이와 균등하거나 또는 등가적인 변형 모두는 본 발명 사상의 범주에 속한다 할 것이다.
또한, 본 발명에 따른 장치는 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치, 하드 디스크, 플래시 드라이브 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.

Claims (16)

  1. 모바일 기기 인터페이스 장치로서, 상기 장치는
    모바일 기기 움직임 방향을 검출하는 제 1 센서;
    소리를 검출하는 제 2 센서; 및
    상기 제 1 센서에 의하여 검출된 모바일 기기 움직임 방향에 대응되는 모바일 기기 제어 신호를 생성시키는 제어부를 포함하며, 여기에서 상기 제어부는 상기 제 2 센서에 의하여 검출된 소리의 소리 정보가 사용자 터치에 의한 소리의 소리 정보에 대응되는 경우에만 상기 제어 신호를 생성시키는 것을 특징으로 하는 모바일 기기 인터페이스 장치.
  2. 제 1항에 있어서,
    상기 사용자 터치는 상기 모바일 기기의 임의 면에 대한 사용자의 두드림 제스쳐인 것을 특징으로 하는 모바일 기기 인터페이스 장치.
  3. 제 1항에 있어서,
    상기 모바일 기기 인터페이스 장치는 상기 모바일 기기의 움직임 방향에 대응하는 제어 신호가 저장된 메모리부를 더 포함하는 것을 특징으로 하는 모바일 기기 인터페이스 장치.
  4. 제 1항에 있어서,
    상기 소리정보는 검출된 소리의 시간에 따른 음량 변화 또는 주파수 정보 또는 둘 다를 동시에 포함하는 것을 특징으로 하는 모바일 기기 인터페이스 장치.
  5. 제 1항에 있어서,
    상기 제 1 센서는 가속도 센서인 것을 특징으로 하는 모바일 기기 인터페이스 장치.
  6. 제 2항에 있어서,
    상기 제 1 센서는 상기 모바일 기기의 임의 면에 대한 사용자 두드림으로부터 발생하는 모바일 기기 움직임 방향을 구분하여, 검출할 수 있는 것을 특징으로 하는 모바일 기기 인터페이스 장치.
  7. 제 1항에 있어서,
    상기 제 2 센서는 마이크로폰인 것을 특징으로 하는 모바일 기기 인터페이스 장치.
  8. 제 1항 내지 제 7항 중 어느 한 항에 따른 모바일 기기 인터페이스 장치를 구동시키기 위한 프로그램 명령어가 기록된 기록매체.
  9. 제 1항 내지 제 7항 중 어느 한 항에 따른 모바일 기기 인터페이스 장치를 포함하는 모바일 기기.
  10. 모바일 기기의 인터페이스 방법으로, 상기 방법은
    상기 모바일 기기의 움직임 방향을 제 1 검출하는 단계;
    상기 모바일 기기로부터 발생하는 소리를 제 2 검출하는 단계
    상기 제 2 검출된 소리가 모바일 기기에 대한 사용자 터치로부터 발생하였는지를 판단하는 단계;
    상기 제 2 검출된 소리가 상기 모바일 기기에 대한 사용자 터치로부터 발생한 경우, 상기 제 1 검출된 모바일 기기 움직임 방향에 대응되는 모바일 기기 제어 신호를 결정하는 단계; 및
    상기 결정된 제어 신호에 따라 상기 모바일 기기를 제어하는 단계를 포함하는 것을 특징으로 하는 모바일 기기 인터페이스 방법.
  11. 제 10항에 있어서,
    상기 제 1 검출은 상기 모바일 기기에 구비된 가속도 센서에 의하여 수행되는 것을 특징으로 하는 모바일 기기 인터페이스 방법.
  12. 제 10항에 있어서,
    상기 제 1 검출은 모바일 기기의 임의 면에 대한 사용자 터치로부터 발생하는 모바일 기기 움직임을 모두 검출할 수 있는 것을 특징으로 하는 모바일 기기 인터페이스 방법.
  13. 제 10항에 있어서,
    상기 제 2 검출된 소리가 모바일 기기에 대한 사용자 터치로부터 발생한 것으로 판단되지 않는 경우, 상기 제어 신호에 따라 모바일 기기를 제어하는 단계가 수행되지 않는 것을 특징으로 하는 모바일 기기 인터페이스 방법.
  14. 제 10항에 있어서,
    상기 사용자 터치는 상기 모바일 기기의 임의 면 중 어느 일 면에 대한 두드림 제스쳐인 것을 특징으로 하는 모바일 기기 인터페이스 방법.
  15. 제 10항에 있어서,
    상기 제 2 검출된 소리가 모바일 기기에 대한 사용자 터치로부터 발생하였는지를 결정하는 단계는 제 2 검출된 소리의 시간에 따른 음량 변화 또는 주파수 정보 또는 이 둘 다를 기준하는 것을 특징으로 하는 모바일 기기 인터페이스 방법.
  16. 제 10항 내지 제 15항 중 어느 한 항에 따른 모바일 기기 인터페이스 방법을 구현하기 위한 프로그램 명령어가 기록된 기록매체.
KR1020100065123A 2010-07-07 2010-07-07 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체 KR101210538B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100065123A KR101210538B1 (ko) 2010-07-07 2010-07-07 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100065123A KR101210538B1 (ko) 2010-07-07 2010-07-07 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체

Publications (2)

Publication Number Publication Date
KR20120004569A true KR20120004569A (ko) 2012-01-13
KR101210538B1 KR101210538B1 (ko) 2012-12-10

Family

ID=45611006

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100065123A KR101210538B1 (ko) 2010-07-07 2010-07-07 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체

Country Status (1)

Country Link
KR (1) KR101210538B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101421638B1 (ko) * 2012-04-26 2014-07-22 에이서 인코포레이티드 터치 검출 방법 및 이를 이용하는 터치 제어 장치
KR101463450B1 (ko) * 2013-04-10 2014-11-21 주식회사 팬택 사용자 인터페이스 인식 장치 및 방법
CN104571884A (zh) * 2013-10-23 2015-04-29 现代自动车株式会社 用于识别用户终端的触摸的装置和方法
WO2017147876A1 (zh) * 2016-03-03 2017-09-08 邱琦 探测控制装置
KR20180060792A (ko) * 2016-11-29 2018-06-07 주식회사 센터스 복수의 센서들을 갖는 입력 장치를 포함하는 자동차 창문 개폐 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101628470B1 (ko) 2014-08-14 2016-06-08 현대자동차주식회사 리드믹 음파 생성 패드

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0801396D0 (en) 2008-01-25 2008-03-05 Bisutti Giovanni Electronic apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101421638B1 (ko) * 2012-04-26 2014-07-22 에이서 인코포레이티드 터치 검출 방법 및 이를 이용하는 터치 제어 장치
KR101463450B1 (ko) * 2013-04-10 2014-11-21 주식회사 팬택 사용자 인터페이스 인식 장치 및 방법
CN104571884A (zh) * 2013-10-23 2015-04-29 现代自动车株式会社 用于识别用户终端的触摸的装置和方法
US9696901B2 (en) 2013-10-23 2017-07-04 Hyundai Motor Company Apparatus and method for recognizing touch of user terminal based on acoustic wave signal
CN104571884B (zh) * 2013-10-23 2019-06-14 现代自动车株式会社 用于识别用户终端的触摸的装置和方法
WO2017147876A1 (zh) * 2016-03-03 2017-09-08 邱琦 探测控制装置
KR20180060792A (ko) * 2016-11-29 2018-06-07 주식회사 센터스 복수의 센서들을 갖는 입력 장치를 포함하는 자동차 창문 개폐 장치

Also Published As

Publication number Publication date
KR101210538B1 (ko) 2012-12-10

Similar Documents

Publication Publication Date Title
US10296136B2 (en) Touch-sensitive button with two levels
US9507507B2 (en) Information processing apparatus, information processing method and program
US11656711B2 (en) Method and apparatus for configuring a plurality of virtual buttons on a device
KR102090750B1 (ko) 지문 인식을 위한 전자 장치 및 방법
AU2013223015B2 (en) Method and apparatus for moving contents in terminal
US8250471B2 (en) Electronic devices and method for controlling the user interface thereof
US8970475B2 (en) Motion sensitive input control
AU2013280438B2 (en) Biometric initiated communication
JP5887807B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US20120054670A1 (en) Apparatus and method for scrolling displayed information
US20090251432A1 (en) Electronic apparatus and control method thereof
KR101210538B1 (ko) 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체
KR20110054415A (ko) 화면 표시 방법 및 장치
JP5639489B2 (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
KR20170057823A (ko) 에지 스크린을 통한 터치 입력 방법 및 전자 장치
US20120075176A1 (en) Method and apparatus of recognizing gesture with untouched way
US20160378250A1 (en) Electronic device, non-transitory storage medium, and control method for electronic device
US10019148B2 (en) Method and apparatus for controlling virtual screen
US20150033122A1 (en) System and method for processing touch input
JP5800361B2 (ja) 表示制御装置及びそれを用いた表示装置
KR101168889B1 (ko) 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체
US10802702B2 (en) Touch-activated scaling operation in information processing apparatus and information processing method
KR101251730B1 (ko) 키보드를 이용한 컴퓨터 제어방법, 제어장치 및 이를 위한 프로그램 명령어가 기록된 기록매체
KR101656753B1 (ko) 터치에 기초한 대상 동작 제어 시스템 및 그 방법
KR20140002900A (ko) 단말의 음원 재생 방법 및 그 단말

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee