KR101392623B1 - 사용자 단말 및 이의 메시징 방법 - Google Patents

사용자 단말 및 이의 메시징 방법 Download PDF

Info

Publication number
KR101392623B1
KR101392623B1 KR1020120068669A KR20120068669A KR101392623B1 KR 101392623 B1 KR101392623 B1 KR 101392623B1 KR 1020120068669 A KR1020120068669 A KR 1020120068669A KR 20120068669 A KR20120068669 A KR 20120068669A KR 101392623 B1 KR101392623 B1 KR 101392623B1
Authority
KR
South Korea
Prior art keywords
touch
touch pattern
message
user
word
Prior art date
Application number
KR1020120068669A
Other languages
English (en)
Other versions
KR20140001364A (ko
Inventor
황성재
박영우
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020120068669A priority Critical patent/KR101392623B1/ko
Publication of KR20140001364A publication Critical patent/KR20140001364A/ko
Application granted granted Critical
Publication of KR101392623B1 publication Critical patent/KR101392623B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 이에 본 발명에서는 단순 메시지 전송에서 더 나아가 메시지 작성자의 비언어적 행위까지 감지 및 재현할 수 있도록 하는 사용자 단말 및 이의 메시징 방법에 관한 것으로,
상기 사용자 단말은 사용자에 의해 선택되는 문자, 숫자, 기호를 조합하여 송신 메시지를 생성하거나, 상대방으로부터 전송된 수신 메시지를 화면 표시하는 메시지 입출력부; 송신 메시지 작성을 위한 사용자 터치 행위에서 발생하는 터치 패턴을 감지 및 획득하는 터치 패턴 감지부; 상대방 단말로부터 전송되는 터치 패턴을 재현하는 터치 패턴 재생부; 및 상기 송신 메시지와 상기 터치 패턴을 상기 상대방 단말로 전달하거나, 상기 상대방 단말로부터 전송되는 메시지와 터치 패턴을 상기 메시지 입출력부와 상기 터치 패턴 재생부에 각각 전달하는 제어부;를 포함할 수 있다.

Description

사용자 단말 및 이의 메시징 방법{USER TERMINAL AND MESSAGING METHOD THEREOF}
본 발명은 메시지 작성을 위한 사용자 터치 행위에서 발생하는 터치 패턴을 획득 및 전송하고, 상대편 단말에서 재현할 수 있도록 함으로써, 원격 현장감을 제공할 수 있도록 하는 사용자 단말 및 이의 메시징 방법에 관한 것이다.
원격 현장감이란 공간적으로 떨어져 있는 장소 또는 가상의 장소를 신체적으로 경험하는 것을 의미하는 것으로, 통신 회선으로 컴퓨터를 원격지와 연결하여, 가상 현실 공간 중에서 통신을 통한 상호 작용으로 신체적으로 가 있지 않은 다른 장소에서 존재할 수 있게 하는 것이다.
최근에는 SNS(Social Network Service)의 발달에 따라 모바일 기기를 이용하여 다양한 정보를 실시간으로 공유/전달하고 있으며, 정보전달의 인터페이스로 모바일 기기의 가상 키보드가 가장 널리 활용되고 있다.
이처럼 키보드는 텍스트를 통한 소통의 도구를 넘어 자음, 모음, 기호를 결합하거나 이모티콘을 사용하여 감정을 표현하는 역할까지 일상생활에서 발생하는 원거리 실시간 문자 소통의 효율적인 역할을 하는 도구이지만, 실제 사용자가 대면의 소통에서 큰 부위를 차지하는 비언어적 터치행위를 통한 소통은 제한적이다.
즉, 키보드는 문자 정보 입력 및 전달의 도구를 넘어 단어와 이모티콘을 결합하여 감정을 표현하는 역할까지 일상생활에서 발생하는 원거리 실시간 문자 소통의 효율적인 역할을 하는 디지털 소통 매개체로, 원거리 실시간 문자 소통을 지원하는 각종 메신저 프로그램들은 컴퓨터 앞에서 많은 시간을 소비하는 사람들에게 문자 정보를 통해 문서 작업이나 인터넷을 사용하는 도중 사적이면서 정확하게 실시간으로 소통 할 수 있도록 도와준다.
하지만, 문자 소통을 통해 감성 표현은 음성, 시각, 촉각 정보가 줄 수 없는 비언어적인 정보들을 제공하지 못하고 단어나 문장 혹은 문체가 줄 수 있는 감성적인 정보에만 제한된다. 이를 보안하기 위해 오래 전부터 여러 실시간 메신저 프로그램에서 다양한 텍스트 조합에 따른 자동 이모티콘을 생성하거나 기호를 결합하여 하나의 표정을 만들어 이들을 문자에 결합하여 다양한 감정 정보를 전달하기도 하였다.
그러나, 기호 결합을 통한 표정이나 자동 이모티콘을 표현하는데 있어서 사용자가 입력해야 하는 문자와 이모티콘을 통해 표현된 감정은 실제 사용자가 대면의 소통에서 발생하는 비언어적 제스쳐를 표현하기에는 제한적이다. 사용자가 화나는 감정을 표현할 때 취하는 주먹으로 치거나 때리는 제스쳐 등은 메신저 프로그램을 통한 실시간 문자 소통 상황에서는 화난 얼굴 이모티콘을 클릭하거나, "(ˇ-ˇ)"와 같은 기호를 통해 대체된다.
따라서 실제 사용자가 대면의 소통에서 큰 부위를 차지하는 비언어적 터치행위를 통한 소통은 제한적이라 할 수 있다.
이에 본 발명에서는 단순 메시지 전송에서 더 나아가 메시지 작성자의 비언어적 행위까지 감지 및 재현할 수 있도록 하는 사용자 단말 및 이의 메시징 방법을 제공하고자 한다.
상기 과제를 해결하기 위한 수단으로서, 본 발명의 일 실시 형태에 따르면, 사용자에 의해 선택되는 문자, 숫자, 기호를 조합하여 송신 메시지를 생성하거나, 상대방으로부터 전송된 수신 메시지를 화면 표시하는 메시지 입출력부; 송신 메시지 작성을 위한 사용자 터치 행위에서 발생하는 터치 패턴을 감지 및 획득하는 터치 패턴 감지부; 상대방 단말로부터 전송되는 터치 패턴을 재현하는 터치 패턴 재생부; 및 상기 송신 메시지와 상기 터치 패턴을 상기 상대방 단말로 전달하거나, 상기 상대방 단말로부터 전송되는 메시지와 터치 패턴을 상기 메시지 입출력부와 상기 터치 패턴 재생부에 각각 전달하는 제어부;를 포함하는 사용자 단말을 제공한다.
상기 터치 패턴 감지부는 자판 식별 정보, 터치 강도, 터치 방향, 터치 속도, 터치 소리 중 적어도 하나를 자판 터치 시간순으로 획득 및 저장하는 것을 특징으로 한다.
상기 터치 패턴 감지부는 적어도 하나의 단어와 단어 조합 각각에 대응되는 터치 패턴을 정의한 관계 정보를 구비하며, 상기 관계 정보를 기반으로 상기 송신 메시지에 포함된 단어 또는 단어 조합에 대응되는 터치 패턴을 획득하는 것을 특징으로 한다.
상기 터치 제어부는 상기 사용자 단말의 동작 모드에 따라 상기 터치 패턴 감지부를 제어하여, 사용자 터치 행위에 대응되는 터치 패턴과 송신 메시지 내용에 대응되는 터치 패턴 중 하나가 상기 상대방 단말로 전송되도록 하는 것을 특징으로 한다.
상기 터치 패턴 재생부는 상기 상대방 단말로부터 전송된 터치 패턴에 따라 진동 위치, 진동 강도, 진동 방향, 진동 속도, 고유 음원의 주파수 또는 크기 중 적어도 하나를 터치 시간 순으로 가변하는 것을 특징으로 한다.
상기 메시지 입출력부는 진동 발생 패턴을 고려하여 상기 수신 메시지를 구성하는 다수의 글자를 순차적으로 화면 표시하는 것을 특징으로 한다.
상기 과제를 해결하기 위한 수단으로서, 본 발명의 일 실시 형태에 따르면, 사용자에 의해 선택되는 문자, 숫자, 기호를 조합하여 송신 메시지를 생성함과 동시에 송신 메시지 작성을 위한 사용자 터치 행위에서 발생하는 터치 패턴을 감지 및 획득하는 단계; 상기 송신 메시지와 상기 터치 패턴을 상대방 단말로 전달하는 단계; 상기 상대방 단말로부터 전송되는 메시지와 터치 패턴을 수신하는 단계; 및 상기 메시지를 화면에 표시함과 동시에 상기 터치 패턴을 재현하는 단계를 포함하는 사용자 단말의 메시징 방법을 제공한다.
상기 패턴을 재현하는 단계는 상기 상대방 단말로부터 전송되는 터치 패턴에 따라 진동 위치, 진동 강도, 진동 방향, 진동 속도, 고유 음원의 주파수 또는 크기 중 적어도 하나를 터치 시간 순으로 가변하는 것을 특징으로 한다.
상기 메시지를 화면에 표시하는 단계는 진동 발생 패턴을 고려하여 상기 수신 메시지를 구성하는 다수의 글자를 순차적으로 화면 표시하는 것을 특징으로 한다.
상기 과제를 해결하기 위한 수단으로서, 본 발명의 일 실시 형태에 따르면, 사용자에 의해 선택되는 문자, 숫자, 기호를 조합하여 송신 메시지를 생성하는 단계; 상기 송신 메시지에 포함된 단어 또는 단어 조합에 대응되는 터치 패턴을 획득한 후, 상기 송신메시지와 함께 상대방 단말로 전달하는 단계; 상기 상대방 단말로부터 전송되는 메시지와 터치 패턴을 수신하는 단계; 및 상기 메시지를 화면에 표시함과 동시에 상기 패턴을 재현하는 단계를 포함하는 사용자 단말의 메시징 방법을 제공한다.
상기 방법은 적어도 하나의 단어와 단어 조합 각각에 대응되는 터치 패턴을 정의한 관계 정보를 생성 및 등록하는 단계를 더 포함할 수 있다.
본 발명에서는 메시지 작성을 위한 사용자 터치 행위에서 발생되는 터치 패턴 또는 메시지 내용에 대응되는 터치 패턴을 상대방 단말에 제공하고 재현할 수 있도록 함으로써, 단순 내용 전달에서 나아가 메시지 입력 방식 그리고 메시지 작성자의 주관적인 감정까지도 전달할 수 있도록 한다. 즉, 본 발명에서는 메시지 작성자의 비언어적 행위까지 감지 및 재현할 수 있어, 메시지 전송 동작을 통해 표현할 수 있는 정보의 범위를 확장시켜 줄 수 있도록 한다.
도1은 본 발명의 일 실시예에 따른 사용자 단말을 도시한 도면이다.
도2는 본 발명의 일 실시예에 따른 메시징 방법을 설명하기 위한 도면이다.
도3은 본 발명의 일 실시예에 따른 사용자 단말을 통해 제공되는 자판의 일 예를 도시한 도면이다.
도4는 본 발명의 일 실시예에 따른 터치 패턴 획득 및 재현 예를 도시한 도면이다.
도5는 본 발명의 다른 실시예에 따른 터치 패턴 획득 및 재현 예를 도시한 도면이다.
도6은 본 발명의 다른 실시예에 따른 메시징 방법을 설명하기 위한 도면이다.
도7은 본 발명의 또 다른 실시예에 따른 터치 패턴 획득 및 재현 예를 도시한 도면이다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로서, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
도1은 본 발명의 일 실시예에 따른 사용자 단말을 도시한 도면이다.
도1을 참고하면, 본 발명의 사용자 단말(10)은 사용자의 자판 입력 동작에 의해 발생되는 터치 패턴을 감지 및 획득하는 터치 패턴 감지부(11), 상대방 단말로부터 전송되는 터치 패턴을 재생하는 터치 패턴 재생부(12), 사용자의 자판 입력 동작을 통해 선택되는 문자, 숫자, 기호, 이모티콘을 조합하여 메시지를 생성하거나, 상대편 단말이 전송하는 메시지를 화면 표시하는 메시지 입출력부(13), 자판 입력 동작이 완료될 때마다 메시지와 터치 패턴을 함께 상대방 단말에 전송하고, 상대방 단말로부터 전송되는 메시지와 터치 패턴을 상기 메시지 입출력부(13)와 상기 터치 패턴 재생부(12)에 각각 전달하는 제어부(14), 및 이동 통신망, 인터넷 망 등을 통해 사용자 단말(10)와 상대방 단말 사이의 데이터를 송수신하는 통신부(15) 등을 포함하여 구성된다.
이와 같이 구성되는 사용자 단말(10)은 사용자의 자판 입력 동작에 의해 발생되는 터치 정보를 실시간으로 다른 사용자에게 전달하여, 좀더 향상된 사용자 경험을 도모할 수 있도록 한다. 즉, 사용자가 얼마나 빠르게 또는 느리게, 강하게 또는 약하게, 신중하게 또는 경솔하게, 문자, 기호, 숫자 등을 입력 또는 삭제하는지를 감지하고, 이를 상대방에게 시각/청각/촉각적으로 그대로 재현시켜 줌으로써, 상대방이 사용자가 해당 메시지를 어떻게 작성했는지, 어떤 감정 상태로 작성했는지 실시간 그리고 직관적으로 이해할 수 있도록 한다.
더욱 상세하게는, 상기 터치 패턴 감지부(11)는 터치 스크린상에 디스플레이된 자판 각각을 사용자가 터치함에 따라 발생되는 터치 패턴은 감지 및 획득하기 위한 것으로, 압력 센서, 가속도 센서, 자이로 센서, 콤파스 센서, 마이크 중 적어도 하나를 포함하여 구성될 수 있을 것이다. 물론, 상기의 센서 이외에도 다양한 터치 정보를 생성할 수 있는 센서가 존재한다면, 이 또한 터치 패턴 감지부에 포함될 수 있을 것이다. 이때의 터치 패턴은 터치 시간, 터치 위치, 터치 강도, 터치 방향, 터치 속도, 터치 소리 중 적어도 하나를 포함할 수 있다.
상기 터치 패턴 재생부(12)는 상대방 단말이 제공하는 터치 패턴(터치 시간, 터치 위치, 터치 강도, 터치 방향, 터치 속도, 터치 소리 중 적어도 하나)을 재현하기 위한 것으로, 자판 영역 또는 터치 스크린 전 영역에 분산 배치된 다수의 3축 진동자 또는 햅틱 장치 등을 포함하여 구성될 수 있을 것이다. 물론, 상기의 장치 이외에도 다양한 터치 패턴을 그대로 재현할 수 있는 장치가 존재한다면, 이를 통해 터치 패턴 재생부가 구현될 수도 있을 것이다.
또한, 본 발명에서는 사용자의 터치 행위를 고려하여 터치 패턴을 발생하는 대신에 메시지 내용을 기반으로 터치 패턴을 발생할 수도 있도록 한다.
이때의 터치 패턴 감지부(11)는 적어도 하나의 단어와 단어 조합 각각에 대응되는 터치 패턴을 정의한 관계 정보를 구비하며, 사용자가 메시지를 작성하면, 상기 관계 정보를 기반으로 해당 메시지에 포함된 단어 또는 단어 조합에 대응되는 터치 패턴을 획득하도록 한다. 예를 들어, 사용자가 "good", "bad" 등의 단어를 입력하면, 터치 패턴 감지부(11)는 이들 단어 각각에 대응되는 고유한 터치 패턴을 획득 및 제공하도록 함으로써, 터치 패턴이 메시지 내용을 반영할 수 있도록 한다.
더하여, 제어부(14)는 사용자 단말의 동작 상황에 따라 사용자의 터치 행위를 고려하여 터치 패턴을 발생할지, 또는 메시지 내용을 기반으로 터치 패턴을 발생할지 결정해준다. 즉, 사용자가 터치 행위에 대응되는 터치 패턴을 발생하기 위한 동작 모드를 선택하면 터치 패턴 감지부(11)가 터치 행위를 고려하여 터치 패턴을 발생하도록 하고, 반대로 사용자가 단어 또는 단어 조합에 따라 터치 패턴을 발생하기 위한 동작 모드를 선택하면 터치 패턴 감지부(11)가 메시지에 포함된 단어 또는 단어 조합에 따라 터치 패턴을 발생하도록 제어한다.
도2는 본 발명의 일 실시예에 따른 메시징 방법을 설명하기 위한 도면이다.
먼저, 사용자가 사용자 단말(10)의 특정 버튼 또는 메뉴를 선택하여 메시지 작성을 요청하면(S11), 사용자 단말(10)는 터치 스크린상에 도3과 같은 자판을 표시한다(S12).
사용자가 자판을 통해 메시지를 입력하면, 사용자 단말(10)은 자판 입력 동작에 의해 입력되는 문자, 숫자, 기호 등을 조합하여 메시지를 생성하고(S13), 이와 동시에 사용자의 자판 입력 동작에 의해 발생되는 터치 패턴을 감지 및 획득한다(S14).
그리고 S13를 통해 생성된 메시지에 S14를 통해 획득된 터치 패턴을 매핑하여 상대방 단말에 전송한다(S15).
한편, 사용자 단말(10)이 상기와 같은 방식으로 상대방 단말이 생성하여 전송한 메시지를 수신하면(S16), 사용자 단말(10)은 메시지에 매핑된 터치 패턴을 추출한 후, 메시지를 터치 스크린에 표시함과 동시에 추출된 터치 패턴을 재현하여 준다(S17).
참고로, 도2에서는 설명의 편이를 위해 터치 패턴 전송 동작(S11~S15) 이후에 터치 패턴 재현 동작(S16~S17)을 수행하는 것처럼 설명되어 있으나, 실제 적용시에는 터치 패턴 전송 동작(S11~S15)와 터치 패턴 재현 동작(S16~S17)는 서로 독립적으로 수행될 수 있도록 한다. 즉, 터치 패턴 전송 동작(S11~S15)와 터치 패턴 재현 동작(S16~S17) 중 하나의 동작만이 수행되거나, 터치 패턴 재현 동작(S16~S17) 이후에 터치 패턴 전송 동작(S11~S15)이 수행될 수 있을 것이다.
도4는 본 발명의 일 실시예에 따른 터치 패턴 획득 및 재현 예를 도시한 도면으로, 이는 터치 패턴이 터치 시간, 터치 위치, 터치 강도, 터치 방향, 터치 속도로 정의되는 경우에 관한 것이다.
먼저, 사용자가 사용자 단말(10)의 자판을 통해 "good"이라는 단어를 입력하면, 사용자 단말(10) 상에는 이에 상응하는 터치 패턴이 발생하게 된다.
그러면, 사용자 단말(10)은 이에 응답하여 터치 위치, 터치 강도, 터치 방향, 터치 속도, 터치 소리 중 적어도 하나를 터치 시간순으로 획득한 후, 상대방 단말에 이를 전달하게 된다.
그러면, 상대방 단말은 터치 패턴에 포함된 터치 위치, 터치 강도, 터치 속도, 터치 소리를 진동 위치, 진동 강도, 진동 방향, 진동 속도, 고유 음원의 주파수 또는 크기로 변환한 후, 터치 시간 순으로 진동 위치, 진동 강도, 진동 방향, 진동 속도, 고유 음원의 주파수 또는 크기를 가변하여, 사용자 단말(10)에서 발생된 터치 패턴을 그대로 재현하도록 한다.
더하여, 필요한 경우, 본 발명에서는 도5에서와 같이 진동 발생 패턴을 고려하여 수신 메시지를 구성하는 다수의 글자를 순차적으로 화면 표시하도록 할 수도 있을 것이다. 즉, 메시지 작성자가 G 자판, O 자판, D 자판을 순차적으로 선택하여 "good"이라는 단어를 입력하고 이에 대응되는 터치 패턴을 발생, 전송된 경우, 사용자 단말(10)은 G 자판 입력에 상응하는 터치 패턴을 재생할 때에는 "g"만을 화면 표시하고, O 자판 입력에 상응하는 터치 패턴을 재생할 때에는 "goo"만을 화면 표시하고, D 자판 입력에 상응하는 터치 패턴을 재생할 때에는 "good"만을 화면 표시하도록 함을 알 수 있다.
이러한 경우, 사용자는 메시지 작성자의 터치 패턴을 촉각 및 청각적으로 확인함과 더불어 메시지 작성 속도도 또한 시각적으로 확인할 수 있어, 메시지 작성자의 상태를 보다 직관적으로 파악할 수 있게 된다.
도6은 본 발명의 다른 실시예에 따른 메시징 방법을 설명하기 위한 도면이다.
도6에서는 메시지 작성 동작에 앞서, 적어도 하나의 단어와 단어 조합 각각에 대응되는 터치 패턴을 정의한 관계 정보를 등록하도록 한다(S21).
이러한 상태에서, 사용자가 사용자 단말(10)의 특정 버튼 또는 메뉴를 선택하여 메시지 작성을 요청하면(S22), 사용자 단말(10)는 터치 스크린상에 도3과 같은 자판을 표시한다(S23).
사용자가 자판을 통해 메시지를 입력하면, 사용자 단말(10)은 자판 입력 동작에 의해 입력되는 문자, 숫자, 기호 등을 조합하여 메시지를 생성한 후(S24), 상기 관계 정보를 참조하여 메시지에 포함된 단어 또는 단어 조합에 대응되는 터치 패턴을 획득하도록 한다(S25).
그리고 S24를 통해 생성된 메시지에 S25를 통해 획득된 터치 패턴을 매핑하여 상대방 단말에 전송한다(S26).
한편, 사용자 단말(10)이 상기와 같은 방식으로 상대방 단말이 생성하여 전송한 메시지를 수신하면(S27), 사용자 단말(10)은 메시지에 매핑된 터치 패턴을 추출한 후, 메시지를 터치 스크린에 표시함과 동시에 추출된 터치 패턴을 재현하여 준다(S28).
참고로, 도5에서도 설명의 편이를 위해 터치 패턴 전송 동작(S21~S26) 이후에 터치 패턴 재현 동작(S27~S28)을 수행하는 것처럼 설명되어 있으나, 실제 적용시에는 터치 패턴 전송 동작(S21~S26)와 터치 패턴 재현 동작(S27~S28)는 서로 독립적으로 수행될 수 있음은 물론 당연하다.
도7은 본 발명의 또 다른 실시예에 따른 터치 패턴 획득 및 재현 예를 도시한 도면으로, 이는 터치 패턴이 단어 또는 단어 조합에 따라 가변되는 경우에 관한 것이다.
도7에서는 사용자가 메시지 작성 도중에 사전에 설정된 특정 단어(예를 들어, good, bad)와 같은 입력하면, 사용자 단말(10)를 이를 감지하고, 해당 단어에 대응되는 터치 패턴을 획득하도록 한다. 이때의 터치 패턴에는 터치 위치, 터치 강도, 터치 방향, 터치 속도 중 적어도 하나가 시계열적으로 정의될 수 있을 것이다.
이에 사용자 단말(10)이 메시지에 특정 단어 또는 단어 조합에 대응되는 터치 패턴을 매핑하여 상대방 단말에 전달하면, 상대방 단말은 우선 터치 패턴에 포함된 터치 위치, 터치 강도, 터치 속도, 터치 소리를 터치 위치, 진동 강도, 진동 방향, 진동 속도, 고유 음원의 주파수 또는 크기로 변환하도록 한다. 그리고 나서, 진동 위치, 진동 강도, 진동 방향, 진동 속도, 고유 음원의 주파수 또는 크기를 시간 순으로 가변하여, 사용자 단말(10)이 획득 및 제공한 터치 패턴을 그대로 재현하도록 한다. 이때의 진동 위치(P1, P2, P3)는 자판 영역에 국한될 수도 있으며, 터치 스크린 전체 영역으로 확장될 수 있을 것이다.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 등이 포함될 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (11)

  1. 사용자에 의해 선택되는 문자, 숫자, 기호를 조합하여 송신 메시지를 생성하거나, 상대방으로부터 전송된 수신 메시지를 화면 표시하는 메시지 입출력부;
    송신 메시지 작성을 위한 사용자 터치 행위에서 발생하는 터치 패턴을 감지 및 획득하는 터치 패턴 감지부;
    상대방 단말로부터 전송되는 터치 패턴을 재현하는 터치 패턴 재생부; 및
    상기 송신 메시지와 상기 터치 패턴을 상기 상대방 단말로 전달하거나, 상기 상대방 단말로부터 전송되는 메시지와 터치 패턴을 상기 메시지 입출력부와 상기 터치 패턴 재생부에 각각 전달하는 제어부;를 포함하며,
    상기 터치 패턴 감지부는
    적어도 하나의 단어와 단어 조합 각각에 대응되는 터치 패턴을 정의한 관계 정보를 구비하며, 상기 관계 정보를 기반으로 상기 송신 메시지에 포함된 단어 또는 단어 조합에 대응되는 터치 패턴을 획득하는 것을 특징으로 하는 사용자 단말.
  2. 제1항에 있어서, 상기 터치 패턴 감지부는
    자판 식별 정보, 터치 강도, 터치 방향, 터치 속도, 터치 소리 중 적어도 하나를 자판 터치 시간순으로 획득 및 저장하는 것을 특징으로 하는 사용자 단말.
  3. 삭제
  4. 제1항에 있어서, 상기 터치 제어부는
    상기 사용자 단말의 동작 모드에 따라 상기 터치 패턴 감지부를 제어하여, 사용자 터치 행위에 대응되는 터치 패턴과 송신 메시지 내용에 대응되는 터치 패턴 중 하나가 상기 상대방 단말로 전송되도록 하는 것을 특징으로 하는 사용자 단말.
  5. 제2항에 있어서, 상기 터치 패턴 재생부는
    상기 상대방 단말로부터 전송된 터치 패턴에 따라 진동 위치, 진동 강도, 진동 방향, 진동 속도, 고유 음원의 주파수 또는 크기 중 적어도 하나를 터치 시간 순으로 가변하는 것을 특징으로 하는 사용자 단말.
  6. 제5항에 있어서, 상기 메시지 입출력부는
    진동 발생 패턴을 고려하여 상기 수신 메시지를 구성하는 다수의 글자를 순차적으로 화면 표시하는 것을 특징으로 하는 사용자 단말.
  7. 사용자에 의해 선택되는 문자, 숫자, 기호를 조합하여 송신 메시지를 생성함과 동시에 송신 메시지 작성을 위한 사용자 터치 행위에서 발생하는 터치 패턴을 감지 및 획득하는 단계;
    상기 송신 메시지와 상기 터치 패턴을 상대방 단말로 전달하는 단계;
    상기 상대방 단말로부터 전송되는 메시지와 터치 패턴을 수신하는 단계; 및
    상기 메시지를 화면에 표시함과 동시에 상기 터치 패턴을 재현하는 단계를 포함하며,
    상기 터치 패턴을 재현하는 단계는
    적어도 하나의 단어와 단어 조합 각각에 대응되는 터치 패턴을 정의한 관계 정보를 구비하며, 상기 관계 정보를 기반으로 상기 송신 메시지에 포함된 단어 또는 단어 조합에 대응되는 터치 패턴을 획득하는 것을 특징으로 하는 사용자 단말의 메시징 방법.
  8. 제7항에 있어서, 상기 패턴을 재현하는 단계는
    상기 상대방 단말로부터 전송되는 터치 패턴에 따라 진동 위치, 진동 강도, 진동 방향, 진동 속도, 고유 음원의 주파수 또는 크기 중 적어도 하나를 터치 시간 순으로 가변하는 것을 특징으로 하는 사용자 단말의 메시징 방법.
  9. 제8항에 있어서, 상기 메시지를 화면에 표시하는 단계는
    진동 발생 패턴을 고려하여 상기 수신 메시지를 구성하는 다수의 글자를 순차적으로 화면 표시하는 것을 특징으로 하는 사용자 단말의 메시징 방법.
  10. 적어도 하나의 단어와 단어 조합 각각에 대응되는 터치 패턴을 정의한 관계 정보를 생성 및 등록하는 단계;
    사용자에 의해 선택되는 문자, 숫자, 기호를 조합하여 송신 메시지를 생성하는 단계;
    상기 송신 메시지에 포함된 단어 또는 단어 조합에 대응되는 터치 패턴을 획득한 후, 상기 송신메시지와 함께 상대방 단말로 전달하는 단계;
    상기 상대방 단말로부터 전송되는 메시지와 터치 패턴을 수신하는 단계; 및
    상기 메시지를 화면에 표시함과 동시에 상기 관계 정보를 기반으로 상기 송신 메시지에 포함된 단어 또는 단어 조합에 대응되는 터치 패턴을 획득 및 재현하는 단계를 포함하는 사용자 단말의 메시징 방법.
  11. 삭제
KR1020120068669A 2012-06-26 2012-06-26 사용자 단말 및 이의 메시징 방법 KR101392623B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120068669A KR101392623B1 (ko) 2012-06-26 2012-06-26 사용자 단말 및 이의 메시징 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120068669A KR101392623B1 (ko) 2012-06-26 2012-06-26 사용자 단말 및 이의 메시징 방법

Publications (2)

Publication Number Publication Date
KR20140001364A KR20140001364A (ko) 2014-01-07
KR101392623B1 true KR101392623B1 (ko) 2014-05-09

Family

ID=50138897

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120068669A KR101392623B1 (ko) 2012-06-26 2012-06-26 사용자 단말 및 이의 메시징 방법

Country Status (1)

Country Link
KR (1) KR101392623B1 (ko)

Also Published As

Publication number Publication date
KR20140001364A (ko) 2014-01-07

Similar Documents

Publication Publication Date Title
CN106997241B (zh) 虚拟现实环境中与真实世界互动的方法与虚拟现实系统
Sandel et al. Unpacking and describing interaction on Chinese WeChat: A methodological approach
Grussenmeyer et al. Accessible touchscreen technology for people with visual impairments: a survey
Rovers et al. HIM: A framework for haptic instant messaging
KR101717805B1 (ko) 햅틱적으로 향상된 텍스트 인터페이스에 대한 시스템 및 방법
CN110364148A (zh) 自然助理交互
CN107491181A (zh) 语言输入的动态短语扩展
Sánchez et al. Mobile messenger for the blind
CN108292203A (zh) 基于设备间对话通信的主动协助
CN108763552B (zh) 一种基于家教机的学习方法及家教机
Alnfiai et al. SingleTapBraille: Developing a text entry method based on braille patterns using a single tap
US20140377722A1 (en) Synchronous presentation of content with a braille translation
CN110249325A (zh) 具有通信模型的输入系统
CN106415446A (zh) 通过触觉交互对内容属性的可访问性检测
CN102939574A (zh) 字符选择
Zhang et al. Voicemoji: Emoji entry using voice for visually impaired people
KR102078209B1 (ko) 텍스트 메시지를 브이모지로 표현하는 아바타 비주얼 변환 장치 및 메시지 변환 방법
Xue et al. Mobile motion gesture design for deaf people
US9189158B2 (en) Methods, devices and systems for entering textual representations of words into a computing device by processing user physical and verbal interactions with the computing device
KR101567154B1 (ko) 다중 사용자 기반의 대화 처리 방법 및 이를 수행하는 장치
KR101337420B1 (ko) 감성대화단말기
Boster et al. When you can't touch a touch screen
KR101392623B1 (ko) 사용자 단말 및 이의 메시징 방법
Jenkins et al. Leapasl: A platform for design and implementation of real time algorithms for translation of american sign language using personal supervised machine learning models
CN113362802A (zh) 语音生成方法、装置和电子设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170327

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee