KR20170128196A - Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device - Google Patents

Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device Download PDF

Info

Publication number
KR20170128196A
KR20170128196A KR1020170152151A KR20170152151A KR20170128196A KR 20170128196 A KR20170128196 A KR 20170128196A KR 1020170152151 A KR1020170152151 A KR 1020170152151A KR 20170152151 A KR20170152151 A KR 20170152151A KR 20170128196 A KR20170128196 A KR 20170128196A
Authority
KR
South Korea
Prior art keywords
tactile
input
interface device
application
graphic
Prior art date
Application number
KR1020170152151A
Other languages
Korean (ko)
Other versions
KR102036632B1 (en
Inventor
조진수
이혜림
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020170152151A priority Critical patent/KR102036632B1/en
Publication of KR20170128196A publication Critical patent/KR20170128196A/en
Application granted granted Critical
Publication of KR102036632B1 publication Critical patent/KR102036632B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • G09B21/004Details of particular tactile cells, e.g. electro-mechanical or mechanical layout
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • G09B21/005Details of specially-adapted software to access information, e.g. to browse through hyperlinked information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a method, a device, computer-readable medium for controlling a tactile interface device. More specifically, the present invention relates to a method, a device, and computer-readable medium for controlling a new concept of a tactile interface device, which allows a visually impaired person to more intuitively and efficiently interact with a computer by using a tactile sense in a manner similar to a computer usage method of the public. The method for controlling a tactile interface device comprises: an input conversion step of converting an input from the tactile interface device into an input to an application; and an output conversion step of converting an output from the application into an output of the tactile interface device.

Description

촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체 {Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device}METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM FOR CONTROLLING Tactile Interface Device [0001]

본 발명은 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 일반인의 컴퓨터 사용방식과 유사한 방식으로 시각장애인이 촉각을 이용하여 보다 직관적이고 효율적으로 컴퓨터와 상호작용 할 수 있도록 해주는 새로운 개념의 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체에 관한 것이다.The present invention relates to a method, an apparatus and a computer-readable medium for controlling a tactile interface apparatus, and more particularly, to a method and apparatus for controlling a tactile interface apparatus in which a blind person uses a tactile sense more intuitively and efficiently, To a method, apparatus and computer-readable medium for controlling a tactile interface device of a new concept allowing interaction with a tactile interface device.

정보화 사회에서는 컴퓨터를 이용한 정보습득 및 활용이 필수적이며, 이러한 추세는 일반인 뿐만 아니라 시각장애인에게도 마찬가지이다. In the information society, it is essential to acquire and use information using computers, and this tendency is the same for the general public as well as the visually impaired.

시각장애인의 정보화 수준을 향상시키기 위해서는 그들도 정상인과 유사한 수준으로 정보를 습득하고 활용할 수 있도록 해줘야 하는데, 이는 시각장애인의 일상생활을 보다 편리하게 하고 스스로 정보를 습득하고 활용할 수 있게 해준다는 점에서 중요하다. 또한 이를 통하여 궁극적으로는 시각장애인에게 다양한 교육기회를 제공하여 사회진출 및 참여의 기회를 확대시킴으로써 그들의 복지를 한층 향상시킬 수 있다는 점에서 매우 중요하다고 할 수 있다. In order to improve the level of informatization of the visually impaired, they should also be able to acquire and use information at a level similar to that of the normal person. This is important because it makes the daily life of the visually impaired more convenient, Do. In addition, it can be said that it is very important because it can ultimately improve the welfare of the visually impaired by providing various education opportunities and expanding opportunities for social advancement and participation.

하지만, 현재의 컴퓨터를 사용하는 일반적 방식은 주로 모니터를 통해 출력되는 시각적 정보를 눈으로 인지하고 이에 대하여 키보드, 마우스, 혹은 터치패드 등의 입력도구를 이용하여 정보를 입력하는 방식을 사용하고 있다. 따라서, 시각을 쓸 수 없는 시각장애인이 일반인과 동일한 수준으로 컴퓨터의 출력정보를 인지하고 이에 대한 즉각적인 정보입력과 같은 상호작용을 하는 데에는 큰 한계가 있을 수 밖에 없다. 결과적으로 시각적 장애는 컴퓨터 사용에 있어서의 효율성을 현저히 저하시켜 컴퓨터를 통한 정보습득 및 활용의 기회를 크게 빼앗게 된다.However, the conventional method of using the present computer mainly uses a method of visually recognizing visual information output through a monitor and inputting information using an input tool such as a keyboard, a mouse, or a touch pad. Therefore, there is a great limitation in visually impaired persons who can not use the time to perceive the output information of the computer at the same level as the general person and to interact such as immediate information input. As a result, the visual impairment significantly degrades the efficiency of computer use, thereby greatly depriving the computer of opportunities for information acquisition and utilization.

이러한 시각장애인의 컴퓨터 사용에 있어서의 어려움을 해결하기 위하여 청각, 촉각 등을 사용해 시각적 정보를 인지하고 이를 통해 컴퓨터와 상호작용을 할 수 있도록 다양한 기술들이 개발되어 왔다. 그 대표적인 기술로서, 청각을 통해 시각장애인의 컴퓨터 사용을 보조하는 스크린 리더가 있다. 이는 컴퓨터 화면에 출력되는 내용과 자신이 입력한 키보드 정보를 음성으로 출력하여 컴퓨터를 사용할 수 있도록 도와주는 장치 혹은 소프트웨어이다.Various techniques have been developed to recognize the visual information and to interact with the computer through the use of the hearing, tactile sense, etc., in order to solve the difficulties in using the computer of the visually impaired. As a representative technology, there is a screen reader which assists the visually impaired to use the computer through the hearing. This is a device or software that helps users to use the computer by outputting the contents displayed on the computer screen and the keyboard information inputted by the user.

하지만 스크린 리더는 출력화면에 대한 2차원의 공간적 위치정보 없이 한 줄로 이어진 선형화된 정보만으로 출력화면의 Graphic User Interface (GUI) 요소들을 탐색하므로 화면 출력정보 인지에 어려움이 따르며, 특히 출력화면에 포함된 정보가 많으면 많을수록 그 어려움은 현저히 증가하게 된다. 또한 문자나 GUI 요소들 이외에 그림, 도표 등과 같은 다양한 그래픽 정보들에 대해서는 스크린 리더가 텍스트 기반의 간단한 묘사적 설명만을 음성으로 제공하기 때문에 시각장애인이 그래픽 정보를 이해하고 이에 대한 상호작용을 하는 데에 큰 어려움을 가지게 된다.However, the screen reader has difficulty in finding the screen output information because it searches Graphic User Interface (GUI) elements of the output screen by only one line of linearized information without two-dimensional spatial position information on the output screen. Especially, The more information there is, the greater the difficulty. In addition, since screen readers provide only a simple textual explanatory description for various graphic information such as pictures and diagrams in addition to characters and GUI elements, the visually impaired can understand and interact with graphic information It will have great difficulty.

또 다른 관련 기술로는 점자셀을 통하여 문자정보를 촉각으로 전달해주는 점자정보단말기가 있다. 이는 시각장애인에게 유용한 컴퓨터의 몇몇 기능들을 제공하여 독립적인 장치로 사용되는 방식과 스크린 리더가 분석하는 컴퓨터 화면의 텍스트 정보를 점자로 출력해주는 화면출력 보조장치로 사용하는 방식이 있다. 두 가지 방식 모두 컴퓨터와의 효율적 상호작용을 위한 인터페이스 역할 보다는, 컴퓨터 대용으로 컴퓨터의 몇 몇 제한된 기능들만을 수행하는 대체 기기의 역할을 하거나 혹은 문자정보를 점자로 출력해주는 출력보조 장치의 역할 만을 하게 된다. 특히, 점자 출력에 특화된 점자정보단말기는 스크린 리더와 마찬가지로 그래픽 정보를 표현할 수 없다는 문제점을 가지고 있다.Another related art is a Braille information terminal which transmits character information through a braille cell by a tactile sense. This is a method that is used as an independent device by providing some functions of a computer useful for a visually impaired person and a method of using as a screen output auxiliary device for outputting text information of a computer screen analyzed by a screen reader in braille. Instead of acting as an interface for efficient interaction with the computer, both of them serve as substitute devices that perform only a few limited functions of the computer as a substitute for the computer, or as output auxiliary devices that output text information in braille do. Particularly, the Braille information terminal specialized in the output of braille has a problem that it can not display the graphic information like the screen reader.

한국공개특허번호 10-2012-0063982Korean Published Patent No. 10-2012-0063982

본 발명의 목적은 일반인의 컴퓨터 사용방식과 유사한 방식으로 시각장애인이 촉각을 이용하여 보다 직관적이고 효율적으로 컴퓨터와 상호작용 할 수 있도록 해주는 새로운 개념의 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체를 제공하는 것이다.It is an object of the present invention to provide a method, an apparatus, and a computer-readable medium for controlling a new concept tactile interface device that enables a visually impaired person to interact with a computer more intuitively and efficiently using a tactile sense in a manner similar to that of a general- Readable medium.

상기와 같은 과제를 해결하기 위하여 본 발명은, 사용자와 상호작용을 할 수 있는 촉각 인터페이스장치에 전기적으로 연결된 전자장치로서, 상기 전자장치는 상기 전자장치 내부에서 실행되는 어플리케이션과 상기 촉각 인터페이스장치의 상호간의 입출력을 제어하는 입출력제어부를 포함하고, 상기 촉각 인터페이스장치는 촉각에 의한 촉각 그래픽을 제공할 수 있고, 상기 입출력제어부는 상기 촉각 인터페이스장치로부터의 입력을 상기 어플리케이션으로의 입력으로 변환하는 입력변환부; 및 상기 어플리케이션으로부터의 출력을 상기 촉각 인터페이스장치의 출력으로 변환하는 출력변환부를 포함하는, 전자장치를 제공한다.According to an aspect of the present invention, there is provided an electronic device electrically connected to a tactile interface device capable of interacting with a user, the electronic device including: an application executing in the electronic device; And an input / output controller for controlling input / output of the tactile interface device, wherein the tactile interface device can provide a tactile graphic by a tactile sense, and the input / output control portion includes an input conversion portion for converting input from the tactile interface device to input to the application, ; And an output conversion section for converting an output from the application into an output of the tactile interface device.

본 발명에서는, 상기 입력변환부는, 상기 촉각 인터페이스장치로부터 입력되는 키입력을 상기 어플리케이션으로 입력할 수 있는 형태로 변환하는 키변환부; 및 상기 촉각 인터페이스장치로부터 입력되는 터치입력을 상기 어플리케이션으로 입력할 수 있는 형태로 변환하는 제스처판별부;를 포함할 수 있다.In the present invention, the input conversion unit may include: a key conversion unit that converts a key input input from the tactile interface device into a form that can be input to the application; And a gesture determination unit for converting the touch input input from the tactile interface device into a form that can be input to the application.

본 발명에서는, 상기 제스처판별부는 상기 터치입력이 기설정된 제스처 중 어느 하나에 해당하는 지 여부를 판별하고, 제스처로 판별되는 경우 판별된 제스처에 해당하는 명령어로 상기 터치입력을 변환할 수 있다.In the present invention, the gesture determination unit may determine whether the touch input corresponds to one of predetermined gestures, and may convert the touch input into a command corresponding to the identified gesture when the gesture is determined.

본 발명에서는, 상기 입력변환부는, 상기 촉각 인터페이스장치에서 입력되는 입력좌표를 상기 어플리케이션에서의 입력좌표로 변환하는 좌표매핑부;를 더 포함할 수 있다.In the present invention, the input conversion unit may further include a coordinate mapping unit for converting the input coordinates input from the tactile interface device into input coordinates in the application.

본 발명에서는, 상기 출력변환부는, 상기 어플리케이션으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 촉각그래픽데이터로 변환하는 촉각그래픽변환부를 포함하고, 상기 촉각 인터페이스장치에 의해 제공되는 상기 촉각 그래픽은 상기 촉각그래픽데이터로부터 구현될 수 있다.In the present invention, the output conversion unit may include a tactile graphics converting unit for converting a focus area including a part of the graphic display output from the application into tactile graphic data, and the tactile graphics provided by the tactile interface device may include Tactile graphic data.

본 발명에서는, 상기 출력변환부는, 상기 어플리케이션에서 출력되는 정보를 음성정보로 변환하는 TTS변환부를 더 포함할 수 있다.In the present invention, the output conversion unit may further include a TTS conversion unit that converts information output from the application into voice information.

본 발명에서는, 상기 포커스영역은 사용자가 이전의 입력 중 1 이상에 의하여 결정될 수 있다.In the present invention, the focus area may be determined by at least one of the previous inputs by the user.

본 발명에서는, 상기 촉각그래픽변환부는, 상기 포커스영역을 복수의 포커스부분영역으로 구분하고, 기설정된 변환규칙에 따라 각각의 포커스부분영역의 표시엘리먼트를 촉각그래픽엘리먼트로 변환하는 동작을 수행함으로써 촉각그래픽데이터를 생성할 수 있다.In the present invention, the tactile graphic conversion unit may divide the focus area into a plurality of focus part areas, and convert the display elements of the respective focus part areas into tactile graphic elements according to a predetermined conversion rule, Data can be generated.

본 발명에서는, 상기 촉각 그래픽은 복수의 레이어를 포함하고, 상기 복수의 레이어 중 하나는 상기 어플리케이션으로부터 출력되는 상기 그래픽디스플레이의 화면을 변경시키는 명령을 실행하는 촉각 아이콘을 표시할 수 있다.In the present invention, the tactile graphics may include a plurality of layers, and one of the plurality of layers may display a tactile icon for executing a command to change a screen of the graphic display output from the application.

본 발명에서는, 상기 촉각 그래픽은 복수의 레이어를 포함하고, 상기 복수의 포커스부분영역은 상기 복수의 레이어에 대응할 수 있다.In the present invention, the tactile graphics may include a plurality of layers, and the plurality of focus partial areas may correspond to the plurality of layers.

상기와 같은 과제를 해결하기 위하여, 본 발명은 사용자와 상호작용을 할 수 있는 촉각 인터페이스장치에 전기적으로 연결된 전자장치로서, 상기 전자장치는 상기 전자장치 내부에서 실행되는 어플리케이션; 및 상기 어플리케이션으로부터의 출력을 상기 촉각 인터페이스장치의 출력으로 변환하는 출력변환부를 포함하고, 상기 촉각 인터페이스장치는 촉각에 의한 촉각 그래픽을 제공할 수 있는, 전자장치를 제공한다.According to an aspect of the present invention, there is provided an electronic device electrically connected to a tactile interface device capable of interacting with a user, the electronic device including: an application executing in the electronic device; And an output transformer for transforming the output from the application into an output of the tactile interface device, wherein the tactile interface device is capable of providing tactile tactile graphics.

본 발명에서는, 상기 출력변환부는, 상기 어플리케이션으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 촉각그래픽데이터로 변환하는 촉각그래픽변환부를 포함하고, 상기 촉각 인터페이스장치에 의해 제공되는 상기 촉각 그래픽은 상기 촉각그래픽데이터로부터 구현될 수 있다.In the present invention, the output conversion unit may include a tactile graphics converting unit for converting a focus area including a part of the graphic display output from the application into tactile graphic data, and the tactile graphics provided by the tactile interface device may include Tactile graphic data.

본 발명에서는, 상기 포커스영역은 사용자가 이전의 입력 중 1 이상에 의하여 결정될 수 있다.In the present invention, the focus area may be determined by at least one of the previous inputs by the user.

본 발명에서는, 상기 촉각그래픽변환부는, 상기 포커스영역을 복수의 포커스부분영역으로 구분하고, 기설정된 변환규칙에 따라 각각의 포커스부분영역의 표시엘리먼트를 촉각그래픽엘리먼트로 변환하는 동작을 수행함으로써 촉각그래픽데이터를 생성할 수 있다.In the present invention, the tactile graphic conversion unit may divide the focus area into a plurality of focus part areas, and convert the display elements of the respective focus part areas into tactile graphic elements according to a predetermined conversion rule, Data can be generated.

본 발명에서는, 상기 촉각 그래픽은 복수의 레이어를 포함하고, 상기 복수의 레이어 중 하나는 상기 어플리케이션으로부터 출력되는 상기 그래픽디스플레이의 화면을 변경시키는 명령을 실행하는 촉각 아이콘을 표시할 수 있다.In the present invention, the tactile graphics may include a plurality of layers, and one of the plurality of layers may display a tactile icon for executing a command to change a screen of the graphic display output from the application.

본 발명에서는, 상기 촉각 그래픽은 복수의 레이어를 포함하고, 상기 복수의 포커스부분영역은 상기 복수의 레이어에 대응할 수 있다.In the present invention, the tactile graphics may include a plurality of layers, and the plurality of focus partial areas may correspond to the plurality of layers.

상기와 같은 과제를 해결하기 위하여, 본 발명은 내부에서 실행되는 어플리케이션을 포함하는 전자장치에 전기적으로 연결되고, 사용자와 상호작용을 할 수 있는 촉각 인터페이스장치를 제어하는 방법으로서, 상기 촉각 인터페이스장치로부터의 입력을 상기 어플리케이션으로의 입력으로 변환하는 입력변환단계; 및 상기 어플리케이션으로부터의 출력을 상기 촉각 인터페이스장치의 출력으로 변환하는 출력변환단계를 포함하고, 상기 촉각 인터페이스장치는 촉각에 의한 촉각 그래픽을 제공할 수 있는, 촉각 인터페이스장치를 제어하는 방법을 제공한다.According to an aspect of the present invention, there is provided a method of controlling a tactile interface device electrically connected to an electronic device including an application executed internally and capable of interacting with a user, An input conversion step of converting an input of the application into an input to the application; And an output conversion step of converting an output from the application into an output of the tactile interface device, wherein the tactile interface device is capable of providing a tactile tactile graphics.

본 발명에서는, 상기 입력변환단계는, 촉각 인터페이스장치에서 입력된 입력정보를 수신하는 입력정보수신단계; 상기 입력정보의 카테고리를 구분하는 구분하는 입력정보카테고리구분단계; 상기 카테고리에 따라 상기 입력정보를 상기 어플리케이션에 입력할 수 있는 형태로 변환하는 입력정보변환단계;를 포함할 수 있다.In the present invention, the input conversion step may include: an input information receiving step of receiving input information input from the tactile interface device; An input information category discrimination step of discriminating a category of the input information; And an input information converting step of converting the input information into a form that can be input to the application according to the category.

본 발명에서는, 상기 카테고리는 키입력, 터치입력 중 1 이상을 포함할 수 있다.In the present invention, the category may include at least one of a key input and a touch input.

본 발명에서는, 상기 입력정보의 카테고리가 터치입력인 경우, 상기 입력정보변환단계는 상기 터치입력이 기설정된 복수의 제스처 중 어느 하나와 매칭이 되는 지 여부를 판단하고, 매칭이 되는 경우에 응답하여, 상기 입력정보를 매칭된 제스처에 대응되는 상기 어플리케이션으로 입력가능한 명령어로 변환할 수 있다.In the present invention, when the category of the input information is a touch input, the input information conversion step determines whether or not the touch input is matched with any one of a plurality of predefined gestures, and when it is matched, , The input information can be converted into a command that can be input to the application corresponding to the matched gesture.

본 발명에서는, 상기 입력정보의 카테고리가 터치입력인 경우, 상기 입력정보변환단계는 상기 터치입력이 입력좌표의 입력에 해당하는 지 여부를 판단하고, 상기 터치입력이 입력좌표에 해당하는 경우, 촉각 인터페이스장치에서 입력되는 입력좌표를 상기 어플리케이션에서의 입력좌표로 변환할 수 있다.In the present invention, when the category of the input information is a touch input, the input information conversion step determines whether or not the touch input corresponds to the input of the input coordinates, and when the touch input corresponds to the input coordinates, The input coordinates input from the interface device can be converted into input coordinates in the application.

본 발명에서는, 상기 출력변환단계는 상기 어플리케이션으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 촉각그래픽데이터로 변환하는 촉각그래픽변환단계를 포함할 수 있다.In the present invention, the output conversion step may include a tactile graphic conversion step of converting a focus area including a part of the graphic display output from the application into tactile graphic data.

본 발명에서는, 상기 촉각그래픽변환단계는, 상기 어플리케이션으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 결정하는 포커스영역결정단계; 상기 포커스영역을 복수의 포커스부분영역으로 구분하는 포커스부분영역구분단계; 기설정된 변환규칙에 따라 각각의 포커스부분영역의 표시엘리먼트를 촉각그래픽엘리먼트로 변환하는 촉각그래픽엘리먼트변환단계; 및 상기 촉각그래픽엘리먼트를 포함하는 촉각그래픽데이터를 생성하는 촉각그래픽데이터생성단계;를 포함할 수 있다.In the present invention, the haptic graphic conversion step may include: a focus area determination step of determining a focus area including a part of the graphic display output from the application; A focus partial area dividing step of dividing the focus area into a plurality of focus partial areas; A tactile graphic element conversion step of converting a display element of each focus partial area into a tactile graphic element according to a predetermined conversion rule; And a tactile graphic data generation step of generating tactile graphic data including the tactile graphic element.

본 발명에서는, 상기 촉각 그래픽은 복수의 레이어를 포함하고, 상기 복수의 레이어 중 하나는 상기 어플리케이션으로부터 출력되는 상기 그래픽디스플레이의 화면을 변경시키는 명령을 실행하는 촉각 아이콘을 표시할 수 있다.In the present invention, the tactile graphics may include a plurality of layers, and one of the plurality of layers may display a tactile icon for executing a command to change a screen of the graphic display output from the application.

본 발명에서는, 상기 촉각 그래픽은 복수의 레이어를 포함하고, 상기 복수의 포커스부분영역은 상기 복수의 레이어에 대응할 수 있다.In the present invention, the tactile graphics may include a plurality of layers, and the plurality of focus partial areas may correspond to the plurality of layers.

상기와 같은 과제를 해결하기 위하여, 본 발명은 전자장치의 어플리케이션에 의하여 출력되는 그래픽디스플레이를 촉각에 의한 촉각 그래픽으로 변환하는 방법으로서, 상기 방법은 상기 어플리케이션으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 촉각그래픽데이터로 변환하는, 촉각 그래픽으로 변환하는 방법을 제공한다.In order to solve the above problems, A method for converting a graphical display output by an application of an electronic device into a tactile graphics by a tactile display, the method comprising: converting a focus area including a portion of a graphic display output from the application into tactile graphics data; And provides a method for converting.

본 발명에서는, 상기 방법은, 상기 어플리케이션으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 결정하는 포커스영역결정단계; 상기 포커스영역을 복수의 포커스부분영역으로 구분하는 포커스부분영역구분단계; 기설정된 변환규칙에 따라 각각의 포커스부분영역의 표시엘리먼트를 촉각그래픽엘리먼트로 변환하는 촉각그래픽엘리먼트변환단계; 및 상기 촉각그래픽엘리먼트를 포함하는 촉각그래픽데이터를 생성하는 촉각그래픽데이터생성단계;를 포함할 수 있다.In the present invention, the method may further include: a focus area determination step of determining a focus area including a part of the graphic display output from the application; A focus partial area dividing step of dividing the focus area into a plurality of focus partial areas; A tactile graphic element conversion step of converting a display element of each focus partial area into a tactile graphic element according to a predetermined conversion rule; And a tactile graphic data generation step of generating tactile graphic data including the tactile graphic element.

본 발명에서는, 상기 촉각 그래픽은 복수의 레이어를 포함하고, 상기 복수의 레이어 중 적어도 하나는 상기 어플리케이션으로부터 출력되는 상기 그래픽디스플레이의 화면을 변경시키는 명령을 실행하는 촉각 아이콘을 표시할 수 있다.In the present invention, the tactile graphics may include a plurality of layers, and at least one of the plurality of layers may display a tactile icon for executing a command to change a screen of the graphic display output from the application.

본 발명에서는, 상기 복수의 레이어 중 적어도 하나는 상기 어플리케이션으로부터 출력되는 촉각그래픽엘리먼트에 대한 세부정보를 점자형태로 표시할 수 있다.In the present invention, at least one of the plurality of layers may display detailed information about tactile graphic elements output from the application in braille form.

본 발명에서는, 상기 촉각 그래픽은 복수의 레이어를 포함하고, 상기 복수의 포커스부분영역은 상기 복수의 레이어에 대응할 수 있다.In the present invention, the tactile graphics may include a plurality of layers, and the plurality of focus partial areas may correspond to the plurality of layers.

상기와 같은 과제를 해결하기 위하여, 본 발명은 컴퓨터-판독가능 매체로서, In order to solve the above problems, the present invention provides a computer-

상기 컴퓨터-판독가능 매체는, 컴퓨터로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은: 사용자와 상호작용을 할 수 있는 촉각 인터페이스장치로부터의 입력을 전자장치에서 실행되는 어플리케이션으로의 입력으로 변환하는 입력변환단계; 및 상기 어플리케이션으로부터의 출력을 상기 촉각 인터페이스장치의 출력으로 변환하는 출력변환단계를 포함하는, 컴퓨터-판독가능 매체를 제공한다.The computer-readable medium stores instructions for causing a computer to perform the steps of: receiving input from a tactile interface device capable of interacting with a user to an application executing on the electronic device; An input conversion step of converting into an input; And an output conversion step of converting an output from the application into an output of the tactile interface device.

본 발명에서는, 상기 어플리케이션은 그래픽 입력, 편집, 및 저장의 기능을 수행할 수 있는 어플리케이션일 수 있다.In the present invention, the application may be an application capable of performing graphic input, editing, and storage functions.

상기와 같은 과제를 해결하기 위하여, 본 발명은 컴퓨터-판독가능 매체로서,In order to solve the above problems, 22. A computer-readable medium,

상기 컴퓨터-판독가능 매체는, 컴퓨터로 하여금 이하의 단계를 수행하도록 하는 명령들을 저장하며, 상기 단계는: 전자장치 내부에서 실행되는 어플리케이션으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 촉각그래픽데이터로 변환하는 단계를 포함하는, 컴퓨터-판독가능 매체를 제공한다.The computer-readable medium stores instructions that cause a computer to perform the steps of: receiving a focus area including a portion of a graphical display output from an application executing within an electronic device, To a computer-readable medium.

본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 시각장애인들로 하여금 실시간으로 촉각적으로 디스플레이되는 사항들을 직관적으로 인지할 수 있게 하는 효과를 발휘할 수 있다.The method, apparatus, and computer-readable medium for controlling a tactile interface device in accordance with the present invention can exert an effect of visually impaired persons intuitively recognizing tactile display items in real time.

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 시각장애인들로 하여금 촉각적으로 정보를 인지하면서 동시에 인지된 정보에 기반하여 즉각적으로 입력을 할 수 있는 효과를 발휘할 수 있다.In addition, the method, apparatus and computer-readable medium for controlling the tactile interface device according to the present invention allow the visually impaired to recognize the information tactually and at the same time instantly input based on the perceived information .

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 터치 및 제스처 인식이 가능한 촉각 디스플레이를 기반으로 시각장애인이 컴퓨터의 화면출력 정보를 점자, 음성 및 촉각 그래픽의 형태로 인지하고 이에 대한 즉각적이고 직관적 정보입력을 할 수 있게 하여 일반인과 매우 유사한 방식으로 컴퓨터를 효율적으로 사용할 수 있게 하는 효과를 발휘할 수 있다.In addition, the method, apparatus and computer-readable medium for controlling the tactile interface device according to the present invention can be applied to a tactile display capable of recognizing tactile and gesture- So that it is possible to promptly and intuitively input information to the user, so that the computer can be effectively used in a manner very similar to that of the general public.

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 OS의 다양한 기능들과 다양한 어플리케이션 소프트웨어 들을 사용할 수 있도록 쉽게 확장이 가능하다는 효과를 발휘할 수 있다.Further, the method, apparatus, and computer-readable medium for controlling the tactile interface device according to the present invention can exhibit the effect of being easily expandable to use various functions of the OS and various application software.

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 시각장애인들에게 종래의 스크린리더 등의 장치와 비교시 현저히 향상된 작업 수행속도 및 편의성을 제공할 수 있는 효과를 발휘할 수 있다.In addition, the method, apparatus and computer-readable medium for controlling the tactile interface device according to the present invention can provide a visually impaired person with a speedy and convenient operation speed that is remarkably improved in comparison with a device such as a screen reader of the related art .

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 시각장애인들이 스크린리더로는 수행하기 어려운 그래픽 관련 작업들을 편리하게 수행할 수 있는 효과를 발휘할 수 있다.In addition, the method, apparatus, and computer-readable medium for controlling the tactile interface device according to the present invention can exert the effect that the visually impaired persons can conveniently perform graphic related tasks that are difficult to perform with a screen reader.

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체에 의하면, WINDOWSTM 의 보조프로그램에 해당하는 '그림판'과 같은 프로그램도 시각장애인이 이용할 수 있다. 시각장애인은 상기 제2 레이어를 통하여 선을 포함하는 그림을 입력하고, 실시간으로 촉각을 이용하여 자신이 그린 그림을 인지할 수 있고, 인지된 그림정보에 기초하여 계속적으로 그림을 완성해나갈 수 있다.Further, according to a method, an apparatus and a computer-readable medium for controlling a tactile interface device according to the present invention, WINDOWS TM Programs such as 'Paint', which is an auxiliary program, are also available for the visually impaired. The blind can input a picture including the line through the second layer, recognize the picture drawn by himself / herself using the tactile sense in real time, and continue to complete the picture based on the recognized picture information .

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 시각장애인의 컴퓨터 활용능력을 크게 향상시키고, 시각장애인용 컴퓨터 하드웨어 및 소프트웨어 시장을 확대할 수 있는 효과를 발휘할 수 있다.Further, the method, apparatus and computer-readable medium for controlling the tactile interface device according to the present invention significantly improve the ability of the visually impaired to utilize the computer, and to expand the market for computer hardware and software for the visually impaired .

도 1은 본 발명의 일 실시예에 따른 촉각 인터페이스장치와 사용자단말기의 내부 구조를 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 촉각 인터페이스장치의 내부 구조를 개략적으로 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 촉각 인터페이스장치를 입체적으로 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 촉각디스플레이부를 입체적으로 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 핀구동모듈을 예들을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 핀구동모듈의 예의 단면을 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 입력센싱부의 평면을 개략적으로 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 입력센싱부의 측면을 개략적으로 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 촉각 인터페이스방법의 단계를 개략적으로 도시하는 도면이다.
도 10은 본 발명의 일 실시예에 따른 촉각디스플레이단계의 세부단계를 개략적으로 도시하는 도면이다.
도 11은 본 발명의 일 실시예에 따른 입력센싱단계의 세부단계를 개략적으로 도시하는 도면이다.
도 12는 본 발명의 일 실시예에 따른 촉각 인터페이스장치의 사용예를 도시하는 도면이다.
도 13은 본 발명의 일 실시예에 따른 촉각 인터페이스장치를 제어하는 전자장치와 촉각 인터페이스장치의 연결예를 개략적으로 도시하는 도면이다.
도 14는 본 발명의 일 실시예에 따른 촉각 인터페이스장치를 제어하는 전자장치의 내부 구조를 개략적으로 도시하는 도면이다.
도 15는 본 발명의 일 실시예에 따른 촉각 인터페이스장치를 제어하는 방법의 단계를 개략적으로 도시하는 도면이다.
도 16은 본 발명의 일 실시예에 따른 입력변환단계의 과정들을 개략적으로 도시하는 도면이다.
도 17은 본 발명의 일 실시예에 따른 출력변환단계의 과정들을 개략적으로 도시하는 도면이다.
도 18은 본 발명의 일 실시예에 따른 촉각그래픽변환단계의 과정들을 개략적으로 도시하는 도면이다.
도 19는 본 발명의 일 실시예에 따른 촉각그래픽을 개략적으로 도시하는 도면이다.
도 20은 본 발명의 일 실시예에 따른 촉각아이콘들의 테이블을 도시하는 도면이다.
도 21은 전자장치의 표시화면의 제1 예를 도시하는 도면이다.
도 22는 도 21에 도시된 표시화면의 제1 예를 본 발명의 일 실시예에 따라 촉각그래픽으로 변환하여 출력한 촉각그래픽을 도시하는 도면이다.
도 23은 전자장치의 표시화면의 제2 예를 도시하는 도면이다.
도 24는 도 23에 도시된 표시화면의 제2 예를 본 발명의 일 실시예에 따라 촉각그래픽으로 변환하여 출력한 촉각그래픽을 도시하는 도면이다.
도 25는 본 발명의 일 실시예에 따른 촉각 인터페이스장치로 시각장애인이 그림을 그리는 과정을 개략적으로 도시하는 도면이다.
1 is a schematic view illustrating an internal structure of a tactile interface device and a user terminal according to an exemplary embodiment of the present invention.
FIG. 2 is a schematic view illustrating an internal structure of a tactile display device according to an exemplary embodiment of the present invention. Referring to FIG.
FIG. 3 is a three-dimensional view illustrating a tactile interface device according to an embodiment of the present invention.
4 is a three-dimensional view illustrating a tactile display unit according to an embodiment of the present invention.
5 is a diagram illustrating examples of a pin driving module according to an embodiment of the present invention.
6 is a cross-sectional view of an example of a pin drive module according to an embodiment of the present invention.
7 is a view schematically showing a plane of an input sensing unit according to an embodiment of the present invention.
8 is a schematic view illustrating a side surface of an input sensing unit according to an embodiment of the present invention.
9 is a diagram schematically illustrating steps of a tactile interface method according to an embodiment of the present invention.
10 is a view schematically showing detailed steps of a tactile display step according to an embodiment of the present invention.
11 is a diagram schematically illustrating detailed steps of an input sensing step according to an embodiment of the present invention.
12 is a diagram showing an example of using a tactile interface device according to an embodiment of the present invention.
13 is a view schematically showing an example of connection between an electronic device for controlling a tactile interface device according to an embodiment of the present invention and a tactile interface device.
14 is a view schematically showing an internal structure of an electronic device for controlling a tactile interface device according to an embodiment of the present invention.
15 is a diagram schematically illustrating the steps of a method for controlling a tactile interface device according to an embodiment of the present invention.
16 is a diagram schematically illustrating the steps of an input conversion step according to an embodiment of the present invention.
17 is a view schematically showing the processes of the output conversion step according to an embodiment of the present invention.
18 is a view schematically showing the steps of the tactile graphic conversion step according to an embodiment of the present invention.
19 is a view schematically showing a tactile graphics according to an embodiment of the present invention.
20 is a table showing a table of tactile icons according to an embodiment of the present invention.
21 is a diagram showing a first example of a display screen of the electronic device.
FIG. 22 is a diagram showing a tactile graphics outputted by converting a first example of the display screen shown in FIG. 21 into a tactile graphics according to an embodiment of the present invention.
23 is a diagram showing a second example of a display screen of the electronic device.
FIG. 24 is a diagram showing a tactile graphics output by converting a second example of the display screen shown in FIG. 23 into a tactile graphics according to an embodiment of the present invention.
FIG. 25 is a view schematically showing a process of drawing a picture by a blind person with a tactile interface device according to an embodiment of the present invention.

다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.Various embodiments and / or aspects are now described with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of one or more aspects. However, it will also be appreciated by those of ordinary skill in the art that such aspect (s) may be practiced without these specific details. The following description and the annexed drawings set forth in detail certain illustrative aspects of one or more aspects. It is to be understood, however, that such aspects are illustrative and that some of the various ways of practicing various aspects of the principles of various aspects may be utilized, and that the description set forth is intended to include all such aspects and their equivalents.

또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.In addition, various aspects and features will be presented by a system that may include multiple devices, components and / or modules, and so forth. It should be understood that the various systems may include additional devices, components and / or modules, etc., and / or may not include all of the devices, components, modules, etc. discussed in connection with the drawings Must be understood and understood.

본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, the terms "an embodiment," "an embodiment," " an embodiment, "" an embodiment ", etc. are intended to indicate that any aspect or design described is better or worse than other aspects or designs. . As used herein, the terms 'component,' 'module,' 'system,' 'interface,' and the like generally refer to a computer-related entity and include, for example, hardware, It can mean software.

더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다. In addition, the term "or" is intended to mean " exclusive or " That is, it is intended to mean one of the natural inclusive substitutions "X uses A or B ", unless otherwise specified or unclear in context. That is, X uses A; X uses B; Or when X uses both A and B, "X uses A or B" can be applied to either of these cases. It should also be understood that the term "and / or" as used herein refers to and includes all possible combinations of one or more of the listed related items.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.It is also to be understood that the term " comprises "and / or" comprising " means that the feature and / or component is present, but does not exclude the presence or addition of one or more other features, components and / It should be understood that it does not.

또한, 본 명세서에서 명백하게 다른 내용을 지시하지 않는 “한”과, “상기”와 같은 단수 표현들은 복수 표현들을 포함한다는 것이 이해될 수 있을 것이다. 따라서, 일 예로, “컴포넌트 표면(component surface)”은 하나 혹은 그 이상의 컴포넌트 표면들을 포함한다.It is also to be understood that the singular forms "a" and "an" above, which do not expressly state otherwise in this specification, include plural representations. Thus, in one example, a " component surface " includes one or more component surfaces.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Also, terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Also, the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, in the embodiments of the present invention, all terms used herein, including technical or scientific terms, unless otherwise defined, are intended to be inclusive in a manner that is generally understood by those of ordinary skill in the art to which this invention belongs. Have the same meaning. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and, unless explicitly defined in the embodiments of the present invention, are intended to mean ideal or overly formal .

촉각 인터페이스장치Tactile interface device

이하에서는 본 발명에 따른 방법, 장치 및 컴퓨터-판독가능 매체에서 제어 대상이 되는 촉각 인터페이스장치의 일예에 대하여 설명하도록 한다.Hereinafter, an example of a tactile-sensing interface device to be controlled in a method, an apparatus, and a computer-readable medium according to the present invention will be described.

도 1은 본 발명의 일 실시예에 따른 촉각 인터페이스장치(1000)와 사용자단말기의 내부 구조를 개략적으로 도시한 도면이다. 1 is a schematic view illustrating an internal structure of a tactile-sensing device 1000 and a user terminal according to an exemplary embodiment of the present invention.

도 1에 도시된 바와 같이, 촉각 인터페이스장치(1000)는 사용자단말기(A)와 유선적 혹은 무선적으로 접속되어, 데이터를 송수신할 수 있게 구성되고, 예를 들어 촉각 인터페이스장치(1000)는 사용자단말기(A)로부터의 그래픽 신호를 전송받아 촉각정보를 제공할 수 있다. 다만, 본 발명은 도 1과 달리 외부의 사용자 단말기 없이 촉각 인터페이스장치(1000) 자체가 독자적인 운영체제에 의하여 동작하고, 촉각 인터페이스장치(1000) 내부의 프로그램 및 내부의 메모리에 기초한 동작에 의하여 촉각 인터페이스장치(1000)가 작동할 수도 있다. 다만, 이 경우에도, 촉각 인터페이스장치(1000)에 통신기능이 구비될 수도 있다.As shown in FIG. 1, the tactile interface device 1000 is connected to the user terminal A in a pneumatic or wireless manner, and is configured to transmit and receive data. For example, And may receive the graphic signal from the terminal A to provide tactile information. However, unlike FIG. 1, the present invention differs from FIG. 1 in that the tactile interface apparatus 1000 itself operates by a proprietary operating system without an external user terminal, and is operated by a tactile interface apparatus (1000) may be operated. However, also in this case, the tactile-sensing interface apparatus 1000 may be provided with a communication function.

한편, 상기 사용자단말기(A)는 스마트 폰(smart phone)과, 태블릿(tablet) 개인용 컴퓨터(personal computer: PC, 이하 'PC'라 칭하기로 한다)와, 이동 전화기와, 화상 전화기와, 전자책 리더(e-book reader)와, 데스크 탑(desktop) PC와, 랩탑(laptop) PC와, 넷북(netbook) PC와, 개인용 복합 단말기(personal digital assistant: PDA, 이하 'PDA'라 칭하기로 한다)와, 휴대용 멀티미디어 플레이어(portable multimedia player: PMP, 이하 'PMP'라 칭하기로 한다)와, 엠피3 플레이어(mp3 player)와, 이동 의료 디바이스와, 카메라와, 웨어러블 디바이스(wearable device)(일 예로, 헤드-마운티드 디바이스(head-mounted device: HMD, 일 예로 'HMD'라 칭하기로 한다)와, 전자 의류와, 전자 팔찌와, 전자 목걸이와, 전자 앱세서리(appcessory)와, 전자 문신, 혹은 스마트 워치(smart watch) 등이 될 수 있다.Meanwhile, the user terminal A includes a smart phone, a tablet, a personal computer (PC), a mobile phone, a video phone, an electronic book An e-book reader, a desktop PC, a laptop PC, a netbook PC, a personal digital assistant (PDA) A portable multimedia player (PMP), an MP3 player, a mobile medical device, a camera, a wearable device (for example, a portable multimedia player (PMP) A head-mounted device (HMD), an electronic garment, an electronic bracelet, an electronic necklace, an electronic app apparel, an electronic tattoo, or a smart watch (smart watch) or the like.

본 발명의 일실시예에 따른 촉각 인터페이스장치(1000)는 도 1 혹은 도 3에 도시된 바와 같이, 외부장치접속부(1100), 촉각디스플레이부(1200), 입력센싱부(1300), 키보드부(1400), 제어부(1500), 및 스피커부(1600)를 포함한다. 촉각디스플레이부(1200)는 컴퓨터가 모니터로 출력하는 시각 그래픽을 촉각 그래픽으로 변환하여 출력한다. 1 or 3, the tactile sensing apparatus 1000 according to an exemplary embodiment of the present invention includes an external device connection unit 1100, a tactile display unit 1200, an input sensing unit 1300, a keyboard unit 1400, a control unit 1500, and a speaker unit 1600. The tactile display unit 1200 converts a visual graphic output from a computer to a monitor into a tactile graphic and outputs the visual graphic.

한편, 상기 입력센싱부(1300)는 촉각디스플레이부(1200)와 결합되는 형태가 바람직하다. 이와 같은 입력센싱부(1300)는 촉각디스플레이부(1200)에서 출력된 촉각정보 혹은 촉각 그래픽 에 대한 시각장애인의 손가락 터치와 미리 정해진 다양한 제스처들을 인식하여 컴퓨터에 입력신호를 전달한다. 한편 키보드부(1400)는, 바람직하게는 현재 시각장애인들이 일반적으로 많이 사용하는 점자를 일반문자로 변환하여 컴퓨터에 문자 입력신호를 전달하는 점자키보드임이 바람직하다. The input sensing unit 1300 may be coupled to the tactile display unit 1200. The input sensing unit 1300 recognizes the tactile information output from the tactile display unit 1200 or the finger touch of the visually impaired person with respect to the tactile graphic and various predetermined gestures and transmits the input signal to the computer. Preferably, the keyboard unit 1400 is preferably a braille keyboard that converts character input signals to a computer by converting braille characters generally used by the visually impaired to general characters.

점자키보드는 기존에 널리 쓰이고 있는 점자키보드와 마찬가지로 점자를 입력 받아 촉각 인터페이스장치(1000) 혹은 촉각 인터페이스장치(1000)에 연결된 사용자 단말기에 전달한다. 점자키보드는 1~6점, 백스페이스, 스페이스, 엔터 버튼으로 구성되며, 점자는 여러 개의 점이 모여 하나의 글자를 구성하기 때문에 점자키보드는 동시에 눌린 버튼의 정보를 전송할 수 있다. 전송된 점자정보는 촉각 인터페이스장치(1000) 내부의 소프트웨어 혹은 사용자단말기의 소프트웨어를 통하여 일반문자(general character)로 점역된다.The braille keyboard transmits the braille to the user terminal connected to the tactile interface apparatus 1000 or the tactile interface apparatus 1000, as in the conventional braille keyboard. Braille keyboard consists of 1 ~ 6 points, backspace, space, and enter button. Braille consists of several dots to form one letter, so the braille keyboard can transmit information of pressed buttons at the same time. The transmitted braille information is transferred to the general character through the software in the tactile interface apparatus 1000 or the software of the user terminal.

따라서, 시각장애인을 위한 컴퓨터 입출력 기능을 위하여, 촉각디스플레이부(1200)는 일반 컴퓨터의 모니터와 같은 역할을 수행하고, 입력센싱부(1300)는 마우스 혹은 태블릿 PC의 터치스크린과 같은 역할을 수행하며, 키보드부(1400), 혹은 바람직하게는 점자키보드는 일반 컴퓨터의 키보드의 역할을 수행하게 된다. Therefore, for the computer input / output function for the visually impaired, the tactile display unit 1200 plays the same role as the monitor of the general computer, and the input sensing unit 1300 functions as the touch screen of the mouse or the tablet PC The keyboard unit 1400, or preferably the braille keyboard serves as a keyboard of a general computer.

도 2는 본 발명의 일 실시예에 따른 촉각 인터페이스장치(1000)의 내부 구조를 개략적으로 도시한 도면이다.FIG. 2 is a schematic view illustrating an internal structure of a tactile display device 1000 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 촉각 인터페이스장치(1000)는 접속된 외부장치로부터 전송받은 데이터 혹은 상기 촉각 인터페이스장치(1000) 내부에서 생성된 데이터에 기초하여, 복수의 핀으로 사용자에게 촉각정보를 제공하는 촉각디스플레이부(1200); 사용자 입력을 센싱하는 입력센싱부(1300); 외부장치와 접속할 수 있는 외부장치접속부(1100); 사용자로부터 키입력 형태로 정보를 입력받을 수 있는 키보드부(1400); 외부로 사운드 출력을 할 수 있는 스피커부(1600); 및 상기 촉각디스플레이부(1200), 상기 입력센싱부(1300), 상기 외부장치접속부(1100), 상기 키보드부(1400), 및 상기 스피커부(1600)의 작동을 제어하는 제어부(1500);를 포함한다.The tactile interface apparatus 1000 according to an embodiment of the present invention provides tactile information to a user through a plurality of pins based on data received from a connected external device or data generated in the tactile interface apparatus 1000 A tactile display unit 1200; An input sensing unit 1300 for sensing a user input; An external device connection unit 1100 that can be connected to an external device; A keyboard unit 1400 for receiving information from a user in a key input form; A speaker unit 1600 capable of outputting sounds to the outside; And a control unit 1500 for controlling operations of the tactile display unit 1200, the input sensing unit 1300, the external device connection unit 1100, the keyboard unit 1400, and the speaker unit 1600 .

상기 촉각디스플레이부(1200)는 1 이상의 차원의 촉각픽셀로 촉각정보를 제공하고, 상기 촉각픽셀은 압전세라믹 및 탄성체를 포함하는 트랜스듀서에 전원을 인가함으로써 상하로 이동하는 복수의 핀에 의하여 구성된다. 바람직하게는 상기 촉각픽셀은 2차원으로 촉각정보를 제공한다.The tactile display unit 1200 provides tactile information with at least one dimensional tactile pixel, and the tactile pixel is constituted by a plurality of pins moving up and down by applying power to a transducer including a piezoelectric ceramics and an elastic body . Preferably, the tactile pixel provides tactile information in two dimensions.

이와 같은 촉각디스플레이부(1200)는, 외부의 사용자단말기로부터 전송받은 데이터에 기초거나 혹은 촉각 인터페이스장치(1000) 내부에서 생성된 데이터를 입력받는 표시데이터수신부(1210); 상기 데이터를 촉각디스플레이데이터로 변환하는 촉각데이터변환부(1220); 및 상기 촉각디스플레이데이터에 의하여 구동하는 복수의 핀구동모듈(1230); 및 촉각디스플레이부(1200)를 구동하는 전원을 공급받는 구동전원공급부(1240);를 포함하고, 입력받은 데이터에 기초하여 촉각정보 혹은 촉각 그래픽을 제공한다.The tactile display unit 1200 includes a display data receiving unit 1210 that receives data received from an external user terminal or receives data generated in the tactile interface apparatus 1000; A tactile data converter 1220 for converting the data into tactile display data; And a plurality of pin driving modules (1230) driven by the tactile display data; And a driving power supply unit 1240 which is supplied with power for driving the tactile display unit 1200, and provides tactile information or tactile graphics based on the input data.

한편, 상기 입력센싱부(1300)는, 복수의 광을 에미팅(emitting)하고, 에미팅된 복수의 광을 센싱하고, 물리적인 차단으로 에미팅된 광의 센싱값이 변화하는 경우, 변화된 센싱값을 갖는 광의 위치정보로부터 사용자 입력을 센싱한다.Meanwhile, the input sensing unit 1300 emits a plurality of lights, senses a plurality of emitted lights, and when the sensing value of the light emitted by the physical interception changes, the changed sensing value From the position information of the light having the light source.

구체적으로, 상기 입력센싱부(1300)는 위치감지모듈(1310); 및 위치결정부(1320)를 포함하고, 상기 위치감지모듈(1310)은 복수의 광에미터 및 복수의 수광센서를 포함하고, 상기 위치결정부(1320)는 상기 복수의 수광센서의 센싱 데이터로부터 사용자 입력을 센싱한다.Specifically, the input sensing unit 1300 includes a position sensing module 1310; And a positioning unit 1320. The position sensing module 1310 includes a plurality of light emitters and a plurality of light receiving sensors, and the positioning unit 1320 receives the sensing data from the plurality of light receiving sensors Sensing user input.

바람직하게는 상기 입력센싱부(1300)에서 사용되는 광은 적외선이고, 상기 광은 일정 단면에 조사하는 형태로 에미팅됨이 바람직하다. Preferably, the light used in the input sensing unit 1300 is infrared rays, and the light is emitted in a form of irradiating a certain cross section.

이와 같은 입력센싱부(1300)는 상기 촉각디스플레이부(1200) 혹은 상기 촉각디스플레이부(1200)의 핀구동모듈(1230)에 인접하게, 혹은 더욱 바람직하게는 결합되어 배치된다. 따라서, 사용자는 촉각디스플레이부(1200)로부터 제공되는 촉각정보 혹은 촉각 그래픽을 촉각으로서 인지하고 바로 촉각디스플레이 상에서 입력 혹은 제스처 등을 수행할 수 있다.The input sensing unit 1300 may be disposed adjacent to, or more preferably, coupled to the tactile display unit 1200 or the pin driving module 1230 of the tactile display unit 1200. Accordingly, the user can recognize the tactile information or the tactile graphic provided from the tactile display unit 1200 as a tactile sense, and can perform an input, a gesture or the like directly on the tactile display.

다만, 사용자가 상기 입력센싱부(1300)로 입력을 수행하는 경우, 사용자의 손가락이 촉각디스플레이부(1200)의 핀구동모듈(1230)에 강하게 접촉이 되어 핀구동모듈(1230)이 손상되는 것을 방지하기 위하여, 상기 입력센싱부(1300)의 상기 위치감지모듈(1310)은 상기 핀구동모듈(1230)로부터 이격되어 배치됨이 바람직하다. 혹은, 사용자가 입력센싱부(1300)에 입력할 수 있는 영역은 상기 핀구동모듈(1230)의 작동영역으로부터 이격되어 있음이 바람직하다. 혹은, 사용자가 입력센싱부(1300)에 입력할 수 있는 영역은 핀구동모듈(1230)이 상승하였을 때 높이보다 높은 높이에 배치됨이 바람직하다.However, when the user performs input to the input sensing unit 1300, the finger of the user is strongly contacted to the pin driving module 1230 of the tactile display unit 1200 to damage the pin driving module 1230 The position sensing module 1310 of the input sensing unit 1300 may be spaced apart from the pin driving module 1230. [ Alternatively, the area that the user can input to the input sensing unit 1300 is preferably spaced apart from the operating area of the pin driving module 1230. Alternatively, the area that the user can input to the input sensing unit 1300 is preferably arranged at a height higher than the height when the pin driving module 1230 is lifted.

한편, 상기 복수의 광에미터는 제1축 및 제2축을 따라 배치되어 있고, 상기 복수의 수광센서는 제1축 및 제2축을 따라 배치되어 있는 것이 바람직하고, 상기 복수의 수광센서는 상기 복수의 광에미터에 대응되도록 배치됨이 더욱 바람직하다.Preferably, the plurality of light emitters are arranged along a first axis and a second axis, and the plurality of light receiving sensors are arranged along a first axis and a second axis, and the plurality of light receiving sensors include the plurality Is arranged so as to correspond to the light emitter of the light source.

상기 외부장치접속부(1100)는 무선통신을 수행할 수 있는 통신모듈부(1110) 및 유선적으로 상기 외부장치와 접속할 수 있는 유선연결부(1120) 중 1 이상을 포함한다. 상기 통신모듈부(1110)는 블루투스(bluetooth) 통신 모듈, 지그비(zigbee) 통신 모듈, 적외선 통신 모듈, BLE(bluetooth low energy) 통신 모듈, 오디오 통신 모듈, LTE(long term evolution) 통신 모듈, 및 WiFi 통신 모듈, IrDA 기반의 적외선 통신 모듈, 무선 랜(WLAN), 와이브로(WiBro) 모듈, 무선 USB(Wireless USB) 모듈, 중 적어도 하나를 포함한다. 한편, 상기 유선연결부(1120)는 USB(Universal Serial Bus) 인터페이스를 이용한 연결모듈을 포함하는 것이 바람직하고, 이외의 데이터의 송수신을 수행할 수 있는 유선연결모듈이 이에 해당한다.The external device connection unit 1100 includes at least one of a communication module unit 1110 capable of performing wireless communication and a wired connection unit 1120 capable of wiredly connecting with the external device. The communication module 1110 includes a Bluetooth communication module, a Zigbee communication module, an infrared communication module, a Bluetooth low energy (BLE) communication module, an audio communication module, an LTE (long term evolution) A communication module, an IrDA-based infrared communication module, a wireless LAN (WLAN), a WiBro module, and a wireless USB (Wireless USB) module. The wired connection unit 1120 may include a connection module using a universal serial bus (USB) interface, and may be a wired connection module capable of transmitting and receiving data.

한편, 상기 스피커부(1600)는 촉각 인터페이스장치(1000)에서 촉각 디스플레이되는 정보, 문자정보, 혹은 상기 입력센싱부(1300)에 의하여 입력된 정보에 반응하여 출력되는 정보를 음성으로 읽어주는 기능을 수행할 수 있다. Meanwhile, the speaker unit 1600 may include a function of reading the tactile display information, character information, or information output in response to the information input by the input sensing unit 1300 by voice. Can be performed.

상기 제어부(1500)는 상기 촉각 인터페이스장치의 전체적인 작동이나, 상기 외부장치접속부(1100); 상기 키보드부(1400); 혹은 상기 스피커부(1600)의 작동을 제어한다. 예를 들어, 외부의 사용자 단말기로부터 데이터가 수신되는 경우 이를 촉각디스플레이부(1200)의 표시데이터수신부(1210)로 송신하고, 촉각디스플레이부(1200)의 작동을 명령한다. 혹은, 상기 입력센싱부(1300)로부터 사용자의 입력이 입력되는 경우, 제어부(1500)에서 입력을 처리하거나 혹은 상기 외부장치접속부(1100)를 통하여 연결된 사용자 단말기(A)로 입력신호를 전송한다.The controller 1500 controls the overall operation of the tactile interface device, the external device connection unit 1100; The keyboard unit 1400; Or controls the operation of the speaker unit 1600. For example, when data is received from an external user terminal, the data is transmitted to the display data receiving unit 1210 of the tactile display unit 1200, and the operation of the tactile display unit 1200 is commanded. Alternatively, when a user's input is input from the input sensing unit 1300, the control unit 1500 processes the input or transmits the input signal to the user terminal A connected through the external device connection unit 1100.

만약, 상기 촉각 디스플레이장치가 외부의 사용자 단말기와 접속되는 경우가 아니라, 자체적인 OS 와 어플리케이션으로 작동되는 경우, 자체적인 연산이 가능한 수준의 CPU 및 메모리 장치를 포함하고, 독립적으로 작동할 수 있다. 독립적으로 작동가능한 경우에도, 상기 촉각 디스플레이장치는 외부와 통신을 수행할 수도 있다.If the tactile display device is not connected to an external user terminal but operates with its own OS and applications, it can operate independently including a CPU and a memory device of a level that can perform its own operation. Even if it is operable independently, the tactile display device may perform communication with the outside.

도 3은 본 발명의 일 실시예에 따른 촉각 인터페이스장치(1000)를 입체적으로 도시한 도면이다.FIG. 3 is a three-dimensional view of a tactile display device 1000 according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명에 따른 촉각 인터페이스장치(1000)는 외부로 노출된 촉각디스플레이부(1200)의 구성요소, 구체적으로는 복수의 핀구동모듈(1230)로 픽셀형태의 촉각디스플레이를 제공한다. 이와 같은 촉각디스플레이부(1200)에 의하여 사용자는 촉각디스플레이부(1200)의 복수의 핀구동모듈(1230)을 촉각적으로 인지할 수 있다.3, the tactile display apparatus 1000 according to the present invention includes components of the tactile display unit 1200 exposed to the outside, in particular, a plurality of pin drive modules 1230, Lt; / RTI > With the tactile display unit 1200, the user can tactilely recognize the plurality of pin drive modules 1230 of the tactile display unit 1200.

한편, 사용자는 촉각적으로 촉각디스플레이를 인지하면서 동시에 상기 입력센싱부(1300)를 통하여 터치입력으로 명령 등을 입력할 수 있다. 여기서 '터치입력'은 협의로 해석되지 않고, 촉각디스플레이부의 핀구동모듈의 최상측의 핀을 살짝 터치하면서 입력하는 입력 및 상기 핀구동모듈의 최상측의 핀을 터치하지 않는 형태의 입력을 모두 포함한다.Meanwhile, the user can input a command or the like through touch input through the input sensing unit 1300 while recognizing the tactile display tactilely. Herein, the 'touch input' is not interpreted in a narrow sense and includes both an input for input while slightly touching the uppermost pin of the pin driving module of the tactile display unit and an input for not touching the uppermost pin of the pin driving module do.

바람직하게는, 사용자가 상기 입력센싱부(1300)로 입력을 수행하는 경우, 사용자의 손가락이 촉각디스플레이부(1200)의 핀구동모듈(1230)에 강하게 접촉이 되어 핀구동모듈(1230)이 손상되는 것을 방지하기 위하여, 바람직하게는, 본 발명에서의 입력센싱부(1300)는 일반적인 터치디스플레이에서 사용되는 촉각핀 표면의 정전용량 (electric capacity) 변화를 감지하는 정전용량 방식과는 달리 촉각핀들에 대한 터치와 관련없이 동작, 입력, 제스처 등이 인식 될 수 있도록 광 센싱기반, 더욱 바람직하게는 적외선 센싱기반의 비접촉 인식 방식을 도입하였다. 즉, 바람직하게는, 상기 입력센싱부는 비접촉방식으로 수행된다.The user's finger is strongly contacted to the pin drive module 1230 of the tactile display unit 1200 and the pin drive module 1230 is damaged The input sensing unit 1300 according to the present invention is different from the capacitive sensing method in which a change in electric capacity of the tactile pin surface used in a general touch display is detected, A non-contact recognition method based on optical sensing, more preferably, infrared sensing is introduced so that operation, input, gesture, etc. can be recognized regardless of a touch with respect to the touch. That is, preferably, the input sensing unit is performed in a non-contact manner.

본 명세서에서 비접촉방식의 센싱, 혹은 비접촉방식의 인식은 센싱을 하는 요소 혹은 센서에 물리적인 접촉을 하지 않더라도, 센싱을 하는 요소 혹은 센서가 물리적 동작 혹은 물리적 형태를 인식할 수 센싱방법을 지칭하고, 이러한 예로서 본 발명의 일 실시예에서는 적외선 센싱기반의 인식 방식을 사용한다.In this specification, non-contact sensing or non-contact sensing refers to a sensing method in which a sensing element or sensor can recognize a physical operation or a physical form even if the sensing element does not physically contact the sensing element or sensor, As an example of this, an embodiment of the present invention uses an infrared sensing based recognition method.

또한, 도 3에 도시된 바와 같이 상기 입력센싱부(1300)의 상기 위치감지모듈(1310)은 상기 핀구동모듈(1230)로부터 이격되어 배치됨이 바람직하다. 혹은, 사용자가 입력센싱부(1300)에 입력할 수 있는 영역은 상기 핀구동모듈(1230)의 작동영역으로부터 이격되어 있음이 바람직하다. 혹은, 사용자가 입력센싱부(1300)에 입력할 수 있는 영역은 핀구동모듈(1230)이 상승하였을 때 높이보다 높은 높이에 배치됨이 바람직하다. Also, as shown in FIG. 3, the position sensing module 1310 of the input sensing unit 1300 may be spaced apart from the pin driving module 1230. Alternatively, the area that the user can input to the input sensing unit 1300 is preferably spaced apart from the operating area of the pin driving module 1230. Alternatively, the area that the user can input to the input sensing unit 1300 is preferably arranged at a height higher than the height when the pin driving module 1230 is lifted.

한편, 사용자는 구체적인 정보를 입력하기 위하여, 예를 들어 텍스트 정보를 입력하기 위하여 키보드부(1400)를 통하여, 상기 촉각 인터페이스장치(1000)에 정보 입력을 수행할 수 있다.Meanwhile, the user can input information to the tactile interface apparatus 1000 through the keyboard unit 1400, for example, to input text information in order to input specific information.

또한, 텍스트의 음성 혹은 사운드 정보를 사용자에게 출력하기 위하여, 상기 촉각 인터페이스장치(1000)는 스피커부(1600)를 통하여 사용자에게 음성정보를 출력할 수 있다.In addition, in order to output voice or sound information of text to the user, the tactile sensing interface apparatus 1000 may output voice information to the user through the speaker unit 1600. [

도 3에 도시된 바와 같이, 촉각 인터페이스장치(1000)는 유선연결부(1120)를 통하여 외부의 사용자단말기에 접속하거나 혹은 통신모듈부(1110)를 통하여 무선통신으로 외부의 사용자단말기에 접속할 수 있다. 이 경우, 사용자단말기에서의 GUI 요소들을 촉각 인터페이스장치(1000)에서 촉각적으로 표시하고, 사용자는 GUI 요소들에 대한 반응 혹은 입력을 상기 입력센싱부(1300) 혹은 키보드를 통하여 입력할 수 있다. 또한, 사용자가 상기 입력센싱부(1300)를 통하여 입력한 명령에 따라서, 상기 촉각 인터페이스장치(1000)는 상기 촉각디스플레이부(1200) 혹은 스피커부(1600)에 따라 출력을 할 수도 있기 때문에, 시각장애인의 경우 그래픽 화면 기반의 PC 등의 사용자 단말기를 보다 직관적으로 이용할 수 있다.3, the tactile sensing apparatus 1000 may be connected to an external user terminal through a wired connection unit 1120 or may be connected to an external user terminal by wireless communication through a communication module unit 1110. [ In this case, the GUI elements in the user terminal are tactually displayed in the tactile interface apparatus 1000, and the user can input a response or input to the GUI elements through the input sensing unit 1300 or the keyboard. Since the tactile display device 1000 can output according to the tactile display unit 1200 or the speaker unit 1600 according to a command input by the user through the input sensing unit 1300, In the case of the disabled, a user terminal such as a PC based on a graphic screen can be used more intuitively.

또한, 이와 같은 촉각 인터페이스장치(1000)는 단순히 시각장애인이 촉각정보를 인지하는 것에 한정되는 것이 아니라, 촉각정보를 인지하고 그에 따라 직관적으로 촉각 인터페이스장치(1000)에 명령 등의 입력을 수행할 수 있고, 이는 결과적으로 그래픽 화면 기반의 PC 등의 사용자 단말기를 일반인과 같은 편의성으로 사용할 수 있는 효과를 발휘할 수 있다.In addition, the tactile interface apparatus 1000 is not limited to simply recognizing the tactile information, but can recognize the tactile information and intuitively input commands or the like to the tactile interface apparatus 1000 As a result, it is possible to use a user terminal such as a PC based on a graphic screen as a convenience to the general public.

도 4는 본 발명의 일 실시예에 따른 촉각디스플레이부(1200)를 입체적으로 도시한 도면이다.4 is a three-dimensional view illustrating a tactile display unit 1200 according to an embodiment of the present invention.

상기 촉각디스플레이부(1200)는 1 이상의 차원의 촉각픽셀을 표시 혹은 제공할 수 있다. 도 4에서는 2차원의 촉각픽셀을 제공할 수 있는 촉각디스플레이부(1200)의 일 예를 도시한다. 상기 촉각픽셀은 압전세라믹 및 탄성체를 포함하는 트랜스듀서에 전원을 인가함으로써 상하로 이동하는 복수의 핀에 의하여 구성된다. The tactile display unit 1200 may display or provide tactile pixels of one or more dimensions. FIG. 4 shows an example of a tactile display unit 1200 capable of providing two-dimensional tactile pixels. The tactile pixel is constituted by a plurality of pins moving up and down by applying power to a transducer including a piezoelectric ceramic and an elastic body.

구체적으로, 상기 촉각픽셀은 복수의 핀구동모듈 그룹에 의하여 표시되고, 각각의 상기 핀구동모듈 그룹은 복수의 핀구동모듈(1230)로 이루어진다. 혹은 전체의 핀구동모듈이 하나의 핀구동모듈 그룹을 구성할 수도 있다. Specifically, the tactile pixel is represented by a plurality of pin driving module groups, and each of the pin driving module groups is made up of a plurality of pin driving modules 1230. Alternatively, the entire pin drive module may constitute one pin drive module group.

구체적으로, 상기 촉각디스플레이부(1200)는 마스터보드(1250); 상기 마스터보드(1250)에 전기적으로 접속되고, 촉각디스플레이를 위한 1차데이터를 수신하는 표시데이터수신부(1210); 상기 표시데이터수신부(1210)로부터 전송받은 상기 1차데이터를 촉각디스플레이를 위한 데이터로 변환하는, 촉각데이터변환부(1220); 상기 마스터보드(1250)에 전기적으로 접속되는 복수의 슬레이브보드(1260); 및 상기 복수의 슬레이브보드(1260) 각각의 외면에 배치된 복수의 핀구동모듈(1230); 및 상기 마스터보드(1250)를 통하여 위의 구성요소들에게 구동전원을 공급하는 구동전원공급부(1240)를 포함한다. Specifically, the tactile display unit 1200 includes a master board 1250; A display data receiving unit (1210) electrically connected to the master board (1250) and receiving primary data for tactile display; A tactile data converter 1220 for converting the primary data received from the display data receiver 1210 into data for tactile display; A plurality of slave boards 1260 electrically connected to the master board 1250; And a plurality of pin driving modules (1230) disposed on an outer surface of each of the plurality of slave boards (1260); And a driving power supply unit 1240 for supplying driving power to the above components through the master board 1250.

상기 구동전원공급부(1240)는 외부로부터 공급받은 전원을 상기 마스터보드(1250)에 입력하는 형태임이 바람직하다.The driving power supply unit 1240 preferably receives power supplied from the outside to the master board 1250.

한편, 상기 촉각데이터변환부(1220)는 상기 마스터보드(1250)에 배치되는 제1 촉각데이터변환부(1221); 및 상기 슬레이브보드(1260)에 배치되는 제2 촉각데이터변환부(1222)를 포함하고, 상기 제1 촉각데이터변환부(1221)는 상기 1차데이터를 각각의 슬레이브보드(1260)에 대한 촉각데이터로서의 2차데이터로 변환하고, 상기 제2 촉각데이터변환부(1222)는 상기 2차데이터를 각각의 슬레이브보드(1260)에 배치된 복수의 핀구동모듈(1230)의 그룹을 구동하기 위한 3차데이터로 변환한다. The tactile data converting unit 1220 includes a first tactile data converting unit 1221 arranged on the master board 1250, And a second tactile data converter 1222 disposed in the slave board 1260. The first tactile data converter 1221 converts the primary data into tactile data for each slave board 1260, And the second tactile data converting unit 1222 converts the secondary data into third data for driving a group of the plurality of pin driving modules 1230 disposed in each slave board 1260, Data.

상기 촉각디스플레이부(1200)는 다중 배열로 구성된 핀구동모듈(1230)의 핀의 상하운동을 통해 시각 그래픽을 촉각 그래픽 형태로 변환하여 전달하는 장치이다. 본 발명과 같은 촉각디스플레이부(1200)는, 전압을 인가하면 핀이 상승하고 전압이 인가되지 않으면 핀이 하강하는 구조인 압전 바이모프에 의한 릴레이 메커니즘에 비하여, 추가적인 모듈의 구성이 필요하지 않기 때문에, 소형화가 가능하고 다중배열이 용이한 구조를 가진다. The tactile display unit 1200 converts a visual graphic into a tactile graphic form by vertically moving a pin of the pin driving module 1230 having a plurality of arrangements. Since the tactile display unit 1200 according to the present invention does not require the configuration of an additional module as compared with the relay mechanism based on the piezoelectric bimorph in which the pin rises when the voltage is applied and the pin is lowered when the voltage is not applied , It is possible to miniaturize and has a structure in which multiple arrangements are easy.

따라서, 본 발명에서와 같은 촉각디스플레이부(1200)는 장치의 소형화를 도모하면서 동시에 높은 해상도의 촉각디스플레이를 제공할 수 있는 효과를 발휘할 수 있다.Therefore, the tactile display unit 1200 as in the present invention can exhibit the effect of providing a high-resolution tactile display at the same time while reducing the size of the apparatus.

상기 마스터보드(1250)는 표시데이터수신부(1210)를 통해 입력된 촉각 그래픽 데이터를 수신하고, 이를 제1 촉각데이터변환부(1221)로 전달한다. 상기 표시데이터수신부(1210)는 UART (universal asynchronous receiver/transmitter)임이 바람직하고, 상기 제1 촉각데이터변환부(1221)는 MCU (Micro Controller Unit)임이 바람직하다.The master board 1250 receives the tactile graphic data input through the display data receiving unit 1210 and transmits the tactile graphic data to the first tactile data converting unit 1221. The display data receiving unit 1210 may be a universal asynchronous receiver / transmitter (UART), and the first tactile data converting unit 1221 may be an MCU (Micro Controller Unit).

바람직하게는, 상기 제1 촉각데이터변환부(1221)는 표시데이터수신부(1210)를 통해 입력된 촉각 그래픽 데이터를 분석하고, 이를 복수의 슬레이브보드(1260)로 전달한다. 이와 같은 전달에 있어서, 상기 제1 촉각데이터변환부(1221)는 상기 다수의 슬레이브보드(1260)의 정보에 기초하여 데이터를 변환한 후, 이를 슬레이브보드(1260)로 전달함이 바람직하다. The first tactile data converting unit 1221 analyzes the tactile graphic data input through the display data receiving unit 1210 and transmits the tactile graphic data to a plurality of slave boards 1260. In such a transmission, the first tactile data converter 1221 may convert data based on the information of the plurality of slave boards 1260, and then transmit the converted data to the slave board 1260.

혹은, 상기 제1 촉각데이터변환부(1221)는 상기 촉각 그래픽 데이터를 각각의 슬레이브보드(1260)에 해당하는 데이터로 변환을 수행하고, 각각의 변환된 데이터를 각각의 슬레이브보드(1260)로 전달할 수도 있다.Alternatively, the first tactile data converter 1221 may convert the tactile graphic data into data corresponding to the respective slave boards 1260, and may transmit the converted data to the respective slave boards 1260 It is possible.

혹은 상기 제1 촉각데이터변환부(1221) 없이, 상기 표시데이터수신부(1210)를 통하여 전달된 촉각 그래픽 데이터를 바로 슬레이브보드(1260)로 전달할 수도 있다.Alternatively, the tactile graphic data transmitted through the display data receiving unit 1210 may be directly transmitted to the slave board 1260 without the first tactile data converting unit 1221.

이후, 슬레이브보드(1260)에 내장된 제2 촉각데이터변환부(1222)는 사전에 프로그래밍 된 CPLD (Complex Programmable Logic Device)를 이용하여 상기 제1 촉각데이터변환부(1221)로부터 전달받은 데이터 혹은 상기 표시데이터수신부(1210)를 통하여 전달받은 데이터를 각각의 핀구동모듈(1230) 혹은 복수의 핀구동모듈(1230)로 구성된 각각의 핀구동모듈어레이에 따라 분리하고, 각각의 핀구동모듈(1230) 혹은 복수의 핀구동모듈(1230)로 구성된 핀구동모듈어레이에 동작신호를 전달한다. Then, the second tactile data converter 1222 incorporated in the slave board 1260 converts the data received from the first tactile data converter 1221 or the data received from the first tactile data converter 1221 using a previously programmed CPLD (Complex Programmable Logic Device) The data received through the display data receiving unit 1210 is divided according to each pin driving module array composed of the pin driving module 1230 or the plurality of pin driving modules 1230, Or to a pin drive module array composed of a plurality of pin drive modules 1230.

이와 같은 동작신호에 따라 핀구동모듈(1230)의 핀은 상하 운동을 할 수 있고, 바람직하게는 핀 간격 및 상승 높이는 1 mm ~ 10 mm의 범위에 있다.According to the operation signal, the pin of the pin driving module 1230 can move up and down. Preferably, the pin interval and the rising height are in the range of 1 mm to 10 mm.

도 5는 본 발명의 일 실시예에 따른 핀구동모듈(1230)을 예들을 도시한 도면이다.5 is a diagram illustrating examples of the pin driving module 1230 according to an embodiment of the present invention.

이하에서는, 도 5(A) 및 도 5(B)에 도시된 핀구동모듈(1230)의 실시예에 대하여 설명하도록 한다.Hereinafter, an embodiment of the pin drive module 1230 shown in Figs. 5A and 5B will be described.

도 5(A)에 도시된 바와 같이, 핀구동모듈(1230)은 각각, 진동운동을 선형운동으로 변환하는 트랜스듀서(1231); 상기 트랜스듀서에 연결되는 샤프트(1232); 상기 샤프트(1232) 상에서 상기 샤프트(1232)의 축 방향으로 상하 운동할 수 있는 이동체(1233); 및 상기 이동체(1233)의 움직임에 따라서 이동할 수 있는 핀(1234);을 포함한다.As shown in Fig. 5 (A), the pin drive module 1230 includes a transducer 1231 that converts a vibration motion to a linear motion; A shaft 1232 connected to the transducer; A moving body 1233 which can move up and down in the axial direction of the shaft 1232 on the shaft 1232; And a pin 1234 that can move according to the movement of the moving body 1233. [

바람직하게는, 상기 트랜스듀서(1231)는 복수의 압전세라믹 및 탄성체를 포함하고, 전원이 인가되는 경우 압전세라믹의 팽창/수축에 의한 진동을 선형으로 변환하여 상기 이동체(1233)를 상하로 이동시키고, 트랜스듀셔를 제어함으로써 상기 이동체(1233)의 움직임을 제어할 수 있다.Preferably, the transducer 1231 includes a plurality of piezoelectric ceramics and elastic bodies. When the power is applied, the transducer 1231 linearly converts vibrations due to expansion / contraction of the piezoelectric ceramics to move the moving body 1233 up and down , And the movement of the moving body 1233 can be controlled by controlling the transducer.

이하에서는, 도 5(C) 및 도 5(D)에 도시된 핀구동모듈(1230)의 실시예에 대하여 설명하도록 한다.Hereinafter, an embodiment of the pin drive module 1230 shown in Figs. 5 (C) and 5 (D) will be described.

도 5(C)에 도시된 바와 같이, 핀구동모듈(1230)은 각각, 진동운동을 선형운동으로 변환하는 트랜스듀서(1231); 상기 트랜스듀서에 연결되는 샤프트(1232); 상기 샤프트(1232) 상에서 상기 샤프트(1232)의 축 방향으로 상하 운동할 수 있는 이동체(1233); 및 상기 이동체(1233)의 움직임에 따라서 이동할 수 있는 핀(1234); 및 상기 샤프트(1232)를 감싸고 상기 핀(1234)의 일단이 삽입되는 케이싱부(1235)를 포함한다.As shown in FIG. 5C, the pin drive module 1230 includes a transducer 1231, which converts the oscillating motion into a linear motion; A shaft 1232 connected to the transducer; A moving body 1233 which can move up and down in the axial direction of the shaft 1232 on the shaft 1232; And a pin 1234 movable according to the movement of the moving body 1233; And a casing 1235 surrounding the shaft 1232 and having one end of the pin 1234 inserted therein.

바람직하게는, 상기 트랜스듀서(1231)는 복수의 압전세라믹 및 탄성체를 포함하고, 전원이 인가되는 경우 압전세라믹의 팽창/수축에 의한 진동을 선형으로 변환하여 상기 이동체(1233)를 상하로 이동시키고, 트랜스듀셔를 제어함으로써 상기 이동체(1233)의 움직임을 제어할 수 있다.Preferably, the transducer 1231 includes a plurality of piezoelectric ceramics and elastic bodies. When the power is applied, the transducer 1231 linearly converts vibrations due to expansion / contraction of the piezoelectric ceramics to move the moving body 1233 up and down , And the movement of the moving body 1233 can be controlled by controlling the transducer.

도 6은 본 발명의 일 실시예에 따른 핀구동모듈(1230)의 예의 단면을 도시한 도면이다.6 is a cross-sectional view of an example of a pin drive module 1230 according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 핀구동모듈(1230)의 트랜스듀서(1231)는 하우징(1231.1);하우징(1231.1) 내부에 배치되는 제1 압전세라믹(1231.2), 제2 압전세라믹(1231.4); 및 상기 제1 압전세라믹 및 제2 압전세라믹 사이에 배치된 탄성부재(1231.3)를 포함한다.6, the transducer 1231 of the pin drive module 1230 includes a housing 1231.1, a first piezoelectric ceramic 1231.2, a second piezoelectric ceramic 1231.4 disposed inside the housing 1231.1; And an elastic member 1231.3 disposed between the first piezoelectric ceramic and the second piezoelectric ceramic.

한편, 이동체(1233)는 이동체본체(1233.1) 및 상기 이동체본체(1233.1)의 내부에 배치되는 고무링(1233.2)을 포함한다.On the other hand, the moving body 1233 includes a moving body 1233.1 and a rubber ring 1233.2 disposed inside the moving body 1233.1.

이와 같은 구조에서 트랜스듀서(1231)의 제1 압전세라믹(1231.2) 및 제2 압전세라믹(1231.4)에 인가되는 전압을 제어함으로써 상기 이동체(1233)의 상하운동을 효율적으로 제어할 수 있다.By controlling the voltages applied to the first piezoelectric ceramic 1231.2 and the second piezoelectric ceramic 1231.4 of the transducer 1231 in this structure, the vertical movement of the moving body 1233 can be efficiently controlled.

도 7은 본 발명의 일 실시예에 따른 입력센싱부(1300)의 평면을 개략적으로 도시한 도면이다.7 is a diagram schematically showing a plane of the input sensing unit 1300 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 입력센싱부(1300)는 촉각디스플레이부(1200)에 의하여 출력된 촉각 그래픽에 대한 시각장애인들의 직관적인 상호작용 및 다양한 정보입력을 수행할 수 있다. 또한, 입력센싱부(1300)는 촉각디스플레이부(1200)에 손가락 터치인식장치를 결합하여 손가락 터치 및 손가락 제스처 인식 기능을 추가할 수 있다.The input sensing unit 1300 according to an exemplary embodiment of the present invention can perform intuitive interaction with the visually impaired persons and input various information about the tactile graphics output by the tactile display unit 1200. [ In addition, the input sensing unit 1300 may combine the finger touch recognition device with the tactile display unit 1200 to add a finger touch and a finger gesture recognition function.

본 발명에 따른 촉각 인터페이스장치(1000)는 태블릿 PC 등에서와 같은 일반적인 터치 디스플레이와는 달리 촉각핀들의 물리적인 상승에 의해 촉각 그래픽을 표현하고, 촉각핀들에 자기유지력(force gauge)을 초과하는 과도한 압력의 터치 동작이 가해지는 경우 출력된 촉각 그래픽 혹은 촉각정보가 훼손되어 정보인지에 혼란을 줄 수 있다. The tactile display device 1000 according to the present invention displays a tactile graphic by physically raising the tactile pins, unlike a general touch display such as a tablet PC or the like, and displays an excessive pressure The touch tactile graphic or tactile information output may be damaged and confuse the information.

따라서, 바람직하게는, 본 발명에서의 입력센싱부(1300)는 일반적인 터치디스플레이에서 사용되는 촉각핀 표면의 정전용량 (electric capacity) 변화를 감지하는 정전용량 방식과는 달리 촉각핀들에 대한 터치와 관계없이 동작, 입력, 제스처 등이 인식 될 수 있도록 광 센싱기반, 더욱 바람직하게는 적외선 센싱기반의 비접촉 인식 방식을 도입하였다. 즉, 바람직하게는, 상기 입력센싱부는 비접촉방식으로 수행된다.Accordingly, preferably, the input sensing unit 1300 of the present invention is different from the capacitance type sensing a change in electric capacity of a surface of a tactile pin used in a general touch display, A non-contact recognition method based on optical sensing, more preferably, infrared sensing is introduced so that operation, input, gesture, That is, preferably, the input sensing unit is performed in a non-contact manner.

본 명세서에서 비접촉방식의 센싱, 혹은 비접촉방식의 인식은 센싱을 하는 요소 혹은 센서에 물리적인 접촉을 하지 않더라도, 센싱을 하는 요소 혹은 센서가 물리적 동작 혹은 물리적 형태를 인식할 수 센싱방법을 지칭하고, 이러한 예로서 본 발명의 일 실시예에서는 적외선 센싱기반의 인식 방식을 사용한다.In this specification, non-contact sensing or non-contact sensing refers to a sensing method in which a sensing element or sensor can recognize a physical operation or a physical form even if the sensing element does not physically contact the sensing element or sensor, As an example of this, an embodiment of the present invention uses an infrared sensing based recognition method.

이와 같은 본 발명의 입력센싱부(1300)에 따르면, 상승된 촉각셀 핀들의 최대 높이보다 약간 높게 적외선 빔들이 투사될 수 있도록 설계하여, 촉각핀들의 상하운동과 관계 없이 출력된 촉각 그래픽 위에 가벼운 터치만으로 핀들의 상승상태를 훼손하지 않고 빠른 속도로 터치동작을 인식할 수 있는 효과를 발휘할 수 있다.According to the input sensing unit 1300 of the present invention, the infrared beams are designed to be projected slightly higher than the maximum height of the raised tactile cell pins, so that a light touch The touch operation can be recognized at a high speed without damaging the rising state of the pins.

또한, 촉각 핀들의 물리적인 걸림 없이 쓸기 (Swipe), 회전 등 다양한 터치기반 제스처들을 인식할 수 있어 시각장애인과 컴퓨터간의 상호작용을 한층 더 다양화 시킬 수 있다. 이와 같은 입력센싱부(1300)의 또 다른 장점으로는 분리가능한 방식으로 설계되어 기존의 다른 촉각 디스플레이들과도 쉽게 결합될 수 있어 확장성이 높아질 수 있는 효과를 발휘할 수 있다.In addition, various touch-based gestures such as swipe and rotation can be recognized without physical hitching of the tactile pins, thereby further diversifying the interaction between the visually impaired and the computer. Another advantage of the input sensing unit 1300 is that it is designed in a detachable manner so that it can be easily combined with other tactile displays.

상기 입력센싱부(1300)는, 복수의 광을 에미팅(emitting)하고, 에미팅된 복수의 광을 센싱하고, 물리적인 차단으로 에미팅된 광의 센싱값이 변화하는 경우, 변화된 센싱값을 갖는 광의 위치정보로부터 사용자 입력을 센싱한다.The input sensing unit 1300 emits a plurality of lights, senses a plurality of emit light, and when the sensed value of the light emitted by the physical interception changes, And senses the user input from the position information of the light.

여기서, 에미팅된 광의 센싱값이 변화하는 경우는 에미팅되는 광이 차단되어 광을 센싱하지 못하는 경우뿐만 아니라, 에미팅되는 광의 세기가 약해지는 것을 센싱하는 경우를 모두 포함한다.Here, when the sensed value of the emit light changes, both the case where the emitting light is intercepted and the light is not sensed, as well as the case where the intensity of the emitting light is weakened are all included.

바람직하게는 상기 입력센싱부(1300)에서 사용되는 광은 적외선이고, 광을 광을 일정 단면에 조사하는 형태로 광을 에미팅함이 바람직하다. Preferably, the light used in the input sensing unit 1300 is infrared rays, and emits light in the form of irradiating light on a certain cross section.

상기 입력센싱부(1300)는 상기 입력센싱부(1300)는 위치감지모듈(1310); 및 위치결정부(1320)를 포함하고, 상기 위치감지모듈(1310)은 복수의 광에미터 및 복수의 수광센서를 포함하고, 상기 위치결정부(1320)는 상기 복수의 수광센서의 센싱 데이터로부터 사용자 입력을 센싱한다.In the input sensing unit 1300, the input sensing unit 1300 includes a position sensing module 1310; And a positioning unit 1320. The position sensing module 1310 includes a plurality of light emitters and a plurality of light receiving sensors, and the positioning unit 1320 receives the sensing data from the plurality of light receiving sensors Sensing user input.

구체적으로, 상기 위치감지모듈(1310)은 제1축 광에미터(1311), 제2축 광에미터(1312), 제1축 수광센서(1313), 및 제2축 수광센서(1314)를 포함함이 바람직하다. 이와 같은 광에미터 및 수광센서의 구성으로 2차원의 촉각디스플레이 혹은 촉각픽셀을 구현할 수 있다.Specifically, the position sensing module 1310 includes a first axial light emitter 1311, a second axial light emitter 1312, a first axis light receiving sensor 1313, and a second axial light receiving sensor 1314 . A two-dimensional tactile display or a tactile pixel can be realized by the configuration of the light emitter and the light receiving sensor.

상기 제1축 수광센서(1313)는 제1축 광에미터(1311)의 위치로부터 에미팅되는 방향으로 기설정된 거리로 이격된 위치에서 배치되어 있고, 상기 제2축 수광센서(1314)는 제2축 광에미터(1312)의 위치로부터 에미팅되는 방향으로 기설정된 거리로 이격된 위치에서 배치되어 있다.The first axis light receiving sensor 1313 is disposed at a position spaced apart from the position of the first axial light emitter 1311 by a predetermined distance in a direction in which the second axial light receiving sensor 1313 emits from the position of the first axial light emitter 1311, Are arranged at a position spaced apart from the position of the biaxial light emitter 1312 by a predetermined distance in a direction to emit.

바람직하게는, 상기 복수의 제1축 수광센서(1313)는 각각 복수의 제1축 광에미터(1311)에 대응되도록 배치됨이 바람직하다. 예를들어, 제1축에 있어서 1번, 2번 3번, 4번 광에미터가 구비되는 경우, 1번 광에미터에 대응하는 1번 수광센서, 2번 광에미터에 대응하는 2번 수광센서, 3번 광에미터에 대응하는 3번 수광센서, 4번 광에미터에 대응하는 4번 수광센서를 구비함이 바람직하고, 하나의 수광센서는 대응되는 하나의 광에미터에서 에미팅되는 광을 센싱할 수 있음이 바람직하다. 이와 같은 배치에서는 제1축 광에미터(1311)의 개수 x 제2축 광에미터(1312)의 개수가 센싱할 수 있는 촉각픽셀의 해상도가 된다.Preferably, the plurality of first axis light receiving sensors 1313 are disposed so as to correspond to a plurality of first axial light emitters 1311, respectively. For example, when the first, second, third, and fourth light emitters are provided on the first axis, the first light receiving sensor corresponding to the first light emitter, the second light emitter corresponding to the second light emitter, It is preferable that a light receiving sensor 3, a light receiving sensor 3 corresponding to the light emitter 3 and a light receiving sensor 4 corresponding to the light emitter 4 are provided, and one light receiving sensor is preferably provided with a corresponding light emitter It is preferable to be able to sense light. In this arrangement, the number of the first axial light emitters 1311 x the number of the second axial light emitters 1312 becomes the resolution of the tactile pixel capable of sensing.

도 8은 본 발명의 일 실시예에 따른 입력센싱부(1300)의 측면을 개략적으로 도시한 도면이다.8 is a view schematically showing a side surface of the input sensing unit 1300 according to an embodiment of the present invention.

도 8에 도시된 바와 같이, 사용자의 손가락에 의하여 광에미터에 의하여 에미팅되는 광이 차단되는 경우, 대응하는 수광 센서에는 수신되는 광의 센싱값에 변화가 생기게 되고, 이를 기초로 사용자의 입력을 계산한다.As shown in FIG. 8, when the light emit by the light emitter is blocked by the user's finger, the sensed value of the light received is changed in the corresponding light receiving sensor, .

이와 같은 입력센싱부(1300)의 광에미터 및 수광센서는 상기 촉각디스플레이부(1200) 혹은 상기 촉각디스플레이부(1200)의 핀구동모듈(1230)에 인접하게, 혹은 더욱 바람직하게는 결합되어 배치된다. 따라서, 사용자는 촉각디스플레이부(1200)로부터 제공되는 촉각정보 혹은 촉각 그래픽을 촉각으로서 인지하고 바로 촉각디스플레이 상에서 입력 혹은 제스처 등을 수행할 수 있다.The light emitter and the light receiving sensor of the input sensing unit 1300 may be disposed adjacent to or more preferably in the tactile display unit 1200 or the pin driving module 1230 of the tactile display unit 1200 do. Accordingly, the user can recognize the tactile information or the tactile graphic provided from the tactile display unit 1200 as a tactile sense, and can perform an input, a gesture or the like directly on the tactile display.

다만, 사용자가 상기 입력센싱부(1300)로 입력을 수행하는 경우, 사용자의 손가락이 촉각디스플레이부(1200)의 핀구동모듈(1230)에 강하게 접촉이 되어 핀구동모듈(1230)이 손상되는 것을 방지하기 위하여, 상기 입력센싱부(1300)의 상기 위치감지모듈(1310)은 상기 핀구동모듈(1230)로부터 이격되어 배치됨이 바람직하다. 혹은, 사용자가 입력센싱부(1300)에 입력할 수 있는 영역은 상기 핀구동모듈(1230)의 작동영역으로부터 이격되어 있음이 바람직하다. 혹은, 사용자가 입력센싱부(1300)에 입력할 수 있는 영역은 핀구동모듈(1230)이 상승하였을 때 높이보다 높은 높이에 배치됨이 바람직하다.However, when the user performs input to the input sensing unit 1300, the finger of the user is strongly contacted to the pin driving module 1230 of the tactile display unit 1200 to damage the pin driving module 1230 The position sensing module 1310 of the input sensing unit 1300 may be spaced apart from the pin driving module 1230. [ Alternatively, the area that the user can input to the input sensing unit 1300 is preferably spaced apart from the operating area of the pin driving module 1230. Alternatively, the area that the user can input to the input sensing unit 1300 is preferably arranged at a height higher than the height when the pin driving module 1230 is lifted.

구체적으로, 상기 핀구동모듈(1230)의 핀들이 상하 운동을 할 수 있는 홀을 복수로 구비하는 캡레이어(1201)로부터 핀의 최대상승 높이(H1)는 캡레이어(1201)로부터 광에미터의 높이, 더욱 바람직하게는 캡레이어로부터 광에미터로부터 조사되는 광의 최하단 영역까지의 높이(H2)보다 낮음이 바람직하다.The maximum height H1 of the pins from the cap layer 1201 having a plurality of holes in which the pins of the pin driving module 1230 can move up and down can be obtained from the cap layer 1201 And more preferably lower than the height H2 from the cap layer to the lowermost region of the light emitted from the light emitter.

도 9는 본 발명의 일 실시예에 따른 촉각 인터페이스방법의 단계를 개략적으로 도시하는 도면이다.9 is a diagram schematically illustrating steps of a tactile interface method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 사용자와 상호작용을 할 수 있는 촉각 인터페이스방법은 접속된 외부장치로부터 전송받은 1차 데이터 혹은 촉각 인터페이스장치(1000) 내부에서 생성된 1차 데이터에 기초하여, 복수의 핀에 의하여 사용자에게 촉각정보를 제공하는 디스플레이를 정보를 제공하는 촉각디스플레이단계(S10); 및 비접촉 방식으로 사용자 입력을 센싱하는 입력센싱단계(S20);를 포함한다.The tactile interface method capable of interacting with a user according to an embodiment of the present invention is a method of interacting with a user by using first data received from a connected external device or first data generated in the tactile interface device 1000, A tactile display step (SlO) for providing information to a display providing tactile information to a user by means of a pin; And an input sensing step (S20) of sensing a user input in a non-contact manner.

바람직하게는, 상기 촉각디스플레이단계 및 상기 입력센싱단계는 실시간으로 수행됨으로써, 단순히 시각장애인이 촉각정보를 인지하는 것에 한정되는 것이 아니라, 촉각정보를 인지하고 이에 반응하여 실시간으로 직관적으로 촉각 인터페이스장치(1000)에 명령 등의 입력을 수행할 수 있고, 이는 결과적으로 그래픽 화면 기반의 PC 등의 사용자 단말기를 일반인과 같은 편의성으로 사용할 수 있는 효과를 발휘할 수 있다.Preferably, the tactile display step and the input sensing step are performed in real time, so that they are not limited to simply recognizing the tactile information by the visually impaired person, but can recognize the tactile information and respond intuitively to the tactile interface device 1000). As a result, it is possible to use a user terminal such as a PC based on a graphic screen as a convenience to the general public.

도 10은 본 발명의 일 실시예에 따른 촉각디스플레이단계의 세부단계를 개략적으로 도시하는 도면이다.10 is a view schematically showing detailed steps of a tactile display step according to an embodiment of the present invention.

상기 촉각디스플레이단계(S10)는, 압전세라믹 및 탄성체를 포함하는 트랜스듀서에 전원을 인가함으로써 상하로 이동하는 복수의 핀으로 표시되는 촉각픽셀에 의하여 촉각정보를 제공한다.The tactile display step S10 provides tactile information by tactile pixels represented by a plurality of pins moving up and down by applying power to a transducer including a piezoelectric ceramic and an elastic body.

구체적으로 촉각디스플레이단계는 접속된 외부장치로부터 전송받은 1차 데이터 혹은 촉각 인터페이스장치(1000) 내부에서 생성된 1차 데이터를 수신하는 1차데이터수신단계(S11);Specifically, the tactile display step includes a primary data receiving step (S11) of receiving primary data transmitted from the connected external device or primary data generated in the tactile interface device (1000);

슬레이브보드(1260)의 개수, 각 슬레이브보드(1260)에서 표현할 수 있는 촉각픽셀의 개수 등의 슬레이브보드(1260) 정보를 로드하는 슬레이브보드정보로드단계(S12);A slave board information loading step S12 for loading slave board 1260 information such as the number of slave boards 1260 and the number of tactile pixels that can be expressed by each slave board 1260;

로드된 상기 슬레이브보드(1260) 정보에 따라 상기 1차 데이터를 2차 데이터로 변환하는 2차데이터변환단계(S13); A secondary data conversion step (S13) of converting the primary data into secondary data according to the loaded slave board (1260) information;

변환된 상기 2차 데이터를 각각의 슬레이브보드(1260)로 전송하는 슬레이브보드전송단계(S14);A slave board transmitting step (S14) of transmitting the converted secondary data to each slave board (1260);

각각의 슬레이브보드(1260)에서 상기 2차 데이터를 각각의 핀구동모듈(1230) 혹은 복수의 핀구동모듈(1230)로 구성된 핀구동모듈어레이의 구동신호로서의 3차 데이터로 변환하는 3차데이터변환단계(S15);Each of the slave boards 1260 converts the secondary data into tertiary data as a driving signal of a pin driving module array composed of each pin driving module 1230 or a plurality of pin driving modules 1230, Step S15;

생성된 상기 구동신호로 각각의 핀구동모듈(1230)을 구동하는 핀구동단계(S16)을 포함한다.And a pin driving step S16 for driving each pin driving module 1230 with the generated driving signal.

상기 촉각디스플레이단계는 다중 배열로 구성된 핀구동모듈(1230)의 핀의 상하운동을 통해 시각 그래픽을 촉각 그래픽 형태로 변환하여 전달하는 단계이다. 본 발명에서와 같은 촉각디스플레이단계는 전압을 인가하면 핀이 상승하고, 전압이 인가되지 않으면 핀이 하강하는 구조인 압전 바이모프에 의한 릴레이 메커니즘에 비하여, 추가적인 모듈의 구성이 필요하지 않기 때문에, 소형화가 가능하고 다중배열이 용이한 구조로 구현할 수 있다.The tactile display step converts the visual graphic into a tactile graphic form through the up and down movement of pins of the pin driving module 1230 composed of multiple arrangements and transmits the tactile graphic. The tactile display step as in the present invention requires no additional module configuration as compared with the relay mechanism using the piezoelectric bimorph structure in which the pin rises when a voltage is applied and the pin is lowered when a voltage is not applied, And can be implemented in a structure in which multiple arrangements are easy.

따라서, 본 발명에서와 같은 촉각디스플레이단계는 장치의 소형화를 도모하면서 동시에 높은 해상도의 촉각디스플레이를 제공할 수 있는 효과를 발휘할 수 있다.Therefore, the tactile display step as in the present invention can exhibit the effect of providing a high-resolution tactile display at the same time while reducing the size of the apparatus.

상기 1차데이터수신단계(S11)은 마스터보드(1250)에서 수행되고, 외부로부터 입력된 촉각 그래픽 데이터를 수신하고, UART (universal asynchronous receiver/transmitter) 모듈을 통하여 수행됨이 바람직하다.Preferably, the primary data receiving step S11 is performed in the master board 1250 and is performed through a universal asynchronous receiver / transmitter (UART) module, which receives external tactile graphic data.

한편, 상기 슬레이브보드정보로드단계(S12) 및 상기 2차데이터변환단계(S13)은 상기 마스터보드(1250)에 전기적으로 접속되는 MCU (Micro Controller Unit)에 의하여 수행됨이 바람직하다. The slave board information loading step S12 and the secondary data converting step S13 may be performed by an MCU (Micro Controller Unit) electrically connected to the master board 1250. [

바람직하게는, 상기 2차데이터변환단계(S13)는 상기 1차데이터수신단계(S11)을 통해 입력된 촉각 그래픽 데이터를 분석한다. 이후 슬레이브보드전송단계(S14)는 분석된 상기 촉각 그래픽 데이터를 슬레이브보드(1260)로 전달한다.Preferably, the secondary data conversion step S13 analyzes tactile graphic data input through the primary data reception step S11. Thereafter, the slave board transmission step S14 transmits the analyzed tactile graphic data to the slave board 1260. [

이와 같은 상기 2차데이터변환단계(S13) 및 슬레이브보드전송단계(S14)는 상기 다수의 슬레이브보드(1260)의 정보에 기초하여 데이터를 변환한 후, 이를 슬레이브보드(1260)로 전달함이 바람직하다. The secondary data conversion step S13 and the slave board transmission step S14 may be performed by converting the data based on the information of the plurality of slave boards 1260 and transmitting the data to the slave board 1260 Do.

혹은, 상기 2차데이터변환단계(S13)은 상기 촉각 그래픽 데이터를 각각의 슬레이브보드(1260)에 해당하는 데이터로 변환을 수행하고, 각각의 변환된 데이터를 각각의 슬레이브보드(1260)로 전달할 수도 있다.Alternatively, the secondary data conversion step S13 may convert the tactile graphic data into data corresponding to the respective slave boards 1260, and may transmit the converted data to the respective slave boards 1260 have.

혹은 상기 2차데이터변환단계(S13) 없이, 상기 1차데이터수신단계(S11)을 통하여 전달된 촉각 그래픽 데이터를 바로 슬레이브보드(1260)로 전달할 수도 있다.Alternatively, the tactile graphic data transmitted through the primary data receiving step S11 may be directly transmitted to the slave board 1260 without the secondary data converting step S13.

이후, 슬레이브보드(1260)에 내장된 처리장치에 의하여, 3차데이터변환단계(S15)가 수행된다. 3차데이터변환단계는 사전에 프로그래밍 된 CPLD (Complex Programmable Logic Device)를 이용하여 전달받은 데이터를 통하여 전달받은 데이터를 각각의 핀구동모듈(1230) 혹은 복수의 핀구동모듈(1230)로 구성된 각각의 핀구동모듈어레이에 따라 분리하고, 각각의 핀구동모듈(1230) 혹은 복수의 핀구동모듈(1230)로 구성된 핀구동모듈어레이에 동작신호를 전달한다. Thereafter, the tertiary data conversion step S15 is performed by the processing unit built in the slave board 1260. [ In the tertiary data conversion step, the data received through the received data using a pre-programmed CPLD (Complex Programmable Logic Device) is transmitted to each pin drive module 1230 or each of the plurality of pin drive modules 1230 According to the pin drive module array, and transmits an operation signal to the pin drive module array constituted by the respective pin drive module 1230 or the plurality of pin drive modules 1230. [

상기 복수의 슬레이브보드(1260)는 단일의 마스터보드(1250) 상에 배치되어 있고, 상기 마스터보드(1250)에 전기적으로 접속되어 있는 것이 바람직하다.The plurality of slave boards 1260 are disposed on a single master board 1250 and are preferably electrically connected to the master board 1250.

도 11은 본 발명의 일 실시예에 따른 입력센싱단계의 세부단계를 개략적으로 도시하는 도면이다. 11 is a diagram schematically illustrating detailed steps of an input sensing step according to an embodiment of the present invention.

상기 입력센싱단계는 촉각정보를 제공하는 인터페이싱장치에서 사용자의 입력을 센싱하는 방법으로서, 복수의 광을 에미팅(emitting)하고, 에미팅된 복수의 광을 센싱하고, 물리적인 차단으로 에미팅된 광의 센싱값이 변화하는 경우, 변화된 센싱값을 갖는 광의 위치정보로부터 사용자 입력을 센싱한다. 이와 같은 입력센싱방법은 촉각디스플레이부(1200)에 의하여 출력된 촉각 그래픽에 대한 시각장애인들의 직관적인 상호작용 및 다양한 정보입력를 수행할 수 있다. 또한, 입력센싱부(1300)는 촉각디스플레이부(1200)에 손가락 터치인식장치를 결합하여 손가락 터치 및 손가락 제스처 인식 기능을 추가할 수 있다.Wherein the input sensing step comprises the steps of emitting a plurality of lights, sensing a plurality of emit light, sensing a user's input in an interfacing device for providing tactile information, When the sensing value of the light changes, the user input is sensed from the position information of the light having the changed sensing value. Such an input sensing method can perform intuitive interaction of the visually impaired persons with respect to the tactile graphic output by the tactile display unit 1200 and various information input. In addition, the input sensing unit 1300 may combine the finger touch recognition device with the tactile display unit 1200 to add a finger touch and a finger gesture recognition function.

구체적으로, 상기 입력센싱단계는, More specifically, the input sensing step may include:

복수의 광을 에미팅(emitting)하는 광에미팅단계(S21);A step S21 of emitting light to emit a plurality of lights;

각각의 복수의 광에 대하여, 광이 에미팅되는 위치로부터 에미팅되는 방향으로 기설정된 거리로 이격된 위치에서 광을 센싱하는 광센싱단계(S22); A light sensing step (S22) for sensing light at a position spaced a predetermined distance in a direction from the position where the light is emitted to the direction in which the light is emitted, for each of the plurality of lights;

센싱값에 변화가 있는 수광센서의 정보를 로드하는 광센서정보로드단계(S23); 및An optical sensor information loading step (S23) of loading information of the light receiving sensor having a change in the sensing value; And

상기 광센싱단계에서 센싱된 결과를 기초로 사용자의 입력을 계산하는 사용자입력계산단계(S24);를 포함한다.And a user input calculation step (S24) of calculating a user's input based on the sensed result in the light sensing step.

한편, 상기 광에미팅단계는 제1축을 따라 배치된 복수의 제1축 광에미터(1311) 및 제2축을 따라 배치된 복수의 제2축 광에미터(1312)로부터 복수의 광을 에미팅하고, 상기 광센싱단계는 복수의 상기 제1축 광에미터(1311)에 대응하는 제1축 수광센서(1313) 및 복수의 상기 제2축 광에미터(1312)에 대응하는 제2축 수광센서(1314)에 의하여 복수의 광을 센싱한다.Meanwhile, the step of meeting light includes a plurality of first axial light emitters 1311 disposed along the first axis and a plurality of second axial light emitters 1312 disposed along the second axis, The light sensing step includes a first axis receiving sensor 1313 corresponding to the plurality of first axial light emitters 1311 and a second axis receiving sensor 1313 corresponding to the plurality of second axial light emitters 1312. [ The sensor 1314 senses a plurality of lights.

또한, 상기 사용자입력계산단계는 복수의 상기 제1축 수광센서(1313) 및 복수의 상기 제2축 수광센서(1314)의 수신광량의 변화값을 기초로 사용자의 입력을 계산하는, 사용자의 입력을 센싱한다.The user input calculation step may further include calculating a user input based on a change value of the amount of received light of the plurality of first axis light receiving sensors 1313 and the plurality of second axis light receiving sensors 1314, Lt; / RTI >

본 발명에 따른 촉각 인터페이스장치(1000)는 태블릿 PC 등에서와 같은 일반적인 터치 디스플레이와는 달리 촉각핀들의 물리적인 상승에 의해 촉각 그래픽을 표현하고, 촉각핀들에 자기유지력(force gauge)을 초과하는 과도한 압력의 터치 동작이 가해지는 경우 출력된 촉각 그래픽 혹은 촉각정보가 훼손되어 정보인지에 혼란을 줄 수 있다. The tactile display device 1000 according to the present invention displays a tactile graphic by physically raising the tactile pins, unlike a general touch display such as a tablet PC or the like, and displays an excessive pressure The touch tactile graphic or tactile information output may be damaged and confuse the information.

따라서, 본 발명에서의 입력센싱단계는 일반적인 터치디스플레이에서 사용되는 촉각핀 표면의 정전용량 (electric capacity) 변화를 감지하는 정전용량 방식과는 달리 촉각핀들 위에서 터치동작이 인식 될 수 있도록 광 센싱기반, 더욱 바람직하게는 적외선 센싱기반의 비접촉 인식 방식을 도입하였다.Therefore, the input sensing step of the present invention is different from the capacitive sensing method of sensing the electric capacity change of the surface of the tactile pin used in a general touch display, so that the touch sensing operation can be recognized on the tactile pins, More preferably, the non-contact recognition method based on infrared sensing is introduced.

이와 같은 본 발명의 입력센싱단계에 따르면, 상승된 촉각셀 핀들의 최대 높이보다 약간 높게 적외선 빔들이 투사될 수 있도록 설계하여, 촉각핀들의 상하운동과 관계 없이 출력된 촉각 그래픽 위에 가벼운 터치만으로 핀들의 상승상태를 훼손하지 않고 빠른 속도로 터치동작을 인식할 수 있는 효과를 발휘할 수 있다.According to the input sensing step of the present invention, the infrared beams can be projected to be slightly higher than the maximum height of the raised tactile cell pins. Thus, regardless of the vertical movement of the tactile pins, The touch operation can be recognized at a high speed without damaging the rising state.

또한, 촉각 핀들의 물리적인 걸림 없이 쓸기 (Swipe), 회전 등 다양한 터치기반 제스처들을 인식할 수 있어 시각장애인과 컴퓨터간의 상호작용을 한층 더 다양화 시킬 수 있다.In addition, various touch-based gestures such as swipe and rotation can be recognized without physical hitching of the tactile pins, thereby further diversifying the interaction between the visually impaired and the computer.

도 12는 본 발명의 일 실시예에 따른 촉각 인터페이스장치(1000)의 사용예를 도시하는 도면이다.12 is a diagram showing an example of use of the tactile display device 1000 according to an embodiment of the present invention.

도 12에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 손가락 움직임에 따라 실시간으로 핀이 상승하며 자유롭게 그래픽을 그릴 수 있는 자유 그리기 기능을 수행할 수 있고, 실시간으로 촉각디스플레이 혹은 촉각정보를 확인하면서 사용자는 자신이 이전에 그린 그래픽을 쉽게 인지하면서 그래픽을 그릴 수 있다.As shown in FIG. 12, according to an embodiment of the present invention, a pin can be raised in real time according to a finger movement, and a free drawing function can be performed freely to draw a graphic, and tactile display or tactile information The user can easily draw a graphic while recognizing the previously drawn graphic.

따라서, 본 발명의 일 실시예에 따른 촉각 디스플레이장치는 정상시력의 일반인들이 모니터를 통해 시각정보를 인지하고 마우스(혹은 tablet PC의 터치스크린)와 키보드를 통하여 정보를 입력하는 일반적인 컴퓨터 사용방식과 매우 유사한 방식으로 시각장애인들이 촉각을 이용하여 보다 쉽고 직관적으로 컴퓨터와 상호작용(interaction) 할 수 있다.Accordingly, the tactile display device according to an embodiment of the present invention is a general tactile display device in which a general person of normal vision recognizes visual information through a monitor and inputs information through a mouse (or a touch screen of a tablet PC) In a similar way, the blind can use the tactile sense to interact with the computer more easily and intuitively.

위와 같이 전술한 촉각 인터페이스 장치는 후술하는 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체에 있어서 일 예로 이용될 수 있는 촉각 인터페이스장치로서 설명된 것이고, 후술하는 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체에 대한 설명에서는 위에서 상술한 내용에 한정되지 않고, 그 자체의 발명의 내용에 따라서 최광의로 해석되어야 할 것이다.The above-described tactile interface apparatus is described as a tactile interface apparatus that can be used as one example in a method, apparatus, and computer-readable medium for controlling a tactile interface apparatus described later. The description of the method, apparatus, and computer-readable medium is not limited to the above description, but should be interpreted in the best mode according to its own invention.

촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체Method, apparatus and computer-readable medium for controlling a tactile interface apparatus

이하에서는 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체에 대하여 설명하도록 한다.Hereinafter, a method, an apparatus, and a computer-readable medium for controlling the tactile interface device according to the present invention will be described.

도 13은 본 발명의 일 실시예에 따른 촉각 인터페이스장치를 제어하는 전자장치(B)와 촉각 인터페이스장치(1000)의 연결예를 개략적으로 도시하는 도면이다.13 is a view schematically showing an example of connection between an electronic device B for controlling a tactile interface device according to an embodiment of the present invention and a tactile interface device 1000. In Fig.

본 발명의 전자장치(B)에 연결된 촉각 인터페이스장치(1000)는 도 13에서는 전술한 촉각 인터페이스장치와 동일한 구성요소를 갖는 것으로 도시되었지만, 이는 하나의 예에 불과할 뿐, 본 발명에서는 이에 한정되지 않는다. 이하에서 서술하는 본 발명의 촉각 인터페이스장치를 제어하는 전자장치(B)에 연결된 촉각 인터페이스장치는 촉각 그래픽을 제공할 수 있는 임의의 인터페이스장치, 사용자와 상호작용을 할 수 있는 촉각 인터페이스장치, 및 촉각 그래픽을 출력할 수 있는 전자장치(B)를 모두 포함한다.Although the tactile interface device 1000 connected to the electronic device B of the present invention is shown as having the same components as the tactile interface device described above in Fig. 13, this is merely an example, and the present invention is not limited thereto . The tactile interface device connected to the electronic device B controlling the tactile interface device of the present invention described below includes any interface device capable of providing tactile graphics, a tactile interface device capable of interacting with the user, And an electronic device B capable of outputting a graphic.

도 13에 도시된 바와 같이 전자장치(B)는 촉각 인터페이스장치와 연결되어 있고, 이와 같은 연결은 유선적 연결 혹은 무선적 연결을 모두 포함하는 연결이다. As shown in Fig. 13, the electronic device B is connected to a tactile interface device, and the connection is a connection including both a wired connection and a wireless connection.

상기 전자장치(B)는 도 1에서 도시된 전술한 사용자단말기(A)를 포함한다. 따라서, 상기 전자장치(B)는 스마트 폰(smart phone)과, 태블릿(tablet) 개인용 컴퓨터(personal computer: PC, 이하 'PC'라 칭하기로 한다)와, 이동 전화기와, 화상 전화기와, 전자책 리더(e-book reader)와, 데스크 탑(desktop) PC와, 랩탑(laptop) PC와, 넷북(netbook) PC와, 개인용 복합 단말기(personal digital assistant: PDA, 이하 'PDA'라 칭하기로 한다)와, 휴대용 멀티미디어 플레이어(portable multimedia player: PMP, 이하 'PMP'라 칭하기로 한다)와, 엠피3 플레이어(mp3 player)와, 이동 의료 디바이스와, 카메라와, 웨어러블 디바이스(wearable device)(일 예로, 헤드-마운티드 디바이스(head-mounted device: HMD, 일 예로 'HMD'라 칭하기로 한다)와, 전자 의류와, 전자 팔찌와, 전자 목걸이와, 전자 앱세서리(appcessory)와, 전자 문신, 혹은 스마트 워치(smart watch) 등에 해당할 수 있고, 바람직하게는 PC류이다. 이와 같은 전자장치(B)는 1 이상의 프로세서 및 메모리를 포함하고, 선택적으로 모니터 등의 디스플레이장치에 연결되어 있거나 자체적인 디스플레이모듈이 구비될 수도 있다.The electronic device B includes the aforementioned user terminal A shown in Fig. Accordingly, the electronic device B may be a smart phone, a tablet, a personal computer (PC), a mobile phone, a videophone, an electronic book An e-book reader, a desktop PC, a laptop PC, a netbook PC, a personal digital assistant (PDA) A portable multimedia player (PMP), an MP3 player, a mobile medical device, a camera, a wearable device (for example, a portable multimedia player (PMP) A head-mounted device (HMD), an electronic garment, an electronic bracelet, an electronic necklace, an electronic app apparel, an electronic tattoo, or a smart watch (smart watch) or the like, and preferably A PC flow. In the electronic device (B) comprises as at least one processor and a memory, and selectively fixed to the display device such as a monitor, or may be provided with its own display module.

혹은, 상기 전자장치(B)는 상기 촉각 인터페이스장치와 결합된 형태일 수도 있다. 이 경우, 사용자의 입장에서는 촉각인터페이스장치와 이를 제어하는 전자장치(B)를 하나의 장치로 인식할 수도 있다. 이와 같이 결합된 형태의 장치의 경우 상기 전자장치(B)와 상기 촉각 인터페이스장치는 프로세서와 메모리를 공유하는 형태일 수도 있다.Alternatively, the electronic device B may be in combination with the tactile interface device. In this case, the tactile interface device and the electronic device B controlling the tactile interface device may be recognized as a single device. In the case of such a combined device, the electronic device B and the tactile interface device may be in the form of sharing a memory with the processor.

본 발명에 따른 상기 전자장치(B)는 상기 전자장치(B) 내부에서 실행되는 어플리케이션(3000)과 상기 촉각 인터페이스장치의 상호간의 입출력을 제어하는 입출력제어부(2000)를 포함한다.The electronic device B according to the present invention includes an application 3000 executed in the electronic device B and an input / output control unit 2000 for controlling input / output between the tactile interface device and the application 3000.

상기 어플리케이션(3000)은 OS에서 기본적으로 제공되는 기능 등을 수행하기 위한 어플리케이션 (예를들어 WINDOWSTM 에서의 탐색기), OS에서 보조적으로 제공되는 기능 등을 수행하기 위한 어플리케이션 (예를들어, WINDOWSTM 에서의 그림판), OS와 별도적으로 설치되어 독자적인 기능을 수행하는 어플리케이션 (예를들어, MS WORDTM), 웹상으로 실행되는 독자적인 기능을 수행하는 어플리케이션, 스마트폰의 앱, 혹은 특정 기기에서만 작동할 수 있는 어플리케이션을 포함하는 용어이다. 즉, 상기 어플리케이션(3000)은 실행가능한 명령어들을 가지는 프로그램들을 포괄적으로 지칭한다.The application 3000 may include an application (e.g., a searcher in WINDOWS TM ) for performing a function or the like fundamentally provided in the OS, an application for performing a function supplementarily provided in the OS (for example, WINDOWS TM (Such as MS WORD TM ) installed separately from the OS and performing its own functions, applications that perform their own functions that run on the Web, applications on smartphones, It is a term that includes applications that can be used. That is, the application 3000 collectively refers to programs having executable instructions.

일반적인 사용자라면 상기 전자장치(B)에서 상기 어플리케이션(3000)을 실행시키고, 상기 어플리케이션(3000)과 마우스, 키보드, 및 모니터 혹은 터치패드 등으로 상호작용을 할 수 있지만, 이와 같은 일반적인 장치들은 시각장애인이 인식하기 어려운 그래픽 정보를 중심으로 상호작용이 이루어진다. A general user can execute the application 3000 on the electronic device B and interact with the application 3000 on a mouse, a keyboard, a monitor, or a touchpad. However, This interaction is made mainly by the graphic information which is difficult to recognize.

따라서, 본 발명의 발명자는 상기 전자장치(B)의 어플리케이션(3000)을 시각장애인이 이용하기 위하여, 상기 어플리케이션(3000)의 인터페이스 혹은 입출력을 시각장애인이 이용할 수 있는 형태로 변환 제어하는 발명을 도출하였다. 또한, 본 발명의 촉각 인터페이스장치의 제어방법은 시각장애인에 대한 목적 뿐만 아니라 차량, 비행장치 등의 다른 장치에서의 촉각정보를 활용한 입출력 시스템 및 PC 등의 사용에 있어서 보조적으로 활용할 수 있는 입출력 시스템에도 적용될 수 있다.Therefore, the inventor of the present invention derives an invention for controlling and controlling the interface (3000) of the application (3000) to be used by the visually impaired person or the input / output of the application (3000) Respectively. In addition, the control method of the tactile interface device of the present invention is not limited to the input / output system using tactile information in other devices such as vehicles and flight devices, and the input / output system . ≪ / RTI >

본 발명에 따르면, 상기 입출력제어부(2000)는 상기 어플리케이션(3000)의 입출력을 상기 시각장애인이 이용할 수 있는 형태로 변환하고, 이를 촉각 인터페이스장치에서 구현하고, 사용자는 상기 촉각 인터페이스장치를 통하여 상기 어플리케이션(3000)을 보다 직관적이고 편리하게 이용할 수 있다. 특히, 촉각 인터페이스장치(1000)는 촉각정보를 이용하여 사용자에게 정보를 전달하고, 또한 촉각적인 입력 혹은 터치입력을 통하여 사용자로부터 정보 혹은 명령을 입력 받을 수 있는 장치이기 때문에, 시각장애인으로 하여금 불편함 없이 상기 어플리케이션(3000)을 이용할 수 있도록 할 수 있다.According to the present invention, the input / output controller 2000 converts the input / output of the application 3000 into a form that can be used by the visually impaired person, implements the input / output in the tactile interface device, (3000) can be more intuitively and conveniently used. Particularly, since the tactile interface device 1000 is a device that transmits information to a user using tactile information and receives information or commands from a user through tactile input or touch input, it is inconvenient for a visually impaired person So that the application 3000 can be used.

도 14는 본 발명의 일 실시예에 따른 촉각 인터페이스장치를 제어하는 전자장치(B)의 내부 구조를 개략적으로 도시하는 도면이다. 도 14에 도시된 바와 같이, 상기 입출력제어부(2000)는 상기 촉각 인터페이스장치로부터의 입력을 상기 어플리케이션(3000)으로의 입력으로 변환하는 입력변환부(2100); 및 상기 어플리케이션(3000)으로부터의 출력을 상기 촉각 인터페이스장치의 출력으로 변환하는 출력변환부(2200)를 포함한다.14 is a view schematically showing an internal structure of an electronic device B for controlling a tactile interface device according to an embodiment of the present invention. As shown in FIG. 14, the input / output control unit 2000 includes an input conversion unit 2100 that converts an input from the tactile interface device to an input to the application 3000; And an output conversion unit 2200 for converting an output from the application 3000 into an output of the tactile interface device.

바람직하게는, 본 발명의 일 실시예에 따른 촉각 인터페이스장치를 제어하는 장치에서는 어플리케이션(3000)으로부터의 출력정보를 촉각 디스플레이 형태로 표시하는 동작에 추가적으로 촉각 인터페이스장치로부터 입력받은 정보를 상기 어플리케이션(3000)에서 이용할 수 있는 형태로 변환하여 상기 어플리케이션(3000)에 입력하는 동작을 수행할 수 있다.Preferably, in the apparatus for controlling a tactile interface apparatus according to an embodiment of the present invention, in addition to the operation of displaying output information from the application 3000 in a tactile display form, ), And input the converted data into the application 3000. [0253] FIG.

즉, 본 발명에 따르면 사용자는 수동적으로 정보를 받는 것이 아니라 인지한 정보에 기초하여 직관적으로 정보를 입력하고, 상기 입출력제어부(2000)는 이와 같이 입력된 정보를 상기 어플리케이션(3000)에 입력가능한 형태로 변환함으로써, 시각장애인인 사용자로 일반적인 사용자와 유사한 수준으로 상기 어플리케이션(3000)을 이용할 수 있도록 한다. 이와 같은 입출력제어부(2000)에 의하여 상기 도 12에서와 같이 시각장애인도 촉각적으로 입력을 하여 그림을 그리는 어플리케이션(3000)을 이용할 수 있다.That is, according to the present invention, the user does not receive information manually but inputs information intuitively based on the recognized information, and the input / output control unit 2000 can input the input information into the application 3000 So that the user can use the application 3000 at a level similar to that of a general user. The input / output control unit 2000 can use the application 3000 that draws a picture by tactually inputting a blind person as shown in FIG.

한편, 상기 입력변환부(2100)는, 상기 촉각 인터페이스장치로부터 입력되는 키입력을 상기 어플리케이션(3000)으로 입력할 수 있는 형태로 변환하는 키변환부(2110); 상기 촉각 인터페이스장치로부터 입력되는 터치입력을 상기 어플리케이션(3000)으로 입력할 수 있는 형태로 변환하는 제스처판별부(2120); 및 상기 촉각 인터페이스장치에서 터치입력 등에 의하여 입력되는 입력좌표를 상기 어플리케이션(3000)에서의 입력좌표로 변환하는 좌표매핑부(2130);를 포함한다. The input conversion unit 2100 includes a key conversion unit 2110 for converting a key input input from the tactile interface device into a form that can be input to the application 3000; A gesture discrimination unit 2120 for converting a touch input input from the tactile interface device into a form that can be input to the application 3000; And a coordinate mapping unit 2130 for transforming the input coordinates input by the touch input or the like into the input coordinates in the application 3000 in the tactile interface device.

바람직하게는, 상기 촉각 인터페이스장치로부터 수신된 상기 키변환부(2110)에서 변환되는 입력은 현재 시각장애인들이 일반적으로 많이 사용하는 점자를 일반문자로 변환하여 컴퓨터에 문자 입력신호를 전달하는 점자키보드에 의한 입력이다.Preferably, the input converted by the key conversion unit 2110 received from the tactile interface unit is a braille keyboard for converting a braille character generally used by the visually impaired to a normal character and delivering a character input signal to the computer Lt; / RTI >

점자키보드는 기존에 널리 쓰이고 있는 점자키보드와 마찬가지로 점자를 입력 받아 촉각 인터페이스장치 혹은 촉각 인터페이스장치에 연결된 사용자 단말기에 전달한다. 점자키보드는 1~6점, 백스페이스, 스페이스, 엔터 버튼으로 구성되며, 점자는 여러 개의 점이 모여 하나의 글자를 구성하기 때문에 점자키보드는 동시에 눌린 버튼의 정보를 전송할 수 있다. The Braille keyboard transmits the Braille to the user terminal connected to the tactile interface device or the tactile interface device as well as the conventional braille keyboard. Braille keyboard consists of 1 ~ 6 points, backspace, space, and enter button. Braille consists of several dots to form one letter, so the braille keyboard can transmit information of pressed buttons at the same time.

이 경우, 상기 키변환부(2110)는 점자키보드 입력을 일반문자(general character)로 점역한다.In this case, the key conversion unit 2110 translates the braille keyboard input into a general character.

한편, 상기 제스처판별부(2120)는 상기 터치입력이 기설정된 제스처 중 어느 하나에 해당하는 지 여부를 판별하고, 제스처로 판별되는 경우 판별된 제스처에 해당하는 명령어로 상기 터치입력을 변환한다.Meanwhile, the gesture determination unit 2120 determines whether the touch input corresponds to one of predetermined gestures, and converts the touch input into a command corresponding to the identified gesture when the gesture is determined.

여기서, 상기 터치입력은 도 7 및 도 8에 도시된 비접촉식 광기반 센싱에 의한 입력, 태블릿PC, 스마트폰 등에서 일반적으로 이용되는 정전용량 변화에 의한 터치인식에 의한 입력을 모두 포함하는 입력형태를 지칭한다. 바꾸어 말해, 상기 터치입력은 키입력 형태가 아니라 사용자의 신체로 직접 입력하는 형태의 입력을 모두 포함한다.Here, the touch input refers to an input form including all of the input by the non-contact type optical-based sensing shown in FIGS. 7 and 8, the input by the touch recognition by the capacitance change generally used in the tablet PC, do. In other words, the touch input includes not only a key input type but also an input type in which a user directly inputs the touch input.

여기서, 상기 기설정된 제스처의 예는 하기의 표 1과 같다.Here, an example of the preset gesture is shown in Table 1 below.

[표 1][Table 1]

제스처 종류 어플리케이션 입력Gesture type Application input

Single tap 터치한 위치에 있는 GUI element의 종류와 텍스트를 점자와 음성으로 출력Single tap Output the type and text of the GUI element at the touch location in braille and voice

Double tap 마우스의 더블클릭과 같은 기능Double tap Functions like double click of mouse

Long tap after tap 마우스의 우클릭과 같은 기능Long tap after tap Functions like right click of mouse

Panning after tap 상/하/좌/우 스크롤Panning after tap Scroll up / down / left / right

Drawing circle after tap 확대(시계방향)/축소(반시계방향)Drawing circle after tap Magnification (clockwise) / reduction (counterclockwise)

촉각 인터페이스장치와 전자기기 간의 상호작용은 1차적으로 터치입력의 제스처 인식 기능을 통해 이루어지며, 시각장애인들에게 익숙하고 직관적인 컴퓨터 조작을 위해 상기 표 1 과 같은 다양한 터치 동작들을 정의하여 특정 동작을 인식한 후 전자기기 혹은 전자기기의 어플리케이션(3000)에 입력신호로 전달하는 것이 바람직하다.The interaction between the tactile interface device and the electronic device is primarily performed through the gesture recognition function of the touch input. For the blind and intuitional computer operation, various touch operations as shown in Table 1 are defined, It is preferable to transfer it as an input signal to the electronic device or the application 3000 of the electronic device.

예를들어, 싱글 탭 (single tap) 제스처는 터치한 위치에 있는 촉각 아이콘에 대하여 GUI (Graphic User Interface) 엘리먼트의 종류와 해당 텍스트를 점자와 음성으로 출력한다. 예를들어, 시각장애인이 촉각 그래픽에 의하여 인지되는 촉각 아이콘을 손가락을 쓰는 (swipe) 동작을 통해 인지하고 상기 촉각 아이콘에 대해 싱글 탭 제스처를 수행함으로써 해당 GUI 엘리먼트에 포커스를 이동시킨다. 또한, 이러한 탭 제스처는 선택하는 GUI 엘리먼트의 세부정보, 예를들어 텍스트 정보를 촉각 인터페이스장치의 촉각 그래픽을 표시하는 레이어 중 하나에 점자로 출력함과 동시에 TTS 기반의 음성으로도 출력할 수도 있다. For example, a single tap gesture outputs the type of GUI (Graphic User Interface) element and corresponding text to the tactile icon at the touched position in braille and voice. For example, a blind person recognizes a tactile icon recognized by a tactile graphics through a swipe operation, and performs a single tap gesture on the tactile icon to move the focus to the corresponding GUI element. In addition, the tab gesture may output the detailed information of the GUI element to be selected, for example, text information in braille to one of the layers displaying tactile graphics of the tactile interface device, and also output it as TTS-based voice.

표 1에서의 나머지 제스처들에 해당하는 Double tap, Long tap after tap, Panning after tap, Drawing circle after tap 모두 tap 동작을 한 번 수행한 후 연이어 tap, long tap, panning, drawing the circle 제스처를 수행하는 것으로 정의된다. 이는 시각장애인의 촉각 그래픽을 인지를 위한 손가락 쓸기 동작과 정의된 제스처가 혼동되어 인식되지 않기 위해 이와 같이 정의된 것이다. Double tap 제스처는 같은 위치에서 빠르게 두 번 터치하는 동작으로 GUI 엘리먼트의 디폴트 동작(default action)을 실행시키는 마우스의 좌 더블클릭과 같은 기능을 가진다. Long tap after tap 제스처는 탭을 한 번 수행한 후 같은 위치에서 탭하여 일정한 시간 동안 계속 터치하고 있는 동작으로 마우스의 우 클릭과 같은 기능을 가진다. Panning after tap 제스처는 탭을 한 번 수행한 후 같은 위치에서 다시 터치하여 Panning 동작을 수행하는 동작으로 Panning 방향에 따라 상/하/좌/우 스크롤 기능을 가진다. Drawing circle after tap 제스처는 탭을 한 번 수행한 후 같은 위치에서 빠르게 다시 터치하여 원을 그리는 동작으로 시계방향일 경우 화면 확대기능, 반 시계 방향일 경우 화면 축소기능을 가진다.Long tap, long tap after tap, panning after tap, and drawing circle after tap corresponding to the remaining gestures in Table 1 are performed once, followed by tap, long tap, panning, and drawing the circle gestures . This is so defined that the finger swipe motion for recognizing the tactile graphics of a visually impaired person and the defined gesture are confused and not recognized. The double tap gesture has the same function as the double left click of the mouse that executes the default action of the GUI element by touching twice in the same position quickly. Long tap after tap The gesture is a tap that is touched at the same position and touched continuously for a certain amount of time, and has the same function as a right click of the mouse. Panning after tap The gesture is an operation to perform a panning operation by touching again at the same position after performing a tap once, and has a function of scrolling up / down / left / right according to the panning direction. Drawing circle after tap A gesture is a motion that draws a circle by quickly touching again at the same position after performing a tap once. It has a screen enlargement function in the clockwise direction and a screen reduction function in the counterclockwise direction.

한편, 상기 좌표매핑부(2130)는 상기 촉각 인터페이스장치에서의 좌표 혹은 입력좌표를 입력좌표를 상기 어플리케이션(3000)에서의 좌표로 변환하기 위함이다.The coordinate mapping unit 2130 is used to convert coordinates or input coordinates in the tactile interface device into coordinates in the application 3000.

후술하는 바와 같이, 전자기기가 PC인 경우 PC의 모니터 표시화면의 GUI 엘리먼트들을 재구성하여 출력되는 촉각 그래픽에는 촉각 아이콘들이 구현되어 있다. 이와 같은 촉각 아이콘은 상기 모니터 표시화면과 공간적으로 1:1 매칭이 되지 않기 때문에, 상기 촉각 인터페이스장치에서의 터치입력이 발생한 입력좌표를 그대로 사용할 경우 어떤 GUI 엘리먼트에 대한 이벤트가 발생되었는지를 전자기기의 어플리케이션(3000)에서는 판별할 수 없다. As will be described later, when the electronic device is a PC, tactile icons are implemented in the tactile graphics outputted by reconfiguring the GUI elements of the monitor display screen of the PC. Since the tactile icon is not matched with the monitor display screen in a spatial 1: 1 manner, when the input coordinates at which the touch input occurs in the tactile interface device are used as they are, It can not be discriminated by the application 3000.

바람직하게는, 좌표매핑부(2130)의 좌표매핑 기능은 현재 촉각 그래픽으로 출력되고 있는 촉각 아이콘 객체와 실제 어플리케이션(3000)을 구동하는 경우 모니터 표시화면에 출력되는 GUI 엘리먼트를 매핑시키기 위한 기능으로 매핑 테이블을 구성하여 인식된 터치좌표를 매핑한다.Preferably, the coordinate mapping function of the coordinate mapping unit 2130 is a function for mapping a tactile icon object currently output as a tactile graph to a GUI element displayed on a monitor display screen when driving an actual application 3000, The table is constructed and the recognized touch coordinates are mapped.

촉각 인터페이스장치에서 표시되는 촉각 그래픽과 상기 어플리케이션(3000)이 일반적으로 실행될 때의 표시화면은 해상도, 구성, 위치에 있어서 상이할 수 있고, 이 경우 촉각 인터페이스장치에서 입력한 명령이 제한없이 상기 어플리케이션(3000)에 입력되기 위해서는 상기 촉각 인터페이스에서의 입력좌표가 상기 어플리케이션(3000)에서의 입력좌표로 변환 혹은 매핑되어야 하고, 이는 상기 좌표매핑부(2130)에 의하여 수행된다. 이와 같은 좌표매핑부(2130)에 의하여 사용자는 어플리케이션(3000)의 기능의 축소 혹은 간략화 없이 어플리케이션(3000)의 기능을 일반적인 사용자 수준으로 사용할 수 있다.The tactile graphics displayed on the tactile interface device and the display screen when the application 3000 is generally executed may differ in resolution, configuration, and position. In this case, 3000, the input coordinates in the tactile interface must be converted or mapped to the input coordinates in the application 3000, which is performed by the coordinate mapping unit 2130. With the coordinate mapping unit 2130, the user can use the function of the application 3000 at a general user level without reducing or simplifying the function of the application 3000.

예를들어, 사용자가 어플리케이션(3000)에서 'A'라는 명령을 실행하기 위하여(예를들어 윈도우 바탕화면에서 내문서 폴더를 여는 경우), 상기 촉각 인터페이스장치에서 상기 'A'에 해당하는 지점에서 Double Tab을 수행하는 경우 (상기 표 1 참조), 상기 좌표매핑부(2130)는 상기 촉각 인터페이스장치에서의 상기 지점의 좌표를 연결된 어플리케이션(3000)의 'A' 아이콘의 좌표에 매핑하고, 이에 따라 상기 어플리케이션(3000)에서의 'A' 명령이 실행될 수 있다.For example, in order to execute a command 'A' in the application 3000 (for example, when the user opens the My Documents folder on the Windows desktop), the tactile interface device When performing Double Tab (see Table 1 above), the coordinate mapping unit 2130 maps the coordinates of the point in the tactile interface device to the coordinates of the icon 'A' of the connected application 3000, The 'A' command in the application 3000 can be executed.

이와 같이, 상기 입력변환부(2100)는 촉각 인터페이스장치의 터치입력에 대한 제스처를 인식하는 터치 제스처 인식 기능, 터치인식 장치에서 입력된 터치좌표에 해당하는 GUI 엘리먼트를 알려주는 좌표매핑 기능, 그리고 점자키보드로부터 입력되는 점자정보를 일반 문자로 변환하는 역 점역 기능을 수행할 수 있다.As described above, the input conversion unit 2100 includes a touch gesture recognition function for recognizing a gesture with respect to a touch input of the tactile interface device, a coordinate mapping function for indicating a GUI element corresponding to the touch coordinates input from the touch recognition device, It is possible to perform a reverse grayscale function for converting the braille information input from the keyboard into general characters.

한편, 상기 출력변환부(2200)는, 상기 어플리케이션(3000)으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 촉각그래픽데이터로 변환하는 촉각그래픽변환부(2210)를 포함하고, 상기 촉각 인터페이스장치에 의해 제공되는 상기 촉각 그래픽은 상기 촉각그래픽데이터로부터 구현될 수 있다.The output conversion unit 2200 includes a tactile graphic conversion unit 2210 for converting a focus area including a part of the graphic display output from the application 3000 into tactile graphic data, The tactile graphics provided by the tactile graphics data may be implemented from the tactile graphics data.

본 명세서에서, 상기 “그래픽디스플레이”는 상기 어플리케이션이 모니터 등의 일반적인 시각적 디스플레이 장치로 출력하는 시각적화면, 시각적화면에 포함되는 시각적요소, 혹은 이들을 구현하는 데이터를 포함하는 개념을 지칭한다. 한편, 상기 출력변환부(2200)는, 상기 어플리케이션(3000)에서 출력되는 정보를 음성정보로 변환하는 TTS변환부(2220)를 더 포함한다. 바람직하게는, 상기 TTS변환부(2220)는 상기 촉각 인터페이스장치로부터의 입력에 의하여 지칭되는 촉각 엘리먼트에 대한 텍스트 형태의 세부정보를 음성으로 변환하는 것을 수행한다. In the present specification, the "graphic display" refers to a concept including the visual screen that the application outputs to a general visual display device such as a monitor, a visual element included in the visual screen, or data for implementing them. The output conversion unit 2200 further includes a TTS conversion unit 2220 that converts information output from the application 3000 into voice information. Preferably, the TTS converting unit 2220 performs conversion of the detailed information of the textual form of the tactile element referred to by the input from the tactile interface apparatus into speech.

한편, 실제 어플리케이션(3000)을 구동하는 경우 모니터 표시화면에 출력되는 모든 GUI 엘리먼트들을 촉각 그래픽으로 변환하여 이를 촉각 인터페이스장치에 출력하는 경우, 사용자가 촉각 그래픽을 이해하는 데 어려움이 발생할 수 있다.On the other hand, when the actual application 3000 is driven, when all the GUI elements output to the monitor display screen are converted into the tactile graphics and output to the tactile interface device, it may be difficult for the user to understand the tactile graphics.

따라서 본 발명의 일 실시예에 따르면, 상기 어플리케이션(3000)으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 촉각그래픽데이터로 변환한다. 즉 사용자에 의하여 포커싱되는 영역에 해당하는 포커스영역만을 혹은 포커스영역을 중심으로 촉각그래픽데이터로 변환하고 이를 촉각 그래픽으로 표시함으로써 사용자는 현재 포커싱되는 영역만을 빠르고 편리하게 인지할 수 있고, 사용자의 인지 및 입력에 있어서의 오류를 제거할 수 있다.Therefore, according to an embodiment of the present invention, a focus area including a part of the graphic display output from the application 3000 is converted into tactile graphic data. That is, only the focus area corresponding to the area focussed by the user or the focus area is converted into tactile graphic data, and the tactile graphic data is displayed on the tactile graphic data so that the user can recognize the current focused area only quickly and conveniently. The error in the input can be eliminated.

한편, 상기 포커스영역은 사용자가 이전의 입력 중 1 이상에 의하여 결정된다. 예를들어, 사용자가 터치입력으로 촉각 인터페이스장치에서의 입력좌표를 이동시키고 탭 등의 제스처에 의하여 해당 입력좌표의 영역에 포커싱이 되는 경우, 이와 같은 사용자의 입력들에 의하여 상기 포커싱영역이 결정된다.Meanwhile, the focus area is determined by at least one of the previous inputs by the user. For example, when the user moves the input coordinates of the tactile interface device with the touch input and focuses the area of the input coordinate by a gesture such as a tap, the focusing area is determined by the inputs of the user .

한편, 상기 촉각그래픽변환부(2210)는, 상기 포커스영역을 복수의 포커스부분영역으로 구분하고, 기설정된 변환규칙에 따라 각각의 포커스부분영역의 표시엘리먼트를 촉각그래픽엘리먼트로 변환하는 동작을 수행함으로써 촉각그래픽데이터를 생성한다. Meanwhile, the haptic graphic converter 2210 divides the focus area into a plurality of focus area and converts the display elements of each focus area into tactile graphic elements according to a predetermined conversion rule Tactile graphic data.

도 20은 이와 같은 표시엘리먼트를 촉각그래픽엘리먼트로 변환하는 기설정된 변환규칙의 예를 도시한다.Fig. 20 shows an example of a predetermined conversion rule for converting such a display element into a tactile graphic element.

예를들어, 도 20에서 표시엘리먼트(GUI엘리먼트)가 'Button'에 해당하는 경우, 어플리케이션(3000)의 실제 화면에 출력되는 형태는 도 20에서 Visual Design이라는 항목에 표시된 형태의 GUI이다. 그리고 이와 같은 'Button'에 대한 표시엘리먼트를 도 20에 도시된 변환규칙에 따라서, 촉각 아이콘으로 변환하고, 변환된 촉각 아이콘을 상기 촉각 인터페이스장치에서 촉각 그래픽으로 구현한다. 한편, 사용자의 촉각 인터페이스장치에서의 입력, 바람직하게는 제스처 형태의 입력에 의하여 상기 촉각 아이콘에 대한 세부 정보를 촉각 인터페이스장치의 점자형태의 촉각 그래픽 혹은 상기 TTS변환에 의한 음성으로 사용자가 인식할 수도 있다.For example, when the display element (GUI element) corresponds to 'Button' in FIG. 20, the form displayed on the actual screen of the application 3000 is the GUI of the form shown in the item of 'Visual Design' in FIG. Then, the display element for the 'Button' is converted into a tactile icon according to the conversion rule shown in FIG. 20, and the converted tactile icon is implemented as a tactile graphic in the tactile interface device. On the other hand, detailed information on the tactile icon can be recognized by the user in the form of braille tactile graphics of the tactile interface device or voice by the TTS conversion by means of an input of the user's tactile interface device, preferably a gesture type input have.

도 19는 본 발명의 일 실시예에 따른 촉각그래픽(4000)을 개략적으로 도시하는 도면이다. 상기 촉각 그래픽은 복수의 레이어를 포함하고, 도 19에서는 상기 복수의 레이어는 제1 레이어(4100), 제2 레이어(4200), 및 제3 레이어(4300)를 포함한다.19 is a view schematically showing a tactile graphics 4000 according to an embodiment of the present invention. The tactile graphics include a plurality of layers, and in FIG. 19, the plurality of layers include a first layer 4100, a second layer 4200, and a third layer 4300.

상기 복수의 포커스부분영역은 각각 상기 복수의 레이어에 대응한다. 즉, 상기 어플리케이션(3000)으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역은 복수의 포커스부분영역으로 구성되어 있고, 이와 같은 복수의 포커스부분영역의 각각은 상기 복수의 레이어 각각에 대응한다. 따라서, 상기 촉각그래픽변환부(2210)는 포커스부분영역 혹은 레이어 별로 그래픽디스플레이를 촉각 그래픽으로 변환한다.The plurality of focus partial areas correspond to the plurality of layers, respectively. That is, the focus area including a part of the graphic display output from the application 3000 is composed of a plurality of focus partial areas, and each of the plurality of focus partial areas corresponds to each of the plurality of layers. Accordingly, the tactile graphics converting unit 2210 converts the graphic display into the tactile graphics by the focus area or the layer.

상기 제1 레이어(4100)는 화면 컨트롤 영역으로서, 현재 촉각 인터페이스장치에서 출력되는 촉각 그래픽의 타이틀을 지칭하는 아이콘, '이전', '확인', '취소', '닫기'와 같은 화면전환을 위한 버튼들의 촉각 아이콘 중 1 이상으로 구성될 수 있다. 즉, 제1 레이어(4100)는 상기 어플리케이션(3000)으로부터 출력되는 상기 그래픽디스플레이의 화면을 변경시키는 명령을 실행하는 촉각 아이콘을 포함한다.The first layer 4100 is a screen control area. The first layer 4100 is an icon for indicating a title of a tactile graphic output from the current tactile interface device, a button for switching the screen such as 'previous', 'confirm', 'cancel' And tactile icons of the buttons. That is, the first layer 4100 includes a tactile icon for executing a command to change the screen of the graphic display output from the application 3000. [

상기 제2 레이어(4200)는 메인 화면 영역으로 버튼, 메뉴, 폴더, 그래픽 정보 등에 대한 촉각 그래픽이 제공되는 레이어이다. 사용자는 제2 레이어(4200)를 통하여 그리기 입력을 수행하거나, 그래픽 정보를 인지하거나, GUI 요소들을 인지하거나, 사용자의 컨트롤 입력을 수행할 수 있다.The second layer 4200 is a main screen area in which tactile graphics for buttons, menus, folders, graphic information, etc. are provided. The user may perform drawing input, recognize graphic information, recognize GUI elements, or perform user control input through the second layer 4200.

상기 제3 레이어(4300)는 상기 어플리케이션(3000)으로부터 출력되는 촉각그래픽엘리먼트에 대한 세부정보를 점자형태로 표시하는 레이어이다. 사용자는 상기 제3 레이어(4300)로 출력되는 점자를 인지함으로써 촉각 엘리먼트들에 대한 세부 정보를 확인할 수 있다. 전술한 바와 같이, 이와 같은 세부정보의 확인은 상기 TTS변환부(2220)에 의하여 변환된 음성에 의하여도 이루어질 수 있다.The third layer 4300 is a layer for displaying detailed information on tactile graphic elements output from the application 3000 in braille form. The user can confirm detailed information about the tactile elements by recognizing the braille output to the third layer 4300. As described above, confirmation of such detailed information can also be performed by the voice converted by the TTS converting unit 2220. [

이상과 같은 촉각 인터페이스장치 및 이를 제어하는 전자장치(B)에 의하면, WINDOWSTM 의 보조프로그램에 해당하는 '그림판'과 같은 프로그램도 시각장애인이 이용할 수 있다. 시각장애인은 상기 제2 레이어(4200)를 통하여 선을 포함하는 그림을 입력하고, 실시간으로 촉각을 이용하여 자신이 그린 그림을 인지할 수 있고, 인지된 그림정보에 기초하여 계속적으로 그림을 완성해나갈 수 있다.According to the above-described tactile interface device and the electronic device (B) for controlling the same, a program such as 'Paint' corresponding to the WINDOWS TM auxiliary program can be used by the visually impaired. The blind person can input a picture including the line through the second layer 4200, recognize the picture drawn by himself / herself in real time, and continuously complete the picture based on the recognized picture information I can go out.

한편, 전술한 촉각 인터페이스장치 및 이를 제어하는 전자기기는 출력 및 입력이 가능한 촉각 인터페이스장치 및 이에 대한 제어의 양상에서 실시예가 서술되었으나, 본 발명은 이에 한정되지 않고, 출력만 가능한 촉각 인터페이스장치 혹은 입력만 가능한 촉각인터페이스 장치에 대한 제어방법, 장치, 및 컴퓨터-판독가능 저장매체에 대한 발명도 포함한다.Although the tactile-sensing interface device and the electronic device for controlling the tactile-sensing interface device described above have been described in terms of the tactile-sensing interface device capable of outputting and inputting and the control thereof, the present invention is not limited thereto, But also includes inventions for control methods, apparatus, and computer-readable storage media for tactile interface devices that are only capable of being used.

도 15는 본 발명의 일 실시예에 따른 촉각 인터페이스장치를 제어하는 방법의 단계를 개략적으로 도시하는 도면이다.15 is a diagram schematically illustrating the steps of a method for controlling a tactile interface device according to an embodiment of the present invention.

도 15에 도시된 바와 같이 내부에서 실행되는 어플리케이션(3000)을 포함하는 전자장치(B)에 전기적으로 연결되고, 사용자와 상호작용을 할 수 있는 촉각 인터페이스장치를 제어하는 방법은, 상기 촉각 인터페이스장치로부터의 입력을 상기 어플리케이션(3000)으로의 입력으로 변환하는 입력변환단계(S100); 및 상기 어플리케이션(3000)으로부터의 출력을 상기 촉각 인터페이스장치의 출력으로 변환하는 출력변환단계(S200)를 포함한다.A method of controlling a tactile interface device electrically connected to an electronic device B including an application 3000 executed internally as shown in Figure 15 and capable of interacting with a user, (S100) for converting an input from the application (3000) into an input to the application (3000); And an output conversion step (S200) for converting an output from the application (3000) to an output of the tactile interface device.

상기 촉각 인터페이스장치는 촉각에 의한 촉각 그래픽을 제공할 수 있고, 상기 입력변환단계(S100) 및 상기 출력변환단계(S200)는 동시적으로 수행됨이 바람직하다. 구체적으로 사용자는 상기 출력변환단계(S200)에 의하여 출력된 촉각 그래픽을 인지하고, 이에 따라 입력을 수행하고, 사용자의 입력을 어플리케이션(3000)에 입력할 수 있는 형태로 상기 입력변환단계(S100)에서 변환함이 바람직하다.The tactile interface device may provide tactile tactile graphics, and the input conversion step S100 and the output conversion step S200 are preferably performed simultaneously. Specifically, the user recognizes the tactile graphics output by the output conversion step S200, performs the input accordingly, and performs the input conversion step S100 in such a form that the input of the user can be input to the application 3000. [ . ≪ / RTI >

여기서, 상기 전자장치(B)는 스마트 폰(smart phone)과, 태블릿(tablet) 개인용 컴퓨터(personal computer: PC, 이하 'PC'라 칭하기로 한다)와, 이동 전화기와, 화상 전화기와, 전자책 리더(e-book reader)와, 데스크 탑(desktop) PC와, 랩탑(laptop) PC와, 넷북(netbook) PC와, 개인용 복합 단말기(personal digital assistant: PDA, 이하 'PDA'라칭하기로 한다)와, 휴대용 멀티미디어 플레이어(portable multimedia player: PMP, 이하 'PMP'라 칭하기로 한다)와, 엠피3 플레이어(mp3 player)와, 이동 의료 디바이스와, 카메라와, 웨어러블 디바이스(wearable device)(일 예로, 헤드-마운티드 디바이스(head-mounted device: HMD, 일 예로 'HMD'라 칭하기로 한다)와, 전자 의류와, 전자 팔찌와, 전자 목걸이와, 전자 앱세서리(appcessory)와, 전자 문신, 혹은 스마트 워치(smart watch) 등에 해당할 수 있고, 바람직하게는 PC류이다. 이와 같은 전자장치(B)는 1 이상의 프로세서 및 메모리를 포함하고, 선택적으로 모니터 등의 디스플레이장치에 연결되어 있거나 자체적인 디스플레이모듈이 구비될 수도 있다.Here, the electronic device B includes a smart phone, a tablet, a personal computer (PC), a mobile phone, a video phone, an electronic book An e-book reader, a desktop PC, a laptop PC, a netbook PC, a personal digital assistant (PDA) A portable multimedia player (PMP), an MP3 player, a mobile medical device, a camera, a wearable device (for example, a portable multimedia player (PMP) A head-mounted device (HMD), an electronic garment, an electronic bracelet, an electronic necklace, an electronic app apparel, an electronic tattoo, or a smart watch (smart watch) or the like, and preferably A PC flow. In the electronic device (B) comprises as at least one processor and a memory, and selectively fixed to the display device such as a monitor, or may be provided with its own display module.

혹은, 상기 전자장치(B)는 상기 촉각 인터페이스장치와 결합된 형태일 수도 있다. 이 경우, 사용자의 입장에서는 촉각인터페이스장치와 이를 제어하는 전자장치(B)를 하나의 장치로 인식할 수도 있다. 이와 같이 결합된 형태의 장치의 경우 상기 전자장치(B)와 상기 촉각 인터페이스장치는 프로세서와 메모리를 공유하는 형태일 수도 있다.Alternatively, the electronic device B may be in combination with the tactile interface device. In this case, the tactile interface device and the electronic device B controlling the tactile interface device may be recognized as a single device. In the case of such a combined device, the electronic device B and the tactile interface device may be in the form of sharing a memory with the processor.

상기 어플리케이션은 OS에서 기본적으로 제공되는 기능 등을 수행하기 위한 어플리케이션 (예를들어 WINDOWSTM 에서의 탐색기), OS에서 보조적으로 제공되는 기능 등을 수행하기 위한 어플리케이션 (예를들어, WINDOWSTM 에서의 그림판), OS와 별도적으로 설치되어 독자적인 기능을 수행하는 어플리케이션 (예를들어, MS WORDTM), 웹상으로 실행되는 독자적인 기능을 수행하는 어플리케이션, 스마트폰의 앱, 혹은 특정 기기에서만 작동할 수 있는 어플리케이션을 포함하는 용어이다. 즉, 상기 어플리케이션은 실행가능한 명령어들을 가지는 프로그램들을 포괄적으로 지칭한다.The application (e.g. Browser in WINDOWS TM) application to perform a range of functions provided by OS in, for applications (e.g., for performing a function such as provided by an auxiliary in the OS, Paint in WINDOWS TM ), An application that is installed separately from the OS and performs its own functions (for example, MS WORD TM ), an application that performs its own functions that run on the Web, an application on a smartphone, or an application . That is, the application collectively refers to programs having executable instructions.

도 16은 본 발명의 일 실시예에 따른 입력변환단계(S100)의 과정들을 개략적으로 도시하는 도면이다. 16 is a view schematically showing the processes of the input conversion step S100 according to an embodiment of the present invention.

상기 입력변환단계(S100)는, 촉각 인터페이스장치에서 입력된 입력정보를 수신하는 입력정보수신단계(S110); 상기 입력정보의 카테고리를 구분하는 구분하는 입력정보카테고리구분단계(S120); 상기 카테고리에 따라 상기 입력정보를 상기 어플리케이션(3000)에 입력할 수 있는 형태로 변환하는 입력정보변환단계(S130); 및 변환된 입력정보를 어플리케이션에 전송하는 입력정보전송단계(S140)를 포함한다.The input conversion step S100 may include an input information receiving step (S110) of receiving input information input from the tactile interface device; An input information category distinguishing step (S120) for distinguishing the category of the input information; An input information converting step (S130) of converting the input information into a form that can be input to the application (3000) according to the category; And an input information transmitting step (S140) for transmitting the converted input information to the application.

한편, 상기 카테고리는 키입력, 터치입력 중 1 이상을 포함한다.Meanwhile, the category includes at least one of a key input and a touch input.

상기 키입력은 현재 시각장애인들이 일반적으로 많이 사용하는 점자를 일반문자로 변환하여 컴퓨터에 문자 입력신호를 전달하는 점자키보드에 의한 입력이다. 점자키보드는 기존에 널리 쓰이고 있는 점자키보드와 마찬가지로 점자를 입력 받아 촉각 인터페이스장치 혹은 촉각 인터페이스장치에 연결된 사용자 단말기에 전달한다. 점자키보드는 1~6점, 백스페이스, 스페이스, 엔터 버튼으로 구성되며, 점자는 여러 개의 점이 모여 하나의 글자를 구성하기 때문에 점자키보드는 동시에 눌린 버튼의 정보를 전송할 수 있다.The key input is an input by a braille keyboard that converts character input signals to a computer by converting braille characters commonly used by the visually impaired to general characters. The Braille keyboard transmits the Braille to the user terminal connected to the tactile interface device or the tactile interface device as well as the conventional braille keyboard. Braille keyboard consists of 1 ~ 6 points, backspace, space, and enter button. Braille consists of several dots to form one letter, so the braille keyboard can transmit information of pressed buttons at the same time.

상기 터치입력은 도 7 및 도 8에 도시된 비접촉식 광기반 센싱에 의한 입력, 태블릿PC, 스마트폰 등에서 일반적으로 이용되는 정전용량 변화에 의한 터치인식에 의한 입력을 모두 포함하는 입력형태를 지칭한다. 바꾸어말해, 상기 터치입력은 키입력 형태가 아니라 사용자의 신체로 직접 입력하는 형태의 입력을 모두 포함한다.The touch input refers to an input form including all of input by non-contact type optical based sensing shown in FIGS. 7 and 8, input by touch recognition by capacitance change generally used in a tablet PC, smart phone, and the like. In other words, the touch input includes not only a key input type but also an input type in which a user directly inputs the touch input.

한편, 상기 입력정보의 카테고리가 터치입력인 경우, 상기 입력정보변환단계(S130)는 상기 터치입력이 기설정된 복수의 제스처 중 어느 하나와 매칭이 되는 지 여부를 판단하고, 매칭이 되는 경우에 응답하여, 상기 입력정보를 매칭된 제스처에 대응되는 상기 어플리케이션(3000)으로 입력가능한 명령어로 변환한다.If the category of the input information is a touch input, the input information conversion step (S130) determines whether the touch input is matched with any one of a plurality of predefined gestures. If the category is the touch input, And converts the input information into a command that can be input to the application 3000 corresponding to the matched gesture.

여기서, 상기 기설정된 제스처의 예로서는 전술한 표 1과 같다.Here, an example of the predetermined gesture is shown in Table 1 described above.

촉각 인터페이스장치와 전자기기 간의 상호작용은 1차적으로 터치입력의 제스처 인식 기능을 통해 이루어지며, 시각장애인들에게 익숙하고 직관적인 컴퓨터 조작을 위해 상기 표 1 과 같은 다양한 터치 동작들을 정의하여 특정 동작을 인식한 후 전자기기 혹은 전자기기의 어플리케이션(3000)에 입력신호로 전달하는 것이 바람직하다.The interaction between the tactile interface device and the electronic device is primarily performed through the gesture recognition function of the touch input. For the blind and intuitional computer operation, various touch operations as shown in Table 1 are defined, It is preferable to transfer it as an input signal to the electronic device or the application 3000 of the electronic device.

예를들어, 싱글 탭 (single tap) 제스처는 터치한 위치에 있는 촉각 아이콘에 대하여 GUI (Graphic User Interface) 엘리먼트의 종류와 해당 텍스트를 점자와 음성으로 출력한다. 예를들어, 시각장애인이 촉각 그래픽에 의하여 인지되는 촉각 아이콘을 손가락을 쓰는 (swipe) 동작을 통해 인지하고 상기 촉각 아이콘에 대해 싱글 탭 제스처를 수행함으로써 해당 GUI 엘리먼트에 포커스를 이동시킨다. 또한, 이러한 탭 제스처는 선택하는 GUI 엘리먼트의 세부정보, 예를들어 텍스트 정보를 촉각 인터페이스장치의 촉각 그래픽을 표시하는 레이어 중 하나에 점자로 출력함과 동시에 TTS 기반의 음성으로도 출력할 수도 있다. For example, a single tap gesture outputs the type of GUI (Graphic User Interface) element and corresponding text to the tactile icon at the touched position in braille and voice. For example, a blind person recognizes a tactile icon recognized by a tactile graphics through a swipe operation, and performs a single tap gesture on the tactile icon to move the focus to the corresponding GUI element. In addition, the tab gesture may output the detailed information of the GUI element to be selected, for example, text information in braille to one of the layers displaying tactile graphics of the tactile interface device, and also output it as TTS-based voice.

표 1에서의 나머지 제스처들에 해당하는 Double tap, Long tap after tap, Panning after tap, Drawing circle after tap 모두 tap 동작을 한 번 수행한 후 연이어 tap, long tap, panning, drawing the circle 제스처를 수행하는 것으로 정의된다. 이는 시각장애인의 촉각 그래픽을 인지를 위한 손가락 쓸기 동작과 정의된 제스처가 혼동되어 인식되지 않기 위해 이와 같이 정의된 것이다. Double tap 제스처는 같은 위치에서 빠르게 두 번 터치하는 동작으로 GUI 엘리먼트의 디폴트 동작(default action)을 실행시키는 마우스의 좌 더블클릭과 같은 기능을 가진다. Long tap after tap 제스처는 탭을 한 번 수행한 후 같은 위치에서 탭하여 일정한 시간 동안 계속 터치하고 있는 동작으로 마우스의 우 클릭과 같은 기능을 가진다. Panning after tap 제스처는 탭을 한 번 수행한 후 같은 위치에서 다시 터치하여 Panning 동작을 수행하는 동작으로 Panning 방향에 따라 상/하/좌/우 스크롤 기능을 가진다. Drawing circle after tap 제스처는 탭을 한 번 수행한 후 같은 위치에서 빠르게 다시 터치하여 원을 그리는 동작으로 시계방향일 경우 화면 확대기능, 반 시계 방향일 경우 화면 축소기능을 가진다.Long tap, long tap after tap, panning after tap, and drawing circle after tap corresponding to the remaining gestures in Table 1 are performed once, followed by tap, long tap, panning, and drawing the circle gestures . This is so defined that the finger swipe motion for recognizing the tactile graphics of a visually impaired person and the defined gesture are confused and not recognized. The double tap gesture has the same function as the double left click of the mouse that executes the default action of the GUI element by touching twice in the same position quickly. Long tap after tap The gesture is a tap that is touched at the same position and touched continuously for a certain amount of time, and has the same function as a right click of the mouse. Panning after tap The gesture is an operation to perform a panning operation by touching again at the same position after performing a tap once, and has a function of scrolling up / down / left / right according to the panning direction. Drawing circle after tap A gesture is a motion that draws a circle by quickly touching again at the same position after performing a tap once. It has a screen enlargement function in the clockwise direction and a screen reduction function in the counterclockwise direction.

상기 입력정보의 카테고리가 터치입력인 경우, 상기 입력정보변환단계(S130)는 상기 터치입력이 입력좌표의 입력에 해당하는 지 여부를 판단하고, 상기 터치입력이 입력좌표에 해당하는 경우, 촉각 인터페이스장치에서 입력되는 입력좌표를 상기 어플리케이션(3000)에서의 입력좌표로 변환한다.If the category of the input information is a touch input, the input information conversion step (S130) determines whether or not the touch input corresponds to the input of the input coordinates. If the touch input corresponds to the input coordinates, And converts the input coordinates input from the device into the input coordinates in the application 3000.

상기와 같은 좌표에 대한 입력정보변환단계(S130)는 상기 촉각 인터페이스장치에서의 좌표 혹은 입력좌표를 입력좌표를 상기 어플리케이션(3000)에서의 좌표로 변환하기 위함이다.The input information conversion step (S130) for converting the coordinates as described above is for converting coordinates or input coordinates in the tactile interface device into coordinates in the application 3000.

전자기기가 PC인 경우 PC의 모니터 표시화면의 GUI 엘리먼트들을 재구성하여 출력되는 촉각 그래픽에는 촉각 아이콘들이 구현되어 있다. 이와 같은 촉각 아이콘은 상기 모니터 표시화면과 공간적으로 1:1 매칭이 되지 않기 때문에, 상기 촉각 인터페이스장치에서의 터치입력이 발생한 입력좌표를 그대로 사용할 경우 어떤 GUI 엘리먼트에 대한 이벤트가 발생되었는지를 전자기기의 어플리케이션(3000)에서는 판별할 수 없다. 좌표에 대한 입력정보변환단계(S130)는 실질적으로 좌표매핑 기능에 해당한다. 즉, 현재 촉각 그래픽으로 출력되고 있는 촉각 아이콘 객체와 실제 어플리케이션(3000)을 구동하는 경우 모니터 표시화면에 출력되는 GUI 엘리먼트를 매핑시키기 위한 기능으로 매핑 테이블을 구성하여 인식된 터치좌표를 매핑한다.When the electronic device is a PC, tactile icons are implemented in the tactile graphics outputted by reconfiguring the GUI elements of the monitor display screen of the PC. Since the tactile icon is not matched with the monitor display screen in a spatial 1: 1 manner, when the input coordinates at which the touch input occurs in the tactile interface device are used as they are, It can not be discriminated by the application 3000. The input information conversion step (S130) for the coordinates substantially corresponds to the coordinate mapping function. That is, a mapping table is configured to map the tactile icon object currently being output as a tactile graphics and the GUI coordinates output to the monitor display screen when driving the actual application 3000, thereby mapping the recognized touch coordinates.

촉각 인터페이스장치에서 표시되는 촉각 그래픽과 상기 어플리케이션(3000)이 일반적으로 실행될 때의 표시화면은 해상도, 구성, 위치에 있어서 상이할 수 있고, 이 경우 촉각 인터페이스장치에서 입력한 명령이 제한없이 상기 어플리케이션(3000)에 입력되기 위해서는 상기 촉각 인터페이스에서의 입력좌표가 상기 어플리케이션(3000)에서의 입력좌표로 변환 혹은 매핑되어야 하고, 이는 상기 입력정보변환단계(S130)에 의하여 수행된다. 이와 같은 단계에 의하여 사용자는 어플리케이션(3000)의 기능의 축소 혹은 간략화 없이 어플리케이션(3000)의 기능을 일반적인 사용자 수준으로 사용할 수 있다.The tactile graphics displayed on the tactile interface device and the display screen when the application 3000 is generally executed may differ in resolution, configuration, and position. In this case, 3000, the input coordinates in the tactile interface must be converted or mapped to the input coordinates in the application 3000, and this is performed by the input information conversion step S 130. In this way, the user can use the function of the application 3000 at a general user level without reducing or simplifying the function of the application 3000.

예를들어, 사용자가 어플리케이션(3000)에서 'A'라는 명령을 실행하기 위하여(예를들어 윈도우 바탕화면에서 내문서 폴더를 여는 경우), 상기 촉각 인터페이스장치에서 상기 'A'에 해당하는 지점에서 Double Tab을 수행하는 경우 (상기 표 1 참조), 상기 좌표매핑부(2130)는 상기 촉각 인터페이스장치에서의 상기 지점의 좌표를 연결된 어플리케이션(3000)의 'A' 아이콘의 좌표에 매핑하고, 이에 따라 상기 어플리케이션(3000)에서의 'A' 명령이 실행될 수 있다.For example, in order to execute a command 'A' in the application 3000 (for example, when the user opens the My Documents folder on the Windows desktop), the tactile interface device When performing Double Tab (see Table 1 above), the coordinate mapping unit 2130 maps the coordinates of the point in the tactile interface device to the coordinates of the icon 'A' of the connected application 3000, The 'A' command in the application 3000 can be executed.

이와 같이, 상기 입력정보변환단계(S130)에 의하여 촉각 인터페이스장치의 터치입력에 대한 제스처를 인식하는 터치 제스처 인식 기능, 터치인식 장치에서 입력된 터치좌표에 해당하는 GUI 엘리먼트를 알려주는 좌표매핑 기능, 그리고 점자키보드로부터 입력되는 점자정보를 일반 문자로 변환하는 역 점역 기능을 수행할 수 있다.As described above, in the input information conversion step (S130), a touch gesture recognition function for recognizing a gesture with respect to a touch input of the tactile interface device, a coordinate mapping function for indicating a GUI element corresponding to the touch coordinates input from the touch recognition device, Also, it is possible to perform a reverse grayscale function for converting the braille information input from the braille keyboard into general characters.

도 17은 본 발명의 일 실시예에 따른 출력변환단계(S200)의 과정들을 개략적으로 도시하는 도면이다. 상기 출력변환단계(S200)는 상기 어플리케이션(3000)으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 촉각그래픽데이터로 변환하는 단계이다.17 is a view schematically showing the processes of the output conversion step S200 according to an embodiment of the present invention. The output conversion step S200 is a step of converting a focus area including a part of the graphic display output from the application 3000 into tactile graphic data.

상기 출력변환단계(S200)는, The output conversion step (S200)

상기 어플리케이션(3000)으로부터 그래픽디스플레이의 출력정보를 수신하는 단계(S210);Receiving output information of the graphic display from the application 3000 (S210);

상기 어플리케이션(3000)에 의하여 표시되는 그래픽디스플레이가 변경되었는지를 판별하는 단계(S220);Determining whether the graphic display displayed by the application 3000 has been changed (S220);

상기 어플리케이션(3000)에 의하여 표시되는 그래픽디스플레이를 촉각그래픽데이터로 변환하는 촉각그래픽변환단계(S230); 및A tactile graphic conversion step (S230) of converting the graphic display displayed by the application (3000) into tactile graphic data; And

상기 촉각그래픽데이터를 촉각 인터페이스장치로 전송하는 단계(S240)를 포함한다.And transmitting the tactile graphic data to the tactile interface device (S240).

도 18은 본 발명의 일 실시예에 따른 촉각그래픽변환단계(S230)의 과정들을 개략적으로 도시하는 도면이다.18 is a view schematically showing processes of a tactile graphic conversion step S230 according to an embodiment of the present invention.

실제 어플리케이션(3000)을 구동하는 경우 모니터 표시화면에 출력되는 모든 GUI 엘리먼트들을 촉각 그래픽으로 변환하여 이를 촉각 인터페이스장치에 출력하는 경우, 사용자가 촉각 그래픽을 이해하는 데 어려움이 발생할 수 있다.When the actual application 3000 is driven, when all the GUI elements output to the monitor display screen are converted into tactile graphics and output to the tactile interface device, it may be difficult for the user to understand the tactile graphics.

따라서 본 발명의 일 실시예에 따르면, 상기 촉각그래픽변환단계(S230)는 상기 어플리케이션(3000)으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 촉각그래픽데이터로 변환함이 바람직하다. 즉, 사용자에 의하여 포커싱되는 영역에 해당하는 포커스영역만을 혹은 포커스영역을 중심으로 촉각그래픽데이터로 변환하고 이를 촉각 그래픽으로 표시함으로써 사용자는 현재 포커싱되는 영역만을 빠르고 편리하게 인지할 수 있고, 사용자의 인지 및 입력에 있어서의 오류를 제거할 수 있다.Therefore, according to an embodiment of the present invention, the tactile graphic conversion step S230 may convert the focus area including a part of the graphic display output from the application 3000 into tactile graphic data. That is, only the focus area corresponding to the area focussed by the user or the focus area is converted into tactile graphic data, and the tactile graphic data is displayed on the tactile graphic data so that the user can recognize the current focused area only quickly and conveniently. And errors in the input can be eliminated.

한편, 상기 포커스영역은 사용자가 이전의 입력 중 1 이상에 의하여 결정된다. 예를들어, 사용자가 터치입력으로 촉각 인터페이스장치에서의 입력좌표를 이동시키고 탭 등의 제스처에 의하여 해당 입력좌표의 영역에 포커싱이 되는 경우, 이와 같은 사용자의 입력들에 의하여 상기 포커싱영역이 결정된다.Meanwhile, the focus area is determined by at least one of the previous inputs by the user. For example, when the user moves the input coordinates of the tactile interface device with the touch input and focuses the area of the input coordinate by a gesture such as a tap, the focusing area is determined by the inputs of the user .

본 발명의 일 실시예에 따르면 상기 촉각그래픽변환단계(S230)는, 상기 포커스영역을 복수의 포커스부분영역으로 구분하고, 기설정된 변환규칙에 따라 각각의 포커스부분영역의 표시엘리먼트를 촉각그래픽엘리먼트로 변환하는 동작을 수행함으로써 촉각그래픽데이터를 생성한다.According to an exemplary embodiment of the present invention, the tactile graphic conversion step S230 may include dividing the focus area into a plurality of focus part areas, and displaying the display elements of the respective focus part areas according to a predetermined conversion rule as a tactile graphic element Thereby generating tactile graphics data.

도 18에 도시된 바와 같이, 상기 어플리케이션(3000)에 의하여 표시되는 그래픽디스플레이를 촉각그래픽데이터로 변환하는 촉각그래픽변환단계(S230)는 상기 어플리케이션(3000)으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 결정하는 포커스영역결정단계(S231);18, the tactile graphic conversion step S230 for converting the graphic display displayed by the application 3000 into the tactile graphic data includes a step of displaying a part of the graphic display outputted from the application 3000, A focus area determination step (S231) of determining an area;

상기 포커스영역을 복수의 포커스부분영역으로 구분하는 포커스부분영역구분단계(S232);A focus partial area dividing step (S232) of dividing the focus area into a plurality of focus partial areas;

기설정된 변환규칙에 따라 각각의 포커스부분영역의 표시엘리먼트를 촉각그래픽엘리먼트로 변환하는 촉각그래픽엘리먼트변환단계(S233); 및A tactile graphic element conversion step (S233) of converting a display element of each focus partial area into a tactile graphic element according to a predetermined conversion rule; And

상기 촉각그래픽엘리먼트를 포함하는 촉각그래픽데이터를 생성하는 촉각그래픽데이터생성단계(S234);를 포함한다.And tactile graphic data generation step S234 for generating tactile graphic data including the tactile graphic element.

도 20은 이와 같은 표시엘리먼트를 촉각그래픽엘리먼트로 변환하는 기설정된 변환규칙의 예를 도시한다.Fig. 20 shows an example of a predetermined conversion rule for converting such a display element into a tactile graphic element.

예를들어, 도 20에서 표시엘리먼트(GUI엘리먼트)가 'Button'에 해당하는 경우, 어플리케이션(3000)의 실제 화면에 출력되는 형태는 도 20에서 Visual Design이라는 항목에 표시된 형태의 GUI이다. 그리고 이와 같은 'Button'에 대한 표시엘리먼트를 도 20에 도시된 변환규칙에 따라서, 촉각 아이콘으로 변환하고, 변환된 촉각 아이콘을 상기 촉각 인터페이스장치에서 촉각 그래픽으로 구현한다. 한편, 사용자의 촉각 인터페이스장치에서의 입력, 바람직하게는 제스처 형태의 입력에 의하여 상기 촉각 아이콘에 대한 세부 정보를 촉각 인터페이스장치의 점자형태의 촉각 그래픽 혹은 상기 TTS변환에 의한 음성으로 사용자가 인식할 수도 있다.For example, when the display element (GUI element) corresponds to 'Button' in FIG. 20, the form displayed on the actual screen of the application 3000 is the GUI of the form shown in the item of 'Visual Design' in FIG. Then, the display element for the 'Button' is converted into a tactile icon according to the conversion rule shown in FIG. 20, and the converted tactile icon is implemented as a tactile graphic in the tactile interface device. On the other hand, detailed information on the tactile icon can be recognized by the user in the form of braille tactile graphics of the tactile interface device or voice by the TTS conversion by means of an input of the user's tactile interface device, preferably a gesture type input have.

도 19는 본 발명의 일 실시예에 따른 촉각그래픽을 개략적으로 도시하는 도면이다. 상기 촉각 그래픽은 복수의 레이어를 포함하고, 도 19에서는 상기 복수의 레이어는 제1 레이어(4100), 제2 레이어(4200), 및 제3 레이어(4300)를 포함한다.19 is a view schematically showing a tactile graphics according to an embodiment of the present invention. The tactile graphics include a plurality of layers, and in FIG. 19, the plurality of layers include a first layer 4100, a second layer 4200, and a third layer 4300.

상기 복수의 포커스부분영역은 각각 상기 복수의 레이어에 대응한다. 즉, 상기 어플리케이션(3000)으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역은 복수의 포커스부분영역으로 구성되어 있고, 이와 같은 복수의 포커스부분영역의 각각은 상기 복수의 레이어 각각에 대응한다. 따라서, 상기 촉각그래픽변환부(2210)는 포커스부분영역 혹은 레이어 별로 그래픽디스플레이를 촉각 그래픽으로 변환한다.The plurality of focus partial areas correspond to the plurality of layers, respectively. That is, the focus area including a part of the graphic display output from the application 3000 is composed of a plurality of focus partial areas, and each of the plurality of focus partial areas corresponds to each of the plurality of layers. Accordingly, the tactile graphics converting unit 2210 converts the graphic display into the tactile graphics by the focus area or the layer.

상기 제1 레이어(4100)는 화면 컨트롤 영역으로서, 현재 촉각 인터페이스장치에서 출력되는 촉각 그래픽의 타이틀을 지칭하는 아이콘, '이전', '확인', '취소', '닫기'와 같은 화면전환을 위한 버튼들의 촉각 아이콘 중 1 이상으로 구성될 수 있다. 즉, 제1 레이어(4100)는 상기 어플리케이션(3000)으로부터 출력되는 상기 그래픽디스플레이의 화면을 변경시키는 명령을 실행하는 촉각 아이콘을 포함한다.The first layer 4100 is a screen control area. The first layer 4100 is an icon for indicating a title of a tactile graphic output from the current tactile interface device, a button for switching the screen such as 'previous', 'confirm', 'cancel' And tactile icons of the buttons. That is, the first layer 4100 includes a tactile icon for executing a command to change the screen of the graphic display output from the application 3000. [

상기 제2 레이어(4200)는 메인 화면 영역으로 버튼, 메뉴, 폴더, 그래픽 정보 등에 대한 촉각 그래픽이 제공되는 레이어이다. 사용자는 제2 레이어(4200)를 통하여 그리기 입력을 수행하거나, 그래픽 정보를 인지하거나, GUI 요소들을 인지하거나, 사용자의 컨트롤 입력을 수행할 수 있다.The second layer 4200 is a main screen area in which tactile graphics for buttons, menus, folders, graphic information, etc. are provided. The user may perform drawing input, recognize graphic information, recognize GUI elements, or perform user control input through the second layer 4200.

상기 제3 레이어(4300)는 상기 어플리케이션(3000)으로부터 출력되는 촉각그래픽엘리먼트에 대한 세부정보를 점자형태로 표시하는 레이어이다. 사용자는 상기 제3 레이어(4300)로 출력되는 점자를 인지함으로써 촉각 엘리먼트들에 대한 세부 정보를 확인할 수 있다. 전술한 바와 같이, 이와 같은 세부정보의 확인은 상기 TTS변환부(2220)에 의하여 변환된 음성에 의하여도 이루어질 수 있다.The third layer 4300 is a layer for displaying detailed information on tactile graphic elements output from the application 3000 in braille form. The user can confirm detailed information about the tactile elements by recognizing the braille output to the third layer 4300. As described above, confirmation of such detailed information can also be performed by the voice converted by the TTS converting unit 2220. [

이상과 같은 촉각 인터페이스장치를 제어하는 방법에 의하면, WINDOWSTM 의 보조프로그램에 해당하는 '그림판'과 같은 프로그램도 시각장애인이 이용할 수 있다. 시각장애인은 상기 제2 레이어(4200)를 통하여 선을 포함하는 그림을 입력하고, 실시간으로 촉각을 이용하여 자신이 그린 그림을 인지할 수 있고, 인지된 그림정보에 기초하여 계속적으로 그림을 완성해나갈 수 있다.According to the method of controlling the tactile interface device as described above, a program such as 'Paint' corresponding to the auxiliary program of WINDOWS TM can be used by the visually impaired. The blind person can input a picture including the line through the second layer 4200, recognize the picture drawn by himself / herself in real time, and continuously complete the picture based on the recognized picture information I can go out.

한편, 전술한 촉각 인터페이스장치를 제어하는 방법은 출력 및 입력이 가능한 촉각 인터페이스장치 및 이에 대한 제어의 양상에서 실시예가 서술되었으나, 본 발명은 이에 한정되지 않고, 출력만 가능한 촉각 인터페이스장치 혹은 입력만 가능한 촉각인터페이스 장치에 대한 제어방법을 포함한다.In the meantime, the above-described method of controlling the tactile interface device has been described in terms of the tactile interface device capable of outputting and inputting and the control thereof. However, the present invention is not limited thereto. And a control method for the tactile interface device.

이하에서는, 본 발명에 의한 촉각 인터페이스장치를 제어하는 방법에 의하여 변환되는 어플리케이션(3000)에서 출력되는 그래픽디스플레이에 대한 실시예들에 대하여 설명하도록 한다. 이하에서의 설명에서는 도 20에 도시된 그래픽디스플레이의 표시엘리먼트를 촉각그래픽엘리먼트로 변환하는 기설정된 변환규칙을 적용하도록 한다.Hereinafter, embodiments of the graphic display output from the application 3000 that is converted by the method of controlling the tactile display device according to the present invention will be described. In the following description, it is assumed that a predetermined conversion rule for converting a display element of the graphic display shown in Fig. 20 into a tactile graphic element is applied.

도 21은 전자장치(B)의 표시화면(그래픽디스플레이)의 제1 예를 도시하는 도면이다. 21 is a diagram showing a first example of a display screen (graphic display) of the electronic device B;

도 21에서 포커스영역은 상기 어플리케이션이 실행되는 창에 해당하고, 포커스부분영역은 (1), (2), (3), (4)를 포함하는 제1 포커스부분영역 및 (5)를 포함하는 제2 포커스부분영역으로 나누어질 수 있다.21, the focus area corresponds to the window in which the application is executed, and the focus partial area includes the first focus partial area including (1), (2), (3), and (4) And a second focus partial area.

상기 (1)은 본 어플리케이션의 타이틀에 해당하고, 상기 (2)는 본 어플리케이션의 메뉴바에 해당하고, 상기 (3)은 본 어플리케이션의 '최소화'버튼에 해당하고, 상기 (4)는 본 어플리케이션의 '닫기'버튼에 해당하고, 상기 (5)는 본 어플리케이션에서 표시하는 객체들을 표시하는 창에 해당한다.The above (1) corresponds to the title of this application, (2) corresponds to the menu bar of this application, (3) corresponds to the 'minimize' button of this application, Quot; close " button, and (5) corresponds to a window for displaying objects displayed in the application.

도 22는 도 21에 도시된 표시화면의 제1 예를 본 발명의 일 실시예에 따라 촉각그래픽으로 변환하여 출력한 촉각그래픽을 도시하는 도면이다.FIG. 22 is a diagram showing a tactile graphics outputted by converting a first example of the display screen shown in FIG. 21 into a tactile graphics according to an embodiment of the present invention.

상기 (1), (2), (3), 및 (4)를 포함하는 제1 포커스부분영역은 촉각 그래픽의 상단의 레이어(제1 레이어(4100))로 변환 혹은 매핑되고, 상기 (5)를 포함하는 제2 포커스부분영역은 촉각 그래픽의 중단의 레이어(제2 레이어(4200))로 변환 혹은 매핑된다. 전술한 바와 같이 매핑시의 변환규칙은 상기 도 20에 도시된 규칙에 따른다.The first focus partial area including the above-mentioned (1), (2), (3) and (4) is converted or mapped to the upper layer (first layer 4100) (Second layer 4200) of tactile graphics is converted or mapped. As described above, the conversion rule at the time of mapping is in accordance with the rule shown in FIG.

한편, 촉각 그래픽의 하단의 레이어는 상기 제1 레이어(4100) 및 제2 레이어(4200)에서 사용자가 터치입력 혹은 지칭한 촉각 아이콘의 텍스트 정보를 점자형태로 나타내는 레이어에 해당한다.On the other hand, the lower layer of the tactile graphic corresponds to a layer in which text information of the tactile icon referred to by the user in the first layer 4100 and the second layer 4200 is expressed in braille.

예를들어 (1) 영역은 타이틀에 해당하고, 이는 도 20에 도시된 변환규칙에 의하여 기설정된 촉각 아이콘으로 변환되어, 촉각 그래픽의 제1 레이어(4100)에 구현된다. 이에 대해 사용자가 상기 (1) 영역에 해당하는 촉각 아이콘에 탭 등의 제스처를 취하는 경우, 상기 제3 레이어(4300)에서는 상기 타이틀의 세부정보에 해당하는 “Haptic Editor”를 점자형태로 출력한다.For example, the area (1) corresponds to a title, which is converted into a predetermined tactile icon by the conversion rule shown in FIG. 20, and is implemented in the first layer 4100 of the tactile graphics. On the contrary, when the user takes a gesture such as a tap on the tactile icon corresponding to the area (1), the third layer 4300 outputs 'Haptic Editor' corresponding to the detailed information of the title in braille form.

도 23은 전자장치(B)의 표시화면(그래픽디스플레이)의 제2 예를 도시하는 도면이다.23 is a diagram showing a second example of a display screen (graphic display) of the electronic device B;

도 23의 그래픽디스플레이는 상기 도 21에 도시된 어플리케이션에서 (2) 영역에 해당하는 메뉴바를 선택하고, 이 중 'Page Control'을 입력 혹은 선택 했을 때의 그래픽디스플레이이다.23 is a graphical display when a menu bar corresponding to the area (2) is selected in the application shown in FIG. 21 and 'Page Control' is selected or selected.

이 경우, 포커스영역은 상기 도 23에서 “Focused area”로 지칭되는 영역에 해당하고, 포커스부분영역은 (1)을 포함하는 제1 포커스부분영역 및 (2) 내지 (6)을 포함하는 제2 포커스부분영역으로 나누어질 수 있다.In this case, the focus area corresponds to an area called " Focused area " in FIG. 23, and the focus part area includes a first focus partial area including (1) and a second focus partial area including (2) And can be divided into a focus partial area.

상기 (1)은 메뉴바에서 선택한 타이틀에 해당하고, 상기 (2) 내지 (6)은 해당 타이틀 내에서 선택할 수 있는 서브메뉴에 해당한다.The above (1) corresponds to the title selected in the menu bar, and the above (2) to (6) correspond to the submenu that can be selected within the title.

도 24는 도 23에 도시된 표시화면의 제2 예를 본 발명의 일 실시예에 따라 촉각그래픽으로 변환하여 출력한 촉각그래픽을 도시하는 도면이다.FIG. 24 is a diagram showing a tactile graphics output by converting a second example of the display screen shown in FIG. 23 into a tactile graphics according to an embodiment of the present invention.

상기 (1), (7)을 포함하는 제1 포커스부분영역은 촉각 그래픽의 상단의 레이어(제1 레이어(4100))로 변환 혹은 매핑되고, 상기 (2) 내지 (6)을 포함하는 제2 포커스부분영역은 촉각 그래픽의 중단의 레이어(제2 레이어(4200))로 변환 혹은 매핑된다. 전술한 바와 같이 매핑시의 변환규칙은 상기 도 20에 도시된 규칙에 따른다. 한편 (7)은 '뒤로가기'버튼에 대한 촉각 아이콘으로서, 실제로 어플리케이션의 그래픽디스플레이에는 포함되어 있지 않지만, 본 발명에 따른 제어방법에서 사용자의 편의성을 확대시키기 위하여 자체적으로 생성한 아이콘에 해당한다.The first focus partial area including the above (1) and (7) is transformed or mapped to the upper layer (first layer 4100) of the tactile graphics, and the second focus partial area including the second (2) The focus subarea is transformed or mapped to the interruption layer of the tactile graphics (second layer 4200). As described above, the conversion rule at the time of mapping is in accordance with the rule shown in FIG. Meanwhile, (7) is a tactile icon for the 'backward' button, which is not actually included in the graphic display of the application, but corresponds to an icon generated by itself in order to extend the user's convenience in the control method according to the present invention.

한편, 촉각 그래픽의 하단의 레이어는 상기 제1 레이어(4100) 및 제2 레이어(4200)에서 사용자가 터치입력 혹은 지칭한 촉각 아이콘의 텍스트 정보를 점자형태로 나타내는 레이어에 해당한다.On the other hand, the lower layer of the tactile graphic corresponds to a layer in which text information of the tactile icon referred to by the user in the first layer 4100 and the second layer 4200 is expressed in braille.

예를들어 (1) 영역은 타이틀에 해당하고, 이는 도 20에 도시된 변환규칙에 의하여 기설정된 촉각 아이콘으로 변환되어, 촉각 그래픽의 제1 레이어(4100)에 구현된다. 이에 대해 사용자가 상기 (1) 영역에 해당하는 촉각 아이콘에 탭 등의 제스처를 취하는 경우, 상기 제3 레이어(4300)에서는 상기 타이틀의 세부정보에 해당하는 “Page Control”을 점자형태로 출력한다.For example, the area (1) corresponds to a title, which is converted into a predetermined tactile icon by the conversion rule shown in FIG. 20, and is implemented in the first layer 4100 of the tactile graphics. On the other hand, if the user takes a gesture such as a tap on the tactile icon corresponding to the area (1), the third layer 4300 outputs 'Page Control' corresponding to the detailed information of the title in braille form.

도 25는 본 발명의 일 실시예에 따른 촉각 인터페이스장치로 시각장애인이 그림을 그리는 과정을 개략적으로 도시하는 도면이다.FIG. 25 is a view schematically showing a process of drawing a picture by a blind person with a tactile interface device according to an embodiment of the present invention.

본 발명에서와 같은 촉각 인터페이스장치 및 이를 제어하는 전자장치(B)에 의하면, WINDOWSTM 의 보조프로그램에 해당하는 '그림판'과 같은 프로그램도 시각장애인이 이용할 수 있다. 즉, 상기 어플리케이션이 그래픽 입력, 편집, 및 저장의 기능을 수행할 수 있는 어플리케이션인 경우, 기존의 시각장애인들이 활용하지 못하였던 컴퓨팅 장치에서 실행되는 그래픽 입력 및 이와 관련된 기능을 시각장애인이 활용할 수 있다. 구체적으로, 시각장애인은 상기 제2 레이어(4200)를 통하여 선을 포함하는 그림을 입력하고, 실시간으로 촉각을 이용하여 자신이 그린 그림을 인지할 수 있고, 인지된 그림정보에 기초하여 계속적으로 그림을 완성해 나갈 수 있다. 즉, 본 발명의 일 실시예에 따르면 시각장애인도 그래픽 입력, 편집, 및 저장을 용이하게 컴퓨터로 수행할 수 있다.According to the tactile interface device and the electronic device B controlling the same as in the present invention, a program such as 'Paint' corresponding to the auxiliary program of WINDOWS TM can be used by the visually impaired. That is, when the application is an application capable of performing a function of inputting, editing, and storing graphics, a blind person can utilize graphic input and related functions executed in a computing device which has not been utilized by existing blind persons . Specifically, a blind person can input a picture including a line through the second layer 4200, recognize a picture drawn by himself / herself using a tactile sense in real time, Can be completed. That is, according to one embodiment of the present invention, a blind person can easily perform graphic input, editing, and storage with a computer.

본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 시각장애인들로 하여금 실시간으로 촉각적으로 디스플레이되는 사항들을 직관적으로 인지할 수 있게 하는 효과를 발휘할 수 있다.The method, apparatus, and computer-readable medium for controlling a tactile interface device in accordance with the present invention can exert an effect of visually impaired persons intuitively recognizing tactile display items in real time.

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 시각장애인들로 하여금 촉각적으로 정보를 인지하면서 동시에 인지된 정보에 기반하여 즉각적으로 입력을 할 수 있는 효과를 발휘할 수 있다.In addition, the method, apparatus and computer-readable medium for controlling the tactile interface device according to the present invention allow the visually impaired to recognize the information tactually and at the same time instantly input based on the perceived information .

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 터치 및 제스처 인식이 가능한 촉각 디스플레이를 기반으로 시각장애인이 컴퓨터의 화면출력 정보를 점자, 음성 및 촉각 그래픽의 형태로 인지하고 이에 대한 즉각적이고 직관적 정보입력을 할 수 있게 하여 일반인과 매우 유사한 방식으로 컴퓨터를 효율적으로 사용할 수 있게 하는 효과를 발휘할 수 있다.In addition, the method, apparatus and computer-readable medium for controlling the tactile interface device according to the present invention can be applied to a tactile display capable of recognizing tactile and gesture- So that it is possible to promptly and intuitively input information to the user, so that the computer can be effectively used in a manner very similar to that of the general public.

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 OS의 다양한 기능들과 다양한 어플리케이션 소프트웨어 들을 사용할 수 있도록 쉽게 확장이 가능하다는 효과를 발휘할 수 있다.Further, the method, apparatus, and computer-readable medium for controlling the tactile interface device according to the present invention can exhibit the effect of being easily expandable to use various functions of the OS and various application software.

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 시각장애인들에게 종래의 스크린리더 등의 장치와 비교시 현저히 향상된 작업 수행속도 및 편의성을 제공할 수 있는 효과를 발휘할 수 있다.In addition, the method, apparatus and computer-readable medium for controlling the tactile interface device according to the present invention can provide a visually impaired person with a speedy and convenient operation speed that is remarkably improved in comparison with a device such as a screen reader of the related art .

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 시각장애인들이 스크린리더로는 수행하기 어려운 그래픽 관련 작업들을 편리하게 수행할 수 있는 효과를 발휘할 수 있다.In addition, the method, apparatus, and computer-readable medium for controlling the tactile interface device according to the present invention can exert the effect that the visually impaired persons can conveniently perform graphic related tasks that are difficult to perform with a screen reader.

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체에 의하면, WINDOWSTM 의 보조프로그램에 해당하는 '그림판'과 같은 프로그램도 시각장애인이 이용할 수 있다. 시각장애인은 상기 제2 레이어를 통하여 선을 포함하는 그림을 입력하고, 실시간으로 촉각을 이용하여 자신이 그린 그림을 인지할 수 있고, 인지된 그림정보에 기초하여 계속적으로 그림을 완성해나갈 수 있다.Further, according to a method, an apparatus and a computer-readable medium for controlling a tactile interface device according to the present invention, WINDOWS TM Programs such as 'Paint', which is an auxiliary program, are also available for the visually impaired. The blind can input a picture including the line through the second layer, recognize the picture drawn by himself / herself using the tactile sense in real time, and continue to complete the picture based on the recognized picture information .

또한, 본 발명에 따른 촉각 인터페이스장치를 제어하기 위한 방법, 장치 및 컴퓨터-판독가능 매체는 시각장애인의 컴퓨터 활용능력을 크게 향상시키고, 시각장애인용 컴퓨터 하드웨어 및 소프트웨어 시장을 확대할 수 있는 효과를 발휘할 수 있다.Further, the method, apparatus and computer-readable medium for controlling the tactile interface device according to the present invention significantly improve the ability of the visually impaired to utilize the computer, and to expand the market for computer hardware and software for the visually impaired .

하나 이상의 예시적인 구현에서, 여기서 제시된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 조합을 통해 구현될 수 있다. 소프트웨어로 구현되는 경우, 상기 기능들은 컴퓨터 판독가능한 매체 상에 하나 이상의 명령들 또는 코드로서 저장되거나, 또는 이들을 통해 전송될 수 있다. 컴퓨터 판독가능한 매체는 컴퓨터 저장 매체 및 일 장소에서 다른 장소로 컴퓨터 프로그램의 이전을 용이하게 하기 위한 임의의 매체를 포함하는 통신매체를 포함한다. 저장 매체는 범용 컴퓨터 또는 특수 목적의 컴퓨터에 의해 액세스될 수 있는 임의의 가용한 매체일 수 있다. 예를 들어, 이러한 컴퓨터 판독가능한 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크저장 매체, 자기 디스크 저장 매체 또는 다른 자기 저장 장치들, 또는 명령 또는 데이터 구조의 형태로 요구되는 프로그램 코드 수단을 저장하는데 사용될 수 있고, 범용 컴퓨터, 특수목적의 컴퓨터, 범용 프로세서, 또는 특별한 프로세서에 의해 액세스될 수 있는 임의의 다른 매체를 포함하지만, 이들로 제한되는 것은 아니다.In one or more exemplary implementations, the functions presented herein may be implemented in hardware, software, firmware, or a combination thereof. When implemented in software, the functions may be stored on or transmitted via one or more instructions or code on a computer readable medium. Computer-readable media includes computer storage media and communication media including any medium for facilitating transfer of a computer program from one place to another. The storage medium may be any general purpose computer or any available medium that can be accessed by a special purpose computer. By way of example, and not limitation, such computer-readable media can comprise any form of computer readable medium, such as RAM, ROM, EEPROM, CD-ROM or other optical disk storage media, magnetic disk storage media or other magnetic storage devices, But not limited to, a general purpose computer, a special purpose computer, a general purpose processor, or any other medium that can be accessed by a particular processor.

또한, 임의의 연결 수단이 컴퓨터 판독가능한 매체로 간주될 수 있다. 예를 들어, 소프트웨어가 웹사이트, 서버, 또는 다른 원격 소스로부터 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 라인(DSL), 또는 적외선 라디오, 및 마이크로웨이브와 같은 무선 기술들을 통해 전송되는 경우, 이러한 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 적외선 라디오, 및 마이크로웨이브와 같은 무선 기술들이 이러한 매체의 정의 내에 포함될 수 있다. 여기서 사용되는 disk 및 disc은 컴팩트 disc(CD), 레이저 disc, 광 disc, DVD, 플로피 disk, 및 블루-레In addition, any connection means may be considered as a computer-readable medium. For example, if the software is transmitted from a web site, server, or other remote source over wireless technologies such as coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), or infrared radio, and microwave, Wireless technologies such as cable, fiber optic cable, twisted pair, DSL, or infrared radio, and microwave may be included within the definition of such medium. The disks and discs used herein may be compact discs (CDs), laser discs, optical discs, DVDs, floppy disks,

이 disc를 포함하며, 여기서 disk는 데이터를 자기적으로 재생하지만, disc은 레이저를 통해 광학적으로 데이터를 재생한다. 상기 조합들 역시 컴퓨터 판독가능한 매체의 범위 내에 포함될 수 있다.This disc contains discs where discs reproduce data magnetically, while discs reproduce data optically through a laser. The combinations may also be included within the scope of computer readable media.

통상의 기술자는 상술한 다양한 예시적인 엘리먼트, 컴포넌트, 논리블록, 모듈 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 이들의 조합으로서 구현될 수 있음을 잘 이해할 것이다. 하드웨어 및 소프트웨어의 상호 호환성을 명확히 하기 위해, 다양한 예시적인 소자들, 블록, 모듈 및 단계들이 그들의 기능적 관점에서 기술되었다. 이러한 기능이 하드웨어로 구현되는지, 또는 소프트웨어로 구현되는지는 특정 애플리케이션 및 전체 시스템에 대해 부가된 설계 제한들에 의존한다. 당업자는 이러한 기능들을 각각의 특정 애플리케이션에 대해 다양한 방식으로 구현할 수 있지만, 이러한 구현 결정이 본 발명의 영역을 벗어나는 것은 아니다.Those of ordinary skill in the art will appreciate that the various illustrative elements, components, logical blocks, modules, and algorithm steps described above may be implemented as electronic hardware, computer software, or combinations thereof. In order to clarify the interchangeability of hardware and software, various illustrative components, blocks, modules and steps have been described in terms of their functionality. Whether such functionality is implemented as hardware or software depends upon the particular application and design constraints imposed on the overall system. Skilled artisans may implement these functions in varying ways for each particular application, but such implementation decisions are not necessarily outside the scope of the invention.

본 명세서에서 기재되는 다양한 예시적인 논리 블록들 및 모듈들은 범용 프로세서, 디지털 신호 처리기(DSP), 주문형 반도체(ASIC), 필드 프로그래머블 게이트 어레이(FPGA) 또는 다른 프로그램어블 논리 디바이스, 이산 게이트 또는 트랜지스터 논리, 이산 하드웨어 컴포넌트들 또는 여기서 기재되는 기능들을 구현하도록 설계되는 임의의 조합을 통해 구현 또는 수행될 수 있다. 범용 프로세서는 마이크로 프로세서 일 수 있지만; 대안적 실시예에서, 이러한 프로세서는 기존 프로세서, 제어기, 마이크로 제어기, 또는 상태 머신일 수 있다. 프로세서는 예를 들어, DSP 및 마이크로프로세서, 복수의 마이크로프로세서들, DSP 코어와 결합된 하나 이상의 마이크로프로세서, 또는 이러한 구성들의 조합과 같이 계산 장치들의 조합으로서 구현될 수 있다. The various illustrative logical blocks and modules described herein may be implemented or performed with a general purpose processor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA) or other programmable logic device, discrete gate or transistor logic, Discrete hardware components, or any combination designed to implement the functions described herein. A general purpose processor may be a microprocessor; In an alternative embodiment, such a processor may be an existing processor, controller, microcontroller, or state machine. A processor may be implemented as a combination of computing devices, such as, for example, a DSP and a microprocessor, a plurality of microprocessors, one or more microprocessors in conjunction with a DSP core, or a combination of such configurations.

하드웨어 구현에 대하여, 여기에서 개시되는 양상들과 관련하여 설명되는 프로세싱 유닛들의 다양한 예시적인 로직들, 로직 블록들 및 모듈들은, 하나 이상의 주문형 반도체(ASIC)들, 디지털 신호 처리기들(DSP)들, 디지털 신호 프로세싱 디바이스(DSPD)들, 프로그래밍 가능한 로직 디바이스(PLD)들, 필드 프로그래밍 가능한 게이트 어레이(FPGA)들, 이산 게이트 또는 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 범용 목적의 프로세서들, 제어기들, 마이크로-컨트롤러들, 마이크로프로세서들, 여기에서 설명되는 기능들을 수행하도록 설계되는 다른 전자 유닛들, 또는 이들의 조합에서 구현될 수 있다. 범용-목적 프로세서는 마이크로프로세서일 수 있지만, 대안적으로, 임의의 기존의 프로세서, 제어기, 마이크로컨트롤러, 또는 상태 머신일 수 있다. 프로세서는 또한 컴퓨팅 디바이스들의 조합(예컨대, DSP 및 마이크로프로세서, 복수의 마이크로프로세서들, DSP 코어와 관련된 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 적절한 구성)으로 구현될 수 있다. 추가적으로, 적어도 하나의 프로세서는 여기에서 설명되는 단계들 및/또는 동작들 중 하나 이상을 구현할 수 있는 하나 이상의 모듈들을 포함할 수 있다.For a hardware implementation, the various illustrative logic, logic blocks, and modules of processing units described in connection with the aspects disclosed herein may be implemented with one or more application specific integrated circuits (ASICs), digital signal processors (DSPs) Such as digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), discrete gate or transistor logic, discrete hardware components, general purpose processors, Controllers, microprocessors, other electronic units designed to perform the functions described herein, or a combination thereof. The general purpose processor may be a microprocessor, but, in the alternative, it may be any conventional processor, controller, microcontroller, or state machine. The processor may also be implemented as a combination of computing devices (e.g., a DSP and a microprocessor, a plurality of microprocessors, a combination of one or more microprocessors in conjunction with a DSP core, or any other suitable configuration). Additionally, at least one processor may include one or more modules capable of implementing one or more of the steps and / or operations described herein.

게다가, 여기에서 설명되는 다양한 양상들 또는 특징들은 표준 프로그래밍 및/또는 엔지니어링 기법들을 사용하는 방법, 장치, 또는 제조물로서 구현될 수 있다. 또한, 여기에서 개시되는 양상들과 관련하여 설명되는 방법 또는 알고리즘의 단계들 및/또는 동작들은 하드웨어로, 프로세서에 의해 실행되는 소프트웨어 모듈로, 또는 이들의 조합으로 직접 구현될 수 있다. 추가적으로, 몇몇의 양상들에서, 방법 또는 알고리즘의 단계들 또는 동작들은 기계-판독가능 매체, 또는 컴퓨터-판독가능 매체 상의 코드들 또는 명령들의 세트의 적어도 하나의 또는 임의의 조합으로서 존재할 수 있으며, 이는 컴퓨터 프로그램 물건으로 통합될 수 있다. 여기에서 사용되는 용어 제조물은 임의의 적절한 컴퓨터-판독가능 디바이스 또는 매체로부터 액세스 가능한 컴퓨터 프로그램을 포함하도록 의도된다. In addition, various aspects or features described herein may be implemented as a method, apparatus, or article of manufacture using standard programming and / or engineering techniques. Moreover, steps and / or operations of a method or algorithm described in connection with the aspects disclosed herein may be embodied directly in hardware, in a software module executed by a processor, or in a combination of the two. Additionally, in some aspects, steps or acts of a method or algorithm may be present as a machine-readable medium, or as a combination of at least one or any combination of codes or instructions on a computer-readable medium, It can be integrated into computer program stuff. The term article of manufacture as used herein is intended to encompass a computer program accessible from any suitable computer-readable device or medium.

제시된 실시예들에 대한 설명은 임의의 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 발명의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다. The description of the disclosed embodiments is provided to enable any person skilled in the art to make or use the present invention. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the invention. Thus, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features presented herein.

Claims (8)

내부에서 실행되는 어플리케이션을 포함하는 전자장치에 전기적으로 연결되고, 사용자와 상호작용을 할 수 있는 촉각 인터페이스장치를 제어하는 방법으로서,
상기 촉각 인터페이스장치로부터의 입력을 상기 어플리케이션으로의 입력으로 변환하는 입력변환단계; 및
상기 어플리케이션으로부터의 출력을 상기 촉각 인터페이스장치의 출력으로 변환하는 출력변환단계를 포함하고,
상기 촉각 인터페이스장치는 촉각에 의한 촉각 그래픽을 제공할 수 있는, 촉각 인터페이스장치를 제어하는 방법.
CLAIMS What is claimed is: 1. A method of controlling a tactile interface device that is electrically connected to an electronic device including an application running internally and capable of interacting with a user,
An input conversion step of converting an input from the tactile interface device into an input to the application; And
And an output conversion step of converting an output from the application into an output of the tactile interface device,
Wherein the tactile interface device is capable of providing tactile tactile graphics.
청구항 2에 있어서,
상기 입력변환단계는,
촉각 인터페이스장치에서 입력된 입력정보를 수신하는 입력정보수신단계; 및
상기 입력정보를 상기 어플리케이션에 입력할 수 있는 형태로 변환하는 입력정보변환단계;를 포함하는, 촉각 인터페이스장치를 제어하는 방법.
The method of claim 2,
Wherein the input conversion step comprises:
An input information receiving step of receiving input information inputted from a tactile interface device; And
And an input information conversion step of converting the input information into a form that can be input to the application.
청구항 2에 있어서
상기 입력정보가 터치입력인 경우, 상기 입력정보변환단계는 상기 터치입력이 기설정된 복수의 제스처 중 어느 하나와 매칭이 되는 지 여부를 판단하고,
매칭이 되는 경우에 응답하여, 상기 입력정보를 매칭된 제스처에 대응되는 상기 어플리케이션으로 입력가능한 명령어로 변환하는, 촉각 인터페이스장치를 제어하는 방법.
Claim 2
Wherein when the input information is a touch input, the input information conversion step determines whether the touch input matches a predetermined plurality of gestures,
In response to a match, converting the input information into a command that can be input to the application corresponding to the matched gesture.
청구상 2에 있어서,
상기 입력정보의 카테고리가 터치입력인 경우, 상기 입력정보변환단계는 상기 터치입력이 입력좌표의 입력에 해당하는 지 여부를 판단하고,
상기 터치입력이 입력좌표에 해당하는 경우, 촉각 인터페이스장치에서 입력되는 입력좌표를 상기 어플리케이션에서의 입력좌표로 변환하는, 촉각 인터페이스장치를 제어하는 방법.
In claim 2,
If the category of the input information is a touch input, the input information conversion step determines whether the touch input corresponds to the input of the input coordinates,
And converts the input coordinates input from the tactile interface device to input coordinates in the application when the touch input corresponds to the input coordinate.
청구항 2에 있어서,
상기 출력변환단계는 상기 어플리케이션으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 촉각그래픽데이터로 변환하는 촉각그래픽변환단계를 포함하고,
상기 촉각그래픽변환단계는,
상기 어플리케이션으로부터 출력되는 그래픽디스플레이의 일부를 포함하는 포커스영역을 결정하는 포커스영역결정단계;
상기 포커스영역을 복수의 포커스부분영역으로 구분하는 포커스부분영역구분단계;
기설정된 변환규칙에 따라 각각의 포커스부분영역의 표시엘리먼트를 촉각그래픽엘리먼트로 변환하는 촉각그래픽엘리먼트변환단계; 및
상기 촉각그래픽엘리먼트를 포함하는 촉각그래픽데이터를 생성하는 촉각그래픽데이터생성단계;를 포함하고,
상기 포커스영역은 사용자의 이전의 입력 중 1 이상에 의하여 결정되는, 촉각 인터페이스장치를 제어하는 방법.
The method of claim 2,
Wherein the output conversion step includes a tactile graphic conversion step of converting a focus area including a part of the graphic display output from the application into tactile graphic data,
Wherein the tactile graphic conversion step comprises:
A focus area determination step of determining a focus area including a part of the graphic display output from the application;
A focus partial area dividing step of dividing the focus area into a plurality of focus partial areas;
A tactile graphic element conversion step of converting a display element of each focus partial area into a tactile graphic element according to a predetermined conversion rule; And
And a tactile graphic data generation step of generating tactile graphic data including the tactile graphic element,
Wherein the focus area is determined by at least one of a previous input of a user.
청구항 2에 있어서,
상기 촉각 그래픽은 복수의 레이어를 포함하고,
상기 복수의 포커스부분영역은 상기 복수의 레이어에 대응하고,
상기 복수의 레이어 중 하나는 사용자가 터치입력으로 지칭한 촉각그래픽엘리먼트의 텍스트 정보를 점자형태로 나타내는 레이어인, 촉각 인터페이스장치를 제어하는 방법.
The method of claim 2,
Wherein the tactile graphic includes a plurality of layers,
Wherein the plurality of focus partial areas correspond to the plurality of layers,
Wherein one of the plurality of layers is a layer that displays text information of a tactile graphic element referred to as a touch input by the user in braille form.
청구항 2에 있어서,
상기 촉각 그래픽은 복수의 레이어를 포함하고,
상기 복수의 레이어 중 하나는 상기 어플리케이션으로부터 출력되는 상기 그래픽디스플레이의 화면을 변경시키는 명령을 실행하는 촉각 아이콘을 표시하는, 촉각 인터페이스장치를 제어하는 방법.
The method of claim 2,
Wherein the tactile graphic includes a plurality of layers,
Wherein one of the plurality of layers displays a tactile icon for executing a command to change a screen of the graphic display output from the application.
컴퓨터-판독가능 매체로서,
상기 컴퓨터-판독가능 매체는, 컴퓨터로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은:
사용자와 상호작용을 할 수 있는 촉각 인터페이스장치로부터의 입력을 전자장치에서 실행되는 어플리케이션으로의 입력으로 변환하는 입력변환단계; 및
상기 어플리케이션으로부터의 출력을 상기 촉각 인터페이스장치의 출력으로 변환하는 출력변환단계를 포함하고,
상기 촉각 인터페이스장치는 촉각에 의한 촉각 그래픽을 제공할 수 있는, 컴퓨터-판독가능 매체.
22. A computer-readable medium,
The computer-readable medium stores instructions that cause a computer to perform the following steps:
An input conversion step of converting an input from a tactile interface device capable of interacting with a user into an input to an application executed in the electronic device; And
And an output conversion step of converting an output from the application into an output of the tactile interface device,
Wherein the tactile interface device is capable of providing tactile tactile graphics.
KR1020170152151A 2017-11-15 2017-11-15 Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device KR102036632B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170152151A KR102036632B1 (en) 2017-11-15 2017-11-15 Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170152151A KR102036632B1 (en) 2017-11-15 2017-11-15 Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160048345A Division KR101800178B1 (en) 2016-04-20 2016-04-20 Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device Interacting with User

Publications (2)

Publication Number Publication Date
KR20170128196A true KR20170128196A (en) 2017-11-22
KR102036632B1 KR102036632B1 (en) 2019-10-25

Family

ID=60809662

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170152151A KR102036632B1 (en) 2017-11-15 2017-11-15 Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device

Country Status (1)

Country Link
KR (1) KR102036632B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220015832A (en) * 2020-07-31 2022-02-08 주식회사 닷 Protruding based smart tablet
KR102538674B1 (en) * 2022-03-14 2023-06-01 한국타피(주) A method for issuancing a self-service document for the visually impaired using keypad, and an apparatus therefor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102657492B1 (en) * 2021-10-22 2024-04-15 이경재 Interface apparatus for controlling irrigation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09325688A (en) * 1996-06-04 1997-12-16 Nec Corp Tactile display device
JPH1069218A (en) * 1996-08-29 1998-03-10 Yuseisho Tsushin Sogo Kenkyusho Graphical user interface system for visually handicapped person
JPH11232024A (en) * 1998-02-13 1999-08-27 Alpine Electron Inc Optical position detector
KR20120063982A (en) 2010-12-08 2012-06-18 한국전자통신연구원 Apparatus and method of man-machine interface for invisible user
KR20120065779A (en) * 2010-12-13 2012-06-21 가천대학교 산학협력단 Graphic haptic electronic board and method for transferring the visual image information into the haptic information for visually impaired people
KR20140010756A (en) * 2012-07-17 2014-01-27 주식회사 인프라웨어 Mobile device for visual-handicapped persons with text/image/video presentation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09325688A (en) * 1996-06-04 1997-12-16 Nec Corp Tactile display device
JPH1069218A (en) * 1996-08-29 1998-03-10 Yuseisho Tsushin Sogo Kenkyusho Graphical user interface system for visually handicapped person
JPH11232024A (en) * 1998-02-13 1999-08-27 Alpine Electron Inc Optical position detector
KR20120063982A (en) 2010-12-08 2012-06-18 한국전자통신연구원 Apparatus and method of man-machine interface for invisible user
KR20120065779A (en) * 2010-12-13 2012-06-21 가천대학교 산학협력단 Graphic haptic electronic board and method for transferring the visual image information into the haptic information for visually impaired people
KR20140010756A (en) * 2012-07-17 2014-01-27 주식회사 인프라웨어 Mobile device for visual-handicapped persons with text/image/video presentation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220015832A (en) * 2020-07-31 2022-02-08 주식회사 닷 Protruding based smart tablet
KR102538674B1 (en) * 2022-03-14 2023-06-01 한국타피(주) A method for issuancing a self-service document for the visually impaired using keypad, and an apparatus therefor

Also Published As

Publication number Publication date
KR102036632B1 (en) 2019-10-25

Similar Documents

Publication Publication Date Title
KR101800178B1 (en) Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device Interacting with User
US9785259B2 (en) Stylus-based slider functionality for UI control of computing device
Hinckley Input technologies and techniques
US9261985B2 (en) Stylus-based touch-sensitive area for UI control of computing device
JP5451599B2 (en) Multimodal smart pen computing system
US10891875B2 (en) Method, device, and non-transitory computer-readable medium for controlling tactile interface device
EP3155501B1 (en) Accessibility detection of content properties through tactile interactions
EP3087456B1 (en) Remote multi-touch control
KR20140096860A (en) Mobile terminal and method for controlling haptic
KR101864584B1 (en) Method, Device, and Non-transitory Computer-Readable Medium for Providing Time Information By Tactile Interface Device
KR102036632B1 (en) Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device
US20160124633A1 (en) Electronic apparatus and interaction method for the same
TW201344504A (en) Transition mechanism for computing system utilizing user sensing
KR101893014B1 (en) Method, Device, and Non-transitory Computer-Readable Medium for Controlling Tactile Interface Device
US20140210729A1 (en) Gesture based user interface for use in an eyes-free mode
US20140215339A1 (en) Content navigation and selection in an eyes-free mode
US20150154003A1 (en) Braille implementation in touch sensitive terminal
KR101744118B1 (en) Tactile Interfacing Device and Tactile Interfacing Method
JP2012156607A (en) Mobile terminal device for visually-challenged person
KR101935543B1 (en) Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device
US10908697B2 (en) Character editing based on selection of an allocation pattern allocating characters of a character array to a plurality of selectable keys
KR102078363B1 (en) Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device
US11922009B2 (en) Using a stylus to input typed text into text boxes
KR20220115659A (en) System for Sending Documents Containing Private Information for Blind User
Jetter A cognitive perspective on gestures, manipulations, and space in future multi-device interaction

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant