KR102078363B1 - Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device - Google Patents

Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device Download PDF

Info

Publication number
KR102078363B1
KR102078363B1 KR1020190029099A KR20190029099A KR102078363B1 KR 102078363 B1 KR102078363 B1 KR 102078363B1 KR 1020190029099 A KR1020190029099 A KR 1020190029099A KR 20190029099 A KR20190029099 A KR 20190029099A KR 102078363 B1 KR102078363 B1 KR 102078363B1
Authority
KR
South Korea
Prior art keywords
image
output
interface device
tactile interface
tactile
Prior art date
Application number
KR1020190029099A
Other languages
Korean (ko)
Inventor
정정일
임승호
Original Assignee
주식회사 피씨티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피씨티 filed Critical 주식회사 피씨티
Priority to KR1020190029099A priority Critical patent/KR102078363B1/en
Application granted granted Critical
Publication of KR102078363B1 publication Critical patent/KR102078363B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a method, a device and a non-transitory computer readable medium for providing an image viewer function through a tactile interface device, and more particularly, to a method, a device and a non-transitory computer readable medium for providing an image viewer function through a tactile interface device that allows the visually impaired to intuitively detect an image by touching, enlarging, reducing and moving the image by using, interacting with and controlling a tactile interface device corresponding to a multi-array tactile cell based smart braille device to increase the efficiency of use of smart devices such as smartphone, smart pad, etc. or the smart braille device and improve the level of informatization.

Description

촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 방법, 장치, 및 비일시적 컴퓨터-판독가능 매체 {Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device}Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device that provides an image viewer function through a tactile interface device}

본 발명은 촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 방법, 장치, 및 비일시적 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 시각장애인의 스마트 기기(스마트폰, 스마트 패드 등) 혹은 스마트 점자기기 사용의 효율성 증대 및 정보화 수준의 향상을 위하여 다중배열 촉각 셀 기반의 스마트 점자기기에 해당하는 촉각인터페이스장치를 직관적으로 사용, 상호작용 및 제어할 수 있게 함으로써 시각장애인이 직관적으로 이미지를 촉각적으로 감지하도록 하고, 이미지를 확대, 축소 및 이동하여 감지할 수 있도록 하는 촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 방법, 장치, 및 비일시적 컴퓨터-판독가능 매체에 관한 것이다.The present invention relates to a method, a device for providing an image viewer function through a tactile interface device, and a non-transitory computer-readable medium, and more specifically, a smart device (smartphone, smart pad, etc.) or smart braille for the visually impaired. In order to increase the efficiency of use of the device and increase the level of informatization, the visually impaired person can intuitively tactilely sense the image by enabling the intuitive use, interaction, and control of the tactile interface device corresponding to the multi-array tactile cell-based smart braille device. A method, apparatus, and a non-transitory computer-readable medium that provides an image viewer function through a tactile interface device that enables detection and enlargement, reduction, and movement of an image.

정보화 사회에서는 컴퓨터를 이용한 정보습득 및 활용이 필수적이며, 이러한 추세는 일반인 뿐만 아니라 시각장애인에게도 마찬가지이다. In the information society, the acquisition and use of information using computers is essential, and this trend is the same for the visually impaired as well as the general public.

시각장애인의 정보화 수준을 향상시키기 위해서는 그들도 정상인과 유사한 수준으로 정보를 습득하고 활용할 수 있도록 해줘야 하는데, 이는 시각장애인의 일상생활을 보다 편리하게 하고 스스로 정보를 습득하고 활용할 수 있게 해준다는 점에서 중요하다. 또한 이를 통하여 궁극적으로는 시각장애인에게 다양한 교육기회를 제공하여 사회진출 및 참여의 기회를 확대시킴으로써 그들의 복지를 한층 향상시킬 수 있다는 점에서 매우 중요하다고 할 수 있다. In order to improve the level of informatization for the visually impaired, they must also be able to acquire and use information at a level similar to that of normal people, which is important in that it makes the daily life of the visually impaired more convenient and enables users to acquire and utilize information on their own. Do. In addition, it can be said that this is very important in that it can ultimately improve the well-being by providing various educational opportunities for the visually impaired and expanding opportunities for social advancement and participation.

하지만, 현재의 컴퓨터를 사용하는 일반적 방식은 주로 모니터를 통해 출력되는 시각적 정보를 눈으로 인지하고 이에 대하여 키보드, 마우스, 혹은 터치패드 등의 입력도구를 이용하여 정보를 입력하는 방식을 사용하고 있다. 따라서, 시각을 쓸 수 없는 시각장애인이 일반인과 동일한 수준으로 컴퓨터의 출력정보를 인지하고 이에 대한 즉각적인 정보입력과 같은 상호작용을 하는 데에는 큰 한계가 있을 수 밖에 없다. 결과적으로 시각적 장애는 컴퓨터 사용에 있어서의 효율성을 현저히 저하시켜 컴퓨터를 통한 정보습득 및 활용의 기회를 크게 빼앗게 된다.However, the current general method of using a computer mainly uses a method of recognizing visual information output through a monitor with an eye and inputting information using an input tool such as a keyboard, mouse, or touch pad. Therefore, there is a limitation in that a visually impaired person who cannot use vision can recognize the output information of the computer at the same level as the general public and interact with such as instant information input. As a result, the visual impediment significantly lowers the efficiency in using the computer, greatly depriving the computer of the opportunity to acquire and utilize information.

이러한 시각장애인의 컴퓨터 사용에 있어서의 어려움을 해결하기 위하여 청각, 촉각 등을 사용해 시각적 정보를 인지하고 이를 통해 컴퓨터와 상호작용을 할 수 있도록 다양한 기술들이 개발되어 왔다. 그 대표적인 기술로서, 청각을 통해 시각장애인의 컴퓨터 사용을 보조하는 스크린 리더가 있다. 이는 컴퓨터 화면에 출력되는 내용과 자신이 입력한 키보드 정보를 음성으로 출력하여 컴퓨터를 사용할 수 있도록 도와주는 장치 혹은 소프트웨어이다.Various techniques have been developed to recognize visual information using hearing and tactile senses and interact with the computer through the visually impaired to solve difficulties in using the computer. As a representative technology, there is a screen reader that assists a visually impaired person to use a computer through hearing. This is a device or software that helps you use the computer by outputting the information displayed on the computer screen and the keyboard information that you have input by voice.

하지만 스크린 리더는 출력화면에 대한 2차원의 공간적 위치정보 없이 한 줄로 이어진 선형화된 정보만으로 출력화면의 Graphic User Interface (GUI) 요소들을 탐색하므로 화면 출력정보 인지에 어려움이 따르며, 특히 출력화면에 포함된 정보가 많으면 많을수록 그 어려움은 현저히 증가하게 된다. 또한 문자나 GUI 요소들 이외에 그림, 도표 등과 같은 다양한 그래픽 정보들에 대해서는 스크린 리더가 텍스트 기반의 간단한 묘사적 설명만을 음성으로 제공하기 때문에 시각장애인이 그래픽 정보를 이해하고 이에 대한 상호작용을 하는 데에 큰 어려움을 가지게 된다.However, since the screen reader searches for Graphic User Interface (GUI) elements of the output screen with only linearized information in one line without two-dimensional spatial location information on the output screen, it is difficult to recognize screen output information, especially included in the output screen The more information, the greater the difficulty. In addition, for various graphic information such as pictures and diagrams in addition to text and GUI elements, the screen reader provides only text-based simple descriptive descriptions by voice, so that visually impaired people can understand and interact with graphic information. You will have great difficulty.

또 다른 관련 기술로는 점자 셀을 통하여 문자정보를 촉각으로 전달해주는 점자정보단말기가 있다. 이는 시각장애인에게 유용한 컴퓨터의 몇몇 기능들을 제공하여 독립적인 장치로 사용되는 방식과 스크린 리더가 분석하는 컴퓨터 화면의 텍스트 정보를 점자로 출력해주는 화면출력 보조장치로 사용하는 방식이 있다. 두 가지 방식 모두 컴퓨터와의 효율적 상호작용을 위한 인터페이스 역할 보다는, 컴퓨터 대용으로 컴퓨터의 몇 몇 제한된 기능들만을 수행하는 대체 기기의 역할을 하거나 혹은 문자정보를 점자로 출력해주는 출력보조 장치의 역할 만을 하게 된다. 특히, 점자 출력에 특화된 점자정보단말기는 스크린 리더와 마찬가지로 그래픽 정보를 표현할 수 없다는 문제점을 가지고 있다.Another related technology is a braille information terminal that transmits text information tactilely through a braille cell. This is a method that is used as an independent device by providing some functions of a computer useful for the visually impaired, and a method that is used as a screen output auxiliary device that outputs text information of a computer screen analyzed by a screen reader in Braille. In both ways, rather than acting as an interface for efficient interaction with a computer, it acts as an alternative device that performs only a few limited functions of the computer as a substitute for a computer, or as an output auxiliary device that outputs text information in Braille. do. In particular, a braille information terminal specialized in braille output has a problem that it cannot express graphic information like a screen reader.

한국공개특허번호 10-2012-0063982Korean Patent Publication No. 10-2012-0063982

본 발명의 목적은 시각장애인의 스마트 기기(스마트폰, 스마트 패드 등) 혹은 스마트 점자기기 사용의 효율성 증대 및 정보화 수준의 향상을 위하여 다중배열 촉각 셀 기반의 스마트 점자기기에 해당하는 촉각인터페이스장치를 직관적으로 사용, 상호작용 및 제어할 수 있게 함으로써 시각장애인이 직관적으로 이미지를 촉각적으로 감지하도록 하고, 이미지를 확대, 축소 및 이동하여 감지할 수 있도록 하는 촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 방법, 장치, 및 비일시적 컴퓨터-판독가능 매체를 제공하는 것이다.An object of the present invention is to intuitively use a tactile interface device corresponding to a multi-array tactile cell-based smart braille device to increase the efficiency of use of smart devices (smartphones, smart pads, etc.) or smart braille devices for the visually impaired and improve the level of information How to provide the image viewer function through the tactile interface device that enables the visually impaired to sense the image tactilely by using, interacting, and controlling it. , Devices, and non-transitory computer-readable media.

상기와 같은 과제를 해결하기 위하여, 본 발명은 프로세서를 포함하는 컴퓨팅장치로 구현되고, 상기 컴퓨팅장치에 접속되어 사용자와 상호작용을 할 수 있는 촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 방법으로서, 상기 컴퓨팅장치에서는 이미지뷰어모듈이 실행되어, 메인화면단계, 이미지선택단계 및 이미지출력단계 중 어느 하나가 수행되고, 상기 이미지뷰어모듈이 실행되는 경우, 해당 단계에 따른 화면이 상기 컴퓨팅장치에 표시되고, 상기 컴퓨팅장치에 표시된 화면이 상기 촉각인터페이스장치로의 출력신호로 변환되어, 상기 컴퓨팅장치에 표시된 화면에 상응하는 촉각디스플레이가 상기 촉각인터페이스장치에 표시될 수 있고, 상기 컴퓨팅장치에서의 입력, 혹은 상기 촉각인터페이스장치에서의 입력에 따라 메인화면단계, 이미지선택단계 및 이미지출력단계 중 어느 하나의 세부 과정들이 수행되는, 이미지 뷰어 기능을 제공하는 방법을 제공한다.In order to solve the above problems, the present invention is implemented as a computing device including a processor, and is a method of providing an image viewer function through a tactile interface device that is connected to the computing device and can interact with a user. When the image viewer module is executed in the computing device, one of the main screen step, the image selection step, and the image output step is performed, and when the image viewer module is executed, the screen according to the corresponding step is displayed on the computing device. , A screen displayed on the computing device is converted into an output signal to the tactile interface device, so that a tactile display corresponding to the screen displayed on the computing device can be displayed on the tactile interface device, or input from the computing device, or Main screen step according to the input from the tactile interface device, Provides a way to provide any of the image viewer function that details the process steps are performed during image selection and image output stage.

본 발명에서는, 상기 메인화면단계 및 이미지선택단계에 의하여 표시되는 상기 촉각디스플레이는, 복수의 커서의 위치 중 현재 커서의 위치에 대한 정보를 촉각적으로 디스플레이 하는 커서영역; 각각의 커서의 위치에 대해 상응하는 정보를 촉각적으로 디스플레이 하는 컨텐츠영역; 및 현재 페이지에 대한 정보를 촉각적으로 디스플레이 하는 페이지영역; 을 포함할 수 있다.In the present invention, the tactile display displayed by the main screen step and the image selection step includes: a cursor area tactilely displaying information on a current cursor position among a plurality of cursor positions; A content area tactilely displaying information corresponding to the position of each cursor; And a page area tactilely displaying information on the current page. It may include.

본 발명에서는, 상기 이미지선택단계는, 이미지가 저장되어 있는 1 이상의 이미지데이터베이스의 목록을 표시하는 이미지데이터베이스목록표시단계; 사용자의 입력에 의해 이미지를 불러 올 이미지데이터베이스를 선택하는 이미지데이터베이스선택단계; 상기 이미지데이터베이스에 저장된 이미지의 카테고리를 표시하는 이미지카테고리표시단계; 사용자의 입력에 의해 카테고리를 선택하는 이미지카테고리선택단계; 사용자의 입력에 의해 이미지를 검색하는 이미지검색단계; 선택된 이미지데이터베이스, 선택된 카테고리 및 이미지 검색결과 중 1 이상에 기초하여 출력 가능한 이미지의 목록을 표시하는 이미지목록표시단계; 및 사용자의 입력에 의해 출력할 이미지를 선택하는 표시이미지선택단계; 를 포함할 수 있다.In the present invention, the image selection step comprises: an image database list display step of displaying a list of one or more image databases in which images are stored; An image database selection step of selecting an image database from which an image is to be loaded by a user input; An image category display step of displaying a category of images stored in the image database; An image category selection step of selecting a category by user input; An image search step of searching for an image by user input; An image list display step of displaying a list of printable images based on at least one of the selected image database, the selected category, and the image search results; And a display image selection step of selecting an image to be output by a user input. It may include.

본 발명에서는, 상기 이미지출력단계는, 출력할 이미지의 정보에 기초하여 이미지의 타입을 판별하는 이미지판별단계; 판별된 상기 이미지의 타입에 기초하여 상기 촉각인터페이스장치에 의해 출력 가능하도록 상기 이미지를 단순화하는 이미지단순화단계; 단순화 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지표시단계; 및 상기 촉각인터페이스장치를 통해 출력된 이미지를 상기 사용자의 입력에 의해 확대, 축소 또는 이동하여 출력하는 출력이미지조절단계; 를 포함할 수 있다.In the present invention, the image output step, the image discrimination step of determining the type of the image based on the information of the image to be output; An image simplification step of simplifying the image to be output by the tactile interface device based on the determined type of the image; An image display step of outputting the simplified image through the computing device and the tactile interface device; And an output image adjustment step of enlarging, reducing or moving the image output through the tactile interface device to output the image. It may include.

본 발명에서는, 상기 이미지단순화단계는, 상기 이미지를 그레이스케일로 변환하여 그레이스케일이미지를 생성하는 그레이스케일변환단계; 및 상기 그레이스케일이미지를 이진화하여 이진화이미지를 생성하는 이미지이진화단계; 를 포함할 수 있다.In the present invention, the image simplification step comprises: a grayscale conversion step of converting the image to grayscale to generate a grayscale image; And an image binarization step of binarizing the grayscale image to generate a binarized image. It may include.

본 발명에서는, 상기 이미지표시단계는, 상기 이미지 중 상기 촉각인터페이스장치를 통해 출력 될 영역을 출력영역으로 설정하는 출력영역결정단계; 상기 이미지에 기초하여 컴퓨팅장치에서 디스플레이 될 상기 이미지의 정보를 포함하는 제1디스플레이정보를 생성하는 제1디스플레이정보생성단계; 및 상기 이미지에 기초하여 촉각인터페이스장치에서 촉각적으로 디스플레이 될 단순화 된 이미지의 출력영역의 이미지 정보를 포함하는 제2디스플레이정보를 생성하는 제2디스플레이정보생성단계; 를 포함할 수 있다.In the present invention, the image display step comprises: an output area determining step of setting an area to be output through the tactile interface device among the images as an output area; A first display information generating step of generating first display information including information of the image to be displayed on a computing device based on the image; And a second display information generating step of generating second display information including image information of an output area of a simplified image to be tactilely displayed in a tactile interface device based on the image. It may include.

본 발명에서는, 상기 출력이미지조절단계는, 상기 촉각인터페이스장치에서 촉각적으로 디스플레이 되는 상기 이미지를 확대 혹은 축소하여 출력하도록 하는 출력이미지확대/축소단계; 및 상기 촉각인터페이스장치에서 촉각적으로 디스플레이 되는 상기 이미지의 위치를 이동시켜 출력하도록 하는 출력이미지이동단계; 를 포함할 수 있다.In the present invention, the output image adjustment step includes: an enlargement / reduction of an output image to enlarge or reduce the image tactilely displayed by the tactile interface device and output the image; And an output image moving step of moving and outputting the position of the image tactilely displayed by the tactile interface device. It may include.

본 발명에서는, 상기 이미지출력단계에 의하여 표시되는 상기 촉각디스플레이는, 단순화 된 이미지의 상기 출력영역의 이미지 정보를 촉각적으로 디스플레이 하는 컨텐츠영역; 및 상기 출력영역에 대한 정보를 촉각적으로 디스플레이 하는 위치정보영역; 을 포함할 수 있다.In the present invention, the tactile display displayed by the image output step includes: a content area tactilely displaying image information of the output area of the simplified image; And a location information area tactilely displaying information on the output area. It may include.

본 발명에서는, 상기 제1디스플레이정보는 상기 출력영역의 정보를 더 포함하고, 상기 이미지출력단계에 의하여 표시되는 상기 컴퓨팅장치에는 상기 이미지 및 상기 출력영역이 표시될 수 있다.In the present invention, the first display information further includes information of the output area, and the image and the output area may be displayed on the computing device displayed by the image output step.

본 발명에서는, 상기 제2디스플레이정보생성단계는, 상기 촉각인터페이스장치의 복수의 핀에 있어서 상기 이진화이미지의 상기 출력영역의 정보를 상기 핀의 좌표에 매핑 하여 상기 핀 각각의 상승 혹은 하강을 결정하여 제2디스플레이정보를 생성할 수 있다.In the present invention, in the second display information generation step, the information of the output region of the binarized image is mapped to the coordinates of the pin in a plurality of pins of the tactile interface device to determine the rise or fall of each pin. The second display information can be generated.

본 발명에서는, 상기 제2디스플레이정보생성단계는, 상기 이진화이미지의 상기 출력영역의 정보를 상기 핀의 좌표에 매핑 할 때, 상기 핀의 좌표에 매칭되는 영역 내 흑색의 비율이 50% 이상인 경우 핀을 완전히 상승시키고, 상기 핀의 좌표에 매칭되는 영역 내 흑색의 비율이 20% 미만인 경우 핀을 완전히 하강시키고, 상기 핀의 좌표에 매칭되는 영역 내 흑색의 비율이 20% 이상 50% 미만인 경우 핀을 중간에 위치시키도록 제2디스플레이정보를 생성할 수 있다.In the present invention, in the second display information generation step, when mapping the information of the output region of the binarized image to the coordinates of the pin, when the ratio of black in the region matching the coordinates of the pin is 50% or more, the pin Raise the pin completely, and when the proportion of black in the area matching the coordinates of the pin is less than 20%, completely lower the pin, and when the proportion of black in the area matching the coordinates of the pin is 20% or more and less than 50%, remove the pin. The second display information may be generated to be positioned in the middle.

본 발명에서는, 상기 제2디스플레이정보생성단계는, 상기 촉각인터페이스장치의 복수의 핀에 있어서 상기 그레이스케일이미지의 상기 출력영역의 정보를 상기 핀의 좌표에 매핑 하여 상기 핀 각각의 상승 혹은 하강의 단계를 결정하여 제2디스플레이정보를 생성 할 수 있다.In the present invention, the second display information generation step is a step of rising or falling each of the pins by mapping the information of the output region of the grayscale image to the coordinates of the pins in a plurality of pins of the tactile interface device. By determining, the second display information may be generated.

상기와 같은 과제를 해결하기 위하여 본 발명은, 프로세서를 포함하는 컴퓨팅장치로 구현되고, 상기 컴퓨팅장치에 접속되어 사용자와 상호작용을 할 수 있는 촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 장치로서, 상기 컴퓨팅장치는 이미지뷰어모듈; 을 포함하고, 상기 이미지뷰어모듈은, 사용자의 입력에 의해 출력 될 이미지를 선택하는 이미지선택부; 및 선택 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지출력부; 를 포함하고, 상기 이미지출력부는, 출력할 이미지의 정보에 기초하여 이미지의 타입을 판별하는 이미지판별단계; 판별된 상기 이미지의 타입에 기초하여 상기 촉각인터페이스장치에 의해 출력 가능하도록 상기 이미지를 단순화하는 이미지단순화단계; 단순화 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지표시단계; 및 상기 촉각인터페이스장치를 통해 출력된 이미지를 상기 사용자의 입력에 의해 확대, 축소 또는 이동하여 출력하는 출력이미지조절단계; 를 수행하는, 이미지 뷰어 기능을 제공하는 장치를 제공한다.In order to solve the above problems, the present invention is implemented as a computing device including a processor, and is an apparatus that provides an image viewer function through a tactile interface device that is connected to the computing device and can interact with a user. The computing device includes an image viewer module; Including, the image viewer module, an image selection unit for selecting an image to be output by the user's input; And an image output unit outputting the selected image through the computing device and the tactile interface device. Including, The image output unit, Image discrimination step of determining the type of the image based on the information of the image to be output; An image simplification step of simplifying the image to be output by the tactile interface device based on the determined type of the image; An image display step of outputting the simplified image through the computing device and the tactile interface device; And an output image adjustment step of enlarging, reducing or moving the image output through the tactile interface device to output the image. Provides a device that provides an image viewer function, to perform the.

상기와 같은 과제를 해결하기 위하여 본 발명은, 컴퓨팅장치에 연결된 촉각인터페이스장치를 제어하여 시각장애인에게 이미지 뷰어 기능을 제공하기 위한 비일시적 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은: 시각장애인에게 이미지 뷰어 기능을 제공하는 이미지뷰어메인화면을 출력하는 메인화면단계; 사용자의 입력에 의해 출력 될 이미지를 선택하는 이미지선택단계; 및 선택 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지출력단계; 를 포함하고, 상기 이미지출력단계는, 출력할 이미지의 정보에 기초하여 이미지의 타입을 판별하는 이미지판별단계; 판별된 상기 이미지의 타입에 기초하여 상기 촉각인터페이스장치에 의해 출력 가능하도록 상기 이미지를 단순화하는 이미지단순화단계; 단순화 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지표시단계; 및 상기 촉각인터페이스장치를 통해 출력된 이미지를 상기 사용자의 입력에 의해 확대, 축소 또는 이동하여 출력하는 출력이미지조절단계; 를 포함하는, 컴퓨터-판독가능 매체를 제공한다.In order to solve the above problems, the present invention is a non-transitory computer-readable medium for providing an image viewer function to a visually impaired person by controlling a tactile interface device connected to a computing device, wherein the computer-readable medium is computing Storing commands to cause the device to perform the following steps, the steps comprising: a main screen step of outputting an image viewer main screen that provides an image viewer function to a visually impaired person; An image selection step of selecting an image to be output by the user's input; And an image output step of outputting the selected image through the computing device and the tactile interface device. Including, The image output step, The image discrimination step of determining the type of the image based on the information of the image to be output; An image simplification step of simplifying the image to be output by the tactile interface device based on the determined type of the image; An image display step of outputting the simplified image through the computing device and the tactile interface device; And an output image adjustment step of enlarging, reducing or moving the image output through the tactile interface device to output the image. It provides a computer-readable medium comprising a.

본 발명의 일 실시예에 따르면, 시각장애인이 점자기기 혹은 촉각인터페이스장치를 이용하여 교육, 문화 및 여가 등의 일상생활에서 일반인과 유사한 수준으로 다양한 콘텐츠들(도서, 교육, 멀티미디어, 인터넷, 게임 등)을 활용할 수 있도록 다중배열 촉각 셀 기반의 스마트 점자기기를 위한 Tactile User Interface 및 어플리케이션 연동/제어/활용을 위한 Android 등의 메인 운영체제 기반 점자기기 혹은 촉각인터페이스장치의 운영 시스템을 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, a visually impaired person uses a braille device or a tactile interface device to display various contents (books, education, multimedia, internet, games, etc.) in a level similar to the general public in everyday life such as education, culture, and leisure. Tactile User Interface for multi-array tactile cell-based smart braille devices and the main operating system based braille devices such as Android for application interlocking / controlling / utilization or tactile interface device operating system Can be exercised.

본 발명의 일 실시예에 따르면, 시각장애인들에게 스마트 기기에서 제공하는 시각정보(시각으로 인지할 수 있는 정보)를 실시간으로 촉각정보(촉각으로 인지할 수 있는 정보)로 변환하여 다중배열 점자 셀 기반의 촉각 디스플레이를 통해 출력하고, 사용자의 다양한 입력 정보를 관리하며, 스마트 기기에서 동작하는 각종 어플리케이션 소프트웨어를 제어 및 관리할 수 있는 스마트 점자기기 운영 시스템을 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the visual information (visually perceptible information) provided by the smart device to the visually impaired is converted into tactile information (tactilely perceptible information) in real time to multi-array braille cells. It can have the effect of providing a smart braille device operating system that can output through the tactile display, manage various input information of the user, and control and manage various application software operating on the smart device.

본 발명의 일 실시예에 따르면, 다중배열 촉각 셀 기반의 스마트 점자기기의 입력부(점자 키보드/방향키/기능키 등)를 통해 스마트 점자기기의 운영체제(Android OS) 및 Application들의 동작을 제어하고 일반적인 스마트 기기에서 화면으로 출력되는 GUI(Graphic User Interface) 정보를 시각장애인용 TUI(Tactile User Interface) 데이터로 변환하여 촉각 및 점자정보로 제공함으로써, 시각장애인들이 일반인과 유사한 수준으로 일반적인 스마트 기기 혹은 스마트 점자기기를 보다 쉽게 제어하여 다양한 콘텐츠를 활용할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, a multi-array tactile cell-based smart braille device input unit (braille keyboard / direction key / function key, etc.) controls the operation of the smart braille device's operating system (Android OS) and applications, and performs general smart By converting GUI (Graphic User Interface) information output from the device to TUI (Tactile User Interface) data for the visually impaired and providing it as tactile and braille information, the visually impaired is a general smart device or smart braille device at a level similar to the general public. It can be easily controlled to exert the effect of using various contents.

본 발명의 일 실시예에 따르면, 다중배열 촉각 셀 기반의 스마트 점자기기 및 시각장애인용 TUI를 기반하여 저장된 이미지를 시각장애인들이 촉감을 통해 일반인과 유사한 수준으로 이미지파일을 해석할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the effect of allowing the visually impaired to interpret the image file at a level similar to the general public through the tactile sense of the stored image based on the multi-array tactile cell-based smart braille device and the visually impaired TUI. Can be exercised.

본 발명의 일 실시예에 따르면, 그레이스케일화 및 이진화를 통해 이미지를 단순화 하여 다중배열 촉각 셀 기반의 스마트 점자기기를 통해 이미지를 출력할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, an image can be output through a smart braille device based on a multi-array tactile cell by simplifying an image through grayscale and binarization.

본 발명의 일 실시예에 따르면, 다중배열 촉각 셀 기반의 스마트 점자기기를 통해 출력된 이미지의 확대, 축소 및 이동이 가능하여 시각장애인이 이미지파일을 상세히 해석할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to enlarge, reduce, and move an image output through a multi-array tactile cell-based smart braille device, thereby exerting the effect of allowing the visually impaired to interpret the image file in detail.

본 발명의 일 실시예에 따르면, 출력된 이미지를 확대하거나 이동하는 경우, 출력되는 영역이 전체 이미지에서 어느 위치의 영역인지 확인할 수 있도록 하여 시각장애인이 이미지파일에 대한 해석을 용이하게 할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, when the output image is enlarged or moved, it is possible to visually impair the interpretation of the image file by allowing the visually impaired user to check the location of the location in the entire image. Can be effective.

도 1은 본 발명의 일 실시예에 따른 촉각 인터페이스장치와 컴퓨팅 장치를 포함하는 전체 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 컴퓨팅 장치의 내부 구성을 개략적으로 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 점자OS부의 동작환경을 개략적으로 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 점자OS의 내부 구성을 개략적으로 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 TUI모듈의 내부 구성을 개략적으로 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 촉각인터페이스장치에서의 촉각 디스플레이화면을 개략적으로 도시한다.
도 7은 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 방법의 과정을 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 트리거단계의 세부 과정을 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 컴퓨팅장치에서의 표시화면과 이에 따른 촉각인터페이스장치에서의 촉각디스플레이를 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 촉각인터페이스장치에서의 촉각디스플레이의 영역 구성을 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 촉각인터페이스장치의 입출력 과정을 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 출력신호생성단계의 과정을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 커서영역출력신호생성단계의 과정을 개략적으로 도시한다.
도 14는 본 발명의 일 실시예에 따른 커서영역 표기의 형태의 일예를 개략적으로 도시한다.
도 15는 본 발명의 일 실시예에 따른 커서영역 표기의 몇 예들을 개략적으로 도시한다.
도 16은 본 발명의 일 실시예에 따른 버퍼출력신호생성단계의 과정을 개략적으로 도시한다.
도 17은 본 발명의 일 실시예에 따른 TTS단계의 일 예를 개략적으로 도시한다.
도 18은 본 발명의 일 실시예에 따른 이벤트단계의 일 예를 개략적으로 도시한다.
도 19는 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 화면을 도시한다.
도 20은 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 화면을 도시한다.
도 21은 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 화면을 도시한다.
도 22는 본 발명의 일 실시예에 따른 이미지뷰어모듈과 촉각인터페이스장치의 구성을 개략적으로 도시한다.
도 23은 본 발명의 일 실시예에 따른 이미지뷰어모듈의 내부 구성을 개략적으로 도시한다.
도 24는 본 발명의 일 실시예에 따른 이미지선택부의 동작의 세부 단계를 개략적으로 도시한다.
도 25는 본 발명의 일 실시예에 따른 이미지데이터베이스목록표시단계 및 상기 이미지데이터베이스목록표시단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 26은 본 발명의 일 실시예에 따른 이미지카테고리표시단계 및 상기 이미지카테고리표시단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 27은 본 발명의 일 실시예에 따른 이미지목록표시단계 및 상기 이미지목록표시단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 28은 본 발명의 일 실시예에 따른 이미지출력단계의 세부 단계를 개략적으로 도시한다.
도 29는 본 발명의 일 실시예에 따른 이미지단순화단계 및 이미지표시단계의 세부 단계를 개략적으로 도시한다.
도 30은 본 발명의 일 실시예에 따른 출력이미지조절단계의 세부 단계를 개략적으로 도시한다.
도 31은 본 발명의 일 실시예에 따른 출력이미지확대/축소단계 및 상기 출력이미지확대/축소단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 32는 본 발명의 일 실시예에 따른 출력이미지이동단계 및 상기 출력이미지이동단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 33은 본 발명의 일 실시예에 따른 출력이미지조절단계 및 상기 출력이미지조절단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 34는 본 발명의 일 실시예에 따른 이미지출력단계 및 상기 이미지출력단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 35는 본 발명의 일 실시예에 따른 이미지출력단계 및 상기 이미지출력단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 36은 본 발명의 일 실시예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하는 도면이다.
1 is a view schematically showing an entire system including a tactile interface device and a computing device according to an embodiment of the present invention.
2 is a diagram schematically showing an internal configuration of a computing device according to an embodiment of the present invention.
3 is a diagram schematically showing an operating environment of a braille OS unit according to an embodiment of the present invention.
4 is a diagram schematically showing the internal configuration of braille OS according to an embodiment of the present invention.
5 is a view schematically showing the internal configuration of a TUI module according to an embodiment of the present invention.
6 schematically illustrates a tactile display screen in a tactile interface device according to an embodiment of the present invention.
7 schematically illustrates a process of a method for controlling a tactile interface device according to an embodiment of the present invention.
8 schematically shows a detailed process of a trigger step according to an embodiment of the present invention.
9 schematically illustrates a display screen in a computing device and a tactile display in the tactile interface device according to an embodiment of the present invention.
10 schematically illustrates a region configuration of a tactile display in a tactile interface device according to an embodiment of the present invention.
11 schematically illustrates an input / output process of a tactile interface device according to an embodiment of the present invention.
12 schematically illustrates a process of an output signal generation step according to an embodiment of the present invention.
13 schematically shows a process of a cursor region output signal generation step according to an embodiment of the present invention.
14 schematically shows an example of a form of a cursor area notation according to an embodiment of the present invention.
15 schematically shows some examples of cursor region notation according to an embodiment of the present invention.
16 schematically illustrates a process of a buffer output signal generation step according to an embodiment of the present invention.
17 schematically shows an example of a TTS step according to an embodiment of the present invention.
18 schematically shows an example of an event step according to an embodiment of the present invention.
19 shows a screen for controlling a tactile interface device according to an embodiment of the present invention.
20 illustrates a screen for controlling a tactile interface device according to an embodiment of the present invention.
21 shows a screen for controlling a tactile interface device according to an embodiment of the present invention.
22 schematically shows the configuration of an image viewer module and a tactile interface device according to an embodiment of the present invention.
23 schematically shows the internal configuration of an image viewer module according to an embodiment of the present invention.
24 schematically shows detailed steps of the operation of the image selection unit according to an embodiment of the present invention.
25 illustrates a screen of an image database list display step and a tactile interface device in which TUI conversion is performed on the image database list display step according to an embodiment of the present invention.
26 shows a screen of an image category display step and a tactile interface device in which TUI conversion is performed on the image category display step according to an embodiment of the present invention.
27 illustrates a screen of an image list display step and a tactile interface device in which TUI conversion is performed on the image list display step according to an embodiment of the present invention.
28 schematically shows detailed steps of an image output step according to an embodiment of the present invention.
29 schematically shows detailed steps of an image simplification step and an image display step according to an embodiment of the present invention.
30 schematically shows detailed steps of an output image adjustment step according to an embodiment of the present invention.
31 illustrates a screen of an output image enlargement / reduction step and a tactile interface device in which TUI conversion is performed on the output image enlargement / reduction step according to an embodiment of the present invention.
32 illustrates a screen of a tactile interface device in which an output image moving step and a TUI conversion is performed on the output image moving step according to an embodiment of the present invention.
33 shows a screen of a tactile interface device in which a TUI conversion is performed on the output image adjustment step and the output image adjustment step according to an embodiment of the present invention.
34 illustrates a screen of an image output step and a tactile interface device in which TUI conversion is performed on the image output step according to an embodiment of the present invention.
35 illustrates a screen of an image output step according to an embodiment of the present invention and a tactile interface device in which TUI conversion is performed on the image output step.
36 is a diagram illustrating an example of an internal configuration of a computing device according to an embodiment of the present invention.

이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.In the following, various embodiments and / or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, a number of specific details are disclosed to aid the overall understanding of one or more aspects. However, it will also be appreciated by those of ordinary skill in the art of the present invention that this aspect (s) can be practiced without these specific details. The following description and the annexed drawings set forth in detail certain illustrative aspects of the one or more aspects. However, these aspects are exemplary and some of the various methods in the principles of the various aspects may be used, and the descriptions described are intended to include all such aspects and their equivalents.

또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.In addition, various aspects and features will be presented by a system that may include multiple devices, components and / or modules, and the like. Various systems may also include additional devices, components and / or modules, and / or may not include all of the devices, components, modules, etc. discussed in connection with the drawings. It must be understood and recognized.

본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, "an embodiment", "yes", "a good", "an example", etc., may not be construed as any aspect or design described being better or more advantageous than another aspect or designs. . The terms '~ unit', 'component', 'module', 'system', and 'interface' used in the following generally refer to a computer-related entity, for example, hardware, hardware It can mean a combination of software and software.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Also, the terms “comprises” and / or “comprising” mean that the feature and / or component is present, but excludes the presence or addition of one or more other features, components, and / or groups thereof. It should be understood as not.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Further, terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from other components. For example, the first component may be referred to as a second component without departing from the scope of the present invention, and similarly, the second component may be referred to as a first component. The term and / or includes a combination of a plurality of related described items or any one of a plurality of related described items.

또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are generally understood by those skilled in the art to which the present invention pertains. It has the same meaning as that. Terms, such as those defined in a commonly used dictionary, should be interpreted as having meanings consistent with meanings in the context of related technologies, and are ideally or excessively formal meanings unless explicitly defined in the embodiments of the present invention. Is not interpreted as

1. 촉각인터페이스 장치를 제어하는 가상운영체제로서의 1. As a virtual operating system that controls tactile interface devices 점자OS모듈Braille OS module

도 1은 본 발명의 일 실시예에 따른 촉각인터페이스장치와 컴퓨팅 장치를 포함하는 전체 시스템을 개략적으로 도시한 도면이다.1 is a view schematically showing an entire system including a tactile interface device and a computing device according to an embodiment of the present invention.

도 1에 도시된 촉각인터페이스장치(1000)는 하나의 예에 불과할 뿐, 본 발명은 이에 한정되지 않는다. 이하에서 서술하는 본 발명의 촉각인터페이스장치를 제어하는 컴퓨팅 장치(A)에 연결된 촉각 인터페이스장치(1000)는 촉각 그래픽을 제공할 수 있는 임의의 인터페이스장치, 사용자와 상호작용을 할 수 있는 촉각 인터페이스장치, 및 촉각 그래픽을 출력할 수 있는 컴퓨팅 장치를 모두 포함한다.The tactile interface device 1000 illustrated in FIG. 1 is only one example, and the present invention is not limited thereto. The tactile interface device 1000 connected to the computing device A controlling the tactile interface device of the present invention described below is any interface device capable of providing tactile graphics, and a tactile interface device capable of interacting with a user. , And a computing device capable of outputting tactile graphics.

도 1에 도시된 바와 같이 컴퓨팅 장치(A)는 촉각인터페이스장치(1000)와 연결되어 있고, 이와 같은 연결은 유선적 연결 혹은 무선적 연결을 모두 포함하는 연결이다. As shown in FIG. 1, the computing device A is connected to the tactile interface device 1000, and such a connection is a connection including both a wired connection and a wireless connection.

상기 컴퓨팅 장치(A)는 스마트 폰(smart phone)과, 태블릿(tablet) 개인용 컴퓨터(personal computer: PC, 이하 'PC'라 칭하기로 한다)와, 이동 전화기와, 화상 전화기와, 전자책 리더(e-book reader)와, 데스크 탑(desktop) PC와, 랩탑(laptop) PC와, 넷북(netbook) PC와, 개인용 복합 단말기(personal digital assistant: PDA, 이하 'PDA'라 칭하기로 한다)와, 휴대용 멀티미디어 플레이어(portable multimedia player: PMP, 이하 'PMP'라 칭하기로 한다)와, 엠피3 플레이어(mp3 player)와, 이동 의료 디바이스와, 카메라와, 웨어러블 디바이스(wearable device)(일 예로, 헤드-마운티드 디바이스(head-mounted device: HMD, 일 예로 'HMD'라 칭하기로 한다)와, 전자 의류와, 전자 팔찌와, 전자 목걸이와, 전자 앱세서리(appcessory)와, 전자 문신, 혹은 스마트 워치(smart watch) 등에 해당할 수 있다. The computing device A includes a smart phone, a tablet personal computer (PC, hereinafter referred to as a 'PC'), a mobile phone, a video phone, and an e-book reader ( e-book readers, desktop PCs, laptop PCs, netbook PCs, personal digital assistants (PDAs, hereinafter referred to as PDAs), A portable multimedia player (PMP, hereinafter referred to as 'PMP'), an MP3 player, a mobile medical device, a camera, and a wearable device (eg, head- Head-mounted devices (HMD, for example, referred to as 'HMD'), electronic clothing, electronic bracelets, electronic necklaces, electronic accessories, electronic tattoos, or smart watches watch).

이와 같은 컴퓨팅 장치(A)는 1 이상의 프로세서 및 메모리를 포함하고, 선택적으로 모니터 등의 디스플레이장치에 연결되어 있거나 자체적인 디스플레이모듈이 구비될 수도 있다.The computing device A may include one or more processors and memory, and may be selectively connected to a display device such as a monitor or may have its own display module.

혹은, 상기 컴퓨팅 장치(A)는 상기 촉각인터페이스장치(1000)와 결합된 형태일 수도 있다. 이 경우, 사용자의 입장에서는 촉각인터페이스장치(1000)와 이를 제어하는 컴퓨팅 장치(A)를 하나의 장치로 인식할 수도 있다. 이와 같이 결합된 형태의 장치의 경우 상기 컴퓨팅 장치(A)와 상기 촉각인터페이스장치(1000)는 프로세서와 메모리를 공유하는 형태일 수도 있다.Alternatively, the computing device A may be in a form combined with the tactile interface device 1000. In this case, the user may recognize the tactile interface device 1000 and the computing device A controlling the device as one device. In the case of the combined device, the computing device A and the tactile interface device 1000 may share a processor and memory.

도 1에 도시된 촉각인터페이스장치(1000)는 상기 컴퓨팅장치(A) 등과 유선적 혹은 무선적 통신을 수행할 수 있는 외부장치접속부(1100); 복수의 핀으로 사용자에게 촉각정보를 제공하는 촉각디스플레이부(1200); 입력좌표 혹은 세부적으로 포커싱되는 사항의 위치를 변경시키는 방향키부(1300); 사용자로부터 키입력 형태로 정보를 입력받을 수 있는 키보드부(1400); 및 상기 외부장치접속부(1100), 상기 촉각디스플레이부(1200), 상기 방향키부(1300), 및 상기 키보드부(1400)의 작동을 제어하는 제어부(1500);를 포함한다.The tactile interface device 1000 illustrated in FIG. 1 includes an external device connection unit 1100 capable of performing wired or wireless communication with the computing device A; A tactile display unit 1200 providing tactile information to a user with a plurality of pins; A direction key unit 1300 for changing an input coordinate or a position of a detail focused item; A keyboard unit 1400 capable of receiving information in the form of a key input from a user; And a control unit 1500 that controls operations of the external device connection unit 1100, the tactile display unit 1200, the direction key unit 1300, and the keyboard unit 1400.

상기 외부장치접속부(1100)는 무선통신을 수행할 수 있는 통신모듈부 및 유선적으로 상기 외부장치와 접속할 수 있는 유선연결부 중 1 이상을 포함한다. 상기 통신모듈부는 블루투스(bluetooth) 통신 모듈, 지그비(zigbee) 통신 모듈, 적외선 통신 모듈, BLE(bluetooth low energy) 통신 모듈, 오디오 통신 모듈, LTE(long term evolution) 통신 모듈, 및 WiFi 통신 모듈, IrDA 기반의 적외선 통신 모듈, 무선 랜(WLAN), 와이브로(WiBro) 모듈, 무선 USB(Wireless USB) 모듈, 중 적어도 하나를 포함한다. 한편, 상기 유선연결부(1120)는 USB(Universal Serial Bus) 인터페이스를 이용한 연결모듈을 포함하는 것이 바람직하고, 이외의 데이터의 송수신을 수행할 수 있는 유선연결모듈이 이에 해당한다.The external device connection unit 1100 includes at least one of a communication module unit capable of performing wireless communication and a wired connection unit capable of wiredly connecting to the external device. The communication module unit Bluetooth (bluetooth) communication module, Zigbee (zigbee) communication module, infrared communication module, BLE (bluetooth low energy) communication module, audio communication module, long term evolution (LTE) communication module, and WiFi communication module, IrDA Based infrared communication module, a wireless LAN (WLAN), a WiBro (WiBro) module, a wireless USB (Wireless USB) module, and at least one. Meanwhile, the wired connection unit 1120 preferably includes a connection module using a universal serial bus (USB) interface, and this is a wired connection module capable of transmitting and receiving data.

상기 촉각디스플레이부(1200)는 1 이상의 차원의 촉각픽셀로 촉각정보를 제공하고, 상기 촉각픽셀은 압전세라믹 및 탄성체를 포함하는 트랜스듀서에 전원을 인가함으로써 상하로 이동하는 복수의 핀에 의하여 구성된다. 바람직하게는 상기 촉각픽셀은 2차원으로 촉각정보를 제공한다.The tactile display unit 1200 provides tactile information in one or more dimensions of tactile pixels, and the tactile pixels are configured by a plurality of pins that move up and down by applying power to a transducer including a piezoelectric ceramic and an elastic body. . Preferably, the tactile pixel provides tactile information in two dimensions.

이와 같은 촉각디스플레이부(1200)는, 외부의 사용자단말기로부터 전송받은 데이터에 기초하거나 혹은 촉각 인터페이스장치 내부에서 생성된 데이터를 입력받는 표시데이터수신부; 상기 데이터를 촉각디스플레이데이터로 변환하는 촉각데이터변환부; 및 상기 촉각디스플레이데이터에 의하여 구동하는 복수의 핀구동모듈; 및 촉각디스플레이부(1200)를 구동하는 전원을 공급받는 구동전원공급부;를 포함하고, 입력받은 데이터에 기초하여 촉각정보 혹은 촉각 그래픽을 제공한다.The tactile display unit 1200 may include: a display data receiving unit that receives data generated from a tactile interface device based on data transmitted from an external user terminal; A tactile data conversion unit converting the data into tactile display data; And a plurality of pin driving modules driven by the tactile display data. And a driving power supply unit that receives power to drive the tactile display unit 1200, and provides tactile information or tactile graphics based on the received data.

상기 촉각디스플레이부(1200)는 1 이상의 차원의 촉각픽셀을 표시 혹은 제공할 수 있다. 일 예에서는, 상기 촉각픽셀은 압전세라믹 및 탄성체를 포함하는 트랜스듀서에 전원을 인가함으로써 상하로 이동하는 복수의 핀에 의하여 구성된다. The tactile display unit 1200 may display or provide tactile pixels of one or more dimensions. In one example, the tactile pixel is configured by a plurality of pins moving up and down by applying power to a transducer including a piezoelectric ceramic and an elastic body.

구체적으로, 상기 촉각픽셀은 복수의 핀구동모듈 그룹에 의하여 표시되고, 각각의 상기 핀구동모듈 그룹은 복수의 핀구동모듈로 이루어진다. 혹은 전체의 핀구동모듈이 하나의 핀구동모듈 그룹을 구성할 수도 있다. Specifically, the tactile pixels are displayed by a plurality of pin drive module groups, and each of the pin drive module groups consists of a plurality of pin drive modules. Alternatively, the entire pin drive module may constitute one pin drive module group.

한편, 상기 방향키부(1300)는 입력좌표 혹은 세부적으로 포커싱되는 사항의 위치를 변경시킨다.On the other hand, the direction key unit 1300 changes the input coordinates or the location of the details to be focused.

상기 키보드부(1400)은 상기 촉각인터페이스장치(1000)에 시각장애인이 입력할 수 있는 키형태이고, 상기 키보드부(1400)는 복수의 키들로 구성될 수 있고, 각각의 키들의 입력은 상기 컴퓨팅장치(A)에서 실행되고 있는 어플리케이션의 명령으로 변환될 수 있다.The keyboard unit 1400 is a key form that a visually impaired person can input to the tactile interface device 1000, and the keyboard unit 1400 may be composed of a plurality of keys, and input of each key may be performed by the computing. It may be converted into an instruction of an application being executed in the device (A).

한편, 사용자는 상기 방향키부(1300), 및 상기 키보드부(1400)를 통하여 촉각 인터페이스장치에 입력을 수행하고, 촉각인터페이스장치(1000)는 이와 같이 입력된 명령 혹은 정보를 변환하여, 상기 사용자단말기(A)로 전송한다.On the other hand, the user performs an input to the tactile interface device through the directional key unit 1300 and the keyboard unit 1400, and the tactile interface device 1000 converts the command or information thus input to the user terminal. (A).

한편 키보드부(1400)는, 바람직하게는 현재 시각장애인들이 일반적으로 많이 사용하는 점자를 일반문자로 변환하여 컴퓨터에 문자 입력신호를 전달하는 점자키보드를 포함하는 것이 바람직하다. Meanwhile, the keyboard unit 1400 preferably includes a braille keyboard that converts braille, which is currently used by the visually impaired, into a general character and transmits a character input signal to the computer.

상기 키보드부(1400)는 점자를 입력 받아 촉각인터페이스장치(1000) 혹은 촉각인터페이스장치(1000)에 연결된 컴퓨팅장치(A)에 전달한다. 상기 키보드부(1400)는 점자키, 단축기, 및 실행 혹은 스페이스키 등을 포함할 수 있다.The keyboard unit 1400 receives the braille and transmits it to the tactile interface device 1000 or the computing device A connected to the tactile interface device 1000. The keyboard unit 1400 may include a braille key, a shortcut key, and an execution or space key.

점자는 여러 개의 점이 모여 하나의 글자를 구성하기 때문에 점자키가 동시에 경우 눌린 경우 최종적인 점자의 정보를 전송할 수 있다. 전송된 점자정보는 촉각 인터페이스장치(1000) 내부의 소프트웨어 혹은 컴퓨팅장치의 소프트웨어를 통하여 일반문자(general character)로 점역될 수 있다. Since braille is composed of a number of dots to form a single character, if the braille keys are pressed simultaneously, the final braille information can be transmitted. The transmitted braille information may be translated into a general character through software inside the tactile interface device 1000 or software of a computing device.

따라서, 시각장애인을 위한 컴퓨터 입출력 기능을 위하여, 촉각디스플레이부(1100)는 일반 컴퓨터의 모니터와 같은 역할을 수행하고, 방향키부(1300) 및 키보드부(1400)는 일반 컴퓨터의 키보드, 마우스 등의 입력장치의 역할을 수행하게 된다. Therefore, for the computer input / output function for the visually impaired, the tactile display unit 1100 functions as a monitor of a general computer, and the direction key unit 1300 and the keyboard unit 1400 are used as a keyboard, mouse, and the like of the general computer. It acts as an input device.

도 2는 본 발명의 일 실시예에 따른 컴퓨팅 장치의 내부 구성을 개략적으로 도시한 도면이다.2 is a diagram schematically showing an internal configuration of a computing device according to an embodiment of the present invention.

본 실시예에 따른 촉각인터페이스장치(1000)를 제어하는 컴퓨팅 장치는 프로세서, 버스(프로세서, 메모리, 네트워크인터페이스부 사이의 양방향 화살표에 해당), 네트워크 인터페이스 및 메모리를 포함할 수 있다. 메모리는 점자OS부실행코드(3400), 일반OS부실행코드(3500), 응용프로그램부실행코드 (3600), 및 입출력제어루틴(3700)을 포함할 수 있다. 프로세서는 점자OS부(2000); 일반OS부(3100); 및 응용프로그램부(3200)를 포함할 수 있다. 여기서 일반OS부(3100)는 상기 컴퓨팅 장치의 메인운영체제에 해당하는 것으로서, GOOGLE의 ANDROID OS, MICROSOFT의 WINDOWS OS등이 이에 해당할 수 있다.The computing device that controls the tactile interface device 1000 according to the present embodiment may include a processor, a bus (corresponding to a double-headed arrow between a processor, a memory, and a network interface unit), a network interface, and a memory. The memory may include a braille OS sub executable code 3400, a general OS sub executable code 3500, an application program sub executable code 3600, and an input / output control routine 3700. The processor includes a braille OS unit 2000; General OS unit 3100; And it may include an application program unit 3200. Here, the general OS unit 3100 corresponds to the main operating system of the computing device, and may include GOOGLE ANDROID OS and MICROSOFT WINDOWS OS.

다른 실시예들에서 상기 촉각인터페이스장치(1000)를 제어하는 컴퓨팅 장치(A)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다.In other embodiments, the computing device A controlling the tactile interface device 1000 may include more components than those in FIG. 2.

메모리는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리에는 점자OS부실행코드(3400), 일반OS부실행코드(3500), 응용프로그램부실행코드 (3600), 및 입출력제어루틴(3700)이 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스부(3300)를 통해 메모리에 로딩될 수도 있다.The memory is a computer-readable recording medium, and may include a non-permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive. In addition, the Braille OS sub-executable code 3400, general OS sub-executable code 3500, application program sub-executable code 3600, and input / output control routine 3700 may be stored in the memory. These software components can be loaded from a computer readable recording medium separate from memory using a drive mechanism (not shown). Such a separate computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, disk, tape, DVD / CD-ROM drive, and memory card. In other embodiments, software components may be loaded into memory through network interface 3300 rather than a computer-readable recording medium.

버스는 촉각 인터페이스장치를 제어하는 컴퓨팅 장치의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.The bus may enable communication and data transfer between components of the computing device controlling the tactile interface device. The bus may be constructed using a high-speed serial bus, parallel bus, storage area network (SAN), and / or other suitable communication technology.

네트워크 인터페이스부(3300)는 촉각인터페이스장치(1000)를 제어하는 컴퓨팅 장치(A)를 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성 요소일 수 있다. 네트워크 인터페이스부(3300)는 촉각인터페이스장치를 제어하는 컴퓨팅 장치를 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다. 이와 같은 네트워크 인터페이스부(3300)를 통하여 촉각 인터페이스장치를 제어하는 컴퓨팅 장치가 촉각 인터페이스장치에 무선적 혹은 유선적으로 접속될 수 있다.The network interface unit 3300 may be a computer hardware component for connecting the computing device A controlling the tactile interface device 1000 to a computer network. The network interface 3300 may connect the computing device controlling the tactile interface device to the computer network through a wireless or wired connection. A computing device that controls the tactile interface device through the network interface unit 3300 may be wirelessly or wiredly connected to the tactile interface device.

프로세서는 기본적인 산술, 로직 및 촉각 인터페이스장치를 제어하는 컴퓨팅 장치의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리 또는 네트워크 인터페이스부(3300)에 의해, 그리고 버스를 통해 프로세서로 제공될 수 있다. 프로세서는 점자OS부(2000); 일반OS부(3100); 및 응용프로그램부(3200)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리와 같은 기록 장치에 저장될 수 있다.The processor may be configured to process instructions of a computer program by performing input / output operations of a computing device that controls basic arithmetic, logic, and tactile interface devices. Instructions may be provided to the processor by the memory or network interface 3300 and via a bus. The processor includes a braille OS unit 2000; General OS unit 3100; And program code for the application program unit 3200. Such program code can be stored in a recording device such as a memory.

상기 점자OS부(2000)는 이하에서 설명하게 될 촉각인터페이스장치(1000)를 제어하는 방법을 수행하기 위해 구성될 수 있다. 상기한 프로세서는 촉각 인터페이스장치를 제어하는 방법에 따라 일부 컴포넌트가 생략되거나, 도시되지 않은 추가의 컴포넌트가 더 포함되거나, 2개 이상의 컴포넌트가 결합될 수 있다.The braille OS unit 2000 may be configured to perform a method of controlling the tactile interface device 1000, which will be described below. In the above-described processor, some components may be omitted, additional components (not shown) may be further included, or two or more components may be combined depending on a method of controlling the tactile interface device.

도 3은 본 발명의 일 실시예에 따른 점자OS부의 동작환경을 개략적으로 도시한 도면이다.3 is a diagram schematically showing an operating environment of a braille OS unit according to an embodiment of the present invention.

일반OS부(3100)는 컴퓨팅장치(A)의 메인운영체제에 해당하는 소프트웨어모듈에 해당하고, 상기 일반OS부(3100)의 제어하에서, 점자OS부(2000) 및 응용프로그램부(3200)가 구동된다. 즉, 본 발명에 따른 촉각인터페이스장치를 제어하는 방법은, 상기 컴퓨팅장치(A)의 메인운영체제의 제어를 받아 동작하는, 촉각 인터페이스장치를 위한 가상적인 서브운영체제에 해당하는 점자 OS부에 의하여 구현될 수 있다.The general OS unit 3100 corresponds to a software module corresponding to the main operating system of the computing device A, and under the control of the general OS unit 3100, the braille OS unit 2000 and the application program unit 3200 are driven. do. That is, the method for controlling the tactile interface device according to the present invention is implemented by the braille OS unit corresponding to the virtual sub-operating system for the tactile interface device, which operates under the control of the main operating system of the computing device (A). You can.

이와 같은 점자OS부(2000)는 상기 촉각 인터페이스장치(1000)의 구동 및 입출력과 관련된 전반적인 사항을 제어하면서, 동시에 상기 일반OS부(3100)의 제어하에서 동작하는 상기 응용프로그램부(3200)와 상기 촉각인터페이스장치(1000) 사이의 입출력을 제어한다. The braille OS unit 2000 controls the overall matters related to driving and input / output of the tactile interface device 1000, and at the same time, the application program unit 3200 operating under the control of the general OS unit 3100 and the The input / output between the tactile interface devices 1000 is controlled.

또한, 상기 점자OS부(2000)는 상기 촉각인터페이스장치의(1000) 환경을 제어하는 응용프로그램 및 상기 촉각인터페이스장치(1000)에서 입출력이 가능한 내장기본프로그램을 포함할 수 있다.In addition, the braille OS unit 2000 may include an application program for controlling the environment of the tactile interface device 1000 and a built-in basic program capable of inputting and outputting from the tactile interface device 1000.

한편, 이와 같은 점자OS부(2000)의 환경에서는, 개발자들은 실제 컴퓨팅장치의 디스플레이 예를들어 스마트폰의 디스플레이를 기반으로 시각장애인을 위한 소프트웨어 혹은 응용프로그램을 개발하고, 이와 같은 응용프로그램의 상기 촉각인터페이스장치(1000)로의 입출력은 상기 점자OS부(2000)에 의하여 수행될 수 있다.On the other hand, in the environment of the Braille OS unit 2000, developers develop software or application programs for the visually impaired based on the display of a real computing device, for example, a smart phone display, and the tactile sense of such an application program. Input / output to the interface device 1000 may be performed by the braille OS unit 2000.

즉, 본 발명의 촉각인터페이스장치의 제어방법을 수행하는 점자OS부(2000)는 일반 개발자가 일반적인 GUI를 갖는 소프트웨어를 개발하고, 이와 같이 개발된 소프트웨어가 상기 점자OS부(2000)를 통하여 시각장애인이 입출력을 할 수 있는 형태로 상기 촉각인터페이스장치(1000)에서 구현될 수 있어, 일반 소프트웨어 개발자가 시각장애인에게 보다 다양한 소프트웨어를 공급할 수 있게 하는 효과를 발휘할 수 있다.That is, the braille OS unit 2000 performing the method of controlling the tactile interface device of the present invention develops software having a general GUI by a general developer, and the developed software is visually impaired through the braille OS unit 2000. It can be implemented in the tactile interface device 1000 in a form that can input and output, it can exhibit the effect of allowing a general software developer to supply a variety of software to the visually impaired.

도 4는 본 발명의 일 실시예에 따른 점자OS부의 내부 구성을 개략적으로 도시한 도면이다. 도 4에 도시된 바와 같이 상기 점자OS부(2000)는, 트리거모듈(2100), 메인화면모듈(2200), 환경설정모듈(2300), TUI(Tactile User Interface)모듈(2400), 내장어플리케이션모듈(2500), TTS(Text To Speech)모듈(2600), 및 이멘트모듈(2700)을 포함한다.4 is a diagram schematically showing an internal configuration of a braille OS unit according to an embodiment of the present invention. As shown in FIG. 4, the braille OS unit 2000 includes a trigger module 2100, a main screen module 2200, an environment setting module 2300, a TUI (Tactile User Interface) module 2400, and an internal application module. (2500), TTS (Text To Speech) module 2600, and includes a comment module 2700.

상기 트리거모듈(2100)은 상기 컴퓨팅장치(A)와 상기 촉각인터페이스장치(1000)의 접속을 확인하는 단계; 및 상기 컴퓨팅장치(A)와 상기 촉각인터페이스장치(1000)가 상호접속 되었다고 판단되는 경우에 상기 메인화면모듈(2200)을 실행하는 단계의 실행을 호출하는 단계를 수행한다.The trigger module 2100 checks the connection between the computing device A and the tactile interface device 1000; And calling the execution of the step of executing the main screen module 2200 when it is determined that the computing device A and the tactile interface device 1000 are interconnected.

상기 점자OS부(2000)는 기본적으로 시각적 디스플레이로 인터페이스를 수행하는 컴퓨팅장치에서 실행된다. 따라서, 시각장애인이 컴퓨팅장치에서 점자OS부의 각각의 모듈을 실행시켜 촉각인터페이스장치를 이용하기 위해서는 점자OS부가 실행되어야 한다. The braille OS unit 2000 is basically executed on a computing device that interfaces with a visual display. Therefore, the braille OS unit must be executed in order for the visually impaired to use the tactile interface device by executing each module of the braille OS unit in the computing device.

일반적인 스마트폰에서의 어플리케이션의 실행은 사용자가 스마트폰의 GUI에서 어플리케이션 아이콘 등을 확인하고 터치입력을 수행함에 의하여 실행이 되지만, 시각장애인의 경우 이와 같은 동작이 어려울 수도 있다.In general, the execution of an application on a smartphone is executed by a user confirming an application icon or the like in the GUI of the smartphone and performing touch input, but in the case of the visually impaired, such an operation may be difficult.

이와 같은 점자OS부의 실행은 일반적인 컴퓨팅장치에서 실행되는 어플리케이션의 실행과 달리, 시각적으로 인지가 어려운 시각장애인에 의하여 실행이 되어야 하기 때문에, 상기 트리거모듈(2100)은 상기 메인운영체제의 백그라운드로 동작하다가, 시각장애인이 촉각인터페이스장치와 상기 컴퓨팅장치(A)의 연결을 하는 경우에(바람직하게는 이와 같은 연결은 시각장애인이 촉각인터페이스장치에 있는 물리적인 버튼을 입력함에 따라서 이루어진다), 상기 트리거모듈(2100)은 1차적으로 상기 메인화면모듈(2200)의 실행을 호출한다.Since the execution of the braille OS unit must be executed by a visually impaired visually impaired person, unlike the execution of an application executed in a general computing device, the trigger module 2100 operates in the background of the main operating system. When the visually impaired person makes a connection between the tactile interface device and the computing device A (preferably, such a connection is made when the visually impaired person enters a physical button on the tactile interface device), the trigger module 2100 ) Primarily calls execution of the main screen module 2200.

상기 메인화면모듈(2200)은 예를들어 도 9와 같은 촉각인터페이스장치를 시작하였을 때, 윈도우 바탕화면과 같이 점자OS부의 메인화면을 표시하고, 이와 같은 메인화면에서 사용자가 원하는 모듈 혹은 기능을 선택하도록 수행하는 페이지를 제공할 수 있다.The main screen module 2200, for example, when starting the tactile interface device shown in FIG. 9, displays the main screen of the braille OS unit as in the Windows desktop screen, and selects a module or function desired by the user from the main screen. It can provide a page to perform.

바람직하게는 상기 메인화면모듈(2200)은 도 9의 (A)와 같이, 단순히 컴퓨팅장치에서 디스플레이되는 인터페이스를 제공한다. 즉, 메인화면모듈이 실행되는 경우에 상기 컴퓨팅장치에 연결된 시각적 디스플레이장치는 상기 도 9의 (A)와 같은 GUI인터페이스를 디스플레이한다. 동시에, 상기 GUI인터페이스의 출력신호는 상기 TUI모듈(2400)에 의하여 촉각인터페이스의 출력신호로 변환되어, 상기 촉각인터페이스장치(1000)로 전달되어, 시각장애인은 상기 메인화면을 촉각적으로 인지할 수 있다. 점자OS부에 내장된 응용프로그램 혹은 점자OS부의 제어하에서 동작할 수 있는 외부 응용프로그램 모두 이와 같은 GUI를 제공할 수 있도록 제작될 수 있다. Preferably, the main screen module 2200 simply provides an interface displayed on the computing device, as shown in FIG. 9A. That is, when the main screen module is executed, the visual display device connected to the computing device displays a GUI interface as shown in FIG. 9A. At the same time, the output signal of the GUI interface is converted to the output signal of the tactile interface by the TUI module 2400, and transmitted to the tactile interface device 1000, so that the visually impaired can perceive the main screen tactilely. have. Both an application program embedded in the braille OS unit or an external application program capable of operating under the control of the braille OS unit can be manufactured to provide such a GUI.

한편, 이와 같은 메인화면모듈(2200)은 상기 점자OS부(2000)에 의하여 제공된다. 즉, 점자OS부(2000)를 실행시키면, 1차적으로는 상기 점자OS부, 즉 메인운영체제의 제어 하에서 실행되는 서브운영체제에 의하여 제공되는 메인화면모듈이 실행된다. 혹은 상기 트리거모듈에 의하여 상기 메인화면모듈이 실행될 수 있다.Meanwhile, the main screen module 2200 is provided by the braille OS unit 2000. That is, when the braille OS unit 2000 is executed, the main screen module provided primarily by the braille OS unit, that is, a sub-operating system executed under the control of the main operating system, is executed. Alternatively, the main screen module may be executed by the trigger module.

상기 환경설정모듈(2300)은 상기 점자OS부(2000)의 환경 및/또는 상기 촉각인터페이스장치(1000)의 환경을 설정할 수 있도록 하는 인터페이스를 제공하는 모듈이다. 마찬가지로, 상기 환경설정모듈(2300)이 실행되면 상기 컴퓨팅장치(A)에 연결된 디스플레이 장치에서 환경설정에 대한 인터페이스가 제공되고, 동시에 상기 TUI모듈(2400)은 상기 인터페이스를 상기 촉각인터페이스장치(1000)에서 입출력이 가능한 형태로 변환한다.The environment setting module 2300 is a module that provides an interface for setting the environment of the braille OS unit 2000 and / or the environment of the tactile interface device 1000. Similarly, when the environment setting module 2300 is executed, an interface for environment setting is provided in a display device connected to the computing device A, and at the same time, the TUI module 2400 uses the interface as the tactile interface device 1000. Converts the input / output to a possible form.

상기 TUI모듈(2400)은 상기 메인화면모듈 혹은 다른 응용어플리케이션 모듈에 의하여 상기 컴퓨팅장치(A)에서 디스플레이될 수 있는 화면에 상응하는 상기 촉각인터페이스장치(1000)의 촉각화면을 구현하기 위한 출력신호를 생성하고, 상기 촉각인터페이스장치(1000)에서 입력된 사용자 입력으로부터 상기 메인화면모듈(2200)에 입력하기 위한 입력신호를 생성한다.The TUI module 2400 outputs an output signal for realizing a tactile screen of the tactile interface device 1000 corresponding to a screen that can be displayed on the computing device A by the main screen module or another application application module. Create, and generate an input signal for input to the main screen module 2200 from the user input input from the tactile interface device 1000.

즉, 상기 TUI모듈(2400)은 상기 메인화면모듈(2200), 상기 점자OS부(2000)에 의하여 제공되고 내장어플리케이션, 혹은 메인운영체제의 제어 하에서 동작하는 외부 응용어플리케이션의 GUI를 상기 촉각인터페이스장치(1000)에서 인터페이스 할 수 있는 TUI로 변환하는 역할을 수행한다. 따라서, 일반 개발자는 컴퓨팅장치(A)에서 동작하는 일반적인 소프트웨어만 개발을 한다면, 해당 소프트웨어의 인터페이스가 상기 TUI모듈(2400)에 의하여 촉각인터페이스장치에서 인터페이스 할 수 있는 형태로 변환되고, 결과적으로, 시각장애인이 해당 소프트웨어를 사용할 수 있다.That is, the TUI module 2400 is provided by the main screen module 2200, the braille OS unit 2000, and the GUI of an external application application operated under the control of the main operating system or the built-in application or the tactile interface device ( 1000) to convert to a TUI that can interface. Therefore, if a general developer develops only general software that operates on the computing device A, the interface of the software is converted into a form that can be interfaced by the tactile interface device by the TUI module 2400, and consequently, the visual People with disabilities may use the software.

즉, 상기 점자OS부(2000)에서는 상기 메인화면모듈(2200)에서 사용자의 입력에 따라 호출되는 어플리케이션모듈 실행단계; 및 상기 서브운영체제에 의하여 제공되는 TUI모듈을 실행하는 제2 TUI단계가 포함될 수 있고, 상기 제2 TUI단계는, 상기 어플리케이션모듈에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면에 상응하는 상기 촉각인터페이스장치의 촉각화면을 구현하기 위한 출력신호를 생성하고, 상기 촉각인터페이스장치에서 입력된 사용자 입력으로부터 상기 어플리케이션모듈에 입력하기 위한 입력신호를 생성하는 동작을 수행한다.That is, in the Braille OS unit 2000, the application module execution step is called in response to a user input from the main screen module 2200; And a second TUI step for executing the TUI module provided by the sub-operating system, wherein the second TUI step is the tactile interface device corresponding to a screen that can be displayed on the computing device by the application module. It generates an output signal for realizing the tactile screen of and performs an operation of generating an input signal for input to the application module from a user input input from the tactile interface device.

상기 내장어플리케이션모듈(2500)은 알람, 시계, 기본 문서작성기, 기본 문서뷰어 등과 같은 어플리케이션에 해당할 수 있고, 마찬가지로, 상기 내장어플리케이션은 일반인을 대상으로 하는 GUI기반으로 제작이 되지만, 상기 TUI모듈(2400)에 의하여 상기 촉각인터페이스장치를 통하여 시각장애인도 이용을 할 수 있다.The built-in application module 2500 may correspond to an application such as an alarm, a clock, a basic document creator, a basic document viewer, etc. Similarly, the built-in application is produced based on a GUI for the general public, but the TUI module ( 2400) can also be used by the visually impaired through the tactile interface device.

상기 TTS모듈(2600)은 상기 메인화면모듈(2200), 환경설정모듈(2300), 혹은 기타 어플리케이션모듈에 의하여 디스플레이 혹은 촉각디스플레이되는 요소에 대해 TTS기능을 자체적으로 수행하거나 혹은 메인운영체제에서 동작하는 TTS기능을 하는 모듈에 대해 TTS 대상이 되는 텍스트 정보를 제공하면서 TTS 수행을 요청하는 기능을 수행한다.The TTS module 2600 performs the TTS function itself on elements displayed or tactile displayed by the main screen module 2200, the environment setting module 2300, or other application modules, or the TTS operating in the main operating system It performs the function of requesting TTS execution while providing text information that is the target of the TTS for the functioning module.

상기 이벤트모듈(2700)은 사용자단말기와 촉각인터페이스장치와의 접속상태에 기초하여, 촉각인터페이스장치로의 이벤트 알림 출력신호를 생성하는 기능을 수행한다. 시각장애인은 자신이 인터페이싱하고 있는 촉각인터페이스장치가 상기 컴퓨팅장치와의 접속이 해제되는 경우를 쉽게 인지하지 못하고, 이와 같은 문제점을 해결하기 위해서, 점자OS부는 이벤트모듈을 제공함으로써, 접속장애에 대한 정보를 즉각적으로 촉각인터페이스장치로 전송하는 기능을 수행한다.The event module 2700 performs a function of generating an event notification output signal to the tactile interface device based on the connection state between the user terminal and the tactile interface device. For the visually impaired, the tactile interface device that they are interfacing does not easily recognize when the connection with the computing device is released, and in order to solve such a problem, the braille OS unit provides an event module, thereby providing information about the access disorder. It performs the function of immediately transmitting to the tactile interface device.

도 5는 본 발명의 일 실시예에 따른 TUI모듈의 내부 구성을 개략적으로 도시한 도면이다. (워드 문서에는 첨부되지 않은 도면입니다)5 is a view schematically showing the internal configuration of a TUI module according to an embodiment of the present invention. (The drawing is not attached to the word document)

TUI모듈은, 상기 메인화면모듈(2200) 혹은 기타 어플리케이션에 의하여 상기 컴퓨팅장치(A)에서 디스플레이될 수 있는 화면에 상응하는 상기 촉각인터페이스장치(1000)의 촉각화면을 구현하기 위한 출력신호를 생성하는 출력신호생성부(2410); 상기 촉각인터페이스장치에서의 키입력 등의 입력을 상기 컴퓨팅장치에서 실행되고 있는 메인화면모듈 혹은 기타 어플리케이션에 입력할 수 있는 형태로 변환하여 입력신호를 생성하는 입력신호생성부(2420); 상기 출력신호생성부의 동작에 있어서 접속된 촉각인터페이스장치의 촉각디스플레이부의 화소에 적합한 스케일링 정보를 로드하는 스케일링정보로드부(2430); 및 상기 출력신호 및 상기 촉각인터페이스장치의 이전의 촉각디스플레이 정보에 기초하여 버퍼출력신호를 생성하는 버퍼출력신호생성부(2440)를 포함한다.The TUI module generates an output signal for implementing a tactile screen of the tactile interface device 1000 corresponding to a screen that can be displayed on the computing device A by the main screen module 2200 or other application. An output signal generator 2410; An input signal generator 2420 for converting inputs such as key inputs from the tactile interface device into a form that can be input to a main screen module or other application executed in the computing device to generate an input signal; A scaling information load unit 2430 for loading scaling information suitable for pixels of a tactile display unit of a tactile interface device connected in operation of the output signal generating unit; And a buffer output signal generator 2440 that generates a buffer output signal based on the output signal and previous tactile display information of the tactile interface device.

여기서, 상기 출력신호 및 상기 버퍼출력신호는 2차원 촉각셀 어레이에 대한 제어신호를 포함한다.Here, the output signal and the buffer output signal include a control signal for a two-dimensional tactile cell array.

상기 메인화면모듈(2200) 등을 포함하는 프로그램모듈은 상기 TUI모듈(2400)을 통하여 촉각인터페이스장치로 입출력신호가 변환될 수 있다. The program module including the main screen module 2200 and the like may convert input / output signals to the tactile interface device through the TUI module 2400.

한편, 상기 스케일링정보로드부(2430)는 접속된 촉각인터페이스장치로부터 자동적으로 해당 촉각인터페이스장치의 촉각디스플레이 픽셀정보를 수신하는 방식으로 촉각디스플레이 픽셀정보를 로드하는 것이 바람직하다. 혹은, 이와 같은 촉각디스플레이 픽셀정보는 상기 컴퓨팅 장치(A)의 메모리에 저장되어 있을 수 있다.Meanwhile, the scaling information loading unit 2430 preferably loads the tactile display pixel information by automatically receiving the tactile display pixel information of the corresponding tactile interface device from the connected tactile interface device. Alternatively, such tactile display pixel information may be stored in the memory of the computing device A.

도 6은 본 발명의 일 실시예에 따른 촉각인터페이스장치에서의 촉각 디스플레이화면을 개략적으로 도시한다.6 schematically illustrates a tactile display screen in a tactile interface device according to an embodiment of the present invention.

전술한 바와 같이, 상기 TUI모듈(2400)은 상기 컴퓨팅장치(A)에서 디스플레이될 수 있는 화면에 상응하는 상기 촉각인터페이스장치(1000)의 촉각화면을 구현하기 위한 출력신호를 생성하는 출력신호생성부(2410)를 포함한다.As described above, the TUI module 2400 generates an output signal generating unit for generating an output signal for realizing a tactile screen of the tactile interface device 1000 corresponding to a screen that can be displayed on the computing device A. (2410).

한편, 상기 출력신호는 2차원 촉각셀 어레이에 대한 제어신호를 포함하고, 상기 출력신호에 의하여 구현되는 촉각인터페이스장치의 촉각화면은, 상기 메인화면모듈(2200)에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면 중 컨텐츠부분에 기초하여 구현되는 컨텐츠영역(L1); 상기 현재 사용자의 커서의 위치 및 형태를 구현하는 커서영역(L2); 및 상기 메인화면모듈에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면의 페이지정보에 기초하여 구현되는 페이지영역(L3)을 포함한다.Meanwhile, the output signal includes a control signal for a two-dimensional tactile cell array, and the tactile screen of the tactile interface device implemented by the output signal may be displayed on the computing device by the main screen module 2200. A content area (L1) implemented based on the content part of the screen; A cursor area (L2) that implements the position and shape of the current user's cursor; And a page area L3 implemented based on page information of a screen that can be displayed on the computing device by the main screen module.

한편, 상기 도 6에서 도시된 바와 같이, 촉각인터페이스장치에는 다양한 물리적키가 구비되어 있고, 각각의 물리적키는 보다 직관적인 기능을 수행할 수 있도록 기능이 할당되어 있다. 이와 같은 물리적키의 입력에 의하여 상기 TUI모듈(2400)의 기능을 수행하고, 상기 TUI모듈에 의하여 상기 컴퓨팅장치에서 동작하는 어플리케이션의 명령이 생성되고, 해당 명령이 상기 컴퓨팅장치에서 동작하는 어플리케이션으로 입력될 수 있다.On the other hand, as shown in Figure 6, the tactile interface device is provided with a variety of physical keys, each physical key is assigned a function to perform a more intuitive function. By performing the function of the TUI module 2400 by the input of the physical key, an instruction of an application operating on the computing device is generated by the TUI module, and the corresponding instruction is input to an application operating on the computing device. Can be.

도 7은 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 방법의 과정을 개략적으로 도시한다.7 schematically illustrates a process of a method for controlling a tactile interface device according to an embodiment of the present invention.

단계 S10에서는 시각장애인 사용자가 촉각인터페이스장치의 ON 혹은 촉각인터페이스장치의 상기 컴퓨팅장치로의 연결에 대한 키입력을 함으로써, 메인화면모듈을 실행을 호출하는 트리거단계가 수행된다. In step S10, a trigger step is performed in which a visually impaired user calls the execution of the main screen module by turning on the tactile interface device or keying the connection of the tactile interface device to the computing device.

전술한 바와 같이, 상기 점자OS부(2000)의 상기 트리거모듈(2100)부는 컴퓨팅장치의 메인운영체제의 제어 하에서 백그라운드로 동작하게되고, 상기와 같은 조건이 충족하게 되면, 우선적으로 상기 메인화면모듈(2200)의 실행을 호출한다.As described above, the trigger module 2100 of the braille OS unit 2000 operates in the background under the control of the main operating system of the computing device. When the above conditions are satisfied, the main screen module ( 2200).

시각장애인의 경우 처음 시작하는 페이지가 일정한 것이 보다 유리하기 때문에, 바람직하게는 상기 트리거단계(S10)는 상기 메인화면모듈(2200)의 실행을 호출한다.In the case of the visually impaired, since it is more advantageous for the page to start first to be constant, preferably, the trigger step S10 calls execution of the main screen module 2200.

단계 S20에서는 상기 메인화면모듈(2200)의 실행이 수행된다. 이와 같은 메인화면모듈의 실행에 의하여 상기 컴퓨팅장치(A)에 연결된 GUI 디스플레이에서는 상기 메인화면모듈(2200)의 화면이 시각적으로 디스플레이된다. 이와 같이 상기 메인화면모듈(2200)이 기본적으로는 시각적으로 디스플레이되는 형태이기 때문에, 개발자들은 점자, 혹은 시각장애인을 고려하지 않고 일반적인 방법으로 상기 메인화면모듈(2200) 혹은 다른 응용어플리케이션을 개발할 수 있다. 또한, 시각장애인이 특정 어플리케이션을 이용함에 있어서 문제가 있는 경우 일반인이 컴퓨팅장치에 연결된 일반 인터페이스 요소(예를들어 터치디스플레이)를 조작함으로써 시각장애인이 해당 어플리케이션을 이용함에 따라 발생하는 문제점을 옆에서 해결해줄 수도 있다.In step S20, execution of the main screen module 2200 is performed. In the GUI display connected to the computing device A by executing the main screen module, the screen of the main screen module 2200 is visually displayed. As described above, since the main screen module 2200 is basically visually displayed, developers can develop the main screen module 2200 or other application applications in a general manner without considering braille or visually impaired persons. . In addition, when a visually impaired user has a problem in using a specific application, a problem that occurs when the visually impaired user uses the application is solved by operating a general interface element (for example, a touch display) connected to the computing device. You can do it.

단계 S30에서는, 상기 메인화면모듈(2200)에 의하여 디스플레이되는 메인화면에 대해 상기 TUI모듈(2400)이 실행되어, 상기 메인화면모듈(2200)의 출력요소를 상기 촉각인터페이스장치(1000)의 촉각디스플레이부(1200)의 구동신호로 변환시키거나, 혹은 상기 촉각인터페이스장치(1000)에서의 입력을 상기 메인화면모듈(2200)로 입력될 수 있는 형태의 명령으로 변환한다. 이를 편의상 제1 TUI단계(S30)라고 칭한다.In step S30, the TUI module 2400 is executed on the main screen displayed by the main screen module 2200 to display the output elements of the main screen module 2200 in the tactile display of the tactile interface device 1000. It is converted to a driving signal of the unit 1200, or an input from the tactile interface device 1000 is converted into a command that can be input to the main screen module 2200. This is referred to as a first TUI step (S30) for convenience.

단계 S40에서는, 사용자의 조작에 의하여 별도의 어플리케이션이 실행된다. 상기 별도의 어플리케이션은 상기 점자OS(2000)부에 의하여 제공되는 어플리케이션 혹은 상기 점자OS부(2000)와 별도로 제공되는 어플리케이션일 수 있다.In step S40, a separate application is executed by the user's manipulation. The separate application may be an application provided by the braille OS 2000 unit or an application provided separately from the braille OS unit 2000.

단계 S50에서는, 상기 별도의 어플리케이션에 의하여 디스플레이되는 화면에 대해 상기 TUI모듈(2400)이 실행되어, 상기 화면의 출력요소를 상기 촉각인터페이스장치(1000)의 촉각디스플레이부(1200)의 구동신호로 변환시키거나, 혹은 촉각인터페이스장치에서의 입력을 상기 어플리케이션으로 입력될 수 있는 형태의 명령으로 변환한다. 이를 편의상 제2 TUI단계(S50)라고 칭한다. 여기서, 상기 제2 TUI단계도 상기 점자OS부(2000)에 의하여 제공되는 상기 TUI모듈(2400)에 의하여 수행될 수 있다.In step S50, the TUI module 2400 is executed on a screen displayed by the separate application to convert an output element of the screen into a driving signal of the tactile display unit 1200 of the tactile interface device 1000. Or converts input from the tactile interface device into a command that can be input to the application. This is referred to as a second TUI step (S50) for convenience. Here, the second TUI step may also be performed by the TUI module 2400 provided by the braille OS unit 2000.

단계 S60에서는, 사용자의 촉각인터페이스장치의 조작에 따라 특정 영역에 대한 TTS기능 실행이 호출된다. 바람직하게는, 상기 점자OS부(2000)는 TTS 대상이 되는 부분을 결정하여, 메인운영체제에 의하여 동작하는 TTS어플리케이션에 TTS 기능을 수행할 것을 요청한다.In step S60, execution of the TTS function for a specific area is called according to the operation of the user's tactile interface device. Preferably, the braille OS unit 2000 determines a portion to be a TTS, and requests that the TTS application operate by the main operating system perform a TTS function.

단계 S70에서는, 컴퓨팅장치와 촉각인터페이스장치와의 접속상태에 기초하여, 상기 촉각인터페이스장치(1000)에 알림을 수행하는 이벤트모듈이 실행된다.In step S70, based on the connection state between the computing device and the tactile interface device, an event module that notifies the tactile interface device 1000 is executed.

도 8은 본 발명의 일 실시예에 따른 트리거단계의 세부 과정을 개략적으로 도시한다.8 schematically shows a detailed process of a trigger step according to an embodiment of the present invention.

상기 트리거단계는 상기 메인화면모듈(2200)을 실행하는 단계 이전에 수행될 수 있다. 즉, 일반사용자가 컴퓨팅장치에서 상기 점자OS부(2000)를 실행시켜 상기 메인화면모듈(2200)이 호출되는 것이 아니라, 시각장애인 사용자가 상기 촉각인터페이스장치의 전원을 키거나(이 경우 자동적으로 할당된 컴퓨팅장치에 접속됨) 혹은 ON 되어 있는 촉각 디스플레이장치를 조작하여 컴퓨팅장치에 접속을 요청하는 경우에 수행될 수 있다.The trigger step may be performed before the step of executing the main screen module 2200. That is, the general user does not call the main screen module 2200 by executing the braille OS unit 2000 on the computing device, but the visually impaired user turns on the power of the tactile interface device (in this case, automatically allocates it). Connected to the computing device) or by operating the tactile display device that is turned on to request access to the computing device.

상기 트리거단계는, 상기 컴퓨팅장치(A)와 상기 촉각인터페이스장치(1000)의 접속을 확인하는 단계(S11); 및 상기 컴퓨팅장치(A)와 상기 촉각인터페이스장치(1000)가 상호접속 되었다고 판단되는 경우에 상기 메인화면모듈(2200)을 실행하는 단계의 실행을 호출하는 단계(S12)를 포함한다.The triggering step includes: confirming a connection between the computing device A and the tactile interface device 1000 (S11); And invoking the execution of the step of executing the main screen module 2200 when it is determined that the computing device A and the tactile interface device 1000 are interconnected (S12).

도 9는 본 발명의 일 실시예에 따른 컴퓨팅장치에서의 표시화면과 이에 따른 촉각인터페이스장치에서의 촉각디스플레이를 개략적으로 도시한다.9 schematically illustrates a display screen in a computing device and a tactile display in the tactile interface device according to an embodiment of the present invention.

도 9의 (A)는 컴퓨팅장치가 스마트폰인 경우 메인화면모듈이 실행되었을 때의 컴퓨팅장치의 디스플레이 화면을 도시하고, 도 9의 (B)는 상기 도 9의 (A)가 디스플레이되는 시점과 동일한 시점에서의 촉각인터페이스장치의 상태를 도시한다.9 (A) shows a display screen of the computing device when the main screen module is executed when the computing device is a smartphone, and FIG. 9 (B) shows a time point when the (A) of FIG. 9 is displayed. The state of the tactile interface device at the same time is shown.

상기 메인화면모듈(2200)은 각각의 메뉴(컨텐츠)를 1차원적으로 나열하는 형태로 디스플레이하고, 이에 대한 커서를 상기 각각의 메뉴 옆에 위치하도록 하는 형태로 디스플레이한다. 즉, 메인화면모듈은 컨텐츠를 복수의 단위로 구분하고, 복수의 단위로 구분된 형태로 컴퓨팅장치에 디스플레이한다. 이후, 상기 TUI모듈은(2400)은 복수의 단위로 구분된 컨텐츠를 복수의 서브컨텐츠영역으로 구분한다.The main screen module 2200 displays each menu (content) in a one-dimensionally arranged form, and displays a cursor for the position next to each menu. That is, the main screen module divides the content into a plurality of units and displays the content on a computing device in a form divided into a plurality of units. Thereafter, the TUI module 2400 divides the content divided into a plurality of units into a plurality of sub-content areas.

한편, 상기 촉각인터페이스장치(1000)에서도 마찬가지로 각각의 메뉴(컨텐츠)를 1차원적으로 나열하는 형태로 표시하고, 이에 대한 커서를 상기 각각의 메뉴 옆에 위치하도록 하는 형태로 디스플레이한다.On the other hand, the tactile interface device 1000 similarly displays each menu (content) in a one-dimensionally arranged form, and displays the cursor for this to be positioned next to each menu.

도 10은 본 발명의 일 실시예에 따른 촉각인터페이스장치에서의 촉각디스플레이의 영역 구성을 개략적으로 도시한다.10 schematically illustrates a region configuration of a tactile display in a tactile interface device according to an embodiment of the present invention.

상기 TUI모듈(2400)에 의하여 생성되는 출력신호에 의하여 구현되는 촉각인터페이스장치의 촉각화면은, 상기 메인화면모듈(2200)에 의하여 상기 컴퓨팅장치(A)에서 디스플레이될 수 있는 화면 중 컨텐츠부분(도 9에서는 메뉴)에 기초하여 구현되는 컨텐츠영역(L1); 현재 사용자의 커서의 위치 및 형태를 구현하는 커서영역(L2); 및 상기 메인화면모듈(2200)에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면의 페이지정보에 기초하여 구현되는 페이지영역(L3)을 포함한다.The tactile screen of the tactile interface device implemented by the output signal generated by the TUI module 2400 is a content portion of the screen that can be displayed on the computing device A by the main screen module 2200 (FIG. 9, a content area L1 implemented based on a menu); A cursor area L2 that implements the current user's cursor position and shape; And a page area L3 implemented based on page information of a screen that can be displayed on the computing device by the main screen module 2200.

또한, 상기 컨텐츠영역은 복수의 서브컨텐츠영역으로 구분될 수 있고, 상기 커서영역은 복수의 서브커서영역으로 구분될 수 있고, 상기 커서영역에서 구현되는 커서의 위치는 포커싱된 상기 서브컨텐츠영역의 위치에 대응함이 바람직하다. 이와 같은 촉각디스플레이 형태는 시각장애인에게 가장 효율적으로 정보를 확인하고 입력을 수행할 수 있는 구조에 해당한다.In addition, the content area may be divided into a plurality of sub-content areas, the cursor area may be divided into a plurality of sub-cursor areas, and the position of the cursor implemented in the cursor area is the position of the focused sub-content area. It is desirable to correspond to. This type of tactile display corresponds to a structure in which information for a visually impaired person can be identified and inputted most efficiently.

상기 서브컨텐츠영역은 복수의 점자셀 그룹으로 구성되고, 각각의 점자셀 그룹은 복수개의 점자셀, 예를들어 6개의 점자셀을 포함한다. 여기서, 하나의 점자셀은 하나의 점자 구멍을 지칭한다.The sub-content area is composed of a plurality of braille cell groups, and each braille cell group includes a plurality of braille cells, for example, six braille cells. Here, one braille cell refers to one braille hole.

마찬가지로, 각각의 상기 서브커서영역 역시 1 이상의 점자셀, 바람직하게는 커서의 위치 및 형태 정보를 알릴 수 있는 형태의 복수의 점자셀을 포함한다.Similarly, each of the sub-cursor regions also includes one or more braille cells, preferably a plurality of braille cells in a form that can inform the location and shape information of the cursor.

더욱 바람직하게는, 도 10의 "포커스된 L2영역" 및 "포커스된 L1영역"에서와 같이, 상기 서브커서영역과 상기 서브커서영역에 대응되는 상기 서브컨텐츠영역은 1축으로 서로 정렬되어 있다. 이와 같은 구조에서 시각장애인은 자신의 커서가 포커스하고 있는 부분이 어디인지를 가장 효율적으로 파악할 수 있다. 이와 같은 인터페이스 형태는 본 발명의 출원인이 시각장애인을 상대로한 다양한 실험 등을 통하여 도출된 형태에 해당한다.More preferably, as in “Focused L2 region” and “Focused L1 region” in FIG. 10, the sub-cursor region and the sub-content regions corresponding to the sub-cursor region are aligned with each other in one axis. In this structure, the visually impaired can most effectively grasp where the cursor is focusing. Such an interface form corresponds to a form derived by various applicants of the present invention through various experiments with the blind.

도 11은 본 발명의 일 실시예에 따른 촉각인터페이스장치의 입출력 과정을 개략적으로 도시한다.11 schematically illustrates an input / output process of a tactile interface device according to an embodiment of the present invention.

단계 S110, S120, 및 S130은 상기 TUI모듈(2400)에 의하여 수행된다. 한편, 단계 S140에서는 어플리케이션으로 명령이 입력되고, 이에 따라서 어플리케이션의 인터페이스 혹은 화면 출력이 변화되게 된다.Steps S110, S120, and S130 are performed by the TUI module 2400. Meanwhile, in step S140, a command is input to the application, and accordingly, the interface or screen output of the application is changed.

단계 S150, S160, 및 S170은 상기 TUI모듈(2400)에 의하여 수행된다. 이와 같은 단계들의 수행에 의하여 어플리케이션의 인터페이스 혹은 화면 출력의 변화가 상기 촉각인터페이스장치(1000)로 전달이 되고, 사용자는 이와 같은 변화를 즉각적으로 인지할 수 있다.Steps S150, S160, and S170 are performed by the TUI module 2400. By performing these steps, a change in the interface or screen output of the application is transmitted to the tactile interface device 1000, and the user can immediately recognize the change.

도 12는 본 발명의 일 실시예에 따른 출력신호생성단계의 과정을 개략적으로 도시한다.12 schematically illustrates a process of an output signal generation step according to an embodiment of the present invention.

상기 출력신호생성단계는, 상기 컨텐츠영역에 대한 상기 2차원 촉각셀 어레이의 제어신호를 생성하는 컨텐츠영역출력신호생성단계(S310); 상기 커서영역에 대한 상기 2차원 촉각셀 어레이의 제어신호를 생성하는 커서영역출력신호생성단계(S320);및 상기 페이지영역에 대한 상기 2차원 촉각셀 어레이의 제어신호를 생성하는 페이지영역출력신호생성단계(S330);를 포함한다.The output signal generation step includes: a content area output signal generation step of generating a control signal of the two-dimensional tactile cell array for the content area (S310); Cursor area output signal generation step (S320) of generating a control signal of the two-dimensional tactile cell array for the cursor area; and page area output signal generation of generating a control signal of the two-dimensional tactile cell array for the page area Step (S330); includes.

도 10에서와 같이 상기 컨텐츠영역은 복수의 서브컨텐츠영역으로 구분될 수 있고, 상기 커서영역은 복수의 서브커서영역으로 구분될 수 있고, 상기 컨텐츠영역출력신호생성단계(S310)는 상기 메인화면모듈에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면 중 컨텐츠부분의 데이터를 구분하여, 상기 복수의 서브컨텐츠영역을 구현하는 출력신호를 생성하고, 상기 커서영역출력신호생성단계(S320)는 상기 복수의 서브컨텐츠영역 중 사용자의 커서가 위치하는 서브컨텐츠영역에 대응하는 상기 커서영역의 일부 위치에서의 촉각셀 어레이를 제어하는 출력신호를 생성한다.As shown in FIG. 10, the content area may be divided into a plurality of sub-content areas, the cursor area may be divided into a plurality of sub-cursor areas, and the content area output signal generation step (S310) is the main screen module. By separating the data of the content portion of the screen that can be displayed on the computing device, and generates an output signal to implement the plurality of sub-content area, the cursor area output signal generation step (S320) is the plurality of sub In the content area, an output signal is generated to control the tactile cell array at a part of the cursor area corresponding to the sub-content area where the user's cursor is located.

도 13은 본 발명의 일 실시예에 따른 커서영역출력신호생성단계의 과정을 개략적으로 도시한다.13 schematically shows a process of a cursor region output signal generation step according to an embodiment of the present invention.

상기 커서영역출력신호생성단계(S320)는, 사용자의 커서의 위치를 결정하는 단계(S321); 및 사용자의 커서의 형태를 결정하는 단계(S322 및 S323)을 포함한다.The cursor region output signal generation step (S320) includes: determining a location of a user's cursor (S321); And determining the shape of the user's cursor (S322 and S323).

사용자의 커서는 상기 세부컨텐츠영역의 일부를 포커싱하기 위한 기능을 수행한다. 일반적인 커서의 경우 위치 정보만을 표시하면 되지만, 촉각디스플레이 장치의 경우에는 점자픽셀이 일반 디스플레이 픽셀보다 낮은 화소를 갖고 있기 때문에, 하나의 세부컨텐츠영역에 있는 정보를 한번에 디스플레이하지 못한다는 문제점이 있을 수 있다.The user's cursor performs a function for focusing a part of the detailed content area. In the case of a general cursor, only the location information needs to be displayed, but in the case of a tactile display device, since a braille pixel has a lower pixel than a normal display pixel, there may be a problem in that information in one detail content area cannot be displayed at once. .

본 발명의 일 실시예에서는, 커서의 위치를 결정하는 것에 추가적으로 사용자의 커서의 형태를 결정하는 단계(S322 및 S323)을 수행함으로써, 보다 시각장애인이 직관적으로 소프트웨어를 이용할 수 있게 하였다.In one embodiment of the present invention, in addition to determining the location of the cursor, by performing the steps (S322 and S323) of determining the shape of the user's cursor, the visually impaired user can use the software intuitively.

구체적으로, 사용자의 커서의 형태를 결정하는 단계(S322 및 S323)는 커서가 위치하는, 혹은 커서가 지칭하는 서브컨텐츠영역의 원문과 커서가 위치하는, 혹은 커서가 지칭하는 서브컨텐츠영역의 촉각인터페이스장치의 출력신호 혹은 촉각인터페이스장치에서의 촉각디스플레이 정보를 로드하는 단계(S322) 및 상기 원문과 상기 출력신호 혹은 상기 촉각디스플레이 정보에 기초하여 커서형태를 결정하여 커서레이어출력신호생성단계(S323)를 포함한다.Specifically, the step of determining the shape of the user's cursor (S322 and S323) includes a tactile interface of a text in which the cursor is located, or the original text of the sub-content area indicated by the cursor, or the sub-content area indicated by the cursor. Loading the tactile display information from the output signal of the device or the tactile interface device (S322) and determining the cursor shape based on the original text and the output signal or the tactile display information to generate the cursor layer output signal (S323). Includes.

즉, 상기 커서영역출력신호생성단계에서는, 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 촉각인터페이스장치에서의 촉각디스플레이 정보 및 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 메인화면모듈의 원문 정보에 기초하여 상기 사용자의 커서의 형태를 결정한다.That is, in the cursor area output signal generation step, tactile display information in the tactile interface device of the sub-content area where the user's cursor is located and original information of the main screen module of the sub-content area where the user's cursor is located Based on this, the shape of the user's cursor is determined.

바람직하게는, 상기 사용자의 커서의 형태를 결정하는 단계(S322 및 S323)는, 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 촉각인터페이스장치에서의 촉각디스플레이 정보가 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 메인화면모듈의 원문 정보를 모두 포함하는 경우에는 제1 커서형태로 결정하고,Preferably, in the determining of the shape of the user's cursor (S322 and S323), the tactile display information in the tactile interface device in the sub-content area in which the user's cursor is located is a sub in which the user's cursor is located. If all the original text information of the main screen module in the content area is included, it is determined as the first cursor form,

상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 촉각인터페이스장치에서의 촉각디스플레이 정보가 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 메인화면모듈의 원문 정보의 일부를 포함하는 경우에는 제2 커서형태로 결정한다.A second cursor type when the tactile display information in the tactile interface device of the sub-content area where the user's cursor is located includes part of the original text information of the main screen module of the sub-content area where the user's cursor is located To decide.

더욱 바람직하게는, 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 메인화면모듈(2200)의 원문 정보가 제1 원문정보, 상기 제1 원문정보 다음으로 이어지는 제2 원문정보, 상기 제2 원문정보 다음으로 이어지는 제3 원문정보를 포함하는 경우, 상기 제2 커서형태는, 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 촉각인터페이스장치에서의 촉각디스플레이 정보가 상기 제1 원문정보에 대응하는 경우에 디스플레이되는 제2-1커서형태; 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 촉각인터페이스장치에서의 촉각디스플레이 정보가 상기 제2 원문정보의 일부에 대응하는 경우에 디스플레이되는 제2-2커서형태; 및 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 촉각인터페이스장치에서의 촉각디스플레이 정보가 상기 제3 원문정보에 대응하는 경우에 디스플레이되는 제2-2커서형태;를 포함한다.More preferably, the original text information of the main screen module 2200 of the sub-content area where the user's cursor is located is the first original information, the second original information following the first original information, and the second original information In the case of including the third original text information that follows, the second cursor form may include when the tactile display information in the tactile interface device in the sub-content area where the user's cursor is located corresponds to the first original text information. The displayed 2-1 cursor type; A 2-2 cursor form displayed when tactile display information in the tactile interface device in the sub-content area where the user's cursor is located corresponds to a part of the second original text information; And a 2-2 cursor form displayed when tactile display information in the tactile interface device of the sub-content area where the user's cursor is located corresponds to the third original text information.

본 발명의 바람직한 실시예에서는, 컨텐츠영역에서의 정보는 복수의 컨텐츠서브영역으로 구분되어, 촉각인터페이스장치에서 표시된다.In a preferred embodiment of the present invention, information in the content area is divided into a plurality of content sub-areas, and displayed on a tactile interface device.

예를들어, 컨텐츠영역에서의 정보가 하기와 같다고 가정한다.For example, assume that information in the content area is as follows.

"The base of a refreshable braille display often integrates a pure braille keyboard. There, the input is performed by two sets of four keys on each side, while output is via a refreshable braille display consisting of a row of electro-mechanical character cells, each of which can raise or lower a combination of eight round-tipped pins. Other variants exist that use a conventional QWERTY keyboard for input and braille pins for output, as well as input-only and output-only devices. "The base of a refreshable braille display often integrates a pure braille keyboard.There, the input is performed by two sets of four keys on each side, while output is via a refreshable braille display consisting of a row of electro-mechanical character cells, Other variants exist that use a conventional QWERTY keyboard for input and braille pins for output, as well as input-only and output-only devices. each of which can raise or lower a combination of eight round-tipped pins.

On some models the position of the cursor is represented by vibrating the dots, and some models have a switch associated with each cell to move the cursor to that cell directly.On some models the position of the cursor is represented by vibrating the dots, and some models have a switch associated with each cell to move the cursor to that cell directly.

The mechanism which raises the dots uses the piezo effect of some crystals, whereby they expand when a voltage is applied to them. Such a crystal is connected to a lever, which in turn raises the dot. There has to be a crystal for each dot of the display, i.e. eight per character."The mechanism which raises the dots uses the piezo effect of some crystals, whereby they expand when a voltage is applied to them. Such a crystal is connected to a lever, which in turn raises the dot. There has to be a crystal for each dot of the display, i.e. eight per character. "

이 경우, 상기 TUI모듈은 "The base of a refreshable braille display often integrates a pure braille keyboard. There, the input is performed by two sets of four keys on each side, while output is via a refreshable braille display consisting of a row of electro-mechanical character cells, each of which can raise or lower a combination of eight round-tipped pins. Other variants exist that use a conventional QWERTY keyboard for input and braille pins for output, as well as input-only and output-only devices."를 제1 서브컨텐츠영역으로 할당하여, 이에 대한 출력신호를 생성하고,In this case, the TUI module displays "The base of a refreshable braille display often integrates a pure braille keyboard. There, the input is performed by two sets of four keys on each side, while output is via a refreshable braille display consisting of a row of electro-mechanical character cells, each of which can raise or lower a combination of eight round-tipped pins.Other variants exist that use a conventional QWERTY keyboard for input and braille pins for output, as well as input-only and output-only devices. "as the first sub-content area, to generate an output signal for this,

"On some models the position of the cursor is represented by vibrating the dots, and some models have a switch associated with each cell to move the cursor to that cell directly."를 제2 서브컨텐츠영역으로 할당하여, 이에 대한 출력신호를 생성하고,Output signal for this by assigning "On some models the position of the cursor is represented by vibrating the dots, and some models have a switch associated with each cell to move the cursor to that cell directly." Create

"The mechanism which raises the dots uses the piezo effect of some crystals, whereby they expand when a voltage is applied to them. Such a crystal is connected to a lever, which in turn raises the dot. There has to be a crystal for each dot of the display, i.e. eight per character."를 제3 서브컨텐츠영역으로 할당하여, 이에 대한 출력신호를 생성할 수 있다. "The mechanism which raises the dots uses the piezo effect of some crystals, whereby they expand when a voltage is applied to them. Such a crystal is connected to a lever, which in turn raises the dot.There has to be a crystal for each By assigning dot of the display, ie eight per character. "as the third sub-content area, an output signal for this can be generated.

그러나, 하나의 서브컨텐츠영역은 30개의 CHARACTER를 표시할 수 있다고 하는 경우에, 상기 제2 서브컨텐츠영역의 원문은 하기와 같이 구분될 수 있다.However, when it is said that one sub-content area can display 30 CHARACTER, the original text of the second sub-content area can be classified as follows.

"On some models the position of" (제1 원문정보)"On some models the position of" (first original information)

"the cursor is represented by v" (제2 원문정보의 제1 부분)"the cursor is represented by v" (the first part of the original text information)

"ibrating the dots, and some mo" (제2 원문정보의 제2 부분)"ibrating the dots, and some mo" (second part of the second original text)

"dels have a switch associated " (제2 원문정보의 제3 부분)"dels have a switch associated" (second part of the original text information)

"with each cell to move the cur" (제2 원문정보의 제4 부분)"with each cell to move the cur" (4th part of the 2nd original text)

"sor to that cell directly." (제3 원문정보)"sor to that cell directly." (3rd original information)

여기서, 하나의 서브컨텐츠영역은 상기 제1 원문정보 내지 제3 원문정보 중 어느 하나만을 표시할 수 있다. 이 경우, 시각장애인은 상기 서브컨텐츠영역(제2 서브컨텐츠영역)에 대응되는 서브커서영역에 표시되는 커서의 점자정보를 확인하여, 현재 촉각인터페이스장치에서 출력되는 서브컨텐츠영역의 정보가 전체 정보 중 어디에 위치하는 지 알 수 있다. 이후, 시각장애인은 촉각인터페이스장치의 방향키를 조작함으로써, 제1원문정보 내지 제3원문정보 사이에서 이동을 할 수 있다. 이와 같은 방법으로 촉각디스플레이 장치의 촉각픽셀의 한계점에 따른 불편함을 최소화시키면서, 시각장애인이 보다 직관적으로 정보를 파악할 수 있다.Here, one sub-content area may display only one of the first original text information and the third original text information. In this case, the visually impaired user checks the braille information of the cursor displayed on the sub-cursor area corresponding to the sub-content area (second sub-content area), and the information of the sub-content area currently output from the tactile interface device is among the entire information. You can see where it is located. Thereafter, the visually impaired person can move between the first text information and the third text information by operating the direction keys of the tactile interface device. In this way, the visually impaired user can grasp information more intuitively while minimizing discomfort caused by the limit of the tactile pixel of the tactile display device.

도 14는 본 발명의 일 실시예에 따른 커서영역 표기의 형태의 일예를 개략적으로 도시한다.14 schematically shows an example of a form of a cursor area notation according to an embodiment of the present invention.

도 14에서는 총 4가지의 커서영역, 더욱 바람직하게는 서브커서영역에 표시될 수 있는 커서형태의 예를 도시한다. 이와 같은 커서형태를 파악하고, 방향키를 조작함으로써, 상기 서브컨텐츠레이어의 표시사항을 변경할 수 있다.14 shows an example of a cursor type that can be displayed on a total of four cursor areas, more preferably, a sub-cursor area. By grasping such a cursor shape and operating the arrow keys, the display contents of the sub content layer can be changed.

상기 제1 커서형태, 상기 제2-1커서형태, 상기 제2-2커서형태, 및 상기 제2-3커서형태는 각각 도 14에서의 1번째 커서형태, 2번째 커서형태, 3번째 커서형태, 4번째 커서형태에 해당한다.The first cursor shape, the 2-1 cursor shape, the 2-2 cursor shape, and the 2-3 cursor shape are the first cursor shape, the second cursor shape, and the third cursor shape in FIG. 14, respectively. , Corresponds to the fourth cursor shape.

도 15는 본 발명의 일 실시예에 따른 커서영역 표기의 몇 예들을 개략적으로 도시한다.15 schematically shows some examples of cursor region notation according to an embodiment of the present invention.

도 15의 (A)에 도시된 바와 같이, 전체컨텐츠는 컨텐츠 1 ~ 6으로 구분되어, 각각의 서브컨텐츠영역에 도시되고, 사용자가 첫번째 서브컨텐츠영역에 포커싱을 하는 경우에, 상기 첫번째 서브컨텐츠영역에 나란하게 혹은 정렬되어 위치하는 서브커서영역에 커서에 대한 촉각그래픽이 표현된다.As shown in FIG. 15 (A), the entire content is divided into contents 1 to 6, shown in each sub content area, and when the user focuses on the first sub content area, the first sub content area A tactile graphic for the cursor is displayed in the sub-cursor area located side by side or aligned with.

여기서, 컨텐츠 1이 하나의 서브컨텐츠영역에 모두 표시가 되지 못하는 경우, 가상적으로 컨텐츠 1 이 "컨텐츠 1A 컨텐츠 1B 컨텐츠 1C"로 구분하고, 초기에는 도 15의 (B)에서와 같이 컨텐츠 1A를 촉각그래픽으로 표시하고, 좌측의 커서에 대한 촉각그래픽은 상기 도 14의 두번째 커서형태를 갖는다.Here, when all of the contents 1 cannot be displayed in one sub-content area, the contents 1 are virtually divided into "content 1A contents 1B contents 1C", and initially, the contents 1A are tactile as shown in FIG. 15B. Graphically, the tactile graphic for the cursor on the left has the second cursor shape in FIG. 14 above.

이후 사용자가 우측 방향키를 누르는 경우에, 도 15의 (C)에서와 같이 컨텐츠 1B를 촉각그래픽으로 표시하고, 좌측의 커서에 대한 촉각그래픽은 상기 도 14의 세번째 커서형태를 갖는다.Then, when the user presses the right arrow key, as shown in FIG. 15 (C), the content 1B is displayed as a tactile graphic, and the tactile graphic for the left cursor has the third cursor form of FIG. 14.

이후 사용자가 우측 방향키를 누르는 경우에, 도 15의 (D)에서와 같이 컨텐츠 1C를 촉각그래픽으로 표시하고, 좌측의 커서에 대한 촉각그래픽은 상기 도 14의 네번째 커서형태를 갖는다.Thereafter, when the user presses the right arrow key, as shown in FIG. 15 (D), the content 1C is displayed as a tactile graphic, and the tactile graphic for the left cursor has the fourth cursor form of FIG. 14.

도 16은 본 발명의 일 실시예에 따른 버퍼출력신호생성단계의 과정을 개략적으로 도시한다.16 schematically illustrates a process of a buffer output signal generation step according to an embodiment of the present invention.

이하에서는 설명의 편의를 위하여 메인화면모듈의 변환을 대상으로 버퍼출력신호생성단계의 동작에 대해 설명한다. 다만, 상기 버퍼출력신호생성단계는 상기 메인화면모듈의 변환뿐만 아니라, 다른 어플리케이션의 표시화면의 변환에 적용될 수 있다.Hereinafter, for convenience of description, the operation of the buffer output signal generation step for conversion of the main screen module will be described. However, the buffer output signal generation step may be applied to conversion of the display screen of another application as well as conversion of the main screen module.

전술한 바와 같이, 상기 제1 TUI단계(S30)는 상기 메인화면모듈(2200) 혹은 다른 어플리케이션에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면에 상응하는 상기 촉각인터페이스장치의 촉각화면을 구현하기 위한 출력신호를 생성하는 출력신호생성단계(S150); 및 상기 출력신호 및 상기 촉각인터페이스장치의 이전의 촉각디스플레이 정보에 기초하여 버퍼출력신호를 생성하는 버퍼출력신호생성단계(S160);를 포함한다.As described above, the first TUI step (S30) is an output for implementing a tactile screen of the tactile interface device corresponding to a screen that can be displayed on the computing device by the main screen module 2200 or another application. An output signal generation step of generating a signal (S150); And a buffer output signal generation step (S160) of generating a buffer output signal based on the output signal and previous tactile display information of the tactile interface device.

여기서, 상기 출력신호 및 상기 버퍼출력신호는 2차원 촉각셀 어레이에 대한 제어신호를 포함한다.Here, the output signal and the buffer output signal include a control signal for a two-dimensional tactile cell array.

바람직하게는, 상기 제1 TUI단계(S30)는, 상기 메인화면모듈에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면이 변경할 때마다 수행이 되고, 상기 버퍼출력신호생성단계는, 바로 이전의 상기 출력신호와 현재의 변경된 출력신호의 차이에 기초하여, 상기 버퍼출력신호를 생성한다.Preferably, the first TUI step (S30) is performed whenever the screen that can be displayed on the computing device is changed by the main screen module, and the buffer output signal generation step is performed immediately before the output. The buffer output signal is generated based on the difference between the signal and the current changed output signal.

구체적으로, 상기 버퍼출력신호생성단계(S160)는, 이전, 즉 현재 사용자의 입력으로 화면이 바뀌기 전에 상기 출력신호생성부에 의하여 생성된 이전 출력신호를 로드하는 단계(S410); Specifically, the buffer output signal generation step (S160) comprises: loading a previous output signal generated by the output signal generation unit before the screen changes to the previous user's input (S410);

현재 사용자의 입력으로 화면이 바뀐 후에 상기 출력신호생성부에 의하여 생성된 현재 출력신호와 상기 이전 출력신호와의 차이를 계산하는 단계(S420);Calculating a difference between the current output signal generated by the output signal generation unit and the previous output signal after the screen is changed by the current user input (S420);

상기 현재 출력신호와 상기 이전 출력신호와의 차이에 기초하여 버퍼출력신호를 생성하는 단계(S430)을 포함한다.And generating a buffer output signal based on the difference between the current output signal and the previous output signal (S430).

이와 같은 버퍼출력신호는 촉각인터페이스장치에서의 촉각 어레이 중 현재 바뀐 부분에 대한 제어신호만을 포함하기 때문에, 촉각인터페이스장치가 보다 물리적으로 부드럽게 동작할 수 있게 한다.Since the buffer output signal includes only the control signal for the currently changed portion of the tactile array in the tactile interface device, the tactile interface device can operate more physically and smoothly.

도 17은 본 발명의 일 실시예에 따른 TTS단계의 일 예를 개략적으로 도시한다.17 schematically shows an example of a TTS step according to an embodiment of the present invention.

전술한 바와 같이, 상기 촉각인터페이스장치(1000)를 제어하는 방법은, 사용자의 명령에 따라 TTS명령을 수행하는, TTS단계를 더 포함한다.As described above, the method for controlling the tactile interface device 1000 further includes a TTS step of performing a TTS command according to a user's command.

이와 같은 상기 TTS단계는, 상기 촉각인터페이스장치로부터의 입력신호 혹은 명령에 기초하여 TTS를 수행하는 지 여부를 결정하는 단계(S510); 현재 설정된 TTS모드에 대한 정보를 로드하는 단계(S520); 현재 사용자의 커서의 위치를 로드하는 커서위치로드단계(S530); 및 상기 TTS모드 및 상기 사용자의 커서의 위치에 기초하여, TTS대상이 되는 원문 정보를 결정하는 단계(S540); 및 상기 S540단계에서 결정된 원문정보를 TTS수행모듈에 실행을 요청하는 단계(S550)을 포함한다.The TTS step includes: determining whether to perform TTS based on an input signal or command from the tactile interface device (S510); Loading information about the currently set TTS mode (S520); A cursor position loading step of loading the current user's cursor position (S530); And determining original text information as a TTS object based on the TTS mode and the location of the user's cursor (S540). And requesting execution of the original text information determined in step S540 to the TTS execution module (S550).

바람직하게는, 상기 TTS단계는 서브컨텐츠영역 별로 수행될 수 있다. 즉, 현재 커서가 위치하는 서브컨텐츠영역의 원문이 상기 TTS단계에 의하여 음성으로 출력될 수 있다.Preferably, the TTS step may be performed for each sub-content area. That is, the original text of the sub-content area in which the current cursor is located may be output in voice by the TTS step.

더욱 바람직하게는, 상기 TTS모드는 상기 포커싱된 서브컨텐츠영역에 대해 TTS를 수행하는 모드; 및 상기 포커싱된 서브컨텐츠영역 및 상기 포커싱된 서브컨텐츠영역에 이어지는 서브컨텐트영역을 포함하여 TTS를 수행하는 모드를 포함할 수 있다.More preferably, the TTS mode includes a mode for performing TTS on the focused sub-content area; And a mode for performing TTS including the focused sub-content area and a sub-content area following the focused sub-content area.

즉, "On some models the position of the cursor is represented by vibrating the dots, and some models have a switch associated with each cell to move the cursor to that cell directly."가 제1 서브컨텐츠영역에 해당하고, "The mechanism which raises the dots uses the piezo effect of some crystals, whereby they expand when a voltage is applied to them. Such a crystal is connected to a lever, which in turn raises the dot. There has to be a crystal for each dot of the display, i.e. eight per character."가 제2 서브컨텐츠영역에 해당하고, 커서가 포커싱된 영역이 제1 서브컨텐츠영역인 경우에, TTS모드는 제1 서브컨텐츠영역만 처리하는 제1 모드 및 제1 서브컨텐츠영역 및 제2 서브컨텐츠영역을 처리하되, 사용자의 OFF와 관련된 명령이 입력되면, 중지하는 제2 모드를 포함할 수 있다.That is, "On some models the position of the cursor is represented by vibrating the dots, and some models have a switch associated with each cell to move the cursor to that cell directly." Corresponds to the first subcontent area, and "The mechanism which raises the dots uses the piezo effect of some crystals, whereby they expand when a voltage is applied to them.Such a crystal is connected to a lever, which in turn raises the dot.There has to be a crystal for each dot of When the display, ie eight per character. "corresponds to the second sub-content area, and the area where the cursor is focused is the first sub-content area, the TTS mode is a first mode and a first mode that processes only the first sub-content area. It may include a second mode of processing a sub-content area and a second sub-content area, but stopping when a command related to a user's OFF is input.

도 18은 본 발명의 일 실시예에 따른 이벤트단계의 일 예를 개략적으로 도시한다.18 schematically shows an example of an event step according to an embodiment of the present invention.

도 18에 도시된 바와 같이, 이벤트단계는, 사용자단말기와 촉각인터페이스장치와의 접속상태를 판단하는 단계(S610); 및 상기 접속상태가 기설정된 기준에 해당한다고 판단하는 경우에 상기 촉각인터페이스장치로 출력할 이벤트출력신호를 생성하는 단계(S620);를 포함한다.As shown in FIG. 18, the event step includes: determining a connection state between the user terminal and the tactile interface device (S610); And generating an event output signal to be output to the tactile interface device when it is determined that the connection state corresponds to a preset criterion (S620).

이와 같은 이벤트단계의 수행에 의하여, 시각장애인은 촉각인터페이스장치와 컴퓨팅장치의 접속에 장애가 생기는 경우에, 직관적으로 장애 여부를 파악할 수 있다.By performing such an event step, the visually impaired user can intuitively determine whether or not the impairment occurs when a connection between the tactile interface device and the computing device occurs.

도 19는 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 화면을 도시하고, 도 20은 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 화면을 도시하고, 도 21은 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 화면을 도시한다. 19 shows a screen for controlling a tactile interface device according to an embodiment of the present invention, FIG. 20 shows a screen for controlling a tactile interface device according to an embodiment of the present invention, and FIG. A screen for controlling a tactile interface device according to an embodiment is illustrated.

도 19 내지 도 21에 도시된 바와 같이, 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 방법은 어떤 프로그램이라도 보다 시각장애인 사용자에게 직관적으로 프로그램과 인터페이스를 할 수 있도록 하고, 또한, 프로그램 개발자의 입장에서는 점자 등을 모르고, 이에 대한 별도의 입출력 API를 개발하지 않더라도, 일반적인 소프트웨어의 개발을 통하여 시각장애인용 소프트웨어를 공급할 수 있다.19 to 21, a method of controlling a tactile interface device according to an embodiment of the present invention allows any program to intuitively interface with a program for a visually impaired user, and also a program developer For those who do not know braille, etc., and do not develop a separate input / output API, they can supply software for the visually impaired through general software development.

2. 촉각인터페이스장치를 통하여 이미지 2. Image through tactile interface device 뷰어viewer 기능을 제공하는 방법 How to provide features

도 22는 본 발명의 일 실시예에 따른 이미지뷰어모듈과 촉각인터페이스장치의 구성을 개략적으로 도시한다.22 schematically shows the configuration of an image viewer module and a tactile interface device according to an embodiment of the present invention.

도 22에 도시된 컴퓨팅장치(A)의 구성은 전술한 도 2, 3을 참조한 설명에 따른다. 한편, 도 22의 점자OS부(2000)의 구성은 도 4 내지 18을 참조한 설명에 따른다.The configuration of the computing device A shown in FIG. 22 follows the description with reference to FIGS. 2 and 3 above. Meanwhile, the configuration of the braille OS unit 2000 of FIG. 22 follows the description with reference to FIGS. 4 to 18.

한편, 도 22의 이미지뷰어모듈(5000)은 도 3의 응용프로그램부(3200)의 한 형태에 해당할 수 있고, 혹은 도 4의 내장어플리케이션모듈(2500)에 해당할 수 있다.Meanwhile, the image viewer module 5000 of FIG. 22 may correspond to one form of the application program unit 3200 of FIG. 3, or may correspond to the built-in application module 2500 of FIG. 4.

마찬가지로, 상기 이미지뷰어모듈(5000)에서 출력되는 정보는 상기 컴퓨팅장치(A)에 연결된 디스플레이장치에서 일반인이 인식할 수 있는 시각적 형태로 표시될 수 있고, 마찬가지로 상기 점자OS부(2000)에 내장되는 공통 TUI모듈 혹은 상기 이미지뷰어모듈(5000)에 내장되는 이미지뷰어모듈만을 위한 특수한 TUI모듈에 의하여 촉각인터페이스장치(1000)에서 시각장애인이 인터페이스 할 수 있는 형태로 입출력신호가 변환될 수도 있다.Similarly, the information output from the image viewer module 5000 may be displayed in a visual form that can be recognized by the general public on a display device connected to the computing device A, and similarly embedded in the braille OS unit 2000 The input / output signal may be converted into a form in which a visually impaired user can interface in the tactile interface device 1000 by a special TUI module for a common TUI module or an image viewer module embedded in the image viewer module 5000.

바람직하게는, 본 발명의 일 실시예에서는 상기 점자OS부(2000)는 공통된 TUI모듈(2400)을 포함하고 있고, 상기 이미지뷰어모듈(5000)에는 상기 이미지뷰어모듈의 특수성을 고려하여 시각장애인이 인터페이스를 더욱 원활하게 할 수 있는 별도의 TUI모듈(미도시)을 포함함이 바람직하다.Preferably, in one embodiment of the present invention, the braille OS unit 2000 includes a common TUI module 2400, and the image viewer module 5000 includes a visually impaired person considering the specificity of the image viewer module. It is preferable to include a separate TUI module (not shown) that can make the interface more smoothly.

마찬가지로, 상기 이미지뷰어모듈(5000)의 실행은 상기 점자OS부(2000)의 제어를 받게 되고, 상기 이미지뷰어모듈(5000)이 제어되는 동안에 상기 TTS모듈(2600), 상기 이벤트모듈(2700) 등이 동시에 실행될 수도 있다.Similarly, the execution of the image viewer module 5000 is controlled by the braille OS unit 2000, while the image viewer module 5000 is controlled, the TTS module 2600, the event module 2700, etc. This can also be done concurrently.

한편, 상기 컴퓨팅장치(A)에서는 이미지뷰어모듈(5000)이 실행되어, 메인화면단계, 이미지선택단계 및 이미지출력단계 중 어느 하나가 수행될 수 있다. 이에 따라 상기 컴퓨팅장치(A)에서의 입력, 혹은 상기 촉각인터페이스장치(1000)에서의 입력에 따라 메인화면단계, 이미지선택단계 및 이미지출력단계 중 어느 하나의 세부 과정들이 수행될 수 있다.Meanwhile, in the computing device A, the image viewer module 5000 is executed, and any one of a main screen step, an image selection step, and an image output step may be performed. Accordingly, detailed processes of any one of the main screen step, the image selection step, and the image output step may be performed according to the input from the computing device A or the input from the tactile interface device 1000.

상기 이미지뷰어모듈(5000)이 실행되는 경우, 해당 단계에 따른 화면이 상기 컴퓨팅장치(A)에 표시되고, 상기 컴퓨팅장치(A)에 표시된 화면이 상기 촉각인터페이스장치(1000)로의 출력신호로 변환되어, 상기 컴퓨팅장치(A)에 표시된 화면에 상응하는 촉각디스플레이가 상기 촉각인터페이스장치(1000)에 표시될 수 있다.When the image viewer module 5000 is executed, a screen according to the corresponding step is displayed on the computing device A, and the screen displayed on the computing device A is converted into an output signal to the tactile interface device 1000. Thus, a tactile display corresponding to a screen displayed on the computing device A may be displayed on the tactile interface device 1000.

상기 이미지뷰어모듈(5000)은 그 내부에 위치하거나 또는 외부에 별도의 장치로 마련되는 이미지데이터베이스(7000)와 연결될 수 있다. 상기 이미지데이터베이스(7000)에는 상기 컴퓨팅장치(A) 또는 상기 촉각인터페이스장치(1000)를 통해 출력될 수 있는 1 이상의 이미지 파일이 저장되어 있을 수 있다. 본 발명의 일 실시예에서 상기 이미지뷰어모듈(5000)은 사용자의 선택에 따라 상기 이미지데이터베이스(7000)로부터 저장된 이미지 파일을 불러와 상기 컴퓨팅장치(A) 또는 상기 촉각인터페이스장치(1000)를 통해 출력할 수 있다.The image viewer module 5000 may be located inside or connected to the image database 7000 provided as a separate device. One or more image files that can be output through the computing device A or the tactile interface device 1000 may be stored in the image database 7000. In one embodiment of the present invention, the image viewer module 5000 loads an image file stored from the image database 7000 according to a user's selection and outputs it through the computing device A or the tactile interface device 1000. can do.

도 22에는 하나의 이미지데이터베이스(7000)만이 도시되어 있으나, 본 발명의 일 실시예에서 상기 이미지뷰어모듈(5000)은 2 이상의 이미지데이터베이스(7000)와 연결되어 있을 수 있고, 이 때, 상기 이미지뷰어모듈(5000)은 상기 2 이상의 이미지데이터베이스(7000)의 목록을 저장하고 있을 수 있다.Although only one image database 7000 is shown in FIG. 22, in one embodiment of the present invention, the image viewer module 5000 may be connected to two or more image databases 7000, and at this time, the image viewer The module 5000 may store a list of two or more image databases 7000.

도 23은 본 발명의 일 실시예에 따른 이미지뷰어모듈의 내부 구성을 개략적으로 도시한다.23 schematically shows the internal configuration of an image viewer module according to an embodiment of the present invention.

전술한 바와 같이 상기 이미지뷰어모듈(5000)은 프로세서를 포함하는 컴퓨팅장치(A)로 구현되고, 상기 컴퓨팅장치(A)에 접속되어 사용자와 상호작용을 할 수 있는 촉각인터페이스장치(1000)를 통하여 이미지 뷰어 기능을 제공한다.As described above, the image viewer module 5000 is implemented as a computing device A including a processor, and is connected to the computing device A through a tactile interface device 1000 capable of interacting with a user. It provides an image viewer function.

한편, 상기 이미지뷰어모듈(5000)은 상기 이미지뷰어모듈의 내부 기능 모듈에서 입출력 되는 신호를 상기 촉각인터페이스장치(1000)에서 보다 직관적으로 인식하거나 혹은 입력할 수 있는 형태로 변환하는 TUI모듈(5100)(여기서 TUI모듈은 도 4의 점자OS부(2000)의 TUI모듈(2400)과 별도로 상기 이미지뷰어모듈에 포함된 모듈임이 바람직하다); 사용자의 입력에 의해 출력 될 이미지를 선택하는 이미지선택부(5200); 및 선택 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지출력부(5300); 를 포함한다.On the other hand, the image viewer module 5000 is a TUI module 5100 that converts signals input / output from the internal function module of the image viewer module into a form that can be more intuitively recognized or input by the tactile interface device 1000. (The TUI module is preferably a module included in the image viewer module separately from the TUI module 2400 of the braille OS unit 2000 of FIG. 4); An image selection unit 5200 for selecting an image to be output by the user's input; And an image output unit 5300 outputting the selected image through the computing device and the tactile interface device. It includes.

상기 TUI모듈(5100)은 상기 이미지선택부(5200), 이미지출력부(5300)에서 그래픽으로 디스플레이 될 수 있는 정보를 상기 촉각인터페이스장치(1000)에서 촉각그래픽으로 디스플레이 될 수 있는 형태로 변환한다.The TUI module 5100 converts information that can be graphically displayed by the image selection unit 5200 and the image output unit 5300 into a form that can be displayed by a tactile interface in the tactile interface device 1000.

한편, 이와 같은 상기 TUI모듈(5100)은 제1 방법으로 표시화면을 촉각인터페이스장치로의 출력신호로 변환할 수 있는 제1출력신호생성부(5111); 및 제2 방법으로 표시화면을 촉각인터페이스장치로의 출력신호로 변환할 수 있는 제2출력신호생성부(5112)를 포함한다. 이는 상기 도 4 및 도 5의 점자OS부(2000)에서 제공하는 일반 TUI모듈(2400)과 상이한 점으로서, 모든 정보에 대해 동일한 형태로 변환하는 것이 아니라 이미지라는 특수성에 기인하여 정보의 카테고리에 따라 상이한 방법으로 촉각셀을 제어함으로써 시각장애인에게 보다 직관적으로 이미지 뷰어 기능을 제공할 수 있다.Meanwhile, the TUI module 5100 may include a first output signal generator 5111 capable of converting a display screen into an output signal to a tactile interface device in a first method; And a second output signal generator 5112 capable of converting the display screen into an output signal to the tactile interface device in a second method. This is different from the general TUI module 2400 provided by the braille OS unit 2000 of FIGS. 4 and 5, and it is not converted into the same format for all information, but according to the category of information due to the specificity of the image. By controlling the tactile cell in different ways, it is possible to provide the image viewer function more intuitively to the visually impaired.

우선, 상기 이미지뷰어모듈(5000)이 구동되면 우선적으로는 한편, 상기 컴퓨팅장치(A) 내에서 상기 이미지선택부(5200)가 실행된다. 이와 같은 이미지선택부(5200)는 이미지데이터베이스(7000)에 저장되어 있는 이미지를 사용자가 선택하도록 하여 선택된 이미지를 상기 촉각인터페이스장치(1000)를 통하여 시각장애인에게 직접적으로 제공하도록 하는 구성요소에 해당한다. 이미지선택부(5200)를 통해 사용자가 이미지를 선택하게 되면, 선택된 이미지를 상기 컴퓨팅장치(A) 및 상기 촉각인터페이스장치(1000)를 출력하도록 하는 이미지출력부(5300)가 실행된다.First, when the image viewer module 5000 is driven, first of all, the image selector 5200 is executed in the computing device A. The image selection unit 5200 corresponds to a component that allows a user to select an image stored in the image database 7000 to directly provide the selected image to the visually impaired through the tactile interface device 1000. . When the user selects an image through the image selection unit 5200, an image output unit 5300 is executed to output the selected image to the computing device A and the tactile interface device 1000.

상기 이미지출력부(5300)가 상기 컴퓨팅장치(A) 내에서 실행되면, 상기 컴퓨팅장치(A)에 연결된 시각적 디스플레이장치로 선택된 이미지를 출력하고, 상기 컴퓨팅장치(A) 내에서 상기 TUI모듈(5100)이 실행되어, 상기 이미지출력부(5300)에 의하여 상기 디스플레이장치에서 디스플레이 되는 화면에 상응하는 상기 촉각인터페이스장치(1000)의 촉각화면을 구현하기 위한 출력신호를 생성하여 이미지를 출력하게 된다.When the image output unit 5300 is executed in the computing device A, it outputs the selected image to the visual display device connected to the computing device A, and the TUI module 5100 in the computing device A. ) Is executed, and outputs an image by generating an output signal for realizing a tactile screen of the tactile interface device 1000 corresponding to a screen displayed on the display device by the image output unit 5300.

도 24는 본 발명의 일 실시예에 따른 이미지선택부의 동작의 세부 단계를 개략적으로 도시한다.24 schematically shows detailed steps of the operation of the image selection unit according to an embodiment of the present invention.

도 24를 참조하면 본 발명의 일 실시예에 따른 상기 이미지선택부(5200)는 이미지데이터베이스목록표시단계(S710); 이미지데이터베이스선택단계(S720); 이미지카테고리표시단계(S730); 이미지카테고리선택단계(S740); 이미지검색단계 (S750); 이미지목록표시단계(S760); 및 표시이미지선택단계(S770); 를 포함하는 이미지선택단계를 수행하여 이미지를 선택할 수 있다.Referring to Figure 24, the image selector 5200 according to an embodiment of the present invention includes an image database list display step (S710); Image database selection step (S720); Image category display step (S730); Image category selection step (S740); Image search step (S750); Image list display step (S760); And a display image selection step (S770); An image may be selected by performing an image selection step including.

본 발명의 일 실시예에서 상기 이미지선택부(5200)가 실행되면 이미지가 저장되어 있는 1 이상의 이미지데이터베이스(7000)의 목록을 표시하는 이미지데이터베이스목록표시단계(S710)가 수행된다. 이 때, 상기 TUI모듈(5100)은 상기 이미지선택부(5200)의 입출력신호를 상기 촉각인터페이스장치(1000)에서 입출력 되는 형태로 변환하는 역할을 수행할 수 있다. 이와 같은 상기 TUI모듈(5100)의 역할은 이하의 모든 단계에서 동일하게 수행되어 상기 촉각인터페이스장치(1000)에서의 입출력을 제어할 수 있다.In one embodiment of the present invention, when the image selector 5200 is executed, an image database list display step S710 of displaying a list of one or more image databases 7000 in which images are stored is performed. At this time, the TUI module 5100 may serve to convert the input / output signal of the image selection unit 5200 into the input / output form of the tactile interface device 1000. The role of the TUI module 5100 is performed in the same manner in all the following steps to control input / output in the tactile interface device 1000.

본 발명의 일 실시예에서 상기 이미지데이터베이스(7000)의 목록은 상기 이미지선택부(5200)에 저장되어 있을 수 있고, 상기 이미지데이터베이스의 목록은 상기 이미지뷰어모듈(5000)이 상기 컴퓨팅장치(A) 내부 혹은 외부의 접근 가능한 모든 이미지데이터베이스(7000)에 대한 정보를 포함하고 있다. 본 발명의 일 실시예에서 상기 이미지선택부(5200)는 기설정된 시간 간격에 따라 상기 이미지데이터베이스의 목록을 갱신하여 접근 가능한 이미지데이터베이스에 대한 정보를 지속적으로 추가 혹은 삭제할 수 있다. 혹은, 상기 이미지선택부(5200)는 상기 이미지데이터베이스목록표시단계(S710)가 수행될 때 마다 상기 이미지데이터베이스의 목록을 갱신할 수 있다. In one embodiment of the present invention, the list of the image database 7000 may be stored in the image selection unit 5200, and the list of the image database may include the image viewer module 5000 and the computing device (A). It contains information about all internal and external accessible image databases (7000). In one embodiment of the present invention, the image selection unit 5200 may continuously add or delete information about an accessible image database by updating the list of the image database according to a predetermined time interval. Alternatively, the image selection unit 5200 may update the list of the image database whenever the image database list display step S710 is performed.

이 후, 사용자의 입력에 의해 이미지를 불러 올 이미지데이터베이스를 선택하는 이미지데이터베이스선택단계(S720)가 수행된다. 상기 이미지데이터베이스선택단계(S720)에서는 상기 이미지데이터베이스목록표시단계 (S710)에서 표시 된 상기 이미지데이터베이스(7000)의 목록에서 원하는 이미지데이터베이스를 사용자가 상기 촉각인터페이스장치(1000)를 통해 선택할 수 있다. 사용자는 상기 촉각인터페이스장치(1000)의 방향키 등을 이용하여 상기 이미지데이터베이스의 목록에 위치한 커서를 이동시키고, 엔터키 등을 이용하여 커서가 위치한 이미지데이터베이스를 선택할 수 있다. 이와 같은 입력 및 선택 과정은 상기 TUI모듈(5100)에 의해 수행될 수 있다.Thereafter, an image database selection step (S720) of selecting an image database from which an image is to be loaded is performed by a user input. In the image database selection step (S720), a user can select a desired image database from the list of the image database 7000 displayed in the image database list display step (S710) through the tactile interface device 1000. The user may move the cursor located in the list of the image database using the directional keys of the tactile interface device 1000, and select the image database where the cursor is located using the enter key or the like. Such an input and selection process may be performed by the TUI module 5100.

이 후, 상기 이미지데이터베이스에 저장된 이미지의 카테고리를 표시하는 이미지카테고리표시단계(S730)가 수행된다. 본 발명의 일 실시예에서 상기 이미지데이터베이스에는 저장된 이미지가 카테고리로 분류되어 있을 수 있다. 상기 카테고리는 상기 이미지의 주제에 따라 분류될 수도 있고, 혹은 상기 이미지의 파일 형식에 따라 분류될 수도 있다. 예를 들어 상기 카테고리는 과학, 국어, 수학, 영어, 점자, 기타 등일 수 있다. 이와 같은 카테고리에 의해 저장된 이미지가 분류됨으로써 사용자가 용이하게 표시를 원하는 이미지에 접근할 수 있는 효과를 발휘할 수 있다.Thereafter, an image category display step S730 of displaying a category of the image stored in the image database is performed. In one embodiment of the present invention, stored images may be classified into categories in the image database. The category may be classified according to the subject of the image, or may be classified according to the file format of the image. For example, the category may be science, Korean language, mathematics, English, Braille, etc. By storing the images stored by the above categories, it is possible to exert the effect that the user can easily access the images desired to be displayed.

이 후, 사용자의 입력에 의해 카테고리를 선택하는 이미지카테고리선택단계(S740) 혹은 사용자의 입력에 의해 이미지를 검색하는 이미지검색단계(S750)가 선택적으로 수행될 수 있다.Thereafter, an image category selection step (S740) of selecting a category by the user's input or an image search step (S750) of searching for an image by the user's input may be selectively performed.

상기 이미지카테고리선택단계(S740)에서는 상기 이미지카테고리표시단계 (S730)에서 표시 된 이미지의 카테고리 중 사용자가 원하는 카테고리를 선택하게 된다. 이는 상기 이미지데이터베이스선택단계(S720)와 유사하게, 표시 된 상기 이미지의 카테고리에서 원하는 카테고리를 사용자가 상기 촉각인터페이스장치(1000)를 통해 선택할 수 있다.In the image category selection step (S740), a user's desired category is selected from categories of images displayed in the image category display step (S730). This is similar to the image database selection step (S720), the user can select a desired category from the displayed category of the image through the tactile interface device 1000.

본 발명의 일 실시예에서는 이와 같이 카테고리를 선택하게 되면 상기 카테고리 내에 있는 이미지의 목록을 표시하는 이미지목록표시단계(S760)가 수행될 수 있다. 반면, 본 발명의 다른 실시예에서는 상기 카테고리 내에 서브카테고리가 포함될 수 있고, 서브카테고리 내에 이미지가 포함되도록 분류되어 있을 수 있다. 이와 같은 실시예의 경우에는 상기 이미지카테고리선택단계S740)를 통해 카테고리를 선택하는 경우 선택된 카테고리 내의 서브카테고리 목록을 표시하도록 상기 이미지카테고리표시단계(S730)가 다시 수행될 수 있다.In one embodiment of the present invention, when a category is selected as described above, an image list display step S760 of displaying a list of images in the category may be performed. On the other hand, in another embodiment of the present invention, a sub-category may be included in the category, and may be classified to include an image in the sub-category. In the case of such an embodiment, when selecting a category through the image category selection step S740, the image category display step S730 may be performed again to display a list of sub-categories in the selected category.

상기 이미지검색단계(S750)에서는 사용자가 검색어 등을 통해 상기 이미지데이터베이스(7000)에 저장된 이미지를 검색할 수 있다. 본 발명의 일 실시예에서 사용자는 검색어를 직접 입력하거나, 혹은 저장되어 있는 검색어 목록 중 검색어를 선택하여 검색을 수행할 수 있다.In the image search step (S750), a user may search for an image stored in the image database 7000 through a search word or the like. In one embodiment of the present invention, the user may directly enter a search term or select a search term from a list of stored search terms to perform a search.

본 발명의 일 실시예에서 상기 이미지검색단계(S750)는 상기 이미지카테고리표시단계(S740)가 수행 된 이후에 수행될 수도 있고, 혹은 상기 이미지목록표시단계(S760)가 수행 된 이후에 수행될 수도 있다. 본 발명의 일 실시예에서 상기 이미지카테고리표시단계(S740)가 수행 된 이후에 상기 이미지검색단계(S750)가 수행되는 경우, 상기 이미지검색단계(S750)의 검색어에 해당하는 모든 이미지를 검색하고, 상기 이미지카테고리선택단계(S740)에 의해 카테고리가 선택 되고, 상기 이미지목록표시단계(S760)가 수행 된 이후에 상기 이미지검색단계(S750)가 수행되는 경우, 선택 된 상기 카테고리에 해당되는 이미지 중 상기 이미지검색단계(S750)의 검색어에 해당하는 이미지만을 검색할 수 있다.In one embodiment of the present invention, the image search step (S750) may be performed after the image category display step (S740) is performed, or may be performed after the image list display step (S760) is performed. have. When the image search step (S750) is performed after the image category display step (S740) is performed in one embodiment of the present invention, all images corresponding to the search term of the image search step (S750) are searched for, If a category is selected by the image category selection step (S740), and the image search step (S750) is performed after the image list display step (S760) is performed, the image corresponding to the selected category is the Only the image corresponding to the search word in the image search step S750 may be searched.

이 후, 선택된 이미지데이터베이스, 선택된 카테고리 및 이미지 검색결과 중 1 이상에 기초하여 출력 가능한 이미지의 목록을 표시하는 이미지목록표시단계(S760)가 수행된다. 본 발명의 일 실시예에서 사용자가 상기 이미지카테고리선택단계(S740)를 통해 카테고리를 선택하여 상기 이미지목록표시단계(S760)가 수행되는 경우에는 선택된 이미지데이터베이스 중 선택된 상기 카테고리에 기초하여 상기 카테고리에 해당하는 이미지의 목록을 표시하고, 상기 이미지검색단계(S750)를 통해 검색을 수행하여 상기 이미지목록표시단계(S760)가 수행되는 경우에는 선택된 이미지데이터베이스 중 검색결과에 해당하는 이미지의 목록을 표시하고, 상기 이미지카테고리선택단계 (S740)를 통해 카테고리를 선택한 후 상기 이미지검색단계(S750)를 통해 검색을 수행하여 상기 이미지목록표시단계(S760)가 수행되는 경우에는 선택된 이미지데이터베이스의 선택된 카테고리 중 검색결과에 해당하는 이미지의 목록을 표시할 수 있다.Thereafter, an image list display step (S760) of displaying a list of outputable images based on at least one of the selected image database, the selected category, and the image search result is performed. In an embodiment of the present invention, when the user selects a category through the image category selection step (S740) and the image list display step (S760) is performed, it corresponds to the category based on the selected category from the selected image database. Display a list of images to be performed, and perform a search through the image search step (S750), and when the image list display step (S760) is performed, a list of images corresponding to the search results among the selected image databases is displayed. When a category is selected through the image category selection step (S740) and a search is performed through the image search step (S750), when the image list display step (S760) is performed, a search result among selected categories of the selected image database is performed. A list of corresponding images can be displayed.

본 발명의 일 실시예에서는 상기 이미지목록표시단계(S760) 이후 상기 이미지검색단계(S750)가 사용자의 선택에 의해 다시 수행될 수 있다.In one embodiment of the present invention, after the image list display step (S760), the image search step (S750) may be performed again by the user's selection.

이 후, 사용자의 입력에 의해 출력할 이미지를 선택하는 표시이미지선택단계(S770)가 수행된다. 상기 표시이미지선택단계(S770)에서는 상기 이미지목록표시단계(S760)에서 표시 된 이미지 목록 중 사용자가 원하는 이미지를 선택하게 된다. 이는 상기 이미지데이터베이스선택단계(S720) 및 상기 이미지카테고리선택단계(S740)와 유사하게 표시 된 상기 이미지 목록에서 원하는 이미지를 사용자가 상기 촉각인터페이스장치(1000)를 통해 선택할 수 있다.Thereafter, a display image selection step (S770) of selecting an image to be output by a user input is performed. In the display image selection step (S770), a user's desired image is selected from the image list displayed in the image list display step (S760). This allows the user to select a desired image from the image list displayed similarly to the image database selection step (S720) and the image category selection step (S740) through the tactile interface device 1000.

이와 같이 선택 된 이미지는 상기 이미지출력부(5300)에 의해 상기 컴퓨팅장치(A)와 연결된 디스플레이장치 및 상기 촉각인터페이스장치(1000)를 통해 출력될 수 있다.The image selected as described above may be output through the display device connected to the computing device A and the tactile interface device 1000 by the image output unit 5300.

도 25는 본 발명의 일 실시예에 따른 이미지데이터베이스목록표시단계 및 상기 이미지데이터베이스목록표시단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.25 illustrates a screen of an image database list display step and a tactile interface device in which TUI conversion is performed on the image database list display step according to an embodiment of the present invention.

도 25의 (A)는 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 화면이고, 도 25의 (B)는 도 25의 (A)에 상응하는 상기 촉각인터페이스장치(1000)의 화면이다. 도 25의 (A)를 참조하면 상기 이미지선택부(5200)에 의해 상기 이미지데이터베이스목록표시단계(S710)가 수행되어 상기 이미지뷰어모듈(5000)에 연결된 이미지데이터베이스(7000)의 목록이 표시되는 것을 확인할 수 있다. 도 25의 실시예에서는 목록에 두 개의 이미지데이터베이스(Device 저장소 및 ImageBank 저장소)가 표시되어 있다.25A is a screen output through a display device connected to the computing device A, and FIG. 25B is a screen of the tactile interface device 1000 corresponding to FIG. 25A. . Referring to (A) of FIG. 25, the image database list display step (S710) is performed by the image selection unit 5200 to display a list of image databases 7000 connected to the image viewer module 5000. Can be confirmed. In the embodiment of FIG. 25, two image databases (Device storage and ImageBank storage) are displayed in the list.

도 25의 (B)는 이와 같은 이미지데이터베이스의 목록이 점자로 번역되어 상기 촉각인터페이스장치의 촉각디스플레이에 표시된 모습을 도시한다. 이 때, 상기 메인화면단계 및 이미지선택단계에 의하여 표시되는 상기 촉각디스플레이는, 도 6 및 도 10에 도시된 것과 같이 복수의 커서의 위치 중 현재 커서의 위치에 대한 정보를 촉각적으로 디스플레이 하는 커서영역(L12); 각각의 커서의 위치에 대해 상응하는 정보를 촉각적으로 디스플레이 하는 컨텐츠영역(L11); 및 현재 페이지에 대한 정보를 촉각적으로 디스플레이 하는 페이지영역(L13); 을 포함할 수 있다. 이와 같이 상기 촉각디스플레이의 영역을 구분하여 정보를 표시함으로써 시각장애인이 용이하게 컨텐츠의 내용, 현재 커서의 위치, 페이지의 정보 등을 인식하여 정보를 명확하게 인식할 수 있게 된다.FIG. 25B shows a state in which the list of such image databases is translated into Braille and displayed on the tactile display of the tactile interface device. At this time, the tactile display displayed by the main screen step and the image selection step is a cursor that tactilely displays information about the current cursor position among the positions of the plurality of cursors as shown in FIGS. 6 and 10. Area L12; A content area (L11) tactilely displaying information corresponding to the position of each cursor; And a page area L13 tactilely displaying information on the current page. It may include. As described above, the area of the tactile display is divided and information is displayed, so that the visually impaired can easily recognize the content of the content, the location of the current cursor, information on the page, and the like, and clearly recognize the information.

도 26은 본 발명의 일 실시예에 따른 이미지카테고리표시단계 및 상기 이미지카테고리표시단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.26 shows a screen of an image category display step and a tactile interface device in which TUI conversion is performed on the image category display step according to an embodiment of the present invention.

도 26의 (A)는 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 화면이고, 도 26의 (B)는 도 26의 (A)에 상응하는 상기 촉각인터페이스장치(1000)의 화면이다. 도 26의 (A)를 참조하면 상기 이미지선택부(5200)에 의해 상기 이미지카테고리표시단계(S730)가 수행되어 상기 이미지데이터베이스(7000) 내의 카테고리의 목록이 표시되는 것을 확인할 수 있다. 도 26의 실시예에서는 카테고리 목록에 과학, 국어, 기타, 수학, 영어, 일러, 점자 의 일곱 카테고리가 포함되어 있다. 이 때, 목록의 최 상단에는 "검색하기" 메뉴가 삽입되어 이를 선택하게 되면 이미지검색단계(S750)를 수행하게 되고, 카테고리를 선택하게 되면 선택된 카테고리에 대한 이미지목록표시단계(S760)를 수행하게 된다.26A is a screen output through a display device connected to the computing device A, and FIG. 26B is a screen of the tactile interface device 1000 corresponding to FIG. 26A. . Referring to (A) of FIG. 26, it can be seen that the image category display step (S730) is performed by the image selector 5200 to display a list of categories in the image database 7000. In the embodiment of Fig. 26, seven categories of science, Korean, other, mathematics, English, Sailing, and Braille are included in the category list. At this time, when the "Search" menu is inserted at the top of the list to select it, an image search step (S750) is performed. When a category is selected, an image list display step (S760) for the selected category is performed. do.

도 26의 (B)는 이와 같은 카테고리의 목록이 점자로 번역되어 상기 촉각인터페이스장치의 촉각디스플레이에 표시된 모습을 도시한다. 이 때, 상기 촉각디스플레이는 도 25의 (B)에서와 같이 컨텐츠영역(L11), 커서영역(L12) 및 페이지영역(L13)으로 구분되어 표시될 수 있다.26 (B) shows a state in which a list of such categories is translated into Braille and displayed on the tactile display of the tactile interface device. At this time, the tactile display may be divided into a content area L11, a cursor area L12, and a page area L13 as shown in FIG. 25B.

도 27은 본 발명의 일 실시예에 따른 이미지목록표시단계 및 상기 이미지목록표시단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.27 illustrates a screen of an image list display step and a tactile interface device in which TUI conversion is performed on the image list display step according to an embodiment of the present invention.

도 27의 (A)는 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 화면이고, 도 27의 (B)는 도 27의 (A)에 상응하는 상기 촉각인터페이스장치(1000)의 화면이다. 도 27의 (A)를 참조하면 상기 이미지선택부(5200)에 의해 상기 이미지목록표시단계(S760)가 수행되어 상기 카테고리 내의 이미지 목록이 표시되는 것을 확인할 수 있다. 도 27의 실시예에서는 이미지 목록에 book, edit, envelope 및 folder 의 네 이미지가 포함되어 있다. 이 때, 목록의 최 상단에는 도 26에서와 같이 "검색하기" 메뉴가 삽입되어 있을 수 있고, 이를 선택하게 되면 이미지검색단계(S750)를 수행하게 되고, 이미지를 선택하게 되면 이미지출력부(5200)를 통해 선택된 이미지가 상기 컴퓨팅장치(A)와 연결된 디스플레이장치 및 상기 촉각인터페이스장치(1000)를 통해 출력된다.27A is a screen output through a display device connected to the computing device A, and FIG. 27B is a screen of the tactile interface device 1000 corresponding to FIG. 27A. . Referring to (A) of FIG. 27, it is confirmed that the image list display step (S760) is performed by the image selector 5200 to display a list of images in the category. In the embodiment of Fig. 27, four images of book, edit, envelope, and folder are included in the image list. At this time, the "search" menu may be inserted at the top of the list as shown in FIG. 26, and when this is selected, an image search step (S750) is performed, and when an image is selected, the image output unit 5200 ), The selected image is output through the display device connected to the computing device A and the tactile interface device 1000.

도 27의 (B)는 이와 같은 이미지의 목록이 점자로 번역되어 상기 촉각인터페이스장치의 촉각디스플레이에 표시된 모습을 도시한다. 이 때, 상기 촉각디스플레이는 도 25의 (B)에서와 같이 컨텐츠영역(L11), 커서영역(L12) 및 페이지영역(L13)으로 구분되어 표시될 수 있다.FIG. 27 (B) shows a state in which the list of images is translated into Braille and displayed on the tactile display of the tactile interface device. At this time, the tactile display may be divided into a content area L11, a cursor area L12, and a page area L13 as shown in FIG. 25B.

도 28은 본 발명의 일 실시예에 따른 이미지출력단계의 세부 단계를 개략적으로 도시한다.28 schematically shows detailed steps of an image output step according to an embodiment of the present invention.

도 28을 참조하면 본 발명의 일 실시예에 따른 상기 이미지출력부(5300)는 이미지판별단계(S810); 이미지단순화단계(S820); 이미지표시단계(S830); 및 출력이미지조절단계(S840); 를 포함하는 이미지출력단계를 수행하여 이미지를 선택할 수 있다.Referring to FIG. 28, the image output unit 5300 according to an embodiment of the present invention includes an image discrimination step (S810); Image simplification step (S820); Image display step (S830); And an output image adjustment step (S840); An image may be selected by performing an image output step including.

본 발명의 일 실시예에서 상기 이미지선택부(5200)에 의해 이미지가 선택되어 상기 이미지출력부(5300)가 실행되면, 출력할 이미지의 정보에 기초하여 이미지의 타입을 판별하는 이미지판별단계(S810)가 수행된다. 저장되어 있는 이미지는 벡터 이미지, 레스터 이미지 등 이미지의 형식이 상이할 수 있고, 레스터 이미지에서도 JPG, GIF, PNG 등 이미지의 파일 포맷이 상이할 수 있다. 이와 같은 다양한 이미지에 대한 처리를 수행하기 위하여 상기 이미지판별단계(S810)에서는 선택 된 상기 이미지의 타입을 판별하고, 판별 된 타입에 적합한 이미지 처리 알고리즘을 선택하여 처리할 수 있도록 한다.In an embodiment of the present invention, when an image is selected by the image selection unit 5200 and the image output unit 5300 is executed, an image discrimination step of determining an image type based on information of an image to be output (S810) ) Is performed. The stored image may have a different image format, such as a vector image or a raster image, and a file format of an image such as JPG, GIF, or PNG may be different from a raster image. In order to perform processing on various images, the image discrimination step S810 determines the type of the selected image and selects and processes an image processing algorithm suitable for the determined type.

이 후, 판별된 상기 이미지의 타입에 기초하여 상기 촉각인터페이스장치에 의해 출력 가능하도록 상기 이미지를 단순화하는 이미지단순화단계(S820)가 수행된다. 상기 촉각인터페이스장치(1000)는 일반적인 시각 디스플레이장치에 비해 해상도가 낮고, 또한 색을 표현하기 어려운 점이 있으므로, 상기 이미지단순화단계(S820)에서는 이미지를 상기 촉각인터페이스장치(1000)에서 출력하기 적합한 형태로 변형시킬 수 있다. 본 발명의 일 실시예에서는 상기 이미지를 그레이스케일화 하여 그레이스케일이미지를 생성하고, 상기 그레이스케일이미지를 이진화하여 이진화이미지를 생성함으로써, 상기 촉각인터페이스장치(1000)에서 출력하기 용이하도록 단순화 할 수 있다.Thereafter, an image simplification step (S820) of simplifying the image to be output by the tactile interface device based on the determined type of the image is performed. Since the tactile interface device 1000 has a lower resolution and a difficulty in expressing colors compared to a general visual display device, in the image simplification step (S820), the image is in a form suitable for outputting from the tactile interface device 1000. It can be transformed. In one embodiment of the present invention, the grayscale image is generated by grayscale the image, and the grayscale image is binarized to generate a binarized image, so that the tactile interface apparatus 1000 can simplify the output. .

이 후, 단순화 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치(1000)를 통해 출력하는 이미지표시단계(S830)가 수행된다. 상기 이미지표시단계(S830)에서는 상기 이미지에서 상기 촉각인터페이스장치(1000)를 통해 출력하게 될 출력영역을 결정하여, 상기 출력영역의 이미지를 상기 촉각인터페이스장치(1000)의 핀에 매칭하여 각각의 핀을 구동하도록 할 수 있다.Thereafter, an image display step S830 of outputting the simplified image through the computing device and the tactile interface device 1000 is performed. In the image display step (S830), an output area to be output from the image through the tactile interface device 1000 is determined, and the image of the output area is matched to the pin of the tactile interface device 1000, thereby pinning each pin. Can be driven.

이 후, 상기 촉각인터페이스장치(1000)를 통해 출력된 이미지를 상기 사용자의 입력에 의해 확대, 축소 또는 이동하여 출력하는 출력이미지조절단계(S840)가 수행된다. 상기 촉각인터페이스장치(1000)를 통해 출력된 이미지를 시각장애인이 손으로 만져 촉각적으로 감지할 때, 상기 이미지를 더욱 상세히 확인하기 위해 이미지를 확대하거나, 이미지의 다른 영역으로 이동하여 감지 할 필요가 있다. 이를 위해 상기 출력이미지조절단계(S840)에서는 시각장애인이 출력된 이미지를 확대, 축소하거나 이동하도록 입력하여 출력된 이미지를 조절할 수 있다.Thereafter, an output image adjustment step (S840) is performed in which the image output through the tactile interface device 1000 is enlarged, reduced, or moved by the user's input, and outputted. When the visually impaired person senses the image output through the tactile interface device 1000 by touching it by hand, it is necessary to enlarge the image to check the image in more detail or move it to another area of the image to detect it. have. To this end, in the output image adjustment step (S840), a visually impaired user may adjust the output image by inputting the enlarged, reduced, or moved image.

도 29는 본 발명의 일 실시예에 따른 이미지단순화단계 및 이미지표시단계의 세부 단계를 개략적으로 도시한다.29 schematically shows detailed steps of an image simplification step and an image display step according to an embodiment of the present invention.

도 29를 참조하면 상기 이미지단순화단계(S820)는, 상기 이미지를 그레이스케일로 변환하여 그레이스케일이미지를 생성하는 그레이스케일변환단계(S821); 및 상기 그레이스케일이미지를 이진화하여 이진화이미지를 생성하는 이미지이진화단계(S822); 를 포함하고, 상기 이미지표시단계(S830)는, 상기 이미지 중 상기 촉각인터페이스장치(1000)를 통해 출력 될 영역을 출력영역으로 설정하는 출력영역결정단계(S831); 상기 이미지에 기초하여 컴퓨팅장치(A)에서 디스플레이 될 상기 이미지의 정보를 포함하는 제1디스플레이정보를 생성하는 제1디스플레이정보생성단계(S832); 및 상기 이미지에 기초하여 촉각인터페이스장치(1000)에서 촉각적으로 디스플레이 될 단순화 된 이미지의 출력영역의 이미지 정보를 포함하는 제2디스플레이정보를 생성하는 제2디스플레이정보생성단계(S833); 를 포함할 수 있다.Referring to FIG. 29, the image simplification step (S820) includes: converting the image to grayscale to generate a grayscale image (S821); And an image binarization step of generating a binarized image by binarizing the grayscale image (S822). Including, the image display step (S830), the output area determining step of setting the area to be output through the tactile interface device 1000 of the image as an output area (S831); A first display information generating step (S832) of generating first display information including information of the image to be displayed on the computing device A based on the image; And a second display information generating step of generating second display information including image information of an output region of a simplified image to be tactilely displayed by the tactile interface device 1000 based on the image (S833); It may include.

본 발명의 일 실시예에서 상기 그레이스케일변환단계(S821)는 상기 이미지판별단계(S810)에서 판별 된 이미지의 타입에 기초하여 상기 이미지를 그레이스케일로 변환한다.In one embodiment of the present invention, the grayscale conversion step (S821) converts the image to grayscale based on the type of the image determined in the image determination step (S810).

이 후, 상기 이미지이진화단계(S822)는 상기 그레이스케일이미지를 이진화하여 이진화이미지를 생성한다. 상기 촉각인터페이스장치(1000)의 촉각디스플레이부(1200)는 상하로 이동하는 복수의 핀에 의하여 구성되어, 상기 복수의 핀의 상승 혹은 하강에 의해 이미지를 표현하게 된다. 이와 같은 핀의 상승 혹은 하강을 결정하기 위하여 상기 그레이스케일이미지를 이진화하여 이진화이미지를 생성하고, 상기 이진화이미지의 정보에 기초하여 핀의 상승 혹은 하강을 결정하게 된다.Thereafter, in the image binarization step (S822), the grayscale image is binarized to generate a binarized image. The tactile display unit 1200 of the tactile interface device 1000 is composed of a plurality of pins moving up and down, and expresses an image by raising or falling the plurality of pins. In order to determine the rise or fall of the pin, the grayscale image is binarized to generate a binarization image, and the rise or fall of the pin is determined based on the information of the binarization image.

본 발명의 일 실시예에서는 이미지를 이진화하기 위하여 OTSU 알고리즘을 이용할 수 있다. OTSU 알고리즘은 그레이스케일 이미지의 그레이값을 임계값을 기준으로 하여 분리함으로써 이진화를 수행하고, 상기 임계값을 결정하기 위하여 통계적인 방법을 사용한다.In one embodiment of the present invention, an OTSU algorithm can be used to binarize an image. The OTSU algorithm performs binarization by separating the gray value of a grayscale image based on a threshold value, and uses a statistical method to determine the threshold value.

이와 같이 상기 이미지단순화단계(S820)에서는 이미지를 그레이스케일로 변환하여 그레이스케일이미지를 생성하고, 상기 그레이스케일이미지를 이진화하여 이진화이미지를 생성한다.As described above, in the image simplification step (S820), a grayscale image is generated by converting the image to grayscale, and the grayscale image is binarized to generate a binarized image.

본 발명의 일 실시예에서 상기 출력영역결정단계(S831)는 선택 된 이미지 중 상기 촉각인터페이스장치(1000)를 통해 출력 될 영역을 출력영역으로 설정한다. 상기 촉각인터페이스장치(1000)의 경우 핀을 이용하여 구동함으로써 촉각디스플레이를 형성하기 때문에 일반적인 시각디스플레이장치에 비해 낮은 해상도를 갖게 된다. 따라서 이미지를 상기 촉각인터페이스장치(1000)를 통해 출력할 때, 원본 이미지의 해상도에 맞추어 이미지의 픽셀과 상기 촉각인터페이스장치(1000)의 핀을 1대1로 맞추어 변환하여 출력하는 경우 상기 이미지의 극히 일부만을 표시하여 이미지를 파악하기 어렵게 된다.In one embodiment of the present invention, the output area determination step S831 sets an area to be output through the tactile interface device 1000 among the selected images as an output area. In the case of the tactile interface device 1000, since a tactile display is formed by driving using a pin, it has a lower resolution than a general visual display device. Therefore, when the image is output through the tactile interface device 1000, the pixels of the image and the pins of the tactile interface device 1000 are converted to one-to-one in accordance with the resolution of the original image, and the output of the image is extremely high. It is difficult to grasp the image by displaying only a part.

따라서 상기 이미지를 상기 촉각인터페이스장치(1000)를 통해 출력하는 경우 이미지의 크기를 조절하여 출력할 필요가 있고, 이를 위해 상기 이미지에서는 출력영역을 설정하고, 상기 출력영역 내의 이미지를 상기 촉각인터페이스장치(1000)에서 구현되는 촉각디스플레이의 크기에 맞추어 출력할 수 있다. 이와 같은 출력영역은 상기 이미지의 전부를 포함할 수도 있고, 상기 이미지의 일부를 포함하여 상기 촉각인터페이스장치(1000)를 통해 출력하도록 할 수 있다.Therefore, when the image is output through the tactile interface device 1000, it is necessary to adjust the size of the image and output the image. For this purpose, an output area is set in the image, and the image in the output area is the tactile interface device ( 1000) can be output according to the size of the tactile display. The output area may include all of the image, or may include a part of the image to be output through the tactile interface device 1000.

본 발명의 일 실시예에서 상기 이미지선택단계를 통해 이미지가 선택된 경우, 상기 출력영역(50)은 상기 이미지 전체 영역으로 설정될 수 있다. 이와 같이 초기에 상기 이미지 전체가 출력영역(50)으로 설정됨으로써 사용자가 상기 이미지의 전체를 상기 촉각인터페이스장치(1000)를 통해 감지하고, 이 후 상기 출력이미지조절단계(S840)를 통해 상기 이미지를 확대, 축소 또는 이동시킴으로써 더욱 세세하게 이미지를 감지하여 전체적인 이미지에 대한 이해도를 높이도록 할 수 있다.When an image is selected through the image selection step in an embodiment of the present invention, the output area 50 may be set as the entire area of the image. In this way, the entire image is initially set as the output area 50, so that the user detects the entire image through the tactile interface device 1000, and then displays the image through the output image adjustment step (S840). By zooming in, out, or moving, you can sense the image in more detail to improve the understanding of the overall image.

또한, 본 발명의 일 실시예에서 상기 출력영역(50)은 상기 촉각인터페이스장치(1000)의 컨텐츠영역의 가로 세로 비율에 상응하는 가로 세로 비율을 가질 수 있다. 이와 같이 상기 출력영역(50)의 이미지가 변환되어 촉각디스플레이로 출력되는 상기 컨텐츠영역의 가로 세로 비율에 맞추어 상기 출력영역(50)의 가로 세로 비율을 설정함으로써, 상기 촉각인터페이스장치(1000)를 통해 변환되어 출력되는 이미지가 왜곡되지 않도록 할 수 있다.In addition, in one embodiment of the present invention, the output area 50 may have an aspect ratio corresponding to the aspect ratio of the content area of the tactile interface device 1000. Thus, by setting the aspect ratio of the output area 50 in accordance with the aspect ratio of the content area that is converted to the image of the output area 50 is output to the tactile display, through the tactile interface device 1000 The converted and output image can be prevented from being distorted.

상기 제1디스플레이정보생성단계(S832)에서는 상기 이미지에 기초하여 컴퓨팅장치(A)에서 디스플레이 될 상기 이미지의 정보를 포함하는 제1디스플레이정보를 생성한다. 이와 같은 제1디스플레이정보는 상기 컴퓨팅장치(A)에 연결된 시각디스플레이장치를 통해 출력되어 비시각장애인이 이용하는 경우 시각적으로 이미지를 확인할 수 있도록 하고, 상기 촉각인터페이스장치(1000)를 통해 출력될 정보의 기초가 된다.In the first display information generating step (S832), first display information including information of the image to be displayed on the computing device A is generated based on the image. The first display information is output through a visual display device connected to the computing device (A) so that a visually identifiable image can be checked when used by a visually impaired person, and the information to be output through the tactile interface device 1000 is displayed. It becomes the basis.

상기 제2디스플레이정보생성단계(S833)에서는 상기 이미지에 기초하여 촉각인터페이스장치에서 촉각적으로 디스플레이 될 단순화 된 이미지의 출력영역의 이미지 정보를 포함하는 제2디스플레이정보를 생성한다. 본 발명의 일 실시예에서는 상기 컴퓨팅장치(A)에 연결된 시각적 디스플레이장치를 통해 이미지를 출력하고, 이에 상응하는 상기 촉각인터페이스장치(1000)의 촉각화면을 구현할 수 있는 신호를 생성함으로써 용이하게 촉각인터페이스장치(1000)를 제어할 수 있다. 이 때, 상기 제2디스플레이정보는 상기 출력영역(50)에 해당하는 상기 이미지의 크기 및 해상도와 상기 촉각인터페이스장치(1000)의 촉각화면의 크기 및 해상도에 차이가 있기 때문에, 보간법을 사용하여 제2디스플레이정보를 생성할 수 있다.In the second display information generating step (S833), second display information including image information of an output area of a simplified image to be tactilely displayed in a tactile interface device is generated based on the image. In an embodiment of the present invention, an image is output through a visual display device connected to the computing device A, and a tactile interface is easily generated by generating a signal capable of realizing the tactile screen of the tactile interface device 1000. The device 1000 can be controlled. At this time, since the second display information has a difference between the size and resolution of the image corresponding to the output area 50 and the size and resolution of the tactile screen of the tactile interface device 1000, interpolation is used. 2Display information can be generated.

본 발명의 일 실시예에서 상기 제2디스플레이정보생성단계는, 상기 촉각인터페이스장치(1000)의 복수의 핀에 있어서 상기 이진화이미지의 상기 출력영역의 정보를 상기 핀의 좌표에 매핑 하여 상기 핀 각각의 상승 혹은 하강을 결정하여 제2디스플레이정보를 생성할 수 있다.In one embodiment of the present invention, in the second display information generation step, the information of the output region of the binarized image is mapped to the coordinates of the pin in a plurality of pins of the tactile interface device 1000, respectively, The second display information may be generated by determining the rising or falling.

본 발명의 일 실시예에 따르면, 그레이스케일화 및 이진화를 통해 이미지를 단순화 하여 다중배열 촉각 셀 기반의 스마트 점자기기를 통해 이미지를 출력할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, an image can be output through a smart braille device based on a multi-array tactile cell by simplifying an image through grayscale and binarization.

도 30은 본 발명의 일 실시예에 따른 출력이미지조절단계의 세부 단계를 개략적으로 도시한다.30 schematically shows detailed steps of an output image adjustment step according to an embodiment of the present invention.

도 30을 참조하면 본 발명의 일 실시예에 따른 상기 출력이미지조절단계는, 상기 촉각인터페이스장치(1000)에서 촉각적으로 디스플레이 되는 상기 이미지를 확대 혹은 축소하여 출력하도록 하는 출력이미지확대/축소단계(S841); 및 상기 촉각인터페이스장치(1000)에서 촉각적으로 디스플레이 되는 상기 이미지의 위치를 이동시켜 출력하도록 하는 출력이미지이동단계(S842); 를 포함할 수 있다.Referring to FIG. 30, in the output image adjustment step according to an embodiment of the present invention, the output image enlargement / reduction step of enlarging or reducing the image tactilely displayed by the tactile interface device 1000 to output it is reduced ( S841); And an output image moving step (S842) of moving and outputting the position of the image tactilely displayed by the tactile interface device 1000; It may include.

상기 출력이미지확대/축소단계(S841)에서는 사용자의 입력에 따라 상기 촉각인터페이스장치(1000)에서 디스플레이 되는 이미지를 확대하거나 축소하여 출력하도록 한다. 본 발명의 일 실시예에서 상기 출력이미지확대/축소단계(S841)는 상기 출력영역(50)의 크기를 조절함으로써 수행될 수 있다. 상기 출력영역(50)의 크기를 축소하는 경우, 상기 출력영역(50)내의 이미지는 상기 출력영역(50)에 비해 커지게 되어 상기 촉각인터페이스장치(1000)에서 크게 표시됨으로써 확대되는 효과를 보일 수 있고, 상기 출력영역(50)의 크기를 확대하는 경우, 상기 출력영역(50)내의 이미지는 상기 출력영역(50)에 비해 작아지게 되어 상기 촉각인터페이스장치(1000)에서 작게 표시됨으로써 축소되는 효과를 보일 수 있다. 본 발명의 일 실시예에서는 이와 같이 출력영역(50)을 변경한 후, 상기 제1디스플레이정보생성단계(S832) 및 상기 제2디스플레이정보생성단계(S383)와 같은 단계를 다시 수행하여 상기 컴퓨팅장치(A) 및 상기 촉각인터페이스장치(1000)의 출력을 갱신할 수 있다.In the output image enlargement / reduction step (S841), an image displayed on the tactile interface device 1000 is enlarged or reduced according to a user's input to be output. In one embodiment of the present invention, the output image enlargement / reduction step S841 may be performed by adjusting the size of the output area 50. When the size of the output area 50 is reduced, the image in the output area 50 becomes larger than that of the output area 50 and is largely displayed on the tactile interface device 1000 to show an enlarged effect. When the size of the output area 50 is enlarged, the image in the output area 50 becomes smaller than the output area 50 and is reduced by being displayed smaller in the tactile interface device 1000 to reduce the effect. Can be seen. In one embodiment of the present invention, after changing the output area 50 as described above, the computing device is performed by performing the same steps as the first display information generation step (S832) and the second display information generation step (S383). (A) and the output of the tactile interface device 1000 can be updated.

본 발명의 일 실시예에서 사용자는 상기 촉각인터페이스장치(1000)의 SHIFT키와 방향키를 이용하여 이미지를 확대/축소하도록 입력할 수 있다. 예를 들어 SHIFT키와 방향키 중 좌(LEFT) 또는 하(DOWN) 키를 동시에 입력하는 경우 이미지를 축소하도록 하고, SHIFT키와 방향키 중 우(RIGHT) 또는 상(UP) 키를 동시에 입력하는 경우 이미지를 확대하도록 할 수 있다.In one embodiment of the present invention, the user may input the image to enlarge / reduce the image using the SHIFT key and the direction key of the tactile interface device 1000. For example, if the left (LEFT) or down (DOWN) key among the SHIFT key and the direction keys is input at the same time, the image is reduced, and if the right (RIGHT) or up (UP) key among the SHIFT key and the direction keys is input at the same time, the image Can be enlarged.

상기 출력이미지이동단계(S842)에서는 사용자의 입력에 따라 상기 촉각인터페이스장치(1000)에서 디스플레이 되는 이미지를 이동하여 출력하도록 한다. 본 발명의 일 실시예에서 상기 출력이미지이동단계(S842)는 상기 출력영역(50)을 이동함으로써 수행될 수 있다. 본 발명의 일 실시예에서는 이와 같이 출력영역(50)을 변경한 후, 상기 제1디스플레이정보생성단계(S832) 및 상기 제2디스플레이정보생성단계(S383)와 같은 단계를 다시 수행하여 상기 컴퓨팅장치(A) 및 상기 촉각인터페이스장치(1000)의 출력을 갱신할 수 있다.In the output image moving step S842, an image displayed on the tactile interface device 1000 is moved and output according to a user's input. In one embodiment of the present invention, the output image moving step S842 may be performed by moving the output area 50. In one embodiment of the present invention, after changing the output area 50 as described above, the computing device is performed by performing the same steps as the first display information generation step (S832) and the second display information generation step (S383). (A) and the output of the tactile interface device 1000 can be updated.

본 발명의 일 실시예에서 사용자는 상기 촉각인터페이스장치(1000)의 방향키를 이용하여 이미지를 확대/축소하도록 입력할 수 있다. 예를 들어 방향키 중 좌(LEFT) 키를 입력하는 경우 왼쪽으로, 하(DOWN) 키를 입력하는 경우 아래쪽으로, 우(RIGHT) 키를 입력하는 경우 오른쪽으로, 상(UP) 키를 입력하는 경우 위쪽으로 이미지를 이동하도록 할 수 있다.In one embodiment of the present invention, the user may input to enlarge / reduce the image using the directional keys of the tactile interface device 1000. For example, if a LEFT key is input among the direction keys, it is left, if a DOWN key is entered, and if a RIGHT key is input, to the right, and an UP key is input. You can make the image move upward.

도 31은 본 발명의 일 실시예에 따른 출력이미지확대/축소단계 및 상기 출력이미지확대/축소단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.31 illustrates a screen of an output image enlargement / reduction step and a tactile interface device in which TUI conversion is performed on the output image enlargement / reduction step according to an embodiment of the present invention.

도 31의 (A)는 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 화면이고, 도 31의 (B)는 도 31의 (A)에 상응하는 상기 촉각인터페이스장치(1000)의 화면이고, 도 31의 (C)는 도 31의 (B)의 출력 이미지를 축소하여 출력되는 촉각인터페이스장치(1000)의 화면이다.31A is a screen output through a display device connected to the computing device A, and FIG. 31B is a screen of the tactile interface device 1000 corresponding to FIG. 31A. , FIG. 31 (C) is a screen of the tactile interface device 1000 that is output by reducing the output image of FIG. 31 (B).

도 31의 (A)는 상기 이미지선택부(5100)를 통해 선택 된 손의 이미지가 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 모습을 도시한다. 이와 같은 이미지는 상기 이미지단순화단계(S820)를 거쳐 도 31의 (B)에서와 같이 상기 촉각인터페이스장치(1000)의 핀 각각을 상승 또는 하강시킬 수 있는 정보로 변환되어 상기 촉각인터페이스장치(1000)의 촉각디스플레이에 표시된다. 도 25에서 설명한 바와 같이, 상기 촉각디스플레이는 복수의 커서의 위치 중 현재 커서의 위치에 대한 정보를 촉각적으로 디스플레이 하는 커서영역(L22); 각각의 커서의 위치에 대해 상응하는 정보를 촉각적으로 디스플레이 하는 컨텐츠영역(L21); 및 현재 페이지에 대한 정보를 촉각적으로 디스플레이 하는 페이지영역(L23); 을 포함할 수 있다. 도 31의 (B)에서는 상기 컨텐츠영역(L21)에 도 31의 (A)에 상응하는 손의 이미지가 표시된다.31 (A) shows a state in which an image of a hand selected through the image selection unit 5100 is output through a display device connected to the computing device A. The image is converted into information capable of raising or lowering each of the pins of the tactile interface device 1000 as shown in FIG. 31B through the image simplification step (S820) and the tactile interface device 1000. Is displayed on the tactile display of. As described in FIG. 25, the tactile display includes a cursor area L22 tactilely displaying information on a current cursor position among a plurality of cursor positions; A content area (L21) tactilely displaying information corresponding to the position of each cursor; And a page area (L23) tactilely displaying information on the current page. It may include. In FIG. 31B, an image of the hand corresponding to FIG. 31A is displayed in the content area L21.

본 발명의 일 실시예에서는 상기 페이지영역(L23)에는 상기 이미지의 정보가 출력될 수 있다. 예를 들면 상기 페이지영역(L23)에는 이미지의 파일명이 점자로 출력될 수 있다.In one embodiment of the present invention, information of the image may be output to the page area L23. For example, the file name of the image may be displayed in Braille in the page area L23.

이 때, 사용자는 상기 촉각인터페이스장치(1000)를 조작하여 상기 이미지를 확대 또는 축소할 수 있다. 도 31의 (C)에는 상기 도 31의 (B)와 같이 출력된 이미지를 축소한 결과가 도시되어 있다. 이 때, 본 발명의 일 실시예에서는 상기 출력영역(50)을 확대하여 더 많은 이미지가 상기 출력영역(50)에 포함되도록 하여 이미지를 축소시킬 수 있다. 도 31의 (C)는 도 31의 (B)에 비해 축소된 손의 이미지가 상기 촉각인터페이스장치(1000)의 촉각디스플레이를 통해 출력되고 있다.At this time, the user may enlarge or reduce the image by operating the tactile interface device 1000. FIG. 31 (C) shows the result of reducing the output image as shown in FIG. 31 (B). At this time, in one embodiment of the present invention, the image may be reduced by enlarging the output region 50 so that more images are included in the output region 50. 31 (C), the image of the reduced hand is output through the tactile display of the tactile interface device 1000 as compared to FIG. 31 (B).

도 32는 본 발명의 일 실시예에 따른 출력이미지이동단계 및 상기 출력이미지이동단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.32 illustrates a screen of a tactile interface device in which a TUI conversion is performed on an output image moving step and the output image moving step according to an embodiment of the present invention.

도 32의 (A)는 도 31의 (A)와 동일하게 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 화면이고, 도 32의 (B)는 도 32의 (A)에 상응하는 상기 촉각인터페이스장치(1000)의 화면이고, 도 32의 (C)는 도 26의 (B)의 출력 이미지를 이동하여 출력되는 촉각인터페이스장치(1000)의 화면이다.32A is a screen output through a display device connected to the computing device A in the same manner as in FIG. 31A, and FIG. 32B is the screen corresponding to FIG. 32A. It is a screen of the tactile interface device 1000, and FIG. 32 (C) is a screen of the tactile interface device 1000 output by moving the output image of FIG. 26 (B).

도 32의 (A) 및 도 32의 (B)는 상기 도 31의 (A) 및 상기 도 32의 (B)와 동일하다. 선택된 이미지는 상기 이미지단순화단계(S820)를 거쳐 도 32의 (B)에서와 같이 상기 촉각인터페이스장치(1000)의 핀 각각을 상승 또는 하강시킬 수 있는 정보로 변환되어 상기 촉각인터페이스장치(1000)의 촉각디스플레이에 표시된다. 상기 촉각디스플레이는 복수의 커서의 위치 중 현재 커서의 위치에 대한 정보를 촉각적으로 디스플레이 하는 커서영역(L22); 각각의 커서의 위치에 대해 상응하는 정보를 촉각적으로 디스플레이 하는 컨텐츠영역(L21); 및 현재 페이지에 대한 정보를 촉각적으로 디스플레이 하는 페이지영역(L23); 을 포함할 수 있다. 도 32의 (B)에서는 상기 컨텐츠영역(L21)에 도 32의 (A)에 상응하는 손의 이미지가 표시된다.32 (A) and 32 (B) are the same as FIG. 31 (A) and FIG. 32 (B). The selected image is converted into information capable of raising or lowering each pin of the tactile interface device 1000 through the image simplification step (S820), as shown in FIG. 32 (B), so that the tactile interface device 1000 It is displayed on the tactile display. The tactile display includes a cursor area L22 tactilely displaying information on a current cursor position among a plurality of cursor positions; A content area (L21) tactilely displaying information corresponding to the position of each cursor; And a page area (L23) tactilely displaying information on the current page. It may include. In FIG. 32B, an image of the hand corresponding to FIG. 32A is displayed in the content area L21.

사용자는 상기 촉각인터페이스장치(1000)를 조작하여 상기 이미지를 이동할 수 있다. 도 32의 (C)에는 상기 도 32의 (B)와 같이 출력된 이미지가 왼쪽으로 이동한 결과가 도시되어 있다. 이 때, 본 발명의 일 실시예에서는 상기 출력영역(50)을 오른쪽으로 이동하여, 이미지에 표시된 손의 오른쪽 영역이 더 많이 포함되도록 하여 이미지를 왼쪽으로 이동시킬 수 있다. 도 32의 (C)는 도 31의 (B)에 비해 손이 왼쪽으로 이동하여 손목 부분은 가려지고 남은 손 만이 표시된 이미지가 상기 촉각인터페이스장치(1000)의 촉각디스플레이를 통해 출력되고 있다.The user may move the image by operating the tactile interface device 1000. 32 (C) shows the result of moving the output image to the left as shown in FIG. 32 (B). At this time, in one embodiment of the present invention, the output area 50 is moved to the right, so that the right area of the hand displayed on the image is included more, so that the image can be moved to the left. 32 (C), an image in which the wrist portion is covered and only the remaining hand is displayed is output through the tactile display of the tactile interface device 1000 as compared to FIG. 31 (B).

본 발명의 일 실시예에 따르면, 다중배열 촉각 셀 기반의 스마트 점자기기를 통해 출력된 이미지의 확대, 축소 및 이동이 가능하여 시각장애인이 이미지파일을 상세히 해석할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to enlarge, reduce, and move an image output through a multi-array tactile cell-based smart braille device, thereby exerting the effect of allowing the visually impaired to interpret the image file in detail.

도 33은 본 발명의 일 실시예에 따른 출력이미지조절단계 및 상기 출력이미지조절단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.33 illustrates a screen of a tactile interface device in which TUI conversion is performed on an output image adjustment step and the output image adjustment step according to an embodiment of the present invention.

도 33의 (A)는 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 화면이고, 도 33의 (B)는 도 33의 (A)에 상응하는 상기 촉각인터페이스장치(1000)의 화면이다.33A is a screen output through a display device connected to the computing device A, and FIG. 33B is a screen of the tactile interface device 1000 corresponding to FIG. 33A. .

도 33의 (A)를 참조하면 책의 이미지가 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되고 있고, 도 33의 (B)를 참조하면 상기 책의 이미지 중 일부 영역(출력영역, 50)의 정보가 상기 촉각인터페이스장치(1000)를 통해 출력되고 있다. 이 때 상기 촉각인터페이스장치(1000)를 통해 표시되는 촉각디스플레이는 상기 책의 이미지 전부가 아닌 출력영역(50)에 해당하는 일부(책 표지의 A의 일부 및 책의 좌상단)만이 확대되어 표시되고 있다.Referring to (A) of FIG. 33, an image of a book is output through a display device connected to the computing device (A), and referring to (B) of FIG. 33, a partial area (output area, 50) of the image of the book ) Is output through the tactile interface device 1000. At this time, the tactile display displayed through the tactile interface device 1000 is enlarged and displayed only in a part corresponding to the output area 50 (part of A of the book cover and the upper left of the book) rather than all of the images of the book. .

이 때, 본 발명의 일 실시예에 따르면 상기 이미지출력단계(S800)에 의하여 표시되는 상기 촉각디스플레이는, 단순화 된 이미지의 상기 출력영역(50)의 이미지 정보를 촉각적으로 디스플레이 하는 컨텐츠영역(L31); 및 상기 출력영역(50)에 대한 정보를 촉각적으로 디스플레이 하는 위치정보영역(L34); 을 포함할 수 있다. 도 33의 (B)에는 우측 상단에 사각형의 위치정보영역(L34)이 위치하여, 상기 이미지 전체에 대한 상기 출력영역(50)의 위치가 표시되고 있다. 도 33의 (A)에 도시된 것과 같이 상기 출력영역(50)은 상기 이미지의 중심을 기준으로 좌상단쪽에 위치하고 있는데, 상기 위치정보영역(L34)에는 이와 같은 상기 출력영역(50)의 위치 및 크기가 표시되어, 사용자가 상기 촉각인터페이스장치(1000)를 통해 표시되고 있는 출력영역(50)이 상기 이미지의 어느 위치에 어느 정도의 크기인지 확인할 수 있게 된다.At this time, according to an embodiment of the present invention, the tactile display displayed by the image output step S800 is a content area L31 that tactilely displays image information of the output area 50 of the simplified image. ); And a location information area (L34) tactilely displaying information on the output area (50). It may include. In (B) of FIG. 33, a rectangular location information area L34 is located at the upper right, and the position of the output area 50 with respect to the entire image is displayed. As shown in (A) of FIG. 33, the output area 50 is located on the upper left side with respect to the center of the image, and the position and size of the output area 50 are located in the location information area L34. Is displayed, so that the user can confirm the output area 50 displayed through the tactile interface device 1000 at a certain size and location of the image.

또한, 본 발명의 일 실시예서 상기 제1디스플레이정보는 상기 출력영역(50)의 정보를 더 포함하고, 상기 이미지출력단계(S800)에 의하여 표시되는 상기 컴퓨팅장치(A)에는 상기 이미지 및 상기 출력영역(50)이 표시될 수 있다. 이는 도 33의 (A)에 도시된 것과 같이 상기 컴퓨팅장치(A)에 연결 된 디스플레이장치에 상기 이미지를 표시할 때, 상기 출력영역(50)을 같이 표시함으로써 상기 촉각인터페이스장치(1000)에 표시되고 있는 영역이 이미지의 어느 영역에 해당되는지를 확인할 수 있게 된다. 상기 출력영역(50)은 도 33의 (A)에 도시된 것과 같이 선으로 표시될 수 있다.In addition, in one embodiment of the present invention, the first display information further includes information of the output area 50, and the image and the output are displayed on the computing device A displayed by the image output step S800. Area 50 may be displayed. This is displayed on the tactile interface device 1000 by displaying the output area 50 together when displaying the image on the display device connected to the computing device A as shown in FIG. 33A. It is possible to check which area of the image corresponds to the area being used. The output area 50 may be displayed as a line as shown in FIG. 33A.

본 발명의 일 실시예에 따르면, 출력된 이미지를 확대하거나 이동하는 경우, 출력되는 영역이 전체 이미지에서 어느 위치의 영역인지 확인할 수 있도록 하여 시각장애인이 이미지파일에 대한 해석을 용이하게 할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, when the output image is enlarged or moved, it is possible to visually impair the interpretation of the image file by allowing the visually impaired user to check the location of the location in the entire image. Can be effective.

도 34 및 도 35는 본 발명의 일 실시예에 따른 이미지출력단계 및 상기 이미지출력단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.34 and 35 illustrate screens of an image output step and a tactile interface device in which TUI conversion is performed on the image output step according to an embodiment of the present invention.

본 발명의 일 실시예에서 상기 제2디스플레이정보생성단계(S833)는, 상기 이진화이미지의 상기 출력영역(50)의 정보를 상기 핀의 좌표에 매핑 할 때, 상기 핀의 좌표에 매칭되는 영역 내 흑색의 비율이 50% 이상인 경우 핀을 완전히 상승시키고, 상기 핀의 좌표에 매칭되는 영역 내 흑색의 비율이 20% 미만인 경우 핀을 완전히 하강시키고, 상기 핀의 좌표에 매칭되는 영역 내 흑색의 비율이 20% 이상 50% 미만인 경우 핀을 40 내지 60% 상승시키도록 제2디스플레이정보(50)를 생성할 수 있다.In one embodiment of the present invention, in the second display information generation step (S833), when mapping the information of the output area 50 of the binarized image to the coordinates of the pin, in the area matching the coordinates of the pin If the proportion of black is 50% or more, the pin is fully raised, and if the proportion of black in the area matching the coordinates of the pin is less than 20%, the pin is completely lowered, and the proportion of black in the area matching the coordinates of the pin is If 20% or more and less than 50%, the second display information 50 may be generated to increase the pin by 40 to 60%.

도 34의 (A)는 상기 촉각인터페이스장치(1000)를 통해 출력 될 이미지이다. 상기 촉각인터페이스장치(1000)는 일반적인 시각디스플레이장치에 비해 출력할 수 있는 영역의 해상도가 낮기 때문에, 도 34의 (A)와 같은 선으로 구성 된 이미지에서, 굵기가 다른 선의 경우 단순히 핀의 좌표에 매칭 할 경우 그 차이를 표시하기 어렵다.34A is an image to be output through the tactile interface device 1000. Since the tactile interface device 1000 has a lower resolution of an area that can be output than a general visual display device, in an image composed of lines as shown in FIG. 34A, in the case of lines having different thicknesses, the coordinates of the pins are simply used. When matching, it is difficult to show the difference.

이를 개선하기 위하여 본 발명의 일 실시예에서는 핀의 좌표에 매칭되는 영역의 흑색의 비율에 따라 핀의 높이를 달리 하여 이미지를 더욱 세밀하게 상기 촉각인터페이스장치(1000)를 통해 표시할 수 있다.In order to improve this, in one embodiment of the present invention, the height of the pins may be varied according to the ratio of the black of the region matching the coordinates of the pins to display the image more precisely through the tactile interface device 1000.

도 34의 (B)에는 상기 도 34의 (A)에 도시된 이미지가 상기 촉각인터페이스장치(1000)의 핀에 매칭된 결과가 도시되어 있다. 도 34의 (B)를 참조하면 굵은 선 영역에 매칭되는 핀의 경우 검은색으로, 얇은 선 영역에 매칭되는 핀의 경우 회색으로 도시되어 있다. 이 때, 흰색으로 도시된 핀의 경우 완전히 하강하여 촉각디스플레이판(1210) 속으로 들어가게 되고, 검은색으로 도시된 핀의 경우 도34의 (D)에 도시된 것과 같이 핀(1220)이 완전히 상승되고, 회색으로 도시된 핀의 경우 도 34의 (C)에 도시된 것과 같이 핀(1220)이 40 내지 60% 상승 하여 중간에 위치하도록 할 수 있다.FIG. 34 (B) shows the result of matching the image shown in FIG. 34 (A) to the pin of the tactile interface device 1000. Referring to (B) of FIG. 34, a pin matching a thick line area is shown in black, and a pin matching a thin line area is shown in gray. At this time, in the case of a pin shown in white, it is completely lowered to enter the tactile display plate 1210, and in the case of a pin shown in black, the pin 1220 is completely raised as shown in FIG. In the case of a pin shown in gray, as shown in FIG. 34 (C), the pin 1220 rises 40 to 60% to be positioned in the middle.

본 발명의 다른 실시예에서는 상기 제2디스플레이정보생성단계(S833)는, 상기 촉각인터페이스장치(1000)의 복수의 핀에 있어서 상기 그레이스케일이미지의 상기 출력영역(50)의 정보를 상기 핀의 좌표에 매핑 하여 상기 핀 각각의 상승 혹은 하강의 단계를 결정하여 제2디스플레이정보를 생성할 수 있다.In another embodiment of the present invention, in the second display information generation step (S833), the coordinates of the pin are the information of the output area 50 of the grayscale image in a plurality of pins of the tactile interface device 1000. The second display information may be generated by determining the step of rising or falling each of the pins by mapping to the.

도 35의 (A)는 상기 촉각인터페이스장치(1000)를 통해 출력 될 이미지이다. 도 35의 (A)에 도시된 이미지는 컬러 이미지로서, 상기 촉각인터페이스장치(1000)를 통해 출력되기 위해서 이미지단순화단계(S820)를 수행 할 필요가 있다.35A is an image to be output through the tactile interface device 1000. The image shown in (A) of FIG. 35 is a color image, and it is necessary to perform an image simplification step (S820) in order to be output through the tactile interface device 1000.

이 때, 본 발명의 일 실시예에서는 상기 이미지를 더욱 세밀하게 표시하기 위해 상기 이미지단순화단계(S820)에서 생성되는 이진화이미지가 아닌, 그레이스케일이미지에 기초하여 상기 촉각인터페이스장치(1000)를 통해 출력하도록 할 수 있다.At this time, in one embodiment of the present invention, the image is output through the tactile interface device 1000 based on the grayscale image, not the binarized image generated in the image simplification step S820 to display the image in more detail. You can do it.

도 35의 (B)에는 상기 도 35의 (A)에 도시된 이미지를 그레이스케일화 한 그레이스케일이미지가 도시되어 있고, 도 35의 (C)에는 상기 그레이스케일이미지가 상기 촉각인터페이스장치(1000)의 핀에 매칭된 결과가 도시되어 있다. 도 35의 (B)의 그레이스케일 이미지는 4단계의 그레이스케일 이미지(흰색, 밝은 회색, 짙은 회색, 검은색)으로서 상기 그레이스케일이미지의 각 색상 단계가 상기 도 35의 (C)에 각각 매칭되어 검은색 영역에 매칭되는 핀의 경우 검은색으로, 짙은 회색 영역에 매칭되는 핀의 경우 짙은 회색으로, 밝은 회색 영역에 매칭되는 핀의 경우 밝은 회색으로, 흰색 영역에 매칭되는 핀의 경우 흰색으로 도시되어 있다.FIG. 35 (B) shows a grayscale image obtained by gray-scaling the image shown in FIG. 35A, and in FIG. 35C, the grayscale image is the tactile interface device 1000. The result of matching the pins of is shown. The grayscale image of FIG. 35B is a four-level grayscale image (white, light gray, dark gray, black), and each color step of the grayscale image is matched with FIG. 35C, respectively. Black for pins matching the black area, dark gray for pins matching the dark gray area, light gray for pins matching the light gray area, and white for pins matching the white area. It is done.

이 때, 흰색으로 도시된 핀의 경우 완전히 하강하여 촉각디스플레이판(1210) 속으로 들어가게 되고, 옅은 회색으로 도시된 핀의 경우 도 35의 (D)에 도시된 것과 같이 핀(1220)이 30 내지 40% 상승하여 중하단에 위치하고, 짙은 회색으로 도시된 핀의 경우 도 35의 (E)에 도시된 것과 같이 핀(1220)이 60 내지 70% 상승하여 중상단에 위치하고, 검은색으로 도시된 핀의 경우 도34의 (F)에 도시된 것과 같이 핀(1220)이 완전히 상승되도록 할 수 있다.At this time, in the case of a pin shown in white, the pin is completely lowered to enter the tactile display plate 1210, and in the case of a pin shown in light gray, the pin 1220 is 30 to 30 as shown in FIG. The pin 1220 rises 60 to 70% and rises 60 to 70% as shown in FIG. In this case, as shown in FIG. 34 (F), the pin 1220 may be completely raised.

본 발명에서는 도 34 및 도 35의 실시예와 같이 상기 촉각인터페이스장치(1000)의 핀의 높이를 다르게 제어함으로써 이미지를 더욱 세밀하게 상기 촉각인터페이스장치(1000)를 통해 표시할 수 있다.In the present invention, by controlling the heights of the pins of the tactile interface device 1000 differently as in the embodiments of FIGS. 34 and 35, an image can be displayed through the tactile interface device 1000 in more detail.

본 발명의 일 실시예에 따르면, 다중배열 촉각 셀 기반의 스마트 점자기기 및 시각장애인용 TUI를 기반하여 저장된 이미지를 시각장애인들이 촉감을 통해 일반인과 유사한 수준으로 이미지파일을 해석할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the effect of allowing the visually impaired to interpret the image file at a level similar to the general public through the tactile sense of the stored image based on the multi-array tactile cell-based smart braille device and the visually impaired TUI. Can be exercised.

도 36은 본 발명의 일 실시예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하는 도면이다.36 is a diagram illustrating an example of an internal configuration of a computing device according to an embodiment of the present invention.

도 36에 도시한 바와 같이, 컴퓨팅 장치(11000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 포함할 수 있다. 이때, 컴퓨팅 장치(11000)은 촉각 인터페이스 장치에 연결된 사용자단말기(A) 혹은 전술한 컴퓨팅 장치(A)에 해당될 수 있다.As illustrated in FIG. 36, the computing device 11000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, and an input / output subsystem ( I / O subsystem) 11400, a power circuit 11500, and a communication circuit 11600. At this time, the computing device 11000 may correspond to the user terminal A connected to the tactile interface device or the aforementioned computing device A.

메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or non-volatile memory. have. The memory 11200 may include software modules, instruction sets, or other various data necessary for the operation of the computing device 11000.

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.At this time, access to the memory 11200 from other components such as the processor 11100 or the peripheral interface 11300 may be controlled by the processor 11100.

주변장치 인터페이스(11300)는 컴퓨팅 장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.The peripheral interface 11300 may couple input and / or output peripherals of the computing device 11000 to the processor 11100 and the memory 11200. The processor 11100 may execute various functions for the computing device 11000 and process data by executing a software module or a set of instructions stored in the memory 11200.

입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input / output subsystem 11400 can couple various input / output peripherals to the peripheral interface 11300. For example, the input / output subsystem 11400 may include a controller for coupling a peripheral device, such as a monitor or keyboard, mouse, printer, or touch screen or sensor, to the peripheral interface 11300, as needed. According to another aspect, I / O peripherals may be coupled to the peripheral interface 11300 without going through the I / O subsystem 11400.

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or part of the components of the terminal. For example, the power circuit 11500 may include a power management system, one or more power sources such as a battery or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator, or power. It can include any other components for creation, management, and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with other computing devices using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, if necessary, the communication circuit 11600 may enable communication with other computing devices by transmitting and receiving an RF signal, also known as an electromagnetic signal, including an RF circuit.

이러한 도 36의 실시예는, 컴퓨팅 장치(11000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 36에 도시된 일부 컴포넌트가 생략되거나, 도 36에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 36에도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.The embodiment of FIG. 36 is only an example of the computing device 11000, and the computing device 11000 may omit some components illustrated in FIG. 36, or further include additional components not illustrated in FIG. 36, or 2 It may have a configuration or arrangement that combines more than one component. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor, etc. in addition to the components illustrated in FIG. 36, and various communication methods (WiFi, 3G, LTE) in the communication circuit 1160. , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components that may be included in the computing device 11000 may be implemented in hardware, software, or a combination of both hardware and software including integrated circuits specialized for one or more signal processing or applications.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be recorded in a computer readable medium by being implemented in the form of program instructions that can be performed through various computing devices. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. The application to which the present invention is applied may be installed on a user terminal through a file provided by a file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request of the user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and / or combinations of hardware components and software components. For example, the devices and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, field programmable gate arrays (FPGAs). , A programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose computers or special purpose computers. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed on networked computing devices and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by a limited embodiment and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques are performed in a different order than the described method, and / or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (10)

프로세서를 포함하는 컴퓨팅장치로 구현되고, 상기 컴퓨팅장치에 접속되어 사용자와 상호작용을 할 수 있는 촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 방법으로서,
상기 컴퓨팅장치에서는 이미지뷰어모듈이 실행되어, 메인화면단계, 이미지선택단계 및 이미지출력단계 중 어느 하나가 수행되고,
상기 이미지뷰어모듈이 실행되는 경우, 해당 단계에 따른 화면이 상기 컴퓨팅장치에 표시되고, 상기 컴퓨팅장치에 표시된 화면이 상기 촉각인터페이스장치로의 출력신호로 변환되어, 상기 컴퓨팅장치에 표시된 화면에 상응하는 촉각디스플레이가 상기 촉각인터페이스장치에 표시될 수 있고,
상기 컴퓨팅장치에서의 입력, 혹은 상기 촉각인터페이스장치에서의 입력에 따라 메인화면단계, 이미지선택단계 및 이미지출력단계 중 어느 하나의 세부 과정들이 수행되고,
상기 이미지출력단계는,
출력할 이미지의 정보에 기초하여 이미지의 타입을 판별하는 이미지판별단계;
판별된 상기 이미지의 타입에 기초하여 상기 촉각인터페이스장치에 의해 출력 가능하도록 상기 이미지를 단순화하는 이미지단순화단계;
단순화 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지표시단계; 및
상기 촉각인터페이스장치를 통해 출력된 이미지를 상기 사용자의 입력에 의해 확대, 축소 또는 이동하여 출력하는 출력이미지조절단계; 를 포함하고,
상기 이미지표시단계는,
상기 이미지 중 상기 촉각인터페이스장치를 통해 출력 될 영역을 출력영역으로 설정하는 출력영역결정단계;
상기 이미지에 기초하여 컴퓨팅장치에서 디스플레이 될 상기 이미지의 정보를 포함하는 제1디스플레이정보를 생성하는 제1디스플레이정보생성단계; 및
상기 이미지에 기초하여 촉각인터페이스장치에서 촉각적으로 디스플레이 될 단순화 된 이미지의 출력영역의 이미지 정보를 포함하는 제2디스플레이정보를 생성하는 제2디스플레이정보생성단계; 를 포함하고,
상기 이미지출력단계에 의하여 표시되는 상기 촉각디스플레이는,
단순화 된 이미지의 상기 출력영역의 이미지 정보를 촉각적으로 디스플레이 하는 컨텐츠영역; 및
상기 출력영역에 대한 정보를 촉각적으로 디스플레이 하는 위치정보영역; 을 포함하고,
상기 이미지단순화단계는,
상기 이미지를 그레이스케일로 변환하여 그레이스케일이미지를 생성하는 그레이스케일변환단계를 포함하고,
상기 제2디스플레이정보생성단계는,
상기 촉각인터페이스장치의 복수의 핀에 있어서 상기 그레이스케일이미지의 상기 출력영역의 정보를 상기 핀의 좌표에 매핑 하여 상기 핀 각각의 상승 혹은 하강의 단계를 결정하여 제2디스플레이정보를 생성하는, 이미지 뷰어 기능을 제공하는 방법.
A method implemented as a computing device including a processor and connected to the computing device to provide an image viewer function through a tactile interface device capable of interacting with a user,
In the computing device, an image viewer module is executed, and one of the main screen step, the image selection step, and the image output step is performed,
When the image viewer module is executed, a screen according to the corresponding step is displayed on the computing device, and the screen displayed on the computing device is converted into an output signal to the tactile interface device, corresponding to the screen displayed on the computing device. A tactile display can be displayed on the tactile interface device,
Depending on the input from the computing device or the input from the tactile interface device, detailed processes of any one of the main screen step, the image selection step and the image output step are performed,
The image output step,
An image discrimination step of determining the type of the image based on the information of the image to be output;
An image simplification step of simplifying the image to be output by the tactile interface device based on the determined type of the image;
An image display step of outputting the simplified image through the computing device and the tactile interface device; And
An output image adjustment step of enlarging, reducing or moving the image output through the tactile interface device by the user's input; Including,
The image display step,
An output area determining step of setting an area to be output through the tactile interface device among the images as an output area;
A first display information generating step of generating first display information including information of the image to be displayed on a computing device based on the image; And
A second display information generating step of generating second display information including image information of an output region of a simplified image to be tactilely displayed in a tactile interface device based on the image; Including,
The tactile display displayed by the image output step,
A content area tactilely displaying image information of the output area of the simplified image; And
A location information area tactilely displaying information on the output area; Including,
The image simplification step,
A grayscale conversion step of converting the image to grayscale to generate a grayscale image,
The second display information generation step,
An image viewer generating second display information by determining the step of rising or falling of each of the pins by mapping information of the output area of the grayscale image to the coordinates of the pin in a plurality of pins of the tactile interface device How to provide functionality.
청구항 1에 있어서,
상기 이미지선택단계는,
이미지가 저장되어 있는 1 이상의 이미지데이터베이스의 목록을 표시하는 이미지데이터베이스목록표시단계;
사용자의 입력에 의해 이미지를 불러 올 이미지데이터베이스를 선택하는 이미지데이터베이스선택단계;
상기 이미지데이터베이스에 저장된 이미지의 카테고리를 표시하는 이미지카테고리표시단계;
사용자의 입력에 의해 카테고리를 선택하는 이미지카테고리선택단계;
사용자의 입력에 의해 이미지를 검색하는 이미지검색단계;
선택된 이미지데이터베이스, 선택된 카테고리 및 이미지 검색결과 중 1 이상에 기초하여 출력 가능한 이미지의 목록을 표시하는 이미지목록표시단계; 및
사용자의 입력에 의해 출력할 이미지를 선택하는 표시이미지선택단계; 를 포함하는, 이미지 뷰어 기능을 제공하는 방법.
The method according to claim 1,
The image selection step,
An image database list display step of displaying a list of one or more image databases in which the images are stored;
An image database selection step of selecting an image database from which an image is to be loaded by a user input;
An image category display step of displaying a category of images stored in the image database;
An image category selection step of selecting a category by user input;
An image search step of searching for an image by user input;
An image list display step of displaying a list of printable images based on at least one of the selected image database, the selected category, and the image search results; And
A display image selection step of selecting an image to be output by a user input; How to provide an image viewer function, including.
삭제delete 삭제delete 삭제delete 청구항 1에 있어서,
상기 출력이미지조절단계는,
상기 촉각인터페이스장치에서 촉각적으로 디스플레이 되는 상기 이미지를 확대 혹은 축소하여 출력하도록 하는 출력이미지확대/축소단계; 및
상기 촉각인터페이스장치에서 촉각적으로 디스플레이 되는 상기 이미지의 위치를 이동시켜 출력하도록 하는 출력이미지이동단계; 를 포함하는, 이미지 뷰어 기능을 제공하는 방법.
The method according to claim 1,
The output image adjustment step,
An output image enlargement / reduction step of enlarging or reducing the image tactilely displayed by the tactile interface device and outputting the image; And
An output image moving step of moving and outputting the position of the image tactilely displayed by the tactile interface device; How to provide an image viewer function, including.
삭제delete 삭제delete 삭제delete 프로세서를 포함하는 컴퓨팅장치로 구현되고, 상기 컴퓨팅장치에 접속되어 사용자와 상호작용을 할 수 있는 촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 장치로서,
상기 컴퓨팅장치는 이미지뷰어모듈; 을 포함하고,
상기 이미지뷰어모듈은,
사용자의 입력에 의해 출력 될 이미지를 선택하는 이미지선택부; 및
선택 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지출력부; 를 포함하고,
상기 이미지출력부는,
출력할 이미지의 정보에 기초하여 이미지의 타입을 판별하는 이미지판별단계;
판별된 상기 이미지의 타입에 기초하여 상기 촉각인터페이스장치에 의해 출력 가능하도록 상기 이미지를 단순화하는 이미지단순화단계;
단순화 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지표시단계; 및
상기 촉각인터페이스장치를 통해 출력된 이미지를 상기 사용자의 입력에 의해 확대, 축소 또는 이동하여 출력하는 출력이미지조절단계; 를 수행하고,
상기 이미지표시단계는,
상기 이미지 중 상기 촉각인터페이스장치를 통해 출력 될 영역을 출력영역으로 설정하는 출력영역결정단계;
상기 이미지에 기초하여 컴퓨팅장치에서 디스플레이 될 상기 이미지의 정보를 포함하는 제1디스플레이정보를 생성하는 제1디스플레이정보생성단계; 및
상기 이미지에 기초하여 촉각인터페이스장치에서 촉각적으로 디스플레이 될 단순화 된 이미지의 출력영역의 이미지 정보를 포함하는 제2디스플레이정보를 생성하는 제2디스플레이정보생성단계; 를 포함하고,
상기 이미지출력부에 의하여 표시되는 촉각디스플레이는,
단순화 된 이미지의 상기 출력영역의 이미지 정보를 촉각적으로 디스플레이 하는 컨텐츠영역; 및
상기 출력영역에 대한 정보를 촉각적으로 디스플레이 하는 위치정보영역; 을 포함하고,
상기 이미지단순화단계는,
상기 이미지를 그레이스케일로 변환하여 그레이스케일이미지를 생성하는 그레이스케일변환단계를 포함하고,
상기 제2디스플레이정보생성단계는,
상기 촉각인터페이스장치의 복수의 핀에 있어서 상기 그레이스케일이미지의 상기 출력영역의 정보를 상기 핀의 좌표에 매핑 하여 상기 핀 각각의 상승 혹은 하강의 단계를 결정하여 제2디스플레이정보를 생성하는, 이미지 뷰어 기능을 제공하는 장치.
A device implemented as a computing device including a processor and connected to the computing device to provide an image viewer function through a tactile interface device capable of interacting with a user,
The computing device includes an image viewer module; Including,
The image viewer module,
An image selection unit for selecting an image to be output by the user's input; And
An image output unit for outputting the selected image through the computing device and the tactile interface device; Including,
The image output unit,
An image discrimination step of determining the type of the image based on the information of the image to be output;
An image simplification step of simplifying the image to be output by the tactile interface device based on the determined type of the image;
An image display step of outputting the simplified image through the computing device and the tactile interface device; And
An output image adjustment step of enlarging, reducing or moving the image output through the tactile interface device by the user's input; And
The image display step,
An output area determining step of setting an area to be output through the tactile interface device among the images as an output area;
A first display information generating step of generating first display information including information of the image to be displayed on a computing device based on the image; And
A second display information generating step of generating second display information including image information of an output region of a simplified image to be tactilely displayed in a tactile interface device based on the image; Including,
The tactile display displayed by the image output unit,
A content area tactilely displaying image information of the output area of the simplified image; And
A location information area tactilely displaying information on the output area; Including,
The image simplification step,
A grayscale conversion step of converting the image to grayscale to generate a grayscale image,
The second display information generation step,
An image viewer generating second display information by determining the step of rising or falling of each of the pins by mapping the information of the output area of the grayscale image to the coordinates of the pin in a plurality of pins of the tactile interface device A device that provides functionality.
KR1020190029099A 2019-03-14 2019-03-14 Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device KR102078363B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190029099A KR102078363B1 (en) 2019-03-14 2019-03-14 Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190029099A KR102078363B1 (en) 2019-03-14 2019-03-14 Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device

Publications (1)

Publication Number Publication Date
KR102078363B1 true KR102078363B1 (en) 2020-04-23

Family

ID=70472646

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190029099A KR102078363B1 (en) 2019-03-14 2019-03-14 Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device

Country Status (1)

Country Link
KR (1) KR102078363B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120063982A (en) 2010-12-08 2012-06-18 한국전자통신연구원 Apparatus and method of man-machine interface for invisible user
KR20120136642A (en) * 2011-06-09 2012-12-20 삼성전자주식회사 Apparatus and method for providing interface in device with touch screen
KR20140010756A (en) * 2012-07-17 2014-01-27 주식회사 인프라웨어 Mobile device for visual-handicapped persons with text/image/video presentation
KR20180021332A (en) * 2016-08-19 2018-03-02 가천대학교 산학협력단 Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device
KR20180041101A (en) * 2018-04-10 2018-04-23 가천대학교 산학협력단 Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device
KR101893014B1 (en) * 2017-08-03 2018-08-30 가천대학교 산학협력단 Method, Device, and Non-transitory Computer-Readable Medium for Controlling Tactile Interface Device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120063982A (en) 2010-12-08 2012-06-18 한국전자통신연구원 Apparatus and method of man-machine interface for invisible user
KR20120136642A (en) * 2011-06-09 2012-12-20 삼성전자주식회사 Apparatus and method for providing interface in device with touch screen
KR20140010756A (en) * 2012-07-17 2014-01-27 주식회사 인프라웨어 Mobile device for visual-handicapped persons with text/image/video presentation
KR20180021332A (en) * 2016-08-19 2018-03-02 가천대학교 산학협력단 Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device
KR101893014B1 (en) * 2017-08-03 2018-08-30 가천대학교 산학협력단 Method, Device, and Non-transitory Computer-Readable Medium for Controlling Tactile Interface Device
KR20180041101A (en) * 2018-04-10 2018-04-23 가천대학교 산학협력단 Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device

Similar Documents

Publication Publication Date Title
US10845880B2 (en) Method, device, and computer-readable medium for controlling tactile interface device interacting with user
US10657328B2 (en) Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
JP6619911B2 (en) Device, method, and graphical user interface for wireless pairing with a peripheral device and displaying status information about the peripheral device
CN107491181B (en) Dynamic phrase extension for language input
KR101864584B1 (en) Method, Device, and Non-transitory Computer-Readable Medium for Providing Time Information By Tactile Interface Device
KR102120451B1 (en) Method, Device, and Computer-Readable Medium for Providing Internet Browsing Service by Tactile Interface Device
US10891875B2 (en) Method, device, and non-transitory computer-readable medium for controlling tactile interface device
US11462127B2 (en) Systems and methods for accessible widget selection
JP2017220231A (en) Handwriting keyboard for screens
KR102055696B1 (en) System, Method, and Non-transitory Computer-Readable Medium for Providing Messenger By Tactile Interface Device
KR101893014B1 (en) Method, Device, and Non-transitory Computer-Readable Medium for Controlling Tactile Interface Device
KR102325061B1 (en) Cognitive Assistance System and Method for Visually Impaired
US11545061B2 (en) Electronic device for displaying screen through display in low-power mode and operating method thereof
KR102036632B1 (en) Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device
KR102078363B1 (en) Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device
KR102108998B1 (en) System, Method, and Non-transitory Computer-Readable Medium for Providing Word Processor By Tactile Interface Device
KR102008844B1 (en) Method, Device, and Non-transitory Computer-Readable Medium for Providing Calculator Function By Tactile Interface Device
KR101935543B1 (en) Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device
KR102187871B1 (en) Method, Device, and Non-transitory Computer-Readable Medium for Providing Braille Education Support Function By Tactile Interface Device
KR102078360B1 (en) Method, Device, and Non-transitory Computer-Readable Medium for Providing Braille Application Management Function By Tactile Interface Device
KR102066123B1 (en) System, Method, and Non-transitory Computer-Readable Medium for Providing Book Information By Tactile Interface Device
KR102261668B1 (en) Method, Device, and Non-transitory Computer-Readable Medium for Providing Braille Graphic Education Support Function By Tactile Interface Device
KR20220115659A (en) System for Sending Documents Containing Private Information for Blind User
KR102078354B1 (en) Method, Device, and Non-transitory Computer-Readable Medium for Providing E-mail Management Function By Tactile Interface Device
KR102109005B1 (en) Method and System for Providing CardGame Function By Tactile Interface Device