KR102078363B1 - Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device - Google Patents
Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device Download PDFInfo
- Publication number
- KR102078363B1 KR102078363B1 KR1020190029099A KR20190029099A KR102078363B1 KR 102078363 B1 KR102078363 B1 KR 102078363B1 KR 1020190029099 A KR1020190029099 A KR 1020190029099A KR 20190029099 A KR20190029099 A KR 20190029099A KR 102078363 B1 KR102078363 B1 KR 102078363B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- output
- interface device
- tactile interface
- tactile
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 21
- 230000009467 reduction Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 6
- 230000000630 rising effect Effects 0.000 claims description 5
- 230000001771 impaired effect Effects 0.000 abstract description 66
- 230000006870 function Effects 0.000 description 29
- 238000004891 communication Methods 0.000 description 23
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 15
- 230000000007 visual effect Effects 0.000 description 14
- 230000000694 effects Effects 0.000 description 13
- 230000002093 peripheral effect Effects 0.000 description 10
- 239000013078 crystal Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000015541 sensory perception of touch Effects 0.000 description 4
- 239000000919 ceramic Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000036642 wellbeing Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/003—Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 방법, 장치, 및 비일시적 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 시각장애인의 스마트 기기(스마트폰, 스마트 패드 등) 혹은 스마트 점자기기 사용의 효율성 증대 및 정보화 수준의 향상을 위하여 다중배열 촉각 셀 기반의 스마트 점자기기에 해당하는 촉각인터페이스장치를 직관적으로 사용, 상호작용 및 제어할 수 있게 함으로써 시각장애인이 직관적으로 이미지를 촉각적으로 감지하도록 하고, 이미지를 확대, 축소 및 이동하여 감지할 수 있도록 하는 촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 방법, 장치, 및 비일시적 컴퓨터-판독가능 매체에 관한 것이다.The present invention relates to a method, a device for providing an image viewer function through a tactile interface device, and a non-transitory computer-readable medium, and more specifically, a smart device (smartphone, smart pad, etc.) or smart braille for the visually impaired. In order to increase the efficiency of use of the device and increase the level of informatization, the visually impaired person can intuitively tactilely sense the image by enabling the intuitive use, interaction, and control of the tactile interface device corresponding to the multi-array tactile cell-based smart braille device. A method, apparatus, and a non-transitory computer-readable medium that provides an image viewer function through a tactile interface device that enables detection and enlargement, reduction, and movement of an image.
정보화 사회에서는 컴퓨터를 이용한 정보습득 및 활용이 필수적이며, 이러한 추세는 일반인 뿐만 아니라 시각장애인에게도 마찬가지이다. In the information society, the acquisition and use of information using computers is essential, and this trend is the same for the visually impaired as well as the general public.
시각장애인의 정보화 수준을 향상시키기 위해서는 그들도 정상인과 유사한 수준으로 정보를 습득하고 활용할 수 있도록 해줘야 하는데, 이는 시각장애인의 일상생활을 보다 편리하게 하고 스스로 정보를 습득하고 활용할 수 있게 해준다는 점에서 중요하다. 또한 이를 통하여 궁극적으로는 시각장애인에게 다양한 교육기회를 제공하여 사회진출 및 참여의 기회를 확대시킴으로써 그들의 복지를 한층 향상시킬 수 있다는 점에서 매우 중요하다고 할 수 있다. In order to improve the level of informatization for the visually impaired, they must also be able to acquire and use information at a level similar to that of normal people, which is important in that it makes the daily life of the visually impaired more convenient and enables users to acquire and utilize information on their own. Do. In addition, it can be said that this is very important in that it can ultimately improve the well-being by providing various educational opportunities for the visually impaired and expanding opportunities for social advancement and participation.
하지만, 현재의 컴퓨터를 사용하는 일반적 방식은 주로 모니터를 통해 출력되는 시각적 정보를 눈으로 인지하고 이에 대하여 키보드, 마우스, 혹은 터치패드 등의 입력도구를 이용하여 정보를 입력하는 방식을 사용하고 있다. 따라서, 시각을 쓸 수 없는 시각장애인이 일반인과 동일한 수준으로 컴퓨터의 출력정보를 인지하고 이에 대한 즉각적인 정보입력과 같은 상호작용을 하는 데에는 큰 한계가 있을 수 밖에 없다. 결과적으로 시각적 장애는 컴퓨터 사용에 있어서의 효율성을 현저히 저하시켜 컴퓨터를 통한 정보습득 및 활용의 기회를 크게 빼앗게 된다.However, the current general method of using a computer mainly uses a method of recognizing visual information output through a monitor with an eye and inputting information using an input tool such as a keyboard, mouse, or touch pad. Therefore, there is a limitation in that a visually impaired person who cannot use vision can recognize the output information of the computer at the same level as the general public and interact with such as instant information input. As a result, the visual impediment significantly lowers the efficiency in using the computer, greatly depriving the computer of the opportunity to acquire and utilize information.
이러한 시각장애인의 컴퓨터 사용에 있어서의 어려움을 해결하기 위하여 청각, 촉각 등을 사용해 시각적 정보를 인지하고 이를 통해 컴퓨터와 상호작용을 할 수 있도록 다양한 기술들이 개발되어 왔다. 그 대표적인 기술로서, 청각을 통해 시각장애인의 컴퓨터 사용을 보조하는 스크린 리더가 있다. 이는 컴퓨터 화면에 출력되는 내용과 자신이 입력한 키보드 정보를 음성으로 출력하여 컴퓨터를 사용할 수 있도록 도와주는 장치 혹은 소프트웨어이다.Various techniques have been developed to recognize visual information using hearing and tactile senses and interact with the computer through the visually impaired to solve difficulties in using the computer. As a representative technology, there is a screen reader that assists a visually impaired person to use a computer through hearing. This is a device or software that helps you use the computer by outputting the information displayed on the computer screen and the keyboard information that you have input by voice.
하지만 스크린 리더는 출력화면에 대한 2차원의 공간적 위치정보 없이 한 줄로 이어진 선형화된 정보만으로 출력화면의 Graphic User Interface (GUI) 요소들을 탐색하므로 화면 출력정보 인지에 어려움이 따르며, 특히 출력화면에 포함된 정보가 많으면 많을수록 그 어려움은 현저히 증가하게 된다. 또한 문자나 GUI 요소들 이외에 그림, 도표 등과 같은 다양한 그래픽 정보들에 대해서는 스크린 리더가 텍스트 기반의 간단한 묘사적 설명만을 음성으로 제공하기 때문에 시각장애인이 그래픽 정보를 이해하고 이에 대한 상호작용을 하는 데에 큰 어려움을 가지게 된다.However, since the screen reader searches for Graphic User Interface (GUI) elements of the output screen with only linearized information in one line without two-dimensional spatial location information on the output screen, it is difficult to recognize screen output information, especially included in the output screen The more information, the greater the difficulty. In addition, for various graphic information such as pictures and diagrams in addition to text and GUI elements, the screen reader provides only text-based simple descriptive descriptions by voice, so that visually impaired people can understand and interact with graphic information. You will have great difficulty.
또 다른 관련 기술로는 점자 셀을 통하여 문자정보를 촉각으로 전달해주는 점자정보단말기가 있다. 이는 시각장애인에게 유용한 컴퓨터의 몇몇 기능들을 제공하여 독립적인 장치로 사용되는 방식과 스크린 리더가 분석하는 컴퓨터 화면의 텍스트 정보를 점자로 출력해주는 화면출력 보조장치로 사용하는 방식이 있다. 두 가지 방식 모두 컴퓨터와의 효율적 상호작용을 위한 인터페이스 역할 보다는, 컴퓨터 대용으로 컴퓨터의 몇 몇 제한된 기능들만을 수행하는 대체 기기의 역할을 하거나 혹은 문자정보를 점자로 출력해주는 출력보조 장치의 역할 만을 하게 된다. 특히, 점자 출력에 특화된 점자정보단말기는 스크린 리더와 마찬가지로 그래픽 정보를 표현할 수 없다는 문제점을 가지고 있다.Another related technology is a braille information terminal that transmits text information tactilely through a braille cell. This is a method that is used as an independent device by providing some functions of a computer useful for the visually impaired, and a method that is used as a screen output auxiliary device that outputs text information of a computer screen analyzed by a screen reader in Braille. In both ways, rather than acting as an interface for efficient interaction with a computer, it acts as an alternative device that performs only a few limited functions of the computer as a substitute for a computer, or as an output auxiliary device that outputs text information in Braille. do. In particular, a braille information terminal specialized in braille output has a problem that it cannot express graphic information like a screen reader.
본 발명의 목적은 시각장애인의 스마트 기기(스마트폰, 스마트 패드 등) 혹은 스마트 점자기기 사용의 효율성 증대 및 정보화 수준의 향상을 위하여 다중배열 촉각 셀 기반의 스마트 점자기기에 해당하는 촉각인터페이스장치를 직관적으로 사용, 상호작용 및 제어할 수 있게 함으로써 시각장애인이 직관적으로 이미지를 촉각적으로 감지하도록 하고, 이미지를 확대, 축소 및 이동하여 감지할 수 있도록 하는 촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 방법, 장치, 및 비일시적 컴퓨터-판독가능 매체를 제공하는 것이다.An object of the present invention is to intuitively use a tactile interface device corresponding to a multi-array tactile cell-based smart braille device to increase the efficiency of use of smart devices (smartphones, smart pads, etc.) or smart braille devices for the visually impaired and improve the level of information How to provide the image viewer function through the tactile interface device that enables the visually impaired to sense the image tactilely by using, interacting, and controlling it. , Devices, and non-transitory computer-readable media.
상기와 같은 과제를 해결하기 위하여, 본 발명은 프로세서를 포함하는 컴퓨팅장치로 구현되고, 상기 컴퓨팅장치에 접속되어 사용자와 상호작용을 할 수 있는 촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 방법으로서, 상기 컴퓨팅장치에서는 이미지뷰어모듈이 실행되어, 메인화면단계, 이미지선택단계 및 이미지출력단계 중 어느 하나가 수행되고, 상기 이미지뷰어모듈이 실행되는 경우, 해당 단계에 따른 화면이 상기 컴퓨팅장치에 표시되고, 상기 컴퓨팅장치에 표시된 화면이 상기 촉각인터페이스장치로의 출력신호로 변환되어, 상기 컴퓨팅장치에 표시된 화면에 상응하는 촉각디스플레이가 상기 촉각인터페이스장치에 표시될 수 있고, 상기 컴퓨팅장치에서의 입력, 혹은 상기 촉각인터페이스장치에서의 입력에 따라 메인화면단계, 이미지선택단계 및 이미지출력단계 중 어느 하나의 세부 과정들이 수행되는, 이미지 뷰어 기능을 제공하는 방법을 제공한다.In order to solve the above problems, the present invention is implemented as a computing device including a processor, and is a method of providing an image viewer function through a tactile interface device that is connected to the computing device and can interact with a user. When the image viewer module is executed in the computing device, one of the main screen step, the image selection step, and the image output step is performed, and when the image viewer module is executed, the screen according to the corresponding step is displayed on the computing device. , A screen displayed on the computing device is converted into an output signal to the tactile interface device, so that a tactile display corresponding to the screen displayed on the computing device can be displayed on the tactile interface device, or input from the computing device, or Main screen step according to the input from the tactile interface device, Provides a way to provide any of the image viewer function that details the process steps are performed during image selection and image output stage.
본 발명에서는, 상기 메인화면단계 및 이미지선택단계에 의하여 표시되는 상기 촉각디스플레이는, 복수의 커서의 위치 중 현재 커서의 위치에 대한 정보를 촉각적으로 디스플레이 하는 커서영역; 각각의 커서의 위치에 대해 상응하는 정보를 촉각적으로 디스플레이 하는 컨텐츠영역; 및 현재 페이지에 대한 정보를 촉각적으로 디스플레이 하는 페이지영역; 을 포함할 수 있다.In the present invention, the tactile display displayed by the main screen step and the image selection step includes: a cursor area tactilely displaying information on a current cursor position among a plurality of cursor positions; A content area tactilely displaying information corresponding to the position of each cursor; And a page area tactilely displaying information on the current page. It may include.
본 발명에서는, 상기 이미지선택단계는, 이미지가 저장되어 있는 1 이상의 이미지데이터베이스의 목록을 표시하는 이미지데이터베이스목록표시단계; 사용자의 입력에 의해 이미지를 불러 올 이미지데이터베이스를 선택하는 이미지데이터베이스선택단계; 상기 이미지데이터베이스에 저장된 이미지의 카테고리를 표시하는 이미지카테고리표시단계; 사용자의 입력에 의해 카테고리를 선택하는 이미지카테고리선택단계; 사용자의 입력에 의해 이미지를 검색하는 이미지검색단계; 선택된 이미지데이터베이스, 선택된 카테고리 및 이미지 검색결과 중 1 이상에 기초하여 출력 가능한 이미지의 목록을 표시하는 이미지목록표시단계; 및 사용자의 입력에 의해 출력할 이미지를 선택하는 표시이미지선택단계; 를 포함할 수 있다.In the present invention, the image selection step comprises: an image database list display step of displaying a list of one or more image databases in which images are stored; An image database selection step of selecting an image database from which an image is to be loaded by a user input; An image category display step of displaying a category of images stored in the image database; An image category selection step of selecting a category by user input; An image search step of searching for an image by user input; An image list display step of displaying a list of printable images based on at least one of the selected image database, the selected category, and the image search results; And a display image selection step of selecting an image to be output by a user input. It may include.
본 발명에서는, 상기 이미지출력단계는, 출력할 이미지의 정보에 기초하여 이미지의 타입을 판별하는 이미지판별단계; 판별된 상기 이미지의 타입에 기초하여 상기 촉각인터페이스장치에 의해 출력 가능하도록 상기 이미지를 단순화하는 이미지단순화단계; 단순화 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지표시단계; 및 상기 촉각인터페이스장치를 통해 출력된 이미지를 상기 사용자의 입력에 의해 확대, 축소 또는 이동하여 출력하는 출력이미지조절단계; 를 포함할 수 있다.In the present invention, the image output step, the image discrimination step of determining the type of the image based on the information of the image to be output; An image simplification step of simplifying the image to be output by the tactile interface device based on the determined type of the image; An image display step of outputting the simplified image through the computing device and the tactile interface device; And an output image adjustment step of enlarging, reducing or moving the image output through the tactile interface device to output the image. It may include.
본 발명에서는, 상기 이미지단순화단계는, 상기 이미지를 그레이스케일로 변환하여 그레이스케일이미지를 생성하는 그레이스케일변환단계; 및 상기 그레이스케일이미지를 이진화하여 이진화이미지를 생성하는 이미지이진화단계; 를 포함할 수 있다.In the present invention, the image simplification step comprises: a grayscale conversion step of converting the image to grayscale to generate a grayscale image; And an image binarization step of binarizing the grayscale image to generate a binarized image. It may include.
본 발명에서는, 상기 이미지표시단계는, 상기 이미지 중 상기 촉각인터페이스장치를 통해 출력 될 영역을 출력영역으로 설정하는 출력영역결정단계; 상기 이미지에 기초하여 컴퓨팅장치에서 디스플레이 될 상기 이미지의 정보를 포함하는 제1디스플레이정보를 생성하는 제1디스플레이정보생성단계; 및 상기 이미지에 기초하여 촉각인터페이스장치에서 촉각적으로 디스플레이 될 단순화 된 이미지의 출력영역의 이미지 정보를 포함하는 제2디스플레이정보를 생성하는 제2디스플레이정보생성단계; 를 포함할 수 있다.In the present invention, the image display step comprises: an output area determining step of setting an area to be output through the tactile interface device among the images as an output area; A first display information generating step of generating first display information including information of the image to be displayed on a computing device based on the image; And a second display information generating step of generating second display information including image information of an output area of a simplified image to be tactilely displayed in a tactile interface device based on the image. It may include.
본 발명에서는, 상기 출력이미지조절단계는, 상기 촉각인터페이스장치에서 촉각적으로 디스플레이 되는 상기 이미지를 확대 혹은 축소하여 출력하도록 하는 출력이미지확대/축소단계; 및 상기 촉각인터페이스장치에서 촉각적으로 디스플레이 되는 상기 이미지의 위치를 이동시켜 출력하도록 하는 출력이미지이동단계; 를 포함할 수 있다.In the present invention, the output image adjustment step includes: an enlargement / reduction of an output image to enlarge or reduce the image tactilely displayed by the tactile interface device and output the image; And an output image moving step of moving and outputting the position of the image tactilely displayed by the tactile interface device. It may include.
본 발명에서는, 상기 이미지출력단계에 의하여 표시되는 상기 촉각디스플레이는, 단순화 된 이미지의 상기 출력영역의 이미지 정보를 촉각적으로 디스플레이 하는 컨텐츠영역; 및 상기 출력영역에 대한 정보를 촉각적으로 디스플레이 하는 위치정보영역; 을 포함할 수 있다.In the present invention, the tactile display displayed by the image output step includes: a content area tactilely displaying image information of the output area of the simplified image; And a location information area tactilely displaying information on the output area. It may include.
본 발명에서는, 상기 제1디스플레이정보는 상기 출력영역의 정보를 더 포함하고, 상기 이미지출력단계에 의하여 표시되는 상기 컴퓨팅장치에는 상기 이미지 및 상기 출력영역이 표시될 수 있다.In the present invention, the first display information further includes information of the output area, and the image and the output area may be displayed on the computing device displayed by the image output step.
본 발명에서는, 상기 제2디스플레이정보생성단계는, 상기 촉각인터페이스장치의 복수의 핀에 있어서 상기 이진화이미지의 상기 출력영역의 정보를 상기 핀의 좌표에 매핑 하여 상기 핀 각각의 상승 혹은 하강을 결정하여 제2디스플레이정보를 생성할 수 있다.In the present invention, in the second display information generation step, the information of the output region of the binarized image is mapped to the coordinates of the pin in a plurality of pins of the tactile interface device to determine the rise or fall of each pin. The second display information can be generated.
본 발명에서는, 상기 제2디스플레이정보생성단계는, 상기 이진화이미지의 상기 출력영역의 정보를 상기 핀의 좌표에 매핑 할 때, 상기 핀의 좌표에 매칭되는 영역 내 흑색의 비율이 50% 이상인 경우 핀을 완전히 상승시키고, 상기 핀의 좌표에 매칭되는 영역 내 흑색의 비율이 20% 미만인 경우 핀을 완전히 하강시키고, 상기 핀의 좌표에 매칭되는 영역 내 흑색의 비율이 20% 이상 50% 미만인 경우 핀을 중간에 위치시키도록 제2디스플레이정보를 생성할 수 있다.In the present invention, in the second display information generation step, when mapping the information of the output region of the binarized image to the coordinates of the pin, when the ratio of black in the region matching the coordinates of the pin is 50% or more, the pin Raise the pin completely, and when the proportion of black in the area matching the coordinates of the pin is less than 20%, completely lower the pin, and when the proportion of black in the area matching the coordinates of the pin is 20% or more and less than 50%, remove the pin. The second display information may be generated to be positioned in the middle.
본 발명에서는, 상기 제2디스플레이정보생성단계는, 상기 촉각인터페이스장치의 복수의 핀에 있어서 상기 그레이스케일이미지의 상기 출력영역의 정보를 상기 핀의 좌표에 매핑 하여 상기 핀 각각의 상승 혹은 하강의 단계를 결정하여 제2디스플레이정보를 생성 할 수 있다.In the present invention, the second display information generation step is a step of rising or falling each of the pins by mapping the information of the output region of the grayscale image to the coordinates of the pins in a plurality of pins of the tactile interface device. By determining, the second display information may be generated.
상기와 같은 과제를 해결하기 위하여 본 발명은, 프로세서를 포함하는 컴퓨팅장치로 구현되고, 상기 컴퓨팅장치에 접속되어 사용자와 상호작용을 할 수 있는 촉각인터페이스장치를 통하여 이미지 뷰어 기능을 제공하는 장치로서, 상기 컴퓨팅장치는 이미지뷰어모듈; 을 포함하고, 상기 이미지뷰어모듈은, 사용자의 입력에 의해 출력 될 이미지를 선택하는 이미지선택부; 및 선택 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지출력부; 를 포함하고, 상기 이미지출력부는, 출력할 이미지의 정보에 기초하여 이미지의 타입을 판별하는 이미지판별단계; 판별된 상기 이미지의 타입에 기초하여 상기 촉각인터페이스장치에 의해 출력 가능하도록 상기 이미지를 단순화하는 이미지단순화단계; 단순화 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지표시단계; 및 상기 촉각인터페이스장치를 통해 출력된 이미지를 상기 사용자의 입력에 의해 확대, 축소 또는 이동하여 출력하는 출력이미지조절단계; 를 수행하는, 이미지 뷰어 기능을 제공하는 장치를 제공한다.In order to solve the above problems, the present invention is implemented as a computing device including a processor, and is an apparatus that provides an image viewer function through a tactile interface device that is connected to the computing device and can interact with a user. The computing device includes an image viewer module; Including, the image viewer module, an image selection unit for selecting an image to be output by the user's input; And an image output unit outputting the selected image through the computing device and the tactile interface device. Including, The image output unit, Image discrimination step of determining the type of the image based on the information of the image to be output; An image simplification step of simplifying the image to be output by the tactile interface device based on the determined type of the image; An image display step of outputting the simplified image through the computing device and the tactile interface device; And an output image adjustment step of enlarging, reducing or moving the image output through the tactile interface device to output the image. Provides a device that provides an image viewer function, to perform the.
상기와 같은 과제를 해결하기 위하여 본 발명은, 컴퓨팅장치에 연결된 촉각인터페이스장치를 제어하여 시각장애인에게 이미지 뷰어 기능을 제공하기 위한 비일시적 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은: 시각장애인에게 이미지 뷰어 기능을 제공하는 이미지뷰어메인화면을 출력하는 메인화면단계; 사용자의 입력에 의해 출력 될 이미지를 선택하는 이미지선택단계; 및 선택 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지출력단계; 를 포함하고, 상기 이미지출력단계는, 출력할 이미지의 정보에 기초하여 이미지의 타입을 판별하는 이미지판별단계; 판별된 상기 이미지의 타입에 기초하여 상기 촉각인터페이스장치에 의해 출력 가능하도록 상기 이미지를 단순화하는 이미지단순화단계; 단순화 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지표시단계; 및 상기 촉각인터페이스장치를 통해 출력된 이미지를 상기 사용자의 입력에 의해 확대, 축소 또는 이동하여 출력하는 출력이미지조절단계; 를 포함하는, 컴퓨터-판독가능 매체를 제공한다.In order to solve the above problems, the present invention is a non-transitory computer-readable medium for providing an image viewer function to a visually impaired person by controlling a tactile interface device connected to a computing device, wherein the computer-readable medium is computing Storing commands to cause the device to perform the following steps, the steps comprising: a main screen step of outputting an image viewer main screen that provides an image viewer function to a visually impaired person; An image selection step of selecting an image to be output by the user's input; And an image output step of outputting the selected image through the computing device and the tactile interface device. Including, The image output step, The image discrimination step of determining the type of the image based on the information of the image to be output; An image simplification step of simplifying the image to be output by the tactile interface device based on the determined type of the image; An image display step of outputting the simplified image through the computing device and the tactile interface device; And an output image adjustment step of enlarging, reducing or moving the image output through the tactile interface device to output the image. It provides a computer-readable medium comprising a.
본 발명의 일 실시예에 따르면, 시각장애인이 점자기기 혹은 촉각인터페이스장치를 이용하여 교육, 문화 및 여가 등의 일상생활에서 일반인과 유사한 수준으로 다양한 콘텐츠들(도서, 교육, 멀티미디어, 인터넷, 게임 등)을 활용할 수 있도록 다중배열 촉각 셀 기반의 스마트 점자기기를 위한 Tactile User Interface 및 어플리케이션 연동/제어/활용을 위한 Android 등의 메인 운영체제 기반 점자기기 혹은 촉각인터페이스장치의 운영 시스템을 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, a visually impaired person uses a braille device or a tactile interface device to display various contents (books, education, multimedia, internet, games, etc.) in a level similar to the general public in everyday life such as education, culture, and leisure. Tactile User Interface for multi-array tactile cell-based smart braille devices and the main operating system based braille devices such as Android for application interlocking / controlling / utilization or tactile interface device operating system Can be exercised.
본 발명의 일 실시예에 따르면, 시각장애인들에게 스마트 기기에서 제공하는 시각정보(시각으로 인지할 수 있는 정보)를 실시간으로 촉각정보(촉각으로 인지할 수 있는 정보)로 변환하여 다중배열 점자 셀 기반의 촉각 디스플레이를 통해 출력하고, 사용자의 다양한 입력 정보를 관리하며, 스마트 기기에서 동작하는 각종 어플리케이션 소프트웨어를 제어 및 관리할 수 있는 스마트 점자기기 운영 시스템을 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the visual information (visually perceptible information) provided by the smart device to the visually impaired is converted into tactile information (tactilely perceptible information) in real time to multi-array braille cells. It can have the effect of providing a smart braille device operating system that can output through the tactile display, manage various input information of the user, and control and manage various application software operating on the smart device.
본 발명의 일 실시예에 따르면, 다중배열 촉각 셀 기반의 스마트 점자기기의 입력부(점자 키보드/방향키/기능키 등)를 통해 스마트 점자기기의 운영체제(Android OS) 및 Application들의 동작을 제어하고 일반적인 스마트 기기에서 화면으로 출력되는 GUI(Graphic User Interface) 정보를 시각장애인용 TUI(Tactile User Interface) 데이터로 변환하여 촉각 및 점자정보로 제공함으로써, 시각장애인들이 일반인과 유사한 수준으로 일반적인 스마트 기기 혹은 스마트 점자기기를 보다 쉽게 제어하여 다양한 콘텐츠를 활용할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, a multi-array tactile cell-based smart braille device input unit (braille keyboard / direction key / function key, etc.) controls the operation of the smart braille device's operating system (Android OS) and applications, and performs general smart By converting GUI (Graphic User Interface) information output from the device to TUI (Tactile User Interface) data for the visually impaired and providing it as tactile and braille information, the visually impaired is a general smart device or smart braille device at a level similar to the general public. It can be easily controlled to exert the effect of using various contents.
본 발명의 일 실시예에 따르면, 다중배열 촉각 셀 기반의 스마트 점자기기 및 시각장애인용 TUI를 기반하여 저장된 이미지를 시각장애인들이 촉감을 통해 일반인과 유사한 수준으로 이미지파일을 해석할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the effect of allowing the visually impaired to interpret the image file at a level similar to the general public through the tactile sense of the stored image based on the multi-array tactile cell-based smart braille device and the visually impaired TUI. Can be exercised.
본 발명의 일 실시예에 따르면, 그레이스케일화 및 이진화를 통해 이미지를 단순화 하여 다중배열 촉각 셀 기반의 스마트 점자기기를 통해 이미지를 출력할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, an image can be output through a smart braille device based on a multi-array tactile cell by simplifying an image through grayscale and binarization.
본 발명의 일 실시예에 따르면, 다중배열 촉각 셀 기반의 스마트 점자기기를 통해 출력된 이미지의 확대, 축소 및 이동이 가능하여 시각장애인이 이미지파일을 상세히 해석할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to enlarge, reduce, and move an image output through a multi-array tactile cell-based smart braille device, thereby exerting the effect of allowing the visually impaired to interpret the image file in detail.
본 발명의 일 실시예에 따르면, 출력된 이미지를 확대하거나 이동하는 경우, 출력되는 영역이 전체 이미지에서 어느 위치의 영역인지 확인할 수 있도록 하여 시각장애인이 이미지파일에 대한 해석을 용이하게 할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, when the output image is enlarged or moved, it is possible to visually impair the interpretation of the image file by allowing the visually impaired user to check the location of the location in the entire image. Can be effective.
도 1은 본 발명의 일 실시예에 따른 촉각 인터페이스장치와 컴퓨팅 장치를 포함하는 전체 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 컴퓨팅 장치의 내부 구성을 개략적으로 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 점자OS부의 동작환경을 개략적으로 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 점자OS의 내부 구성을 개략적으로 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 TUI모듈의 내부 구성을 개략적으로 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 촉각인터페이스장치에서의 촉각 디스플레이화면을 개략적으로 도시한다.
도 7은 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 방법의 과정을 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 트리거단계의 세부 과정을 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 컴퓨팅장치에서의 표시화면과 이에 따른 촉각인터페이스장치에서의 촉각디스플레이를 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 촉각인터페이스장치에서의 촉각디스플레이의 영역 구성을 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 촉각인터페이스장치의 입출력 과정을 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 출력신호생성단계의 과정을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 커서영역출력신호생성단계의 과정을 개략적으로 도시한다.
도 14는 본 발명의 일 실시예에 따른 커서영역 표기의 형태의 일예를 개략적으로 도시한다.
도 15는 본 발명의 일 실시예에 따른 커서영역 표기의 몇 예들을 개략적으로 도시한다.
도 16은 본 발명의 일 실시예에 따른 버퍼출력신호생성단계의 과정을 개략적으로 도시한다.
도 17은 본 발명의 일 실시예에 따른 TTS단계의 일 예를 개략적으로 도시한다.
도 18은 본 발명의 일 실시예에 따른 이벤트단계의 일 예를 개략적으로 도시한다.
도 19는 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 화면을 도시한다.
도 20은 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 화면을 도시한다.
도 21은 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 화면을 도시한다.
도 22는 본 발명의 일 실시예에 따른 이미지뷰어모듈과 촉각인터페이스장치의 구성을 개략적으로 도시한다.
도 23은 본 발명의 일 실시예에 따른 이미지뷰어모듈의 내부 구성을 개략적으로 도시한다.
도 24는 본 발명의 일 실시예에 따른 이미지선택부의 동작의 세부 단계를 개략적으로 도시한다.
도 25는 본 발명의 일 실시예에 따른 이미지데이터베이스목록표시단계 및 상기 이미지데이터베이스목록표시단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 26은 본 발명의 일 실시예에 따른 이미지카테고리표시단계 및 상기 이미지카테고리표시단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 27은 본 발명의 일 실시예에 따른 이미지목록표시단계 및 상기 이미지목록표시단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 28은 본 발명의 일 실시예에 따른 이미지출력단계의 세부 단계를 개략적으로 도시한다.
도 29는 본 발명의 일 실시예에 따른 이미지단순화단계 및 이미지표시단계의 세부 단계를 개략적으로 도시한다.
도 30은 본 발명의 일 실시예에 따른 출력이미지조절단계의 세부 단계를 개략적으로 도시한다.
도 31은 본 발명의 일 실시예에 따른 출력이미지확대/축소단계 및 상기 출력이미지확대/축소단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 32는 본 발명의 일 실시예에 따른 출력이미지이동단계 및 상기 출력이미지이동단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 33은 본 발명의 일 실시예에 따른 출력이미지조절단계 및 상기 출력이미지조절단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 34는 본 발명의 일 실시예에 따른 이미지출력단계 및 상기 이미지출력단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 35는 본 발명의 일 실시예에 따른 이미지출력단계 및 상기 이미지출력단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.
도 36은 본 발명의 일 실시예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하는 도면이다.1 is a view schematically showing an entire system including a tactile interface device and a computing device according to an embodiment of the present invention.
2 is a diagram schematically showing an internal configuration of a computing device according to an embodiment of the present invention.
3 is a diagram schematically showing an operating environment of a braille OS unit according to an embodiment of the present invention.
4 is a diagram schematically showing the internal configuration of braille OS according to an embodiment of the present invention.
5 is a view schematically showing the internal configuration of a TUI module according to an embodiment of the present invention.
6 schematically illustrates a tactile display screen in a tactile interface device according to an embodiment of the present invention.
7 schematically illustrates a process of a method for controlling a tactile interface device according to an embodiment of the present invention.
8 schematically shows a detailed process of a trigger step according to an embodiment of the present invention.
9 schematically illustrates a display screen in a computing device and a tactile display in the tactile interface device according to an embodiment of the present invention.
10 schematically illustrates a region configuration of a tactile display in a tactile interface device according to an embodiment of the present invention.
11 schematically illustrates an input / output process of a tactile interface device according to an embodiment of the present invention.
12 schematically illustrates a process of an output signal generation step according to an embodiment of the present invention.
13 schematically shows a process of a cursor region output signal generation step according to an embodiment of the present invention.
14 schematically shows an example of a form of a cursor area notation according to an embodiment of the present invention.
15 schematically shows some examples of cursor region notation according to an embodiment of the present invention.
16 schematically illustrates a process of a buffer output signal generation step according to an embodiment of the present invention.
17 schematically shows an example of a TTS step according to an embodiment of the present invention.
18 schematically shows an example of an event step according to an embodiment of the present invention.
19 shows a screen for controlling a tactile interface device according to an embodiment of the present invention.
20 illustrates a screen for controlling a tactile interface device according to an embodiment of the present invention.
21 shows a screen for controlling a tactile interface device according to an embodiment of the present invention.
22 schematically shows the configuration of an image viewer module and a tactile interface device according to an embodiment of the present invention.
23 schematically shows the internal configuration of an image viewer module according to an embodiment of the present invention.
24 schematically shows detailed steps of the operation of the image selection unit according to an embodiment of the present invention.
25 illustrates a screen of an image database list display step and a tactile interface device in which TUI conversion is performed on the image database list display step according to an embodiment of the present invention.
26 shows a screen of an image category display step and a tactile interface device in which TUI conversion is performed on the image category display step according to an embodiment of the present invention.
27 illustrates a screen of an image list display step and a tactile interface device in which TUI conversion is performed on the image list display step according to an embodiment of the present invention.
28 schematically shows detailed steps of an image output step according to an embodiment of the present invention.
29 schematically shows detailed steps of an image simplification step and an image display step according to an embodiment of the present invention.
30 schematically shows detailed steps of an output image adjustment step according to an embodiment of the present invention.
31 illustrates a screen of an output image enlargement / reduction step and a tactile interface device in which TUI conversion is performed on the output image enlargement / reduction step according to an embodiment of the present invention.
32 illustrates a screen of a tactile interface device in which an output image moving step and a TUI conversion is performed on the output image moving step according to an embodiment of the present invention.
33 shows a screen of a tactile interface device in which a TUI conversion is performed on the output image adjustment step and the output image adjustment step according to an embodiment of the present invention.
34 illustrates a screen of an image output step and a tactile interface device in which TUI conversion is performed on the image output step according to an embodiment of the present invention.
35 illustrates a screen of an image output step according to an embodiment of the present invention and a tactile interface device in which TUI conversion is performed on the image output step.
36 is a diagram illustrating an example of an internal configuration of a computing device according to an embodiment of the present invention.
이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.In the following, various embodiments and / or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, a number of specific details are disclosed to aid the overall understanding of one or more aspects. However, it will also be appreciated by those of ordinary skill in the art of the present invention that this aspect (s) can be practiced without these specific details. The following description and the annexed drawings set forth in detail certain illustrative aspects of the one or more aspects. However, these aspects are exemplary and some of the various methods in the principles of the various aspects may be used, and the descriptions described are intended to include all such aspects and their equivalents.
또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.In addition, various aspects and features will be presented by a system that may include multiple devices, components and / or modules, and the like. Various systems may also include additional devices, components and / or modules, and / or may not include all of the devices, components, modules, etc. discussed in connection with the drawings. It must be understood and recognized.
본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, "an embodiment", "yes", "a good", "an example", etc., may not be construed as any aspect or design described being better or more advantageous than another aspect or designs. . The terms '~ unit', 'component', 'module', 'system', and 'interface' used in the following generally refer to a computer-related entity, for example, hardware, hardware It can mean a combination of software and software.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Also, the terms “comprises” and / or “comprising” mean that the feature and / or component is present, but excludes the presence or addition of one or more other features, components, and / or groups thereof. It should be understood as not.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Further, terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from other components. For example, the first component may be referred to as a second component without departing from the scope of the present invention, and similarly, the second component may be referred to as a first component. The term and / or includes a combination of a plurality of related described items or any one of a plurality of related described items.
또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are generally understood by those skilled in the art to which the present invention pertains. It has the same meaning as that. Terms, such as those defined in a commonly used dictionary, should be interpreted as having meanings consistent with meanings in the context of related technologies, and are ideally or excessively formal meanings unless explicitly defined in the embodiments of the present invention. Is not interpreted as
1. 촉각인터페이스 장치를 제어하는 가상운영체제로서의 1. As a virtual operating system that controls tactile interface devices 점자OS모듈Braille OS module
도 1은 본 발명의 일 실시예에 따른 촉각인터페이스장치와 컴퓨팅 장치를 포함하는 전체 시스템을 개략적으로 도시한 도면이다.1 is a view schematically showing an entire system including a tactile interface device and a computing device according to an embodiment of the present invention.
도 1에 도시된 촉각인터페이스장치(1000)는 하나의 예에 불과할 뿐, 본 발명은 이에 한정되지 않는다. 이하에서 서술하는 본 발명의 촉각인터페이스장치를 제어하는 컴퓨팅 장치(A)에 연결된 촉각 인터페이스장치(1000)는 촉각 그래픽을 제공할 수 있는 임의의 인터페이스장치, 사용자와 상호작용을 할 수 있는 촉각 인터페이스장치, 및 촉각 그래픽을 출력할 수 있는 컴퓨팅 장치를 모두 포함한다.The
도 1에 도시된 바와 같이 컴퓨팅 장치(A)는 촉각인터페이스장치(1000)와 연결되어 있고, 이와 같은 연결은 유선적 연결 혹은 무선적 연결을 모두 포함하는 연결이다. As shown in FIG. 1, the computing device A is connected to the
상기 컴퓨팅 장치(A)는 스마트 폰(smart phone)과, 태블릿(tablet) 개인용 컴퓨터(personal computer: PC, 이하 'PC'라 칭하기로 한다)와, 이동 전화기와, 화상 전화기와, 전자책 리더(e-book reader)와, 데스크 탑(desktop) PC와, 랩탑(laptop) PC와, 넷북(netbook) PC와, 개인용 복합 단말기(personal digital assistant: PDA, 이하 'PDA'라 칭하기로 한다)와, 휴대용 멀티미디어 플레이어(portable multimedia player: PMP, 이하 'PMP'라 칭하기로 한다)와, 엠피3 플레이어(mp3 player)와, 이동 의료 디바이스와, 카메라와, 웨어러블 디바이스(wearable device)(일 예로, 헤드-마운티드 디바이스(head-mounted device: HMD, 일 예로 'HMD'라 칭하기로 한다)와, 전자 의류와, 전자 팔찌와, 전자 목걸이와, 전자 앱세서리(appcessory)와, 전자 문신, 혹은 스마트 워치(smart watch) 등에 해당할 수 있다. The computing device A includes a smart phone, a tablet personal computer (PC, hereinafter referred to as a 'PC'), a mobile phone, a video phone, and an e-book reader ( e-book readers, desktop PCs, laptop PCs, netbook PCs, personal digital assistants (PDAs, hereinafter referred to as PDAs), A portable multimedia player (PMP, hereinafter referred to as 'PMP'), an MP3 player, a mobile medical device, a camera, and a wearable device (eg, head- Head-mounted devices (HMD, for example, referred to as 'HMD'), electronic clothing, electronic bracelets, electronic necklaces, electronic accessories, electronic tattoos, or smart watches watch).
이와 같은 컴퓨팅 장치(A)는 1 이상의 프로세서 및 메모리를 포함하고, 선택적으로 모니터 등의 디스플레이장치에 연결되어 있거나 자체적인 디스플레이모듈이 구비될 수도 있다.The computing device A may include one or more processors and memory, and may be selectively connected to a display device such as a monitor or may have its own display module.
혹은, 상기 컴퓨팅 장치(A)는 상기 촉각인터페이스장치(1000)와 결합된 형태일 수도 있다. 이 경우, 사용자의 입장에서는 촉각인터페이스장치(1000)와 이를 제어하는 컴퓨팅 장치(A)를 하나의 장치로 인식할 수도 있다. 이와 같이 결합된 형태의 장치의 경우 상기 컴퓨팅 장치(A)와 상기 촉각인터페이스장치(1000)는 프로세서와 메모리를 공유하는 형태일 수도 있다.Alternatively, the computing device A may be in a form combined with the
도 1에 도시된 촉각인터페이스장치(1000)는 상기 컴퓨팅장치(A) 등과 유선적 혹은 무선적 통신을 수행할 수 있는 외부장치접속부(1100); 복수의 핀으로 사용자에게 촉각정보를 제공하는 촉각디스플레이부(1200); 입력좌표 혹은 세부적으로 포커싱되는 사항의 위치를 변경시키는 방향키부(1300); 사용자로부터 키입력 형태로 정보를 입력받을 수 있는 키보드부(1400); 및 상기 외부장치접속부(1100), 상기 촉각디스플레이부(1200), 상기 방향키부(1300), 및 상기 키보드부(1400)의 작동을 제어하는 제어부(1500);를 포함한다.The
상기 외부장치접속부(1100)는 무선통신을 수행할 수 있는 통신모듈부 및 유선적으로 상기 외부장치와 접속할 수 있는 유선연결부 중 1 이상을 포함한다. 상기 통신모듈부는 블루투스(bluetooth) 통신 모듈, 지그비(zigbee) 통신 모듈, 적외선 통신 모듈, BLE(bluetooth low energy) 통신 모듈, 오디오 통신 모듈, LTE(long term evolution) 통신 모듈, 및 WiFi 통신 모듈, IrDA 기반의 적외선 통신 모듈, 무선 랜(WLAN), 와이브로(WiBro) 모듈, 무선 USB(Wireless USB) 모듈, 중 적어도 하나를 포함한다. 한편, 상기 유선연결부(1120)는 USB(Universal Serial Bus) 인터페이스를 이용한 연결모듈을 포함하는 것이 바람직하고, 이외의 데이터의 송수신을 수행할 수 있는 유선연결모듈이 이에 해당한다.The external
상기 촉각디스플레이부(1200)는 1 이상의 차원의 촉각픽셀로 촉각정보를 제공하고, 상기 촉각픽셀은 압전세라믹 및 탄성체를 포함하는 트랜스듀서에 전원을 인가함으로써 상하로 이동하는 복수의 핀에 의하여 구성된다. 바람직하게는 상기 촉각픽셀은 2차원으로 촉각정보를 제공한다.The
이와 같은 촉각디스플레이부(1200)는, 외부의 사용자단말기로부터 전송받은 데이터에 기초하거나 혹은 촉각 인터페이스장치 내부에서 생성된 데이터를 입력받는 표시데이터수신부; 상기 데이터를 촉각디스플레이데이터로 변환하는 촉각데이터변환부; 및 상기 촉각디스플레이데이터에 의하여 구동하는 복수의 핀구동모듈; 및 촉각디스플레이부(1200)를 구동하는 전원을 공급받는 구동전원공급부;를 포함하고, 입력받은 데이터에 기초하여 촉각정보 혹은 촉각 그래픽을 제공한다.The
상기 촉각디스플레이부(1200)는 1 이상의 차원의 촉각픽셀을 표시 혹은 제공할 수 있다. 일 예에서는, 상기 촉각픽셀은 압전세라믹 및 탄성체를 포함하는 트랜스듀서에 전원을 인가함으로써 상하로 이동하는 복수의 핀에 의하여 구성된다. The
구체적으로, 상기 촉각픽셀은 복수의 핀구동모듈 그룹에 의하여 표시되고, 각각의 상기 핀구동모듈 그룹은 복수의 핀구동모듈로 이루어진다. 혹은 전체의 핀구동모듈이 하나의 핀구동모듈 그룹을 구성할 수도 있다. Specifically, the tactile pixels are displayed by a plurality of pin drive module groups, and each of the pin drive module groups consists of a plurality of pin drive modules. Alternatively, the entire pin drive module may constitute one pin drive module group.
한편, 상기 방향키부(1300)는 입력좌표 혹은 세부적으로 포커싱되는 사항의 위치를 변경시킨다.On the other hand, the direction
상기 키보드부(1400)은 상기 촉각인터페이스장치(1000)에 시각장애인이 입력할 수 있는 키형태이고, 상기 키보드부(1400)는 복수의 키들로 구성될 수 있고, 각각의 키들의 입력은 상기 컴퓨팅장치(A)에서 실행되고 있는 어플리케이션의 명령으로 변환될 수 있다.The
한편, 사용자는 상기 방향키부(1300), 및 상기 키보드부(1400)를 통하여 촉각 인터페이스장치에 입력을 수행하고, 촉각인터페이스장치(1000)는 이와 같이 입력된 명령 혹은 정보를 변환하여, 상기 사용자단말기(A)로 전송한다.On the other hand, the user performs an input to the tactile interface device through the directional
한편 키보드부(1400)는, 바람직하게는 현재 시각장애인들이 일반적으로 많이 사용하는 점자를 일반문자로 변환하여 컴퓨터에 문자 입력신호를 전달하는 점자키보드를 포함하는 것이 바람직하다. Meanwhile, the
상기 키보드부(1400)는 점자를 입력 받아 촉각인터페이스장치(1000) 혹은 촉각인터페이스장치(1000)에 연결된 컴퓨팅장치(A)에 전달한다. 상기 키보드부(1400)는 점자키, 단축기, 및 실행 혹은 스페이스키 등을 포함할 수 있다.The
점자는 여러 개의 점이 모여 하나의 글자를 구성하기 때문에 점자키가 동시에 경우 눌린 경우 최종적인 점자의 정보를 전송할 수 있다. 전송된 점자정보는 촉각 인터페이스장치(1000) 내부의 소프트웨어 혹은 컴퓨팅장치의 소프트웨어를 통하여 일반문자(general character)로 점역될 수 있다. Since braille is composed of a number of dots to form a single character, if the braille keys are pressed simultaneously, the final braille information can be transmitted. The transmitted braille information may be translated into a general character through software inside the
따라서, 시각장애인을 위한 컴퓨터 입출력 기능을 위하여, 촉각디스플레이부(1100)는 일반 컴퓨터의 모니터와 같은 역할을 수행하고, 방향키부(1300) 및 키보드부(1400)는 일반 컴퓨터의 키보드, 마우스 등의 입력장치의 역할을 수행하게 된다. Therefore, for the computer input / output function for the visually impaired, the
도 2는 본 발명의 일 실시예에 따른 컴퓨팅 장치의 내부 구성을 개략적으로 도시한 도면이다.2 is a diagram schematically showing an internal configuration of a computing device according to an embodiment of the present invention.
본 실시예에 따른 촉각인터페이스장치(1000)를 제어하는 컴퓨팅 장치는 프로세서, 버스(프로세서, 메모리, 네트워크인터페이스부 사이의 양방향 화살표에 해당), 네트워크 인터페이스 및 메모리를 포함할 수 있다. 메모리는 점자OS부실행코드(3400), 일반OS부실행코드(3500), 응용프로그램부실행코드 (3600), 및 입출력제어루틴(3700)을 포함할 수 있다. 프로세서는 점자OS부(2000); 일반OS부(3100); 및 응용프로그램부(3200)를 포함할 수 있다. 여기서 일반OS부(3100)는 상기 컴퓨팅 장치의 메인운영체제에 해당하는 것으로서, GOOGLE의 ANDROID OS, MICROSOFT의 WINDOWS OS등이 이에 해당할 수 있다.The computing device that controls the
다른 실시예들에서 상기 촉각인터페이스장치(1000)를 제어하는 컴퓨팅 장치(A)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다.In other embodiments, the computing device A controlling the
메모리는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리에는 점자OS부실행코드(3400), 일반OS부실행코드(3500), 응용프로그램부실행코드 (3600), 및 입출력제어루틴(3700)이 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스부(3300)를 통해 메모리에 로딩될 수도 있다.The memory is a computer-readable recording medium, and may include a non-permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive. In addition, the Braille
버스는 촉각 인터페이스장치를 제어하는 컴퓨팅 장치의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.The bus may enable communication and data transfer between components of the computing device controlling the tactile interface device. The bus may be constructed using a high-speed serial bus, parallel bus, storage area network (SAN), and / or other suitable communication technology.
네트워크 인터페이스부(3300)는 촉각인터페이스장치(1000)를 제어하는 컴퓨팅 장치(A)를 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성 요소일 수 있다. 네트워크 인터페이스부(3300)는 촉각인터페이스장치를 제어하는 컴퓨팅 장치를 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다. 이와 같은 네트워크 인터페이스부(3300)를 통하여 촉각 인터페이스장치를 제어하는 컴퓨팅 장치가 촉각 인터페이스장치에 무선적 혹은 유선적으로 접속될 수 있다.The
프로세서는 기본적인 산술, 로직 및 촉각 인터페이스장치를 제어하는 컴퓨팅 장치의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리 또는 네트워크 인터페이스부(3300)에 의해, 그리고 버스를 통해 프로세서로 제공될 수 있다. 프로세서는 점자OS부(2000); 일반OS부(3100); 및 응용프로그램부(3200)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리와 같은 기록 장치에 저장될 수 있다.The processor may be configured to process instructions of a computer program by performing input / output operations of a computing device that controls basic arithmetic, logic, and tactile interface devices. Instructions may be provided to the processor by the memory or
상기 점자OS부(2000)는 이하에서 설명하게 될 촉각인터페이스장치(1000)를 제어하는 방법을 수행하기 위해 구성될 수 있다. 상기한 프로세서는 촉각 인터페이스장치를 제어하는 방법에 따라 일부 컴포넌트가 생략되거나, 도시되지 않은 추가의 컴포넌트가 더 포함되거나, 2개 이상의 컴포넌트가 결합될 수 있다.The
도 3은 본 발명의 일 실시예에 따른 점자OS부의 동작환경을 개략적으로 도시한 도면이다.3 is a diagram schematically showing an operating environment of a braille OS unit according to an embodiment of the present invention.
일반OS부(3100)는 컴퓨팅장치(A)의 메인운영체제에 해당하는 소프트웨어모듈에 해당하고, 상기 일반OS부(3100)의 제어하에서, 점자OS부(2000) 및 응용프로그램부(3200)가 구동된다. 즉, 본 발명에 따른 촉각인터페이스장치를 제어하는 방법은, 상기 컴퓨팅장치(A)의 메인운영체제의 제어를 받아 동작하는, 촉각 인터페이스장치를 위한 가상적인 서브운영체제에 해당하는 점자 OS부에 의하여 구현될 수 있다.The
이와 같은 점자OS부(2000)는 상기 촉각 인터페이스장치(1000)의 구동 및 입출력과 관련된 전반적인 사항을 제어하면서, 동시에 상기 일반OS부(3100)의 제어하에서 동작하는 상기 응용프로그램부(3200)와 상기 촉각인터페이스장치(1000) 사이의 입출력을 제어한다. The
또한, 상기 점자OS부(2000)는 상기 촉각인터페이스장치의(1000) 환경을 제어하는 응용프로그램 및 상기 촉각인터페이스장치(1000)에서 입출력이 가능한 내장기본프로그램을 포함할 수 있다.In addition, the
한편, 이와 같은 점자OS부(2000)의 환경에서는, 개발자들은 실제 컴퓨팅장치의 디스플레이 예를들어 스마트폰의 디스플레이를 기반으로 시각장애인을 위한 소프트웨어 혹은 응용프로그램을 개발하고, 이와 같은 응용프로그램의 상기 촉각인터페이스장치(1000)로의 입출력은 상기 점자OS부(2000)에 의하여 수행될 수 있다.On the other hand, in the environment of the
즉, 본 발명의 촉각인터페이스장치의 제어방법을 수행하는 점자OS부(2000)는 일반 개발자가 일반적인 GUI를 갖는 소프트웨어를 개발하고, 이와 같이 개발된 소프트웨어가 상기 점자OS부(2000)를 통하여 시각장애인이 입출력을 할 수 있는 형태로 상기 촉각인터페이스장치(1000)에서 구현될 수 있어, 일반 소프트웨어 개발자가 시각장애인에게 보다 다양한 소프트웨어를 공급할 수 있게 하는 효과를 발휘할 수 있다.That is, the
도 4는 본 발명의 일 실시예에 따른 점자OS부의 내부 구성을 개략적으로 도시한 도면이다. 도 4에 도시된 바와 같이 상기 점자OS부(2000)는, 트리거모듈(2100), 메인화면모듈(2200), 환경설정모듈(2300), TUI(Tactile User Interface)모듈(2400), 내장어플리케이션모듈(2500), TTS(Text To Speech)모듈(2600), 및 이멘트모듈(2700)을 포함한다.4 is a diagram schematically showing an internal configuration of a braille OS unit according to an embodiment of the present invention. As shown in FIG. 4, the
상기 트리거모듈(2100)은 상기 컴퓨팅장치(A)와 상기 촉각인터페이스장치(1000)의 접속을 확인하는 단계; 및 상기 컴퓨팅장치(A)와 상기 촉각인터페이스장치(1000)가 상호접속 되었다고 판단되는 경우에 상기 메인화면모듈(2200)을 실행하는 단계의 실행을 호출하는 단계를 수행한다.The
상기 점자OS부(2000)는 기본적으로 시각적 디스플레이로 인터페이스를 수행하는 컴퓨팅장치에서 실행된다. 따라서, 시각장애인이 컴퓨팅장치에서 점자OS부의 각각의 모듈을 실행시켜 촉각인터페이스장치를 이용하기 위해서는 점자OS부가 실행되어야 한다. The
일반적인 스마트폰에서의 어플리케이션의 실행은 사용자가 스마트폰의 GUI에서 어플리케이션 아이콘 등을 확인하고 터치입력을 수행함에 의하여 실행이 되지만, 시각장애인의 경우 이와 같은 동작이 어려울 수도 있다.In general, the execution of an application on a smartphone is executed by a user confirming an application icon or the like in the GUI of the smartphone and performing touch input, but in the case of the visually impaired, such an operation may be difficult.
이와 같은 점자OS부의 실행은 일반적인 컴퓨팅장치에서 실행되는 어플리케이션의 실행과 달리, 시각적으로 인지가 어려운 시각장애인에 의하여 실행이 되어야 하기 때문에, 상기 트리거모듈(2100)은 상기 메인운영체제의 백그라운드로 동작하다가, 시각장애인이 촉각인터페이스장치와 상기 컴퓨팅장치(A)의 연결을 하는 경우에(바람직하게는 이와 같은 연결은 시각장애인이 촉각인터페이스장치에 있는 물리적인 버튼을 입력함에 따라서 이루어진다), 상기 트리거모듈(2100)은 1차적으로 상기 메인화면모듈(2200)의 실행을 호출한다.Since the execution of the braille OS unit must be executed by a visually impaired visually impaired person, unlike the execution of an application executed in a general computing device, the
상기 메인화면모듈(2200)은 예를들어 도 9와 같은 촉각인터페이스장치를 시작하였을 때, 윈도우 바탕화면과 같이 점자OS부의 메인화면을 표시하고, 이와 같은 메인화면에서 사용자가 원하는 모듈 혹은 기능을 선택하도록 수행하는 페이지를 제공할 수 있다.The
바람직하게는 상기 메인화면모듈(2200)은 도 9의 (A)와 같이, 단순히 컴퓨팅장치에서 디스플레이되는 인터페이스를 제공한다. 즉, 메인화면모듈이 실행되는 경우에 상기 컴퓨팅장치에 연결된 시각적 디스플레이장치는 상기 도 9의 (A)와 같은 GUI인터페이스를 디스플레이한다. 동시에, 상기 GUI인터페이스의 출력신호는 상기 TUI모듈(2400)에 의하여 촉각인터페이스의 출력신호로 변환되어, 상기 촉각인터페이스장치(1000)로 전달되어, 시각장애인은 상기 메인화면을 촉각적으로 인지할 수 있다. 점자OS부에 내장된 응용프로그램 혹은 점자OS부의 제어하에서 동작할 수 있는 외부 응용프로그램 모두 이와 같은 GUI를 제공할 수 있도록 제작될 수 있다. Preferably, the
한편, 이와 같은 메인화면모듈(2200)은 상기 점자OS부(2000)에 의하여 제공된다. 즉, 점자OS부(2000)를 실행시키면, 1차적으로는 상기 점자OS부, 즉 메인운영체제의 제어 하에서 실행되는 서브운영체제에 의하여 제공되는 메인화면모듈이 실행된다. 혹은 상기 트리거모듈에 의하여 상기 메인화면모듈이 실행될 수 있다.Meanwhile, the
상기 환경설정모듈(2300)은 상기 점자OS부(2000)의 환경 및/또는 상기 촉각인터페이스장치(1000)의 환경을 설정할 수 있도록 하는 인터페이스를 제공하는 모듈이다. 마찬가지로, 상기 환경설정모듈(2300)이 실행되면 상기 컴퓨팅장치(A)에 연결된 디스플레이 장치에서 환경설정에 대한 인터페이스가 제공되고, 동시에 상기 TUI모듈(2400)은 상기 인터페이스를 상기 촉각인터페이스장치(1000)에서 입출력이 가능한 형태로 변환한다.The
상기 TUI모듈(2400)은 상기 메인화면모듈 혹은 다른 응용어플리케이션 모듈에 의하여 상기 컴퓨팅장치(A)에서 디스플레이될 수 있는 화면에 상응하는 상기 촉각인터페이스장치(1000)의 촉각화면을 구현하기 위한 출력신호를 생성하고, 상기 촉각인터페이스장치(1000)에서 입력된 사용자 입력으로부터 상기 메인화면모듈(2200)에 입력하기 위한 입력신호를 생성한다.The
즉, 상기 TUI모듈(2400)은 상기 메인화면모듈(2200), 상기 점자OS부(2000)에 의하여 제공되고 내장어플리케이션, 혹은 메인운영체제의 제어 하에서 동작하는 외부 응용어플리케이션의 GUI를 상기 촉각인터페이스장치(1000)에서 인터페이스 할 수 있는 TUI로 변환하는 역할을 수행한다. 따라서, 일반 개발자는 컴퓨팅장치(A)에서 동작하는 일반적인 소프트웨어만 개발을 한다면, 해당 소프트웨어의 인터페이스가 상기 TUI모듈(2400)에 의하여 촉각인터페이스장치에서 인터페이스 할 수 있는 형태로 변환되고, 결과적으로, 시각장애인이 해당 소프트웨어를 사용할 수 있다.That is, the
즉, 상기 점자OS부(2000)에서는 상기 메인화면모듈(2200)에서 사용자의 입력에 따라 호출되는 어플리케이션모듈 실행단계; 및 상기 서브운영체제에 의하여 제공되는 TUI모듈을 실행하는 제2 TUI단계가 포함될 수 있고, 상기 제2 TUI단계는, 상기 어플리케이션모듈에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면에 상응하는 상기 촉각인터페이스장치의 촉각화면을 구현하기 위한 출력신호를 생성하고, 상기 촉각인터페이스장치에서 입력된 사용자 입력으로부터 상기 어플리케이션모듈에 입력하기 위한 입력신호를 생성하는 동작을 수행한다.That is, in the
상기 내장어플리케이션모듈(2500)은 알람, 시계, 기본 문서작성기, 기본 문서뷰어 등과 같은 어플리케이션에 해당할 수 있고, 마찬가지로, 상기 내장어플리케이션은 일반인을 대상으로 하는 GUI기반으로 제작이 되지만, 상기 TUI모듈(2400)에 의하여 상기 촉각인터페이스장치를 통하여 시각장애인도 이용을 할 수 있다.The built-in
상기 TTS모듈(2600)은 상기 메인화면모듈(2200), 환경설정모듈(2300), 혹은 기타 어플리케이션모듈에 의하여 디스플레이 혹은 촉각디스플레이되는 요소에 대해 TTS기능을 자체적으로 수행하거나 혹은 메인운영체제에서 동작하는 TTS기능을 하는 모듈에 대해 TTS 대상이 되는 텍스트 정보를 제공하면서 TTS 수행을 요청하는 기능을 수행한다.The
상기 이벤트모듈(2700)은 사용자단말기와 촉각인터페이스장치와의 접속상태에 기초하여, 촉각인터페이스장치로의 이벤트 알림 출력신호를 생성하는 기능을 수행한다. 시각장애인은 자신이 인터페이싱하고 있는 촉각인터페이스장치가 상기 컴퓨팅장치와의 접속이 해제되는 경우를 쉽게 인지하지 못하고, 이와 같은 문제점을 해결하기 위해서, 점자OS부는 이벤트모듈을 제공함으로써, 접속장애에 대한 정보를 즉각적으로 촉각인터페이스장치로 전송하는 기능을 수행한다.The
도 5는 본 발명의 일 실시예에 따른 TUI모듈의 내부 구성을 개략적으로 도시한 도면이다. (워드 문서에는 첨부되지 않은 도면입니다)5 is a view schematically showing the internal configuration of a TUI module according to an embodiment of the present invention. (The drawing is not attached to the word document)
TUI모듈은, 상기 메인화면모듈(2200) 혹은 기타 어플리케이션에 의하여 상기 컴퓨팅장치(A)에서 디스플레이될 수 있는 화면에 상응하는 상기 촉각인터페이스장치(1000)의 촉각화면을 구현하기 위한 출력신호를 생성하는 출력신호생성부(2410); 상기 촉각인터페이스장치에서의 키입력 등의 입력을 상기 컴퓨팅장치에서 실행되고 있는 메인화면모듈 혹은 기타 어플리케이션에 입력할 수 있는 형태로 변환하여 입력신호를 생성하는 입력신호생성부(2420); 상기 출력신호생성부의 동작에 있어서 접속된 촉각인터페이스장치의 촉각디스플레이부의 화소에 적합한 스케일링 정보를 로드하는 스케일링정보로드부(2430); 및 상기 출력신호 및 상기 촉각인터페이스장치의 이전의 촉각디스플레이 정보에 기초하여 버퍼출력신호를 생성하는 버퍼출력신호생성부(2440)를 포함한다.The TUI module generates an output signal for implementing a tactile screen of the
여기서, 상기 출력신호 및 상기 버퍼출력신호는 2차원 촉각셀 어레이에 대한 제어신호를 포함한다.Here, the output signal and the buffer output signal include a control signal for a two-dimensional tactile cell array.
상기 메인화면모듈(2200) 등을 포함하는 프로그램모듈은 상기 TUI모듈(2400)을 통하여 촉각인터페이스장치로 입출력신호가 변환될 수 있다. The program module including the
한편, 상기 스케일링정보로드부(2430)는 접속된 촉각인터페이스장치로부터 자동적으로 해당 촉각인터페이스장치의 촉각디스플레이 픽셀정보를 수신하는 방식으로 촉각디스플레이 픽셀정보를 로드하는 것이 바람직하다. 혹은, 이와 같은 촉각디스플레이 픽셀정보는 상기 컴퓨팅 장치(A)의 메모리에 저장되어 있을 수 있다.Meanwhile, the scaling
도 6은 본 발명의 일 실시예에 따른 촉각인터페이스장치에서의 촉각 디스플레이화면을 개략적으로 도시한다.6 schematically illustrates a tactile display screen in a tactile interface device according to an embodiment of the present invention.
전술한 바와 같이, 상기 TUI모듈(2400)은 상기 컴퓨팅장치(A)에서 디스플레이될 수 있는 화면에 상응하는 상기 촉각인터페이스장치(1000)의 촉각화면을 구현하기 위한 출력신호를 생성하는 출력신호생성부(2410)를 포함한다.As described above, the
한편, 상기 출력신호는 2차원 촉각셀 어레이에 대한 제어신호를 포함하고, 상기 출력신호에 의하여 구현되는 촉각인터페이스장치의 촉각화면은, 상기 메인화면모듈(2200)에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면 중 컨텐츠부분에 기초하여 구현되는 컨텐츠영역(L1); 상기 현재 사용자의 커서의 위치 및 형태를 구현하는 커서영역(L2); 및 상기 메인화면모듈에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면의 페이지정보에 기초하여 구현되는 페이지영역(L3)을 포함한다.Meanwhile, the output signal includes a control signal for a two-dimensional tactile cell array, and the tactile screen of the tactile interface device implemented by the output signal may be displayed on the computing device by the
한편, 상기 도 6에서 도시된 바와 같이, 촉각인터페이스장치에는 다양한 물리적키가 구비되어 있고, 각각의 물리적키는 보다 직관적인 기능을 수행할 수 있도록 기능이 할당되어 있다. 이와 같은 물리적키의 입력에 의하여 상기 TUI모듈(2400)의 기능을 수행하고, 상기 TUI모듈에 의하여 상기 컴퓨팅장치에서 동작하는 어플리케이션의 명령이 생성되고, 해당 명령이 상기 컴퓨팅장치에서 동작하는 어플리케이션으로 입력될 수 있다.On the other hand, as shown in Figure 6, the tactile interface device is provided with a variety of physical keys, each physical key is assigned a function to perform a more intuitive function. By performing the function of the
도 7은 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 방법의 과정을 개략적으로 도시한다.7 schematically illustrates a process of a method for controlling a tactile interface device according to an embodiment of the present invention.
단계 S10에서는 시각장애인 사용자가 촉각인터페이스장치의 ON 혹은 촉각인터페이스장치의 상기 컴퓨팅장치로의 연결에 대한 키입력을 함으로써, 메인화면모듈을 실행을 호출하는 트리거단계가 수행된다. In step S10, a trigger step is performed in which a visually impaired user calls the execution of the main screen module by turning on the tactile interface device or keying the connection of the tactile interface device to the computing device.
전술한 바와 같이, 상기 점자OS부(2000)의 상기 트리거모듈(2100)부는 컴퓨팅장치의 메인운영체제의 제어 하에서 백그라운드로 동작하게되고, 상기와 같은 조건이 충족하게 되면, 우선적으로 상기 메인화면모듈(2200)의 실행을 호출한다.As described above, the
시각장애인의 경우 처음 시작하는 페이지가 일정한 것이 보다 유리하기 때문에, 바람직하게는 상기 트리거단계(S10)는 상기 메인화면모듈(2200)의 실행을 호출한다.In the case of the visually impaired, since it is more advantageous for the page to start first to be constant, preferably, the trigger step S10 calls execution of the
단계 S20에서는 상기 메인화면모듈(2200)의 실행이 수행된다. 이와 같은 메인화면모듈의 실행에 의하여 상기 컴퓨팅장치(A)에 연결된 GUI 디스플레이에서는 상기 메인화면모듈(2200)의 화면이 시각적으로 디스플레이된다. 이와 같이 상기 메인화면모듈(2200)이 기본적으로는 시각적으로 디스플레이되는 형태이기 때문에, 개발자들은 점자, 혹은 시각장애인을 고려하지 않고 일반적인 방법으로 상기 메인화면모듈(2200) 혹은 다른 응용어플리케이션을 개발할 수 있다. 또한, 시각장애인이 특정 어플리케이션을 이용함에 있어서 문제가 있는 경우 일반인이 컴퓨팅장치에 연결된 일반 인터페이스 요소(예를들어 터치디스플레이)를 조작함으로써 시각장애인이 해당 어플리케이션을 이용함에 따라 발생하는 문제점을 옆에서 해결해줄 수도 있다.In step S20, execution of the
단계 S30에서는, 상기 메인화면모듈(2200)에 의하여 디스플레이되는 메인화면에 대해 상기 TUI모듈(2400)이 실행되어, 상기 메인화면모듈(2200)의 출력요소를 상기 촉각인터페이스장치(1000)의 촉각디스플레이부(1200)의 구동신호로 변환시키거나, 혹은 상기 촉각인터페이스장치(1000)에서의 입력을 상기 메인화면모듈(2200)로 입력될 수 있는 형태의 명령으로 변환한다. 이를 편의상 제1 TUI단계(S30)라고 칭한다.In step S30, the
단계 S40에서는, 사용자의 조작에 의하여 별도의 어플리케이션이 실행된다. 상기 별도의 어플리케이션은 상기 점자OS(2000)부에 의하여 제공되는 어플리케이션 혹은 상기 점자OS부(2000)와 별도로 제공되는 어플리케이션일 수 있다.In step S40, a separate application is executed by the user's manipulation. The separate application may be an application provided by the
단계 S50에서는, 상기 별도의 어플리케이션에 의하여 디스플레이되는 화면에 대해 상기 TUI모듈(2400)이 실행되어, 상기 화면의 출력요소를 상기 촉각인터페이스장치(1000)의 촉각디스플레이부(1200)의 구동신호로 변환시키거나, 혹은 촉각인터페이스장치에서의 입력을 상기 어플리케이션으로 입력될 수 있는 형태의 명령으로 변환한다. 이를 편의상 제2 TUI단계(S50)라고 칭한다. 여기서, 상기 제2 TUI단계도 상기 점자OS부(2000)에 의하여 제공되는 상기 TUI모듈(2400)에 의하여 수행될 수 있다.In step S50, the
단계 S60에서는, 사용자의 촉각인터페이스장치의 조작에 따라 특정 영역에 대한 TTS기능 실행이 호출된다. 바람직하게는, 상기 점자OS부(2000)는 TTS 대상이 되는 부분을 결정하여, 메인운영체제에 의하여 동작하는 TTS어플리케이션에 TTS 기능을 수행할 것을 요청한다.In step S60, execution of the TTS function for a specific area is called according to the operation of the user's tactile interface device. Preferably, the
단계 S70에서는, 컴퓨팅장치와 촉각인터페이스장치와의 접속상태에 기초하여, 상기 촉각인터페이스장치(1000)에 알림을 수행하는 이벤트모듈이 실행된다.In step S70, based on the connection state between the computing device and the tactile interface device, an event module that notifies the
도 8은 본 발명의 일 실시예에 따른 트리거단계의 세부 과정을 개략적으로 도시한다.8 schematically shows a detailed process of a trigger step according to an embodiment of the present invention.
상기 트리거단계는 상기 메인화면모듈(2200)을 실행하는 단계 이전에 수행될 수 있다. 즉, 일반사용자가 컴퓨팅장치에서 상기 점자OS부(2000)를 실행시켜 상기 메인화면모듈(2200)이 호출되는 것이 아니라, 시각장애인 사용자가 상기 촉각인터페이스장치의 전원을 키거나(이 경우 자동적으로 할당된 컴퓨팅장치에 접속됨) 혹은 ON 되어 있는 촉각 디스플레이장치를 조작하여 컴퓨팅장치에 접속을 요청하는 경우에 수행될 수 있다.The trigger step may be performed before the step of executing the
상기 트리거단계는, 상기 컴퓨팅장치(A)와 상기 촉각인터페이스장치(1000)의 접속을 확인하는 단계(S11); 및 상기 컴퓨팅장치(A)와 상기 촉각인터페이스장치(1000)가 상호접속 되었다고 판단되는 경우에 상기 메인화면모듈(2200)을 실행하는 단계의 실행을 호출하는 단계(S12)를 포함한다.The triggering step includes: confirming a connection between the computing device A and the tactile interface device 1000 (S11); And invoking the execution of the step of executing the
도 9는 본 발명의 일 실시예에 따른 컴퓨팅장치에서의 표시화면과 이에 따른 촉각인터페이스장치에서의 촉각디스플레이를 개략적으로 도시한다.9 schematically illustrates a display screen in a computing device and a tactile display in the tactile interface device according to an embodiment of the present invention.
도 9의 (A)는 컴퓨팅장치가 스마트폰인 경우 메인화면모듈이 실행되었을 때의 컴퓨팅장치의 디스플레이 화면을 도시하고, 도 9의 (B)는 상기 도 9의 (A)가 디스플레이되는 시점과 동일한 시점에서의 촉각인터페이스장치의 상태를 도시한다.9 (A) shows a display screen of the computing device when the main screen module is executed when the computing device is a smartphone, and FIG. 9 (B) shows a time point when the (A) of FIG. 9 is displayed. The state of the tactile interface device at the same time is shown.
상기 메인화면모듈(2200)은 각각의 메뉴(컨텐츠)를 1차원적으로 나열하는 형태로 디스플레이하고, 이에 대한 커서를 상기 각각의 메뉴 옆에 위치하도록 하는 형태로 디스플레이한다. 즉, 메인화면모듈은 컨텐츠를 복수의 단위로 구분하고, 복수의 단위로 구분된 형태로 컴퓨팅장치에 디스플레이한다. 이후, 상기 TUI모듈은(2400)은 복수의 단위로 구분된 컨텐츠를 복수의 서브컨텐츠영역으로 구분한다.The
한편, 상기 촉각인터페이스장치(1000)에서도 마찬가지로 각각의 메뉴(컨텐츠)를 1차원적으로 나열하는 형태로 표시하고, 이에 대한 커서를 상기 각각의 메뉴 옆에 위치하도록 하는 형태로 디스플레이한다.On the other hand, the
도 10은 본 발명의 일 실시예에 따른 촉각인터페이스장치에서의 촉각디스플레이의 영역 구성을 개략적으로 도시한다.10 schematically illustrates a region configuration of a tactile display in a tactile interface device according to an embodiment of the present invention.
상기 TUI모듈(2400)에 의하여 생성되는 출력신호에 의하여 구현되는 촉각인터페이스장치의 촉각화면은, 상기 메인화면모듈(2200)에 의하여 상기 컴퓨팅장치(A)에서 디스플레이될 수 있는 화면 중 컨텐츠부분(도 9에서는 메뉴)에 기초하여 구현되는 컨텐츠영역(L1); 현재 사용자의 커서의 위치 및 형태를 구현하는 커서영역(L2); 및 상기 메인화면모듈(2200)에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면의 페이지정보에 기초하여 구현되는 페이지영역(L3)을 포함한다.The tactile screen of the tactile interface device implemented by the output signal generated by the
또한, 상기 컨텐츠영역은 복수의 서브컨텐츠영역으로 구분될 수 있고, 상기 커서영역은 복수의 서브커서영역으로 구분될 수 있고, 상기 커서영역에서 구현되는 커서의 위치는 포커싱된 상기 서브컨텐츠영역의 위치에 대응함이 바람직하다. 이와 같은 촉각디스플레이 형태는 시각장애인에게 가장 효율적으로 정보를 확인하고 입력을 수행할 수 있는 구조에 해당한다.In addition, the content area may be divided into a plurality of sub-content areas, the cursor area may be divided into a plurality of sub-cursor areas, and the position of the cursor implemented in the cursor area is the position of the focused sub-content area. It is desirable to correspond to. This type of tactile display corresponds to a structure in which information for a visually impaired person can be identified and inputted most efficiently.
상기 서브컨텐츠영역은 복수의 점자셀 그룹으로 구성되고, 각각의 점자셀 그룹은 복수개의 점자셀, 예를들어 6개의 점자셀을 포함한다. 여기서, 하나의 점자셀은 하나의 점자 구멍을 지칭한다.The sub-content area is composed of a plurality of braille cell groups, and each braille cell group includes a plurality of braille cells, for example, six braille cells. Here, one braille cell refers to one braille hole.
마찬가지로, 각각의 상기 서브커서영역 역시 1 이상의 점자셀, 바람직하게는 커서의 위치 및 형태 정보를 알릴 수 있는 형태의 복수의 점자셀을 포함한다.Similarly, each of the sub-cursor regions also includes one or more braille cells, preferably a plurality of braille cells in a form that can inform the location and shape information of the cursor.
더욱 바람직하게는, 도 10의 "포커스된 L2영역" 및 "포커스된 L1영역"에서와 같이, 상기 서브커서영역과 상기 서브커서영역에 대응되는 상기 서브컨텐츠영역은 1축으로 서로 정렬되어 있다. 이와 같은 구조에서 시각장애인은 자신의 커서가 포커스하고 있는 부분이 어디인지를 가장 효율적으로 파악할 수 있다. 이와 같은 인터페이스 형태는 본 발명의 출원인이 시각장애인을 상대로한 다양한 실험 등을 통하여 도출된 형태에 해당한다.More preferably, as in “Focused L2 region” and “Focused L1 region” in FIG. 10, the sub-cursor region and the sub-content regions corresponding to the sub-cursor region are aligned with each other in one axis. In this structure, the visually impaired can most effectively grasp where the cursor is focusing. Such an interface form corresponds to a form derived by various applicants of the present invention through various experiments with the blind.
도 11은 본 발명의 일 실시예에 따른 촉각인터페이스장치의 입출력 과정을 개략적으로 도시한다.11 schematically illustrates an input / output process of a tactile interface device according to an embodiment of the present invention.
단계 S110, S120, 및 S130은 상기 TUI모듈(2400)에 의하여 수행된다. 한편, 단계 S140에서는 어플리케이션으로 명령이 입력되고, 이에 따라서 어플리케이션의 인터페이스 혹은 화면 출력이 변화되게 된다.Steps S110, S120, and S130 are performed by the
단계 S150, S160, 및 S170은 상기 TUI모듈(2400)에 의하여 수행된다. 이와 같은 단계들의 수행에 의하여 어플리케이션의 인터페이스 혹은 화면 출력의 변화가 상기 촉각인터페이스장치(1000)로 전달이 되고, 사용자는 이와 같은 변화를 즉각적으로 인지할 수 있다.Steps S150, S160, and S170 are performed by the
도 12는 본 발명의 일 실시예에 따른 출력신호생성단계의 과정을 개략적으로 도시한다.12 schematically illustrates a process of an output signal generation step according to an embodiment of the present invention.
상기 출력신호생성단계는, 상기 컨텐츠영역에 대한 상기 2차원 촉각셀 어레이의 제어신호를 생성하는 컨텐츠영역출력신호생성단계(S310); 상기 커서영역에 대한 상기 2차원 촉각셀 어레이의 제어신호를 생성하는 커서영역출력신호생성단계(S320);및 상기 페이지영역에 대한 상기 2차원 촉각셀 어레이의 제어신호를 생성하는 페이지영역출력신호생성단계(S330);를 포함한다.The output signal generation step includes: a content area output signal generation step of generating a control signal of the two-dimensional tactile cell array for the content area (S310); Cursor area output signal generation step (S320) of generating a control signal of the two-dimensional tactile cell array for the cursor area; and page area output signal generation of generating a control signal of the two-dimensional tactile cell array for the page area Step (S330); includes.
도 10에서와 같이 상기 컨텐츠영역은 복수의 서브컨텐츠영역으로 구분될 수 있고, 상기 커서영역은 복수의 서브커서영역으로 구분될 수 있고, 상기 컨텐츠영역출력신호생성단계(S310)는 상기 메인화면모듈에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면 중 컨텐츠부분의 데이터를 구분하여, 상기 복수의 서브컨텐츠영역을 구현하는 출력신호를 생성하고, 상기 커서영역출력신호생성단계(S320)는 상기 복수의 서브컨텐츠영역 중 사용자의 커서가 위치하는 서브컨텐츠영역에 대응하는 상기 커서영역의 일부 위치에서의 촉각셀 어레이를 제어하는 출력신호를 생성한다.As shown in FIG. 10, the content area may be divided into a plurality of sub-content areas, the cursor area may be divided into a plurality of sub-cursor areas, and the content area output signal generation step (S310) is the main screen module. By separating the data of the content portion of the screen that can be displayed on the computing device, and generates an output signal to implement the plurality of sub-content area, the cursor area output signal generation step (S320) is the plurality of sub In the content area, an output signal is generated to control the tactile cell array at a part of the cursor area corresponding to the sub-content area where the user's cursor is located.
도 13은 본 발명의 일 실시예에 따른 커서영역출력신호생성단계의 과정을 개략적으로 도시한다.13 schematically shows a process of a cursor region output signal generation step according to an embodiment of the present invention.
상기 커서영역출력신호생성단계(S320)는, 사용자의 커서의 위치를 결정하는 단계(S321); 및 사용자의 커서의 형태를 결정하는 단계(S322 및 S323)을 포함한다.The cursor region output signal generation step (S320) includes: determining a location of a user's cursor (S321); And determining the shape of the user's cursor (S322 and S323).
사용자의 커서는 상기 세부컨텐츠영역의 일부를 포커싱하기 위한 기능을 수행한다. 일반적인 커서의 경우 위치 정보만을 표시하면 되지만, 촉각디스플레이 장치의 경우에는 점자픽셀이 일반 디스플레이 픽셀보다 낮은 화소를 갖고 있기 때문에, 하나의 세부컨텐츠영역에 있는 정보를 한번에 디스플레이하지 못한다는 문제점이 있을 수 있다.The user's cursor performs a function for focusing a part of the detailed content area. In the case of a general cursor, only the location information needs to be displayed, but in the case of a tactile display device, since a braille pixel has a lower pixel than a normal display pixel, there may be a problem in that information in one detail content area cannot be displayed at once. .
본 발명의 일 실시예에서는, 커서의 위치를 결정하는 것에 추가적으로 사용자의 커서의 형태를 결정하는 단계(S322 및 S323)을 수행함으로써, 보다 시각장애인이 직관적으로 소프트웨어를 이용할 수 있게 하였다.In one embodiment of the present invention, in addition to determining the location of the cursor, by performing the steps (S322 and S323) of determining the shape of the user's cursor, the visually impaired user can use the software intuitively.
구체적으로, 사용자의 커서의 형태를 결정하는 단계(S322 및 S323)는 커서가 위치하는, 혹은 커서가 지칭하는 서브컨텐츠영역의 원문과 커서가 위치하는, 혹은 커서가 지칭하는 서브컨텐츠영역의 촉각인터페이스장치의 출력신호 혹은 촉각인터페이스장치에서의 촉각디스플레이 정보를 로드하는 단계(S322) 및 상기 원문과 상기 출력신호 혹은 상기 촉각디스플레이 정보에 기초하여 커서형태를 결정하여 커서레이어출력신호생성단계(S323)를 포함한다.Specifically, the step of determining the shape of the user's cursor (S322 and S323) includes a tactile interface of a text in which the cursor is located, or the original text of the sub-content area indicated by the cursor, or the sub-content area indicated by the cursor. Loading the tactile display information from the output signal of the device or the tactile interface device (S322) and determining the cursor shape based on the original text and the output signal or the tactile display information to generate the cursor layer output signal (S323). Includes.
즉, 상기 커서영역출력신호생성단계에서는, 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 촉각인터페이스장치에서의 촉각디스플레이 정보 및 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 메인화면모듈의 원문 정보에 기초하여 상기 사용자의 커서의 형태를 결정한다.That is, in the cursor area output signal generation step, tactile display information in the tactile interface device of the sub-content area where the user's cursor is located and original information of the main screen module of the sub-content area where the user's cursor is located Based on this, the shape of the user's cursor is determined.
바람직하게는, 상기 사용자의 커서의 형태를 결정하는 단계(S322 및 S323)는, 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 촉각인터페이스장치에서의 촉각디스플레이 정보가 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 메인화면모듈의 원문 정보를 모두 포함하는 경우에는 제1 커서형태로 결정하고,Preferably, in the determining of the shape of the user's cursor (S322 and S323), the tactile display information in the tactile interface device in the sub-content area in which the user's cursor is located is a sub in which the user's cursor is located. If all the original text information of the main screen module in the content area is included, it is determined as the first cursor form,
상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 촉각인터페이스장치에서의 촉각디스플레이 정보가 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 메인화면모듈의 원문 정보의 일부를 포함하는 경우에는 제2 커서형태로 결정한다.A second cursor type when the tactile display information in the tactile interface device of the sub-content area where the user's cursor is located includes part of the original text information of the main screen module of the sub-content area where the user's cursor is located To decide.
더욱 바람직하게는, 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 메인화면모듈(2200)의 원문 정보가 제1 원문정보, 상기 제1 원문정보 다음으로 이어지는 제2 원문정보, 상기 제2 원문정보 다음으로 이어지는 제3 원문정보를 포함하는 경우, 상기 제2 커서형태는, 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 촉각인터페이스장치에서의 촉각디스플레이 정보가 상기 제1 원문정보에 대응하는 경우에 디스플레이되는 제2-1커서형태; 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 촉각인터페이스장치에서의 촉각디스플레이 정보가 상기 제2 원문정보의 일부에 대응하는 경우에 디스플레이되는 제2-2커서형태; 및 상기 사용자의 커서가 위치하는 서브컨텐츠영역의 상기 촉각인터페이스장치에서의 촉각디스플레이 정보가 상기 제3 원문정보에 대응하는 경우에 디스플레이되는 제2-2커서형태;를 포함한다.More preferably, the original text information of the
본 발명의 바람직한 실시예에서는, 컨텐츠영역에서의 정보는 복수의 컨텐츠서브영역으로 구분되어, 촉각인터페이스장치에서 표시된다.In a preferred embodiment of the present invention, information in the content area is divided into a plurality of content sub-areas, and displayed on a tactile interface device.
예를들어, 컨텐츠영역에서의 정보가 하기와 같다고 가정한다.For example, assume that information in the content area is as follows.
"The base of a refreshable braille display often integrates a pure braille keyboard. There, the input is performed by two sets of four keys on each side, while output is via a refreshable braille display consisting of a row of electro-mechanical character cells, each of which can raise or lower a combination of eight round-tipped pins. Other variants exist that use a conventional QWERTY keyboard for input and braille pins for output, as well as input-only and output-only devices. "The base of a refreshable braille display often integrates a pure braille keyboard.There, the input is performed by two sets of four keys on each side, while output is via a refreshable braille display consisting of a row of electro-mechanical character cells, Other variants exist that use a conventional QWERTY keyboard for input and braille pins for output, as well as input-only and output-only devices. each of which can raise or lower a combination of eight round-tipped pins.
On some models the position of the cursor is represented by vibrating the dots, and some models have a switch associated with each cell to move the cursor to that cell directly.On some models the position of the cursor is represented by vibrating the dots, and some models have a switch associated with each cell to move the cursor to that cell directly.
The mechanism which raises the dots uses the piezo effect of some crystals, whereby they expand when a voltage is applied to them. Such a crystal is connected to a lever, which in turn raises the dot. There has to be a crystal for each dot of the display, i.e. eight per character."The mechanism which raises the dots uses the piezo effect of some crystals, whereby they expand when a voltage is applied to them. Such a crystal is connected to a lever, which in turn raises the dot. There has to be a crystal for each dot of the display, i.e. eight per character. "
이 경우, 상기 TUI모듈은 "The base of a refreshable braille display often integrates a pure braille keyboard. There, the input is performed by two sets of four keys on each side, while output is via a refreshable braille display consisting of a row of electro-mechanical character cells, each of which can raise or lower a combination of eight round-tipped pins. Other variants exist that use a conventional QWERTY keyboard for input and braille pins for output, as well as input-only and output-only devices."를 제1 서브컨텐츠영역으로 할당하여, 이에 대한 출력신호를 생성하고,In this case, the TUI module displays "The base of a refreshable braille display often integrates a pure braille keyboard. There, the input is performed by two sets of four keys on each side, while output is via a refreshable braille display consisting of a row of electro-mechanical character cells, each of which can raise or lower a combination of eight round-tipped pins.Other variants exist that use a conventional QWERTY keyboard for input and braille pins for output, as well as input-only and output-only devices. "as the first sub-content area, to generate an output signal for this,
"On some models the position of the cursor is represented by vibrating the dots, and some models have a switch associated with each cell to move the cursor to that cell directly."를 제2 서브컨텐츠영역으로 할당하여, 이에 대한 출력신호를 생성하고,Output signal for this by assigning "On some models the position of the cursor is represented by vibrating the dots, and some models have a switch associated with each cell to move the cursor to that cell directly." Create
"The mechanism which raises the dots uses the piezo effect of some crystals, whereby they expand when a voltage is applied to them. Such a crystal is connected to a lever, which in turn raises the dot. There has to be a crystal for each dot of the display, i.e. eight per character."를 제3 서브컨텐츠영역으로 할당하여, 이에 대한 출력신호를 생성할 수 있다. "The mechanism which raises the dots uses the piezo effect of some crystals, whereby they expand when a voltage is applied to them. Such a crystal is connected to a lever, which in turn raises the dot.There has to be a crystal for each By assigning dot of the display, ie eight per character. "as the third sub-content area, an output signal for this can be generated.
그러나, 하나의 서브컨텐츠영역은 30개의 CHARACTER를 표시할 수 있다고 하는 경우에, 상기 제2 서브컨텐츠영역의 원문은 하기와 같이 구분될 수 있다.However, when it is said that one sub-content area can display 30 CHARACTER, the original text of the second sub-content area can be classified as follows.
"On some models the position of" (제1 원문정보)"On some models the position of" (first original information)
"the cursor is represented by v" (제2 원문정보의 제1 부분)"the cursor is represented by v" (the first part of the original text information)
"ibrating the dots, and some mo" (제2 원문정보의 제2 부분)"ibrating the dots, and some mo" (second part of the second original text)
"dels have a switch associated " (제2 원문정보의 제3 부분)"dels have a switch associated" (second part of the original text information)
"with each cell to move the cur" (제2 원문정보의 제4 부분)"with each cell to move the cur" (4th part of the 2nd original text)
"sor to that cell directly." (제3 원문정보)"sor to that cell directly." (3rd original information)
여기서, 하나의 서브컨텐츠영역은 상기 제1 원문정보 내지 제3 원문정보 중 어느 하나만을 표시할 수 있다. 이 경우, 시각장애인은 상기 서브컨텐츠영역(제2 서브컨텐츠영역)에 대응되는 서브커서영역에 표시되는 커서의 점자정보를 확인하여, 현재 촉각인터페이스장치에서 출력되는 서브컨텐츠영역의 정보가 전체 정보 중 어디에 위치하는 지 알 수 있다. 이후, 시각장애인은 촉각인터페이스장치의 방향키를 조작함으로써, 제1원문정보 내지 제3원문정보 사이에서 이동을 할 수 있다. 이와 같은 방법으로 촉각디스플레이 장치의 촉각픽셀의 한계점에 따른 불편함을 최소화시키면서, 시각장애인이 보다 직관적으로 정보를 파악할 수 있다.Here, one sub-content area may display only one of the first original text information and the third original text information. In this case, the visually impaired user checks the braille information of the cursor displayed on the sub-cursor area corresponding to the sub-content area (second sub-content area), and the information of the sub-content area currently output from the tactile interface device is among the entire information. You can see where it is located. Thereafter, the visually impaired person can move between the first text information and the third text information by operating the direction keys of the tactile interface device. In this way, the visually impaired user can grasp information more intuitively while minimizing discomfort caused by the limit of the tactile pixel of the tactile display device.
도 14는 본 발명의 일 실시예에 따른 커서영역 표기의 형태의 일예를 개략적으로 도시한다.14 schematically shows an example of a form of a cursor area notation according to an embodiment of the present invention.
도 14에서는 총 4가지의 커서영역, 더욱 바람직하게는 서브커서영역에 표시될 수 있는 커서형태의 예를 도시한다. 이와 같은 커서형태를 파악하고, 방향키를 조작함으로써, 상기 서브컨텐츠레이어의 표시사항을 변경할 수 있다.14 shows an example of a cursor type that can be displayed on a total of four cursor areas, more preferably, a sub-cursor area. By grasping such a cursor shape and operating the arrow keys, the display contents of the sub content layer can be changed.
상기 제1 커서형태, 상기 제2-1커서형태, 상기 제2-2커서형태, 및 상기 제2-3커서형태는 각각 도 14에서의 1번째 커서형태, 2번째 커서형태, 3번째 커서형태, 4번째 커서형태에 해당한다.The first cursor shape, the 2-1 cursor shape, the 2-2 cursor shape, and the 2-3 cursor shape are the first cursor shape, the second cursor shape, and the third cursor shape in FIG. 14, respectively. , Corresponds to the fourth cursor shape.
도 15는 본 발명의 일 실시예에 따른 커서영역 표기의 몇 예들을 개략적으로 도시한다.15 schematically shows some examples of cursor region notation according to an embodiment of the present invention.
도 15의 (A)에 도시된 바와 같이, 전체컨텐츠는 컨텐츠 1 ~ 6으로 구분되어, 각각의 서브컨텐츠영역에 도시되고, 사용자가 첫번째 서브컨텐츠영역에 포커싱을 하는 경우에, 상기 첫번째 서브컨텐츠영역에 나란하게 혹은 정렬되어 위치하는 서브커서영역에 커서에 대한 촉각그래픽이 표현된다.As shown in FIG. 15 (A), the entire content is divided into
여기서, 컨텐츠 1이 하나의 서브컨텐츠영역에 모두 표시가 되지 못하는 경우, 가상적으로 컨텐츠 1 이 "컨텐츠 1A 컨텐츠 1B 컨텐츠 1C"로 구분하고, 초기에는 도 15의 (B)에서와 같이 컨텐츠 1A를 촉각그래픽으로 표시하고, 좌측의 커서에 대한 촉각그래픽은 상기 도 14의 두번째 커서형태를 갖는다.Here, when all of the
이후 사용자가 우측 방향키를 누르는 경우에, 도 15의 (C)에서와 같이 컨텐츠 1B를 촉각그래픽으로 표시하고, 좌측의 커서에 대한 촉각그래픽은 상기 도 14의 세번째 커서형태를 갖는다.Then, when the user presses the right arrow key, as shown in FIG. 15 (C), the content 1B is displayed as a tactile graphic, and the tactile graphic for the left cursor has the third cursor form of FIG. 14.
이후 사용자가 우측 방향키를 누르는 경우에, 도 15의 (D)에서와 같이 컨텐츠 1C를 촉각그래픽으로 표시하고, 좌측의 커서에 대한 촉각그래픽은 상기 도 14의 네번째 커서형태를 갖는다.Thereafter, when the user presses the right arrow key, as shown in FIG. 15 (D), the content 1C is displayed as a tactile graphic, and the tactile graphic for the left cursor has the fourth cursor form of FIG. 14.
도 16은 본 발명의 일 실시예에 따른 버퍼출력신호생성단계의 과정을 개략적으로 도시한다.16 schematically illustrates a process of a buffer output signal generation step according to an embodiment of the present invention.
이하에서는 설명의 편의를 위하여 메인화면모듈의 변환을 대상으로 버퍼출력신호생성단계의 동작에 대해 설명한다. 다만, 상기 버퍼출력신호생성단계는 상기 메인화면모듈의 변환뿐만 아니라, 다른 어플리케이션의 표시화면의 변환에 적용될 수 있다.Hereinafter, for convenience of description, the operation of the buffer output signal generation step for conversion of the main screen module will be described. However, the buffer output signal generation step may be applied to conversion of the display screen of another application as well as conversion of the main screen module.
전술한 바와 같이, 상기 제1 TUI단계(S30)는 상기 메인화면모듈(2200) 혹은 다른 어플리케이션에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면에 상응하는 상기 촉각인터페이스장치의 촉각화면을 구현하기 위한 출력신호를 생성하는 출력신호생성단계(S150); 및 상기 출력신호 및 상기 촉각인터페이스장치의 이전의 촉각디스플레이 정보에 기초하여 버퍼출력신호를 생성하는 버퍼출력신호생성단계(S160);를 포함한다.As described above, the first TUI step (S30) is an output for implementing a tactile screen of the tactile interface device corresponding to a screen that can be displayed on the computing device by the
여기서, 상기 출력신호 및 상기 버퍼출력신호는 2차원 촉각셀 어레이에 대한 제어신호를 포함한다.Here, the output signal and the buffer output signal include a control signal for a two-dimensional tactile cell array.
바람직하게는, 상기 제1 TUI단계(S30)는, 상기 메인화면모듈에 의하여 상기 컴퓨팅장치에서 디스플레이될 수 있는 화면이 변경할 때마다 수행이 되고, 상기 버퍼출력신호생성단계는, 바로 이전의 상기 출력신호와 현재의 변경된 출력신호의 차이에 기초하여, 상기 버퍼출력신호를 생성한다.Preferably, the first TUI step (S30) is performed whenever the screen that can be displayed on the computing device is changed by the main screen module, and the buffer output signal generation step is performed immediately before the output. The buffer output signal is generated based on the difference between the signal and the current changed output signal.
구체적으로, 상기 버퍼출력신호생성단계(S160)는, 이전, 즉 현재 사용자의 입력으로 화면이 바뀌기 전에 상기 출력신호생성부에 의하여 생성된 이전 출력신호를 로드하는 단계(S410); Specifically, the buffer output signal generation step (S160) comprises: loading a previous output signal generated by the output signal generation unit before the screen changes to the previous user's input (S410);
현재 사용자의 입력으로 화면이 바뀐 후에 상기 출력신호생성부에 의하여 생성된 현재 출력신호와 상기 이전 출력신호와의 차이를 계산하는 단계(S420);Calculating a difference between the current output signal generated by the output signal generation unit and the previous output signal after the screen is changed by the current user input (S420);
상기 현재 출력신호와 상기 이전 출력신호와의 차이에 기초하여 버퍼출력신호를 생성하는 단계(S430)을 포함한다.And generating a buffer output signal based on the difference between the current output signal and the previous output signal (S430).
이와 같은 버퍼출력신호는 촉각인터페이스장치에서의 촉각 어레이 중 현재 바뀐 부분에 대한 제어신호만을 포함하기 때문에, 촉각인터페이스장치가 보다 물리적으로 부드럽게 동작할 수 있게 한다.Since the buffer output signal includes only the control signal for the currently changed portion of the tactile array in the tactile interface device, the tactile interface device can operate more physically and smoothly.
도 17은 본 발명의 일 실시예에 따른 TTS단계의 일 예를 개략적으로 도시한다.17 schematically shows an example of a TTS step according to an embodiment of the present invention.
전술한 바와 같이, 상기 촉각인터페이스장치(1000)를 제어하는 방법은, 사용자의 명령에 따라 TTS명령을 수행하는, TTS단계를 더 포함한다.As described above, the method for controlling the
이와 같은 상기 TTS단계는, 상기 촉각인터페이스장치로부터의 입력신호 혹은 명령에 기초하여 TTS를 수행하는 지 여부를 결정하는 단계(S510); 현재 설정된 TTS모드에 대한 정보를 로드하는 단계(S520); 현재 사용자의 커서의 위치를 로드하는 커서위치로드단계(S530); 및 상기 TTS모드 및 상기 사용자의 커서의 위치에 기초하여, TTS대상이 되는 원문 정보를 결정하는 단계(S540); 및 상기 S540단계에서 결정된 원문정보를 TTS수행모듈에 실행을 요청하는 단계(S550)을 포함한다.The TTS step includes: determining whether to perform TTS based on an input signal or command from the tactile interface device (S510); Loading information about the currently set TTS mode (S520); A cursor position loading step of loading the current user's cursor position (S530); And determining original text information as a TTS object based on the TTS mode and the location of the user's cursor (S540). And requesting execution of the original text information determined in step S540 to the TTS execution module (S550).
바람직하게는, 상기 TTS단계는 서브컨텐츠영역 별로 수행될 수 있다. 즉, 현재 커서가 위치하는 서브컨텐츠영역의 원문이 상기 TTS단계에 의하여 음성으로 출력될 수 있다.Preferably, the TTS step may be performed for each sub-content area. That is, the original text of the sub-content area in which the current cursor is located may be output in voice by the TTS step.
더욱 바람직하게는, 상기 TTS모드는 상기 포커싱된 서브컨텐츠영역에 대해 TTS를 수행하는 모드; 및 상기 포커싱된 서브컨텐츠영역 및 상기 포커싱된 서브컨텐츠영역에 이어지는 서브컨텐트영역을 포함하여 TTS를 수행하는 모드를 포함할 수 있다.More preferably, the TTS mode includes a mode for performing TTS on the focused sub-content area; And a mode for performing TTS including the focused sub-content area and a sub-content area following the focused sub-content area.
즉, "On some models the position of the cursor is represented by vibrating the dots, and some models have a switch associated with each cell to move the cursor to that cell directly."가 제1 서브컨텐츠영역에 해당하고, "The mechanism which raises the dots uses the piezo effect of some crystals, whereby they expand when a voltage is applied to them. Such a crystal is connected to a lever, which in turn raises the dot. There has to be a crystal for each dot of the display, i.e. eight per character."가 제2 서브컨텐츠영역에 해당하고, 커서가 포커싱된 영역이 제1 서브컨텐츠영역인 경우에, TTS모드는 제1 서브컨텐츠영역만 처리하는 제1 모드 및 제1 서브컨텐츠영역 및 제2 서브컨텐츠영역을 처리하되, 사용자의 OFF와 관련된 명령이 입력되면, 중지하는 제2 모드를 포함할 수 있다.That is, "On some models the position of the cursor is represented by vibrating the dots, and some models have a switch associated with each cell to move the cursor to that cell directly." Corresponds to the first subcontent area, and "The mechanism which raises the dots uses the piezo effect of some crystals, whereby they expand when a voltage is applied to them.Such a crystal is connected to a lever, which in turn raises the dot.There has to be a crystal for each dot of When the display, ie eight per character. "corresponds to the second sub-content area, and the area where the cursor is focused is the first sub-content area, the TTS mode is a first mode and a first mode that processes only the first sub-content area. It may include a second mode of processing a sub-content area and a second sub-content area, but stopping when a command related to a user's OFF is input.
도 18은 본 발명의 일 실시예에 따른 이벤트단계의 일 예를 개략적으로 도시한다.18 schematically shows an example of an event step according to an embodiment of the present invention.
도 18에 도시된 바와 같이, 이벤트단계는, 사용자단말기와 촉각인터페이스장치와의 접속상태를 판단하는 단계(S610); 및 상기 접속상태가 기설정된 기준에 해당한다고 판단하는 경우에 상기 촉각인터페이스장치로 출력할 이벤트출력신호를 생성하는 단계(S620);를 포함한다.As shown in FIG. 18, the event step includes: determining a connection state between the user terminal and the tactile interface device (S610); And generating an event output signal to be output to the tactile interface device when it is determined that the connection state corresponds to a preset criterion (S620).
이와 같은 이벤트단계의 수행에 의하여, 시각장애인은 촉각인터페이스장치와 컴퓨팅장치의 접속에 장애가 생기는 경우에, 직관적으로 장애 여부를 파악할 수 있다.By performing such an event step, the visually impaired user can intuitively determine whether or not the impairment occurs when a connection between the tactile interface device and the computing device occurs.
도 19는 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 화면을 도시하고, 도 20은 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 화면을 도시하고, 도 21은 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 화면을 도시한다. 19 shows a screen for controlling a tactile interface device according to an embodiment of the present invention, FIG. 20 shows a screen for controlling a tactile interface device according to an embodiment of the present invention, and FIG. A screen for controlling a tactile interface device according to an embodiment is illustrated.
도 19 내지 도 21에 도시된 바와 같이, 본 발명의 일 실시예에 따른 촉각인터페이스장치를 제어하는 방법은 어떤 프로그램이라도 보다 시각장애인 사용자에게 직관적으로 프로그램과 인터페이스를 할 수 있도록 하고, 또한, 프로그램 개발자의 입장에서는 점자 등을 모르고, 이에 대한 별도의 입출력 API를 개발하지 않더라도, 일반적인 소프트웨어의 개발을 통하여 시각장애인용 소프트웨어를 공급할 수 있다.19 to 21, a method of controlling a tactile interface device according to an embodiment of the present invention allows any program to intuitively interface with a program for a visually impaired user, and also a program developer For those who do not know braille, etc., and do not develop a separate input / output API, they can supply software for the visually impaired through general software development.
2. 촉각인터페이스장치를 통하여 이미지 2. Image through tactile interface device 뷰어viewer 기능을 제공하는 방법 How to provide features
도 22는 본 발명의 일 실시예에 따른 이미지뷰어모듈과 촉각인터페이스장치의 구성을 개략적으로 도시한다.22 schematically shows the configuration of an image viewer module and a tactile interface device according to an embodiment of the present invention.
도 22에 도시된 컴퓨팅장치(A)의 구성은 전술한 도 2, 3을 참조한 설명에 따른다. 한편, 도 22의 점자OS부(2000)의 구성은 도 4 내지 18을 참조한 설명에 따른다.The configuration of the computing device A shown in FIG. 22 follows the description with reference to FIGS. 2 and 3 above. Meanwhile, the configuration of the
한편, 도 22의 이미지뷰어모듈(5000)은 도 3의 응용프로그램부(3200)의 한 형태에 해당할 수 있고, 혹은 도 4의 내장어플리케이션모듈(2500)에 해당할 수 있다.Meanwhile, the
마찬가지로, 상기 이미지뷰어모듈(5000)에서 출력되는 정보는 상기 컴퓨팅장치(A)에 연결된 디스플레이장치에서 일반인이 인식할 수 있는 시각적 형태로 표시될 수 있고, 마찬가지로 상기 점자OS부(2000)에 내장되는 공통 TUI모듈 혹은 상기 이미지뷰어모듈(5000)에 내장되는 이미지뷰어모듈만을 위한 특수한 TUI모듈에 의하여 촉각인터페이스장치(1000)에서 시각장애인이 인터페이스 할 수 있는 형태로 입출력신호가 변환될 수도 있다.Similarly, the information output from the
바람직하게는, 본 발명의 일 실시예에서는 상기 점자OS부(2000)는 공통된 TUI모듈(2400)을 포함하고 있고, 상기 이미지뷰어모듈(5000)에는 상기 이미지뷰어모듈의 특수성을 고려하여 시각장애인이 인터페이스를 더욱 원활하게 할 수 있는 별도의 TUI모듈(미도시)을 포함함이 바람직하다.Preferably, in one embodiment of the present invention, the
마찬가지로, 상기 이미지뷰어모듈(5000)의 실행은 상기 점자OS부(2000)의 제어를 받게 되고, 상기 이미지뷰어모듈(5000)이 제어되는 동안에 상기 TTS모듈(2600), 상기 이벤트모듈(2700) 등이 동시에 실행될 수도 있다.Similarly, the execution of the
한편, 상기 컴퓨팅장치(A)에서는 이미지뷰어모듈(5000)이 실행되어, 메인화면단계, 이미지선택단계 및 이미지출력단계 중 어느 하나가 수행될 수 있다. 이에 따라 상기 컴퓨팅장치(A)에서의 입력, 혹은 상기 촉각인터페이스장치(1000)에서의 입력에 따라 메인화면단계, 이미지선택단계 및 이미지출력단계 중 어느 하나의 세부 과정들이 수행될 수 있다.Meanwhile, in the computing device A, the
상기 이미지뷰어모듈(5000)이 실행되는 경우, 해당 단계에 따른 화면이 상기 컴퓨팅장치(A)에 표시되고, 상기 컴퓨팅장치(A)에 표시된 화면이 상기 촉각인터페이스장치(1000)로의 출력신호로 변환되어, 상기 컴퓨팅장치(A)에 표시된 화면에 상응하는 촉각디스플레이가 상기 촉각인터페이스장치(1000)에 표시될 수 있다.When the
상기 이미지뷰어모듈(5000)은 그 내부에 위치하거나 또는 외부에 별도의 장치로 마련되는 이미지데이터베이스(7000)와 연결될 수 있다. 상기 이미지데이터베이스(7000)에는 상기 컴퓨팅장치(A) 또는 상기 촉각인터페이스장치(1000)를 통해 출력될 수 있는 1 이상의 이미지 파일이 저장되어 있을 수 있다. 본 발명의 일 실시예에서 상기 이미지뷰어모듈(5000)은 사용자의 선택에 따라 상기 이미지데이터베이스(7000)로부터 저장된 이미지 파일을 불러와 상기 컴퓨팅장치(A) 또는 상기 촉각인터페이스장치(1000)를 통해 출력할 수 있다.The
도 22에는 하나의 이미지데이터베이스(7000)만이 도시되어 있으나, 본 발명의 일 실시예에서 상기 이미지뷰어모듈(5000)은 2 이상의 이미지데이터베이스(7000)와 연결되어 있을 수 있고, 이 때, 상기 이미지뷰어모듈(5000)은 상기 2 이상의 이미지데이터베이스(7000)의 목록을 저장하고 있을 수 있다.Although only one
도 23은 본 발명의 일 실시예에 따른 이미지뷰어모듈의 내부 구성을 개략적으로 도시한다.23 schematically shows the internal configuration of an image viewer module according to an embodiment of the present invention.
전술한 바와 같이 상기 이미지뷰어모듈(5000)은 프로세서를 포함하는 컴퓨팅장치(A)로 구현되고, 상기 컴퓨팅장치(A)에 접속되어 사용자와 상호작용을 할 수 있는 촉각인터페이스장치(1000)를 통하여 이미지 뷰어 기능을 제공한다.As described above, the
한편, 상기 이미지뷰어모듈(5000)은 상기 이미지뷰어모듈의 내부 기능 모듈에서 입출력 되는 신호를 상기 촉각인터페이스장치(1000)에서 보다 직관적으로 인식하거나 혹은 입력할 수 있는 형태로 변환하는 TUI모듈(5100)(여기서 TUI모듈은 도 4의 점자OS부(2000)의 TUI모듈(2400)과 별도로 상기 이미지뷰어모듈에 포함된 모듈임이 바람직하다); 사용자의 입력에 의해 출력 될 이미지를 선택하는 이미지선택부(5200); 및 선택 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지출력부(5300); 를 포함한다.On the other hand, the
상기 TUI모듈(5100)은 상기 이미지선택부(5200), 이미지출력부(5300)에서 그래픽으로 디스플레이 될 수 있는 정보를 상기 촉각인터페이스장치(1000)에서 촉각그래픽으로 디스플레이 될 수 있는 형태로 변환한다.The
한편, 이와 같은 상기 TUI모듈(5100)은 제1 방법으로 표시화면을 촉각인터페이스장치로의 출력신호로 변환할 수 있는 제1출력신호생성부(5111); 및 제2 방법으로 표시화면을 촉각인터페이스장치로의 출력신호로 변환할 수 있는 제2출력신호생성부(5112)를 포함한다. 이는 상기 도 4 및 도 5의 점자OS부(2000)에서 제공하는 일반 TUI모듈(2400)과 상이한 점으로서, 모든 정보에 대해 동일한 형태로 변환하는 것이 아니라 이미지라는 특수성에 기인하여 정보의 카테고리에 따라 상이한 방법으로 촉각셀을 제어함으로써 시각장애인에게 보다 직관적으로 이미지 뷰어 기능을 제공할 수 있다.Meanwhile, the
우선, 상기 이미지뷰어모듈(5000)이 구동되면 우선적으로는 한편, 상기 컴퓨팅장치(A) 내에서 상기 이미지선택부(5200)가 실행된다. 이와 같은 이미지선택부(5200)는 이미지데이터베이스(7000)에 저장되어 있는 이미지를 사용자가 선택하도록 하여 선택된 이미지를 상기 촉각인터페이스장치(1000)를 통하여 시각장애인에게 직접적으로 제공하도록 하는 구성요소에 해당한다. 이미지선택부(5200)를 통해 사용자가 이미지를 선택하게 되면, 선택된 이미지를 상기 컴퓨팅장치(A) 및 상기 촉각인터페이스장치(1000)를 출력하도록 하는 이미지출력부(5300)가 실행된다.First, when the
상기 이미지출력부(5300)가 상기 컴퓨팅장치(A) 내에서 실행되면, 상기 컴퓨팅장치(A)에 연결된 시각적 디스플레이장치로 선택된 이미지를 출력하고, 상기 컴퓨팅장치(A) 내에서 상기 TUI모듈(5100)이 실행되어, 상기 이미지출력부(5300)에 의하여 상기 디스플레이장치에서 디스플레이 되는 화면에 상응하는 상기 촉각인터페이스장치(1000)의 촉각화면을 구현하기 위한 출력신호를 생성하여 이미지를 출력하게 된다.When the
도 24는 본 발명의 일 실시예에 따른 이미지선택부의 동작의 세부 단계를 개략적으로 도시한다.24 schematically shows detailed steps of the operation of the image selection unit according to an embodiment of the present invention.
도 24를 참조하면 본 발명의 일 실시예에 따른 상기 이미지선택부(5200)는 이미지데이터베이스목록표시단계(S710); 이미지데이터베이스선택단계(S720); 이미지카테고리표시단계(S730); 이미지카테고리선택단계(S740); 이미지검색단계 (S750); 이미지목록표시단계(S760); 및 표시이미지선택단계(S770); 를 포함하는 이미지선택단계를 수행하여 이미지를 선택할 수 있다.Referring to Figure 24, the
본 발명의 일 실시예에서 상기 이미지선택부(5200)가 실행되면 이미지가 저장되어 있는 1 이상의 이미지데이터베이스(7000)의 목록을 표시하는 이미지데이터베이스목록표시단계(S710)가 수행된다. 이 때, 상기 TUI모듈(5100)은 상기 이미지선택부(5200)의 입출력신호를 상기 촉각인터페이스장치(1000)에서 입출력 되는 형태로 변환하는 역할을 수행할 수 있다. 이와 같은 상기 TUI모듈(5100)의 역할은 이하의 모든 단계에서 동일하게 수행되어 상기 촉각인터페이스장치(1000)에서의 입출력을 제어할 수 있다.In one embodiment of the present invention, when the
본 발명의 일 실시예에서 상기 이미지데이터베이스(7000)의 목록은 상기 이미지선택부(5200)에 저장되어 있을 수 있고, 상기 이미지데이터베이스의 목록은 상기 이미지뷰어모듈(5000)이 상기 컴퓨팅장치(A) 내부 혹은 외부의 접근 가능한 모든 이미지데이터베이스(7000)에 대한 정보를 포함하고 있다. 본 발명의 일 실시예에서 상기 이미지선택부(5200)는 기설정된 시간 간격에 따라 상기 이미지데이터베이스의 목록을 갱신하여 접근 가능한 이미지데이터베이스에 대한 정보를 지속적으로 추가 혹은 삭제할 수 있다. 혹은, 상기 이미지선택부(5200)는 상기 이미지데이터베이스목록표시단계(S710)가 수행될 때 마다 상기 이미지데이터베이스의 목록을 갱신할 수 있다. In one embodiment of the present invention, the list of the
이 후, 사용자의 입력에 의해 이미지를 불러 올 이미지데이터베이스를 선택하는 이미지데이터베이스선택단계(S720)가 수행된다. 상기 이미지데이터베이스선택단계(S720)에서는 상기 이미지데이터베이스목록표시단계 (S710)에서 표시 된 상기 이미지데이터베이스(7000)의 목록에서 원하는 이미지데이터베이스를 사용자가 상기 촉각인터페이스장치(1000)를 통해 선택할 수 있다. 사용자는 상기 촉각인터페이스장치(1000)의 방향키 등을 이용하여 상기 이미지데이터베이스의 목록에 위치한 커서를 이동시키고, 엔터키 등을 이용하여 커서가 위치한 이미지데이터베이스를 선택할 수 있다. 이와 같은 입력 및 선택 과정은 상기 TUI모듈(5100)에 의해 수행될 수 있다.Thereafter, an image database selection step (S720) of selecting an image database from which an image is to be loaded is performed by a user input. In the image database selection step (S720), a user can select a desired image database from the list of the
이 후, 상기 이미지데이터베이스에 저장된 이미지의 카테고리를 표시하는 이미지카테고리표시단계(S730)가 수행된다. 본 발명의 일 실시예에서 상기 이미지데이터베이스에는 저장된 이미지가 카테고리로 분류되어 있을 수 있다. 상기 카테고리는 상기 이미지의 주제에 따라 분류될 수도 있고, 혹은 상기 이미지의 파일 형식에 따라 분류될 수도 있다. 예를 들어 상기 카테고리는 과학, 국어, 수학, 영어, 점자, 기타 등일 수 있다. 이와 같은 카테고리에 의해 저장된 이미지가 분류됨으로써 사용자가 용이하게 표시를 원하는 이미지에 접근할 수 있는 효과를 발휘할 수 있다.Thereafter, an image category display step S730 of displaying a category of the image stored in the image database is performed. In one embodiment of the present invention, stored images may be classified into categories in the image database. The category may be classified according to the subject of the image, or may be classified according to the file format of the image. For example, the category may be science, Korean language, mathematics, English, Braille, etc. By storing the images stored by the above categories, it is possible to exert the effect that the user can easily access the images desired to be displayed.
이 후, 사용자의 입력에 의해 카테고리를 선택하는 이미지카테고리선택단계(S740) 혹은 사용자의 입력에 의해 이미지를 검색하는 이미지검색단계(S750)가 선택적으로 수행될 수 있다.Thereafter, an image category selection step (S740) of selecting a category by the user's input or an image search step (S750) of searching for an image by the user's input may be selectively performed.
상기 이미지카테고리선택단계(S740)에서는 상기 이미지카테고리표시단계 (S730)에서 표시 된 이미지의 카테고리 중 사용자가 원하는 카테고리를 선택하게 된다. 이는 상기 이미지데이터베이스선택단계(S720)와 유사하게, 표시 된 상기 이미지의 카테고리에서 원하는 카테고리를 사용자가 상기 촉각인터페이스장치(1000)를 통해 선택할 수 있다.In the image category selection step (S740), a user's desired category is selected from categories of images displayed in the image category display step (S730). This is similar to the image database selection step (S720), the user can select a desired category from the displayed category of the image through the
본 발명의 일 실시예에서는 이와 같이 카테고리를 선택하게 되면 상기 카테고리 내에 있는 이미지의 목록을 표시하는 이미지목록표시단계(S760)가 수행될 수 있다. 반면, 본 발명의 다른 실시예에서는 상기 카테고리 내에 서브카테고리가 포함될 수 있고, 서브카테고리 내에 이미지가 포함되도록 분류되어 있을 수 있다. 이와 같은 실시예의 경우에는 상기 이미지카테고리선택단계S740)를 통해 카테고리를 선택하는 경우 선택된 카테고리 내의 서브카테고리 목록을 표시하도록 상기 이미지카테고리표시단계(S730)가 다시 수행될 수 있다.In one embodiment of the present invention, when a category is selected as described above, an image list display step S760 of displaying a list of images in the category may be performed. On the other hand, in another embodiment of the present invention, a sub-category may be included in the category, and may be classified to include an image in the sub-category. In the case of such an embodiment, when selecting a category through the image category selection step S740, the image category display step S730 may be performed again to display a list of sub-categories in the selected category.
상기 이미지검색단계(S750)에서는 사용자가 검색어 등을 통해 상기 이미지데이터베이스(7000)에 저장된 이미지를 검색할 수 있다. 본 발명의 일 실시예에서 사용자는 검색어를 직접 입력하거나, 혹은 저장되어 있는 검색어 목록 중 검색어를 선택하여 검색을 수행할 수 있다.In the image search step (S750), a user may search for an image stored in the
본 발명의 일 실시예에서 상기 이미지검색단계(S750)는 상기 이미지카테고리표시단계(S740)가 수행 된 이후에 수행될 수도 있고, 혹은 상기 이미지목록표시단계(S760)가 수행 된 이후에 수행될 수도 있다. 본 발명의 일 실시예에서 상기 이미지카테고리표시단계(S740)가 수행 된 이후에 상기 이미지검색단계(S750)가 수행되는 경우, 상기 이미지검색단계(S750)의 검색어에 해당하는 모든 이미지를 검색하고, 상기 이미지카테고리선택단계(S740)에 의해 카테고리가 선택 되고, 상기 이미지목록표시단계(S760)가 수행 된 이후에 상기 이미지검색단계(S750)가 수행되는 경우, 선택 된 상기 카테고리에 해당되는 이미지 중 상기 이미지검색단계(S750)의 검색어에 해당하는 이미지만을 검색할 수 있다.In one embodiment of the present invention, the image search step (S750) may be performed after the image category display step (S740) is performed, or may be performed after the image list display step (S760) is performed. have. When the image search step (S750) is performed after the image category display step (S740) is performed in one embodiment of the present invention, all images corresponding to the search term of the image search step (S750) are searched for, If a category is selected by the image category selection step (S740), and the image search step (S750) is performed after the image list display step (S760) is performed, the image corresponding to the selected category is the Only the image corresponding to the search word in the image search step S750 may be searched.
이 후, 선택된 이미지데이터베이스, 선택된 카테고리 및 이미지 검색결과 중 1 이상에 기초하여 출력 가능한 이미지의 목록을 표시하는 이미지목록표시단계(S760)가 수행된다. 본 발명의 일 실시예에서 사용자가 상기 이미지카테고리선택단계(S740)를 통해 카테고리를 선택하여 상기 이미지목록표시단계(S760)가 수행되는 경우에는 선택된 이미지데이터베이스 중 선택된 상기 카테고리에 기초하여 상기 카테고리에 해당하는 이미지의 목록을 표시하고, 상기 이미지검색단계(S750)를 통해 검색을 수행하여 상기 이미지목록표시단계(S760)가 수행되는 경우에는 선택된 이미지데이터베이스 중 검색결과에 해당하는 이미지의 목록을 표시하고, 상기 이미지카테고리선택단계 (S740)를 통해 카테고리를 선택한 후 상기 이미지검색단계(S750)를 통해 검색을 수행하여 상기 이미지목록표시단계(S760)가 수행되는 경우에는 선택된 이미지데이터베이스의 선택된 카테고리 중 검색결과에 해당하는 이미지의 목록을 표시할 수 있다.Thereafter, an image list display step (S760) of displaying a list of outputable images based on at least one of the selected image database, the selected category, and the image search result is performed. In an embodiment of the present invention, when the user selects a category through the image category selection step (S740) and the image list display step (S760) is performed, it corresponds to the category based on the selected category from the selected image database. Display a list of images to be performed, and perform a search through the image search step (S750), and when the image list display step (S760) is performed, a list of images corresponding to the search results among the selected image databases is displayed. When a category is selected through the image category selection step (S740) and a search is performed through the image search step (S750), when the image list display step (S760) is performed, a search result among selected categories of the selected image database is performed. A list of corresponding images can be displayed.
본 발명의 일 실시예에서는 상기 이미지목록표시단계(S760) 이후 상기 이미지검색단계(S750)가 사용자의 선택에 의해 다시 수행될 수 있다.In one embodiment of the present invention, after the image list display step (S760), the image search step (S750) may be performed again by the user's selection.
이 후, 사용자의 입력에 의해 출력할 이미지를 선택하는 표시이미지선택단계(S770)가 수행된다. 상기 표시이미지선택단계(S770)에서는 상기 이미지목록표시단계(S760)에서 표시 된 이미지 목록 중 사용자가 원하는 이미지를 선택하게 된다. 이는 상기 이미지데이터베이스선택단계(S720) 및 상기 이미지카테고리선택단계(S740)와 유사하게 표시 된 상기 이미지 목록에서 원하는 이미지를 사용자가 상기 촉각인터페이스장치(1000)를 통해 선택할 수 있다.Thereafter, a display image selection step (S770) of selecting an image to be output by a user input is performed. In the display image selection step (S770), a user's desired image is selected from the image list displayed in the image list display step (S760). This allows the user to select a desired image from the image list displayed similarly to the image database selection step (S720) and the image category selection step (S740) through the
이와 같이 선택 된 이미지는 상기 이미지출력부(5300)에 의해 상기 컴퓨팅장치(A)와 연결된 디스플레이장치 및 상기 촉각인터페이스장치(1000)를 통해 출력될 수 있다.The image selected as described above may be output through the display device connected to the computing device A and the
도 25는 본 발명의 일 실시예에 따른 이미지데이터베이스목록표시단계 및 상기 이미지데이터베이스목록표시단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.25 illustrates a screen of an image database list display step and a tactile interface device in which TUI conversion is performed on the image database list display step according to an embodiment of the present invention.
도 25의 (A)는 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 화면이고, 도 25의 (B)는 도 25의 (A)에 상응하는 상기 촉각인터페이스장치(1000)의 화면이다. 도 25의 (A)를 참조하면 상기 이미지선택부(5200)에 의해 상기 이미지데이터베이스목록표시단계(S710)가 수행되어 상기 이미지뷰어모듈(5000)에 연결된 이미지데이터베이스(7000)의 목록이 표시되는 것을 확인할 수 있다. 도 25의 실시예에서는 목록에 두 개의 이미지데이터베이스(Device 저장소 및 ImageBank 저장소)가 표시되어 있다.25A is a screen output through a display device connected to the computing device A, and FIG. 25B is a screen of the
도 25의 (B)는 이와 같은 이미지데이터베이스의 목록이 점자로 번역되어 상기 촉각인터페이스장치의 촉각디스플레이에 표시된 모습을 도시한다. 이 때, 상기 메인화면단계 및 이미지선택단계에 의하여 표시되는 상기 촉각디스플레이는, 도 6 및 도 10에 도시된 것과 같이 복수의 커서의 위치 중 현재 커서의 위치에 대한 정보를 촉각적으로 디스플레이 하는 커서영역(L12); 각각의 커서의 위치에 대해 상응하는 정보를 촉각적으로 디스플레이 하는 컨텐츠영역(L11); 및 현재 페이지에 대한 정보를 촉각적으로 디스플레이 하는 페이지영역(L13); 을 포함할 수 있다. 이와 같이 상기 촉각디스플레이의 영역을 구분하여 정보를 표시함으로써 시각장애인이 용이하게 컨텐츠의 내용, 현재 커서의 위치, 페이지의 정보 등을 인식하여 정보를 명확하게 인식할 수 있게 된다.FIG. 25B shows a state in which the list of such image databases is translated into Braille and displayed on the tactile display of the tactile interface device. At this time, the tactile display displayed by the main screen step and the image selection step is a cursor that tactilely displays information about the current cursor position among the positions of the plurality of cursors as shown in FIGS. 6 and 10. Area L12; A content area (L11) tactilely displaying information corresponding to the position of each cursor; And a page area L13 tactilely displaying information on the current page. It may include. As described above, the area of the tactile display is divided and information is displayed, so that the visually impaired can easily recognize the content of the content, the location of the current cursor, information on the page, and the like, and clearly recognize the information.
도 26은 본 발명의 일 실시예에 따른 이미지카테고리표시단계 및 상기 이미지카테고리표시단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.26 shows a screen of an image category display step and a tactile interface device in which TUI conversion is performed on the image category display step according to an embodiment of the present invention.
도 26의 (A)는 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 화면이고, 도 26의 (B)는 도 26의 (A)에 상응하는 상기 촉각인터페이스장치(1000)의 화면이다. 도 26의 (A)를 참조하면 상기 이미지선택부(5200)에 의해 상기 이미지카테고리표시단계(S730)가 수행되어 상기 이미지데이터베이스(7000) 내의 카테고리의 목록이 표시되는 것을 확인할 수 있다. 도 26의 실시예에서는 카테고리 목록에 과학, 국어, 기타, 수학, 영어, 일러, 점자 의 일곱 카테고리가 포함되어 있다. 이 때, 목록의 최 상단에는 "검색하기" 메뉴가 삽입되어 이를 선택하게 되면 이미지검색단계(S750)를 수행하게 되고, 카테고리를 선택하게 되면 선택된 카테고리에 대한 이미지목록표시단계(S760)를 수행하게 된다.26A is a screen output through a display device connected to the computing device A, and FIG. 26B is a screen of the
도 26의 (B)는 이와 같은 카테고리의 목록이 점자로 번역되어 상기 촉각인터페이스장치의 촉각디스플레이에 표시된 모습을 도시한다. 이 때, 상기 촉각디스플레이는 도 25의 (B)에서와 같이 컨텐츠영역(L11), 커서영역(L12) 및 페이지영역(L13)으로 구분되어 표시될 수 있다.26 (B) shows a state in which a list of such categories is translated into Braille and displayed on the tactile display of the tactile interface device. At this time, the tactile display may be divided into a content area L11, a cursor area L12, and a page area L13 as shown in FIG. 25B.
도 27은 본 발명의 일 실시예에 따른 이미지목록표시단계 및 상기 이미지목록표시단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.27 illustrates a screen of an image list display step and a tactile interface device in which TUI conversion is performed on the image list display step according to an embodiment of the present invention.
도 27의 (A)는 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 화면이고, 도 27의 (B)는 도 27의 (A)에 상응하는 상기 촉각인터페이스장치(1000)의 화면이다. 도 27의 (A)를 참조하면 상기 이미지선택부(5200)에 의해 상기 이미지목록표시단계(S760)가 수행되어 상기 카테고리 내의 이미지 목록이 표시되는 것을 확인할 수 있다. 도 27의 실시예에서는 이미지 목록에 book, edit, envelope 및 folder 의 네 이미지가 포함되어 있다. 이 때, 목록의 최 상단에는 도 26에서와 같이 "검색하기" 메뉴가 삽입되어 있을 수 있고, 이를 선택하게 되면 이미지검색단계(S750)를 수행하게 되고, 이미지를 선택하게 되면 이미지출력부(5200)를 통해 선택된 이미지가 상기 컴퓨팅장치(A)와 연결된 디스플레이장치 및 상기 촉각인터페이스장치(1000)를 통해 출력된다.27A is a screen output through a display device connected to the computing device A, and FIG. 27B is a screen of the
도 27의 (B)는 이와 같은 이미지의 목록이 점자로 번역되어 상기 촉각인터페이스장치의 촉각디스플레이에 표시된 모습을 도시한다. 이 때, 상기 촉각디스플레이는 도 25의 (B)에서와 같이 컨텐츠영역(L11), 커서영역(L12) 및 페이지영역(L13)으로 구분되어 표시될 수 있다.FIG. 27 (B) shows a state in which the list of images is translated into Braille and displayed on the tactile display of the tactile interface device. At this time, the tactile display may be divided into a content area L11, a cursor area L12, and a page area L13 as shown in FIG. 25B.
도 28은 본 발명의 일 실시예에 따른 이미지출력단계의 세부 단계를 개략적으로 도시한다.28 schematically shows detailed steps of an image output step according to an embodiment of the present invention.
도 28을 참조하면 본 발명의 일 실시예에 따른 상기 이미지출력부(5300)는 이미지판별단계(S810); 이미지단순화단계(S820); 이미지표시단계(S830); 및 출력이미지조절단계(S840); 를 포함하는 이미지출력단계를 수행하여 이미지를 선택할 수 있다.Referring to FIG. 28, the
본 발명의 일 실시예에서 상기 이미지선택부(5200)에 의해 이미지가 선택되어 상기 이미지출력부(5300)가 실행되면, 출력할 이미지의 정보에 기초하여 이미지의 타입을 판별하는 이미지판별단계(S810)가 수행된다. 저장되어 있는 이미지는 벡터 이미지, 레스터 이미지 등 이미지의 형식이 상이할 수 있고, 레스터 이미지에서도 JPG, GIF, PNG 등 이미지의 파일 포맷이 상이할 수 있다. 이와 같은 다양한 이미지에 대한 처리를 수행하기 위하여 상기 이미지판별단계(S810)에서는 선택 된 상기 이미지의 타입을 판별하고, 판별 된 타입에 적합한 이미지 처리 알고리즘을 선택하여 처리할 수 있도록 한다.In an embodiment of the present invention, when an image is selected by the
이 후, 판별된 상기 이미지의 타입에 기초하여 상기 촉각인터페이스장치에 의해 출력 가능하도록 상기 이미지를 단순화하는 이미지단순화단계(S820)가 수행된다. 상기 촉각인터페이스장치(1000)는 일반적인 시각 디스플레이장치에 비해 해상도가 낮고, 또한 색을 표현하기 어려운 점이 있으므로, 상기 이미지단순화단계(S820)에서는 이미지를 상기 촉각인터페이스장치(1000)에서 출력하기 적합한 형태로 변형시킬 수 있다. 본 발명의 일 실시예에서는 상기 이미지를 그레이스케일화 하여 그레이스케일이미지를 생성하고, 상기 그레이스케일이미지를 이진화하여 이진화이미지를 생성함으로써, 상기 촉각인터페이스장치(1000)에서 출력하기 용이하도록 단순화 할 수 있다.Thereafter, an image simplification step (S820) of simplifying the image to be output by the tactile interface device based on the determined type of the image is performed. Since the
이 후, 단순화 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치(1000)를 통해 출력하는 이미지표시단계(S830)가 수행된다. 상기 이미지표시단계(S830)에서는 상기 이미지에서 상기 촉각인터페이스장치(1000)를 통해 출력하게 될 출력영역을 결정하여, 상기 출력영역의 이미지를 상기 촉각인터페이스장치(1000)의 핀에 매칭하여 각각의 핀을 구동하도록 할 수 있다.Thereafter, an image display step S830 of outputting the simplified image through the computing device and the
이 후, 상기 촉각인터페이스장치(1000)를 통해 출력된 이미지를 상기 사용자의 입력에 의해 확대, 축소 또는 이동하여 출력하는 출력이미지조절단계(S840)가 수행된다. 상기 촉각인터페이스장치(1000)를 통해 출력된 이미지를 시각장애인이 손으로 만져 촉각적으로 감지할 때, 상기 이미지를 더욱 상세히 확인하기 위해 이미지를 확대하거나, 이미지의 다른 영역으로 이동하여 감지 할 필요가 있다. 이를 위해 상기 출력이미지조절단계(S840)에서는 시각장애인이 출력된 이미지를 확대, 축소하거나 이동하도록 입력하여 출력된 이미지를 조절할 수 있다.Thereafter, an output image adjustment step (S840) is performed in which the image output through the
도 29는 본 발명의 일 실시예에 따른 이미지단순화단계 및 이미지표시단계의 세부 단계를 개략적으로 도시한다.29 schematically shows detailed steps of an image simplification step and an image display step according to an embodiment of the present invention.
도 29를 참조하면 상기 이미지단순화단계(S820)는, 상기 이미지를 그레이스케일로 변환하여 그레이스케일이미지를 생성하는 그레이스케일변환단계(S821); 및 상기 그레이스케일이미지를 이진화하여 이진화이미지를 생성하는 이미지이진화단계(S822); 를 포함하고, 상기 이미지표시단계(S830)는, 상기 이미지 중 상기 촉각인터페이스장치(1000)를 통해 출력 될 영역을 출력영역으로 설정하는 출력영역결정단계(S831); 상기 이미지에 기초하여 컴퓨팅장치(A)에서 디스플레이 될 상기 이미지의 정보를 포함하는 제1디스플레이정보를 생성하는 제1디스플레이정보생성단계(S832); 및 상기 이미지에 기초하여 촉각인터페이스장치(1000)에서 촉각적으로 디스플레이 될 단순화 된 이미지의 출력영역의 이미지 정보를 포함하는 제2디스플레이정보를 생성하는 제2디스플레이정보생성단계(S833); 를 포함할 수 있다.Referring to FIG. 29, the image simplification step (S820) includes: converting the image to grayscale to generate a grayscale image (S821); And an image binarization step of generating a binarized image by binarizing the grayscale image (S822). Including, the image display step (S830), the output area determining step of setting the area to be output through the
본 발명의 일 실시예에서 상기 그레이스케일변환단계(S821)는 상기 이미지판별단계(S810)에서 판별 된 이미지의 타입에 기초하여 상기 이미지를 그레이스케일로 변환한다.In one embodiment of the present invention, the grayscale conversion step (S821) converts the image to grayscale based on the type of the image determined in the image determination step (S810).
이 후, 상기 이미지이진화단계(S822)는 상기 그레이스케일이미지를 이진화하여 이진화이미지를 생성한다. 상기 촉각인터페이스장치(1000)의 촉각디스플레이부(1200)는 상하로 이동하는 복수의 핀에 의하여 구성되어, 상기 복수의 핀의 상승 혹은 하강에 의해 이미지를 표현하게 된다. 이와 같은 핀의 상승 혹은 하강을 결정하기 위하여 상기 그레이스케일이미지를 이진화하여 이진화이미지를 생성하고, 상기 이진화이미지의 정보에 기초하여 핀의 상승 혹은 하강을 결정하게 된다.Thereafter, in the image binarization step (S822), the grayscale image is binarized to generate a binarized image. The
본 발명의 일 실시예에서는 이미지를 이진화하기 위하여 OTSU 알고리즘을 이용할 수 있다. OTSU 알고리즘은 그레이스케일 이미지의 그레이값을 임계값을 기준으로 하여 분리함으로써 이진화를 수행하고, 상기 임계값을 결정하기 위하여 통계적인 방법을 사용한다.In one embodiment of the present invention, an OTSU algorithm can be used to binarize an image. The OTSU algorithm performs binarization by separating the gray value of a grayscale image based on a threshold value, and uses a statistical method to determine the threshold value.
이와 같이 상기 이미지단순화단계(S820)에서는 이미지를 그레이스케일로 변환하여 그레이스케일이미지를 생성하고, 상기 그레이스케일이미지를 이진화하여 이진화이미지를 생성한다.As described above, in the image simplification step (S820), a grayscale image is generated by converting the image to grayscale, and the grayscale image is binarized to generate a binarized image.
본 발명의 일 실시예에서 상기 출력영역결정단계(S831)는 선택 된 이미지 중 상기 촉각인터페이스장치(1000)를 통해 출력 될 영역을 출력영역으로 설정한다. 상기 촉각인터페이스장치(1000)의 경우 핀을 이용하여 구동함으로써 촉각디스플레이를 형성하기 때문에 일반적인 시각디스플레이장치에 비해 낮은 해상도를 갖게 된다. 따라서 이미지를 상기 촉각인터페이스장치(1000)를 통해 출력할 때, 원본 이미지의 해상도에 맞추어 이미지의 픽셀과 상기 촉각인터페이스장치(1000)의 핀을 1대1로 맞추어 변환하여 출력하는 경우 상기 이미지의 극히 일부만을 표시하여 이미지를 파악하기 어렵게 된다.In one embodiment of the present invention, the output area determination step S831 sets an area to be output through the
따라서 상기 이미지를 상기 촉각인터페이스장치(1000)를 통해 출력하는 경우 이미지의 크기를 조절하여 출력할 필요가 있고, 이를 위해 상기 이미지에서는 출력영역을 설정하고, 상기 출력영역 내의 이미지를 상기 촉각인터페이스장치(1000)에서 구현되는 촉각디스플레이의 크기에 맞추어 출력할 수 있다. 이와 같은 출력영역은 상기 이미지의 전부를 포함할 수도 있고, 상기 이미지의 일부를 포함하여 상기 촉각인터페이스장치(1000)를 통해 출력하도록 할 수 있다.Therefore, when the image is output through the
본 발명의 일 실시예에서 상기 이미지선택단계를 통해 이미지가 선택된 경우, 상기 출력영역(50)은 상기 이미지 전체 영역으로 설정될 수 있다. 이와 같이 초기에 상기 이미지 전체가 출력영역(50)으로 설정됨으로써 사용자가 상기 이미지의 전체를 상기 촉각인터페이스장치(1000)를 통해 감지하고, 이 후 상기 출력이미지조절단계(S840)를 통해 상기 이미지를 확대, 축소 또는 이동시킴으로써 더욱 세세하게 이미지를 감지하여 전체적인 이미지에 대한 이해도를 높이도록 할 수 있다.When an image is selected through the image selection step in an embodiment of the present invention, the
또한, 본 발명의 일 실시예에서 상기 출력영역(50)은 상기 촉각인터페이스장치(1000)의 컨텐츠영역의 가로 세로 비율에 상응하는 가로 세로 비율을 가질 수 있다. 이와 같이 상기 출력영역(50)의 이미지가 변환되어 촉각디스플레이로 출력되는 상기 컨텐츠영역의 가로 세로 비율에 맞추어 상기 출력영역(50)의 가로 세로 비율을 설정함으로써, 상기 촉각인터페이스장치(1000)를 통해 변환되어 출력되는 이미지가 왜곡되지 않도록 할 수 있다.In addition, in one embodiment of the present invention, the
상기 제1디스플레이정보생성단계(S832)에서는 상기 이미지에 기초하여 컴퓨팅장치(A)에서 디스플레이 될 상기 이미지의 정보를 포함하는 제1디스플레이정보를 생성한다. 이와 같은 제1디스플레이정보는 상기 컴퓨팅장치(A)에 연결된 시각디스플레이장치를 통해 출력되어 비시각장애인이 이용하는 경우 시각적으로 이미지를 확인할 수 있도록 하고, 상기 촉각인터페이스장치(1000)를 통해 출력될 정보의 기초가 된다.In the first display information generating step (S832), first display information including information of the image to be displayed on the computing device A is generated based on the image. The first display information is output through a visual display device connected to the computing device (A) so that a visually identifiable image can be checked when used by a visually impaired person, and the information to be output through the
상기 제2디스플레이정보생성단계(S833)에서는 상기 이미지에 기초하여 촉각인터페이스장치에서 촉각적으로 디스플레이 될 단순화 된 이미지의 출력영역의 이미지 정보를 포함하는 제2디스플레이정보를 생성한다. 본 발명의 일 실시예에서는 상기 컴퓨팅장치(A)에 연결된 시각적 디스플레이장치를 통해 이미지를 출력하고, 이에 상응하는 상기 촉각인터페이스장치(1000)의 촉각화면을 구현할 수 있는 신호를 생성함으로써 용이하게 촉각인터페이스장치(1000)를 제어할 수 있다. 이 때, 상기 제2디스플레이정보는 상기 출력영역(50)에 해당하는 상기 이미지의 크기 및 해상도와 상기 촉각인터페이스장치(1000)의 촉각화면의 크기 및 해상도에 차이가 있기 때문에, 보간법을 사용하여 제2디스플레이정보를 생성할 수 있다.In the second display information generating step (S833), second display information including image information of an output area of a simplified image to be tactilely displayed in a tactile interface device is generated based on the image. In an embodiment of the present invention, an image is output through a visual display device connected to the computing device A, and a tactile interface is easily generated by generating a signal capable of realizing the tactile screen of the
본 발명의 일 실시예에서 상기 제2디스플레이정보생성단계는, 상기 촉각인터페이스장치(1000)의 복수의 핀에 있어서 상기 이진화이미지의 상기 출력영역의 정보를 상기 핀의 좌표에 매핑 하여 상기 핀 각각의 상승 혹은 하강을 결정하여 제2디스플레이정보를 생성할 수 있다.In one embodiment of the present invention, in the second display information generation step, the information of the output region of the binarized image is mapped to the coordinates of the pin in a plurality of pins of the
본 발명의 일 실시예에 따르면, 그레이스케일화 및 이진화를 통해 이미지를 단순화 하여 다중배열 촉각 셀 기반의 스마트 점자기기를 통해 이미지를 출력할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, an image can be output through a smart braille device based on a multi-array tactile cell by simplifying an image through grayscale and binarization.
도 30은 본 발명의 일 실시예에 따른 출력이미지조절단계의 세부 단계를 개략적으로 도시한다.30 schematically shows detailed steps of an output image adjustment step according to an embodiment of the present invention.
도 30을 참조하면 본 발명의 일 실시예에 따른 상기 출력이미지조절단계는, 상기 촉각인터페이스장치(1000)에서 촉각적으로 디스플레이 되는 상기 이미지를 확대 혹은 축소하여 출력하도록 하는 출력이미지확대/축소단계(S841); 및 상기 촉각인터페이스장치(1000)에서 촉각적으로 디스플레이 되는 상기 이미지의 위치를 이동시켜 출력하도록 하는 출력이미지이동단계(S842); 를 포함할 수 있다.Referring to FIG. 30, in the output image adjustment step according to an embodiment of the present invention, the output image enlargement / reduction step of enlarging or reducing the image tactilely displayed by the
상기 출력이미지확대/축소단계(S841)에서는 사용자의 입력에 따라 상기 촉각인터페이스장치(1000)에서 디스플레이 되는 이미지를 확대하거나 축소하여 출력하도록 한다. 본 발명의 일 실시예에서 상기 출력이미지확대/축소단계(S841)는 상기 출력영역(50)의 크기를 조절함으로써 수행될 수 있다. 상기 출력영역(50)의 크기를 축소하는 경우, 상기 출력영역(50)내의 이미지는 상기 출력영역(50)에 비해 커지게 되어 상기 촉각인터페이스장치(1000)에서 크게 표시됨으로써 확대되는 효과를 보일 수 있고, 상기 출력영역(50)의 크기를 확대하는 경우, 상기 출력영역(50)내의 이미지는 상기 출력영역(50)에 비해 작아지게 되어 상기 촉각인터페이스장치(1000)에서 작게 표시됨으로써 축소되는 효과를 보일 수 있다. 본 발명의 일 실시예에서는 이와 같이 출력영역(50)을 변경한 후, 상기 제1디스플레이정보생성단계(S832) 및 상기 제2디스플레이정보생성단계(S383)와 같은 단계를 다시 수행하여 상기 컴퓨팅장치(A) 및 상기 촉각인터페이스장치(1000)의 출력을 갱신할 수 있다.In the output image enlargement / reduction step (S841), an image displayed on the
본 발명의 일 실시예에서 사용자는 상기 촉각인터페이스장치(1000)의 SHIFT키와 방향키를 이용하여 이미지를 확대/축소하도록 입력할 수 있다. 예를 들어 SHIFT키와 방향키 중 좌(LEFT) 또는 하(DOWN) 키를 동시에 입력하는 경우 이미지를 축소하도록 하고, SHIFT키와 방향키 중 우(RIGHT) 또는 상(UP) 키를 동시에 입력하는 경우 이미지를 확대하도록 할 수 있다.In one embodiment of the present invention, the user may input the image to enlarge / reduce the image using the SHIFT key and the direction key of the
상기 출력이미지이동단계(S842)에서는 사용자의 입력에 따라 상기 촉각인터페이스장치(1000)에서 디스플레이 되는 이미지를 이동하여 출력하도록 한다. 본 발명의 일 실시예에서 상기 출력이미지이동단계(S842)는 상기 출력영역(50)을 이동함으로써 수행될 수 있다. 본 발명의 일 실시예에서는 이와 같이 출력영역(50)을 변경한 후, 상기 제1디스플레이정보생성단계(S832) 및 상기 제2디스플레이정보생성단계(S383)와 같은 단계를 다시 수행하여 상기 컴퓨팅장치(A) 및 상기 촉각인터페이스장치(1000)의 출력을 갱신할 수 있다.In the output image moving step S842, an image displayed on the
본 발명의 일 실시예에서 사용자는 상기 촉각인터페이스장치(1000)의 방향키를 이용하여 이미지를 확대/축소하도록 입력할 수 있다. 예를 들어 방향키 중 좌(LEFT) 키를 입력하는 경우 왼쪽으로, 하(DOWN) 키를 입력하는 경우 아래쪽으로, 우(RIGHT) 키를 입력하는 경우 오른쪽으로, 상(UP) 키를 입력하는 경우 위쪽으로 이미지를 이동하도록 할 수 있다.In one embodiment of the present invention, the user may input to enlarge / reduce the image using the directional keys of the
도 31은 본 발명의 일 실시예에 따른 출력이미지확대/축소단계 및 상기 출력이미지확대/축소단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.31 illustrates a screen of an output image enlargement / reduction step and a tactile interface device in which TUI conversion is performed on the output image enlargement / reduction step according to an embodiment of the present invention.
도 31의 (A)는 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 화면이고, 도 31의 (B)는 도 31의 (A)에 상응하는 상기 촉각인터페이스장치(1000)의 화면이고, 도 31의 (C)는 도 31의 (B)의 출력 이미지를 축소하여 출력되는 촉각인터페이스장치(1000)의 화면이다.31A is a screen output through a display device connected to the computing device A, and FIG. 31B is a screen of the
도 31의 (A)는 상기 이미지선택부(5100)를 통해 선택 된 손의 이미지가 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 모습을 도시한다. 이와 같은 이미지는 상기 이미지단순화단계(S820)를 거쳐 도 31의 (B)에서와 같이 상기 촉각인터페이스장치(1000)의 핀 각각을 상승 또는 하강시킬 수 있는 정보로 변환되어 상기 촉각인터페이스장치(1000)의 촉각디스플레이에 표시된다. 도 25에서 설명한 바와 같이, 상기 촉각디스플레이는 복수의 커서의 위치 중 현재 커서의 위치에 대한 정보를 촉각적으로 디스플레이 하는 커서영역(L22); 각각의 커서의 위치에 대해 상응하는 정보를 촉각적으로 디스플레이 하는 컨텐츠영역(L21); 및 현재 페이지에 대한 정보를 촉각적으로 디스플레이 하는 페이지영역(L23); 을 포함할 수 있다. 도 31의 (B)에서는 상기 컨텐츠영역(L21)에 도 31의 (A)에 상응하는 손의 이미지가 표시된다.31 (A) shows a state in which an image of a hand selected through the
본 발명의 일 실시예에서는 상기 페이지영역(L23)에는 상기 이미지의 정보가 출력될 수 있다. 예를 들면 상기 페이지영역(L23)에는 이미지의 파일명이 점자로 출력될 수 있다.In one embodiment of the present invention, information of the image may be output to the page area L23. For example, the file name of the image may be displayed in Braille in the page area L23.
이 때, 사용자는 상기 촉각인터페이스장치(1000)를 조작하여 상기 이미지를 확대 또는 축소할 수 있다. 도 31의 (C)에는 상기 도 31의 (B)와 같이 출력된 이미지를 축소한 결과가 도시되어 있다. 이 때, 본 발명의 일 실시예에서는 상기 출력영역(50)을 확대하여 더 많은 이미지가 상기 출력영역(50)에 포함되도록 하여 이미지를 축소시킬 수 있다. 도 31의 (C)는 도 31의 (B)에 비해 축소된 손의 이미지가 상기 촉각인터페이스장치(1000)의 촉각디스플레이를 통해 출력되고 있다.At this time, the user may enlarge or reduce the image by operating the
도 32는 본 발명의 일 실시예에 따른 출력이미지이동단계 및 상기 출력이미지이동단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.32 illustrates a screen of a tactile interface device in which a TUI conversion is performed on an output image moving step and the output image moving step according to an embodiment of the present invention.
도 32의 (A)는 도 31의 (A)와 동일하게 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 화면이고, 도 32의 (B)는 도 32의 (A)에 상응하는 상기 촉각인터페이스장치(1000)의 화면이고, 도 32의 (C)는 도 26의 (B)의 출력 이미지를 이동하여 출력되는 촉각인터페이스장치(1000)의 화면이다.32A is a screen output through a display device connected to the computing device A in the same manner as in FIG. 31A, and FIG. 32B is the screen corresponding to FIG. 32A. It is a screen of the
도 32의 (A) 및 도 32의 (B)는 상기 도 31의 (A) 및 상기 도 32의 (B)와 동일하다. 선택된 이미지는 상기 이미지단순화단계(S820)를 거쳐 도 32의 (B)에서와 같이 상기 촉각인터페이스장치(1000)의 핀 각각을 상승 또는 하강시킬 수 있는 정보로 변환되어 상기 촉각인터페이스장치(1000)의 촉각디스플레이에 표시된다. 상기 촉각디스플레이는 복수의 커서의 위치 중 현재 커서의 위치에 대한 정보를 촉각적으로 디스플레이 하는 커서영역(L22); 각각의 커서의 위치에 대해 상응하는 정보를 촉각적으로 디스플레이 하는 컨텐츠영역(L21); 및 현재 페이지에 대한 정보를 촉각적으로 디스플레이 하는 페이지영역(L23); 을 포함할 수 있다. 도 32의 (B)에서는 상기 컨텐츠영역(L21)에 도 32의 (A)에 상응하는 손의 이미지가 표시된다.32 (A) and 32 (B) are the same as FIG. 31 (A) and FIG. 32 (B). The selected image is converted into information capable of raising or lowering each pin of the
사용자는 상기 촉각인터페이스장치(1000)를 조작하여 상기 이미지를 이동할 수 있다. 도 32의 (C)에는 상기 도 32의 (B)와 같이 출력된 이미지가 왼쪽으로 이동한 결과가 도시되어 있다. 이 때, 본 발명의 일 실시예에서는 상기 출력영역(50)을 오른쪽으로 이동하여, 이미지에 표시된 손의 오른쪽 영역이 더 많이 포함되도록 하여 이미지를 왼쪽으로 이동시킬 수 있다. 도 32의 (C)는 도 31의 (B)에 비해 손이 왼쪽으로 이동하여 손목 부분은 가려지고 남은 손 만이 표시된 이미지가 상기 촉각인터페이스장치(1000)의 촉각디스플레이를 통해 출력되고 있다.The user may move the image by operating the
본 발명의 일 실시예에 따르면, 다중배열 촉각 셀 기반의 스마트 점자기기를 통해 출력된 이미지의 확대, 축소 및 이동이 가능하여 시각장애인이 이미지파일을 상세히 해석할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to enlarge, reduce, and move an image output through a multi-array tactile cell-based smart braille device, thereby exerting the effect of allowing the visually impaired to interpret the image file in detail.
도 33은 본 발명의 일 실시예에 따른 출력이미지조절단계 및 상기 출력이미지조절단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.33 illustrates a screen of a tactile interface device in which TUI conversion is performed on an output image adjustment step and the output image adjustment step according to an embodiment of the present invention.
도 33의 (A)는 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되는 화면이고, 도 33의 (B)는 도 33의 (A)에 상응하는 상기 촉각인터페이스장치(1000)의 화면이다.33A is a screen output through a display device connected to the computing device A, and FIG. 33B is a screen of the
도 33의 (A)를 참조하면 책의 이미지가 상기 컴퓨팅장치(A)와 연결된 디스플레이장치를 통해 출력되고 있고, 도 33의 (B)를 참조하면 상기 책의 이미지 중 일부 영역(출력영역, 50)의 정보가 상기 촉각인터페이스장치(1000)를 통해 출력되고 있다. 이 때 상기 촉각인터페이스장치(1000)를 통해 표시되는 촉각디스플레이는 상기 책의 이미지 전부가 아닌 출력영역(50)에 해당하는 일부(책 표지의 A의 일부 및 책의 좌상단)만이 확대되어 표시되고 있다.Referring to (A) of FIG. 33, an image of a book is output through a display device connected to the computing device (A), and referring to (B) of FIG. 33, a partial area (output area, 50) of the image of the book ) Is output through the
이 때, 본 발명의 일 실시예에 따르면 상기 이미지출력단계(S800)에 의하여 표시되는 상기 촉각디스플레이는, 단순화 된 이미지의 상기 출력영역(50)의 이미지 정보를 촉각적으로 디스플레이 하는 컨텐츠영역(L31); 및 상기 출력영역(50)에 대한 정보를 촉각적으로 디스플레이 하는 위치정보영역(L34); 을 포함할 수 있다. 도 33의 (B)에는 우측 상단에 사각형의 위치정보영역(L34)이 위치하여, 상기 이미지 전체에 대한 상기 출력영역(50)의 위치가 표시되고 있다. 도 33의 (A)에 도시된 것과 같이 상기 출력영역(50)은 상기 이미지의 중심을 기준으로 좌상단쪽에 위치하고 있는데, 상기 위치정보영역(L34)에는 이와 같은 상기 출력영역(50)의 위치 및 크기가 표시되어, 사용자가 상기 촉각인터페이스장치(1000)를 통해 표시되고 있는 출력영역(50)이 상기 이미지의 어느 위치에 어느 정도의 크기인지 확인할 수 있게 된다.At this time, according to an embodiment of the present invention, the tactile display displayed by the image output step S800 is a content area L31 that tactilely displays image information of the
또한, 본 발명의 일 실시예서 상기 제1디스플레이정보는 상기 출력영역(50)의 정보를 더 포함하고, 상기 이미지출력단계(S800)에 의하여 표시되는 상기 컴퓨팅장치(A)에는 상기 이미지 및 상기 출력영역(50)이 표시될 수 있다. 이는 도 33의 (A)에 도시된 것과 같이 상기 컴퓨팅장치(A)에 연결 된 디스플레이장치에 상기 이미지를 표시할 때, 상기 출력영역(50)을 같이 표시함으로써 상기 촉각인터페이스장치(1000)에 표시되고 있는 영역이 이미지의 어느 영역에 해당되는지를 확인할 수 있게 된다. 상기 출력영역(50)은 도 33의 (A)에 도시된 것과 같이 선으로 표시될 수 있다.In addition, in one embodiment of the present invention, the first display information further includes information of the
본 발명의 일 실시예에 따르면, 출력된 이미지를 확대하거나 이동하는 경우, 출력되는 영역이 전체 이미지에서 어느 위치의 영역인지 확인할 수 있도록 하여 시각장애인이 이미지파일에 대한 해석을 용이하게 할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, when the output image is enlarged or moved, it is possible to visually impair the interpretation of the image file by allowing the visually impaired user to check the location of the location in the entire image. Can be effective.
도 34 및 도 35는 본 발명의 일 실시예에 따른 이미지출력단계 및 상기 이미지출력단계에 대해 TUI변환이 수행된 촉각인터페이스장치의 화면을 도시한다.34 and 35 illustrate screens of an image output step and a tactile interface device in which TUI conversion is performed on the image output step according to an embodiment of the present invention.
본 발명의 일 실시예에서 상기 제2디스플레이정보생성단계(S833)는, 상기 이진화이미지의 상기 출력영역(50)의 정보를 상기 핀의 좌표에 매핑 할 때, 상기 핀의 좌표에 매칭되는 영역 내 흑색의 비율이 50% 이상인 경우 핀을 완전히 상승시키고, 상기 핀의 좌표에 매칭되는 영역 내 흑색의 비율이 20% 미만인 경우 핀을 완전히 하강시키고, 상기 핀의 좌표에 매칭되는 영역 내 흑색의 비율이 20% 이상 50% 미만인 경우 핀을 40 내지 60% 상승시키도록 제2디스플레이정보(50)를 생성할 수 있다.In one embodiment of the present invention, in the second display information generation step (S833), when mapping the information of the
도 34의 (A)는 상기 촉각인터페이스장치(1000)를 통해 출력 될 이미지이다. 상기 촉각인터페이스장치(1000)는 일반적인 시각디스플레이장치에 비해 출력할 수 있는 영역의 해상도가 낮기 때문에, 도 34의 (A)와 같은 선으로 구성 된 이미지에서, 굵기가 다른 선의 경우 단순히 핀의 좌표에 매칭 할 경우 그 차이를 표시하기 어렵다.34A is an image to be output through the
이를 개선하기 위하여 본 발명의 일 실시예에서는 핀의 좌표에 매칭되는 영역의 흑색의 비율에 따라 핀의 높이를 달리 하여 이미지를 더욱 세밀하게 상기 촉각인터페이스장치(1000)를 통해 표시할 수 있다.In order to improve this, in one embodiment of the present invention, the height of the pins may be varied according to the ratio of the black of the region matching the coordinates of the pins to display the image more precisely through the
도 34의 (B)에는 상기 도 34의 (A)에 도시된 이미지가 상기 촉각인터페이스장치(1000)의 핀에 매칭된 결과가 도시되어 있다. 도 34의 (B)를 참조하면 굵은 선 영역에 매칭되는 핀의 경우 검은색으로, 얇은 선 영역에 매칭되는 핀의 경우 회색으로 도시되어 있다. 이 때, 흰색으로 도시된 핀의 경우 완전히 하강하여 촉각디스플레이판(1210) 속으로 들어가게 되고, 검은색으로 도시된 핀의 경우 도34의 (D)에 도시된 것과 같이 핀(1220)이 완전히 상승되고, 회색으로 도시된 핀의 경우 도 34의 (C)에 도시된 것과 같이 핀(1220)이 40 내지 60% 상승 하여 중간에 위치하도록 할 수 있다.FIG. 34 (B) shows the result of matching the image shown in FIG. 34 (A) to the pin of the
본 발명의 다른 실시예에서는 상기 제2디스플레이정보생성단계(S833)는, 상기 촉각인터페이스장치(1000)의 복수의 핀에 있어서 상기 그레이스케일이미지의 상기 출력영역(50)의 정보를 상기 핀의 좌표에 매핑 하여 상기 핀 각각의 상승 혹은 하강의 단계를 결정하여 제2디스플레이정보를 생성할 수 있다.In another embodiment of the present invention, in the second display information generation step (S833), the coordinates of the pin are the information of the
도 35의 (A)는 상기 촉각인터페이스장치(1000)를 통해 출력 될 이미지이다. 도 35의 (A)에 도시된 이미지는 컬러 이미지로서, 상기 촉각인터페이스장치(1000)를 통해 출력되기 위해서 이미지단순화단계(S820)를 수행 할 필요가 있다.35A is an image to be output through the
이 때, 본 발명의 일 실시예에서는 상기 이미지를 더욱 세밀하게 표시하기 위해 상기 이미지단순화단계(S820)에서 생성되는 이진화이미지가 아닌, 그레이스케일이미지에 기초하여 상기 촉각인터페이스장치(1000)를 통해 출력하도록 할 수 있다.At this time, in one embodiment of the present invention, the image is output through the
도 35의 (B)에는 상기 도 35의 (A)에 도시된 이미지를 그레이스케일화 한 그레이스케일이미지가 도시되어 있고, 도 35의 (C)에는 상기 그레이스케일이미지가 상기 촉각인터페이스장치(1000)의 핀에 매칭된 결과가 도시되어 있다. 도 35의 (B)의 그레이스케일 이미지는 4단계의 그레이스케일 이미지(흰색, 밝은 회색, 짙은 회색, 검은색)으로서 상기 그레이스케일이미지의 각 색상 단계가 상기 도 35의 (C)에 각각 매칭되어 검은색 영역에 매칭되는 핀의 경우 검은색으로, 짙은 회색 영역에 매칭되는 핀의 경우 짙은 회색으로, 밝은 회색 영역에 매칭되는 핀의 경우 밝은 회색으로, 흰색 영역에 매칭되는 핀의 경우 흰색으로 도시되어 있다.FIG. 35 (B) shows a grayscale image obtained by gray-scaling the image shown in FIG. 35A, and in FIG. 35C, the grayscale image is the
이 때, 흰색으로 도시된 핀의 경우 완전히 하강하여 촉각디스플레이판(1210) 속으로 들어가게 되고, 옅은 회색으로 도시된 핀의 경우 도 35의 (D)에 도시된 것과 같이 핀(1220)이 30 내지 40% 상승하여 중하단에 위치하고, 짙은 회색으로 도시된 핀의 경우 도 35의 (E)에 도시된 것과 같이 핀(1220)이 60 내지 70% 상승하여 중상단에 위치하고, 검은색으로 도시된 핀의 경우 도34의 (F)에 도시된 것과 같이 핀(1220)이 완전히 상승되도록 할 수 있다.At this time, in the case of a pin shown in white, the pin is completely lowered to enter the
본 발명에서는 도 34 및 도 35의 실시예와 같이 상기 촉각인터페이스장치(1000)의 핀의 높이를 다르게 제어함으로써 이미지를 더욱 세밀하게 상기 촉각인터페이스장치(1000)를 통해 표시할 수 있다.In the present invention, by controlling the heights of the pins of the
본 발명의 일 실시예에 따르면, 다중배열 촉각 셀 기반의 스마트 점자기기 및 시각장애인용 TUI를 기반하여 저장된 이미지를 시각장애인들이 촉감을 통해 일반인과 유사한 수준으로 이미지파일을 해석할 수 있도록 하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the effect of allowing the visually impaired to interpret the image file at a level similar to the general public through the tactile sense of the stored image based on the multi-array tactile cell-based smart braille device and the visually impaired TUI. Can be exercised.
도 36은 본 발명의 일 실시예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하는 도면이다.36 is a diagram illustrating an example of an internal configuration of a computing device according to an embodiment of the present invention.
도 36에 도시한 바와 같이, 컴퓨팅 장치(11000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 포함할 수 있다. 이때, 컴퓨팅 장치(11000)은 촉각 인터페이스 장치에 연결된 사용자단말기(A) 혹은 전술한 컴퓨팅 장치(A)에 해당될 수 있다.As illustrated in FIG. 36, the
메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.The
이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.At this time, access to the
주변장치 인터페이스(11300)는 컴퓨팅 장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.The
입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input / output subsystem 11400 can couple various input / output peripherals to the
전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The
통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The
또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, if necessary, the
이러한 도 36의 실시예는, 컴퓨팅 장치(11000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 36에 도시된 일부 컴포넌트가 생략되거나, 도 36에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 36에도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.The embodiment of FIG. 36 is only an example of the
본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be recorded in a computer readable medium by being implemented in the form of program instructions that can be performed through various computing devices. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. The application to which the present invention is applied may be installed on a user terminal through a file provided by a file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request of the user terminal.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and / or combinations of hardware components and software components. For example, the devices and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, field programmable gate arrays (FPGAs). , A programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose computers or special purpose computers. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed on networked computing devices and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by a limited embodiment and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques are performed in a different order than the described method, and / or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (10)
상기 컴퓨팅장치에서는 이미지뷰어모듈이 실행되어, 메인화면단계, 이미지선택단계 및 이미지출력단계 중 어느 하나가 수행되고,
상기 이미지뷰어모듈이 실행되는 경우, 해당 단계에 따른 화면이 상기 컴퓨팅장치에 표시되고, 상기 컴퓨팅장치에 표시된 화면이 상기 촉각인터페이스장치로의 출력신호로 변환되어, 상기 컴퓨팅장치에 표시된 화면에 상응하는 촉각디스플레이가 상기 촉각인터페이스장치에 표시될 수 있고,
상기 컴퓨팅장치에서의 입력, 혹은 상기 촉각인터페이스장치에서의 입력에 따라 메인화면단계, 이미지선택단계 및 이미지출력단계 중 어느 하나의 세부 과정들이 수행되고,
상기 이미지출력단계는,
출력할 이미지의 정보에 기초하여 이미지의 타입을 판별하는 이미지판별단계;
판별된 상기 이미지의 타입에 기초하여 상기 촉각인터페이스장치에 의해 출력 가능하도록 상기 이미지를 단순화하는 이미지단순화단계;
단순화 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지표시단계; 및
상기 촉각인터페이스장치를 통해 출력된 이미지를 상기 사용자의 입력에 의해 확대, 축소 또는 이동하여 출력하는 출력이미지조절단계; 를 포함하고,
상기 이미지표시단계는,
상기 이미지 중 상기 촉각인터페이스장치를 통해 출력 될 영역을 출력영역으로 설정하는 출력영역결정단계;
상기 이미지에 기초하여 컴퓨팅장치에서 디스플레이 될 상기 이미지의 정보를 포함하는 제1디스플레이정보를 생성하는 제1디스플레이정보생성단계; 및
상기 이미지에 기초하여 촉각인터페이스장치에서 촉각적으로 디스플레이 될 단순화 된 이미지의 출력영역의 이미지 정보를 포함하는 제2디스플레이정보를 생성하는 제2디스플레이정보생성단계; 를 포함하고,
상기 이미지출력단계에 의하여 표시되는 상기 촉각디스플레이는,
단순화 된 이미지의 상기 출력영역의 이미지 정보를 촉각적으로 디스플레이 하는 컨텐츠영역; 및
상기 출력영역에 대한 정보를 촉각적으로 디스플레이 하는 위치정보영역; 을 포함하고,
상기 이미지단순화단계는,
상기 이미지를 그레이스케일로 변환하여 그레이스케일이미지를 생성하는 그레이스케일변환단계를 포함하고,
상기 제2디스플레이정보생성단계는,
상기 촉각인터페이스장치의 복수의 핀에 있어서 상기 그레이스케일이미지의 상기 출력영역의 정보를 상기 핀의 좌표에 매핑 하여 상기 핀 각각의 상승 혹은 하강의 단계를 결정하여 제2디스플레이정보를 생성하는, 이미지 뷰어 기능을 제공하는 방법.
A method implemented as a computing device including a processor and connected to the computing device to provide an image viewer function through a tactile interface device capable of interacting with a user,
In the computing device, an image viewer module is executed, and one of the main screen step, the image selection step, and the image output step is performed,
When the image viewer module is executed, a screen according to the corresponding step is displayed on the computing device, and the screen displayed on the computing device is converted into an output signal to the tactile interface device, corresponding to the screen displayed on the computing device. A tactile display can be displayed on the tactile interface device,
Depending on the input from the computing device or the input from the tactile interface device, detailed processes of any one of the main screen step, the image selection step and the image output step are performed,
The image output step,
An image discrimination step of determining the type of the image based on the information of the image to be output;
An image simplification step of simplifying the image to be output by the tactile interface device based on the determined type of the image;
An image display step of outputting the simplified image through the computing device and the tactile interface device; And
An output image adjustment step of enlarging, reducing or moving the image output through the tactile interface device by the user's input; Including,
The image display step,
An output area determining step of setting an area to be output through the tactile interface device among the images as an output area;
A first display information generating step of generating first display information including information of the image to be displayed on a computing device based on the image; And
A second display information generating step of generating second display information including image information of an output region of a simplified image to be tactilely displayed in a tactile interface device based on the image; Including,
The tactile display displayed by the image output step,
A content area tactilely displaying image information of the output area of the simplified image; And
A location information area tactilely displaying information on the output area; Including,
The image simplification step,
A grayscale conversion step of converting the image to grayscale to generate a grayscale image,
The second display information generation step,
An image viewer generating second display information by determining the step of rising or falling of each of the pins by mapping information of the output area of the grayscale image to the coordinates of the pin in a plurality of pins of the tactile interface device How to provide functionality.
상기 이미지선택단계는,
이미지가 저장되어 있는 1 이상의 이미지데이터베이스의 목록을 표시하는 이미지데이터베이스목록표시단계;
사용자의 입력에 의해 이미지를 불러 올 이미지데이터베이스를 선택하는 이미지데이터베이스선택단계;
상기 이미지데이터베이스에 저장된 이미지의 카테고리를 표시하는 이미지카테고리표시단계;
사용자의 입력에 의해 카테고리를 선택하는 이미지카테고리선택단계;
사용자의 입력에 의해 이미지를 검색하는 이미지검색단계;
선택된 이미지데이터베이스, 선택된 카테고리 및 이미지 검색결과 중 1 이상에 기초하여 출력 가능한 이미지의 목록을 표시하는 이미지목록표시단계; 및
사용자의 입력에 의해 출력할 이미지를 선택하는 표시이미지선택단계; 를 포함하는, 이미지 뷰어 기능을 제공하는 방법.
The method according to claim 1,
The image selection step,
An image database list display step of displaying a list of one or more image databases in which the images are stored;
An image database selection step of selecting an image database from which an image is to be loaded by a user input;
An image category display step of displaying a category of images stored in the image database;
An image category selection step of selecting a category by user input;
An image search step of searching for an image by user input;
An image list display step of displaying a list of printable images based on at least one of the selected image database, the selected category, and the image search results; And
A display image selection step of selecting an image to be output by a user input; How to provide an image viewer function, including.
상기 출력이미지조절단계는,
상기 촉각인터페이스장치에서 촉각적으로 디스플레이 되는 상기 이미지를 확대 혹은 축소하여 출력하도록 하는 출력이미지확대/축소단계; 및
상기 촉각인터페이스장치에서 촉각적으로 디스플레이 되는 상기 이미지의 위치를 이동시켜 출력하도록 하는 출력이미지이동단계; 를 포함하는, 이미지 뷰어 기능을 제공하는 방법.
The method according to claim 1,
The output image adjustment step,
An output image enlargement / reduction step of enlarging or reducing the image tactilely displayed by the tactile interface device and outputting the image; And
An output image moving step of moving and outputting the position of the image tactilely displayed by the tactile interface device; How to provide an image viewer function, including.
상기 컴퓨팅장치는 이미지뷰어모듈; 을 포함하고,
상기 이미지뷰어모듈은,
사용자의 입력에 의해 출력 될 이미지를 선택하는 이미지선택부; 및
선택 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지출력부; 를 포함하고,
상기 이미지출력부는,
출력할 이미지의 정보에 기초하여 이미지의 타입을 판별하는 이미지판별단계;
판별된 상기 이미지의 타입에 기초하여 상기 촉각인터페이스장치에 의해 출력 가능하도록 상기 이미지를 단순화하는 이미지단순화단계;
단순화 된 상기 이미지를 상기 컴퓨팅장치 및 상기 촉각인터페이스장치를 통해 출력하는 이미지표시단계; 및
상기 촉각인터페이스장치를 통해 출력된 이미지를 상기 사용자의 입력에 의해 확대, 축소 또는 이동하여 출력하는 출력이미지조절단계; 를 수행하고,
상기 이미지표시단계는,
상기 이미지 중 상기 촉각인터페이스장치를 통해 출력 될 영역을 출력영역으로 설정하는 출력영역결정단계;
상기 이미지에 기초하여 컴퓨팅장치에서 디스플레이 될 상기 이미지의 정보를 포함하는 제1디스플레이정보를 생성하는 제1디스플레이정보생성단계; 및
상기 이미지에 기초하여 촉각인터페이스장치에서 촉각적으로 디스플레이 될 단순화 된 이미지의 출력영역의 이미지 정보를 포함하는 제2디스플레이정보를 생성하는 제2디스플레이정보생성단계; 를 포함하고,
상기 이미지출력부에 의하여 표시되는 촉각디스플레이는,
단순화 된 이미지의 상기 출력영역의 이미지 정보를 촉각적으로 디스플레이 하는 컨텐츠영역; 및
상기 출력영역에 대한 정보를 촉각적으로 디스플레이 하는 위치정보영역; 을 포함하고,
상기 이미지단순화단계는,
상기 이미지를 그레이스케일로 변환하여 그레이스케일이미지를 생성하는 그레이스케일변환단계를 포함하고,
상기 제2디스플레이정보생성단계는,
상기 촉각인터페이스장치의 복수의 핀에 있어서 상기 그레이스케일이미지의 상기 출력영역의 정보를 상기 핀의 좌표에 매핑 하여 상기 핀 각각의 상승 혹은 하강의 단계를 결정하여 제2디스플레이정보를 생성하는, 이미지 뷰어 기능을 제공하는 장치.
A device implemented as a computing device including a processor and connected to the computing device to provide an image viewer function through a tactile interface device capable of interacting with a user,
The computing device includes an image viewer module; Including,
The image viewer module,
An image selection unit for selecting an image to be output by the user's input; And
An image output unit for outputting the selected image through the computing device and the tactile interface device; Including,
The image output unit,
An image discrimination step of determining the type of the image based on the information of the image to be output;
An image simplification step of simplifying the image to be output by the tactile interface device based on the determined type of the image;
An image display step of outputting the simplified image through the computing device and the tactile interface device; And
An output image adjustment step of enlarging, reducing or moving the image output through the tactile interface device by the user's input; And
The image display step,
An output area determining step of setting an area to be output through the tactile interface device among the images as an output area;
A first display information generating step of generating first display information including information of the image to be displayed on a computing device based on the image; And
A second display information generating step of generating second display information including image information of an output region of a simplified image to be tactilely displayed in a tactile interface device based on the image; Including,
The tactile display displayed by the image output unit,
A content area tactilely displaying image information of the output area of the simplified image; And
A location information area tactilely displaying information on the output area; Including,
The image simplification step,
A grayscale conversion step of converting the image to grayscale to generate a grayscale image,
The second display information generation step,
An image viewer generating second display information by determining the step of rising or falling of each of the pins by mapping the information of the output area of the grayscale image to the coordinates of the pin in a plurality of pins of the tactile interface device A device that provides functionality.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190029099A KR102078363B1 (en) | 2019-03-14 | 2019-03-14 | Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190029099A KR102078363B1 (en) | 2019-03-14 | 2019-03-14 | Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102078363B1 true KR102078363B1 (en) | 2020-04-23 |
Family
ID=70472646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190029099A KR102078363B1 (en) | 2019-03-14 | 2019-03-14 | Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102078363B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120063982A (en) | 2010-12-08 | 2012-06-18 | 한국전자통신연구원 | Apparatus and method of man-machine interface for invisible user |
KR20120136642A (en) * | 2011-06-09 | 2012-12-20 | 삼성전자주식회사 | Apparatus and method for providing interface in device with touch screen |
KR20140010756A (en) * | 2012-07-17 | 2014-01-27 | 주식회사 인프라웨어 | Mobile device for visual-handicapped persons with text/image/video presentation |
KR20180021332A (en) * | 2016-08-19 | 2018-03-02 | 가천대학교 산학협력단 | Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device |
KR20180041101A (en) * | 2018-04-10 | 2018-04-23 | 가천대학교 산학협력단 | Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device |
KR101893014B1 (en) * | 2017-08-03 | 2018-08-30 | 가천대학교 산학협력단 | Method, Device, and Non-transitory Computer-Readable Medium for Controlling Tactile Interface Device |
-
2019
- 2019-03-14 KR KR1020190029099A patent/KR102078363B1/en active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120063982A (en) | 2010-12-08 | 2012-06-18 | 한국전자통신연구원 | Apparatus and method of man-machine interface for invisible user |
KR20120136642A (en) * | 2011-06-09 | 2012-12-20 | 삼성전자주식회사 | Apparatus and method for providing interface in device with touch screen |
KR20140010756A (en) * | 2012-07-17 | 2014-01-27 | 주식회사 인프라웨어 | Mobile device for visual-handicapped persons with text/image/video presentation |
KR20180021332A (en) * | 2016-08-19 | 2018-03-02 | 가천대학교 산학협력단 | Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device |
KR101893014B1 (en) * | 2017-08-03 | 2018-08-30 | 가천대학교 산학협력단 | Method, Device, and Non-transitory Computer-Readable Medium for Controlling Tactile Interface Device |
KR20180041101A (en) * | 2018-04-10 | 2018-04-23 | 가천대학교 산학협력단 | Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10845880B2 (en) | Method, device, and computer-readable medium for controlling tactile interface device interacting with user | |
US10657328B2 (en) | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling | |
JP6619911B2 (en) | Device, method, and graphical user interface for wireless pairing with a peripheral device and displaying status information about the peripheral device | |
CN107491181B (en) | Dynamic phrase extension for language input | |
KR101864584B1 (en) | Method, Device, and Non-transitory Computer-Readable Medium for Providing Time Information By Tactile Interface Device | |
KR102120451B1 (en) | Method, Device, and Computer-Readable Medium for Providing Internet Browsing Service by Tactile Interface Device | |
US10891875B2 (en) | Method, device, and non-transitory computer-readable medium for controlling tactile interface device | |
US11462127B2 (en) | Systems and methods for accessible widget selection | |
JP2017220231A (en) | Handwriting keyboard for screens | |
KR102055696B1 (en) | System, Method, and Non-transitory Computer-Readable Medium for Providing Messenger By Tactile Interface Device | |
KR101893014B1 (en) | Method, Device, and Non-transitory Computer-Readable Medium for Controlling Tactile Interface Device | |
KR102325061B1 (en) | Cognitive Assistance System and Method for Visually Impaired | |
US11545061B2 (en) | Electronic device for displaying screen through display in low-power mode and operating method thereof | |
KR102036632B1 (en) | Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device | |
KR102078363B1 (en) | Method, Device, and Non-transitory Computer-Readable Medium for Providing Image Viewer Function By Tactile Interface Device | |
KR102108998B1 (en) | System, Method, and Non-transitory Computer-Readable Medium for Providing Word Processor By Tactile Interface Device | |
KR102008844B1 (en) | Method, Device, and Non-transitory Computer-Readable Medium for Providing Calculator Function By Tactile Interface Device | |
KR101935543B1 (en) | Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device | |
KR102187871B1 (en) | Method, Device, and Non-transitory Computer-Readable Medium for Providing Braille Education Support Function By Tactile Interface Device | |
KR102078360B1 (en) | Method, Device, and Non-transitory Computer-Readable Medium for Providing Braille Application Management Function By Tactile Interface Device | |
KR102066123B1 (en) | System, Method, and Non-transitory Computer-Readable Medium for Providing Book Information By Tactile Interface Device | |
KR102261668B1 (en) | Method, Device, and Non-transitory Computer-Readable Medium for Providing Braille Graphic Education Support Function By Tactile Interface Device | |
KR20220115659A (en) | System for Sending Documents Containing Private Information for Blind User | |
KR102078354B1 (en) | Method, Device, and Non-transitory Computer-Readable Medium for Providing E-mail Management Function By Tactile Interface Device | |
KR102109005B1 (en) | Method and System for Providing CardGame Function By Tactile Interface Device |