KR20220006357A - Method for providing web document for people with low vision and user terminal thereof - Google Patents
Method for providing web document for people with low vision and user terminal thereof Download PDFInfo
- Publication number
- KR20220006357A KR20220006357A KR1020200084213A KR20200084213A KR20220006357A KR 20220006357 A KR20220006357 A KR 20220006357A KR 1020200084213 A KR1020200084213 A KR 1020200084213A KR 20200084213 A KR20200084213 A KR 20200084213A KR 20220006357 A KR20220006357 A KR 20220006357A
- Authority
- KR
- South Korea
- Prior art keywords
- output unit
- paragraph
- sentence
- touch input
- web document
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 208000010415 Low Vision Diseases 0.000 title claims abstract description 42
- 230000004303 low vision Effects 0.000 title claims abstract description 42
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 3
- 230000001771 impaired effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04805—Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 저시력자를 위한 웹문서 제공방법 및 그 사용자 단말에 대한 것으로, 보다 상세하게는 웹문서의 내용 중 일부를 선택적으로 제공하는 저시력자를 위한 웹문서 제공방법 및 그 사용자 단말에 대한 것이다.The present invention relates to a method for providing a web document for a person with low vision and a user terminal thereof, and more particularly, to a method for providing a web document for a person with low vision and a user terminal thereof for selectively providing some of the contents of a web document.
저시력자는 시력이 매우 나빠 앞을 잘 볼 수 없는 사람을 가리킨다. 저시력자는 시각적으로 제공되는 정보의 이용이 어려워 촉각이나 청각을 이용하여 정보를 획득하는 것이 일반적이다.Low vision refers to a person who has very poor eyesight and cannot see well. It is common for people with low vision to use tactile or auditory sense to obtain information because it is difficult to use information provided visually.
최근까지 스마트폰과 같은 전자기기가 널리 보급되고 있지만, 전자기기와 사용자가 서로 정보를 주고받는 과정들이 스크린을 매개로 이루어지고 있어 저시력자들의 전자기기 활용도는 일반인들에 비해 크게 낮은 실정이다.Until recently, electronic devices such as smartphones have been widely distributed, but the process of exchanging information between electronic devices and users is carried out through the screen, so that the use of electronic devices by people with low vision is significantly lower than that of the general public.
한편, 저시력자들이 전자기기에서 제공되는 정보를 손쉽게 이용하도록 하는 기술들이 개발되고 있다. 그 예로, 대한민국 등록특허공보 제10-0747724호(공고일자: 2007년 08월 09일)는 시각장애인을 위하여 웹 페이지의 구성 내용을 음성으로 안내하고 사용자의 명령에 따라 웹 네비게이션을 수행하는 웹 네비게이션 시스템 및 그 방법을 개시하고 있다.Meanwhile, technologies are being developed that allow people with low vision to easily use information provided by electronic devices. For example, Republic of Korea Patent Publication No. 10-0747724 (announced date: August 09, 2007) is a web navigation that guides the contents of a web page by voice and performs web navigation according to a user's command for the visually impaired. A system and method are disclosed.
시각장애인의 경우 터치 입력을 기본으로 하는 스마트 기기에서 제공되는 웹페이지에 대한 접근성이 매우 낮다.For the visually impaired, access to web pages provided by smart devices based on touch input is very low.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 웹페이지 중 사용자가 원하는 부분을 용이하게 선택하는 방법과, 선택된 부분을 저시력자에게 적합한 다양한 수단으로 출력하는 방법을 제공하는 것을 목적으로 한다.The present invention has been devised to solve the above problems, and an object of the present invention is to provide a method for easily selecting a desired portion of a web page by a user and a method for outputting the selected portion by various means suitable for people with low vision.
본 발명의 다양한 실시 예에 따른 저시력자를 위한 웹문서 제공방법은, 웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정 및 상기 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 과정을 포함할 수 있다. 여기서, 상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정될 수 있다.A method for providing a web document for a person with low vision according to various embodiments of the present disclosure includes the steps of dividing a paragraph included in a web document into an upper layer, and dividing at least one of sentences and objects included in the paragraph into a lower layer, and the The method may include sequentially outputting a first output unit corresponding to the first touch input to an n-th output unit corresponding to the n-th touch input when a plurality of touch inputs are sequentially received with respect to the web document. Here, at least one of the paragraph, the sentence, and the object may be set as an individual output unit.
본 발명의 다양한 실시 예에 따른 사용자 단말은, 저장부 및 웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하고, 상기 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 프로세서를 포함할 수 있다. 여기서, 상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정될 수 있다.The user terminal according to various embodiments of the present invention divides a paragraph included in the storage unit and a web document into an upper layer, divides at least one of sentences and objects included in the paragraph into a lower layer, and stores the paragraph in the web document. The processor may include a processor that sequentially outputs a first output unit corresponding to the first touch input to an n-th output unit corresponding to the n-th touch input when a plurality of touch inputs are sequentially received. Here, at least one of the paragraph, the sentence, and the object may be set as an individual output unit.
본 발명의 다양한 실시 예에 따르면, 저시력자는 웹페이지 중 원하는 부분을 용이하게 선택할 수 있고, 선택된 부분을 적합한 다양한 수단으로 제공받을 수 있다.According to various embodiments of the present disclosure, a person with low vision may easily select a desired portion of a web page, and may receive the selected portion through various suitable means.
도 1은 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 DOM을 도시한다.
도 3은 본 발명의 일 실시 예에 따른 문장구조트리를 도시한다.
도 4는 본 발명의 일 실시 예에 따른 출력유닛의 선택방법을 도시한다.
도 5는 본 발명의 일 실시 예에 따른 출력유닛의 선택 및 출력을 도시한다.
도 6은 본 발명의 일 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 7은 본 발명의 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 8은 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 9는 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 10은 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 11은 본 발명의 일 실시 예에 따른 웹페이지를 도시한다.
도 12는 본 발명의 다른 실시 예에 따른 웹페이지를 도시한다.
도 13은 본 발명의 또 다른 실시 예에 따른 웹페이지를 도시한다.
도 14는 본 발명의 일 실시 예에 따른 사용자 단말의 시스템 블록도를 도시한다.
도 15는 본 발명의 일 실시 예에 따른 사용자 단말의 세부구성에 대한 블록도이다.1 is a block diagram of a user terminal according to an embodiment of the present invention.
2 illustrates a DOM according to an embodiment of the present invention.
3 shows a sentence structure tree according to an embodiment of the present invention.
4 shows a method of selecting an output unit according to an embodiment of the present invention.
5 shows selection and output of an output unit according to an embodiment of the present invention.
6 illustrates a screen of a user terminal according to an embodiment of the present invention.
7 illustrates a screen of a user terminal according to another embodiment of the present invention.
8 illustrates a screen of a user terminal according to another embodiment of the present invention.
9 shows a screen of a user terminal according to another embodiment of the present invention.
10 illustrates a screen of a user terminal according to another embodiment of the present invention.
11 illustrates a web page according to an embodiment of the present invention.
12 shows a web page according to another embodiment of the present invention.
13 shows a web page according to another embodiment of the present invention.
14 is a system block diagram of a user terminal according to an embodiment of the present invention.
15 is a block diagram of a detailed configuration of a user terminal according to an embodiment of the present invention.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대한 동작원리를 상세히 설명한다. 또한, 발명에 대한 실시 예를 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 하기에서 사용되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로써, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 사용된 용어들의 정의는 본 명세서 전반에 걸친 내용 및 이에 상응한 기능을 토대로 해석되어야 할 것이다.Hereinafter, the principle of operation of a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. In addition, when it is determined that a detailed description of a related well-known function or configuration may obscure the gist of the present disclosure in describing an embodiment of the present invention, the detailed description thereof will be omitted. And the terms used below are terms defined in consideration of functions in the present invention, which may vary depending on the intention or custom of the user or operator. Therefore, the definitions of the terms used should be interpreted based on the contents and corresponding functions throughout this specification.
도 1은 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.1 is a block diagram of a user terminal according to an embodiment of the present invention.
사용자 단말(100)은 스마트폰, 태블릿PC, 랩톱, 스마트TV, 스마트안경, 스마트워치, 셀룰러폰, 태블릿PC, MP3플레이어, PMP 중 하나일 수 있으며 이에 제한되지 않는다.The
도 1을 참조하면, 사용자 단말(100)은 저장부(110) 및 프로세서(120)를 포함할 수 있다.Referring to FIG. 1 , the
저장부(110)는 다양한 데이터를 저장할 수 있다. 일 예로, 저장부(110)는 텍스트 데이터, 이미지 데이터, 동영상 데이터, 오디오 데이터 등 다양한 사용자 데이터가 저장될 수 있다.The
여기서, 저장부(110)는 대용량 저장장치로써 사용자 데이터 등을 저장한다. 저장부(110)는 하드디스크 또는 광디스크 등과 같은 종래의 일반적인 대용량 저장장치 또는 메모리 카드 등의 저장매체가 될 수 있다. 또한, 저장부(110)는 DRAM(Dynamic Random Access Memory)이거나, 플래시 메모리 등의 반도체 소자를 사용한 SSD(Solid State Disk) 형태의 대용량 저장장치일 수도 있다. 또한, 저장부(110)는 광학디스크(Optical Disk)로 구현될 수도 있다.Here, the
프로세서(120)는 웹문서에 포함된 내용을 출력할 수 있다. 구체적으로, 프로세서(120)는 웹문서의 구조에 기초하여 웹문서에 포함된 내용을 출력할 수 있다.The
일반적으로, 웹문서는 문서 객체 모델(DOM; Document Object Model)로 구조화되어 있다. DOM은 플랫폼/언어 중립적으로 구조화된 문서를 표현하는 W3C의 공식 표준이다. DOM은 또한 W3C가 표준화한 여러 개의 API의 기반이 된다.In general, a web document is structured in a document object model (DOM). DOM is the W3C's official standard for representing structured documents that are platform/language-neutral. The DOM is also the basis for several APIs standardized by the W3C.
도 2는 본 발명의 일 실시 예에 따른 DOM을 도시한다.2 illustrates a DOM according to an embodiment of the present invention.
도 2를 참조하면, 웹문서의 DOM은 트리구조이다. DOM 트리구조는 단락, 그룹, 다양한 태그 간의 계층구조를 포함할 수 있다(단락 그룹 다양한 태그 단어, 예) <p> <div> <section> <p> <div> <span> 각종 태그 단어).Referring to FIG. 2 , the DOM of a web document has a tree structure. The DOM tree structure can contain paragraphs, groups, and hierarchies between various tags (paragraphs). group various tags word, eg) <p><div><section> <p><div><span> various tags word).
이러한 DOM은 표준화를 통해 웹문서(또는 웹브라우저)에서 널리 이용되고 있다. 하지만, DOM은 사람이 문장을 읽는 방식을 그대로 반영하지 못하기 때문에, 저시력자의 선택에 따라 웹문서를 출력하는 방식에 그대로 적용되기에는 무리가 있다.This DOM is widely used in web documents (or web browsers) through standardization. However, since the DOM does not reflect the way a person reads a sentence as it is, it is difficult to apply it as it is to the method of outputting a web document according to the choice of a person with low vision.
이에 따라, 본 발명은 저시력자의 선택에 따라 웹문서를 선택적으로 출력하는데 이용가능한 저시력 문장구조트리(SST: Sentence Structure Tree)를 새롭게 제안한다.Accordingly, the present invention newly proposes a low-vision sentence structure tree (SST) that can be used to selectively output a web document according to the selection of a person with low vision.
도 3은 본 발명의 일 실시 예에 따른 문장구조트리를 도시한다.3 shows a sentence structure tree according to an embodiment of the present invention.
도 3을 참조하면, 문장구조트리는 웹문서를 단락, 문장, 오브젝트(객체) 등으로 구분할 수 있다.Referring to FIG. 3 , the sentence structure tree may classify a web document into paragraphs, sentences, objects (objects), and the like.
일 예로, 웹문서는 단락으로 구성될 수 있다. 여기서, 웹문서에 포함된 단락은 상위계층으로 구분될 수 있다. 또한, 단락은 문장 및 오브젝트 중 적어도 하나를 포함할 수 있다. 이 경우, 단락에 포함된 문장 및 오브젝트 중 적어도 하나는 하위계층으로 구분될 수 있다. 상술한 예에서, 문장 및 오브젝트는 동일한 등급의 계층으로 정의되거나, 문자 및 오브젝트가 서로 다른 등급의 계층으로 정의될 수 있음은 물론이다.For example, a web document may be composed of paragraphs. Here, paragraphs included in the web document may be divided into upper layers. Also, a paragraph may include at least one of a sentence and an object. In this case, at least one of sentences and objects included in a paragraph may be divided into lower layers. Of course, in the above example, sentences and objects may be defined as hierarchies of the same grade, or text and objects may be defined as hierarchies of different grades.
다른 예로, 웹문서는 단락 및 그룹 중 적어도 하나를 포함할 수 있다. 여기서, 그룹은 표, 이미지 등을 포함하는 객체로 정의될 수 있다. 예를 들어, 웹문서에 포함된 단락 또는 그룹은 상위계층으로 구분될 수 있다. 또한, 단락은 문장 및 오브젝트 중 적어도 하나를 포함하고, 그룹은 적어도 하나의 오브젝트를 포함할 수 있다. 이 경우, 단락 또는 그룹에 포함된 문장 및 오브젝트 중 적어도 하나는 하위계층으로 구분될 수 있다. 상술한 예에서, 문장 및 오브젝트는 동일한 등급의 계층으로 정의되거나, 문자 및 오브젝트가 서로 다른 등급의 계층으로 정의될 수 있음은 물론이다.As another example, the web document may include at least one of a paragraph and a group. Here, a group may be defined as an object including a table, an image, and the like. For example, paragraphs or groups included in a web document may be divided into higher layers. Also, a paragraph may include at least one of a sentence and an object, and a group may include at least one object. In this case, at least one of sentences and objects included in a paragraph or group may be divided into lower layers. Of course, in the above example, sentences and objects may be defined as hierarchies of the same grade, or text and objects may be defined as hierarchies of different grades.
또 다른 예로, 웹문서는 제목, 표, 그림 등의 오브젝트의 그룹으로 구성될 수도 있다. 또 다른 예로, 웹문서는 단락과, 제목, 표, 그림 등의 오브젝트가 함께 포함되도록 구성될 수도 있으며 이에 제한되지 않을 것이다.As another example, a web document may be composed of a group of objects such as a title, a table, and a picture. As another example, the web document may be configured to include objects such as a paragraph, a title, a table, and a picture together, but is not limited thereto.
상술한 예에서, 단락은 DOM으로부터 획득된 <p> 태그 또는 줄바뀜으로 구분되고, 문장은 마침표(.)로 구분되고, 오브젝트는 이미지 또는 표로서 구분될 수 있다.In the above-described example, paragraphs may be separated by <p> tags or line breaks obtained from the DOM, sentences may be separated by periods (.), and objects may be separated as images or tables.
상술한 본 발명의 다양한 실시 예에서, 프로세서(120)는 웹문서의 정보를 출력하는 단위가 되는 출력유닛을 설정할 수 있다. 또는, 상기 출력유닛은 기설정될 수 있다.In various embodiments of the present invention described above, the
여기서, 출력유닛이란 웹문서 중 일부를 화면에 출력하거나 음성으로 출력하는 경우의 단위일 수 있다.Here, the output unit may be a unit for outputting a part of a web document on a screen or outputting it by voice.
일 예로, 웹문서에서 단락, 문장, 오브젝트 중 적어도 하나가 선택되는 경우, 프로세서(120)는 단락, 문장, 오브젝트 중 적어도 하나를 출력유닛으로로 설정하여 출력을 수행할 수 있다.For example, when at least one of a paragraph, a sentence, and an object is selected in a web document, the
일 예로, 웹문서에서 단락, 문장, 오브젝트 중 적어도 하나가 선택되는 경우, 프로세서(120)는 선택된 상기 적어도 하나를 선택된 순서에 따라 출력을 수행할 수 있다.For example, when at least one of a paragraph, a sentence, and an object is selected in the web document, the
상술한 예에서, 단락, 문장 및 오브젝트 각각이 출력유닛으로 설정됨을 설명하였으나 이에 제한되지 않는다.In the above example, although it has been described that each of a paragraph, a sentence, and an object is set as an output unit, the present invention is not limited thereto.
예를 들면, 단락, 문장, 오브젝트 중 일부만이 선택된 경우, 해당 일부가 출력유닛으로 설정될 수 있다.For example, when only a part of a paragraph, a sentence, and an object is selected, the part may be set as an output unit.
일 예로, 웹문서에 포함된 첫 번째 단락과, 두 번째 단락의 일부가 선택된 경우, 첫 번째 단락 및 두 번째 단락의 일부가 개별적으로 출력유닛으로 설정되고, 순차적으로 출력될 수 있다.For example, when a portion of the first paragraph and the second paragraph included in the web document is selected, the first paragraph and a portion of the second paragraph may be individually set as an output unit and sequentially output.
다른 예로, 웹문서에 포함된 첫 번째 단락에 포함된 첫 번째 문장과, 두 번째 문장의 일부가 선택된 경우, 첫 번째 문장 및 두 번째 문장의 일부가 개별적으로 출력유닛으로 설정되고, 순차적으로 출력될 수 있다.As another example, when a part of the first sentence and the second sentence included in the first paragraph included in the web document is selected, the first sentence and part of the second sentence are individually set as output units and output sequentially. can
또 다른 예로, 웹문서에 포함된 첫 번째 단락에 포함된 첫 번째 문장과, 오브젝트에 포함된 이미지 부분이 선택된 경우, 첫 번째 문장 및 오브젝트에 포함된 이미지 부분이 개별적으로 출력유닛으로 설정되고, 순차적으로 출력될 수 있다. 이 경우, 상기 이미지 부분은 이미지 부분에 태그된 별도의 설명문구를 통해 출력이 수행될 수 있다.As another example, when the first sentence included in the first paragraph included in the web document and the image part included in the object are selected, the first sentence and the image part included in the object are individually set as output units, sequentially can be output as In this case, the image part may be output through a separate explanatory text tagged to the image part.
또 다른 예로, 웹문서에 포함된 첫 번째 단락에 포함된 첫 번째 문장과, 오브젝트에 포함된 문자 부분이 선택된 경우, 첫 번째 문장 및 오브젝트에 포함된 문자 부분이 개별적으로 출력유닛으로 설정되고, 순차적으로 출력될 수 있다.As another example, when the first sentence included in the first paragraph included in the web document and the text part included in the object are selected, the first sentence and text part included in the object are individually set as output units, sequentially can be output as
도 4는 본 발명의 일 실시 예에 따른 출력유닛의 선택방법을 도시한다.4 shows a method of selecting an output unit according to an embodiment of the present invention.
도 4를 참조하면, 문장구조트리(또는 웹문서)에 포함되는 객체(또는 출력유닛)들은 선택된 순서에 따라 체인으로 연결되어 포커싱될 수 있다. 이 경우, 연결된 체인은 순차적으로 출력될 수 있다.Referring to FIG. 4 , objects (or output units) included in the sentence structure tree (or web document) may be focused by being connected in a chain according to a selected order. In this case, the connected chains may be output sequentially.
예를 들면, 도 4를 참조하면, 첫 번째 순서로, 웹문서에 포함되는 제1 단락(401)에 포함되는 제1 문장(4011)이 선택될 수 있다. 두 번째 순서로, 웹문서에 포함되는 제2 단락(402)이 선택될 수 있다. 세 번째 순서로, 제1 단락(401)에 포함되는 제2 문장(4012)이 선택될 수 있다. 네 번째 순서로, 제3 단락(403)에 포함되는 제3 문장(4031) 및 제4 문장(4032)가 연이어 선택될 수 있다. 다섯 번째 순서로, 그룹(404)에 포함되는 오브젝트가 선택될 수 있다. 여섯 번째 순서로, 선택을 완료하기 위한 아이콘을 선택됨으로써, 선택 과정을 완료할 수 있다.For example, referring to FIG. 4 , in the first order, the
이 경우, 프로세서(120)는 제1 문장(4011), 제2 단락(402), 제2 문장(4012), 제3 문장(4031), 제4 문장(4032) 및 그룹(404)에 포함되는 오브젝트에 대한 정보를 체인화하고, 이를 순차적으로 출력할 수 있다.In this case, the
도 5는 본 발명의 일 실시 예에 따른 출력유닛의 선택 및 출력을 도시한다.5 shows selection and output of an output unit according to an embodiment of the present invention.
도 5를 참조하면, 복수의 출력유닛이 순차적으로 선택될 수 있다. 예를 들면, 제1 터치에 따라 제1 출력유닛이 선택되고(501), 제2 터치에 따라 제2 출력유닛이 선택되고(501), 제n 터치에 따라 제n 출력유닛이 선택될 수 있다(503).Referring to FIG. 5 , a plurality of output units may be sequentially selected. For example, the first output unit may be selected according to the first touch (501), the second output unit may be selected according to the second touch (501), and the nth output unit may be selected according to the nth touch. (503).
이 경우, 프로세서(120)는 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력할 수 있다(504).In this case, the
여기서, 출력유닛은 스크린에 확대되어 출력되거나 음성으로 출력될 수 있다.Here, the output unit may be output by being enlarged on the screen or output as a voice.
일 예로, 프로세서(120)는 웹문서에서, 상위계층에 포함되는 제1 단락에 첫 번째 터치입력이 수행되는 경우, 제1 단락을 첫 번째 출력유닛으로 설정할 수 있다.For example, in the web document, when a first touch input is performed on a first paragraph included in an upper layer, the
또한, 프로세서는(120)는 제1 단락에 포함되는 제1 문장에 두 번째 터치입력이 수행되는 경우, 제1 문장을 첫 번째 출력유닛으로 업데이트할 수 있다. 이 경우, 상기에서 첫 번째 출력유닛으로 설정된 제1 단락에 대한 설정이 삭제되고, 상기 제1 문장이 첫 번째 출력유닛으로 설정될 수 있다. 또는, 상위계층에 포함되는 제2 단락에 두 번째 터치입력이 수행되는 경우, 프로세서(120)는 제2 단락을 두 번째 출력유닛으로 설정할 수 있다.Also, when a second touch input is performed on the first sentence included in the first paragraph, the
또한, 프로세서(120)는 제1 단락에 포함되는 제2 문장 또는 오브젝트에 세 번째 터치입력이 수행되는 경우, 제2 문장 또는 오브젝트를 두 번째 출력유닛으로 업데이트할 수 있다. 여기서, 오브젝트는 이미지 및 표 중 적어도 하나일 수 있다. 또는, 상위계층에 포함되는 제2 단락에 세 번째 터치입력이 수행되는 경우, 프로세서(120)는 제2 단락을 두 번째 출력유닛으로 설정할 수 있다.Also, when a third touch input is performed on the second sentence or object included in the first paragraph, the
예를 들어, 첫 번째 출력유닛 및 두 번째 출력유닛이 설정된 상태에서, 메뉴 아이템에 대한 터치입력이 수행되는 경우, 프로세서(120)는 확대모드에 대한 아이템 및 음성모드에 대한 아이템을 디스플레이할 수 있다. 확대모드에 대한 아이템 및 음성모드에 대한 아이템 중 하나에 터치입력이 수행되는 경우, 프로세서(120)는 선택된 모드에 기초하여 첫 번째 출력유닛 및 두 번째 출력유닛을 순차적으로 출력할 수 있다.For example, when a touch input is performed on a menu item in a state where the first output unit and the second output unit are set, the
상술한 예에서, 확대모드에 대한 아이템이 터치되는 경우, 프로세서(120)는 제1 출력유닛 내지 제n 출력유닛을 순차적으로 디스플레이할 수 있다. 또는, 음성모드에 대한 아이템이 터치되는 경우, 프로세서(120)는 제1 출력유닛 내지 제n 출력유닛을 순차적으로 음성출력할 수 있다.In the above-described example, when the item for the enlargement mode is touched, the
상술한 본 발명의 다양한 실시 예에서, 제2 단락에 포함되는 제3 문장에 네 번째 터치입력이 수행되는 경우, 프로세서(120)는 제3 문장을 두 번째 출력유닛으로 업데이트할 수 있다.In various embodiments of the present disclosure described above, when the fourth touch input is performed on the third sentence included in the second paragraph, the
상술한 본 발명의 다양한 실시 예에서, 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 프로세서(120)는 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 강조 표시할 수 있다. 예를 들어, 강조 표시란 선택된 영역에 대한 하이라이트, 선택된 영역에 대한 글자 색 변경 등 다양한 표시 방법을 포함할 수 있다.In various embodiments of the present invention described above, when a plurality of touch inputs are sequentially received with respect to a web document, the
이하에서, 도 6 내지 도 10을 참조하여, 웹문서 중 일부를 선택하고, 선택된 일부를 출력하는 실시 예를 상세히 설명한다.Hereinafter, an embodiment of selecting a part of a web document and outputting the selected part will be described in detail with reference to FIGS. 6 to 10 .
도 6은 본 발명의 일 실시 예에 따른 사용자 단말의 화면을 도시한다.6 illustrates a screen of a user terminal according to an embodiment of the present invention.
도 6을 참조하면, 사용자 단말(100)의 화면(610)은 메뉴 아이템(611)을 포함할 수 있다. 메뉴 아이템(611)은 저시력자를 위한 모드 선택을 제공하기 위한 아이템이다.Referring to FIG. 6 , the
도 7은 본 발명의 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.7 illustrates a screen of a user terminal according to another embodiment of the present invention.
도 7을 참조하면, 사용자 단말(100)의 화면(620)은 복수의 아이템을 포함할 수 있다. 여기서, 선택 아이템(621)은 저시력자를 위한 선택모드를 제공하기 위한 아이템이다. 예를 들어, 선택 아이템(621)이 터치되는 경우, 터치 입력을 통하여 사용자는 웹문서 중 원하는 부분을 선택할 수 있다.Referring to FIG. 7 , the
도 8은 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.8 illustrates a screen of a user terminal according to another embodiment of the present invention.
도 8은 선택 아이템(621)이 선택되어 선택모드가 제공된 상태를 도시한다.8 illustrates a state in which the
도 8을 참조하면, 사용자는 제1 단락에 포함된 제1 문장(631), 제2 단락에 포함된 제2 문장(632) 및 제3 문장(633)을 순차적으로 선택할 수 있다. 여기서, 각 문장에 대한 선택은 터치 입력으로 수행될 수 있다. 여기서 티치 입력은, 기정의된 시간 동안의 터치, 터치 앤 드래그, 복수 회의 터치 등 다양한 터치 동작일 수 있다.Referring to FIG. 8 , the user may sequentially select the
프로세서는, 제1 단락에 포함된 제1 문장(631), 제2 단락에 포함된 제2 문장(632) 및 제3 문장(633)이 순차적으로 터치됨에 따라, 제1 단락에 포함된 제1 문장(631), 제2 단락에 포함된 제2 문장(632) 및 제3 문장(633)을 순차적으로 강조표시할 수 있다.When the
상술한 터치 입력에 따라, 프로세서(120)는 제1 문장(631), 제2 문장(632) 및 제3 문장(633) 각각을 출력유닛으로 설정할 수 있다. According to the above-described touch input, the
제1 문장(631), 제2 문장(632) 및 제3 문장(633)이 선택된 후 메뉴 아이템(634)가 선택되는 경우, 프로세서(120)는 선택모드를 종료하고 출력모드 선택을 위한 화면을 전환할 수 있다.When the menu item 634 is selected after the
도 9는 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.9 shows a screen of a user terminal according to another embodiment of the present invention.
도 9를 참조하면, 사용자 단말(100)의 화면(640)은 확대모드에 대한 아이템(641) 및 음성모드에 대한 아이템(642)을 포함할 수 있다.Referring to FIG. 9 , the
예를 들어, 확대모드에 대한 아이템(641) 및 음성모드에 대한 아이템(642) 중 하나에 터치입력이 수행되는 경우, 프로세서(120)는 선택된 모드에 기초하여 제1 문장(631), 제2 문장(632) 및 제3 문장(633)을 순차적으로 출력할 수 있다. 여기서, 제1 문장(631), 제2 문장(632) 및 제3 문장(633)은 제1 출력유닛 내지 제3 출력유닛에 대응될 수 있다.For example, when a touch input is performed on one of the
구체적으로, 확대모드에 대한 아이템(641)이 터치되는 경우, 프로세서(120)는 제1 문장(631), 제2 문장(632) 및 제3 문장(633)을 순차적으로 디스플레이할 수 있다. 또는, 프로세서(120)는 제1 문장(631), 제2 문장(632) 및 제3 문장(633)을 순서대로 연결하여 하나의 화면에 동시에 디스플레이할 수도 있다.Specifically, when the
음성모드에 대한 아이템(642)이 터치되는 경우, 프로세서(120)는 제1 문장(631), 제2 문장(632) 및 제3 문장(633)을 순차적으로 음성출력할 수 있다. 이 경우, 프로세서(120)는 제1 문장(631)을 음성출력하기 전 순서에 제1 문장(631)이 제1 문단에 포함됨을 음성출력한 후, 제1 문장(631)을 음성출력할 수 있다. 또한, 프로세서(120)는 제2 문장(632) 및 제3 문장(633)이 제2 문단에 포함됨을 음성출력한 후, 제2 문장(632) 및 제3 문장(633)을 음성출력할 수 있다.When the
도 10은 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.10 illustrates a screen of a user terminal according to another embodiment of the present invention.
도 10을 참조하면, 제1 문장(631), 제2 문장(632) 및 제3 문장(633)은 기정의된 시간 간격에 따라 순차적으로 디스플레이될 수 있다. Referring to FIG. 10 , the
예를 들어, 사용자 단말(100)의 화면(650)을 참조하면, 제1 문장(631)이 확대 디스플레이된 다음, 제2 문장(632) 및 제3 문장(633)이 확대 디스플레이될 수 있다. For example, referring to the
또는, 제1 문장(631), 제2 문장(632) 및 제3 문장(633)이 순서대로 연결되어 하나의 화면에 동시에 디스플레이될 수 있다. 이 경우, 제1 문장(631)의 앞 부분에는 제1 문장(631)이 제1 문단에 포함됨을 표시하고, 제2 문장(632) 및 제3 문장(633)의 앞부분에는 제2 문장(632) 및 제3 문장(633)이 제2 문단에 포함됨을 표시할 수 있다.Alternatively, the
상술한 도 10의 경우, 제1 문장(631), 제2 문장(632) 및 제3 문장(633)에 대하여 강조표시가 수행되어 선택된 문장임이 표시될 수 있다.10 , the
이하에서, 도 11 내지 도 13을 참조하여, 웹페이지 중 일부의 선택된 상태를 도시한다.Hereinafter, with reference to FIGS. 11 to 13 , selected states of some of the web pages are shown.
도 11은 본 발명의 일 실시 예에 따른 웹페이지를 도시한다.11 illustrates a web page according to an embodiment of the present invention.
도 11은 검색 엔진의 카테고리를 블로그로 설정한 상태에서 '파리 여행'을 검색한 결과를 도시한다.11 shows the results of a search for 'Paris Travel' in a state in which the category of the search engine is set as a blog.
도 11을 참조하면, 사용자 단말(100)의 화면(1110)에서 제1 블로그(1111)의 문자로 구성된 내용 일부 및 썸네일이 선택되고, 제2 블로그(1112)의 문자로 구성된 내용 일부가 순차적으로 선택될 수 있다. 이 경우, 프로세서(120)는 사용자 단말(100)의 화면(1110)에서 제1 블로그(1111)의 문자로 구성된 내용 일부, 썸네일 및 제2 블로그(1112)의 문자로 구성된 내용 일부를 강조표시할 수 있다.11 , on the
프로세서(120)는 제1 블로그(1111)의 문자로 구성된 내용 일부, 제1 블로그(1111)의 썸네일 및 제2 블로그(1112)의 문자로 구성된 내용 일부를 개별적인 출력 유닛으로 설정할 수 있다. 프로세서(120)는 제1 블로그(1111)의 문자로 구성된 내용 일부, 제1 블로그(1111)의 썸네일 및 제2 블로그(1112)의 문자로 구성된 내용 일부를 순차적으로 출력할 수 있다.The
상술한 예에서, 프로세서(120)는 제1 블로그(1111)의 썸네일에 대한 출력에서는, 제1 블로그(1111)의 썸네일에 별도에 태깅된 내용을 출력할 수 있다. 여기서, 태깅된 내용은 썸네일이라는 설명 또는 썸네일에 포함된 이미지에 대한 설명 등일 수 있다. 일 예로, 프로세서(120)는 썸네일에 태깅된 내용에 대한 출력으로, “썸네일입니다” 또는 “썸네일은 에펠탑을 포함합니다”를 출력할 수 있다.In the above-described example, in the output of the thumbnail of the
도 12는 본 발명의 다른 실시 예에 따른 웹페이지를 도시한다.12 shows a web page according to another embodiment of the present invention.
도 12는 검색 엔진의 카테고리를 블로그로 설정한 상태에서 '파리 여행'을 검색한 결과를 도시한다.12 shows a result of a search for 'Paris Travel' in a state in which the category of the search engine is set as a blog.
도 12를 참조하면, 사용자 단말(100)의 화면(1210)에서 제3 블로그(1211)의 문자로 구성된 내용이 선택되고, 제4 블로그(1212)의 문자로 구성된 내용 일부가 순차적으로 선택될 수 있다. 이 경우, 프로세서(120)는 제3 블로그(1211)의 문자로 구성된 내용 및 제4 블로그(1212)의 문자로 구성된 내용 일부를 강조표시할 수 있다.12 , on the
프로세서(120)는 제3 블로그(1211)의 문자로 구성된 내용 일부 및 제4 블로그(1212)의 문자로 구성된 내용 일부를 개별적인 출력 유닛으로 설정할 수 있다. 프로세서(120)는 제3 블로그(1211)의 문자로 구성된 내용 일부 및 제4 블로그(1212)의 문자로 구성된 내용 일부를 순차적으로 출력할 수 있다.The
도 13은 본 발명의 또 다른 실시 예에 따른 웹페이지를 도시한다.13 shows a web page according to another embodiment of the present invention.
도 13은 검색 엔진의 카테고리를 블로그로 설정한 상태에서 '파리 여행'을 검색한 결과를 도시한다.13 shows the results of a search for 'Paris Travel' in a state in which the category of the search engine is set as a blog.
도 13을 참조하면, 사용자 단말(100)의 화면(1310)에서 제5 블로그(1311)의 문자로 구성된 내용이 선택되고, 제6 블로그(1312)의 문자로 구성된 내용 일부가 순차적으로 선택될 수 있다. 여기서, 프로세서(120)는 제5 블로그(1311)의 문자로 구성된 내용 및 제6 블로그(1312)의 문자로 구성된 내용 일부를 순차적으로 강조표시할 수 있다.Referring to FIG. 13 , on the
프로세서(120)는 제5 블로그(1311)의 문자로 구성된 내용 일부 및 제6 블로그(1312)의 문자로 구성된 내용 일부를 개별적인 출력 유닛으로 설정할 수 있다. 프로세서(120)는 제5 블로그(1311)의 문자로 구성된 내용 일부 및 제6 블로그(1312)의 문자로 구성된 내용 일부를 순차적으로 출력할 수 있다.The
상술한 예에서, 제5 블로그(1311)의 문자로 구성된 내용 일부는 문장 또는 제목의 일부만을 포함할 수 있다. 이 경우, 프로세서(120)는 문장 또는 제목의 일부만을 출력유닛으로 설정하여 출력을 수행할 수 있다.In the above-described example, a portion of the content composed of characters of the
상술한 본 발명의 다양한 실시 예에 따르면, 저시력자는 웹페이지 중 원하는 부분을 용이하게 선택할 수 있고, 선택된 부분을 적합한 다양한 수단으로 제공받을 수 있다. 이에 따라, 저시력자의 사용자 단말에 대한 활용도가 크게 향상될 수 있다.According to various embodiments of the present invention described above, a person with low vision may easily select a desired portion of a web page, and may receive the selected portion through various suitable means. Accordingly, the usefulness of the user terminal of the low-vision person may be greatly improved.
도 14는 본 발명의 일 실시 예에 따른 사용자 단말의 시스템 블록도를 도시한다.14 is a system block diagram of a user terminal according to an embodiment of the present invention.
도 14를 참조하면, 사용자 단말(1400)은 문서 파싱 및 문서구조트리 생성부(1401), 터치 인식부(1403), 문서구조트리 구조 탐색부(1404), 화면 표시부(1405) 및 음성출력부(TTS: Text to Speech)(1406)를 포함할 수 있다.Referring to FIG. 14 , the
이하에서, 사용자 단말(1400)의 동작은 사용자 단말(1400)에 포함된 복수의 부(unit)에 의해 수행되는 것으로 설명하나, 이러한 복수의 부에 의해 수행되는 동작은 사용자 단말(1400)에 포함된 적어도 하나의 프로세서에 의해 수행될 수 있음은 물론이다.Hereinafter, the operation of the
웹문서 파싱 및 문서구조트리생성부(1401)는 웹문서를 파싱하여 문서구조트리(SST)를 생성할 수 있다(1401). 여기서, 문서구조트리에 대하여는 상술하였으므로 상세한 설명을 생략한다.The web document parsing and document structure
터치 인식부(1403)는 사용자의 터치 입력을 인식할 수 있다. 일 예로, 터치 인식부(1403)는 사용자 단말(1400)의 디스플레이에 대한 터치에 대응하는 웹문서의 부분을 획득하여 이를 기록해둘 수 있다.The
문서구조트리 구조 탐색부(1404)는 생성된 문서구조트리(1402)에 기초하여 기초하여 웹문서 구조를 탐색할 수 있다. 일 예로, 문서구조트리 구조 탐색부(1404)는 문서구조트리(1402)에 기초하여, 상술한 터치에 대응하는 웹문서 부분을 결정할 수 있다.The document structure tree
화면 표시부(1405)는 선택된 웹문서 부분을 디스플레이할 수 있다. 또한, 음성출력부(1406)는 선택된 웹문서 부분을 소리로서 출력할 수 있다.The
도 15는 본 발명의 일 실시 예에 따른 사용자 단말의 세부구성에 대한 블록도이다.15 is a block diagram of a detailed configuration of a user terminal according to an embodiment of the present invention.
도 15를 참조하면, 사용자 단말(1500)은 통신부(1510), 저장부(1520) 및 프로세서(1530)를 포함한다.Referring to FIG. 15 , the
통신부(1510)는 통신을 수행한다. 통신부(1510)는 BT(BlueTooth), WI-FI(Wireless Fidelity), ZigBee, IR(Infrared), NFC(Near Field Communication) 등과 같은 다양한 통신 방식을 통해 외부 기기와 통신을 수행할 수 있다.The
저장부(1520)는 사용자 단말(1500)을 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 디스플레이 영역에서 제공되는 다양한 UI 화면을 구성하기 위한 데이터 등을 저장할 수 있다. 또한, 저장부(1520)는 읽고 쓰기가 가능하다.The
프로세서(1530)는 저장부(1520)에 저장된 각종 프로그램을 이용하여 공유기 또는 단말(1500)의 동작을 전반적으로 제어한다.The
구체적으로, 프로세서(1530)는 RAM(1531), ROM(1532), 메인 CPU(1533), 그래픽 처리부(1534), 제1 내지 n 인터페이스(1535-1 ~ 1535-n) 및 버스(1536)를 포함한다.Specifically, the
RAM(1531), ROM(1532), 메인 CPU(1533), 그래픽 처리부(1534), 제1 내지 n 인터페이스(1535-1 ~ 1535-n) 등은 버스(1536)를 통해 서로 연결될 수 있다.The
제1 내지 n 인터페이스(1535-1 내지 1535-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n-th interfaces 1535-1 to 1535-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device through a network.
ROM(1532)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(1533)는 ROM(1532)에 저장된 명령어에 따라 저장부(1520)에 저장된 O/S를 RAM(1531)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(1533)는 저장된 각종 어플리케이션 프로그램을 RAM(1531)에 복사하고, RAM(1531)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.The
메인 CPU(1533)는 저장부(1520)에 액세스하여, 저장부(1520)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메인 CPU(1533)는 저장부(1520)에 저장된 각종 프로그램, 컨텐트, 데이터 등을 이용하여 다양한 동작을 수행한다.The
그래픽 처리부(1534)는 연산부 및 렌더링부를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다.The
도 16은 본 발명의 일 실시 예에 따른 저시력자를 위한 웹문서 제공방법에 대한 흐름도이다.16 is a flowchart of a method for providing a web document for a person with low vision according to an embodiment of the present invention.
사용자 단말에서 수행되는, 저시력자를 위한 웹문서 제공방법은, 웹문서에 포함된 단락을 상위계층으로 구분하고, 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정(1610), 여기서, 단락과, 문장 및 오브젝트 중 적어도 하나는 개별적인 출력유닛으로 설정됨, 및 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 과정(1620)을 포함할 수 있다.The method for providing a web document for the low vision person, performed in the user terminal, is a process of classifying a paragraph included in a web document into an upper layer and dividing at least one of sentences and objects included in the paragraph into a lower layer ( 1610 ), where , a paragraph, at least one of a sentence, and an object are set as individual output units, and when a plurality of touch inputs are sequentially received with respect to a web document, the first output unit to the nth touch input corresponding to the first touch input It may include a process of sequentially outputting the n-th output unit corresponding to (1620).
여기서, 출력유닛은 스크린에 확대되어 출력되거나 음성으로 출력되는 단위로 정의될 수 있다.Here, the output unit may be defined as a unit that is enlarged and output on the screen or output as voice.
상술한 저시력자를 위한 웹문서 제공방법은 상위계층에 포함되는 제1 단락에 첫 번째 터치입력이 수행되는 경우, 제1 단락을 첫 번째 출력유닛으로 설정하는 과정을 포함할 수 있다.The above-described method for providing a web document for a person with low vision may include a process of setting the first paragraph as the first output unit when the first touch input is performed on the first paragraph included in the upper layer.
여기서, 상술한 저시력자를 위한 웹문서 제공방법은 제1 단락에 포함되는 제1 문장에 두 번째 터치입력이 수행되는 경우, 제1 문장을 첫 번째 출력유닛으로 업데이트하는 과정을 더 포함할 수 있다.Here, when a second touch input is performed on the first sentence included in the first paragraph, the above-described method for providing a web document for a person with low vision may further include a process of updating the first sentence to the first output unit.
이에 더하여, 상술한 저시력자를 위한 웹문서 제공방법은 제1 단락에 포함되는 제2 문장 또는 오브젝트에 세 번째 터치입력이 수행되는 경우, 제2 문장 또는 오브젝트를 두 번째 출력유닛으로 업데이트하는 과정을 더 포함할 수 있다.In addition, the above-described method for providing a web document for a person with low vision includes a process of updating the second sentence or object to the second output unit when a third touch input is performed on the second sentence or object included in the first paragraph. may include
한편, 웹문서에서 선택된 부분을 출력하는 과정으로, 상술한 저시력자를 위한 웹문서 제공방법은 메뉴 아이템에 대한 터치입력이 수행되는 경우, 확대모드에 대한 아이템 및 음성모드에 대한 아이템을 디스플레이하는 과정 및 상기 확대모드에 대한 아이템 및 상기 음성모드에 대한 아이템 중 하나에 터치입력이 수행되는 경우, 선택된 모드에 기초하여 상기 첫 번째 출력유닛 및 두 번째 출력유닛을 순차적으로 출력하는 과정을 더 포함할 수 있다.On the other hand, as a process of outputting a selected portion of a web document, the above-described method for providing a web document for a person with low vision includes a process of displaying an item for an enlarged mode and an item for a voice mode when a touch input for a menu item is performed; The method may further include sequentially outputting the first output unit and the second output unit based on the selected mode when a touch input is performed on one of the item for the enlarged mode and the item for the voice mode. .
구체적으로, 상술한 저시력자를 위한 웹문서 제공방법은 확대모드에 대한 아이템이 터치되는 경우, 제1 출력유닛 내지 제n 출력유닛을 순차적으로 디스플레이하고, 음성모드에 대한 아이템이 터치되는 경우, 제1 출력유닛 내지 제n 출력유닛을 순차적으로 음성출력하는 과정을 더 포함할 수 있다.Specifically, in the above-described method for providing a web document for a person with low vision, when an item for the enlarged mode is touched, the first output unit to the nth output unit are sequentially displayed, and when the item for the voice mode is touched, the first The method may further include sequentially outputting audio from the output unit to the n-th output unit.
또는, 상술한 저시력자를 위한 웹문서 제공방법은 상위계층에 포함되는 제2 단락에 두 번째 터치입력이 수행되는 경우, 제2 단락을 두 번째 출력유닛으로 설정할 수 있다.Alternatively, in the above-described method for providing a web document for a person with low vision, when a second touch input is performed on a second paragraph included in an upper layer, the second paragraph may be set as the second output unit.
또한, 상술한 저시력자를 위한 웹문서 제공방법은 상위계층에 포함되는 제2 단락에 세 번째 터치입력이 수행되는 경우, 제2 단락을 두 번째 출력유닛으로 설정하는 과정을 더 포함할 수 있다.In addition, the above-described method for providing a web document for a person with low vision may further include a process of setting the second paragraph as the second output unit when a third touch input is performed on the second paragraph included in the upper layer.
한편, 상술한 저시력자를 위한 웹문서 제공방법은 제2 단락에 포함되는 제3 문장에 네 번째 터치입력이 수행되는 경우, 제3 문장을 두 번째 출력유닛으로 업데이트하는 과정을 더 포함할 수 있다.Meanwhile, the above-described method for providing a web document for a person with low vision may further include updating the third sentence to the second output unit when a fourth touch input is performed on the third sentence included in the second paragraph.
상술한 본 발명의 다양한 실시 예에서, 오브젝트는 이미지 및 표 중 적어도 하나일 수 있다.In various embodiments of the present invention described above, the object may be at least one of an image and a table.
저시력자의 터치 입력 과정과 관련하여, 상술한 저시력자를 위한 웹문서 제공방법은 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 강조 표시하는 과정을 포함할 수 있다.In relation to the process of inputting a touch of a person with low vision, the above-described method for providing a web document for a person with low vision includes the first output unit to the nth touch input corresponding to the first touch input when a plurality of touch inputs are sequentially received with respect to the web document. and sequentially highlighting the n-th output unit corresponding to .
한편, 상술한 본 발명의 다양한 실시 예에 따른 저시력자를 위한 웹문서 제공방법은 컴퓨터로 실행 가능한 프로그램 코드로 구현되어 다양한 비 일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 프로세서에 의해 실행되도록 각 서버 또는 기기들에 제공될 수 있다.On the other hand, the method for providing a web document for a person with low vision according to various embodiments of the present invention described above is implemented as a computer executable program code and stored in various non-transitory computer readable media by a processor. It may be provided to each server or devices to be executed.
일 예로, 웹문서에 포함된 단락을 상위계층으로 구분하고, 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정, 여기서, 단락과, 문장 및 오브젝트 중 적어도 하나는 개별적인 출력유닛으로 설정됨, 및 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 과정을 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.For example, a process of classifying a paragraph included in a web document into an upper layer and classifying at least one of sentences and objects included in the paragraph into a lower layer, wherein at least one of the paragraph, the sentence, and the object is an individual output unit A process of sequentially outputting the first output unit corresponding to the first touch input to the nth output unit corresponding to the nth touch input is performed when a plurality of touch inputs are sequentially received with respect to the set and web document A non-transitory computer readable medium in which a program is stored may be provided.
비 일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device. Specifically, the various applications or programs described above may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.
이상으로, 본 발명의 실시 예들이 도시되고 설명되었지만, 당업자는 첨부된 청구항들 및 그에 동등한 것들에 의해 정의되는 바와 같은 본 실시 예의 사상 및 범위를 벗어나지 않고 형태 및 세부 사항들에 있어 다양한 변경이 이루어질 수 있음을 이해할 것이다.While the embodiments of the present invention have been shown and described, various changes in form and details may be made by those skilled in the art without departing from the spirit and scope of the embodiments as defined by the appended claims and their equivalents. you will understand that you can
사용자 단말: 100, 1400, 1500
통신부: 1110
저장부: 110, 1120
프로세서: 120, 1130User terminals: 100, 1400, 1500
Department of Communications: 1110
Storage: 110, 1120
Processor: 120, 1130
Claims (24)
웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정, 여기서, 상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정됨;
상기 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 과정;을 포함하는, 저시력자를 위한 웹문서 제공방법.
In the method of providing a web document for a person with low vision, performed in a user terminal,
A process of classifying a paragraph included in a web document into an upper layer and classifying at least one of sentences and objects included in the paragraph into a lower layer, wherein the paragraph and the at least one of the sentence and the object are individually output set in units;
a process of sequentially outputting a first output unit corresponding to a first touch input to an n-th output unit corresponding to the n-th touch input when a plurality of touch inputs are sequentially received with respect to the web document; How to provide web documents for low vision people.
상기 출력유닛은,
스크린에 확대되어 출력되거나 음성으로 출력되는 단위인, 저시력자를 위한 웹문서 제공방법.
According to claim 1,
The output unit is
A method of providing web documents for people with low vision, which is a unit that is enlarged and output on the screen or output by voice.
상기 상위계층에 포함되는 제1 단락에 첫 번째 터치입력이 수행되는 경우, 상기 제1 단락을 첫 번째 출력유닛으로 설정하는 과정;을 포함하는, 저시력자를 위한 웹문서 제공방법.
According to claim 1,
and setting the first paragraph as a first output unit when a first touch input is performed on the first paragraph included in the upper layer.
상기 제1 단락에 포함되는 제1 문장에 두 번째 터치입력이 수행되는 경우, 상기 제1 문장을 상기 첫 번째 출력유닛으로 업데이트하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
4. The method of claim 3,
When a second touch input is performed on the first sentence included in the first paragraph, updating the first sentence with the first output unit; The method of providing a web document for a person with low vision further comprising: a.
상기 제1 단락에 포함되는 제2 문장 또는 오브젝트에 세 번째 터치입력이 수행되는 경우, 상기 제2 문장 또는 상기 오브젝트를 두 번째 출력유닛으로 업데이트하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
5. The method of claim 4,
When a third touch input is performed on the second sentence or object included in the first paragraph, the process of updating the second sentence or the object with a second output unit; Providing a web document for people with low vision further comprising; Way.
메뉴 아이템에 대한 터치입력이 수행되는 경우, 확대모드에 대한 아이템 및 음성모드에 대한 아이템을 디스플레이하는 과정; 및
상기 확대모드에 대한 아이템 및 상기 음성모드에 대한 아이템 중 하나에 터치입력이 수행되는 경우, 선택된 모드에 기초하여 상기 첫 번째 출력유닛 및 두 번째 출력유닛을 순차적으로 출력하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
6. The method of claim 5,
displaying an item for an enlarged mode and an item for a voice mode when a touch input for a menu item is performed; and
When a touch input is performed on one of the item for the zoom mode and the item for the voice mode, sequentially outputting the first output unit and the second output unit based on the selected mode; further comprising, How to provide web documents for low vision people.
상기 확대모드에 대한 아이템이 터치되는 경우, 상기 제1 출력유닛 내지 상기 제n 출력유닛을 순차적으로 디스플레이하고, 상기 음성모드에 대한 아이템이 터치되는 경우, 상기 제1 출력유닛 내지 상기 제n 출력유닛을 순차적으로 음성출력하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
7. The method of claim 6,
When the item for the enlarged mode is touched, the first output unit to the n-th output unit are sequentially displayed, and when the item for the voice mode is touched, the first output unit to the n-th output unit The process of sequentially outputting the voice; further comprising, a method for providing a web document for low vision.
상기 상위계층에 포함되는 제2 단락에 두 번째 터치입력이 수행되는 경우, 상기 제2 단락을 두 번째 출력유닛으로 설정하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
4. The method of claim 3,
and setting the second paragraph as a second output unit when a second touch input is performed on the second paragraph included in the upper layer.
상기 상위계층에 포함되는 제2 단락에 세 번째 터치입력이 수행되는 경우, 상기 제2 단락을 두 번째 출력유닛으로 설정하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
5. The method of claim 4,
and setting the second paragraph as a second output unit when a third touch input is performed on the second paragraph included in the upper layer.
상기 제2 단락에 포함되는 제3 문장에 네 번째 터치입력이 수행되는 경우, 상기 제3 문장을 상기 두 번째 출력유닛으로 업데이트하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
10. The method of claim 9,
When a fourth touch input is performed on the third sentence included in the second paragraph, updating the third sentence by the second output unit; The method of providing a web document for a person with low vision further comprising a.
상기 오브젝트는 이미지 및 표 중 적어도 하나인, 저시력자를 위한 웹문서 제공방법.
According to claim 1,
The object is at least one of an image and a table, a method for providing a web document for low vision people.
상기 웹문서에 대하여 상기 복수 회의 터치입력이 순차적으로 수신되는 경우, 상기 제1 터치입력에 대응되는 상기 제1 출력유닛 내지 상기 제n 터치입력에 대응되는 상기 제n 출력유닛을 순차적으로 강조 표시하는 과정;을 포함하는, 저시력자를 위한 웹문서 제공방법.
According to claim 1,
When the plurality of touch inputs are sequentially received with respect to the web document, the first output unit corresponding to the first touch input to the n-th output unit corresponding to the n-th touch input are sequentially highlighted and displayed A method for providing web documents for people with low vision, including the process.
저장부; 및
웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하고, 상기 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 프로세서;를 포함하고,
상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정되는, 사용자 단말.
In the user terminal,
storage; and
When a paragraph included in a web document is divided into an upper layer, at least one of sentences and objects included in the paragraph is divided into a lower layer, and a plurality of touch inputs are sequentially received with respect to the web document, the first touch A processor for sequentially outputting the first output unit corresponding to the input to the n-th output unit corresponding to the n-th touch input;
The paragraph, the sentence, and the at least one of the object is set as an individual output unit.
상기 출력유닛은,
스크린에 확대되어 출력되거나 음성으로 출력되는 단위인, 사용자 단말.
14. The method of claim 13,
The output unit is
A user terminal, which is a unit that is enlarged and output on a screen or output as a voice.
상기 프로세서는,
상기 상위계층에 포함되는 제1 단락에 첫 번째 터치입력이 수행되는 경우, 상기 제1 단락을 첫 번째 출력유닛으로 설정하는, 사용자 단말.
14. The method of claim 13,
The processor is
When a first touch input is performed on a first paragraph included in the upper layer, the first paragraph is set as a first output unit.
상기 프로세서는,
상기 제1 단락에 포함되는 제1 문장에 두 번째 터치입력이 수행되는 경우, 상기 제1 문장을 상기 첫 번째 출력유닛으로 업데이트하는, 사용자 단말.
16. The method of claim 15,
The processor is
When a second touch input is performed on the first sentence included in the first paragraph, the user terminal updates the first sentence with the first output unit.
상기 프로세서는,
상기 제1 단락에 포함되는 제2 문장 또는 오브젝트에 세 번째 터치입력이 수행되는 경우, 상기 제2 문장 또는 상기 오브젝트를 두 번째 출력유닛으로 업데이트하는, 사용자 단말.
17. The method of claim 16,
The processor is
When a third touch input is performed on the second sentence or object included in the first paragraph, the user terminal updates the second sentence or the object with a second output unit.
상기 프로세서는,
메뉴 아이템에 대한 터치입력이 수행되는 경우, 확대모드에 대한 아이템 및 음성모드에 대한 아이템을 디스플레이하고,
상기 확대모드에 대한 아이템 및 상기 음성모드에 대한 아이템 중 하나에 터치입력이 수행되는 경우, 선택된 모드에 기초하여 상기 첫 번째 출력유닛 및 두 번째 출력유닛을 순차적으로 출력하는, 사용자 단말.
18. The method of claim 17,
The processor is
When a touch input for a menu item is performed, an item for an enlarged mode and an item for a voice mode are displayed,
When a touch input is performed on one of the item for the zoom mode and the item for the voice mode, sequentially outputting the first output unit and the second output unit based on the selected mode, the user terminal.
상기 프로세서는,
상기 확대모드에 대한 아이템이 터치되는 경우, 상기 제1 출력유닛 내지 상기 제n 출력유닛을 순차적으로 디스플레이하고, 상기 음성모드에 대한 아이템이 터치되는 경우, 상기 제1 출력유닛 내지 상기 제n 출력유닛을 순차적으로 음성출력하는, 사용자 단말.
19. The method of claim 18,
The processor is
When the item for the enlarged mode is touched, the first output unit to the n-th output unit are sequentially displayed, and when the item for the voice mode is touched, the first output unit to the n-th output unit Sequentially outputting the voice, the user terminal.
상기 프로세서는,
상기 상위계층에 포함되는 제2 단락에 두 번째 터치입력이 수행되는 경우, 상기 제2 단락을 두 번째 출력유닛으로 설정하는, 사용자 단말.
16. The method of claim 15,
The processor is
When a second touch input is performed on a second paragraph included in the upper layer, the second paragraph is set as a second output unit.
상기 프로세서는,
상기 상위계층에 포함되는 제2 단락에 세 번째 터치입력이 수행되는 경우, 상기 제2 단락을 두 번째 출력유닛으로 설정하는, 사용자 단말.
17. The method of claim 16,
The processor is
When a third touch input is performed on a second paragraph included in the upper layer, the second paragraph is set as a second output unit.
상기 프로세서는,
상기 제2 단락에 포함되는 제3 문장에 네 번째 터치입력이 수행되는 경우, 상기 제3 문장을 상기 두 번째 출력유닛으로 업데이트하는, 사용자 단말.
22. The method of claim 21,
The processor is
When a fourth touch input is performed on the third sentence included in the second paragraph, the user terminal is configured to update the third sentence with the second output unit.
상기 오브젝트는 이미지 및 표 중 적어도 하나인, 사용자 단말.
14. The method of claim 13,
The object is at least one of an image and a table, the user terminal.
상기 프로세서는,
상기 웹문서에 대하여 상기 복수 회의 터치입력이 순차적으로 수신되는 경우, 상기 제1 터치입력에 대응되는 상기 제1 출력유닛 내지 상기 제n 터치입력에 대응되는 상기 제n 출력유닛을 순차적으로 강조 표시하는, 사용자 단말.14. The method of claim 13,
The processor is
When the plurality of touch inputs are sequentially received with respect to the web document, the first output unit corresponding to the first touch input to the n-th output unit corresponding to the n-th touch input are sequentially highlighted and displayed , user terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200084213A KR102487810B1 (en) | 2020-07-08 | 2020-07-08 | Method for providing web document for people with low vision and user terminal thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200084213A KR102487810B1 (en) | 2020-07-08 | 2020-07-08 | Method for providing web document for people with low vision and user terminal thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220006357A true KR20220006357A (en) | 2022-01-17 |
KR102487810B1 KR102487810B1 (en) | 2023-01-11 |
Family
ID=80051668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200084213A KR102487810B1 (en) | 2020-07-08 | 2020-07-08 | Method for providing web document for people with low vision and user terminal thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102487810B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120050549A (en) * | 2010-11-11 | 2012-05-21 | 주식회사 에이티랩 | Touch screen apparatus for possible object operation by blind person and method for object operation in the apparatus |
US20160378300A1 (en) * | 2015-06-24 | 2016-12-29 | Microsoft Technology Licensing, Llc | Conversion of platform-independent accessibility logic into platform-specific accessibility functionality |
KR20190130904A (en) * | 2018-05-15 | 2019-11-25 | 한국전자통신연구원 | Apparatus for providing content for visually impaired people and method for providing the content using the same |
-
2020
- 2020-07-08 KR KR1020200084213A patent/KR102487810B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120050549A (en) * | 2010-11-11 | 2012-05-21 | 주식회사 에이티랩 | Touch screen apparatus for possible object operation by blind person and method for object operation in the apparatus |
US20160378300A1 (en) * | 2015-06-24 | 2016-12-29 | Microsoft Technology Licensing, Llc | Conversion of platform-independent accessibility logic into platform-specific accessibility functionality |
KR20190130904A (en) * | 2018-05-15 | 2019-11-25 | 한국전자통신연구원 | Apparatus for providing content for visually impaired people and method for providing the content using the same |
Also Published As
Publication number | Publication date |
---|---|
KR102487810B1 (en) | 2023-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12039254B2 (en) | Enhancing data in a screenshot | |
EP3155501B1 (en) | Accessibility detection of content properties through tactile interactions | |
WO2021008334A1 (en) | Data binding method, apparatus, and device of mini program, and storage medium | |
US10402470B2 (en) | Effecting multi-step operations in an application in response to direct manipulation of a selected object | |
US9575941B1 (en) | Dynamic adjustment to content for a display device | |
US10803236B2 (en) | Information processing to generate screen based on acquired editing information | |
US11538476B2 (en) | Terminal device, server and controlling method thereof | |
JP2014197341A (en) | Electronic book production device, electronic book system, electronic book production method and program | |
US11681417B2 (en) | Accessibility verification and correction for digital content | |
KR102487810B1 (en) | Method for providing web document for people with low vision and user terminal thereof | |
CN114745585B (en) | Subtitle display method, device, terminal and storage medium | |
US20210073458A1 (en) | Comic data display system, method, and program | |
CN111506848A (en) | Webpage processing method, device, equipment and readable storage medium | |
US20220351151A1 (en) | Electronic apparatus and controlling method thereof | |
US20230351091A1 (en) | Presenting Intelligently Suggested Content Enhancements | |
CN115081423A (en) | Document editing method and device, electronic equipment and storage medium | |
US10649640B2 (en) | Personalizing perceivability settings of graphical user interfaces of computers | |
US20240303247A1 (en) | Systems and methods for writing feedback using an artificial intelligence engine | |
KR102238987B1 (en) | Chinese input method based on korean pinyin and input apparatus thereof | |
Billah | Transforming assistive technologies from the ground up for people with vision impairments | |
JP6651563B2 (en) | Electronic book browsing program and electronic book browsing device | |
JP2024013310A (en) | Document setting system, document setting method, and program | |
US10474330B1 (en) | Supplementary content layers | |
JP5673744B2 (en) | Electronic book terminal, information processing method, program | |
KR20230116526A (en) | Display apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |