KR102487810B1 - Method for providing web document for people with low vision and user terminal thereof - Google Patents

Method for providing web document for people with low vision and user terminal thereof Download PDF

Info

Publication number
KR102487810B1
KR102487810B1 KR1020200084213A KR20200084213A KR102487810B1 KR 102487810 B1 KR102487810 B1 KR 102487810B1 KR 1020200084213 A KR1020200084213 A KR 1020200084213A KR 20200084213 A KR20200084213 A KR 20200084213A KR 102487810 B1 KR102487810 B1 KR 102487810B1
Authority
KR
South Korea
Prior art keywords
sentence
paragraph
output unit
output
delete delete
Prior art date
Application number
KR1020200084213A
Other languages
Korean (ko)
Other versions
KR20220006357A (en
Inventor
임순범
박주현
Original Assignee
숙명여자대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숙명여자대학교산학협력단 filed Critical 숙명여자대학교산학협력단
Priority to KR1020200084213A priority Critical patent/KR102487810B1/en
Publication of KR20220006357A publication Critical patent/KR20220006357A/en
Application granted granted Critical
Publication of KR102487810B1 publication Critical patent/KR102487810B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection

Abstract

저시력자를 위한 웹문서 제공방법이 개시된다. 저시력자를 위한 웹문서 제공방법은 웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정 및 상기 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 과정을 포함할 수 있다. 여기서, 상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정될 수 있다.A web document providing method for people with low vision is disclosed. A method for providing a web document for a person with low vision includes a process of classifying a paragraph included in a web document as an upper layer and classifying at least one of sentences and objects included in the paragraph as a lower layer, and a plurality of touch inputs for the web document. When sequentially received, a process of sequentially outputting a first output unit corresponding to the first touch input to an n-th output unit corresponding to the n-th touch input may be included. Here, at least one of the paragraph, the sentence, and the object may be set as an individual output unit.

Description

저시력자를 위한 웹문서 제공방법 및 그 사용자 단말{METHOD FOR PROVIDING WEB DOCUMENT FOR PEOPLE WITH LOW VISION AND USER TERMINAL THEREOF}Method for providing web documents for people with low vision and its user terminal

본 발명은 저시력자를 위한 웹문서 제공방법 및 그 사용자 단말에 대한 것으로, 보다 상세하게는 웹문서의 내용 중 일부를 선택적으로 제공하는 저시력자를 위한 웹문서 제공방법 및 그 사용자 단말에 대한 것이다.The present invention relates to a web document providing method for a person with low vision and a user terminal thereof, and more particularly, to a method for providing a web document for a person with low vision to selectively provide a part of the content of a web document and a user terminal thereof.

저시력자는 시력이 매우 나빠 앞을 잘 볼 수 없는 사람을 가리킨다. 저시력자는 시각적으로 제공되는 정보의 이용이 어려워 촉각이나 청각을 이용하여 정보를 획득하는 것이 일반적이다.A person with low vision refers to a person who has very poor eyesight and cannot see very well. It is common for people with low vision to obtain information using tactile or auditory senses because it is difficult to use visually provided information.

최근까지 스마트폰과 같은 전자기기가 널리 보급되고 있지만, 전자기기와 사용자가 서로 정보를 주고받는 과정들이 스크린을 매개로 이루어지고 있어 저시력자들의 전자기기 활용도는 일반인들에 비해 크게 낮은 실정이다.Until recently, electronic devices such as smart phones have been widely distributed, but the process of exchanging information between electronic devices and users is performed through a screen, so the utilization of electronic devices by people with low vision is significantly lower than that of the general public.

한편, 저시력자들이 전자기기에서 제공되는 정보를 손쉽게 이용하도록 하는 기술들이 개발되고 있다. 그 예로, 대한민국 등록특허공보 제10-0747724호(공고일자: 2007년 08월 09일)는 시각장애인을 위하여 웹 페이지의 구성 내용을 음성으로 안내하고 사용자의 명령에 따라 웹 네비게이션을 수행하는 웹 네비게이션 시스템 및 그 방법을 개시하고 있다.Meanwhile, technologies are being developed that enable people with low vision to easily use information provided by electronic devices. For example, Korean Registered Patent Publication No. 10-0747724 (published date: August 9, 2007) is a web navigation that guides the contents of a web page by voice for the visually impaired and performs web navigation according to a user's command. A system and method are disclosed.

시각장애인의 경우 터치 입력을 기본으로 하는 스마트 기기에서 제공되는 웹페이지에 대한 접근성이 매우 낮다.In the case of the visually impaired, accessibility to web pages provided by smart devices based on touch input is very low.

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 웹페이지 중 사용자가 원하는 부분을 용이하게 선택하는 방법과, 선택된 부분을 저시력자에게 적합한 다양한 수단으로 출력하는 방법을 제공하는 것을 목적으로 한다.The present invention has been made to solve the above problems, and an object of the present invention is to provide a method for easily selecting a desired portion of a web page by a user and a method for outputting the selected portion through various means suitable for people with low vision.

본 발명의 다양한 실시 예에 따른 저시력자를 위한 웹문서 제공방법은, 웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정 및 상기 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 과정을 포함할 수 있다. 여기서, 상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정될 수 있다.A method for providing a web document for a person with low vision according to various embodiments of the present invention includes the steps of classifying a paragraph included in a web document as an upper layer and classifying at least one of sentences and objects included in the paragraph as a lower layer; When a plurality of touch inputs are sequentially received with respect to the web document, a process of sequentially outputting a first output unit corresponding to the first touch input to an n-th output unit corresponding to the n-th touch input may be included. Here, at least one of the paragraph, the sentence, and the object may be set as an individual output unit.

본 발명의 다양한 실시 예에 따른 사용자 단말은, 저장부 및 웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하고, 상기 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 프로세서를 포함할 수 있다. 여기서, 상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정될 수 있다.A user terminal according to various embodiments of the present disclosure classifies a paragraph included in a storage unit and a web document as an upper layer, classifies at least one of sentences and objects included in the paragraph as a lower layer, and When a plurality of touch inputs are sequentially received, a processor may be included to sequentially output a first output unit corresponding to the first touch input to an n-th output unit corresponding to the n-th touch input. Here, at least one of the paragraph, the sentence, and the object may be set as an individual output unit.

본 발명의 다양한 실시 예에 따르면, 저시력자는 웹페이지 중 원하는 부분을 용이하게 선택할 수 있고, 선택된 부분을 적합한 다양한 수단으로 제공받을 수 있다.According to various embodiments of the present invention, a person with low vision can easily select a desired part of a webpage, and can receive the selected part through various appropriate means.

도 1은 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 DOM을 도시한다.
도 3은 본 발명의 일 실시 예에 따른 문장구조트리를 도시한다.
도 4는 본 발명의 일 실시 예에 따른 출력유닛의 선택방법을 도시한다.
도 5는 본 발명의 일 실시 예에 따른 출력유닛의 선택 및 출력을 도시한다.
도 6은 본 발명의 일 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 7은 본 발명의 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 8은 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 9는 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 10은 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 11은 본 발명의 일 실시 예에 따른 웹페이지를 도시한다.
도 12는 본 발명의 다른 실시 예에 따른 웹페이지를 도시한다.
도 13은 본 발명의 또 다른 실시 예에 따른 웹페이지를 도시한다.
도 14는 본 발명의 일 실시 예에 따른 사용자 단말의 시스템 블록도를 도시한다.
도 15는 본 발명의 일 실시 예에 따른 사용자 단말의 세부구성에 대한 블록도이다.
1 is a block diagram of a user terminal according to an embodiment of the present invention.
2 shows a DOM according to an embodiment of the present invention.
3 shows a sentence structure tree according to an embodiment of the present invention.
4 illustrates a method of selecting an output unit according to an embodiment of the present invention.
5 illustrates selection and output of an output unit according to an embodiment of the present invention.
6 shows a screen of a user terminal according to an embodiment of the present invention.
7 shows a screen of a user terminal according to another embodiment of the present invention.
8 shows a screen of a user terminal according to another embodiment of the present invention.
9 illustrates a screen of a user terminal according to another embodiment of the present invention.
10 shows a screen of a user terminal according to another embodiment of the present invention.
11 shows a web page according to an embodiment of the present invention.
12 shows a web page according to another embodiment of the present invention.
13 shows a web page according to another embodiment of the present invention.
14 shows a system block diagram of a user terminal according to an embodiment of the present invention.
15 is a block diagram of a detailed configuration of a user terminal according to an embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대한 동작원리를 상세히 설명한다. 또한, 발명에 대한 실시 예를 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 하기에서 사용되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로써, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 사용된 용어들의 정의는 본 명세서 전반에 걸친 내용 및 이에 상응한 기능을 토대로 해석되어야 할 것이다.Hereinafter, the operating principle of a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. In addition, when it is determined that a detailed description of a related known function or configuration may obscure the gist of the present disclosure in describing an embodiment of the present invention, the detailed description will be omitted. In addition, the terms used in the following are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of a user or operator. Therefore, the definitions of the terms used should be interpreted based on the content throughout this specification and the corresponding function.

도 1은 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.1 is a block diagram of a user terminal according to an embodiment of the present invention.

사용자 단말(100)은 스마트폰, 태블릿PC, 랩톱, 스마트TV, 스마트안경, 스마트워치, 셀룰러폰, 태블릿PC, MP3플레이어, PMP 중 하나일 수 있으며 이에 제한되지 않는다.The user terminal 100 may be one of a smart phone, tablet PC, laptop, smart TV, smart glasses, smart watch, cellular phone, tablet PC, MP3 player, and PMP, but is not limited thereto.

도 1을 참조하면, 사용자 단말(100)은 저장부(110) 및 프로세서(120)를 포함할 수 있다.Referring to FIG. 1 , the user terminal 100 may include a storage unit 110 and a processor 120 .

저장부(110)는 다양한 데이터를 저장할 수 있다. 일 예로, 저장부(110)는 텍스트 데이터, 이미지 데이터, 동영상 데이터, 오디오 데이터 등 다양한 사용자 데이터가 저장될 수 있다.The storage unit 110 may store various data. For example, the storage unit 110 may store various user data such as text data, image data, video data, and audio data.

여기서, 저장부(110)는 대용량 저장장치로써 사용자 데이터 등을 저장한다. 저장부(110)는 하드디스크 또는 광디스크 등과 같은 종래의 일반적인 대용량 저장장치 또는 메모리 카드 등의 저장매체가 될 수 있다. 또한, 저장부(110)는 DRAM(Dynamic Random Access Memory)이거나, 플래시 메모리 등의 반도체 소자를 사용한 SSD(Solid State Disk) 형태의 대용량 저장장치일 수도 있다. 또한, 저장부(110)는 광학디스크(Optical Disk)로 구현될 수도 있다.Here, the storage unit 110 stores user data as a mass storage device. The storage unit 110 may be a storage medium such as a conventional general mass storage device such as a hard disk or an optical disk or a memory card. Also, the storage unit 110 may be a dynamic random access memory (DRAM) or a mass storage device in the form of a solid state disk (SSD) using a semiconductor device such as a flash memory. Also, the storage unit 110 may be implemented as an optical disk.

프로세서(120)는 웹문서에 포함된 내용을 출력할 수 있다. 구체적으로, 프로세서(120)는 웹문서의 구조에 기초하여 웹문서에 포함된 내용을 출력할 수 있다.The processor 120 may output content included in the web document. Specifically, the processor 120 may output content included in the web document based on the structure of the web document.

일반적으로, 웹문서는 문서 객체 모델(DOM; Document Object Model)로 구조화되어 있다. DOM은 플랫폼/언어 중립적으로 구조화된 문서를 표현하는 W3C의 공식 표준이다. DOM은 또한 W3C가 표준화한 여러 개의 API의 기반이 된다.In general, web documents are structured in a Document Object Model (DOM). The DOM is an official W3C standard for representing structured documents in a platform/language neutral manner. The DOM is also the basis for several APIs standardized by the W3C.

도 2는 본 발명의 일 실시 예에 따른 DOM을 도시한다.2 shows a DOM according to an embodiment of the present invention.

도 2를 참조하면, 웹문서의 DOM은 트리구조이다. DOM 트리구조는 단락, 그룹, 다양한 태그 간의 계층구조를 포함할 수 있다(단락

Figure 112020071035585-pat00001
그룹
Figure 112020071035585-pat00002
다양한 태그
Figure 112020071035585-pat00003
단어, 예) <p> <div> <section>
Figure 112020071035585-pat00004
<p> <div> <span>
Figure 112020071035585-pat00005
각종 태그
Figure 112020071035585-pat00006
단어).Referring to FIG. 2, the DOM of a web document has a tree structure. A DOM tree structure can include paragraphs, groups, and hierarchies between various tags (paragraphs
Figure 112020071035585-pat00001
group
Figure 112020071035585-pat00002
various tags
Figure 112020071035585-pat00003
words, eg) <p><div><section>
Figure 112020071035585-pat00004
<p><div><span>
Figure 112020071035585-pat00005
various tags
Figure 112020071035585-pat00006
word).

이러한 DOM은 표준화를 통해 웹문서(또는 웹브라우저)에서 널리 이용되고 있다. 하지만, DOM은 사람이 문장을 읽는 방식을 그대로 반영하지 못하기 때문에, 저시력자의 선택에 따라 웹문서를 출력하는 방식에 그대로 적용되기에는 무리가 있다.This DOM is widely used in web documents (or web browsers) through standardization. However, since the DOM does not reflect the way people read sentences as it is, it is unreasonable to apply it as it is to the way that web documents are output according to the selection of people with low vision.

이에 따라, 본 발명은 저시력자의 선택에 따라 웹문서를 선택적으로 출력하는데 이용가능한 저시력 문장구조트리(SST: Sentence Structure Tree)를 새롭게 제안한다.Accordingly, the present invention newly proposes a Sentence Structure Tree (SST) that can be used to selectively output web documents according to the selection of a person with low vision.

도 3은 본 발명의 일 실시 예에 따른 문장구조트리를 도시한다.3 shows a sentence structure tree according to an embodiment of the present invention.

도 3을 참조하면, 문장구조트리는 웹문서를 단락, 문장, 오브젝트(객체) 등으로 구분할 수 있다.Referring to FIG. 3 , the sentence structure tree can divide a web document into paragraphs, sentences, objects (objects), and the like.

일 예로, 웹문서는 단락으로 구성될 수 있다. 여기서, 웹문서에 포함된 단락은 상위계층으로 구분될 수 있다. 또한, 단락은 문장 및 오브젝트 중 적어도 하나를 포함할 수 있다. 이 경우, 단락에 포함된 문장 및 오브젝트 중 적어도 하나는 하위계층으로 구분될 수 있다. 상술한 예에서, 문장 및 오브젝트는 동일한 등급의 계층으로 정의되거나, 문자 및 오브젝트가 서로 다른 등급의 계층으로 정의될 수 있음은 물론이다.For example, a web document may be composed of paragraphs. Here, the paragraphs included in the web document may be classified into upper layers. Also, a paragraph may include at least one of a sentence and an object. In this case, at least one of sentences and objects included in a paragraph may be classified as a lower layer. In the above example, the sentences and objects may be defined as hierarchies of the same level, or the characters and objects may be defined as hierarchies of different levels.

다른 예로, 웹문서는 단락 및 그룹 중 적어도 하나를 포함할 수 있다. 여기서, 그룹은 표, 이미지 등을 포함하는 객체로 정의될 수 있다. 예를 들어, 웹문서에 포함된 단락 또는 그룹은 상위계층으로 구분될 수 있다. 또한, 단락은 문장 및 오브젝트 중 적어도 하나를 포함하고, 그룹은 적어도 하나의 오브젝트를 포함할 수 있다. 이 경우, 단락 또는 그룹에 포함된 문장 및 오브젝트 중 적어도 하나는 하위계층으로 구분될 수 있다. 상술한 예에서, 문장 및 오브젝트는 동일한 등급의 계층으로 정의되거나, 문자 및 오브젝트가 서로 다른 등급의 계층으로 정의될 수 있음은 물론이다.As another example, a web document may include at least one of paragraphs and groups. Here, a group may be defined as an object including a table or image. For example, a paragraph or group included in a web document may be classified as a higher hierarchy. Also, a paragraph may include at least one of a sentence and an object, and a group may include at least one object. In this case, at least one of sentences and objects included in a paragraph or group may be classified as a lower layer. In the above example, the sentences and objects may be defined as hierarchies of the same level, or the characters and objects may be defined as hierarchies of different levels.

또 다른 예로, 웹문서는 제목, 표, 그림 등의 오브젝트의 그룹으로 구성될 수도 있다. 또 다른 예로, 웹문서는 단락과, 제목, 표, 그림 등의 오브젝트가 함께 포함되도록 구성될 수도 있으며 이에 제한되지 않을 것이다.As another example, a web document may be composed of a group of objects such as titles, tables, and pictures. As another example, a web document may be configured to include paragraphs and objects such as titles, tables, and pictures together, but will not be limited thereto.

상술한 예에서, 단락은 DOM으로부터 획득된 <p> 태그 또는 줄바뀜으로 구분되고, 문장은 마침표(.)로 구분되고, 오브젝트는 이미지 또는 표로서 구분될 수 있다.In the above example, paragraphs can be separated by <p> tags obtained from the DOM or line breaks, sentences can be separated by periods (.), and objects can be separated by images or tables.

상술한 본 발명의 다양한 실시 예에서, 프로세서(120)는 웹문서의 정보를 출력하는 단위가 되는 출력유닛을 설정할 수 있다. 또는, 상기 출력유닛은 기설정될 수 있다.In various embodiments of the present invention described above, the processor 120 may set an output unit that is a unit for outputting information of a web document. Alternatively, the output unit may be preset.

여기서, 출력유닛이란 웹문서 중 일부를 화면에 출력하거나 음성으로 출력하는 경우의 단위일 수 있다.Here, the output unit may be a unit for outputting a part of a web document on a screen or outputting a voice.

일 예로, 웹문서에서 단락, 문장, 오브젝트 중 적어도 하나가 선택되는 경우, 프로세서(120)는 단락, 문장, 오브젝트 중 적어도 하나를 출력유닛으로로 설정하여 출력을 수행할 수 있다.For example, when at least one of a paragraph, sentence, and object is selected from a web document, the processor 120 may set at least one of the paragraph, sentence, and object to an output unit to perform output.

일 예로, 웹문서에서 단락, 문장, 오브젝트 중 적어도 하나가 선택되는 경우, 프로세서(120)는 선택된 상기 적어도 하나를 선택된 순서에 따라 출력을 수행할 수 있다.For example, when at least one of a paragraph, a sentence, and an object is selected from a web document, the processor 120 may output the selected at least one according to the selected order.

상술한 예에서, 단락, 문장 및 오브젝트 각각이 출력유닛으로 설정됨을 설명하였으나 이에 제한되지 않는다.In the above example, it has been described that each of a paragraph, a sentence, and an object is set as an output unit, but is not limited thereto.

예를 들면, 단락, 문장, 오브젝트 중 일부만이 선택된 경우, 해당 일부가 출력유닛으로 설정될 수 있다.For example, when only some of paragraphs, sentences, and objects are selected, the corresponding parts may be set as output units.

일 예로, 웹문서에 포함된 첫 번째 단락과, 두 번째 단락의 일부가 선택된 경우, 첫 번째 단락 및 두 번째 단락의 일부가 개별적으로 출력유닛으로 설정되고, 순차적으로 출력될 수 있다.For example, when parts of the first paragraph and the second paragraph included in the web document are selected, the first paragraph and parts of the second paragraph may be individually set as output units and sequentially output.

다른 예로, 웹문서에 포함된 첫 번째 단락에 포함된 첫 번째 문장과, 두 번째 문장의 일부가 선택된 경우, 첫 번째 문장 및 두 번째 문장의 일부가 개별적으로 출력유닛으로 설정되고, 순차적으로 출력될 수 있다.As another example, when the first sentence included in the first paragraph included in the web document and part of the second sentence are selected, the first sentence and part of the second sentence are individually set as output units and output sequentially. can

또 다른 예로, 웹문서에 포함된 첫 번째 단락에 포함된 첫 번째 문장과, 오브젝트에 포함된 이미지 부분이 선택된 경우, 첫 번째 문장 및 오브젝트에 포함된 이미지 부분이 개별적으로 출력유닛으로 설정되고, 순차적으로 출력될 수 있다. 이 경우, 상기 이미지 부분은 이미지 부분에 태그된 별도의 설명문구를 통해 출력이 수행될 수 있다.As another example, when the first sentence included in the first paragraph included in the web document and the image part included in the object are selected, the first sentence and the image part included in the object are individually set as output units, and sequentially can be output as In this case, the image part may be output through a separate description tag tagged with the image part.

또 다른 예로, 웹문서에 포함된 첫 번째 단락에 포함된 첫 번째 문장과, 오브젝트에 포함된 문자 부분이 선택된 경우, 첫 번째 문장 및 오브젝트에 포함된 문자 부분이 개별적으로 출력유닛으로 설정되고, 순차적으로 출력될 수 있다.As another example, when the first sentence included in the first paragraph included in the web document and the text part included in the object are selected, the first sentence and the text part included in the object are individually set as output units, and sequentially can be output as

도 4는 본 발명의 일 실시 예에 따른 출력유닛의 선택방법을 도시한다.4 illustrates a method of selecting an output unit according to an embodiment of the present invention.

도 4를 참조하면, 문장구조트리(또는 웹문서)에 포함되는 객체(또는 출력유닛)들은 선택된 순서에 따라 체인으로 연결되어 포커싱될 수 있다. 이 경우, 연결된 체인은 순차적으로 출력될 수 있다.Referring to FIG. 4 , objects (or output units) included in a sentence structure tree (or web document) may be chained and focused according to a selected order. In this case, the connected chains may be sequentially output.

예를 들면, 도 4를 참조하면, 첫 번째 순서로, 웹문서에 포함되는 제1 단락(401)에 포함되는 제1 문장(4011)이 선택될 수 있다. 두 번째 순서로, 웹문서에 포함되는 제2 단락(402)이 선택될 수 있다. 세 번째 순서로, 제1 단락(401)에 포함되는 제2 문장(4012)이 선택될 수 있다. 네 번째 순서로, 제3 단락(403)에 포함되는 제3 문장(4031) 및 제4 문장(4032)가 연이어 선택될 수 있다. 다섯 번째 순서로, 그룹(404)에 포함되는 오브젝트가 선택될 수 있다. 여섯 번째 순서로, 선택을 완료하기 위한 아이콘을 선택됨으로써, 선택 과정을 완료할 수 있다.For example, referring to FIG. 4 , in the first order, a first sentence 4011 included in a first paragraph 401 included in a web document may be selected. In the second order, the second paragraph 402 included in the web document may be selected. In the third order, the second sentence 4012 included in the first paragraph 401 may be selected. In the fourth order, the third sentence 4031 and the fourth sentence 4032 included in the third paragraph 403 may be consecutively selected. In the fifth order, objects included in the group 404 may be selected. In the sixth step, the selection process can be completed by selecting an icon for completing the selection.

이 경우, 프로세서(120)는 제1 문장(4011), 제2 단락(402), 제2 문장(4012), 제3 문장(4031), 제4 문장(4032) 및 그룹(404)에 포함되는 오브젝트에 대한 정보를 체인화하고, 이를 순차적으로 출력할 수 있다.In this case, the processor 120 includes the first sentence 4011, the second paragraph 402, the second sentence 4012, the third sentence 4031, the fourth sentence 4032 and the group 404. Information on objects can be chained and output sequentially.

도 5는 본 발명의 일 실시 예에 따른 출력유닛의 선택 및 출력을 도시한다.5 illustrates selection and output of an output unit according to an embodiment of the present invention.

도 5를 참조하면, 복수의 출력유닛이 순차적으로 선택될 수 있다. 예를 들면, 제1 터치에 따라 제1 출력유닛이 선택되고(501), 제2 터치에 따라 제2 출력유닛이 선택되고(501), 제n 터치에 따라 제n 출력유닛이 선택될 수 있다(503).Referring to FIG. 5 , a plurality of output units may be sequentially selected. For example, a first output unit may be selected according to a first touch (501), a second output unit may be selected according to a second touch (501), and an n-th output unit may be selected according to an n-th touch. (503).

이 경우, 프로세서(120)는 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력할 수 있다(504).In this case, the processor 120 may sequentially output the first output unit corresponding to the first touch input to the n-th output unit corresponding to the n-th touch input (504).

여기서, 출력유닛은 스크린에 확대되어 출력되거나 음성으로 출력될 수 있다.Here, the output unit may be enlarged and output on the screen or output as a voice.

일 예로, 프로세서(120)는 웹문서에서, 상위계층에 포함되는 제1 단락에 첫 번째 터치입력이 수행되는 경우, 제1 단락을 첫 번째 출력유닛으로 설정할 수 있다.For example, when a first touch input is performed on a first paragraph included in a higher layer in a web document, the processor 120 may set the first paragraph as the first output unit.

또한, 프로세서는(120)는 제1 단락에 포함되는 제1 문장에 두 번째 터치입력이 수행되는 경우, 제1 문장을 첫 번째 출력유닛으로 업데이트할 수 있다. 이 경우, 상기에서 첫 번째 출력유닛으로 설정된 제1 단락에 대한 설정이 삭제되고, 상기 제1 문장이 첫 번째 출력유닛으로 설정될 수 있다. 또는, 상위계층에 포함되는 제2 단락에 두 번째 터치입력이 수행되는 경우, 프로세서(120)는 제2 단락을 두 번째 출력유닛으로 설정할 수 있다.Also, when a second touch input is performed on the first sentence included in the first paragraph, the processor 120 may update the first sentence to the first output unit. In this case, the setting for the first paragraph set as the first output unit may be deleted, and the first sentence may be set as the first output unit. Alternatively, when the second touch input is performed on the second paragraph included in the upper layer, the processor 120 may set the second paragraph as the second output unit.

또한, 프로세서(120)는 제1 단락에 포함되는 제2 문장 또는 오브젝트에 세 번째 터치입력이 수행되는 경우, 제2 문장 또는 오브젝트를 두 번째 출력유닛으로 업데이트할 수 있다. 여기서, 오브젝트는 이미지 및 표 중 적어도 하나일 수 있다. 또는, 상위계층에 포함되는 제2 단락에 세 번째 터치입력이 수행되는 경우, 프로세서(120)는 제2 단락을 두 번째 출력유닛으로 설정할 수 있다.Also, when a third touch input is performed on a second sentence or object included in the first paragraph, the processor 120 may update the second sentence or object to the second output unit. Here, the object may be at least one of an image and a table. Alternatively, when a third touch input is performed on the second paragraph included in the upper layer, the processor 120 may set the second paragraph as the second output unit.

예를 들어, 첫 번째 출력유닛 및 두 번째 출력유닛이 설정된 상태에서, 메뉴 아이템에 대한 터치입력이 수행되는 경우, 프로세서(120)는 확대모드에 대한 아이템 및 음성모드에 대한 아이템을 디스플레이할 수 있다. 확대모드에 대한 아이템 및 음성모드에 대한 아이템 중 하나에 터치입력이 수행되는 경우, 프로세서(120)는 선택된 모드에 기초하여 첫 번째 출력유닛 및 두 번째 출력유닛을 순차적으로 출력할 수 있다.For example, when a touch input is performed on a menu item in a state where the first and second output units are set, the processor 120 may display an item for the magnification mode and an item for the voice mode. . When a touch input is performed on one of the items for the magnification mode and the item for the voice mode, the processor 120 may sequentially output the first output unit and the second output unit based on the selected mode.

상술한 예에서, 확대모드에 대한 아이템이 터치되는 경우, 프로세서(120)는 제1 출력유닛 내지 제n 출력유닛을 순차적으로 디스플레이할 수 있다. 또는, 음성모드에 대한 아이템이 터치되는 경우, 프로세서(120)는 제1 출력유닛 내지 제n 출력유닛을 순차적으로 음성출력할 수 있다.In the above example, when an item for an enlargement mode is touched, the processor 120 may sequentially display the first to nth output units. Alternatively, when an item for the voice mode is touched, the processor 120 may output audio sequentially from the first output unit to the n-th output unit.

상술한 본 발명의 다양한 실시 예에서, 제2 단락에 포함되는 제3 문장에 네 번째 터치입력이 수행되는 경우, 프로세서(120)는 제3 문장을 두 번째 출력유닛으로 업데이트할 수 있다.In various embodiments of the present disclosure described above, when a fourth touch input is performed on the third sentence included in the second paragraph, the processor 120 may update the third sentence to the second output unit.

상술한 본 발명의 다양한 실시 예에서, 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 프로세서(120)는 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 강조 표시할 수 있다. 예를 들어, 강조 표시란 선택된 영역에 대한 하이라이트, 선택된 영역에 대한 글자 색 변경 등 다양한 표시 방법을 포함할 수 있다.In various embodiments of the present invention described above, when a plurality of touch inputs are sequentially received with respect to a web document, the processor 120 outputs the first output unit corresponding to the first touch input to the first output unit corresponding to the n-th touch input. n Output units can be highlighted sequentially. For example, highlighting may include various display methods such as highlighting a selected area and changing a text color for a selected area.

이하에서, 도 6 내지 도 10을 참조하여, 웹문서 중 일부를 선택하고, 선택된 일부를 출력하는 실시 예를 상세히 설명한다.Hereinafter, with reference to FIGS. 6 to 10 , an embodiment of selecting some of the web documents and outputting the selected part will be described in detail.

도 6은 본 발명의 일 실시 예에 따른 사용자 단말의 화면을 도시한다.6 shows a screen of a user terminal according to an embodiment of the present invention.

도 6을 참조하면, 사용자 단말(100)의 화면(610)은 메뉴 아이템(611)을 포함할 수 있다. 메뉴 아이템(611)은 저시력자를 위한 모드 선택을 제공하기 위한 아이템이다.Referring to FIG. 6 , a screen 610 of the user terminal 100 may include a menu item 611 . The menu item 611 is an item for providing mode selection for a person with low vision.

도 7은 본 발명의 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.7 shows a screen of a user terminal according to another embodiment of the present invention.

도 7을 참조하면, 사용자 단말(100)의 화면(620)은 복수의 아이템을 포함할 수 있다. 여기서, 선택 아이템(621)은 저시력자를 위한 선택모드를 제공하기 위한 아이템이다. 예를 들어, 선택 아이템(621)이 터치되는 경우, 터치 입력을 통하여 사용자는 웹문서 중 원하는 부분을 선택할 수 있다.Referring to FIG. 7 , a screen 620 of the user terminal 100 may include a plurality of items. Here, the selection item 621 is an item for providing a selection mode for a person with low vision. For example, when the selection item 621 is touched, the user can select a desired part of the web document through touch input.

도 8은 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.8 shows a screen of a user terminal according to another embodiment of the present invention.

도 8은 선택 아이템(621)이 선택되어 선택모드가 제공된 상태를 도시한다.8 shows a state in which the selection mode is provided when the selection item 621 is selected.

도 8을 참조하면, 사용자는 제1 단락에 포함된 제1 문장(631), 제2 단락에 포함된 제2 문장(632) 및 제3 문장(633)을 순차적으로 선택할 수 있다. 여기서, 각 문장에 대한 선택은 터치 입력으로 수행될 수 있다. 여기서 티치 입력은, 기정의된 시간 동안의 터치, 터치 앤 드래그, 복수 회의 터치 등 다양한 터치 동작일 수 있다.Referring to FIG. 8 , a user may sequentially select a first sentence 631 included in a first paragraph, and a second sentence 632 and a third sentence 633 included in a second paragraph. Here, selection of each sentence may be performed by touch input. Here, the teach input may be various touch operations, such as a touch for a predefined period of time, a touch and drag, and multiple touches.

프로세서는, 제1 단락에 포함된 제1 문장(631), 제2 단락에 포함된 제2 문장(632) 및 제3 문장(633)이 순차적으로 터치됨에 따라, 제1 단락에 포함된 제1 문장(631), 제2 단락에 포함된 제2 문장(632) 및 제3 문장(633)을 순차적으로 강조표시할 수 있다.As the first sentence 631 included in the first paragraph, the second sentence 632 included in the second paragraph, and the third sentence 633 included in the second paragraph are sequentially touched, the processor determines the first sentence included in the first paragraph. The sentence 631, the second sentence 632, and the third sentence 633 included in the second paragraph may be highlighted sequentially.

상술한 터치 입력에 따라, 프로세서(120)는 제1 문장(631), 제2 문장(632) 및 제3 문장(633) 각각을 출력유닛으로 설정할 수 있다. According to the above-described touch input, the processor 120 may set each of the first sentence 631, the second sentence 632, and the third sentence 633 as an output unit.

제1 문장(631), 제2 문장(632) 및 제3 문장(633)이 선택된 후 메뉴 아이템(634)가 선택되는 경우, 프로세서(120)는 선택모드를 종료하고 출력모드 선택을 위한 화면을 전환할 수 있다.When the menu item 634 is selected after the first sentence 631, the second sentence 632, and the third sentence 633 are selected, the processor 120 terminates the selection mode and displays a screen for selecting an output mode. can switch

도 9는 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.9 illustrates a screen of a user terminal according to another embodiment of the present invention.

도 9를 참조하면, 사용자 단말(100)의 화면(640)은 확대모드에 대한 아이템(641) 및 음성모드에 대한 아이템(642)을 포함할 수 있다.Referring to FIG. 9 , a screen 640 of the user terminal 100 may include an item 641 for an enlargement mode and an item 642 for a voice mode.

예를 들어, 확대모드에 대한 아이템(641) 및 음성모드에 대한 아이템(642) 중 하나에 터치입력이 수행되는 경우, 프로세서(120)는 선택된 모드에 기초하여 제1 문장(631), 제2 문장(632) 및 제3 문장(633)을 순차적으로 출력할 수 있다. 여기서, 제1 문장(631), 제2 문장(632) 및 제3 문장(633)은 제1 출력유닛 내지 제3 출력유닛에 대응될 수 있다.For example, when a touch input is performed on one of the item 641 for the magnification mode and the item 642 for the voice mode, the processor 120 outputs the first sentence 631 and the second sentence 631 based on the selected mode. The sentence 632 and the third sentence 633 may be sequentially output. Here, the first sentence 631, the second sentence 632, and the third sentence 633 may correspond to the first to third output units.

구체적으로, 확대모드에 대한 아이템(641)이 터치되는 경우, 프로세서(120)는 제1 문장(631), 제2 문장(632) 및 제3 문장(633)을 순차적으로 디스플레이할 수 있다. 또는, 프로세서(120)는 제1 문장(631), 제2 문장(632) 및 제3 문장(633)을 순서대로 연결하여 하나의 화면에 동시에 디스플레이할 수도 있다.Specifically, when the item 641 for the enlargement mode is touched, the processor 120 may sequentially display the first sentence 631, the second sentence 632, and the third sentence 633. Alternatively, the processor 120 may connect the first sentence 631 , the second sentence 632 , and the third sentence 633 in order and simultaneously display them on one screen.

음성모드에 대한 아이템(642)이 터치되는 경우, 프로세서(120)는 제1 문장(631), 제2 문장(632) 및 제3 문장(633)을 순차적으로 음성출력할 수 있다. 이 경우, 프로세서(120)는 제1 문장(631)을 음성출력하기 전 순서에 제1 문장(631)이 제1 문단에 포함됨을 음성출력한 후, 제1 문장(631)을 음성출력할 수 있다. 또한, 프로세서(120)는 제2 문장(632) 및 제3 문장(633)이 제2 문단에 포함됨을 음성출력한 후, 제2 문장(632) 및 제3 문장(633)을 음성출력할 수 있다.When the item 642 for the voice mode is touched, the processor 120 may sequentially output the first sentence 631, the second sentence 632, and the third sentence 633 as audio. In this case, the processor 120 may audio output the first sentence 631 after audio outputting that the first sentence 631 is included in the first paragraph prior to audio output of the first sentence 631. there is. In addition, the processor 120 may output audio indicating that the second sentence 632 and the third sentence 633 are included in the second paragraph, and then audio output the second sentence 632 and the third sentence 633. there is.

도 10은 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.10 shows a screen of a user terminal according to another embodiment of the present invention.

도 10을 참조하면, 제1 문장(631), 제2 문장(632) 및 제3 문장(633)은 기정의된 시간 간격에 따라 순차적으로 디스플레이될 수 있다. Referring to FIG. 10 , a first sentence 631, a second sentence 632, and a third sentence 633 may be sequentially displayed according to a predefined time interval.

예를 들어, 사용자 단말(100)의 화면(650)을 참조하면, 제1 문장(631)이 확대 디스플레이된 다음, 제2 문장(632) 및 제3 문장(633)이 확대 디스플레이될 수 있다. For example, referring to the screen 650 of the user terminal 100, the first sentence 631 may be enlarged and displayed, and then the second sentence 632 and the third sentence 633 may be enlarged and displayed.

또는, 제1 문장(631), 제2 문장(632) 및 제3 문장(633)이 순서대로 연결되어 하나의 화면에 동시에 디스플레이될 수 있다. 이 경우, 제1 문장(631)의 앞 부분에는 제1 문장(631)이 제1 문단에 포함됨을 표시하고, 제2 문장(632) 및 제3 문장(633)의 앞부분에는 제2 문장(632) 및 제3 문장(633)이 제2 문단에 포함됨을 표시할 수 있다.Alternatively, the first sentence 631, the second sentence 632, and the third sentence 633 may be sequentially connected and simultaneously displayed on one screen. In this case, the front part of the first sentence 631 indicates that the first sentence 631 is included in the first paragraph, and the front part of the second sentence 632 and the third sentence 633 indicates that the second sentence 632 is included in the first paragraph. ) and the third sentence 633 are included in the second paragraph.

상술한 도 10의 경우, 제1 문장(631), 제2 문장(632) 및 제3 문장(633)에 대하여 강조표시가 수행되어 선택된 문장임이 표시될 수 있다.In the case of FIG. 10 described above, the first sentence 631 , the second sentence 632 , and the third sentence 633 may be highlighted to indicate that they are selected sentences.

이하에서, 도 11 내지 도 13을 참조하여, 웹페이지 중 일부의 선택된 상태를 도시한다.Hereinafter, with reference to FIGS. 11 to 13, selected states of some of the web pages are illustrated.

도 11은 본 발명의 일 실시 예에 따른 웹페이지를 도시한다.11 shows a web page according to an embodiment of the present invention.

도 11은 검색 엔진의 카테고리를 블로그로 설정한 상태에서 '파리 여행'을 검색한 결과를 도시한다.11 shows a search result for 'Paris trip' in a state in which the category of the search engine is set to blog.

도 11을 참조하면, 사용자 단말(100)의 화면(1110)에서 제1 블로그(1111)의 문자로 구성된 내용 일부 및 썸네일이 선택되고, 제2 블로그(1112)의 문자로 구성된 내용 일부가 순차적으로 선택될 수 있다. 이 경우, 프로세서(120)는 사용자 단말(100)의 화면(1110)에서 제1 블로그(1111)의 문자로 구성된 내용 일부, 썸네일 및 제2 블로그(1112)의 문자로 구성된 내용 일부를 강조표시할 수 있다.Referring to FIG. 11 , on the screen 1110 of the user terminal 100, some of the content and thumbnails composed of text of the first blog 1111 are selected, and some of the content composed of text of the second blog 1112 are sequentially displayed. can be chosen In this case, the processor 120 may highlight a part of content composed of text of the first blog 1111, a thumbnail, and a part of content composed of text of the second blog 1112 on the screen 1110 of the user terminal 100. can

프로세서(120)는 제1 블로그(1111)의 문자로 구성된 내용 일부, 제1 블로그(1111)의 썸네일 및 제2 블로그(1112)의 문자로 구성된 내용 일부를 개별적인 출력 유닛으로 설정할 수 있다. 프로세서(120)는 제1 블로그(1111)의 문자로 구성된 내용 일부, 제1 블로그(1111)의 썸네일 및 제2 블로그(1112)의 문자로 구성된 내용 일부를 순차적으로 출력할 수 있다.The processor 120 may set a part of the text content of the first blog 1111, a thumbnail of the first blog 1111, and a part of text content of the second blog 1112 as individual output units. The processor 120 may sequentially output a part of the text content of the first blog 1111, a thumbnail of the first blog 1111, and a part of text content of the second blog 1112.

상술한 예에서, 프로세서(120)는 제1 블로그(1111)의 썸네일에 대한 출력에서는, 제1 블로그(1111)의 썸네일에 별도에 태깅된 내용을 출력할 수 있다. 여기서, 태깅된 내용은 썸네일이라는 설명 또는 썸네일에 포함된 이미지에 대한 설명 등일 수 있다. 일 예로, 프로세서(120)는 썸네일에 태깅된 내용에 대한 출력으로, “썸네일입니다” 또는 “썸네일은 에펠탑을 포함합니다”를 출력할 수 있다.In the above example, the processor 120 may output content separately tagged to the thumbnail of the first blog 1111 in the output of the thumbnail of the first blog 1111 . Here, the tagged content may be a description of a thumbnail or a description of an image included in the thumbnail. For example, the processor 120 may output “This is a thumbnail” or “Thumbnail includes the Eiffel Tower” as an output for content tagged to the thumbnail.

도 12는 본 발명의 다른 실시 예에 따른 웹페이지를 도시한다.12 shows a web page according to another embodiment of the present invention.

도 12는 검색 엔진의 카테고리를 블로그로 설정한 상태에서 '파리 여행'을 검색한 결과를 도시한다.12 shows a search result for 'Paris trip' in a state in which the category of the search engine is set to blog.

도 12를 참조하면, 사용자 단말(100)의 화면(1210)에서 제3 블로그(1211)의 문자로 구성된 내용이 선택되고, 제4 블로그(1212)의 문자로 구성된 내용 일부가 순차적으로 선택될 수 있다. 이 경우, 프로세서(120)는 제3 블로그(1211)의 문자로 구성된 내용 및 제4 블로그(1212)의 문자로 구성된 내용 일부를 강조표시할 수 있다.Referring to FIG. 12 , on the screen 1210 of the user terminal 100, content composed of text of the third blog 1211 may be selected, and some content composed of text of the fourth blog 1212 may be sequentially selected. there is. In this case, the processor 120 may highlight text content of the third blog 1211 and part of text content of the fourth blog 1212 .

프로세서(120)는 제3 블로그(1211)의 문자로 구성된 내용 일부 및 제4 블로그(1212)의 문자로 구성된 내용 일부를 개별적인 출력 유닛으로 설정할 수 있다. 프로세서(120)는 제3 블로그(1211)의 문자로 구성된 내용 일부 및 제4 블로그(1212)의 문자로 구성된 내용 일부를 순차적으로 출력할 수 있다.The processor 120 may set a part of text contents of the third blog 1211 and a part of text contents of the fourth blog 1212 as separate output units. The processor 120 may sequentially output part of the text content of the third blog 1211 and part of text content of the fourth blog 1212 .

도 13은 본 발명의 또 다른 실시 예에 따른 웹페이지를 도시한다.13 shows a web page according to another embodiment of the present invention.

도 13은 검색 엔진의 카테고리를 블로그로 설정한 상태에서 '파리 여행'을 검색한 결과를 도시한다.13 shows a search result for 'Paris trip' in a state in which the category of the search engine is set to blog.

도 13을 참조하면, 사용자 단말(100)의 화면(1310)에서 제5 블로그(1311)의 문자로 구성된 내용이 선택되고, 제6 블로그(1312)의 문자로 구성된 내용 일부가 순차적으로 선택될 수 있다. 여기서, 프로세서(120)는 제5 블로그(1311)의 문자로 구성된 내용 및 제6 블로그(1312)의 문자로 구성된 내용 일부를 순차적으로 강조표시할 수 있다.Referring to FIG. 13 , on the screen 1310 of the user terminal 100, content composed of text of the fifth blog 1311 may be selected, and some content composed of text of the sixth blog 1312 may be sequentially selected. there is. Here, the processor 120 may sequentially highlight and display content composed of text of the fifth blog 1311 and part of content composed of text of the sixth blog 1312 .

프로세서(120)는 제5 블로그(1311)의 문자로 구성된 내용 일부 및 제6 블로그(1312)의 문자로 구성된 내용 일부를 개별적인 출력 유닛으로 설정할 수 있다. 프로세서(120)는 제5 블로그(1311)의 문자로 구성된 내용 일부 및 제6 블로그(1312)의 문자로 구성된 내용 일부를 순차적으로 출력할 수 있다.The processor 120 may set a part of text contents of the fifth blog 1311 and a part of text contents of the sixth blog 1312 as separate output units. The processor 120 may sequentially output part of the text content of the fifth blog 1311 and part of text content of the sixth blog 1312 .

상술한 예에서, 제5 블로그(1311)의 문자로 구성된 내용 일부는 문장 또는 제목의 일부만을 포함할 수 있다. 이 경우, 프로세서(120)는 문장 또는 제목의 일부만을 출력유닛으로 설정하여 출력을 수행할 수 있다.In the above-described example, part of the text content of the fifth blog 1311 may include only part of the sentence or title. In this case, the processor 120 may perform output by setting only a part of the sentence or title as an output unit.

상술한 본 발명의 다양한 실시 예에 따르면, 저시력자는 웹페이지 중 원하는 부분을 용이하게 선택할 수 있고, 선택된 부분을 적합한 다양한 수단으로 제공받을 수 있다. 이에 따라, 저시력자의 사용자 단말에 대한 활용도가 크게 향상될 수 있다.According to various embodiments of the present invention described above, a person with low vision can easily select a desired part of a webpage, and can receive the selected part through various appropriate means. Accordingly, utilization of the user terminal of the low vision person can be greatly improved.

도 14는 본 발명의 일 실시 예에 따른 사용자 단말의 시스템 블록도를 도시한다.14 shows a system block diagram of a user terminal according to an embodiment of the present invention.

도 14를 참조하면, 사용자 단말(1400)은 문서 파싱 및 문서구조트리 생성부(1401), 터치 인식부(1403), 문서구조트리 구조 탐색부(1404), 화면 표시부(1405) 및 음성출력부(TTS: Text to Speech)(1406)를 포함할 수 있다.Referring to FIG. 14, the user terminal 1400 includes a document parsing and document structure tree generation unit 1401, a touch recognition unit 1403, a document structure tree search unit 1404, a screen display unit 1405, and an audio output unit. (TTS: Text to Speech) 1406 may be included.

이하에서, 사용자 단말(1400)의 동작은 사용자 단말(1400)에 포함된 복수의 부(unit)에 의해 수행되는 것으로 설명하나, 이러한 복수의 부에 의해 수행되는 동작은 사용자 단말(1400)에 포함된 적어도 하나의 프로세서에 의해 수행될 수 있음은 물론이다.Hereinafter, the operation of the user terminal 1400 is described as being performed by a plurality of units included in the user terminal 1400, but operations performed by these units are included in the user terminal 1400. Of course, it can be performed by at least one processor.

웹문서 파싱 및 문서구조트리생성부(1401)는 웹문서를 파싱하여 문서구조트리(SST)를 생성할 수 있다(1401). 여기서, 문서구조트리에 대하여는 상술하였으므로 상세한 설명을 생략한다.The web document parsing and document structure tree generation unit 1401 may generate a document structure tree (SST) by parsing the web document (1401). Here, since the document structure tree has been described above, a detailed description thereof will be omitted.

터치 인식부(1403)는 사용자의 터치 입력을 인식할 수 있다. 일 예로, 터치 인식부(1403)는 사용자 단말(1400)의 디스플레이에 대한 터치에 대응하는 웹문서의 부분을 획득하여 이를 기록해둘 수 있다.The touch recognition unit 1403 can recognize a user's touch input. For example, the touch recognition unit 1403 may acquire and record a part of a web document corresponding to a touch on the display of the user terminal 1400 .

문서구조트리 구조 탐색부(1404)는 생성된 문서구조트리(1402)에 기초하여 기초하여 웹문서 구조를 탐색할 수 있다. 일 예로, 문서구조트리 구조 탐색부(1404)는 문서구조트리(1402)에 기초하여, 상술한 터치에 대응하는 웹문서 부분을 결정할 수 있다.The document structure tree search unit 1404 may search the web document structure based on the generated document structure tree 1402 . For example, the document structure tree search unit 1404 may determine a part of the web document corresponding to the above-described touch based on the document structure tree 1402 .

화면 표시부(1405)는 선택된 웹문서 부분을 디스플레이할 수 있다. 또한, 음성출력부(1406)는 선택된 웹문서 부분을 소리로서 출력할 수 있다.The screen display unit 1405 can display the selected part of the web document. Also, the audio output unit 1406 may output the selected part of the web document as a sound.

도 15는 본 발명의 일 실시 예에 따른 사용자 단말의 세부구성에 대한 블록도이다.15 is a block diagram of a detailed configuration of a user terminal according to an embodiment of the present invention.

도 15를 참조하면, 사용자 단말(1500)은 통신부(1510), 저장부(1520) 및 프로세서(1530)를 포함한다.Referring to FIG. 15 , a user terminal 1500 includes a communication unit 1510 , a storage unit 1520 and a processor 1530 .

통신부(1510)는 통신을 수행한다. 통신부(1510)는 BT(BlueTooth), WI-FI(Wireless Fidelity), ZigBee, IR(Infrared), NFC(Near Field Communication) 등과 같은 다양한 통신 방식을 통해 외부 기기와 통신을 수행할 수 있다.The communication unit 1510 performs communication. The communication unit 1510 may communicate with an external device through various communication methods such as BlueTooth (BT), Wireless Fidelity (WI-FI), ZigBee, Infrared (IR), and Near Field Communication (NFC).

저장부(1520)는 사용자 단말(1500)을 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 디스플레이 영역에서 제공되는 다양한 UI 화면을 구성하기 위한 데이터 등을 저장할 수 있다. 또한, 저장부(1520)는 읽고 쓰기가 가능하다.The storage unit 1520 may store an O/S (Operating System) software module for driving the user terminal 1500 and data for configuring various UI screens provided in the display area. Also, the storage unit 1520 is capable of reading and writing.

프로세서(1530)는 저장부(1520)에 저장된 각종 프로그램을 이용하여 공유기 또는 단말(1500)의 동작을 전반적으로 제어한다.The processor 1530 generally controls the operation of the router or terminal 1500 using various programs stored in the storage unit 1520 .

구체적으로, 프로세서(1530)는 RAM(1531), ROM(1532), 메인 CPU(1533), 그래픽 처리부(1534), 제1 내지 n 인터페이스(1535-1 ~ 1535-n) 및 버스(1536)를 포함한다.Specifically, the processor 1530 includes a RAM 1531, a ROM 1532, a main CPU 1533, a graphic processing unit 1534, first to n interfaces 1535-1 to 1535-n, and a bus 1536. include

RAM(1531), ROM(1532), 메인 CPU(1533), 그래픽 처리부(1534), 제1 내지 n 인터페이스(1535-1 ~ 1535-n) 등은 버스(1536)를 통해 서로 연결될 수 있다.The RAM 1531 , the ROM 1532 , the main CPU 1533 , the graphics processing unit 1534 , and the first to n interfaces 1535 - 1 to 1535 - n may be connected to each other through a bus 1536 .

제1 내지 n 인터페이스(1535-1 내지 1535-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces 1535-1 to 1535-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device through a network.

ROM(1532)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(1533)는 ROM(1532)에 저장된 명령어에 따라 저장부(1520)에 저장된 O/S를 RAM(1531)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(1533)는 저장된 각종 어플리케이션 프로그램을 RAM(1531)에 복사하고, RAM(1531)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.The ROM 1532 stores command sets for system booting and the like. When a turn-on command is input and power is supplied, the main CPU 1533 copies the O/S stored in the storage 1520 to the RAM 1531 according to the command stored in the ROM 1532 and executes the O/S. boot up the system When booting is completed, the main CPU 1533 copies various application programs stored in the RAM 1531 and executes the copied application programs in the RAM 1531 to perform various operations.

메인 CPU(1533)는 저장부(1520)에 액세스하여, 저장부(1520)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메인 CPU(1533)는 저장부(1520)에 저장된 각종 프로그램, 컨텐트, 데이터 등을 이용하여 다양한 동작을 수행한다.The main CPU 1533 accesses the storage unit 1520 and performs booting using the O/S stored in the storage unit 1520. Also, the main CPU 1533 performs various operations using various programs, contents, data, and the like stored in the storage unit 1520 .

그래픽 처리부(1534)는 연산부 및 렌더링부를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다.The graphic processing unit 1534 creates a screen including various objects such as icons, images, and texts by using a calculation unit and a rendering unit.

도 16은 본 발명의 일 실시 예에 따른 저시력자를 위한 웹문서 제공방법에 대한 흐름도이다.16 is a flowchart of a method of providing a web document for a person with low vision according to an embodiment of the present invention.

사용자 단말에서 수행되는, 저시력자를 위한 웹문서 제공방법은, 웹문서에 포함된 단락을 상위계층으로 구분하고, 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정(1610), 여기서, 단락과, 문장 및 오브젝트 중 적어도 하나는 개별적인 출력유닛으로 설정됨, 및 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 과정(1620)을 포함할 수 있다.A method of providing a web document for a person with low vision, performed at a user terminal, includes a process of classifying a paragraph included in a web document as an upper layer and classifying at least one of sentences and objects included in the paragraph as a lower layer (1610), where , at least one of a paragraph, a sentence, and an object is set as an individual output unit, and when a plurality of touch inputs are sequentially received with respect to the web document, the first output unit to the nth touch input corresponding to the first touch input It may include a step 1620 of sequentially outputting the nth output unit corresponding to .

여기서, 출력유닛은 스크린에 확대되어 출력되거나 음성으로 출력되는 단위로 정의될 수 있다.Here, the output unit may be defined as a unit that is enlarged and output on a screen or output as a voice.

상술한 저시력자를 위한 웹문서 제공방법은 상위계층에 포함되는 제1 단락에 첫 번째 터치입력이 수행되는 경우, 제1 단락을 첫 번째 출력유닛으로 설정하는 과정을 포함할 수 있다.The above-described method of providing a web document for a person with low vision may include setting the first paragraph as a first output unit when a first touch input is performed on a first paragraph included in an upper layer.

여기서, 상술한 저시력자를 위한 웹문서 제공방법은 제1 단락에 포함되는 제1 문장에 두 번째 터치입력이 수행되는 경우, 제1 문장을 첫 번째 출력유닛으로 업데이트하는 과정을 더 포함할 수 있다.Here, the method of providing a web document for a person with low vision described above may further include updating the first sentence to the first output unit when a second touch input is performed on the first sentence included in the first paragraph.

이에 더하여, 상술한 저시력자를 위한 웹문서 제공방법은 제1 단락에 포함되는 제2 문장 또는 오브젝트에 세 번째 터치입력이 수행되는 경우, 제2 문장 또는 오브젝트를 두 번째 출력유닛으로 업데이트하는 과정을 더 포함할 수 있다.In addition, the above-described web document providing method for people with low vision further includes a process of updating the second sentence or object to the second output unit when a third touch input is performed on the second sentence or object included in the first paragraph. can include

한편, 웹문서에서 선택된 부분을 출력하는 과정으로, 상술한 저시력자를 위한 웹문서 제공방법은 메뉴 아이템에 대한 터치입력이 수행되는 경우, 확대모드에 대한 아이템 및 음성모드에 대한 아이템을 디스플레이하는 과정 및 상기 확대모드에 대한 아이템 및 상기 음성모드에 대한 아이템 중 하나에 터치입력이 수행되는 경우, 선택된 모드에 기초하여 상기 첫 번째 출력유닛 및 두 번째 출력유닛을 순차적으로 출력하는 과정을 더 포함할 수 있다.On the other hand, as a process of outputting a selected part of a web document, the method for providing a web document for a person with low vision described above is a process of displaying an item for an enlargement mode and an item for a voice mode when a touch input is performed for a menu item, and When a touch input is performed on one of the item for the magnification mode and the item for the voice mode, the method may further include sequentially outputting the first output unit and the second output unit based on the selected mode. .

구체적으로, 상술한 저시력자를 위한 웹문서 제공방법은 확대모드에 대한 아이템이 터치되는 경우, 제1 출력유닛 내지 제n 출력유닛을 순차적으로 디스플레이하고, 음성모드에 대한 아이템이 터치되는 경우, 제1 출력유닛 내지 제n 출력유닛을 순차적으로 음성출력하는 과정을 더 포함할 수 있다.Specifically, the method for providing a web document for a person with low vision described above sequentially displays the first output unit to the n-th output unit when an item for the enlargement mode is touched, and when an item for the voice mode is touched, the first output unit is displayed. A process of sequentially outputting audio through the output unit to the n-th output unit may be further included.

또는, 상술한 저시력자를 위한 웹문서 제공방법은 상위계층에 포함되는 제2 단락에 두 번째 터치입력이 수행되는 경우, 제2 단락을 두 번째 출력유닛으로 설정할 수 있다.Alternatively, in the above method of providing a web document for a person with low vision, when a second touch input is performed on a second paragraph included in an upper layer, the second paragraph may be set as a second output unit.

또한, 상술한 저시력자를 위한 웹문서 제공방법은 상위계층에 포함되는 제2 단락에 세 번째 터치입력이 수행되는 경우, 제2 단락을 두 번째 출력유닛으로 설정하는 과정을 더 포함할 수 있다.In addition, the above-described method of providing a web document for a person with low vision may further include setting the second paragraph as a second output unit when a third touch input is performed on a second paragraph included in an upper layer.

한편, 상술한 저시력자를 위한 웹문서 제공방법은 제2 단락에 포함되는 제3 문장에 네 번째 터치입력이 수행되는 경우, 제3 문장을 두 번째 출력유닛으로 업데이트하는 과정을 더 포함할 수 있다.Meanwhile, the method for providing a web document for a person with low vision described above may further include updating the third sentence to the second output unit when a fourth touch input is performed on the third sentence included in the second paragraph.

상술한 본 발명의 다양한 실시 예에서, 오브젝트는 이미지 및 표 중 적어도 하나일 수 있다.In various embodiments of the present invention described above, the object may be at least one of an image and a table.

저시력자의 터치 입력 과정과 관련하여, 상술한 저시력자를 위한 웹문서 제공방법은 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 강조 표시하는 과정을 포함할 수 있다.Regarding the touch input process for a person with low vision, in the above-described method for providing a web document for a person with low vision, when a plurality of touch inputs are sequentially received for a web document, the first output unit to the nth touch input corresponding to the first touch input It may include a process of highlighting and displaying the n-th output unit corresponding to .

한편, 상술한 본 발명의 다양한 실시 예에 따른 저시력자를 위한 웹문서 제공방법은 컴퓨터로 실행 가능한 프로그램 코드로 구현되어 다양한 비 일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 프로세서에 의해 실행되도록 각 서버 또는 기기들에 제공될 수 있다.On the other hand, the above-described method for providing web documents for people with low vision according to various embodiments of the present invention is implemented as computer-executable program code and stored in various non-transitory computer readable media by a processor. It can be provided to each server or device to be executed.

일 예로, 웹문서에 포함된 단락을 상위계층으로 구분하고, 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정, 여기서, 단락과, 문장 및 오브젝트 중 적어도 하나는 개별적인 출력유닛으로 설정됨, 및 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 과정을 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.For example, a process of classifying a paragraph included in a web document as an upper layer and classifying at least one of sentences and objects included in the paragraph as a lower layer, wherein at least one of the paragraph, sentence, and object is an individual output unit. set, and when a plurality of touch inputs are sequentially received for the web document, a process of sequentially outputting the first output unit corresponding to the first touch input to the n-th output unit corresponding to the n-th touch input is performed. A non-transitory computer readable medium in which a program to be stored may be provided.

비 일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short moment, such as a register, cache, or memory. Specifically, the various applications or programs described above may be stored and provided in non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상으로, 본 발명의 실시 예들이 도시되고 설명되었지만, 당업자는 첨부된 청구항들 및 그에 동등한 것들에 의해 정의되는 바와 같은 본 실시 예의 사상 및 범위를 벗어나지 않고 형태 및 세부 사항들에 있어 다양한 변경이 이루어질 수 있음을 이해할 것이다.While embodiments of the present invention have been shown and described above, those skilled in the art may make various changes in form and detail without departing from the spirit and scope of the present embodiments as defined by the appended claims and equivalents thereto. you will understand that you can

사용자 단말: 100, 1400, 1500
통신부: 1110
저장부: 110, 1120
프로세서: 120, 1130
User Terminal: 100, 1400, 1500
Communications Department: 1110
Reservoir: 110, 1120
Processor: 120, 1130

Claims (24)

사용자 단말에서 수행되는, 저시력자를 위한 웹문서 제공방법에 있어서,
웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정, 여기서, 상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정됨;
상기 상위계층에 포함되는 제1 단락에 첫 번째 터치입력이 수행되는 경우, 상기 제1 단락을 첫 번째 출력유닛으로 설정 및 강조표시 하는 과정;
상기 제1 단락에 포함되며, 상기 하위계층에 포함되는 제1 문장에 두 번째 터치입력이 수행되는 경우, 상기 상위계층에 포함되는 상기 제1 단락에 대하여 상기 첫 번째 출력유닛으로 설정 및 강조표시한 것을 해제하고, 상기 하위계층에 포함되는 상기 제1 문장을 상기 첫 번째 출력유닛으로 설정 및 강조표시하는 과정;
상기 제1 단락에 포함되며, 상기 하위계층에 포함되는 제2 문장에 세 번째 터치입력이 수행되는 경우, 상기 제2 문장을 두 번째 출력유닛으로 설정 및 강조표시하는 과정;
상기 제1 단락에 포함되며, 상기 하위계층에 포함되는 오브젝트에 네 번째 터치입력이 수행되는 경우, 상기 오브젝트를 세 번째 출력유닛으로 설정 및 강조표시하는 과정;
메뉴 아이템에 대한 터치입력이 수행되는 경우, 확대모드에 대한 아이템 및 음성모드에 대한 아이템을 디스플레이하는 과정; 및
상기 확대모드에 대한 아이템 및 상기 음성모드에 대한 아이템 중 하나가 선택되면, 선택된 모드에 기초하여 상기 제1 문장, 상기 제2 문장 및 상기 오브젝트가 상기 제1 단락에 포함됨을 나타내는 정보를 출력한 후, 상기 제1 문장, 상기 제2 문장과, 상기 오브젝트 또는 상기 오브젝트에 대한 설명을 순차적으로 출력하는 과정;을 포함하고,
상기 오브젝트는 이미지 및 표 중 적어도 하나인, 저시력자를 위한 웹문서 제공방법.
In the method of providing a web document for people with low vision, performed in a user terminal,
Classifying a paragraph included in a web document into an upper layer and classifying at least one of a sentence and an object included in the paragraph into a lower layer, wherein the paragraph and at least one of the sentence and the object are individually output. set to units;
setting and highlighting the first paragraph as a first output unit when a first touch input is performed on the first paragraph included in the upper layer;
When a second touch input is performed on the first sentence included in the first paragraph and included in the lower layer, the first paragraph included in the upper layer is set as the first output unit and highlighted. canceling, and setting and highlighting the first sentence included in the lower layer as the first output unit;
setting and highlighting the second sentence as a second output unit when a third touch input is performed on a second sentence included in the first paragraph and included in the lower layer;
setting and highlighting the object as a third output unit when a fourth touch input is performed on an object included in the first paragraph and included in the lower layer;
displaying an item for an enlarged mode and an item for a voice mode when a touch input is applied to a menu item; and
When one of the item for the enlargement mode and the item for the voice mode is selected, information indicating that the first sentence, the second sentence, and the object are included in the first paragraph is output based on the selected mode, and then , sequentially outputting the first sentence, the second sentence, and the object or a description of the object;
The method of claim 1, wherein the object is at least one of an image and a table.
제1항에 있어서,
상기 출력유닛은,
스크린에 확대되어 출력되거나 음성으로 출력되는 단위인, 저시력자를 위한 웹문서 제공방법.
According to claim 1,
The output unit,
A method of providing a web document for people with low vision, which is a unit that is enlarged and output on a screen or output as an audio.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 사용자 단말에 있어서,
저장부; 및
웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하고, 여기서, 상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정됨,
상기 상위계층에 포함되는 제1 단락에 첫 번째 터치입력이 수행되는 경우, 상기 제1 단락을 첫 번째 출력유닛으로 설정 및 강조표시 하고,
상기 제1 단락에 포함되며, 상기 하위계층에 포함되는 제1 문장에 두 번째 터치입력이 수행되는 경우, 상기 상위계층에 포함되는 상기 제1 단락에 대하여 상기 첫 번째 출력유닛으로 설정 및 강조표시한 것을 해제하고, 상기 하위계층에 포함되는 상기 제1 문장을 상기 첫 번째 출력유닛으로 설정 및 강조표시하고,
상기 제1 단락에 포함되며, 상기 하위계층에 포함되는 제2 문장에 세 번째 터치입력이 수행되는 경우, 상기 제2 문장을 두 번째 출력유닛으로 설정 및 강조표시하고,
상기 제1 단락에 포함되며, 상기 하위계층에 포함되는 오브젝트에 네 번째 터치입력이 수행되는 경우, 상기 오브젝트를 세 번째 출력유닛으로 설정 및 강조표시하고,
메뉴 아이템에 대한 터치입력이 수행되는 경우, 확대모드에 대한 아이템 및 음성모드에 대한 아이템을 디스플레이하고,
상기 확대모드에 대한 아이템 및 상기 음성모드에 대한 아이템 중 하나가 선택되면, 선택된 모드에 기초하여 상기 제1 문장, 상기 제2 문장 및 상기 오브젝트가 상기 제1 단락에 포함됨을 나타내는 정보를 출력한 후, 상기 제1 문장, 상기 제2 문장과, 상기 오브젝트 또는 상기 오브젝트에 대한 설명을 순차적으로 출력하는 프로세서;를 포함하고,
상기 오브젝트는 이미지 및 표 중 적어도 하나인, 사용자 단말.
In the user terminal,
storage unit; and
A paragraph included in a web document is classified as an upper layer, and at least one of sentences and objects included in the paragraph is classified as a lower layer, wherein the paragraph and at least one of the sentence and object are separate output units. set to
When a first touch input is performed on a first paragraph included in the upper layer, setting and highlighting the first paragraph as a first output unit;
When a second touch input is performed on the first sentence included in the first paragraph and included in the lower layer, the first paragraph included in the upper layer is set as the first output unit and highlighted. release, set and highlight the first sentence included in the lower layer as the first output unit,
When a third touch input is performed on a second sentence included in the first paragraph and included in the lower layer, setting and highlighting the second sentence as a second output unit;
When a fourth touch input is performed on an object included in the first paragraph and included in the lower layer, setting and highlighting the object as a third output unit;
When a touch input is performed on a menu item, an item for an enlarged mode and an item for a voice mode are displayed;
When one of the item for the enlargement mode and the item for the voice mode is selected, information indicating that the first sentence, the second sentence, and the object are included in the first paragraph is output based on the selected mode, and then , a processor that sequentially outputs the first sentence, the second sentence, and the object or a description of the object;
The object is at least one of an image and a table, the user terminal.
제13항에 있어서,
상기 출력유닛은,
스크린에 확대되어 출력되거나 음성으로 출력되는 단위인, 사용자 단말.
According to claim 13,
The output unit,
A user terminal, which is a unit that is enlarged and output on a screen or output as a voice.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020200084213A 2020-07-08 2020-07-08 Method for providing web document for people with low vision and user terminal thereof KR102487810B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200084213A KR102487810B1 (en) 2020-07-08 2020-07-08 Method for providing web document for people with low vision and user terminal thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200084213A KR102487810B1 (en) 2020-07-08 2020-07-08 Method for providing web document for people with low vision and user terminal thereof

Publications (2)

Publication Number Publication Date
KR20220006357A KR20220006357A (en) 2022-01-17
KR102487810B1 true KR102487810B1 (en) 2023-01-11

Family

ID=80051668

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200084213A KR102487810B1 (en) 2020-07-08 2020-07-08 Method for providing web document for people with low vision and user terminal thereof

Country Status (1)

Country Link
KR (1) KR102487810B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160378300A1 (en) * 2015-06-24 2016-12-29 Microsoft Technology Licensing, Llc Conversion of platform-independent accessibility logic into platform-specific accessibility functionality

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101314262B1 (en) * 2010-11-11 2013-10-14 (주) 에스엔아이솔라 Touch screen apparatus for possible object operation by blind person and method for object operation in the apparatus
KR102075382B1 (en) * 2018-05-15 2020-02-11 한국전자통신연구원 Apparatus for providing content for visually impaired people and method for providing the content using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160378300A1 (en) * 2015-06-24 2016-12-29 Microsoft Technology Licensing, Llc Conversion of platform-independent accessibility logic into platform-specific accessibility functionality

Also Published As

Publication number Publication date
KR20220006357A (en) 2022-01-17

Similar Documents

Publication Publication Date Title
US10775967B2 (en) Context-aware field value suggestions
US10229094B2 (en) Dynamic simulation of a responsive web page
EP3155501B1 (en) Accessibility detection of content properties through tactile interactions
US20150012818A1 (en) System and method for semantics-concise interactive visual website design
US20090313574A1 (en) Mobile document viewer
US9575941B1 (en) Dynamic adjustment to content for a display device
US20170235706A1 (en) Effecting multi-step operations in an application in response to direct manipulation of a selected object
KR20160089379A (en) Contextual information lookup and navigation
CN104915186B (en) A kind of method and apparatus making the page
US20140210729A1 (en) Gesture based user interface for use in an eyes-free mode
CN104461228B (en) Electronic device and text input interface display method thereof
CN108052212A (en) A kind of method, terminal and computer-readable medium for inputting word
KR102487810B1 (en) Method for providing web document for people with low vision and user terminal thereof
KR101498533B1 (en) Component separate display based electronic document display device and method
AU2019341037A1 (en) Dynamically adjusting text strings based on machine translation feedback
CN111506848A (en) Webpage processing method, device, equipment and readable storage medium
US20220237256A1 (en) Rendering method, electronic device and storage medium
JP2010015515A (en) Electronic apparatus provided with dictionary function
KR101368610B1 (en) Method and system for selecting paragraph on electronic book environments
US10423706B2 (en) Method and device for selecting information
JP5563706B1 (en) Document file generation apparatus, document file generation method, and document file generation program
KR101843113B1 (en) Method, terminal, and application for providing contents information using intractive multi-browsing bookmark
JP2015166905A (en) Electronic apparatus with dictionary display function, and program
KR101735472B1 (en) Method of designing viewer to improve mobile-web accessibility for retinitis pigmentosa patients, recording medium for performing the method and viewer to improve mobile-web accessibility for retinitis pigmentosa patients
KR20170037302A (en) Electronic device and method of controlling thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant