KR20220006357A - Method for providing web document for people with low vision and user terminal thereof - Google Patents

Method for providing web document for people with low vision and user terminal thereof Download PDF

Info

Publication number
KR20220006357A
KR20220006357A KR1020200084213A KR20200084213A KR20220006357A KR 20220006357 A KR20220006357 A KR 20220006357A KR 1020200084213 A KR1020200084213 A KR 1020200084213A KR 20200084213 A KR20200084213 A KR 20200084213A KR 20220006357 A KR20220006357 A KR 20220006357A
Authority
KR
South Korea
Prior art keywords
output unit
paragraph
sentence
touch input
web document
Prior art date
Application number
KR1020200084213A
Other languages
Korean (ko)
Other versions
KR102487810B1 (en
Inventor
임순범
박주현
Original Assignee
숙명여자대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숙명여자대학교산학협력단 filed Critical 숙명여자대학교산학협력단
Priority to KR1020200084213A priority Critical patent/KR102487810B1/en
Publication of KR20220006357A publication Critical patent/KR20220006357A/en
Application granted granted Critical
Publication of KR102487810B1 publication Critical patent/KR102487810B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed is a method for providing a web document for people with low vision. The method for providing the web document for people with low vision may comprise: a process of separating a paragraph included in the web document into an upper class and separating at least one between a sentence and object included in the paragraph into a lower class; and a process of sequentially outputting a first output unit corresponding to first touch input to a n^th output unit corresponding to n^th touch input when a plurality of numbers of touch input are sequentially received for the web document. At least one among the paragraph, the sentence, and the object can be set as an individual output unit.

Description

저시력자를 위한 웹문서 제공방법 및 그 사용자 단말{METHOD FOR PROVIDING WEB DOCUMENT FOR PEOPLE WITH LOW VISION AND USER TERMINAL THEREOF}Method for providing web documents for people with low vision and a user terminal thereof

본 발명은 저시력자를 위한 웹문서 제공방법 및 그 사용자 단말에 대한 것으로, 보다 상세하게는 웹문서의 내용 중 일부를 선택적으로 제공하는 저시력자를 위한 웹문서 제공방법 및 그 사용자 단말에 대한 것이다.The present invention relates to a method for providing a web document for a person with low vision and a user terminal thereof, and more particularly, to a method for providing a web document for a person with low vision and a user terminal thereof for selectively providing some of the contents of a web document.

저시력자는 시력이 매우 나빠 앞을 잘 볼 수 없는 사람을 가리킨다. 저시력자는 시각적으로 제공되는 정보의 이용이 어려워 촉각이나 청각을 이용하여 정보를 획득하는 것이 일반적이다.Low vision refers to a person who has very poor eyesight and cannot see well. It is common for people with low vision to use tactile or auditory sense to obtain information because it is difficult to use information provided visually.

최근까지 스마트폰과 같은 전자기기가 널리 보급되고 있지만, 전자기기와 사용자가 서로 정보를 주고받는 과정들이 스크린을 매개로 이루어지고 있어 저시력자들의 전자기기 활용도는 일반인들에 비해 크게 낮은 실정이다.Until recently, electronic devices such as smartphones have been widely distributed, but the process of exchanging information between electronic devices and users is carried out through the screen, so that the use of electronic devices by people with low vision is significantly lower than that of the general public.

한편, 저시력자들이 전자기기에서 제공되는 정보를 손쉽게 이용하도록 하는 기술들이 개발되고 있다. 그 예로, 대한민국 등록특허공보 제10-0747724호(공고일자: 2007년 08월 09일)는 시각장애인을 위하여 웹 페이지의 구성 내용을 음성으로 안내하고 사용자의 명령에 따라 웹 네비게이션을 수행하는 웹 네비게이션 시스템 및 그 방법을 개시하고 있다.Meanwhile, technologies are being developed that allow people with low vision to easily use information provided by electronic devices. For example, Republic of Korea Patent Publication No. 10-0747724 (announced date: August 09, 2007) is a web navigation that guides the contents of a web page by voice and performs web navigation according to a user's command for the visually impaired. A system and method are disclosed.

시각장애인의 경우 터치 입력을 기본으로 하는 스마트 기기에서 제공되는 웹페이지에 대한 접근성이 매우 낮다.For the visually impaired, access to web pages provided by smart devices based on touch input is very low.

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 웹페이지 중 사용자가 원하는 부분을 용이하게 선택하는 방법과, 선택된 부분을 저시력자에게 적합한 다양한 수단으로 출력하는 방법을 제공하는 것을 목적으로 한다.The present invention has been devised to solve the above problems, and an object of the present invention is to provide a method for easily selecting a desired portion of a web page by a user and a method for outputting the selected portion by various means suitable for people with low vision.

본 발명의 다양한 실시 예에 따른 저시력자를 위한 웹문서 제공방법은, 웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정 및 상기 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 과정을 포함할 수 있다. 여기서, 상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정될 수 있다.A method for providing a web document for a person with low vision according to various embodiments of the present disclosure includes the steps of dividing a paragraph included in a web document into an upper layer, and dividing at least one of sentences and objects included in the paragraph into a lower layer, and the The method may include sequentially outputting a first output unit corresponding to the first touch input to an n-th output unit corresponding to the n-th touch input when a plurality of touch inputs are sequentially received with respect to the web document. Here, at least one of the paragraph, the sentence, and the object may be set as an individual output unit.

본 발명의 다양한 실시 예에 따른 사용자 단말은, 저장부 및 웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하고, 상기 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 프로세서를 포함할 수 있다. 여기서, 상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정될 수 있다.The user terminal according to various embodiments of the present invention divides a paragraph included in the storage unit and a web document into an upper layer, divides at least one of sentences and objects included in the paragraph into a lower layer, and stores the paragraph in the web document. The processor may include a processor that sequentially outputs a first output unit corresponding to the first touch input to an n-th output unit corresponding to the n-th touch input when a plurality of touch inputs are sequentially received. Here, at least one of the paragraph, the sentence, and the object may be set as an individual output unit.

본 발명의 다양한 실시 예에 따르면, 저시력자는 웹페이지 중 원하는 부분을 용이하게 선택할 수 있고, 선택된 부분을 적합한 다양한 수단으로 제공받을 수 있다.According to various embodiments of the present disclosure, a person with low vision may easily select a desired portion of a web page, and may receive the selected portion through various suitable means.

도 1은 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 DOM을 도시한다.
도 3은 본 발명의 일 실시 예에 따른 문장구조트리를 도시한다.
도 4는 본 발명의 일 실시 예에 따른 출력유닛의 선택방법을 도시한다.
도 5는 본 발명의 일 실시 예에 따른 출력유닛의 선택 및 출력을 도시한다.
도 6은 본 발명의 일 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 7은 본 발명의 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 8은 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 9는 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 10은 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.
도 11은 본 발명의 일 실시 예에 따른 웹페이지를 도시한다.
도 12는 본 발명의 다른 실시 예에 따른 웹페이지를 도시한다.
도 13은 본 발명의 또 다른 실시 예에 따른 웹페이지를 도시한다.
도 14는 본 발명의 일 실시 예에 따른 사용자 단말의 시스템 블록도를 도시한다.
도 15는 본 발명의 일 실시 예에 따른 사용자 단말의 세부구성에 대한 블록도이다.
1 is a block diagram of a user terminal according to an embodiment of the present invention.
2 illustrates a DOM according to an embodiment of the present invention.
3 shows a sentence structure tree according to an embodiment of the present invention.
4 shows a method of selecting an output unit according to an embodiment of the present invention.
5 shows selection and output of an output unit according to an embodiment of the present invention.
6 illustrates a screen of a user terminal according to an embodiment of the present invention.
7 illustrates a screen of a user terminal according to another embodiment of the present invention.
8 illustrates a screen of a user terminal according to another embodiment of the present invention.
9 shows a screen of a user terminal according to another embodiment of the present invention.
10 illustrates a screen of a user terminal according to another embodiment of the present invention.
11 illustrates a web page according to an embodiment of the present invention.
12 shows a web page according to another embodiment of the present invention.
13 shows a web page according to another embodiment of the present invention.
14 is a system block diagram of a user terminal according to an embodiment of the present invention.
15 is a block diagram of a detailed configuration of a user terminal according to an embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대한 동작원리를 상세히 설명한다. 또한, 발명에 대한 실시 예를 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 하기에서 사용되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로써, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 사용된 용어들의 정의는 본 명세서 전반에 걸친 내용 및 이에 상응한 기능을 토대로 해석되어야 할 것이다.Hereinafter, the principle of operation of a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. In addition, when it is determined that a detailed description of a related well-known function or configuration may obscure the gist of the present disclosure in describing an embodiment of the present invention, the detailed description thereof will be omitted. And the terms used below are terms defined in consideration of functions in the present invention, which may vary depending on the intention or custom of the user or operator. Therefore, the definitions of the terms used should be interpreted based on the contents and corresponding functions throughout this specification.

도 1은 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.1 is a block diagram of a user terminal according to an embodiment of the present invention.

사용자 단말(100)은 스마트폰, 태블릿PC, 랩톱, 스마트TV, 스마트안경, 스마트워치, 셀룰러폰, 태블릿PC, MP3플레이어, PMP 중 하나일 수 있으며 이에 제한되지 않는다.The user terminal 100 may be one of a smartphone, a tablet PC, a laptop, a smart TV, smart glasses, a smart watch, a cellular phone, a tablet PC, an MP3 player, and a PMP, but is not limited thereto.

도 1을 참조하면, 사용자 단말(100)은 저장부(110) 및 프로세서(120)를 포함할 수 있다.Referring to FIG. 1 , the user terminal 100 may include a storage 110 and a processor 120 .

저장부(110)는 다양한 데이터를 저장할 수 있다. 일 예로, 저장부(110)는 텍스트 데이터, 이미지 데이터, 동영상 데이터, 오디오 데이터 등 다양한 사용자 데이터가 저장될 수 있다.The storage unit 110 may store various data. For example, the storage 110 may store various user data such as text data, image data, video data, and audio data.

여기서, 저장부(110)는 대용량 저장장치로써 사용자 데이터 등을 저장한다. 저장부(110)는 하드디스크 또는 광디스크 등과 같은 종래의 일반적인 대용량 저장장치 또는 메모리 카드 등의 저장매체가 될 수 있다. 또한, 저장부(110)는 DRAM(Dynamic Random Access Memory)이거나, 플래시 메모리 등의 반도체 소자를 사용한 SSD(Solid State Disk) 형태의 대용량 저장장치일 수도 있다. 또한, 저장부(110)는 광학디스크(Optical Disk)로 구현될 수도 있다.Here, the storage unit 110 stores user data and the like as a mass storage device. The storage unit 110 may be a conventional general mass storage device such as a hard disk or an optical disk or a storage medium such as a memory card. Also, the storage unit 110 may be a dynamic random access memory (DRAM) or a mass storage device in the form of a solid state disk (SSD) using a semiconductor device such as a flash memory. Also, the storage unit 110 may be implemented as an optical disk.

프로세서(120)는 웹문서에 포함된 내용을 출력할 수 있다. 구체적으로, 프로세서(120)는 웹문서의 구조에 기초하여 웹문서에 포함된 내용을 출력할 수 있다.The processor 120 may output contents included in the web document. Specifically, the processor 120 may output contents included in the web document based on the structure of the web document.

일반적으로, 웹문서는 문서 객체 모델(DOM; Document Object Model)로 구조화되어 있다. DOM은 플랫폼/언어 중립적으로 구조화된 문서를 표현하는 W3C의 공식 표준이다. DOM은 또한 W3C가 표준화한 여러 개의 API의 기반이 된다.In general, a web document is structured in a document object model (DOM). DOM is the W3C's official standard for representing structured documents that are platform/language-neutral. The DOM is also the basis for several APIs standardized by the W3C.

도 2는 본 발명의 일 실시 예에 따른 DOM을 도시한다.2 illustrates a DOM according to an embodiment of the present invention.

도 2를 참조하면, 웹문서의 DOM은 트리구조이다. DOM 트리구조는 단락, 그룹, 다양한 태그 간의 계층구조를 포함할 수 있다(단락

Figure pat00001
그룹
Figure pat00002
다양한 태그
Figure pat00003
단어, 예) <p> <div> <section>
Figure pat00004
<p> <div> <span>
Figure pat00005
각종 태그
Figure pat00006
단어).Referring to FIG. 2 , the DOM of a web document has a tree structure. The DOM tree structure can contain paragraphs, groups, and hierarchies between various tags (paragraphs).
Figure pat00001
group
Figure pat00002
various tags
Figure pat00003
word, eg) <p><div><section>
Figure pat00004
<p><div><span>
Figure pat00005
various tags
Figure pat00006
word).

이러한 DOM은 표준화를 통해 웹문서(또는 웹브라우저)에서 널리 이용되고 있다. 하지만, DOM은 사람이 문장을 읽는 방식을 그대로 반영하지 못하기 때문에, 저시력자의 선택에 따라 웹문서를 출력하는 방식에 그대로 적용되기에는 무리가 있다.This DOM is widely used in web documents (or web browsers) through standardization. However, since the DOM does not reflect the way a person reads a sentence as it is, it is difficult to apply it as it is to the method of outputting a web document according to the choice of a person with low vision.

이에 따라, 본 발명은 저시력자의 선택에 따라 웹문서를 선택적으로 출력하는데 이용가능한 저시력 문장구조트리(SST: Sentence Structure Tree)를 새롭게 제안한다.Accordingly, the present invention newly proposes a low-vision sentence structure tree (SST) that can be used to selectively output a web document according to the selection of a person with low vision.

도 3은 본 발명의 일 실시 예에 따른 문장구조트리를 도시한다.3 shows a sentence structure tree according to an embodiment of the present invention.

도 3을 참조하면, 문장구조트리는 웹문서를 단락, 문장, 오브젝트(객체) 등으로 구분할 수 있다.Referring to FIG. 3 , the sentence structure tree may classify a web document into paragraphs, sentences, objects (objects), and the like.

일 예로, 웹문서는 단락으로 구성될 수 있다. 여기서, 웹문서에 포함된 단락은 상위계층으로 구분될 수 있다. 또한, 단락은 문장 및 오브젝트 중 적어도 하나를 포함할 수 있다. 이 경우, 단락에 포함된 문장 및 오브젝트 중 적어도 하나는 하위계층으로 구분될 수 있다. 상술한 예에서, 문장 및 오브젝트는 동일한 등급의 계층으로 정의되거나, 문자 및 오브젝트가 서로 다른 등급의 계층으로 정의될 수 있음은 물론이다.For example, a web document may be composed of paragraphs. Here, paragraphs included in the web document may be divided into upper layers. Also, a paragraph may include at least one of a sentence and an object. In this case, at least one of sentences and objects included in a paragraph may be divided into lower layers. Of course, in the above example, sentences and objects may be defined as hierarchies of the same grade, or text and objects may be defined as hierarchies of different grades.

다른 예로, 웹문서는 단락 및 그룹 중 적어도 하나를 포함할 수 있다. 여기서, 그룹은 표, 이미지 등을 포함하는 객체로 정의될 수 있다. 예를 들어, 웹문서에 포함된 단락 또는 그룹은 상위계층으로 구분될 수 있다. 또한, 단락은 문장 및 오브젝트 중 적어도 하나를 포함하고, 그룹은 적어도 하나의 오브젝트를 포함할 수 있다. 이 경우, 단락 또는 그룹에 포함된 문장 및 오브젝트 중 적어도 하나는 하위계층으로 구분될 수 있다. 상술한 예에서, 문장 및 오브젝트는 동일한 등급의 계층으로 정의되거나, 문자 및 오브젝트가 서로 다른 등급의 계층으로 정의될 수 있음은 물론이다.As another example, the web document may include at least one of a paragraph and a group. Here, a group may be defined as an object including a table, an image, and the like. For example, paragraphs or groups included in a web document may be divided into higher layers. Also, a paragraph may include at least one of a sentence and an object, and a group may include at least one object. In this case, at least one of sentences and objects included in a paragraph or group may be divided into lower layers. Of course, in the above example, sentences and objects may be defined as hierarchies of the same grade, or text and objects may be defined as hierarchies of different grades.

또 다른 예로, 웹문서는 제목, 표, 그림 등의 오브젝트의 그룹으로 구성될 수도 있다. 또 다른 예로, 웹문서는 단락과, 제목, 표, 그림 등의 오브젝트가 함께 포함되도록 구성될 수도 있으며 이에 제한되지 않을 것이다.As another example, a web document may be composed of a group of objects such as a title, a table, and a picture. As another example, the web document may be configured to include objects such as a paragraph, a title, a table, and a picture together, but is not limited thereto.

상술한 예에서, 단락은 DOM으로부터 획득된 <p> 태그 또는 줄바뀜으로 구분되고, 문장은 마침표(.)로 구분되고, 오브젝트는 이미지 또는 표로서 구분될 수 있다.In the above-described example, paragraphs may be separated by <p> tags or line breaks obtained from the DOM, sentences may be separated by periods (.), and objects may be separated as images or tables.

상술한 본 발명의 다양한 실시 예에서, 프로세서(120)는 웹문서의 정보를 출력하는 단위가 되는 출력유닛을 설정할 수 있다. 또는, 상기 출력유닛은 기설정될 수 있다.In various embodiments of the present invention described above, the processor 120 may set an output unit that is a unit for outputting information of a web document. Alternatively, the output unit may be preset.

여기서, 출력유닛이란 웹문서 중 일부를 화면에 출력하거나 음성으로 출력하는 경우의 단위일 수 있다.Here, the output unit may be a unit for outputting a part of a web document on a screen or outputting it by voice.

일 예로, 웹문서에서 단락, 문장, 오브젝트 중 적어도 하나가 선택되는 경우, 프로세서(120)는 단락, 문장, 오브젝트 중 적어도 하나를 출력유닛으로로 설정하여 출력을 수행할 수 있다.For example, when at least one of a paragraph, a sentence, and an object is selected in a web document, the processor 120 may set at least one of a paragraph, a sentence, and an object as an output unit to perform output.

일 예로, 웹문서에서 단락, 문장, 오브젝트 중 적어도 하나가 선택되는 경우, 프로세서(120)는 선택된 상기 적어도 하나를 선택된 순서에 따라 출력을 수행할 수 있다.For example, when at least one of a paragraph, a sentence, and an object is selected in the web document, the processor 120 may output the selected at least one according to the selected order.

상술한 예에서, 단락, 문장 및 오브젝트 각각이 출력유닛으로 설정됨을 설명하였으나 이에 제한되지 않는다.In the above example, although it has been described that each of a paragraph, a sentence, and an object is set as an output unit, the present invention is not limited thereto.

예를 들면, 단락, 문장, 오브젝트 중 일부만이 선택된 경우, 해당 일부가 출력유닛으로 설정될 수 있다.For example, when only a part of a paragraph, a sentence, and an object is selected, the part may be set as an output unit.

일 예로, 웹문서에 포함된 첫 번째 단락과, 두 번째 단락의 일부가 선택된 경우, 첫 번째 단락 및 두 번째 단락의 일부가 개별적으로 출력유닛으로 설정되고, 순차적으로 출력될 수 있다.For example, when a portion of the first paragraph and the second paragraph included in the web document is selected, the first paragraph and a portion of the second paragraph may be individually set as an output unit and sequentially output.

다른 예로, 웹문서에 포함된 첫 번째 단락에 포함된 첫 번째 문장과, 두 번째 문장의 일부가 선택된 경우, 첫 번째 문장 및 두 번째 문장의 일부가 개별적으로 출력유닛으로 설정되고, 순차적으로 출력될 수 있다.As another example, when a part of the first sentence and the second sentence included in the first paragraph included in the web document is selected, the first sentence and part of the second sentence are individually set as output units and output sequentially. can

또 다른 예로, 웹문서에 포함된 첫 번째 단락에 포함된 첫 번째 문장과, 오브젝트에 포함된 이미지 부분이 선택된 경우, 첫 번째 문장 및 오브젝트에 포함된 이미지 부분이 개별적으로 출력유닛으로 설정되고, 순차적으로 출력될 수 있다. 이 경우, 상기 이미지 부분은 이미지 부분에 태그된 별도의 설명문구를 통해 출력이 수행될 수 있다.As another example, when the first sentence included in the first paragraph included in the web document and the image part included in the object are selected, the first sentence and the image part included in the object are individually set as output units, sequentially can be output as In this case, the image part may be output through a separate explanatory text tagged to the image part.

또 다른 예로, 웹문서에 포함된 첫 번째 단락에 포함된 첫 번째 문장과, 오브젝트에 포함된 문자 부분이 선택된 경우, 첫 번째 문장 및 오브젝트에 포함된 문자 부분이 개별적으로 출력유닛으로 설정되고, 순차적으로 출력될 수 있다.As another example, when the first sentence included in the first paragraph included in the web document and the text part included in the object are selected, the first sentence and text part included in the object are individually set as output units, sequentially can be output as

도 4는 본 발명의 일 실시 예에 따른 출력유닛의 선택방법을 도시한다.4 shows a method of selecting an output unit according to an embodiment of the present invention.

도 4를 참조하면, 문장구조트리(또는 웹문서)에 포함되는 객체(또는 출력유닛)들은 선택된 순서에 따라 체인으로 연결되어 포커싱될 수 있다. 이 경우, 연결된 체인은 순차적으로 출력될 수 있다.Referring to FIG. 4 , objects (or output units) included in the sentence structure tree (or web document) may be focused by being connected in a chain according to a selected order. In this case, the connected chains may be output sequentially.

예를 들면, 도 4를 참조하면, 첫 번째 순서로, 웹문서에 포함되는 제1 단락(401)에 포함되는 제1 문장(4011)이 선택될 수 있다. 두 번째 순서로, 웹문서에 포함되는 제2 단락(402)이 선택될 수 있다. 세 번째 순서로, 제1 단락(401)에 포함되는 제2 문장(4012)이 선택될 수 있다. 네 번째 순서로, 제3 단락(403)에 포함되는 제3 문장(4031) 및 제4 문장(4032)가 연이어 선택될 수 있다. 다섯 번째 순서로, 그룹(404)에 포함되는 오브젝트가 선택될 수 있다. 여섯 번째 순서로, 선택을 완료하기 위한 아이콘을 선택됨으로써, 선택 과정을 완료할 수 있다.For example, referring to FIG. 4 , in the first order, the first sentence 4011 included in the first paragraph 401 included in the web document may be selected. In the second order, the second paragraph 402 included in the web document may be selected. In the third order, the second sentence 4012 included in the first paragraph 401 may be selected. In the fourth order, the third sentence 4031 and the fourth sentence 4032 included in the third paragraph 403 may be sequentially selected. In the fifth order, objects included in the group 404 may be selected. In the sixth order, the selection process can be completed by selecting an icon for completing the selection.

이 경우, 프로세서(120)는 제1 문장(4011), 제2 단락(402), 제2 문장(4012), 제3 문장(4031), 제4 문장(4032) 및 그룹(404)에 포함되는 오브젝트에 대한 정보를 체인화하고, 이를 순차적으로 출력할 수 있다.In this case, the processor 120 includes the first sentence 4011 , the second paragraph 402 , the second sentence 4012 , the third sentence 4031 , the fourth sentence 4032 , and the group 404 . You can chain information about objects and output them sequentially.

도 5는 본 발명의 일 실시 예에 따른 출력유닛의 선택 및 출력을 도시한다.5 shows selection and output of an output unit according to an embodiment of the present invention.

도 5를 참조하면, 복수의 출력유닛이 순차적으로 선택될 수 있다. 예를 들면, 제1 터치에 따라 제1 출력유닛이 선택되고(501), 제2 터치에 따라 제2 출력유닛이 선택되고(501), 제n 터치에 따라 제n 출력유닛이 선택될 수 있다(503).Referring to FIG. 5 , a plurality of output units may be sequentially selected. For example, the first output unit may be selected according to the first touch (501), the second output unit may be selected according to the second touch (501), and the nth output unit may be selected according to the nth touch. (503).

이 경우, 프로세서(120)는 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력할 수 있다(504).In this case, the processor 120 may sequentially output the first output unit corresponding to the first touch input to the n-th output unit corresponding to the n-th touch input ( S504 ).

여기서, 출력유닛은 스크린에 확대되어 출력되거나 음성으로 출력될 수 있다.Here, the output unit may be output by being enlarged on the screen or output as a voice.

일 예로, 프로세서(120)는 웹문서에서, 상위계층에 포함되는 제1 단락에 첫 번째 터치입력이 수행되는 경우, 제1 단락을 첫 번째 출력유닛으로 설정할 수 있다.For example, in the web document, when a first touch input is performed on a first paragraph included in an upper layer, the processor 120 may set the first paragraph as the first output unit.

또한, 프로세서는(120)는 제1 단락에 포함되는 제1 문장에 두 번째 터치입력이 수행되는 경우, 제1 문장을 첫 번째 출력유닛으로 업데이트할 수 있다. 이 경우, 상기에서 첫 번째 출력유닛으로 설정된 제1 단락에 대한 설정이 삭제되고, 상기 제1 문장이 첫 번째 출력유닛으로 설정될 수 있다. 또는, 상위계층에 포함되는 제2 단락에 두 번째 터치입력이 수행되는 경우, 프로세서(120)는 제2 단락을 두 번째 출력유닛으로 설정할 수 있다.Also, when a second touch input is performed on the first sentence included in the first paragraph, the processor 120 may update the first sentence to the first output unit. In this case, the setting for the first paragraph set as the first output unit may be deleted, and the first sentence may be set as the first output unit. Alternatively, when the second touch input is performed on the second paragraph included in the upper layer, the processor 120 may set the second paragraph as the second output unit.

또한, 프로세서(120)는 제1 단락에 포함되는 제2 문장 또는 오브젝트에 세 번째 터치입력이 수행되는 경우, 제2 문장 또는 오브젝트를 두 번째 출력유닛으로 업데이트할 수 있다. 여기서, 오브젝트는 이미지 및 표 중 적어도 하나일 수 있다. 또는, 상위계층에 포함되는 제2 단락에 세 번째 터치입력이 수행되는 경우, 프로세서(120)는 제2 단락을 두 번째 출력유닛으로 설정할 수 있다.Also, when a third touch input is performed on the second sentence or object included in the first paragraph, the processor 120 may update the second sentence or object to the second output unit. Here, the object may be at least one of an image and a table. Alternatively, when the third touch input is performed on the second paragraph included in the upper layer, the processor 120 may set the second paragraph as the second output unit.

예를 들어, 첫 번째 출력유닛 및 두 번째 출력유닛이 설정된 상태에서, 메뉴 아이템에 대한 터치입력이 수행되는 경우, 프로세서(120)는 확대모드에 대한 아이템 및 음성모드에 대한 아이템을 디스플레이할 수 있다. 확대모드에 대한 아이템 및 음성모드에 대한 아이템 중 하나에 터치입력이 수행되는 경우, 프로세서(120)는 선택된 모드에 기초하여 첫 번째 출력유닛 및 두 번째 출력유닛을 순차적으로 출력할 수 있다.For example, when a touch input is performed on a menu item in a state where the first output unit and the second output unit are set, the processor 120 may display an item for the enlarged mode and an item for the voice mode. . When a touch input is performed on one of the item for the zoom mode and the item for the voice mode, the processor 120 may sequentially output the first output unit and the second output unit based on the selected mode.

상술한 예에서, 확대모드에 대한 아이템이 터치되는 경우, 프로세서(120)는 제1 출력유닛 내지 제n 출력유닛을 순차적으로 디스플레이할 수 있다. 또는, 음성모드에 대한 아이템이 터치되는 경우, 프로세서(120)는 제1 출력유닛 내지 제n 출력유닛을 순차적으로 음성출력할 수 있다.In the above-described example, when the item for the enlargement mode is touched, the processor 120 may sequentially display the first to nth output units. Alternatively, when the item for the voice mode is touched, the processor 120 may sequentially output the first to n-th output units as voice.

상술한 본 발명의 다양한 실시 예에서, 제2 단락에 포함되는 제3 문장에 네 번째 터치입력이 수행되는 경우, 프로세서(120)는 제3 문장을 두 번째 출력유닛으로 업데이트할 수 있다.In various embodiments of the present disclosure described above, when the fourth touch input is performed on the third sentence included in the second paragraph, the processor 120 may update the third sentence with the second output unit.

상술한 본 발명의 다양한 실시 예에서, 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 프로세서(120)는 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 강조 표시할 수 있다. 예를 들어, 강조 표시란 선택된 영역에 대한 하이라이트, 선택된 영역에 대한 글자 색 변경 등 다양한 표시 방법을 포함할 수 있다.In various embodiments of the present invention described above, when a plurality of touch inputs are sequentially received with respect to a web document, the processor 120 performs the first output unit corresponding to the first touch input to the first output unit corresponding to the nth touch input. n Output units can be highlighted sequentially. For example, the highlight display may include various display methods, such as highlighting the selected area and changing the text color of the selected area.

이하에서, 도 6 내지 도 10을 참조하여, 웹문서 중 일부를 선택하고, 선택된 일부를 출력하는 실시 예를 상세히 설명한다.Hereinafter, an embodiment of selecting a part of a web document and outputting the selected part will be described in detail with reference to FIGS. 6 to 10 .

도 6은 본 발명의 일 실시 예에 따른 사용자 단말의 화면을 도시한다.6 illustrates a screen of a user terminal according to an embodiment of the present invention.

도 6을 참조하면, 사용자 단말(100)의 화면(610)은 메뉴 아이템(611)을 포함할 수 있다. 메뉴 아이템(611)은 저시력자를 위한 모드 선택을 제공하기 위한 아이템이다.Referring to FIG. 6 , the screen 610 of the user terminal 100 may include a menu item 611 . The menu item 611 is an item for providing a mode selection for the low-vision person.

도 7은 본 발명의 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.7 illustrates a screen of a user terminal according to another embodiment of the present invention.

도 7을 참조하면, 사용자 단말(100)의 화면(620)은 복수의 아이템을 포함할 수 있다. 여기서, 선택 아이템(621)은 저시력자를 위한 선택모드를 제공하기 위한 아이템이다. 예를 들어, 선택 아이템(621)이 터치되는 경우, 터치 입력을 통하여 사용자는 웹문서 중 원하는 부분을 선택할 수 있다.Referring to FIG. 7 , the screen 620 of the user terminal 100 may include a plurality of items. Here, the selection item 621 is an item for providing a selection mode for people with low vision. For example, when the selection item 621 is touched, the user may select a desired part of the web document through a touch input.

도 8은 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.8 illustrates a screen of a user terminal according to another embodiment of the present invention.

도 8은 선택 아이템(621)이 선택되어 선택모드가 제공된 상태를 도시한다.8 illustrates a state in which the selection item 621 is selected and the selection mode is provided.

도 8을 참조하면, 사용자는 제1 단락에 포함된 제1 문장(631), 제2 단락에 포함된 제2 문장(632) 및 제3 문장(633)을 순차적으로 선택할 수 있다. 여기서, 각 문장에 대한 선택은 터치 입력으로 수행될 수 있다. 여기서 티치 입력은, 기정의된 시간 동안의 터치, 터치 앤 드래그, 복수 회의 터치 등 다양한 터치 동작일 수 있다.Referring to FIG. 8 , the user may sequentially select the first sentence 631 included in the first paragraph, the second sentence 632 and the third sentence 633 included in the second paragraph. Here, selection of each sentence may be performed by a touch input. Here, the teach input may be various touch actions such as a touch for a predefined time, a touch and drag, and a plurality of touches.

프로세서는, 제1 단락에 포함된 제1 문장(631), 제2 단락에 포함된 제2 문장(632) 및 제3 문장(633)이 순차적으로 터치됨에 따라, 제1 단락에 포함된 제1 문장(631), 제2 단락에 포함된 제2 문장(632) 및 제3 문장(633)을 순차적으로 강조표시할 수 있다.When the first sentence 631 included in the first paragraph, the second sentence 632 , and the third sentence 633 included in the second paragraph are sequentially touched, the processor is configured to generate the first sentence included in the first paragraph The sentence 631 , the second sentence 632 , and the third sentence 633 included in the second paragraph may be sequentially highlighted.

상술한 터치 입력에 따라, 프로세서(120)는 제1 문장(631), 제2 문장(632) 및 제3 문장(633) 각각을 출력유닛으로 설정할 수 있다. According to the above-described touch input, the processor 120 may set each of the first sentence 631 , the second sentence 632 , and the third sentence 633 as an output unit.

제1 문장(631), 제2 문장(632) 및 제3 문장(633)이 선택된 후 메뉴 아이템(634)가 선택되는 경우, 프로세서(120)는 선택모드를 종료하고 출력모드 선택을 위한 화면을 전환할 수 있다.When the menu item 634 is selected after the first sentence 631 , the second sentence 632 , and the third sentence 633 are selected, the processor 120 ends the selection mode and displays a screen for selecting an output mode. can be switched

도 9는 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.9 shows a screen of a user terminal according to another embodiment of the present invention.

도 9를 참조하면, 사용자 단말(100)의 화면(640)은 확대모드에 대한 아이템(641) 및 음성모드에 대한 아이템(642)을 포함할 수 있다.Referring to FIG. 9 , the screen 640 of the user terminal 100 may include an item 641 for an enlarged mode and an item 642 for a voice mode.

예를 들어, 확대모드에 대한 아이템(641) 및 음성모드에 대한 아이템(642) 중 하나에 터치입력이 수행되는 경우, 프로세서(120)는 선택된 모드에 기초하여 제1 문장(631), 제2 문장(632) 및 제3 문장(633)을 순차적으로 출력할 수 있다. 여기서, 제1 문장(631), 제2 문장(632) 및 제3 문장(633)은 제1 출력유닛 내지 제3 출력유닛에 대응될 수 있다.For example, when a touch input is performed on one of the item 641 for the enlarged mode and the item 642 for the voice mode, the processor 120 generates the first sentence 631 and the second sentence based on the selected mode. The sentence 632 and the third sentence 633 may be sequentially output. Here, the first sentence 631 , the second sentence 632 , and the third sentence 633 may correspond to the first to third output units.

구체적으로, 확대모드에 대한 아이템(641)이 터치되는 경우, 프로세서(120)는 제1 문장(631), 제2 문장(632) 및 제3 문장(633)을 순차적으로 디스플레이할 수 있다. 또는, 프로세서(120)는 제1 문장(631), 제2 문장(632) 및 제3 문장(633)을 순서대로 연결하여 하나의 화면에 동시에 디스플레이할 수도 있다.Specifically, when the item 641 for the enlargement mode is touched, the processor 120 may sequentially display the first sentence 631 , the second sentence 632 , and the third sentence 633 . Alternatively, the processor 120 may connect the first sentence 631 , the second sentence 632 , and the third sentence 633 in order to simultaneously display them on one screen.

음성모드에 대한 아이템(642)이 터치되는 경우, 프로세서(120)는 제1 문장(631), 제2 문장(632) 및 제3 문장(633)을 순차적으로 음성출력할 수 있다. 이 경우, 프로세서(120)는 제1 문장(631)을 음성출력하기 전 순서에 제1 문장(631)이 제1 문단에 포함됨을 음성출력한 후, 제1 문장(631)을 음성출력할 수 있다. 또한, 프로세서(120)는 제2 문장(632) 및 제3 문장(633)이 제2 문단에 포함됨을 음성출력한 후, 제2 문장(632) 및 제3 문장(633)을 음성출력할 수 있다.When the item 642 for the voice mode is touched, the processor 120 may sequentially output the first sentence 631 , the second sentence 632 , and the third sentence 633 . In this case, the processor 120 may voice output that the first sentence 631 is included in the first paragraph in the order before the voice output of the first sentence 631, and then output the first sentence 631 by voice. have. In addition, the processor 120 may voice output that the second sentence 632 and the third sentence 633 are included in the second paragraph, and then output the second sentence 632 and the third sentence 633 by voice. have.

도 10은 본 발명의 또 다른 실시 예에 따른 사용자 단말의 화면을 도시한다.10 illustrates a screen of a user terminal according to another embodiment of the present invention.

도 10을 참조하면, 제1 문장(631), 제2 문장(632) 및 제3 문장(633)은 기정의된 시간 간격에 따라 순차적으로 디스플레이될 수 있다. Referring to FIG. 10 , the first sentence 631 , the second sentence 632 , and the third sentence 633 may be sequentially displayed according to a predefined time interval.

예를 들어, 사용자 단말(100)의 화면(650)을 참조하면, 제1 문장(631)이 확대 디스플레이된 다음, 제2 문장(632) 및 제3 문장(633)이 확대 디스플레이될 수 있다. For example, referring to the screen 650 of the user terminal 100 , the first sentence 631 may be enlarged and displayed, and then the second sentence 632 and the third sentence 633 may be enlarged and displayed.

또는, 제1 문장(631), 제2 문장(632) 및 제3 문장(633)이 순서대로 연결되어 하나의 화면에 동시에 디스플레이될 수 있다. 이 경우, 제1 문장(631)의 앞 부분에는 제1 문장(631)이 제1 문단에 포함됨을 표시하고, 제2 문장(632) 및 제3 문장(633)의 앞부분에는 제2 문장(632) 및 제3 문장(633)이 제2 문단에 포함됨을 표시할 수 있다.Alternatively, the first sentence 631 , the second sentence 632 , and the third sentence 633 may be sequentially connected and simultaneously displayed on one screen. In this case, the first part of the first sentence 631 indicates that the first sentence 631 is included in the first paragraph, and the first part of the second sentence 632 and the third sentence 633 shows the second sentence 632 . ) and the third sentence 633 may be indicated to be included in the second paragraph.

상술한 도 10의 경우, 제1 문장(631), 제2 문장(632) 및 제3 문장(633)에 대하여 강조표시가 수행되어 선택된 문장임이 표시될 수 있다.10 , the first sentence 631 , the second sentence 632 , and the third sentence 633 may be highlighted to indicate that they are selected sentences.

이하에서, 도 11 내지 도 13을 참조하여, 웹페이지 중 일부의 선택된 상태를 도시한다.Hereinafter, with reference to FIGS. 11 to 13 , selected states of some of the web pages are shown.

도 11은 본 발명의 일 실시 예에 따른 웹페이지를 도시한다.11 illustrates a web page according to an embodiment of the present invention.

도 11은 검색 엔진의 카테고리를 블로그로 설정한 상태에서 '파리 여행'을 검색한 결과를 도시한다.11 shows the results of a search for 'Paris Travel' in a state in which the category of the search engine is set as a blog.

도 11을 참조하면, 사용자 단말(100)의 화면(1110)에서 제1 블로그(1111)의 문자로 구성된 내용 일부 및 썸네일이 선택되고, 제2 블로그(1112)의 문자로 구성된 내용 일부가 순차적으로 선택될 수 있다. 이 경우, 프로세서(120)는 사용자 단말(100)의 화면(1110)에서 제1 블로그(1111)의 문자로 구성된 내용 일부, 썸네일 및 제2 블로그(1112)의 문자로 구성된 내용 일부를 강조표시할 수 있다.11 , on the screen 1110 of the user terminal 100 , a part of the content composed of characters and a thumbnail of the first blog 1111 are selected, and a part of the content composed of characters of the second blog 1112 is sequentially displayed. can be selected. In this case, on the screen 1110 of the user terminal 100 , the processor 120 highlights a part of the content composed of the characters of the first blog 1111 , the thumbnail and the part of the content composed of the characters of the second blog 1112 . can

프로세서(120)는 제1 블로그(1111)의 문자로 구성된 내용 일부, 제1 블로그(1111)의 썸네일 및 제2 블로그(1112)의 문자로 구성된 내용 일부를 개별적인 출력 유닛으로 설정할 수 있다. 프로세서(120)는 제1 블로그(1111)의 문자로 구성된 내용 일부, 제1 블로그(1111)의 썸네일 및 제2 블로그(1112)의 문자로 구성된 내용 일부를 순차적으로 출력할 수 있다.The processor 120 may set a part of content composed of characters of the first blog 1111 , a thumbnail of the first blog 1111 , and a part of content composed of characters of the second blog 1112 as individual output units. The processor 120 may sequentially output a part of content composed of characters of the first blog 1111 , a thumbnail of the first blog 1111 , and a part of content composed of characters of the second blog 1112 .

상술한 예에서, 프로세서(120)는 제1 블로그(1111)의 썸네일에 대한 출력에서는, 제1 블로그(1111)의 썸네일에 별도에 태깅된 내용을 출력할 수 있다. 여기서, 태깅된 내용은 썸네일이라는 설명 또는 썸네일에 포함된 이미지에 대한 설명 등일 수 있다. 일 예로, 프로세서(120)는 썸네일에 태깅된 내용에 대한 출력으로, “썸네일입니다” 또는 “썸네일은 에펠탑을 포함합니다”를 출력할 수 있다.In the above-described example, in the output of the thumbnail of the first blog 1111 , the processor 120 may output separately tagged content to the thumbnail of the first blog 1111 . Here, the tagged content may be a description of a thumbnail or a description of an image included in the thumbnail. As an example, the processor 120 may output “a thumbnail” or “a thumbnail includes the Eiffel Tower” as an output for the content tagged in the thumbnail.

도 12는 본 발명의 다른 실시 예에 따른 웹페이지를 도시한다.12 shows a web page according to another embodiment of the present invention.

도 12는 검색 엔진의 카테고리를 블로그로 설정한 상태에서 '파리 여행'을 검색한 결과를 도시한다.12 shows a result of a search for 'Paris Travel' in a state in which the category of the search engine is set as a blog.

도 12를 참조하면, 사용자 단말(100)의 화면(1210)에서 제3 블로그(1211)의 문자로 구성된 내용이 선택되고, 제4 블로그(1212)의 문자로 구성된 내용 일부가 순차적으로 선택될 수 있다. 이 경우, 프로세서(120)는 제3 블로그(1211)의 문자로 구성된 내용 및 제4 블로그(1212)의 문자로 구성된 내용 일부를 강조표시할 수 있다.12 , on the screen 1210 of the user terminal 100 , content composed of characters of the third blog 1211 is selected, and a part of content composed of characters of the fourth blog 1212 may be sequentially selected. have. In this case, the processor 120 may highlight a part of the content composed of the characters of the third blog 1211 and the content composed of the characters of the fourth blog 1212 .

프로세서(120)는 제3 블로그(1211)의 문자로 구성된 내용 일부 및 제4 블로그(1212)의 문자로 구성된 내용 일부를 개별적인 출력 유닛으로 설정할 수 있다. 프로세서(120)는 제3 블로그(1211)의 문자로 구성된 내용 일부 및 제4 블로그(1212)의 문자로 구성된 내용 일부를 순차적으로 출력할 수 있다.The processor 120 may set a part of content composed of characters of the third blog 1211 and a part of content composed of characters of the fourth blog 1212 as individual output units. The processor 120 may sequentially output a part of content composed of characters of the third blog 1211 and a part of content composed of characters of the fourth blog 1212 .

도 13은 본 발명의 또 다른 실시 예에 따른 웹페이지를 도시한다.13 shows a web page according to another embodiment of the present invention.

도 13은 검색 엔진의 카테고리를 블로그로 설정한 상태에서 '파리 여행'을 검색한 결과를 도시한다.13 shows the results of a search for 'Paris Travel' in a state in which the category of the search engine is set as a blog.

도 13을 참조하면, 사용자 단말(100)의 화면(1310)에서 제5 블로그(1311)의 문자로 구성된 내용이 선택되고, 제6 블로그(1312)의 문자로 구성된 내용 일부가 순차적으로 선택될 수 있다. 여기서, 프로세서(120)는 제5 블로그(1311)의 문자로 구성된 내용 및 제6 블로그(1312)의 문자로 구성된 내용 일부를 순차적으로 강조표시할 수 있다.Referring to FIG. 13 , on the screen 1310 of the user terminal 100 , the content composed of the text of the fifth blog 1311 is selected, and a part of the content composed of the text of the sixth blog 1312 can be sequentially selected. have. Here, the processor 120 may sequentially highlight a portion of the content composed of the characters of the fifth blog 1311 and the content composed of the characters of the sixth blog 1312 .

프로세서(120)는 제5 블로그(1311)의 문자로 구성된 내용 일부 및 제6 블로그(1312)의 문자로 구성된 내용 일부를 개별적인 출력 유닛으로 설정할 수 있다. 프로세서(120)는 제5 블로그(1311)의 문자로 구성된 내용 일부 및 제6 블로그(1312)의 문자로 구성된 내용 일부를 순차적으로 출력할 수 있다.The processor 120 may set a part of the content composed of characters of the fifth blog 1311 and a part of the content composed of characters of the sixth blog 1312 as individual output units. The processor 120 may sequentially output a part of content composed of characters of the fifth blog 1311 and a part of content composed of characters of the sixth blog 1312 .

상술한 예에서, 제5 블로그(1311)의 문자로 구성된 내용 일부는 문장 또는 제목의 일부만을 포함할 수 있다. 이 경우, 프로세서(120)는 문장 또는 제목의 일부만을 출력유닛으로 설정하여 출력을 수행할 수 있다.In the above-described example, a portion of the content composed of characters of the fifth blog 1311 may include only a portion of a sentence or title. In this case, the processor 120 may perform output by setting only a part of the sentence or title as the output unit.

상술한 본 발명의 다양한 실시 예에 따르면, 저시력자는 웹페이지 중 원하는 부분을 용이하게 선택할 수 있고, 선택된 부분을 적합한 다양한 수단으로 제공받을 수 있다. 이에 따라, 저시력자의 사용자 단말에 대한 활용도가 크게 향상될 수 있다.According to various embodiments of the present invention described above, a person with low vision may easily select a desired portion of a web page, and may receive the selected portion through various suitable means. Accordingly, the usefulness of the user terminal of the low-vision person may be greatly improved.

도 14는 본 발명의 일 실시 예에 따른 사용자 단말의 시스템 블록도를 도시한다.14 is a system block diagram of a user terminal according to an embodiment of the present invention.

도 14를 참조하면, 사용자 단말(1400)은 문서 파싱 및 문서구조트리 생성부(1401), 터치 인식부(1403), 문서구조트리 구조 탐색부(1404), 화면 표시부(1405) 및 음성출력부(TTS: Text to Speech)(1406)를 포함할 수 있다.Referring to FIG. 14 , the user terminal 1400 includes a document parsing and document structure tree generation unit 1401 , a touch recognition unit 1403 , a document structure tree structure search unit 1404 , a screen display unit 1405 , and a voice output unit. (TTS: Text to Speech) 1406 may be included.

이하에서, 사용자 단말(1400)의 동작은 사용자 단말(1400)에 포함된 복수의 부(unit)에 의해 수행되는 것으로 설명하나, 이러한 복수의 부에 의해 수행되는 동작은 사용자 단말(1400)에 포함된 적어도 하나의 프로세서에 의해 수행될 수 있음은 물론이다.Hereinafter, the operation of the user terminal 1400 is described as being performed by a plurality of units included in the user terminal 1400 , but the operations performed by the plurality of units are included in the user terminal 1400 . Of course, it may be performed by at least one processor.

웹문서 파싱 및 문서구조트리생성부(1401)는 웹문서를 파싱하여 문서구조트리(SST)를 생성할 수 있다(1401). 여기서, 문서구조트리에 대하여는 상술하였으므로 상세한 설명을 생략한다.The web document parsing and document structure tree generation unit 1401 may parse the web document to generate a document structure tree (SST) (1401). Here, since the document structure tree has been described above, a detailed description thereof will be omitted.

터치 인식부(1403)는 사용자의 터치 입력을 인식할 수 있다. 일 예로, 터치 인식부(1403)는 사용자 단말(1400)의 디스플레이에 대한 터치에 대응하는 웹문서의 부분을 획득하여 이를 기록해둘 수 있다.The touch recognition unit 1403 may recognize a user's touch input. For example, the touch recognition unit 1403 may obtain a portion of a web document corresponding to a touch on the display of the user terminal 1400 and record it.

문서구조트리 구조 탐색부(1404)는 생성된 문서구조트리(1402)에 기초하여 기초하여 웹문서 구조를 탐색할 수 있다. 일 예로, 문서구조트리 구조 탐색부(1404)는 문서구조트리(1402)에 기초하여, 상술한 터치에 대응하는 웹문서 부분을 결정할 수 있다.The document structure tree structure search unit 1404 may search the web document structure based on the generated document structure tree 1402 . For example, the document structure tree structure search unit 1404 may determine a web document part corresponding to the above-described touch based on the document structure tree 1402 .

화면 표시부(1405)는 선택된 웹문서 부분을 디스플레이할 수 있다. 또한, 음성출력부(1406)는 선택된 웹문서 부분을 소리로서 출력할 수 있다.The screen display unit 1405 may display the selected web document part. Also, the audio output unit 1406 may output the selected web document part as a sound.

도 15는 본 발명의 일 실시 예에 따른 사용자 단말의 세부구성에 대한 블록도이다.15 is a block diagram of a detailed configuration of a user terminal according to an embodiment of the present invention.

도 15를 참조하면, 사용자 단말(1500)은 통신부(1510), 저장부(1520) 및 프로세서(1530)를 포함한다.Referring to FIG. 15 , the user terminal 1500 includes a communication unit 1510 , a storage unit 1520 , and a processor 1530 .

통신부(1510)는 통신을 수행한다. 통신부(1510)는 BT(BlueTooth), WI-FI(Wireless Fidelity), ZigBee, IR(Infrared), NFC(Near Field Communication) 등과 같은 다양한 통신 방식을 통해 외부 기기와 통신을 수행할 수 있다.The communication unit 1510 performs communication. The communication unit 1510 may communicate with an external device through various communication methods such as BT (BlueTooth), WI-FI (Wireless Fidelity), ZigBee, IR (Infrared), NFC (Near Field Communication), and the like.

저장부(1520)는 사용자 단말(1500)을 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 디스플레이 영역에서 제공되는 다양한 UI 화면을 구성하기 위한 데이터 등을 저장할 수 있다. 또한, 저장부(1520)는 읽고 쓰기가 가능하다.The storage unit 1520 may store an O/S (Operating System) software module for driving the user terminal 1500 , data for configuring various UI screens provided in the display area, and the like. Also, the storage unit 1520 can be read and written.

프로세서(1530)는 저장부(1520)에 저장된 각종 프로그램을 이용하여 공유기 또는 단말(1500)의 동작을 전반적으로 제어한다.The processor 1530 generally controls the operation of the router or the terminal 1500 by using various programs stored in the storage unit 1520 .

구체적으로, 프로세서(1530)는 RAM(1531), ROM(1532), 메인 CPU(1533), 그래픽 처리부(1534), 제1 내지 n 인터페이스(1535-1 ~ 1535-n) 및 버스(1536)를 포함한다.Specifically, the processor 1530 includes a RAM 1531 , a ROM 1532 , a main CPU 1533 , a graphics processing unit 1534 , the first to n interfaces 1535-1 to 1535-n and a bus 1536 . include

RAM(1531), ROM(1532), 메인 CPU(1533), 그래픽 처리부(1534), 제1 내지 n 인터페이스(1535-1 ~ 1535-n) 등은 버스(1536)를 통해 서로 연결될 수 있다.The RAM 1531 , the ROM 1532 , the main CPU 1533 , the graphic processing unit 1534 , the first to n-th interfaces 1535-1 to 1535-n, and the like may be connected to each other through the bus 1536 .

제1 내지 n 인터페이스(1535-1 내지 1535-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n-th interfaces 1535-1 to 1535-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device through a network.

ROM(1532)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(1533)는 ROM(1532)에 저장된 명령어에 따라 저장부(1520)에 저장된 O/S를 RAM(1531)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(1533)는 저장된 각종 어플리케이션 프로그램을 RAM(1531)에 복사하고, RAM(1531)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.The ROM 1532 stores an instruction set for system booting and the like. When a turn-on command is input and power is supplied, the main CPU 1533 copies the O/S stored in the storage unit 1520 to the RAM 1531 according to the command stored in the ROM 1532, and executes the O/S Boot the system. Upon completion of booting, the main CPU 1533 copies the stored various application programs to the RAM 1531 and executes the application programs copied to the RAM 1531 to perform various operations.

메인 CPU(1533)는 저장부(1520)에 액세스하여, 저장부(1520)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메인 CPU(1533)는 저장부(1520)에 저장된 각종 프로그램, 컨텐트, 데이터 등을 이용하여 다양한 동작을 수행한다.The main CPU 1533 accesses the storage unit 1520 and performs booting using the O/S stored in the storage unit 1520 . In addition, the main CPU 1533 performs various operations using various programs, contents, data, etc. stored in the storage unit 1520 .

그래픽 처리부(1534)는 연산부 및 렌더링부를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다.The graphic processing unit 1534 generates a screen including various objects such as icons, images, and texts by using the calculation unit and the rendering unit.

도 16은 본 발명의 일 실시 예에 따른 저시력자를 위한 웹문서 제공방법에 대한 흐름도이다.16 is a flowchart of a method for providing a web document for a person with low vision according to an embodiment of the present invention.

사용자 단말에서 수행되는, 저시력자를 위한 웹문서 제공방법은, 웹문서에 포함된 단락을 상위계층으로 구분하고, 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정(1610), 여기서, 단락과, 문장 및 오브젝트 중 적어도 하나는 개별적인 출력유닛으로 설정됨, 및 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 과정(1620)을 포함할 수 있다.The method for providing a web document for the low vision person, performed in the user terminal, is a process of classifying a paragraph included in a web document into an upper layer and dividing at least one of sentences and objects included in the paragraph into a lower layer ( 1610 ), where , a paragraph, at least one of a sentence, and an object are set as individual output units, and when a plurality of touch inputs are sequentially received with respect to a web document, the first output unit to the nth touch input corresponding to the first touch input It may include a process of sequentially outputting the n-th output unit corresponding to (1620).

여기서, 출력유닛은 스크린에 확대되어 출력되거나 음성으로 출력되는 단위로 정의될 수 있다.Here, the output unit may be defined as a unit that is enlarged and output on the screen or output as voice.

상술한 저시력자를 위한 웹문서 제공방법은 상위계층에 포함되는 제1 단락에 첫 번째 터치입력이 수행되는 경우, 제1 단락을 첫 번째 출력유닛으로 설정하는 과정을 포함할 수 있다.The above-described method for providing a web document for a person with low vision may include a process of setting the first paragraph as the first output unit when the first touch input is performed on the first paragraph included in the upper layer.

여기서, 상술한 저시력자를 위한 웹문서 제공방법은 제1 단락에 포함되는 제1 문장에 두 번째 터치입력이 수행되는 경우, 제1 문장을 첫 번째 출력유닛으로 업데이트하는 과정을 더 포함할 수 있다.Here, when a second touch input is performed on the first sentence included in the first paragraph, the above-described method for providing a web document for a person with low vision may further include a process of updating the first sentence to the first output unit.

이에 더하여, 상술한 저시력자를 위한 웹문서 제공방법은 제1 단락에 포함되는 제2 문장 또는 오브젝트에 세 번째 터치입력이 수행되는 경우, 제2 문장 또는 오브젝트를 두 번째 출력유닛으로 업데이트하는 과정을 더 포함할 수 있다.In addition, the above-described method for providing a web document for a person with low vision includes a process of updating the second sentence or object to the second output unit when a third touch input is performed on the second sentence or object included in the first paragraph. may include

한편, 웹문서에서 선택된 부분을 출력하는 과정으로, 상술한 저시력자를 위한 웹문서 제공방법은 메뉴 아이템에 대한 터치입력이 수행되는 경우, 확대모드에 대한 아이템 및 음성모드에 대한 아이템을 디스플레이하는 과정 및 상기 확대모드에 대한 아이템 및 상기 음성모드에 대한 아이템 중 하나에 터치입력이 수행되는 경우, 선택된 모드에 기초하여 상기 첫 번째 출력유닛 및 두 번째 출력유닛을 순차적으로 출력하는 과정을 더 포함할 수 있다.On the other hand, as a process of outputting a selected portion of a web document, the above-described method for providing a web document for a person with low vision includes a process of displaying an item for an enlarged mode and an item for a voice mode when a touch input for a menu item is performed; The method may further include sequentially outputting the first output unit and the second output unit based on the selected mode when a touch input is performed on one of the item for the enlarged mode and the item for the voice mode. .

구체적으로, 상술한 저시력자를 위한 웹문서 제공방법은 확대모드에 대한 아이템이 터치되는 경우, 제1 출력유닛 내지 제n 출력유닛을 순차적으로 디스플레이하고, 음성모드에 대한 아이템이 터치되는 경우, 제1 출력유닛 내지 제n 출력유닛을 순차적으로 음성출력하는 과정을 더 포함할 수 있다.Specifically, in the above-described method for providing a web document for a person with low vision, when an item for the enlarged mode is touched, the first output unit to the nth output unit are sequentially displayed, and when the item for the voice mode is touched, the first The method may further include sequentially outputting audio from the output unit to the n-th output unit.

또는, 상술한 저시력자를 위한 웹문서 제공방법은 상위계층에 포함되는 제2 단락에 두 번째 터치입력이 수행되는 경우, 제2 단락을 두 번째 출력유닛으로 설정할 수 있다.Alternatively, in the above-described method for providing a web document for a person with low vision, when a second touch input is performed on a second paragraph included in an upper layer, the second paragraph may be set as the second output unit.

또한, 상술한 저시력자를 위한 웹문서 제공방법은 상위계층에 포함되는 제2 단락에 세 번째 터치입력이 수행되는 경우, 제2 단락을 두 번째 출력유닛으로 설정하는 과정을 더 포함할 수 있다.In addition, the above-described method for providing a web document for a person with low vision may further include a process of setting the second paragraph as the second output unit when a third touch input is performed on the second paragraph included in the upper layer.

한편, 상술한 저시력자를 위한 웹문서 제공방법은 제2 단락에 포함되는 제3 문장에 네 번째 터치입력이 수행되는 경우, 제3 문장을 두 번째 출력유닛으로 업데이트하는 과정을 더 포함할 수 있다.Meanwhile, the above-described method for providing a web document for a person with low vision may further include updating the third sentence to the second output unit when a fourth touch input is performed on the third sentence included in the second paragraph.

상술한 본 발명의 다양한 실시 예에서, 오브젝트는 이미지 및 표 중 적어도 하나일 수 있다.In various embodiments of the present invention described above, the object may be at least one of an image and a table.

저시력자의 터치 입력 과정과 관련하여, 상술한 저시력자를 위한 웹문서 제공방법은 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 강조 표시하는 과정을 포함할 수 있다.In relation to the process of inputting a touch of a person with low vision, the above-described method for providing a web document for a person with low vision includes the first output unit to the nth touch input corresponding to the first touch input when a plurality of touch inputs are sequentially received with respect to the web document. and sequentially highlighting the n-th output unit corresponding to .

한편, 상술한 본 발명의 다양한 실시 예에 따른 저시력자를 위한 웹문서 제공방법은 컴퓨터로 실행 가능한 프로그램 코드로 구현되어 다양한 비 일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 프로세서에 의해 실행되도록 각 서버 또는 기기들에 제공될 수 있다.On the other hand, the method for providing a web document for a person with low vision according to various embodiments of the present invention described above is implemented as a computer executable program code and stored in various non-transitory computer readable media by a processor. It may be provided to each server or devices to be executed.

일 예로, 웹문서에 포함된 단락을 상위계층으로 구분하고, 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정, 여기서, 단락과, 문장 및 오브젝트 중 적어도 하나는 개별적인 출력유닛으로 설정됨, 및 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 과정을 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.For example, a process of classifying a paragraph included in a web document into an upper layer and classifying at least one of sentences and objects included in the paragraph into a lower layer, wherein at least one of the paragraph, the sentence, and the object is an individual output unit A process of sequentially outputting the first output unit corresponding to the first touch input to the nth output unit corresponding to the nth touch input is performed when a plurality of touch inputs are sequentially received with respect to the set and web document A non-transitory computer readable medium in which a program is stored may be provided.

비 일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device. Specifically, the various applications or programs described above may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상으로, 본 발명의 실시 예들이 도시되고 설명되었지만, 당업자는 첨부된 청구항들 및 그에 동등한 것들에 의해 정의되는 바와 같은 본 실시 예의 사상 및 범위를 벗어나지 않고 형태 및 세부 사항들에 있어 다양한 변경이 이루어질 수 있음을 이해할 것이다.While the embodiments of the present invention have been shown and described, various changes in form and details may be made by those skilled in the art without departing from the spirit and scope of the embodiments as defined by the appended claims and their equivalents. you will understand that you can

사용자 단말: 100, 1400, 1500
통신부: 1110
저장부: 110, 1120
프로세서: 120, 1130
User terminals: 100, 1400, 1500
Department of Communications: 1110
Storage: 110, 1120
Processor: 120, 1130

Claims (24)

사용자 단말에서 수행되는, 저시력자를 위한 웹문서 제공방법에 있어서,
웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하는 과정, 여기서, 상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정됨;
상기 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 과정;을 포함하는, 저시력자를 위한 웹문서 제공방법.
In the method of providing a web document for a person with low vision, performed in a user terminal,
A process of classifying a paragraph included in a web document into an upper layer and classifying at least one of sentences and objects included in the paragraph into a lower layer, wherein the paragraph and the at least one of the sentence and the object are individually output set in units;
a process of sequentially outputting a first output unit corresponding to a first touch input to an n-th output unit corresponding to the n-th touch input when a plurality of touch inputs are sequentially received with respect to the web document; How to provide web documents for low vision people.
제1항에 있어서,
상기 출력유닛은,
스크린에 확대되어 출력되거나 음성으로 출력되는 단위인, 저시력자를 위한 웹문서 제공방법.
According to claim 1,
The output unit is
A method of providing web documents for people with low vision, which is a unit that is enlarged and output on the screen or output by voice.
제1항에 있어서,
상기 상위계층에 포함되는 제1 단락에 첫 번째 터치입력이 수행되는 경우, 상기 제1 단락을 첫 번째 출력유닛으로 설정하는 과정;을 포함하는, 저시력자를 위한 웹문서 제공방법.
According to claim 1,
and setting the first paragraph as a first output unit when a first touch input is performed on the first paragraph included in the upper layer.
제3항에 있어서,
상기 제1 단락에 포함되는 제1 문장에 두 번째 터치입력이 수행되는 경우, 상기 제1 문장을 상기 첫 번째 출력유닛으로 업데이트하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
4. The method of claim 3,
When a second touch input is performed on the first sentence included in the first paragraph, updating the first sentence with the first output unit; The method of providing a web document for a person with low vision further comprising: a.
제4항에 있어서,
상기 제1 단락에 포함되는 제2 문장 또는 오브젝트에 세 번째 터치입력이 수행되는 경우, 상기 제2 문장 또는 상기 오브젝트를 두 번째 출력유닛으로 업데이트하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
5. The method of claim 4,
When a third touch input is performed on the second sentence or object included in the first paragraph, the process of updating the second sentence or the object with a second output unit; Providing a web document for people with low vision further comprising; Way.
제5항에 있어서,
메뉴 아이템에 대한 터치입력이 수행되는 경우, 확대모드에 대한 아이템 및 음성모드에 대한 아이템을 디스플레이하는 과정; 및
상기 확대모드에 대한 아이템 및 상기 음성모드에 대한 아이템 중 하나에 터치입력이 수행되는 경우, 선택된 모드에 기초하여 상기 첫 번째 출력유닛 및 두 번째 출력유닛을 순차적으로 출력하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
6. The method of claim 5,
displaying an item for an enlarged mode and an item for a voice mode when a touch input for a menu item is performed; and
When a touch input is performed on one of the item for the zoom mode and the item for the voice mode, sequentially outputting the first output unit and the second output unit based on the selected mode; further comprising, How to provide web documents for low vision people.
제6항에 있어서,
상기 확대모드에 대한 아이템이 터치되는 경우, 상기 제1 출력유닛 내지 상기 제n 출력유닛을 순차적으로 디스플레이하고, 상기 음성모드에 대한 아이템이 터치되는 경우, 상기 제1 출력유닛 내지 상기 제n 출력유닛을 순차적으로 음성출력하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
7. The method of claim 6,
When the item for the enlarged mode is touched, the first output unit to the n-th output unit are sequentially displayed, and when the item for the voice mode is touched, the first output unit to the n-th output unit The process of sequentially outputting the voice; further comprising, a method for providing a web document for low vision.
제3항에 있어서,
상기 상위계층에 포함되는 제2 단락에 두 번째 터치입력이 수행되는 경우, 상기 제2 단락을 두 번째 출력유닛으로 설정하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
4. The method of claim 3,
and setting the second paragraph as a second output unit when a second touch input is performed on the second paragraph included in the upper layer.
제4항에 있어서,
상기 상위계층에 포함되는 제2 단락에 세 번째 터치입력이 수행되는 경우, 상기 제2 단락을 두 번째 출력유닛으로 설정하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
5. The method of claim 4,
and setting the second paragraph as a second output unit when a third touch input is performed on the second paragraph included in the upper layer.
제9항에 있어서,
상기 제2 단락에 포함되는 제3 문장에 네 번째 터치입력이 수행되는 경우, 상기 제3 문장을 상기 두 번째 출력유닛으로 업데이트하는 과정;을 더 포함하는, 저시력자를 위한 웹문서 제공방법.
10. The method of claim 9,
When a fourth touch input is performed on the third sentence included in the second paragraph, updating the third sentence by the second output unit; The method of providing a web document for a person with low vision further comprising a.
제1항에 있어서,
상기 오브젝트는 이미지 및 표 중 적어도 하나인, 저시력자를 위한 웹문서 제공방법.
According to claim 1,
The object is at least one of an image and a table, a method for providing a web document for low vision people.
제1항에 있어서,
상기 웹문서에 대하여 상기 복수 회의 터치입력이 순차적으로 수신되는 경우, 상기 제1 터치입력에 대응되는 상기 제1 출력유닛 내지 상기 제n 터치입력에 대응되는 상기 제n 출력유닛을 순차적으로 강조 표시하는 과정;을 포함하는, 저시력자를 위한 웹문서 제공방법.
According to claim 1,
When the plurality of touch inputs are sequentially received with respect to the web document, the first output unit corresponding to the first touch input to the n-th output unit corresponding to the n-th touch input are sequentially highlighted and displayed A method for providing web documents for people with low vision, including the process.
사용자 단말에 있어서,
저장부; 및
웹문서에 포함된 단락을 상위계층으로 구분하고, 상기 단락에 포함된 문장 및 오브젝트 중 적어도 하나를 하위계층으로 구분하고, 상기 웹문서에 대하여 복수 회의 터치입력이 순차적으로 수신되는 경우, 제1 터치입력에 대응되는 제1 출력유닛 내지 제n 터치입력에 대응되는 제n 출력유닛을 순차적으로 출력하는 프로세서;를 포함하고,
상기 단락과, 상기 문장 및 상기 오브젝트 중 상기 적어도 하나는 개별적인 출력유닛으로 설정되는, 사용자 단말.
In the user terminal,
storage; and
When a paragraph included in a web document is divided into an upper layer, at least one of sentences and objects included in the paragraph is divided into a lower layer, and a plurality of touch inputs are sequentially received with respect to the web document, the first touch A processor for sequentially outputting the first output unit corresponding to the input to the n-th output unit corresponding to the n-th touch input;
The paragraph, the sentence, and the at least one of the object is set as an individual output unit.
제13항에 있어서,
상기 출력유닛은,
스크린에 확대되어 출력되거나 음성으로 출력되는 단위인, 사용자 단말.
14. The method of claim 13,
The output unit is
A user terminal, which is a unit that is enlarged and output on a screen or output as a voice.
제13항에 있어서,
상기 프로세서는,
상기 상위계층에 포함되는 제1 단락에 첫 번째 터치입력이 수행되는 경우, 상기 제1 단락을 첫 번째 출력유닛으로 설정하는, 사용자 단말.
14. The method of claim 13,
The processor is
When a first touch input is performed on a first paragraph included in the upper layer, the first paragraph is set as a first output unit.
제15항에 있어서,
상기 프로세서는,
상기 제1 단락에 포함되는 제1 문장에 두 번째 터치입력이 수행되는 경우, 상기 제1 문장을 상기 첫 번째 출력유닛으로 업데이트하는, 사용자 단말.
16. The method of claim 15,
The processor is
When a second touch input is performed on the first sentence included in the first paragraph, the user terminal updates the first sentence with the first output unit.
제16항에 있어서,
상기 프로세서는,
상기 제1 단락에 포함되는 제2 문장 또는 오브젝트에 세 번째 터치입력이 수행되는 경우, 상기 제2 문장 또는 상기 오브젝트를 두 번째 출력유닛으로 업데이트하는, 사용자 단말.
17. The method of claim 16,
The processor is
When a third touch input is performed on the second sentence or object included in the first paragraph, the user terminal updates the second sentence or the object with a second output unit.
제17항에 있어서,
상기 프로세서는,
메뉴 아이템에 대한 터치입력이 수행되는 경우, 확대모드에 대한 아이템 및 음성모드에 대한 아이템을 디스플레이하고,
상기 확대모드에 대한 아이템 및 상기 음성모드에 대한 아이템 중 하나에 터치입력이 수행되는 경우, 선택된 모드에 기초하여 상기 첫 번째 출력유닛 및 두 번째 출력유닛을 순차적으로 출력하는, 사용자 단말.
18. The method of claim 17,
The processor is
When a touch input for a menu item is performed, an item for an enlarged mode and an item for a voice mode are displayed,
When a touch input is performed on one of the item for the zoom mode and the item for the voice mode, sequentially outputting the first output unit and the second output unit based on the selected mode, the user terminal.
제18항에 있어서,
상기 프로세서는,
상기 확대모드에 대한 아이템이 터치되는 경우, 상기 제1 출력유닛 내지 상기 제n 출력유닛을 순차적으로 디스플레이하고, 상기 음성모드에 대한 아이템이 터치되는 경우, 상기 제1 출력유닛 내지 상기 제n 출력유닛을 순차적으로 음성출력하는, 사용자 단말.
19. The method of claim 18,
The processor is
When the item for the enlarged mode is touched, the first output unit to the n-th output unit are sequentially displayed, and when the item for the voice mode is touched, the first output unit to the n-th output unit Sequentially outputting the voice, the user terminal.
제15항에 있어서,
상기 프로세서는,
상기 상위계층에 포함되는 제2 단락에 두 번째 터치입력이 수행되는 경우, 상기 제2 단락을 두 번째 출력유닛으로 설정하는, 사용자 단말.
16. The method of claim 15,
The processor is
When a second touch input is performed on a second paragraph included in the upper layer, the second paragraph is set as a second output unit.
제16항에 있어서,
상기 프로세서는,
상기 상위계층에 포함되는 제2 단락에 세 번째 터치입력이 수행되는 경우, 상기 제2 단락을 두 번째 출력유닛으로 설정하는, 사용자 단말.
17. The method of claim 16,
The processor is
When a third touch input is performed on a second paragraph included in the upper layer, the second paragraph is set as a second output unit.
제21항에 있어서,
상기 프로세서는,
상기 제2 단락에 포함되는 제3 문장에 네 번째 터치입력이 수행되는 경우, 상기 제3 문장을 상기 두 번째 출력유닛으로 업데이트하는, 사용자 단말.
22. The method of claim 21,
The processor is
When a fourth touch input is performed on the third sentence included in the second paragraph, the user terminal is configured to update the third sentence with the second output unit.
제13항에 있어서,
상기 오브젝트는 이미지 및 표 중 적어도 하나인, 사용자 단말.
14. The method of claim 13,
The object is at least one of an image and a table, the user terminal.
제13항에 있어서,
상기 프로세서는,
상기 웹문서에 대하여 상기 복수 회의 터치입력이 순차적으로 수신되는 경우, 상기 제1 터치입력에 대응되는 상기 제1 출력유닛 내지 상기 제n 터치입력에 대응되는 상기 제n 출력유닛을 순차적으로 강조 표시하는, 사용자 단말.
14. The method of claim 13,
The processor is
When the plurality of touch inputs are sequentially received with respect to the web document, the first output unit corresponding to the first touch input to the n-th output unit corresponding to the n-th touch input are sequentially highlighted and displayed , user terminal.
KR1020200084213A 2020-07-08 2020-07-08 Method for providing web document for people with low vision and user terminal thereof KR102487810B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200084213A KR102487810B1 (en) 2020-07-08 2020-07-08 Method for providing web document for people with low vision and user terminal thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200084213A KR102487810B1 (en) 2020-07-08 2020-07-08 Method for providing web document for people with low vision and user terminal thereof

Publications (2)

Publication Number Publication Date
KR20220006357A true KR20220006357A (en) 2022-01-17
KR102487810B1 KR102487810B1 (en) 2023-01-11

Family

ID=80051668

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200084213A KR102487810B1 (en) 2020-07-08 2020-07-08 Method for providing web document for people with low vision and user terminal thereof

Country Status (1)

Country Link
KR (1) KR102487810B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120050549A (en) * 2010-11-11 2012-05-21 주식회사 에이티랩 Touch screen apparatus for possible object operation by blind person and method for object operation in the apparatus
US20160378300A1 (en) * 2015-06-24 2016-12-29 Microsoft Technology Licensing, Llc Conversion of platform-independent accessibility logic into platform-specific accessibility functionality
KR20190130904A (en) * 2018-05-15 2019-11-25 한국전자통신연구원 Apparatus for providing content for visually impaired people and method for providing the content using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120050549A (en) * 2010-11-11 2012-05-21 주식회사 에이티랩 Touch screen apparatus for possible object operation by blind person and method for object operation in the apparatus
US20160378300A1 (en) * 2015-06-24 2016-12-29 Microsoft Technology Licensing, Llc Conversion of platform-independent accessibility logic into platform-specific accessibility functionality
KR20190130904A (en) * 2018-05-15 2019-11-25 한국전자통신연구원 Apparatus for providing content for visually impaired people and method for providing the content using the same

Also Published As

Publication number Publication date
KR102487810B1 (en) 2023-01-11

Similar Documents

Publication Publication Date Title
US12039254B2 (en) Enhancing data in a screenshot
EP3155501B1 (en) Accessibility detection of content properties through tactile interactions
WO2021008334A1 (en) Data binding method, apparatus, and device of mini program, and storage medium
US10402470B2 (en) Effecting multi-step operations in an application in response to direct manipulation of a selected object
US9575941B1 (en) Dynamic adjustment to content for a display device
US10803236B2 (en) Information processing to generate screen based on acquired editing information
US11538476B2 (en) Terminal device, server and controlling method thereof
JP2014197341A (en) Electronic book production device, electronic book system, electronic book production method and program
US11681417B2 (en) Accessibility verification and correction for digital content
KR102487810B1 (en) Method for providing web document for people with low vision and user terminal thereof
CN114745585B (en) Subtitle display method, device, terminal and storage medium
US20210073458A1 (en) Comic data display system, method, and program
CN111506848A (en) Webpage processing method, device, equipment and readable storage medium
US20220351151A1 (en) Electronic apparatus and controlling method thereof
US20230351091A1 (en) Presenting Intelligently Suggested Content Enhancements
CN115081423A (en) Document editing method and device, electronic equipment and storage medium
US10649640B2 (en) Personalizing perceivability settings of graphical user interfaces of computers
US20240303247A1 (en) Systems and methods for writing feedback using an artificial intelligence engine
KR102238987B1 (en) Chinese input method based on korean pinyin and input apparatus thereof
Billah Transforming assistive technologies from the ground up for people with vision impairments
JP6651563B2 (en) Electronic book browsing program and electronic book browsing device
JP2024013310A (en) Document setting system, document setting method, and program
US10474330B1 (en) Supplementary content layers
JP5673744B2 (en) Electronic book terminal, information processing method, program
KR20230116526A (en) Display apparatus and control method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant