KR102347807B1 - Voice reading method and apparatus thereof - Google Patents

Voice reading method and apparatus thereof Download PDF

Info

Publication number
KR102347807B1
KR102347807B1 KR1020200014245A KR20200014245A KR102347807B1 KR 102347807 B1 KR102347807 B1 KR 102347807B1 KR 1020200014245 A KR1020200014245 A KR 1020200014245A KR 20200014245 A KR20200014245 A KR 20200014245A KR 102347807 B1 KR102347807 B1 KR 102347807B1
Authority
KR
South Korea
Prior art keywords
information
user
voice reading
data
terminal
Prior art date
Application number
KR1020200014245A
Other languages
Korean (ko)
Other versions
KR20210080142A (en
Inventor
민 장
오주병
홍승곤
Original Assignee
주식회사 코이노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코이노 filed Critical 주식회사 코이노
Publication of KR20210080142A publication Critical patent/KR20210080142A/en
Application granted granted Critical
Publication of KR102347807B1 publication Critical patent/KR102347807B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • G06K2209/01

Abstract

보이스 리딩 방법 및 그 장치가 개시된다. 일 실시 예에 따른 보이스 리딩 방법은, 사용자의 단말 사용 패턴과 관련된 데이터를 수집하여 분석을 통해 사용자 선호도를 파악하는 단계와, 사용자 단말의 화면에 표시되는 데이터 또는 외부로부터 획득된 데이터로부터 시각정보를 인식하는 단계와, 사전에 파악된 사용자 선호도 및 중요도에 따라 시각정보 내에서 필요정보를 추출하는 단계와, 추출된 필요정보를 청각정보 형태로 변환하여 리딩하는 단계를 포함한다.A voice reading method and apparatus are disclosed. A voice reading method according to an embodiment includes the steps of collecting data related to a user's terminal usage pattern and analyzing the user's preference, and visual information from data displayed on a screen of the user terminal or data obtained from outside. It includes the steps of recognizing, extracting necessary information from the visual information according to user preference and importance identified in advance, and converting the extracted necessary information into the form of auditory information for reading.

Description

보이스 리딩 방법 및 그 장치 {Voice reading method and apparatus thereof}Voice reading method and apparatus thereof

본 발명은 시각정보를 청각정보로 변환하여 리딩 하는 시력 보조기술에 관한 것이다.The present invention relates to a vision assistance technology for reading by converting visual information into auditory information.

최근 다수의 스마트 기기는 텍스트 문자의 경우 보이스 리딩(voice reading)이라는 이름으로 읽어주는 기능을 제공한다. 그런데 보이스 리딩의 경우 처음부터 끝까지 읽어주므로 책과 같이 내용을 순차적으로 파악해야 할 경우는 문제가 없지만, 웹과 같은 형태, 특히 쇼핑 웹과 같은 경우에는 사용자가 원하는 내용을 들을 때까지 지루할 정도로 상당한 시간이 소요되며, 심지어 제품과 내용을 연결시키기도 쉽지 않다.Recently, many smart devices provide a function to read text characters in the name of voice reading. However, in the case of voice reading, it reads from beginning to end, so there is no problem in the case of having to grasp the contents sequentially like a book, but in the case of a web-like format, especially a shopping web, it takes a considerable amount of time to be bored until the user hears the desired content. It takes time, and it is not easy to even connect the product and the content.

KR10-2044555(2019.11.07. 등록)KR10-2044555 (Registered on 2019.11.07.)

일 실시 예에 따라, 사용자가 필요한 정보만을 읽어주는 보이스 리딩 방법 및 그 장치를 제안한다.According to one embodiment, a voice reading method and apparatus for reading only necessary information by a user are proposed.

일 실시 예에 따른 보이스 리딩 방법은, 사용자의 단말 사용 패턴과 관련된 데이터를 수집하여 사용자의 사용 패턴 데이터로부터 사전에 설정된 분석기준에 따라 사용자 단말의 웹 페이지 방문 이력, 관심상품 및 검색 키워드 중 적어도 하나를 분석함으로써 사용자 선호도를 파악하는 단계와, 사용자 단말의 화면에 표시되는 데이터 또는 외부로부터 획득된 데이터로부터 시각정보를 인식하는 단계와, 사전에 파악된 사용자 선호도 및 중요도에 따라 시각정보 내에서 필요정보를 추출하는 단계와, 추출된 필요정보를 청각정보 형태로 변환하여 리딩하는 단계를 포함한다.The voice reading method according to an embodiment collects data related to a user's terminal usage pattern, and from the user's usage pattern data, according to a preset analysis standard, at least one of a web page visit history of the user terminal, a product of interest, and a search keyword Recognizing user preference by analyzing It includes the steps of extracting and converting the extracted necessary information into the form of auditory information for reading.

삭제delete

시각정보를 인식하는 단계는, 단말 화면에 표시되는 웹 페이지를 구성하는 객체를 인식하는 단계와, 인식된 객체로부터 사용자가 구매하고자 하는 제품의 종류를 판단하는 단계와, 판단된 제품에 대한 구매 의사를 확인 받는 단계와, 구매 의사가 있으면 웹 페이지 내 텍스트를 인식하는 단계를 포함할 수 있다.The step of recognizing the visual information includes the steps of recognizing an object constituting a web page displayed on the terminal screen, determining the type of product the user wants to purchase from the recognized object, and purchasing the determined product It may include a step of receiving confirmation, and a step of recognizing text in a web page if there is a purchase intention.

필요정보를 추출하는 단계는, 사전 설정된 중요도에 따라 인식된 시각정보 내 텍스트에 제시되어 있는 중심어를 필요정보로서 추출하는 단계와, 추출된 중심어 중에 사용자가 선호하는 정보를 필요정보로서 추출하는 단계를 포함할 수 있다.The step of extracting the necessary information includes the steps of extracting, as necessary information, a key word presented in the text in the recognized visual information according to a preset importance level, and extracting information preferred by the user from among the extracted key words as necessary information. may include

사용자 선호도를 파악하는 단계에서 사용자가 그룹에 속한 경우 그룹 내 다수의 사용자가 공통으로 사용하는 공통정보를 파악하고, 필요정보를 추출하는 단계에서 현재 단말 화면에 표시되는 시각정보에서 공통정보에 해당하는 필요정보를 추출할 수 있다. 보이스 리딩 방법은 그룹 내 공통정보와 사용자 개별정보가 상이한 경우, 공통정보를 우선으로 제공한 후, 상이한 개별정보를 개인화 하여 개인화된 정보를 함께 제공하는 단계를 더 포함할 수 있다.In the step of identifying user preference, if the user belongs to a group, common information commonly used by a plurality of users in the group is identified, and in the step of extracting necessary information, in the visual information currently displayed on the terminal screen, The necessary information can be extracted. The voice reading method may further include, when common information within a group and individual user information are different, providing the common information first, then personalizing the different individual information to provide the personalized information together.

보이스 리딩 방법은, 인식한 시각정보가 진료예약 정보이면 진료예약 정보에 포함된 환자정보가 사용자인지 여부를 확인하고 사용자이면 진료예약 일을 스케줄러에 등록하고 이를 청각정보 형태로 이를 미리 알려주는 단계를 더 포함할 수 있다.In the voice reading method, if the recognized visual information is treatment reservation information, it is checked whether the patient information included in the treatment reservation information is a user. may include more.

사용자 선호도를 파악하는 단계에서 사용자의 소정 제품을 구매하는 간격을 파악하고, 보이스 리딩 방법은 파악된 구매 간격보다 미리 사용자가 소정 제품을 구매하고자 하는 경우 이를 청각정보 형태로 알려주는 단계를 더 포함할 수 있다.In the step of identifying the user preference, the interval at which the user purchases a predetermined product is identified, and the voice reading method may further include the step of notifying the user in the form of auditory information when the user intends to purchase the predetermined product in advance of the identified purchase interval. can

보이스 리딩 방법은 사용자 선호도 정보 및 이를 기반으로 생성된 추천 정보를 청각정보로 변환하여 출력하는 단계를 더 포함할 수 있다.The voice reading method may further include converting user preference information and recommendation information generated based on the user preference information into auditory information and outputting the converted information.

다른 실시 예에 따른 보이스 리딩 장치는, 사용자의 단말 사용 패턴과 관련된 데이터를 수집하여 사용자의 사용 패턴 데이터로부터 사전에 설정된 분석기준에 따라 사용자 단말의 웹 페이지 방문 이력, 관심상품 및 검색 키워드 중 적어도 하나를 분석함으로써 사용자 선호도를 파악하는 데이터 분석부와, 사용자 단말의 화면에 표시되는 데이터 또는 외부로부터 획득된 데이터로부터 시각정보를 인식하는 데이터 인식부와, 사전에 파악된 사용자 선호도 및 중요도에 따라 시각정보 내에서 필요정보를 추출하는 데이터 추출부와, 추출된 필요정보를 청각정보 형태로 변환하는 데이터 변환부와, 변환된 청각정보를 출력하여 리딩하는 출력부를 포함한다.The voice reading device according to another embodiment collects data related to the user's terminal usage pattern, and from the user's usage pattern data according to a preset analysis criterion, at least one of a web page visit history of the user terminal, a product of interest, and a search keyword A data analysis unit for recognizing user preference by analyzing It includes a data extraction unit for extracting necessary information from the inside, a data conversion unit for converting the extracted necessary information into the form of auditory information, and an output unit for outputting and reading the converted auditory information.

사용자 단말은, 사용자의 신체에 착용하는 본체에 장착되어 외부 영상을 촬영하여 촬영 영상을 획득하는 시력 보조장치를 포함할 수 있다.The user terminal may include a vision assisting device mounted on a main body worn on the user's body to capture an external image to obtain a captured image.

데이터 인식부는 단말 화면에 표시되는 웹 페이지를 구성하는 객체를 인식하여 인식된 객체로부터 사용자가 구매하고자 하는 제품의 종류를 판단하고 판단된 제품에 대한 구매 의사를 확인 받은 후 구매 의사가 있으면 웹 페이지 내 텍스트를 인식하고, 데이터 추출부는 사전 설정된 중요도에 따라 인식된 텍스트에 제시되어 있는 중심어를 필요정보로서 추출하고, 추출된 중심어 중에 사용자가 선호하는 정보를 필요정보로서 추출할 수 있다.The data recognition unit recognizes the objects constituting the web page displayed on the terminal screen, determines the type of product the user wants to purchase from the recognized object, and after receiving confirmation of the purchase intention for the determined product, Recognizing the text, the data extraction unit may extract, as necessary information, a key word presented in the recognized text according to a preset importance level, and extract information preferred by the user from among the extracted key words as necessary information.

일 실시 예에 따른 보이스 리딩 방법 및 그 장치는 사용자에게 필요한 정보만을 읽어주는 기능을 제공함에 따라 사용자가 원하는 정보를 신속하고 편안하게 얻을 수 있으며 구매 모드에서는 쉽게 자신이 원하는 제품을 구매할 수 있다.The voice reading method and the apparatus according to an embodiment provide a function of reading only necessary information to the user, so that the user can quickly and comfortably obtain the desired information, and can easily purchase the desired product in the purchase mode.

나아가, 사용자의 단말 사용 패턴과 관련된 데이터를 수집하여 분석을 통해 사용자 선호도를 파악한 후 사용자의 선호도를 고려하여 사용자가 필요한 정보만을 읽어줌에 따라 사용자 맞춤형으로 읽어주는 기능을 제공할 수 있다. 예를 들어, 사용자가 특정 브랜드를 선호 한다면, 선호하는 브랜드의 제품을 먼저 추출하여 이를 읽어줌에 따라 효율성 및 사용자의 만족도를 높일 수 있다.Furthermore, after collecting data related to the user's terminal usage pattern and analyzing the user's preference, it is possible to provide a user-customized reading function as the user reads only necessary information in consideration of the user's preference. For example, if a user prefers a specific brand, efficiency and user satisfaction can be increased by extracting a product of the preferred brand first and reading it.

특정 제품을 사는 빈도수 등도 체크할 수 있어, 재고가 있는데 모르고 또 사는지 등을 확인할 수 있어 계획적 구매 등에 편리성을 제공할 수 있다.It is also possible to check the frequency of purchasing a specific product, so that it is possible to check whether a product is purchased again without knowing it is in stock, providing convenience for planned purchases.

병원의 경우 향후 진료일 등 예약이 된 내용을 읽으면 해당 환자가 사용자인지 확인하고 진료일 예약을 했다는 것을 인지해서 스케줄러에 자동으로 등록해 주는 기능도 제공할 수 있다. 이후 리마인더를 통해 잊지 않도록 통지해 줄 수 있다.In the case of hospitals, if the patient reads the reserved information such as the future treatment date, it can check whether the patient is a user and provide a function that automatically registers the patient in the scheduler by recognizing that he/she has made a reservation for the treatment date. After that, you can use a reminder to notify you so you don't forget it.

그룹의 경우 다수의 사용자가 공통으로 사용하는 공통정보를 추출하여 공유하고 이를 기반으로 물건 구매/정보공유 등을 제공하고, 신규 사용자가 그룹에 추가될 때 이를 기반으로 동일한 필요물품 등을 추천 및 가이드 할 수 있다.In the case of a group, common information commonly used by multiple users is extracted and shared, and based on this, product purchase/information sharing is provided. can do.

도 1 및 도 2는 본 발명의 다양한 실시 예에 따른 보이스 리딩 장치의 구성을 도시한 도면,
도 3은 본 발명의 일 실시 예에 따른 사용자 단말의 구조를 도시한 도면,
도 4는 본 발명의 일 실시 예에 따른 보이스 리딩 장치의 구성을 도시한 도면,
도 5는 본 발명의 일 실시 예에 따른 필요정보를 추출하여 읽어주는 예를 도시한 도면,
도 6은 본 발명의 일 실시 예에 따른 보이스 리딩 장치가 DB에 사용자 선호도 정보를 저장하는 예를 도시한 도면,
도 7은 본 발명의 일 실시 예에 따른 보이스 리딩 방법의 흐름을 도시한 도면이다.
1 and 2 are views showing the configuration of a voice reading apparatus according to various embodiments of the present invention;
3 is a diagram showing the structure of a user terminal according to an embodiment of the present invention;
4 is a view showing the configuration of a voice reading apparatus according to an embodiment of the present invention;
5 is a diagram illustrating an example of extracting and reading necessary information according to an embodiment of the present invention;
6 is a diagram illustrating an example in which the voice reading apparatus stores user preference information in a DB according to an embodiment of the present invention;
7 is a diagram illustrating a flow of a voice reading method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted, and the terms to be described later are used in the embodiment of the present invention. As terms defined in consideration of the function of Therefore, the definition should be made based on the content throughout this specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Each block in the accompanying block diagram and combinations of steps in the flowchart may be executed by computer program instructions (execution engine), which may be executed by a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment. It may be mounted so that the instructions, which are executed by the processor of a computer or other programmable data processing equipment, create means for performing the functions described in each block of the block diagram or in each step of the flowchart.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may also be stored in a computer usable or computer readable memory which may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus the computer usable or computer readable memory. It is also possible to produce an article of manufacture containing instruction means for performing the functions described in each block of the block diagram or each step of the flowchart, the instructions stored in the block diagram.

그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And since the computer program instructions may be mounted on a computer or other programmable data processing equipment, a series of operational steps is performed on the computer or other programmable data processing equipment to create a computer-executable process to create a computer or other programmable data processing equipment. It is also possible that the instructions for performing the data processing equipment provide steps for carrying out the functions described in each block of the block diagram and each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.In addition, each block or step may represent a module, segment, or portion of code comprising one or more executable instructions for executing specified logical functions, and in some alternative embodiments the blocks or steps referred to in some alternative embodiments. It should be noted that it is also possible for functions to occur out of sequence. For example, it is possible that two blocks or steps shown one after another may be performed substantially simultaneously, and also the blocks or steps may be performed in the reverse order of the corresponding functions, if necessary.

이하, 첨부 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다. 본 발명의 실시 예는 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments of the present invention illustrated below may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. The embodiments of the present invention are provided to more completely explain the present invention to those of ordinary skill in the art to which the present invention pertains.

도 1 및 도 2는 본 발명의 다양한 실시 예에 따른 보이스 리딩 장치의 구성을 도시한 도면이다.1 and 2 are diagrams illustrating a configuration of a voice reading apparatus according to various embodiments of the present disclosure.

보이스 리딩 장치(1)는 도 1에 도시된 바와 같이 사용자 단말(2) 내에 구비된 구조일 수 있고, 도 2에 도시된 바와 같이 사용자 단말(2)과 관리 서버(3)에 기능들이 네트워크(4)를 통해 분산된 구조일 수도 있다. 예를 들어, DB가 관리 서버(3)에 위치할 수 있다.The voice reading device 1 may have a structure provided in the user terminal 2 as shown in FIG. 1 , and as shown in FIG. 2 , functions are provided in the user terminal 2 and the management server 3 in the network ( 4) may be a distributed structure. For example, the DB may be located in the management server (3).

보이스 리딩 장치(1)는 사용자 단말(2)의 화면을 통해 표시되거나 외부로부터 획득된 데이터로부터 객체, 문자, 이미지 등을 포함하는 시각정보를 인식한 후 이를 청각정보로 변환하여 읽어주는(reading) 장치이다. 이때, 인식된 시각정보를 처음부터 끝까지 읽어주는 것이 아니라, 시각정보에서 필요한 정보(necessary information, 이하 '필요정보'라 칭함)만을 추출하여 읽어주는 장치이다.The voice reading device 1 recognizes visual information including objects, texts, images, etc. from data displayed on the screen of the user terminal 2 or acquired from the outside, and then converts it into auditory information and reads it. it is a device In this case, the recognized visual information is not read from the beginning to the end, but only necessary information (necessary information, hereinafter referred to as 'necessary information') is extracted and read from the visual information.

사용자 단말(2)을 통해 사용자가 방문한 사이트가 웹과 같은 형태, 특히 쇼핑 웹 사이트와 같은 경우, 처음부터 끝까지 읽어주면 사용자가가 원하는 내용을 들을 때까지 지루할 정도로 상당한 시간이 소요되며 심지어 제품과 내용을 연결시키기도 쉽지 않다. 그러나 인공지능과 보이스 리딩 기능이 탑재되어 지능화된 보이스 리딩 장치(1)를 통해 화면의 객체를 인식하고 구매하고자 하는 제품의 종류를 파악한 뒤, 인식된 사용자 선호 패턴을 고려하여 화면 내에서 필요정보만을 추출해서 처리하고 이를 소리로 읽어 전달해 줌으로써 효율성 높은 기능을 제공할 수 있다. 예를 들어, 웹 페이지가 제품을 판매하는 페이지라면, 보이스 리딩 장치(1)는 웹 페이지를 구성하는 객체를 인식하여 중요한 부분에 해당하는 필요정보를 우선적으로 읽어준다. 사용자가 TV를 구매하고자 한다면 몇 인치인지, 가격은 얼마인지, 선호하는 브랜드 등을 추출하여 먼저 읽어주고 더 읽어줄 것인지를 물어보는 형태로 서비스를 제공한다. 사용자가 우유를 구매하고자 한다면, 일반인지 저지방인지, 유효기간은 얼마인지, 가격은 얼마인지 중요한 부분에 해당하는 필요정보를 우선적으로 추출하여 읽어준다. 이때, 사용자가 특정 브랜드를 선호한다면 사용자가 기 선택했던 다수의 이전 선택형태를 통해 그런 특이점도 파악하여 제안할 수 있다.When the site visited by the user through the user terminal 2 is in a web-like form, particularly a shopping web site, it takes a considerable amount of time to be tedious until the user hears the desired content if he/she reads it from beginning to end, and even products and contents It is not easy to connect. However, after recognizing the object on the screen through the intelligent voice reading device 1 equipped with artificial intelligence and voice reading function, identifying the type of product to be purchased, and taking into account the recognized user preference pattern, only the necessary information is displayed on the screen. By extracting, processing, and reading it as a sound, it can provide a high-efficiency function. For example, if the web page is a page for selling products, the voice reading device 1 recognizes objects constituting the web page and preferentially reads necessary information corresponding to an important part. If a user wants to purchase a TV, the service is provided in the form of asking if the user wants to read the TV first after extracting the number of inches, the price, and the preferred brand. When a user wants to purchase milk, the necessary information corresponding to the important parts, such as normal or low fat, the expiration date, and the price, is extracted and read first. At this time, if the user prefers a specific brand, such a singularity can also be identified and suggested through a plurality of previous selection forms previously selected by the user.

사용자가 특정 제품을 구매하는 간격 등도 체크할 수 있어, 재고가 있는데 사용자가 모르고 또 사는지 등을 확인할 수 있어 계획적 구매 등에 편리성을 제공할 수 있다. 다른 예로, 병원의 경우 향후 진료일 등 예약이 된 내용을 추출하면, 진료예약 내용에서 환자가 사용자인지 여부를 확인하고 진료일 예약을 했다는 것을 인지해서 스케줄러에 자동으로 등록해 주는 기능도 제공한다. 이후 진료일 이전에 리마인더(reminder)를 통해 사용자가 잊지 않도록 통지해 줄 수 있다.It is possible to check the interval at which a user purchases a specific product, etc., so that it is possible to check whether there is stock but the user does not know and buy it, thereby providing convenience for planned purchases. As another example, in the case of a hospital, if the contents of a reservation such as a future treatment date are extracted, the function of automatically registering in the scheduler is provided by checking whether the patient is a user in the treatment reservation contents and recognizing that the treatment date has been reserved. After that, the user can be notified so as not to forget through a reminder before the treatment day.

사용자는 시력 취약계층이거나 일반인일 수 있다. 시력 취약계층이란 시력이 정상인과는 다른 계층으로, 스마트폰 사용 등으로 인해 노안, 원시, 근시, 난시 등이 빨리 온 계층과, 기존 원시, 근시, 난시군, 고령층, 시각 장애인층을 모두 포함하는 개념이다. 시력 취약계층을 위해 시력 보조장치를 이용하여 청각정보를 스피커를 통해 출력할 수 있다. 사용자는 개인일 수 있고 그룹일 수 있다. 그룹의 경우 예를 들어 동호회 등이 있다.The user may be a visually impaired class or a general public. Vulnerable groups include those whose eyesight is different from that of those with normal eyesight, including those who have rapidly developed presbyopia, hyperopia, myopia, and astigmatism due to the use of smartphones, as well as the existing hyperopia, myopia, astigmatism, the elderly, and the visually impaired. Concept. For the visually impaired, auditory information can be output through a speaker using a vision aid. A user may be an individual or a group. In the case of groups, for example, clubs, etc.

사용자가 개인인지 그룹인지에 따라 서비스를 상이하게 적용할 수 있다. 예를 들어, 동호회와 같은 그룹의 경우 다수의 사용자가 공통으로 사용하는 공통정보를 추출하여 공유하고 이를 기반으로 제품을 구매하도록 가이드할 수 있다. 신규 사용자가 그룹에 추가될 때는 공통정보를 기반으로 그룹 원 간에 동일하게 필요한 제품 등을 추천하거나 이를 구매하도록 가이드 할 수 있다.The service may be applied differently depending on whether the user is an individual or a group. For example, in the case of a group such as a club, it is possible to extract and share common information commonly used by a large number of users, and guide them to purchase a product based on this. When a new user is added to a group, based on common information, the group members can recommend or guide them to purchase the same necessary products.

보이스 리딩 장치(1)에는 인공지능(AI) 기술, 증강현실(AR), 음성변환(text to speech: TTS) 기술 등의 다양한 기술이 적용된다. 원격제어(remote control)도 가능하다. 인공지능 기술은 기계학습을 통해 영상으로부터 자동으로 객체, 문자, 거리 등의 시각정보를 인식하는 기술을 포함한다. 증강현실 기술은 사용자와 떨어진 객체를 지목하더라도 사용자가 지목한 객체의 이미지를 인식하여 음성으로 알려주는 것과 같이 가상의 세계와 현실의 세계가 결합한 기술이다. 여기서, 사용자의 제스처를 증강현실 포인터로 인식하고 인식된 증강현실 포인터가 지시하는 위치를 인식하는 기술이 포함된다. 음성변환 기술은 인식된 시각정보, 예를 들어 문자 이미지를 문자(text) 정보로 변환하고 이를 사용자가 들을 수 있는 청각정보로 변환하여 음성 출력하는 기술을 포함한다. 원격제어는 사용자 단말(2)이 네트워크(4)를 통해 연결된 관리 서버(3)로부터 원격제어를 지원받고 관리 서버(3)가 사용자 단말(2)을 모니터링하는 기술을 포함한다.Various technologies such as artificial intelligence (AI) technology, augmented reality (AR), and text to speech (TTS) technology are applied to the voice reading device 1 . Remote control is also possible. Artificial intelligence technology includes technology that automatically recognizes visual information such as objects, texts, and distances from images through machine learning. Augmented reality technology is a technology that combines the virtual world and the real world, such as recognizing the image of the object pointed by the user and notifying it by voice even if an object distant from the user is pointed out. Here, a technique for recognizing a user's gesture as an augmented reality pointer and recognizing a position indicated by the recognized augmented reality pointer is included. The speech conversion technology includes a technology for converting recognized visual information, for example, a text image, into text information, and converting it into auditory information that a user can hear and outputting a voice. The remote control includes a technique in which the user terminal 2 is supported by remote control from the management server 3 connected through the network 4 and the management server 3 monitors the user terminal 2 .

네트워크(4)는 사용자 단말(2) 및 관리 서버(3) 간에 데이터의 송수신이 가능한 유무선 네트워크이다. 네트워크(4)는 다양한 형태의 통신망이 이용될 수 있는데, 예를 들어, Wi-Fi, WLAN(Wireless LAN), Wibro, Wimax, HSDPA(High Speed Downlink Packet Access), 블루투스, DSL, LTE, PCS, 2G, 3G, 4G, 5G, LAN, CDMA, TDMA, GSM, WDM 등의 무선 통신방식 또는 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coax), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신방식이 이용될 수 있다. 네트워크는 전술한 통신방식에 한정되는 것은 아니며, 전술한 통신 방식 이외에도 기타 널리 공지되었거나 향후 개발될 모든 형태의 통신 방식을 포함할 수 있다.The network 4 is a wired/wireless network capable of transmitting and receiving data between the user terminal 2 and the management server 3 . The network 4 may use various types of communication networks, for example, Wi-Fi, Wireless LAN (WLAN), Wibro, Wimax, High Speed Downlink Packet Access (HSDPA), Bluetooth, DSL, LTE, PCS, Wireless communication methods such as 2G, 3G, 4G, 5G, LAN, CDMA, TDMA, GSM, WDM, or Ethernet (Ethernet), xDSL (ADSL, VDSL), HFC (Hybrid Fiber Coax), FTTC (Fiber to The Curb), A wired communication method such as Fiber To The Home (FTTH) may be used. The network is not limited to the above-described communication method, and may include all types of communication methods that are well-known or to be developed in the future in addition to the above-described communication method.

도 3은 본 발명의 일 실시 예에 따른 사용자 단말의 구조를 도시한 도면이다.3 is a diagram illustrating the structure of a user terminal according to an embodiment of the present invention.

도 3의 (a)에 도시된 바와 같이, 사용자 단말(2)은 시력 보조장치(20)와 제어장치(22)로 분리된 형태일 수 있다. 시력 보조장치(20)는 사용자 안경의 안경 다리에 탈부착하는 형태의 웨어러블 디바이스일 수 있다. 연결부(26)는 시력 보조장치(20)와 제어장치(22)를 연결한다. 연결부(26)는 유선으로 시력 보조장치(20)와 제어장치(22)를 연결할 수 있다. 무선방식을 이용하여 연결하거나 무선방식을 병행하여 사용할 수도 있다. 시력 보조장치(20)에 외부 영상을 촬영할 수 있는 촬영부가 장착되고 제어장치(22)에 배터리가 장착될 수 있다.As shown in (a) of FIG. 3 , the user terminal 2 may be divided into an eyesight assisting device 20 and a control device 22 . The vision assisting device 20 may be a wearable device that is detachably attached to the leg of the user's glasses. The connection unit 26 connects the vision assisting device 20 and the control device 22 . The connection unit 26 may connect the vision assisting device 20 and the control device 22 by wire. It can be connected using a wireless method or can be used in parallel with a wireless method. A photographing unit capable of capturing an external image may be mounted on the vision assisting device 20 , and a battery may be mounted on the control device 22 .

시력 보조장치(20)는 사용자가 착용 및 소지가 용이한 웨어러블 디바이스이다. 웨어러블 디바이스의 예로는 사용자가 착용한 안경의 안경 테 또는 안경 다리 등에 탈부착하는 형태가 있다. 전면 또는 측면에 촬영부가 장착되어, 촬영부를 통해 영상을 실시간 촬영할 수 있다. 이러한 웨어러블 디바이스는 기존의 일반적인 안경에 탈부착 가능하며, 무게를 최소화하여 착용하기 편리하도록 한다.The vision assisting device 20 is a wearable device that a user can easily wear and possess. As an example of the wearable device, there is a type of attaching and detaching to a frame or a bridge of glasses worn by a user. A photographing unit is mounted on the front or side, so that an image can be captured in real time through the photographing unit. Such a wearable device can be attached to and detached from conventional glasses, and minimized weight to make it convenient to wear.

도 3의 (b)에 도시된 바와 같이, 사용자 단말(2)은 시력 보조장치(20)가 스마트 기기(24)과 연동된 형태일 수 있다. 스마트 기기(24)는 스마트폰 등이 있다. 연결부(26)는 시력 보조장치(20)와 스마트 기기(24)를 연결한다. 연결부(26)는 유선으로 시력 보조장치(20)와 스마트 기기(24)를 연결할 수 있다. 무선방식을 이용하여 연결하거나 무선방식을 병행하여 사용할 수도 있다. 시력 보조장치(20)에 외부 영상을 촬영할 수 있는 촬영부가 장착되고 스마트 기기(24)의 배터리를 이용할 수 있다. 스마트 기기(24)는 화면에 표시되는 시각정보를 인식할 수 있다.As shown in (b) of FIG. 3 , the user terminal 2 may have a form in which the vision assisting device 20 is interlocked with the smart device 24 . The smart device 24 may be a smart phone or the like. The connection unit 26 connects the vision assisting device 20 and the smart device 24 . The connection unit 26 may connect the vision assisting device 20 and the smart device 24 by wire. It can be connected using a wireless method or can be used in parallel with a wireless method. A photographing unit capable of photographing an external image is mounted on the vision assisting device 20 , and a battery of the smart device 24 may be used. The smart device 24 may recognize the visual information displayed on the screen.

도 3의 (c)에 도시된 바와 같이, 사용자 단말(2)은 시력 보조장치 없이 스마트 기기(24)일 수 있다. 예를 들어, 시력 보조장치(20)를 착용하는 것 없이, 스마트 기기(24)만을 이용하여 전술한 기능들을 수행할 수 있다. 이때, 스마트 기기(24) 자체에 장착된 촬영부를 이용하여 외부영상을 촬영할 수 있고, 촬영된 영상 또는 표시 화면을 인식할 수 있다.As shown in (c) of FIG. 3 , the user terminal 2 may be a smart device 24 without a vision assisting device. For example, the functions described above may be performed using only the smart device 24 without wearing the vision assisting device 20 . In this case, an external image may be photographed using a photographing unit mounted on the smart device 24 itself, and the photographed image or display screen may be recognized.

도 4는 본 발명의 일 실시 예에 따른 보이스 리딩 장치의 구성을 도시한 도면이다.4 is a diagram illustrating a configuration of a voice reading apparatus according to an embodiment of the present invention.

도 4를 참조하면, 보이스 리딩 장치(1)는 데이터 분석부(10), 데이터 인식부(12), 데이터 추출부(14), 데이터 변환부(16) 및 출력부(18)를 포함한다.Referring to FIG. 4 , the voice reading apparatus 1 includes a data analysis unit 10 , a data recognition unit 12 , a data extraction unit 14 , a data conversion unit 16 , and an output unit 18 .

데이터 분석부(10), 데이터 인식부(12), 데이터 추출부(14) 및 데이터 변환부(16)는 프로세서에서 해당 기능을 수행하고, 이를 수행하기 위한 명령은 메모리에 저장될 수 있다.The data analysis unit 10 , the data recognition unit 12 , the data extraction unit 14 , and the data conversion unit 16 perform corresponding functions in the processor, and instructions for performing the functions may be stored in a memory.

데이터 분석부(10)는 사전에 사용자의 단말 사용 패턴과 관련된 데이터를 수집하여 분석을 통해 사용자 선호도를 파악한다. 사용자 선호도는 예를 들어 사용자가 선호하는 브랜드 등이 될 수 있다. 사용자 선호도는 사용자 방문 사이트를 구성하는 웹 페이지 내에 사용자의 사용 패턴과 관련된 웹 페이지 방문 히스토리 정보, 구매정보 및 검색정보 등에 대한 분석을 통해 파악될 수 있다.The data analysis unit 10 collects data related to the user's terminal usage pattern in advance and identifies the user's preference through analysis. The user preference may be, for example, a brand preferred by the user. User preference can be identified through analysis of web page visit history information, purchase information, and search information related to the user's usage pattern within the web page constituting the user visit site.

사용자 단말을 통해 접속되는 웹 페이지 상에서 광고 대상 상품을 구매하는 경우에 구매정보는 상품구매 주문번호, 상품코드, 상품명, 구매가격, 상품 썸 네일 웹 주소, 구매수량 및 사용자 단말 종류를 포함할 수 있다.When purchasing an advertisement target product on a web page accessed through a user terminal, purchase information may include a product purchase order number, product code, product name, purchase price, product thumbnail web address, purchase quantity, and user terminal type. .

데이터 분석부(10)는 미리 설정된 시간 구간을 두고 시간 구간 내에서 전술한 정보들을 수집하여 분석을 수행할 수 있다. 최근의 시간 구간에는 가중치를 더 부여할 수도 있다. 시간 구간 별로 구매이력을 확인하여 빈도 수를 카운팅 함에 따라 사용자가 재고가 있는 줄 모르고 또 사고자 하는 경우 이를 사용자에 미리 알려줌에 따라 효율성을 높일 수 있다. 데이터 분석부(10)는 사용자 선호도를 포함한 분석결과를 데이터 추출부(14)에 제공할 수 있고, 분석결과나 분석결과를 토대로 생성한 추천정보를 데이터 변환부(16)에 제공할 수 있다.The data analysis unit 10 may set a preset time period and collect the above-mentioned information within the time period to perform analysis. A weight may be further assigned to a recent time interval. As the frequency is counted by checking the purchase history for each time section, if the user does not know that there is stock or wants to buy, the user is notified in advance, thereby increasing efficiency. The data analysis unit 10 may provide the analysis result including user preference to the data extraction unit 14 , and may provide the analysis result or recommendation information generated based on the analysis result to the data conversion unit 16 .

데이터 분석부(10)는 사용자의 단말 사용 패턴 데이터를 사전에 설정된 분석기준에 따라 개별 사용자 단말의 웹 페이지 방문이력과 관심상품을 분석하여 개별 사용자의 선호도를 파악할 수 있고, 데이터 추출부(14)는 파악된 선호도에 따른 개별 추천상품목록을 추출할 수 있다. 데이터 분석부(10)는 사용자의 단말 사용 패턴 데이터를 사전에 설정된 분석기준에 따라 그룹을 구성하는 사용자 단말들의 웹 페이지 방문이력과 관심상품을 포함하여 분석함으로써 그룹 전체의 사용자 선호도를 파악할 수 있고, 데이터 추출부(14)는 파악된 전체 그룹의 선호도에 따른 연관상품목록을 추출할 수 있다.The data analysis unit 10 analyzes the user's terminal usage pattern data according to the analysis criteria set in advance, and analyzes the web page visit history and interest products of individual user terminals to determine the preferences of individual users, and the data extraction unit 14 can extract an individual recommended product list according to the identified preferences. The data analysis unit 10 analyzes the user's terminal usage pattern data according to the pre-set analysis criteria, including the web page visit history of the user terminals constituting the group and the products of interest, so that the user's preference of the entire group can be grasped, The data extraction unit 14 may extract a list of related products according to the identified preferences of the entire group.

데이터 분석부(10)는 사용자의 단말 사용 패턴 데이터를 사전에 설정된 분석기준에 따라 개별 사용자 단말의 검색 키워드를 분석하고, 데이터 추출부(14)는 개별 사용자 단말의 검색이력에 따른 추천키워드 목록을 추출할 수 있다. 데이터 분석부(10)는 사용자의 단말 사용 패턴 데이터를 사전에 설정된 분석기준에 따라 전체 그룹을 구성하는 사용자 단말의 검색 키워드를 포함하여 분석하고, 데이터 추출부(14)는 전체 사용자 단말의 검색이력에 따른 연관 키워드 목록을 추출할 수 있다.The data analysis unit 10 analyzes the user's terminal usage pattern data according to the analysis criteria set in advance, and the search keyword of the individual user terminal, and the data extraction unit 14 is a list of recommended keywords according to the search history of the individual user terminal. can be extracted. The data analysis unit 10 analyzes the user's terminal usage pattern data including search keywords of the user terminals constituting the entire group according to the analysis criteria set in advance, and the data extraction unit 14 analyzes the search history of the entire user terminal It is possible to extract a list of related keywords according to

데이터 인식부(12)는 사용자 단말 화면에 표시되거나 외부로부터 획득된 데이터로부터 시각정보를 인식한다. 사용자 단말의 화면에 표시되는 데이터는 화면 상에 보이는 웹 페이지 화면 등일 수 있다. 외부로부터 획득된 데이터는 사용자가 사용자 단말을 통해 실시간으로 촬영한 외부 영상일 수 있다. 예를 들어, 우유 같은 구매하고자 하는 제품의 상품정보를 촬영한 영상일 수 있다. 시각정보는 객체, 문자, 이미지 등일 수 있다. 웹 페이지 화면은 온라인 쇼핑몰을 구성하는 상품 상세 페이지, 상품 구매 페이지, 상품 검색 결과 페이지 등을 포함할 수 있다.The data recognition unit 12 recognizes visual information from data displayed on the user terminal screen or acquired from the outside. The data displayed on the screen of the user terminal may be a screen of a web page displayed on the screen. The data obtained from the outside may be an external image captured by the user in real time through the user terminal. For example, it may be an image of product information of a product to be purchased, such as milk. The visual information may be an object, text, image, or the like. The web page screen may include a product detail page, a product purchase page, and a product search result page constituting the online shopping mall.

데이터 인식부(12)는 인공지능 기반 기계학습을 통해 사람과 동물, 사물 등의 객체를 구분할 수 있다. 기계학습의 특성 상 사용자가 많을수록 정확도는 더 높아진다The data recognition unit 12 may distinguish objects such as people, animals, and things through artificial intelligence-based machine learning. Due to the nature of machine learning, the more users there are, the higher the accuracy.

데이터 인식부(12)는 사용자 단말의 화면에 표시되는 웹 페이지를 구성하는 객체를 인식하고 인식된 객체로부터 사용자가 구매하고자 하는 제품의 종류를 판단할 수 있다. 예를 들어, 우유 이미지로부터 사용자의 관심상품이 우유임을 판단한다. 이어서, 데이터 인식부(12)는 판단된 제품에 대한 구매 의사를 사용자에 물어 구매 의사를 확인 받을 수 있다. 구매 의사가 있으면, 데이터 인식부(12)는 웹 페이지 내 텍스트를 인식한다.The data recognition unit 12 may recognize an object constituting a web page displayed on the screen of the user terminal and determine the type of product the user wants to purchase from the recognized object. For example, it is determined that the user's interest product is milk from the milk image. Subsequently, the data recognition unit 12 may ask the user to confirm the purchase intention for the determined product. If there is a purchase intention, the data recognition unit 12 recognizes text in the web page.

데이터 추출부(14)는 사전에 파악된 사용자 선호도 및 중요도에 따라 시각정보 내에서 필요정보를 추출한다. 중요도는 사전에 설정되고, 사용자에 의해 수정 가능하다. 예를 들어, TV의 경우 크기, 가격 등이 중요정보에 해당하고, 우유의 경우 일반인지 저지방인지 여부, 유효기간, 가격 등이 중요정보에 해당한다.The data extraction unit 14 extracts necessary information from the visual information according to user preference and importance identified in advance. The importance level is set in advance and can be modified by the user. For example, in the case of a TV, size and price correspond to important information, and in the case of milk, whether it is regular or low-fat, expiration date, price, etc. correspond to important information.

데이터 추출부(14)는 데이터 인식부(12)에서 인식된 텍스트에 제시되어 있는 단어들 중에서 중요도에 따라 중심어를 필요정보로서 추출할 수 있다. 중심어는 텍스트에 기재된 문자들 중에서 상품정보를 알 수 있는 키워드로서, 상품코드, 상품명, 판매가격, 소비자 가격, 상품 썸네일 웹 주소, 상품 이미지 웹 주소, 모바일 상품 이미지 웹 주소, 상품 카테고리, 브랜드 명 등을 포함하는 정보이다. 예를 들어, 우유의 경우 일반인지 저지방인지 여부, 유효기간, 가격 등을 중심어로 추출한다. 인식된 텍스트에서 사용자가 선호하는 중심어, 예를 들어 특정 브랜드가 있으면, 사용자가 선호하는 정보로 판단하여 이를 필요정보로서 추출할 수 있다.The data extraction unit 14 may extract a key word as necessary information according to importance among words presented in the text recognized by the data recognition unit 12 . Keywords are keywords that can identify product information among the characters in the text. Product code, product name, selling price, consumer price, product thumbnail web address, product image web address, mobile product image web address, product category, brand name, etc. information that includes For example, in the case of milk, whether it is normal or low-fat, expiration date, price, etc. are extracted as key words. If there is a key word preferred by the user in the recognized text, for example, a specific brand, it is determined as the user's preferred information and it can be extracted as necessary information.

사용자가 그룹에 속한 경우, 데이터 분석부(10)에서 그룹 내 다수의 사용자가 공통으로 사용하는 공통정보를 파악할 수 있다. 그룹은 동호회 등이 될 수 있다. 이때, 데이터 추출부(14)는 현재 단말 화면에 표시되는 시각정보에서 공통정보에 해당하는 필요정보를 추출한다. 예를 들어, 아쿠아 워킹 동호회에서 단체복으로 구입하는 수영복 브랜드가 공통정보가 될 수 있다. 공통정보와 사용자 개별정보가 상이한 경우, 공통정보를 우선으로 추출하고, 상이한 개별정보를 개인화 하여 개인화된 정보를 추출할 수 있다. 예를 들어, 그룹이 단체로 수영복을 구매하고자 하는 경우, 사이즈 정보가 상이할 수 있는데, 데이터 분석부(10)를 통해 사용자의 체형을 미리 파악하고 있으므로, 개인 간에 상이한 내용은 그룹의 공통정보를 처리하고 난 후, 상이한 개별정보를 개인화하여 처리할 수 있다.When the user belongs to a group, the data analysis unit 10 may identify common information commonly used by a plurality of users in the group. A group can be a club or the like. At this time, the data extraction unit 14 extracts necessary information corresponding to common information from the visual information currently displayed on the terminal screen. For example, a swimsuit brand purchased as a group uniform in an aqua walking club may be common information. When the common information and the individual user information are different, the common information is preferentially extracted, and the individualized information can be extracted by personalizing the different individual information. For example, when a group wants to purchase a swimsuit as a group, size information may be different. After processing, different individual information can be personalized and processed.

데이터 변환부(16)는 데이터 추출부(14)에서 추출된 필요정보를 청각정보로 변환한다. 출력부(18)는 데이터 변환부(16)에서 변환된 청각정보를 출력하여 읽어준다. 데이터 변환부(16)는 데이터 분석부(10)로부터 사용자 선호도 정보 및 이를 기반으로 생성된 추천 정보를 수신하여 이를 청각정보로 변환한 후 출력부(18)를 통해 출력할 수 있다. 데이터 변환부(16)는 신규 사용자가 그룹에 추가되면 공통정보 또는 공통정보에 기반한 추천 정보를 청각정보로 변환한 후 이를 출력부(18)를 통해 출력할 수 있다.The data conversion unit 16 converts the necessary information extracted by the data extraction unit 14 into auditory information. The output unit 18 outputs and reads the auditory information converted by the data conversion unit 16 . The data conversion unit 16 may receive the user preference information and the recommendation information generated based on the user preference information from the data analysis unit 10 , convert it into auditory information, and output it through the output unit 18 . When a new user is added to a group, the data conversion unit 16 may convert common information or recommendation information based on common information into auditory information, and then output it through the output unit 18 .

데이터 인식부(12)가 인식한 시각정보가 진료예약 정보인 경우, 데이터 추출부(14)는 진료예약 정보에 포함된 환자정보가 사용자인지 여부를 확인하고 사용자이면 진료예약 일을 스케줄러에 등록한 후 출력부(18)를 통해 청각정보 형태로 이를 미리 알려줄 수 있다. 청각정보는 음성신호, 경고음 등이다. 예를 들어, 출력부(18)는 인쇄 형태의 문자들 중에서 필요정보를 읽어 소리로 들려준다.When the visual information recognized by the data recognition unit 12 is treatment reservation information, the data extraction unit 14 checks whether the patient information included in the treatment reservation information is a user, and if it is a user, after registering the treatment reservation date in the scheduler It can be informed in advance in the form of auditory information through the output unit 18 . The auditory information is a voice signal, a warning sound, and the like. For example, the output unit 18 reads necessary information from among the printed characters and provides a sound.

데이터 분석부(10)가 사용자 선호도 파악 시 사용자의 소정 제품을 구매하는 간격을 파악하고, 파악된 구매 간격보다 미리 사용자가 소정 제품을 구매하고자 하는 경우 이를 청각정보 형태로 출력부(18)를 통해 알려줄 수 있다.When the data analysis unit 10 identifies the user's preference, the interval at which the user purchases the predetermined product is identified, and when the user intends to purchase the predetermined product in advance of the identified purchase interval, it is transmitted in the form of auditory information through the output unit 18 can tell you

도 5는 본 발명의 일 실시 예에 따른 필요정보를 추출하여 읽어주는 예를 도시한 도면이다.5 is a diagram illustrating an example of extracting and reading necessary information according to an embodiment of the present invention.

도 5를 참조하면, 보이스 리딩 장치는 처음부터 끝까지 읽어주는 것이 아니라, 텍스트에서 중요한 정보, 사용자가 선호하는 정보 등에 해당하는 필요정보만을 추출하여 읽어준다. 예를 들어, 도 5에 도시된 바와 같이, 서울우유, 멸균 우유, 1L, 국산원유 100%, 콜레스테롤 10mg 만을 추출하여 읽어준다. 따라서, 사용자는 꼭 필요한 정보만을 얻을 수 있어 사용의 편리성을 높일 수 있다. 보이스 리딩 장치는 추출된 필요정보를 읽어준 후, 사용자에게 추가로 더 읽어줄 것인지를 물어본 후 더 읽어줄 것을 요청하면 다른 정보들을 추가로 읽어줄 수 있다.Referring to FIG. 5 , the voice reading apparatus does not read from beginning to end, but extracts and reads only necessary information corresponding to important information and user preference information from text. For example, as shown in FIG. 5, only Seoul milk, sterilized milk, 1L, 100% domestic raw milk, and cholesterol 10mg are extracted and read. Accordingly, the user can obtain only necessary information, thereby increasing the convenience of use. After reading the extracted necessary information, the voice reading device may additionally read other information by asking the user whether to read more and then requesting to read more.

도 6은 본 발명의 일 실시 예에 따른 보이스 리딩 장치가 DB에 사용자 선호도 정보를 저장하는 예를 도시한 도면이다.6 is a diagram illustrating an example in which the voice reading apparatus stores user preference information in a DB according to an embodiment of the present invention.

도 6을 참조하면, 보이스 리딩 장치(1)는 사용자의 단말 사용 패턴과 관련된 데이터, 예를 들어 사용자 방문 사이트를 구성하는 웹 페이지 내에 사용자의 사용 패턴과 관련된 웹 페이지 방문 히스토리 정보, 구매정보 및 검색정보를 수집하여 분석을 통해 사용자 선호도를 파악한 후 파악된 사용자 선호도 정보를 DB에 저장한다.Referring to FIG. 6 , the voice reading device 1 includes data related to the user's terminal usage pattern, for example, web page visit history information related to the user's usage pattern in the web page constituting the user visit site, purchase information, and search After collecting information and analyzing user preferences, the identified user preference information is stored in the DB.

예를 들어, 도 6에 도시된 바와 같이 사용자 A의 경우, 저장항목: 20개, 카테고리 10: 생필품, 식품 10.11 우유, 브랜드> 서울우유, 생/멸균> 멸균, 국산여부> 국산, 콜레스테롤> 10mg 이하 등이 저장된다. 이때, 카테고리, 식품명, 브랜드, 생/멸균, 국산여부, 콜레스테롤 등의 항목이 중요정보에 해당하며, 그 세부내용이 사용자 선호도 정보에 해당한다.For example, as shown in FIG. 6 , in the case of user A, storage items: 20 items, category 10: daily necessities, food 10.11 milk, brand> Seoul milk, raw/sterilized> sterilization, domestic or not> domestic, cholesterol> 10 mg The following are stored. At this time, items such as category, food name, brand, raw/sterilization, domestic availability, cholesterol, etc. correspond to important information, and the details correspond to user preference information.

적용 대상은 개인, 그룹으로 구분될 수 있다. 예를 들어, 도 6에 도시된 바와 같이 그룹 A(아쿠아 워킹 동호회)의 경우, 저장항목: 10개, 카테고리 100: 필수, 옷 70.11 수영복, 브랜드> 스피도, 여성/남성> 여성, 색상> 네이비, 사이즈> 100 등이 저장된다. 이때, 사용자의 체형을 미리 인지했을 경우 공통정보와 다른 개별정보(600)는 그룹 A의 공통정보를 먼저 처리하고 난 후 개인화하여 처리할 수 있다. 그룹의 경우, 다수의 사용자가 공통으로 사용하는 공통정보를 추출하여 공유하고, 이를 기반으로 제품 구매/정보공유 등을 제공하고, 신규 사용자가 그룹에 추가될 때 이를 기반으로 동일한 필요 제품 등을 추천 및 가이드 할 수 있다.Applications can be divided into individuals and groups. For example, as shown in FIG. 6 , in the case of group A (aqua walking group), storage items: 10 pieces, category 100: essential, clothes 70.11 swimsuit, brand> speedo, women/men> women, color> navy, size > 100, etc. are stored. In this case, when the user's body type is recognized in advance, the common information and the different individual information 600 may be processed by processing the common information of group A first and then personalizing the information. In the case of a group, common information commonly used by multiple users is extracted and shared, and product purchase/information sharing is provided based on this, and when a new user is added to the group, the same necessary product is recommended based on this. and guides.

도 7은 본 발명의 일 실시 예에 따른 보이스 리딩 방법의 흐름을 도시한 도면이다.7 is a diagram illustrating a flow of a voice reading method according to an embodiment of the present invention.

도 7을 참조하면, 보이스 리딩 장치는 사용자의 단말 사용 패턴과 관련된 데이터를 수집하여 분석을 통해 사용자 선호도를 파악한다(710). 사용자 선호도 파악 단계(710)에서, 보이스 리딩 장치는 사용자 방문 사이트를 구성하는 웹 페이지 내에 사용자의 사용 패턴과 관련된 웹 페이지 방문 히스토리 정보, 구매정보 및 검색정보를 수집하고 분석을 통해 사용자 선호도를 파악할 수 있다.Referring to FIG. 7 , the voice reading apparatus collects data related to the user's terminal usage pattern and analyzes the data to determine user preference ( 710 ). In the user preference identification step 710, the voice reading device collects web page visit history information, purchase information, and search information related to the user's usage pattern within the web page constituting the user visit site, and can identify the user preference through analysis. have.

이어서, 보이스 리딩 장치는 사용자 단말의 화면에 표시되는 데이터 또는 외부로부터 획득된 데이터로부터 시각정보를 인식한다(720). 시각정보 인식 단계(720)에서, 보이스 리딩 장치는 단말 화면에 표시되는 웹 페이지를 구성하는 객체를 인식하고, 인식된 객체로부터 사용자가 구매하고자 하는 제품의 종류를 판단할 수 있다. 그리고 판단된 제품에 대한 구매 의사를 확인 받은 후, 구매 의사가 있으면 웹 페이지 내 텍스트를 인식할 수 있다.Next, the voice reading apparatus recognizes visual information from data displayed on the screen of the user terminal or data obtained from the outside ( S720 ). In the visual information recognition step 720 , the voice reading apparatus may recognize an object constituting a web page displayed on the terminal screen, and determine the type of product the user wants to purchase from the recognized object. In addition, after receiving confirmation of purchase intention for the determined product, if there is a purchase intention, the text in the web page may be recognized.

이어서, 보이스 리딩 장치는 사전에 파악된 사용자 선호도 및 중요도에 따라 시각정보 내에서 필요정보를 추출한다(730). 필요정보 추출 단계(730)에서, 보이스 리딩 장치는 사전 설정된 중요도에 따라 인식된 시각정보 내 텍스트에 제시되어 있는 중심어를 필요정보로서 추출하고, 추출된 중심어 중에 사용자가 선호하는 정보를 필요정보로서 추출할 수 있다. 사용자 선호도 파악 단계(710)에서, 사용자가 그룹에 속한 경우 그룹 내 다수의 사용자가 공통으로 사용하는 공통정보를 파악하면, 필요정보 추출 단계(730)에서 현재 단말 화면에 표시되는 시각정보에서 공통정보에 해당하는 필요정보를 추출할 수 있다.Next, the voice reading apparatus extracts necessary information from the visual information according to the user's preference and importance identified in advance (S730). In the necessary information extraction step 730, the voice reading device extracts, as necessary information, a key word presented in the text in the recognized visual information according to a preset importance level, and extracts information preferred by the user from among the extracted key words as necessary information can do. In the user preference identification step 710 , if the user belongs to a group, if common information commonly used by a plurality of users in the group is identified, common information is extracted from the visual information currently displayed on the terminal screen in the necessary information extraction step 730 . It is possible to extract necessary information corresponding to

이어서, 보이스 리딩 장치는 추출된 필요정보를 청각정보 형태로 변환하여 리딩 한다(740). 나아가, 보이스 리딩 장치는 그룹 내 공통정보와 사용자 개별정보가 상이한 경우, 공통정보를 우선으로 제공한 후, 상이한 개별정보를 개인화 하여 개인화된 정보를 함께 제공할 수 있다.Next, the voice reading apparatus converts the extracted necessary information into the form of auditory information and reads it ( 740 ). Furthermore, when the common information within the group and the user's individual information are different, the voice reading device may provide the common information first, then personalize the different individual information to provide the personalized information together.

다른 예로, 보이스 리딩 장치는 시각정보 인식 단계(720)에서 인식한 시각정보가 진료예약 정보이면 진료예약 정보에 포함된 환자정보가 사용자인지 여부를 확인하고 사용자이면 진료예약 일을 스케줄러에 등록하고 이를 청각정보 형태로 이를 미리 알려줄 수 있다.As another example, if the visual information recognized in the visual information recognition step 720 is treatment reservation information, the voice reading device checks whether the patient information included in the treatment reservation information is a user, and if it is a user, registers the treatment reservation date in the scheduler and This can be informed in advance in the form of auditory information.

또 다른 예로, 보이스 리딩 장치는 사용자 선호도 파악 단계(710)에서 사용자의 소정 제품을 구매하는 간격을 파악한 후, 파악된 구매 간격보다 미리 사용자가 소정 제품을 구매하고자 하는 경우 이를 청각정보 형태로 알려줄 수 있다. 보이스 리딩 장치는 사용자 선호도 정보 및 이를 기반으로 생성된 추천 정보를 청각정보로 변환하여 출력할 수 있다.As another example, the voice reading device determines the interval at which the user purchases the predetermined product in the user preference identification step 710, and then informs the user in the form of auditory information when the user intends to purchase the predetermined product in advance of the identified purchase interval. have. The voice reading apparatus may convert user preference information and recommendation information generated based on the user preference information into auditory information and output the converted information.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been focused on the embodiments thereof. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in modified forms without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (12)

보이스 리딩 장치를 이용한 보이스 리딩 방법에 있어서, 보이스 리딩 장치가
사용자의 단말 사용 패턴과 관련된 데이터를 수집하여 사용자의 사용 패턴 데이터로부터 사전에 설정된 분석기준에 따라 사용자 단말의 웹 페이지 방문 이력, 관심상품 및 검색 키워드 중 적어도 하나를 분석함으로써 사용자 선호도를 파악하는 단계;
사용자 단말의 화면에 표시되는 데이터 또는 외부로부터 획득된 데이터로부터 시각정보를 인식하는 단계;
사전에 파악된 사용자 선호도 및 중요도에 따라 시각정보 내에서 필요정보를 추출하는 단계; 및
추출된 필요정보를 청각정보 형태로 변환하여 리딩하는 단계; 를 포함하며,
시각정보를 인식하는 단계는
단말 화면에 표시되는 웹 페이지를 구성하는 객체를 인식하는 단계;
인식된 객체로부터 사용자가 구매하고자 하는 제품의 종류를 판단하는 단계;
판단된 제품에 대한 구매 의사를 확인 받는 단계; 및
구매 의사가 있으면 웹 페이지 내 텍스트를 인식하는 단계; 를 포함하는 것을 특징으로 하는 보이스 리딩 방법.
In the voice reading method using the voice reading device, the voice reading device
identifying user preference by collecting data related to the user's terminal usage pattern and analyzing at least one of a web page visit history of the user terminal, a product of interest, and a search keyword from the user's usage pattern data according to a preset analysis standard;
Recognizing visual information from data displayed on a screen of a user terminal or data acquired from outside;
extracting necessary information from the visual information according to user preference and importance identified in advance; and
converting the extracted necessary information into a form of auditory information and reading; includes,
Recognizing visual information
Recognizing an object constituting a web page displayed on the terminal screen;
determining the type of product the user wants to purchase from the recognized object;
receiving confirmation of purchase intention for the determined product; and
recognizing text in a web page if there is a purchase intention; A voice reading method comprising a.
삭제delete 삭제delete 제 1 항에 있어서, 필요정보를 추출하는 단계는
사전 설정된 중요도에 따라 인식된 시각정보 내 텍스트에 제시되어 있는 중심어를 필요정보로서 추출하는 단계; 및
추출된 중심어 중에 사용자가 선호하는 정보를 필요정보로서 추출하는 단계;
를 포함하는 것을 특징으로 하는 보이스 리딩 방법.
According to claim 1, wherein the step of extracting the necessary information
extracting, as necessary information, a key word presented in the text in the recognized visual information according to a preset importance level; and
extracting information preferred by the user from among the extracted key words as necessary information;
A voice reading method comprising a.
제 1 항에 있어서, 사용자 선호도를 파악하는 단계는
사용자가 그룹에 속한 경우 그룹 내 다수의 사용자가 공통으로 사용하는 공통정보를 파악하고,
필요정보를 추출하는 단계는
현재 단말 화면에 표시되는 시각정보에서 공통정보에 해당하는 필요정보를 추출하는 것을 특징으로 하는 보이스 리딩 방법.
The method of claim 1, wherein the step of determining user preference comprises:
If a user belongs to a group, identify common information commonly used by multiple users in the group,
Steps to extract the necessary information
A voice reading method comprising extracting necessary information corresponding to common information from the visual information currently displayed on the terminal screen.
제 5 항에 있어서, 보이스 리딩 방법은
그룹 내 공통정보와 사용자 개별정보가 상이한 경우, 공통정보를 우선으로 제공한 후, 상이한 개별정보를 개인화 하여 개인화된 정보를 함께 제공하는 단계;
를 더 포함하는 것을 특징으로 하는 보이스 리딩 방법.
The method of claim 5, wherein the voice reading method
If the common information within the group and the individual user information are different, providing the common information first, then personalizing the different individual information to provide the personalized information together;
Voice reading method, characterized in that it further comprises.
보이스 리딩 장치를 이용한 보이스 리딩 방법에 있어서, 보이스 리딩 장치가
사용자의 단말 사용 패턴과 관련된 데이터를 수집하여 사용자의 사용 패턴 데이터로부터 사전에 설정된 분석기준에 따라 사용자 단말의 웹 페이지 방문 이력, 관심상품 및 검색 키워드 중 적어도 하나를 분석함으로써 사용자 선호도를 파악하는 단계;
사용자 단말의 화면에 표시되는 데이터 또는 외부로부터 획득된 데이터로부터 시각정보를 인식하는 단계;
사전에 파악된 사용자 선호도 및 중요도에 따라 시각정보 내에서 필요정보를 추출하는 단계; 및
추출된 필요정보를 청각정보 형태로 변환하여 리딩하는 단계; 및
인식한 시각정보가 진료예약 정보이면 진료예약 정보에 포함된 환자정보가 사용자인지 여부를 확인하고 사용자이면 진료예약 일을 스케줄러에 등록하고 이를 청각정보 형태로 이를 미리 알려주는 단계;
를 포함하는 것을 특징으로 하는 보이스 리딩 방법.
In the voice reading method using the voice reading device, the voice reading device
identifying user preference by collecting data related to the user's terminal usage pattern and analyzing at least one of a web page visit history of the user terminal, a product of interest, and a search keyword from the user's usage pattern data according to a preset analysis standard;
Recognizing visual information from data displayed on a screen of a user terminal or data acquired from outside;
extracting necessary information from the visual information according to user preference and importance identified in advance; and
converting the extracted necessary information into a form of auditory information and reading; and
If the recognized visual information is treatment reservation information, confirming whether the patient information included in the treatment reservation information is a user, and if the user, registering the treatment reservation date in the scheduler and notifying it in advance in the form of auditory information;
A voice reading method comprising a.
보이스 리딩 장치를 이용한 보이스 리딩 방법에 있어서, 보이스 리딩 장치가
사용자의 단말 사용 패턴과 관련된 데이터를 수집하여 사용자의 사용 패턴 데이터로부터 사전에 설정된 분석기준에 따라 사용자 단말의 웹 페이지 방문 이력, 관심상품 및 검색 키워드 중 적어도 하나를 분석함으로써 사용자 선호도를 파악하는 단계;
사용자 단말의 화면에 표시되는 데이터 또는 외부로부터 획득된 데이터로부터 시각정보를 인식하는 단계; 및
사전에 파악된 사용자 선호도 및 중요도에 따라 시각정보 내에서 필요정보를 추출하는 단계; 및
추출된 필요정보를 청각정보 형태로 변환하여 리딩하는 단계; 를 포함하며,
사용자 선호도를 파악하는 단계는
사용자의 소정 제품을 구매하는 간격을 파악하고,
보이스 리딩 방법은
파악된 구매 간격보다 미리 사용자가 소정 제품을 구매하고자 하는 경우 이를 청각정보 형태로 알려주는 단계;
를 더 포함하는 것을 특징으로 하는 보이스 리딩 방법.
In the voice reading method using the voice reading device, the voice reading device
identifying user preference by collecting data related to the user's terminal usage pattern and analyzing at least one of a web page visit history of the user terminal, a product of interest, and a search keyword from the user's usage pattern data according to a preset analysis standard;
Recognizing visual information from data displayed on a screen of a user terminal or data acquired from outside; and
extracting necessary information from the visual information according to user preference and importance identified in advance; and
converting the extracted necessary information into a form of auditory information and reading; includes,
Steps to understand user preferences
Identify the interval at which users purchase a given product,
How to lead a voice
notifying the user in the form of auditory information when the user intends to purchase a predetermined product in advance of the identified purchase interval;
Voice reading method, characterized in that it further comprises.
제 1 항에 있어서, 보이스 리딩 방법은
사용자 선호도 정보 및 이를 기반으로 생성된 추천 정보를 청각정보로 변환하여 출력하는 단계;
를 더 포함하는 것을 특징으로 하는 보이스 리딩 방법.
The method of claim 1, wherein the voice reading method
converting the user preference information and recommendation information generated based on the user preference information into auditory information and outputting the converted information;
Voice reading method, characterized in that it further comprises.
사용자의 단말 사용 패턴과 관련된 데이터를 수집하여 사용자의 사용 패턴 데이터로부터 사전에 설정된 분석기준에 따라 사용자 단말의 웹 페이지 방문 이력, 관심상품 및 검색 키워드 중 적어도 하나를 분석함으로써 사용자 선호도를 파악하는 데이터 분석부;
사용자 단말의 화면에 표시되는 데이터 또는 외부로부터 획득된 데이터로부터 시각정보를 인식하는 데이터 인식부;
사전에 파악된 사용자 선호도 및 중요도에 따라 시각정보 내에서 필요정보를 추출하는 데이터 추출부;
추출된 필요정보를 청각정보 형태로 변환하는 데이터 변환부; 및
변환된 청각정보를 출력하여 리딩하는 출력부; 를 포함하며,
데이터 인식부는
단말 화면에 표시되는 웹 페이지를 구성하는 객체를 인식하여 인식된 객체로부터 사용자가 구매하고자 하는 제품의 종류를 판단하고 판단된 제품에 대한 구매 의사를 확인 받은 후 구매 의사가 있으면 웹 페이지 내 텍스트를 인식하는 것을 특징으로 하는 보이스 리딩 장치.
Data analysis to identify user preferences by collecting data related to the user's terminal usage pattern and analyzing at least one of the user terminal's web page visit history, products of interest, and search keywords from the user's usage pattern data according to a preset analysis standard wealth;
a data recognition unit for recognizing visual information from data displayed on the screen of the user terminal or data obtained from the outside;
a data extraction unit for extracting necessary information from the visual information according to user preference and importance identified in advance;
a data conversion unit for converting the extracted necessary information into a form of auditory information; and
an output unit for outputting and reading the converted auditory information; includes,
data recognition unit
It recognizes the objects constituting the web page displayed on the terminal screen, determines the type of product the user wants to purchase from the recognized object, and after receiving confirmation of the purchase intention for the determined product, recognizes the text in the web page if there is a purchase intention A voice reading device, characterized in that.
제 10 항에 있어서, 사용자 단말은
사용자의 신체에 착용하는 본체에 장착되어 외부 영상을 촬영하여 촬영 영상을 획득하는 시력 보조장치를 포함하는 것을 특징으로 하는 보이스 리딩 장치.
11. The method of claim 10, wherein the user terminal is
and a vision assisting device mounted on a main body worn on the user's body to acquire an external image by photographing the external image.
제 10 항에 있어서, 데이터 추출부는
사전 설정된 중요도에 따라 인식된 텍스트에 제시되어 있는 중심어를 필요정보로서 추출하고, 추출된 중심어 중에 사용자가 선호하는 정보를 필요정보로서 추출하는 것을 특징으로 하는 보이스 리딩 장치.
11. The method of claim 10, wherein the data extraction unit
A voice reading device, characterized in that extracting a key word presented in the recognized text according to a preset importance as necessary information, and extracting information preferred by a user from among the extracted key words as necessary information.
KR1020200014245A 2019-12-20 2020-02-06 Voice reading method and apparatus thereof KR102347807B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190171782 2019-12-20
KR20190171782 2019-12-20

Publications (2)

Publication Number Publication Date
KR20210080142A KR20210080142A (en) 2021-06-30
KR102347807B1 true KR102347807B1 (en) 2022-01-06

Family

ID=76602258

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200014245A KR102347807B1 (en) 2019-12-20 2020-02-06 Voice reading method and apparatus thereof

Country Status (1)

Country Link
KR (1) KR102347807B1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020012457A (en) * 2000-08-07 2002-02-16 노경도 Personalized Information Providing Method and System Using Digital Communication Network
KR20130000036A (en) * 2011-06-22 2013-01-02 삼성에스디에스 주식회사 Smart mobile device and method for learning user preference
KR102180473B1 (en) * 2013-11-05 2020-11-19 삼성전자주식회사 Display Apparatus and Control Method Thereof
KR20150069124A (en) * 2013-12-13 2015-06-23 서원영 Vision assist device and guide system for blind people using the same
KR102044555B1 (en) 2019-04-17 2019-12-02 주식회사 네오인터랙티브 Advertisement service system capable of providing advertisement material template for auto multilink based on analyzing bigdata of user pattern and advertisement method thereof

Also Published As

Publication number Publication date
KR20210080142A (en) 2021-06-30

Similar Documents

Publication Publication Date Title
US11327556B2 (en) Information processing system, client terminal, information processing method, and recording medium
US10595072B2 (en) Systems and methods for recognizing faces using non-facial information
US10341544B2 (en) Determining a matching score between users of wearable camera systems
US20130129210A1 (en) Recommendation system based on the recognition of a face and style, and method thereof
CN104871197A (en) System and method for assisting in locating and choosing desired item in storage location
JP2015133033A (en) Recommendation device, recommendation method and program
JP6677167B2 (en) Matching system, information processing device, matching method, and program
JP2017211932A (en) Information processing device, information processing system, program and information processing method
CN107480458A (en) Fitness program commending system and its method based on stature change identification
CN105188531A (en) Hearing test provision system, and hearing test provision method
CN105159990B (en) A kind of method and apparatus of media data grading control
US8379970B2 (en) Method of providing contents using color marker and system for performing the same
KR101612782B1 (en) System and method to manage user reading
KR102347807B1 (en) Voice reading method and apparatus thereof
CN106528719A (en) Http-based dynamic instant adaptive multilingual processing method
JP7116200B2 (en) AR platform system, method and program
KR102210340B1 (en) Shopping aids method and apparatus for the vulnerable group of sight
JP2008310636A (en) Face similarity retrieval system
KR102620689B1 (en) Ai secretary apparatus and system based on door image analysis
WO2021241373A1 (en) Event information evaluation device, biological information extraction system, event information evaluation system and biological information extraction device
WO2023187866A1 (en) Product search device, product search method, and recording medium
WO2022085186A1 (en) Information display device and information display method
KR20210049349A (en) Facial recognition makeup information providing system
KR20210049372A (en) Facial recognition makeup information recommendation system
JP2020198123A (en) Information processing apparatus, genetic information generation method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant