KR20140049525A - System and method for displaying visual information based on haptic display for blind person - Google Patents

System and method for displaying visual information based on haptic display for blind person Download PDF

Info

Publication number
KR20140049525A
KR20140049525A KR1020140007966A KR20140007966A KR20140049525A KR 20140049525 A KR20140049525 A KR 20140049525A KR 1020140007966 A KR1020140007966 A KR 1020140007966A KR 20140007966 A KR20140007966 A KR 20140007966A KR 20140049525 A KR20140049525 A KR 20140049525A
Authority
KR
South Korea
Prior art keywords
image
information
character
complexity
region
Prior art date
Application number
KR1020140007966A
Other languages
Korean (ko)
Other versions
KR101396678B1 (en
Inventor
조진수
김혜영
정정일
김흥기
김이슬
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020140007966A priority Critical patent/KR101396678B1/en
Publication of KR20140049525A publication Critical patent/KR20140049525A/en
Application granted granted Critical
Publication of KR101396678B1 publication Critical patent/KR101396678B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • G09B21/004Details of particular tactile cells, e.g. electro-mechanical or mechanical layout
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • G09B21/005Details of specially-adapted software to access information, e.g. to browse through hyperlinked information
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a system and a method, both for displaying visual information based on a haptic display for a visually impaired person so that learning material including visual data along with texts is converted to tactile information to be provided. Both the system and the method of the present invention comprise the steps of: extracting an image part and a text part from general learning material, wherein the image part and text part for each piece of information mixed in the general learning material are extracted; making image information tactile by degree of complexity, wherein the extracted image part is analyzed so as to separate it into a low complex image and a high complex image to treat each image by degree of complexity, and converts each image into tactile information; and recognizing texts and converting them into Braille, wherein text information in the text part made tactile and text information in the image part made tactile are respectively recognized to be converted into Braille information. Therefore, people who are visually impaired can utilize various types of special learning material, and many resources that are required to make things tactile can be reduced. [Reference numerals] (10) Learning material input unit; (110) Image/text part extracting unit; (120) Unit for making images tactile by degree of complexity; (130) Unit for recognizing texts and converting them into Braille; (20) Tactile information display unit

Description

시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시시스템 및 방법{System and method for displaying visual information based on haptic display for blind person}TECHNICAL FIELD The present invention relates to a haptic display based visual information display system and method for a visually impaired person,

본 발명은 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시시스템 및 방법에 관한 것으로, 보다 상세하게는 멀티미디어장치를 통해 표시되는 일반 교육자료 내의 시각정보를 촉각정보로 변환하여 표시할 수 있도록 함으로써 멀티미디어장치를 통해 제공되는 교육자료를 시각장애인들이 현실적으로 수용할 수 있도록 하는 시각장애인을 위한 햅틱 디스플레이 기반의 촉각정보 변환 및 표현기술에 관한 것이다.
The present invention relates to a haptic display-based visual information display system and method for a visually impaired person, and more particularly, to a visual information display system and method for displaying visual information in a general education material displayed through a multimedia device, The present invention relates to a haptic display-based haptic information conversion and presentation technology for a visually impaired person, which enables a visually impaired person to realistically accommodate educational materials provided through the haptic display.

최근 컴퓨터, 이동통신 단말기, PDA, PMP 등의 각종 전자 및 휴대 장치의 보급으로 인해 디지털 멀티미디어정보의 접근이 일상화되고 있는데, 이들 통상적인 장치들은 신체적인 어려움을 수반하지 않은 비장애인을 기준으로 설계되기 때문에, 이들 멀티미디어 정보에 대한 장애인들의 접근이 어려웠다.Recently, access to digital multimedia information has become common due to the spread of various electronic and portable devices such as computers, mobile communication terminals, PDAs, and PMPs. These conventional devices are designed based on non-disabled persons without physical difficulties Therefore, it was difficult for disabled people to access these multimedia information.

이에 따라, 시각 장애인들에게 촉각정보를 제공할 수 있는 다양한 점자 출력 장치 또는 햅틱 기술을 적용하여 촉각정보를 제공하는 출력장치 등이 상용화되고 있다.Accordingly, a variety of braille output devices capable of providing tactile information to the visually impaired, or an output device providing tactile information by applying haptic technology, have been commercialized.

한편, 현재의 일반 교육자료에는 사진, 삽화, 만화, 도표 및 그래프 등과 같이 점자로 나타낼 수 없는 시각정보들이 상당량 포함되어 있다. 일반 교과서의 내용도 시각자료의 사용을 전제로 하는 경우가 많고, 시각정보를 추가적으로 제시함으로서 본문 내용을 보다 완벽히 이해할 수 있도록 도움을 준다. 그러나 특수 교육 자료에서는 이러한 시각정보들은 점자로 변환될 수 없어 대부분이 삭제되며, 반면에 촉각정보로 변환하는데 있어서도 인력 및 시간 등의 많은 자원이 요구되고 있어, 그 양이 극히 제한적이다.On the other hand, current general education materials include a large amount of visual information that can not be expressed as braille, such as photographs, illustrations, cartoons, diagrams, and graphs. The content of general textbooks is often based on the use of visual materials, and it helps to understand the contents of the text more fully by presenting additional visual information. However, in the special education data, such visual information can not be converted into Braille, and most of it is deleted. On the other hand, in converting to tactile information, many resources such as manpower and time are required.

또한 최근에는 교육, 취업, 이직 또는 자격증 취득 등을 위한 사교육에 대한 사람들의 관심이 높아지게 되면서, 입시 학원, 보습 학원, 자격증 학원 및 영어 학원 등의 사설 학원에 등록하고, 진학 및 자격증 취득에 대해 사설 학원에서 어학을 학습하는 학습자들이 증가하고 있는 실정이나, 시각장애인의 경우 의사 소통 및 보행의 어려움으로 인해 자격증 및 어학 등의 교육을 받고 싶어도 받기 어려운 실정이다.Recently, as people's interest in private education for education, employment, separation or certification has increased, they have been registered in private institutes such as entrance examination institute, private tutoring institute, certificate institute and English institute, There are increasing numbers of learners who study language in academies, but visually impaired people do not want to receive education such as certification and language because of communication and difficulty in walking.

따라서, 시각 장애인에게도 촉각정보를 이용하여 멀티미디어 자료를 이용한 교육 정보를 제공할 수 있게 하는 기술의 개발이 요구되는 실정이다.
Therefore, it is necessary to develop a technology that enables the blind people to provide educational information using multimedia data using tactile information.

본 발명이 해결하고자 하는 기술적 과제는, 문자와 함께 시각자료가 포함된 교육자료를 촉각정보로 변환하여 일반 교육자료와 유사한 수준의 특수 교육자료로 제공할 수 있도록 함으로써, 시각장애인으로 하여금 일반 교육자료와 유사한 수준의 특수 교육자료 활용기회를 부여할 수 있는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시시스템 및 방법을 제공하고자 하는 것이다.
The technical problem to be solved by the present invention is to convert the educational material including the visual material together with the text into the tactile information so as to provide it as a special education material similar to the general education material, The present invention provides a haptic display-based visual information display system and method for a visually impaired person who can give an opportunity to utilize special education materials similar in level to a haptic display.

상기 목적을 달성하기 위한 본 발명의 실시 형태는, 일반 교육자료 내에 혼합되어 있는 각 정보에 대한 문자영역 및 영상영역을 추출하는 일반교육 자료 내 영상영역 및 문자영역 추출단계, 추출한 영상영역을 분석하여 저 복잡도 영상과 고 복잡도 영상을 구분하고 각 영상을 복잡도에 따라 처리하여 촉각정보로 변환하는 복잡도별 영상정보 촉각화단계, 및 촉각화한 문자영역 내의 문자정보 및 영상영역 내의 문자정보를 각각 인식하여 점자정보로 변환하는 문자인식 및 점자 변환단계를 포함하는, 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법이다.According to an aspect of the present invention, there is provided a method for extracting a character region and an image region from general education data, A complexity-based image information hapticization step of separating a low-complexity image and a high-complexity image and converting each image into a tactile information by processing each image according to the complexity, and recognizing character information in the tactile- And a braille conversion step of converting the braille information into braille information.

상기 본 발명에 의한 시각정보 표시방법에서, 일반교육 자료 내 영상영역 및 문자영역 추출단계는, 일반 교육자료 내의 각 정보를 영상영역 이외의 문자영역, 영상영역 내의 문자영역, 및 영상영역으로 분류하는 것을 특징으로 한다.In the visual information display method according to the present invention, the image region and character region extraction step in the general education data classify each information in the general education data into a character region other than the image region, a character region in the image region, and an image region .

상기 본 발명에 의한 시각정보 표시방법에서, 일반교육 자료 내 영상영역 및 문자영역 추출단계는, 일반 교육자료에 대한 문자와 시각자료의 특성 분석을 위한 밝기(brightness) 영상 및 라벨(label)에 대한 기반 정보를 생성하는 일반교육 자료 입력단계, 생성된 밝기 영상 내에서 나타나는 문자와 시각자료의 특징을 기반으로 문자영역과 영상영역을 각각 분류하여 영상영역을 추출하는 영상영역 추출단계, 및 분류한 영상영역 내에서 문자영역을 검출하는 영상영역 내 문자 추출단계를 포함하여 이루어진다.In the visual information display method according to the present invention, the image region and character region extraction step in the general education data may include a step of extracting a brightness image and a label for analyzing character and visual data of the general education data, A general education data input step of generating base information, an image region extraction step of extracting the image region by classifying the character region and the image region based on the characteristics of the character and visual data appearing in the generated brightness image, And a character extracting step of detecting a character area in the image area.

상기 본 발명에 의한 시각정보 표시방법에서, 일반교육 자료 입력단계는, 스캔한 일반 교육자료의 모든 픽셀에 대해 그레이 스케일(gray scale) 처리를 수행하여 밝기 영상에 대한 기반정보를 생성하는 단계, 생성된 밝기 영상에 대한 기반정보의 이진화 및 라벨링 처리를 통해 라벨에 대한 기반정보를 생성하는 단계;를 포함하여 이루어진다.In the visual information display method according to the present invention, the general education data input step may include generating gray level information on all pixels of the scanned general education data to generate base information for a brightness image, And generating base information for the label through binarization and labeling of the base information for the brightness image.

상기 본 발명에 의한 시각정보 표시방법에서, 라벨에 대한 기반정보 생성단계는, 생성된 밝기 영상을 흑화소와 백화소만으로 재구성하는 이진화 처리단계, 이진화 처리된 밝기 영상의 인접한 흑화소 간의 연결 상태를 검사하여 서로 연결된 픽셀들을 하나의 개체로 판단하여 적어도 자소(문자를 구성하는 최소 단위) 단위 이상의 개체들로 분류되는 문자와, 백화소의 유무에 따라 하나 혹은 그 이상의 개체로 분류되는 시각자료를 구분하는 라벨링 처리단계를 포함하여 이루어진다.In the time information display method according to the present invention, the base information generation step of the label may include a binarization processing step of reconstructing the generated brightness image into only black pixels and white pixels, a connection state between adjacent black pixels of the binarized brightness image, And judges the pixels connected to each other as a single entity to distinguish at least characters classified as entities (minimum units constituting a character) and visual data classified as one or more entities according to presence or absence of white papers And a labeling processing step.

상기 본 발명에 의한 시각정보 표시방법에서, 영상영역 추출단계는, 입력된 일반교육 자료에 대한 밝기 영상 내에서 문자와 시각자료의 이웃한 픽셀 간의 밝기 값에 대한 변화량(G)을 수학식 1을 통해 산출하는 단계, 산출된 문자와 시각자료의 이웃한 픽셀 간의 밝기 값에 대한 변화량(G)만으로 변화량 차이(GD, Gradient Difference) 영상을 생성하는 단계, 생성된 GD 영상 내에서 예상되는 문자 영역의 후보군을 결정하기 위해, 시각자료에 대한 라벨을 이상치(Outlier)로 제외시킨 상태에서 문자의 라벨에 대한 평균 너비(LW average )를 수학식 2를 통해 산출하는 단계, 산출된 문자의 라벨에 대한 평균 너비(LW average )를 기준으로 GD 영상에 대해 수학식 3을 적용하여 최대 변화량 차이(MGD, Maximum Griadient Difference) 영상을 재구성하는 단계, 재구성한 MGD 영상에 대해 수학식 4를 통해 경계값(Tb)을 결정하여 이진화를 수행하고 각 행별로 연결된 백화소의 너비를 구하여 2개의 문자를 합한 너비(2 LW average )보다 작은 너비의 백화소를 제거하여 MGD 영상 내 예상되는 문자영역의 후보군을 결정하는 단계, 예상되는 문자영역의 후보군을 결정한 MGD 영상에 대해 팽창(dilate)과 침식(erode)의 모폴로지(morphology) 연산을 수행하여 MGD 영상 내에서 자소 및 띄어쓰기에 의해 산재되어 있는 문자영역을 병합하는 단계, 및 일반교육 자료의 입력단계에서 산출한 자료의 라벨들에 대해, 후보군의 문자영역 내에 포함되는지의 여부를 검사하여 일반교육 자료 내 문자와 시각자료를 각각 문자영역과 영상영역으로 분류하는 단계를 포함하여 이루어지며, In the time information display method according to the present invention, the image region extracting step may calculate the change amount (G) with respect to the brightness value between neighboring pixels of the character and the visual data in the brightness image of the inputted general education data, Generating a GD (Difference Difference) image by only a change amount (G) with respect to a brightness value between neighboring pixels of the calculated character and the visual data; Calculating an average width ( LW average ) of labels of characters with the outlier of the label for the visual data, using equation (2), determining the average value of the labels of the characters width (LW average) as the mathematical image for MGD one step, the reconstruction to reconstruct the maximum change amount difference (MGD, maximum difference Griadient) image by applying equation (3) for the reference image GD Through 4 determining the boundary value (Tb) to perform binarization and obtain a whitened bovine width associated with each row plus the two characters wide (2 LW average) than the characters to be expected within MGD image by removing the white pixel of the small width And a morphology operation of dilate and erode is performed on the MGD image in which the candidate region of the predicted character region is determined. The morphology operation of the dilation and the erode is performed in the MGD image, The merging of the character regions and the labels of the data calculated in the input step of the general education data are checked to see if they are included in the character region of the candidate group, And classifying the region into regions,

수학식 1 Equation 1

Figure pat00001
Figure pat00001

수학식 2Equation 2

Figure pat00002
Figure pat00002

수학식 3Equation 3

Figure pat00003
Figure pat00003

수학식 4Equation 4

Figure pat00004
Figure pat00004

상기 수학식 1 내지 4에서, x, y는 픽셀의 열과 행의 위치, w, h는 영상의 너비와 높이, B(x, y)는 해당 픽셀 위치의 밝기 값, G(x, y)는 이웃한 픽셀에 대한 변화량, Q 1 Q 3 는 라벨의 너비에 대한 1사분위 수와 3사분위 수, LW NL은 각각 라벨의 너비와 라벨의 총 개수, T b 는 이진화를 수행할 경계값인 것을 특징으로 한다.In Equation 1 to 4, x, y are the location of the rows and columns of pixels, w, h are the width and height, (x, y) B of the image is the brightness value of the corresponding pixel locations, G (x, y) is Q 1 and Q 3 are the first quartile and third quartile for the width of the label, LW and NL are the label width and the total number of labels, respectively, and T b is the boundary for binarization Value.

상기 본 발명에 의한 시각정보 표시방법에서, 문자영역과 영상영역 분류단계는 일반교육 자료의 입력단계에서 산출한 자료의 라벨이 후보군의 문자영역 내에 포함되어 있으면 문자에 대한 라벨로 결정하고, 후보군에 포함되어 있지 않으면 영상영역에 대한 라벨로 결정하여, 일반교육 자료 내 문자와 시각자료를 각각 문자영역과 영상영역으로 분류하는 것을 특징으로 한다.In the time information display method according to the present invention, when the label of the data calculated in the input step of the general education data is included in the character area of the candidate group, the text area and the image area classification step are determined as labels for the characters, If not, it is determined as a label for the image area, and character and visual data in the general education data are classified into a character area and an image area, respectively.

상기 본 발명에 의한 시각정보 표시방법에서, 영상영역 내 문자 추출단계는, 영상영역 추출단계에서 결정한 영상영역 내에 문자의 유/무를 판단하여, 문자가 있을 시에는 이를 문자영역으로 추출하되, 영상영역 추출단계와 동일한 환경(문자의 라벨에 대한 평균너비, 모폴로지 연산의 필터) 하에서 그 탐색 범위를 영상영역만으로 제한하여 수행하며, 그 결과 영상영역 내 문자영역을 추출하는 것을 특징으로 한다.In the time information display method according to the present invention, the step of extracting characters in the video region may include determining whether the characters exist in the video region determined in the video region extracting step, The search range is limited to only the image region under the same environment (the average width of the label of characters, the filter of the morphology operation), and the character region in the image region is extracted as a result.

상기 본 발명에 의한 시각정보 표시방법에서, 복잡도별 영상정보 촉각화단계는, 산출된 영상영역의 밝기에 대한 누적 히스토그램을 분석하여 복잡도에 따라 영상을 저 복잡도 영상과 고 복잡도 영상으로 분류하는 영상 분류단계, 분류된 고 복잡도 영상이 주요 객체를 포함하는지의 여부를 판단하여 주요객체를 추출하는 고 복잡도 영상의 중심객체 유무 판별 및 추출단계, 및 시각장애인의 인지를 돕기 위해 영상의 복잡도를 낮춰 단순화하는 고 복잡도 영상의 잡음제거 및 단순화단계를 포함하여 이루어진다. In the temporal information display method according to the present invention, the tactile information of the image information according to the complexity is obtained by analyzing a cumulative histogram of the brightness of the calculated image region, and classifying the image into a low-complexity image and a high- A step of discriminating and extracting a center object of a high-complexity image that determines whether or not the classified high-complexity image includes a main object, extracting a main object, and simplifying and reducing the complexity of the image to help the visually impaired And noise cancellation and simplification of high complexity images.

상기 본 발명에 의한 시각정보 표시방법에서, 영상 분류단계는, 영상에 대한 밝기의 평균누적값을 조건적 연산식 1을 통해 산출하는 단계, 산출된 밝기의 평균누적값을 조건적 연산식 2를 통해 각각의 밝기 누적값에서 차분하여 저 복잡도 영상 내 밝기의 누적값이 연속된 구간에서 나타나는 현상을 제거하는 단계를 포함하여 이루어지며, 상기 조건적 연산식 1은, for(i=0, cnt=0, sum=0; i<256; i++){if((Q 1 -1.5(Q 3 -Q 1 ) <= NH i <= (Q 3 +1.5(Q 3 -Q 1 )) then cnt++, sum+= NH i ;} NH average = sum / cnt;이며, 상기 조건적 연산식 2는, for(i=0; i<256; i++) NH i -= NH average ;이고, 각 연산식에서 NH i 는 해당 밝기에 대한 누적값, NH average 는 영상에 대한 밝기의 평균 누적값, Q 1 Q 3 는 각각 밝기의 누적 값에 대한 1사분위수와 3사분위수인 것을 특징으로 한다.In the time information display method according to the present invention, the image classification step may include calculating an average cumulative value of brightness for an image through a conditional expression 1, calculating an average cumulative value of the calculated brightness by a conditional expression 2 (I = 0, cnt = 1, 2, 3, 4, 5, 6, 7, 8, 0, sum = 0; i <256; i ++) {if ((Q 1 -1.5 (Q 3 - Q 1) <= NH i <= (Q 3 +1.5 (Q 3 - Q 1)) then cnt ++, sum + = NH i;} NH average = sum / cnt; and, wherein the conditional expression 2, for (i = 0; i <256 ; i ++) NH i - = NH average; and, each calculation formula NH i is the accumulation value for the brightness, NH average is an average accumulated value of the brightness of an image, Q 1 and Q 3 are of the cumulative value of the brightness of each 1 quartile and 3 quartiles.

상기 본 발명에 의한 시각정보 표시방법에서, 영상 분류단계는, 밝기의 평균누적값을 제거하기 이전과 제거한 후에 영상의 밝기 누적값의 잔여 구간에 대한 변화율(D NH )을 수학식 5를 통해 검사하여 그 검사 결과에 따라 저 복잡도 영상과 고 복잡도 영상을 분류하는 단계를 더 포함하여 이루어지며, In the time information display method according to the present invention, the image segmentation step may include a step of dividing the change rate ( D NH ) with respect to the remaining interval of the brightness cumulative value of the image before and after eliminating the average accumulated value of brightness, And classifying the low-complexity image and the high-complexity image according to the inspection result,

수학식 5Equation 5

Figure pat00005
Figure pat00005

상기 수학식 5에서, 고 복잡도 및 저 복잡도 영상을 분류하는 변화율(D NH )에 대한 임계값(D th )은 도형, 그래프, 삽화, 지도 및 사진을 포함하는 일반교육 자료 내에서 빈번하게 나타나는 영상들에 대해 도출되는 최적 실험치, cnt before cnt after 는 누적 값을 제거하기 이전과 이후의 밝기의 잔여구간, I 는 영상영역인 것을 특징으로 한다. In Equation (5), the threshold value ( D th ) for the change rate ( D NH ) for classifying the high-complexity and low-complexity images is a value that is frequently displayed in the general education data including figures, graphs, illustrations, Cnt before and cnt after are the residuals of the brightness before and after removing the cumulative value, and I is the image area.

상기 본 발명에 의한 시각정보 표시방법에서, 고 복잡도 영상의 중심 객체 유무 판별 및 추출단계는, 고 복잡도 영상을 구성하는 픽셀의 색상 유사도를 측정하고, 양자화(quantization)를 통해 유사한 색상들을 대표색상으로 변환하는 단계, 대표색상으로 변환된 영상 내에서 중심객체 영역에 해당되는 색상의 분포도를 측정하여 중심객체의 유무를 판별하는 단계, 및 판별 결과 중심객체가 존재할 경우 그 중심객체에 대한 윤곽선을 추출하는 단계를 포함하여 이루어진다.In the method of displaying time information according to the present invention, the step of discriminating and extracting the center object of the high-complexity image measures the color similarity of the pixels constituting the high-complexity image and quantizes similar colors as representative colors A step of determining the presence or absence of a center object by measuring a distribution of colors corresponding to the center object area in the image converted into the representative color, and a step of extracting a contour line of the center object when the center object exists / RTI &gt;

상기 본 발명에 의한 시각정보 표시방법에서, 유사한 색상들을 대표색상으로 변환하는 단계는, PGF(Peer Group Filtering)기법을 이용하여 양자화 레벨을 결정하는 단계, 결정된 레벨에 따른 양자화를 통해 유사한 색상들을 대표색상으로 변환시켜 고 복잡도 영상의 색상에 대한 복잡도를 감소시키는 단계를 포함하여 이루어진다.In the method of displaying time information according to the present invention, the step of converting similar colors to representative colors includes the steps of: determining a quantization level using a PGF (Peer Group Filtering) technique; And reducing the complexity with respect to the color of the high-complexity image.

상기 본 발명에 의한 시각정보 표시방법에서, 중심객체의 유무를 판별하는 단계는, 수학식 6에 정의한 영상의 중심영역에서 빈도수가 가장 많은 색상을 중심객체의 대표색상이라 가정한 상태에서 이에 대한 세로 방향 및 가로 방향에 대한 분산을 계산하여 영상 내 분포도를 산출하는 단계, 산출된 분포도에 따라 중심객체의 유무를 판별하는 단계를 포함하여 이루어지며, In the method of displaying time information according to the present invention, the step of discriminating the presence of a center object may be performed by assuming that a color having the highest frequency is centered on a central region of an image defined in Equation (6) Calculating a distribution in an image by calculating a variance with respect to a direction and a horizontal direction, and determining the presence or absence of a center object according to the calculated distribution map,

수학식 6Equation 6

Figure pat00006
Figure pat00006

상기 수학식 6에서, w, h는 각각 고 복잡도 영상의 너비와 높이, AreaX obj AreaY obj 는 각각 중심영역의 x축과 y축의 범위인 것을 특징으로 한다.In Equation (6), w and h are respectively the width and height of the high-complexity image, and AreaX obj and AreaY obj are the ranges of the x and y axes of the central region, respectively.

상기 본 발명에 의한 시각정보 표시방법에서, 중심객체 유무 판별단계는, 조건적 연산식 3을 통해 중심객체를 대표하는 색상이 수평적으로 넓게 분포되어 있거나 분포도가 낮은 경우를 중심객체가 없는 영상으로 판단하고, 그 밖의 경우에는 중심객체가 있는 것으로 판단하는 것을 특징으로 하며,In the method of displaying time information according to the present invention, in the step of determining whether a central object is present, a case in which colors representative of a central object are horizontally widely distributed or a distribution is low through a conditional expression formula 3, And in the other cases, it is determined that there is a central object,

조건적 연산식 3 Conditional expression 3

s max =max(s verticality , s horizontality ) s max = max ( s verticality , s horizontality )

if(((s max == s horizontality )&&(s max >T 1 ))||(s max <T 2 ))if (( s max == s horizontality ) && ( s max > T 1 )) ( s max < T 2 )

then I is a non-object imagethen I is a non-object image

otherwise I is an object imageotherwise I is an object image

(T 1 = 0.06, T 2 = 0.01)( T 1 = 0.06, T 2 = 0.01)

상기 조건적 연산식 3에서, s verticality s horizontality 는 고 복잡도 영상(I) 내 중심객체의 대표색상에 대한 최대 수직 및 최대 수평 분산, s max s verticality s horizontality 중 큰 값을 갖는 최대 분산, 최대 분산과 비교하는 임계값 T 1 T 2 는 상수로서 다양한 고 복잡도 영상에 대해 반복적인 실험을 통해 산출되는 최적 실험치인 것을 특징으로 한다.In the conditional expression 3, s verticality And s horizontality is the maximum vertical and maximum horizontal variance, s max for the representative color of the central object in the high complexity image ( I ) s verticality and s horizontality, among which the maximum variance and the maximum variance, T 1 and T 2, which are constants, are optimal test values calculated through repeated experiments on various high-complexity images.

상기 본 발명에 의한 시각정보 표시방법에서, 중심객체의 윤곽선 추출단계는, 양자화된 고 복잡도 영상에서 수학식 7을 통해 정의된 영상의 네 모서리 구간에 대한 배경영역의 대표색상들을 추출하고 그 추출된 색상들을 영상 전체에서 제거하여 영상 내에 중심객체에 대한 정보만을 남기는 단계, 고 복잡도 영상에 대해 이진화 및 라벨링을 수행하여 중심영역 이외에서 나타나는 색상정보들을 제거함과 아울러 중심객체의 대표색상에 대한 라벨들을 생성하는 단계, 및 생성된 각각의 라벨들에 대한 위치가 중심영역에 포함되는지를 검사하여 잡음을 제거하고 고 복잡도 영상 내에 남겨진 중심 객체의 윤곽선을 검출하여 촉각정보로 변환할 영상의 중심객체를 추출하는 단계를 포함하여 이루어지며, In the method of displaying time information according to the present invention, the extraction of the contour of the center object extracts the representative colors of the background region for the four corners of the image defined by Equation (7) in the quantized high- Removing the colors from the entire image to leave only the information about the center object in the image; performing binarization and labeling on the high-complexity image to remove color information appearing outside the center area, and generating labels for the representative color of the center object; And extracting the center object of the image to be converted into the tactile information by detecting the contour of the center object left in the high-complexity image by checking whether the position for each of the generated labels is included in the center area, Comprising the steps of:

수학식 7Equation 7

Figure pat00007
Figure pat00007

상기 수학식 7에서, AreaX n AreaY n 은 각각 영상의 네 모서리에 대한 배경영역, wh는 고 복잡도 영상의 너비와 높이인 것을 특징으로 한다.In Equation 7, AreaX AreaY n and n is the background area, w and h for each of the four corners of the image is characterized in that the width and height of the high complexity image.

상기 본 발명에 의한 시각정보 표시방법에서, 고 복잡도 영상의 잡음제거 및 단순화단계는, 고 복잡도 영상에 대해 이진화 및 라벨링 처리를 수행하여 영상을 구성하는 윤곽선들에 대한 라벨의 크기를 산출하는 단계, 영상의 해상도와 햅틱디스플레이의 해상도를 비교하여 너비와 높이의 비율을 산출한 후 각각의 라벨을 수학식 8을 통해 햅틱디스플레이의 해상도에 맞춰 축소하였을 경우, 픽셀의 크기가 햅틱디스플레이의 1셀 이하로 축소되는 라벨이 가진 영상정보를 중요도가 낮은 잡음으로 분류하여 제거하는 단계를 포함하여 이루어지며, In the method of displaying time information according to the present invention, the step of removing and simplifying noise of a high-complexity image includes the steps of calculating a size of a label for contours constituting an image by performing binarization and labeling on a high-complexity image, When the ratio of width to height is calculated by comparing the resolution of the image and the resolution of the haptic display, and the respective labels are reduced according to the resolution of the haptic display through Equation (8), if the size of the pixels is less than one cell of the haptic display Classifying the image information of the reduced label into low-importance noise and removing the image information,

수학식 8Equation 8

Figure pat00008
Figure pat00008

상기 수학식 8에서, H width H height 는 햅틱디스플레이의 너비와 높이, I width I height 는 영상의 너비 및 높이, T w T h 는 햅틱디스플레이로 축소하기 위한 영상의 너비 및 높이에 대한 축소 비율, LW, LHn은 해당 라벨의 너비와 높이 및 총 개수, S는 라벨을 햅틱디스플레이 해상도로 변환하였을 때의 픽셀의 크기인 것을 특징으로 한다.In Equation (8), H width and H height are the width and height of the haptic display, I width and I height are the width and height of the image, and T w and T h are the width and height of the image LW , LH and n are the width, height and total number of the label, and S is the size of the pixel when the label is converted into the haptic display resolution.

상기 본 발명에 의한 시각정보 표시방법에서, 고 복잡도 영상의 잡음제거 및 단순화단계는, 검출된 윤곽선들의 복잡도를 낮추기 위해 윤곽선들의 코너점을 검출하고 그 코너점을 이용하여 연결선을 생성하는 단계, 연결선들 간의 교차각을 검사하여 그 교차각이 임계각 이상일 경우 그 연결선이 공유하는 코너점을 제거하고 남은 두 점으로 새로운 연결선을 생성하여 영상의 윤곽선에 대한 복잡도를 낮추는 단계를 더 포함하여 이루어지며, 상기 임계각은 윤곽선의 복잡도가 높은 다양한 영상에 대해 실험을 수행하여 측정된 최적 실험치인 것을 특징으로 한다.In the method of displaying time information according to the present invention, noise removal and simplification of a high-complexity image may include detecting corner points of contour lines to reduce complexity of the detected contour lines and creating connection lines using the corner points, And a step of removing a corner point shared by the connecting line when the intersecting angle is greater than the critical angle and lowering the complexity of the contour of the image by creating a new connecting line at the remaining two points, The critical angle is an optimal test value measured by performing an experiment on various images having high contour complexity.

상기 본 발명에 의한 시각정보 표시방법에서, 문자인식 및 점자 변환단계는, 추출한 문자영역에 대해 광학문자인식(OCR, Optional Character Recognition)을 적용하여 컴퓨터가 인식할 수 있는 정보로 변환한 후 이를 시각장애인이 인지할 수 있는 점자형태로 변환하는 것을 특징으로 한다.In the time information display method according to the present invention, the character recognition and the braille conversion step may be performed by applying optical character recognition (OCR) to the extracted character area, converting the information into computer-recognizable information, And converting it into a braille form recognizable to a person with a disability.

상기 본 발명에 의한 시각정보 표시방법에서, 문자인식 및 점자 변환단계는, 일반교육 자료 내 시각자료를 제외한 문단이나 단락의 문자영역에 광학문자인식을 수행하여 문자영역에 대한 영상정보로부터 컴퓨터가 인식할 수 있는 문자정보를 생성하는 영상영역 외의 문자 인식단계, 일반교육 자료 내 시각자료 내에 포함되는 문자들에 대해 광학문자인식을 수행하여 영상영역 내의 문자영역으로부터 컴퓨터가 인식할 수 있는 문자정보를 생성하는 영상영역 내의 문자 인식단계, 및 생성된 영상영역 외의 문자정보 및 영상영역 내의 문자정보를 점자 표현 알고리즘을 통해 시각장애인들이 인지할 수 있는 점자정보로 점역하여 표시하는 인식된 문자의 점자 표현단계를 포함하여 이루어진다.In the visual information display method according to the present invention, the character recognition and the braille conversion step may be realized by performing optical character recognition on a text area of a paragraph or a paragraph excluding visual data in general education materials, A character recognizing step of generating character information that can be performed by the user, performing optical character recognition on the characters included in the visual material in the general education data, and generating computer-recognizable character information from the character area in the image area And character recognition in the image area outside the generated image area and character information in the image area is performed in the braille expression step of recognizing the character to be displayed as braille information which can be recognized by the blind people through the braille expression algorithm .

상기 본 발명에 의한 시각정보 표시방법에서, 인식된 문자의 점자 표현단계는, 영상영역 외의 문자정보로부터 점역된 점자정보를 햅틱디스플레이에 표현하기 위해, 점자의 길이를 계산하여 햅틱디스플레이 해상도의 너비에 맞추어 줄 바꿈을 수행하는 단계를 포함하여 이루어질 수 있다.In the braille display step of the recognized character in the time information display method according to the present invention, the braille length is calculated to represent the braille information in the haptic display from character information other than the video area, And performing line wrapping in accordance with the result of the comparison.

상기 본 발명에 의한 시각정보 표시방법에서, 인식된 문자의 점자 표현단계는, 영상영역 내의 문자정보로부터 점역된 점자정보를 영상영역 내에 배치한 후 주변의 영상정보와 중첩되는지를 검사하여, 중첩될 경우에는 그 점자정보에 대응하는 인덱스를 영상영역 내에 배치하고 영상영역의 외부에 해당 인덱스와 함께 점자정보를 출력하는 단계를 포함하여 이루어질 수 있다.In the method of displaying time information according to the present invention, the step of expressing the braille of the recognized character is performed by inspecting whether or not the braille information, which is obtained from the character information in the image area, is superimposed on the surrounding image information after the braille information is arranged in the image area, And arranging an index corresponding to the braille information in the video area and outputting braille information with the index outside the video area.

상기 본 발명에 의한 시각정보 표시방법에서, 인식된 문자의 점자 표현단계는, 한국어점자규정’ 및 ‘영어점자규정’ 을 따라 점역이 이루어지며, 연결어, 약어, 기본적인 산술 연산기호, 및 일반기호에 대한 점역을 포함하는 것을 특징으로 한다.
In the visual information display method according to the present invention, the braille expression step of the recognized character is performed in accordance with the Korean Braille character rule and the English Braille character rule, and is composed of concatenation words, acronyms, basic arithmetic operation symbols, And &lt; / RTI &gt;

본 발명에 의하면, 문자와 함께 시각자료가 포함된 교육자료를 촉각정보로 변환하여 일반 교육자료와 유사한 수준의 특수 교육자료를 제공할 수 있게 되므로, 시각장애인들에게 다양한 형태의 특수 교육자료 활용기회를 부여할 수 있는 이점이 있으며, 아울러 기존의 촉도를 생성하는데 요구되는 많은 자원을 절감함과 함께 시각장애인에게도 많은 자료를 손쉽게 생성하여 제공할 수 있게 되는 이점이 있다.
According to the present invention, it becomes possible to provide special education materials at a level similar to general education materials by converting education materials including visual characters into text information into tactile information. Therefore, it is possible to provide various kinds of special education materials It is advantageous in that a large amount of resources required for generating the existing touch can be saved and a large amount of data can be easily generated and provided to the visually impaired.

도 1은 본 발명에 따른 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시시스템의 전체적인 구성을 개략적으로 예시한 블록도이다.
도 2는 본 발명에 따른 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법의 전체적인 처리과정을 예시한 개략적인 동작 흐름도이다.
도 3은 도 2의 영상영역 추출단계에 대한 상세 흐름도이다.
도 4a와 도 4b는 도 2의 고 복잡도 영상에 대한 중심객체 유무 판별 및 추출단계 및 잡음 제거 및 단순화단계에 대한 상세 흐름도이다.
도 5의 (a) 내지 (d)는 일반 교육 자료 내 영상영역 및 문자영역을 분리하는 동작을 설명하기 위하여 예시한 참고도로서, (a)는 일반 교육자료의 한 예시도이고, (b)는 (a)에 대한 밝기 영상이며, (c)는 (b)의 영상 내에서 특정 행의 픽셀 정보를 추출하여 그 행의 각 열에 대한 픽셀의 밝기 값을 히스토그램으로 변환한 결과이며, (d)는 (c)의 밝기 값에 대한 변화량의 차이를 히스토그램으로 변환한 결과이다.
도 6의 (a)와 (b)는 저 복잡도 영상과 고 복잡도 영상의 밝기에 대한 누적 히스토그램을 각각 예시하는 참고도이다.
도 7 내지 도 9는 본 발명에 의한 일반 교육자료 내 영상영역 및 문자 추출단계를 설명하기 위하여 예시한 참고도이다.
도 10은 본 발명에 의한 복잡도별 영상의 촉각화 단계를 설명하기 위하여 예시한 참고도이다.
도 11은 본 발명에 의한 고 복잡도 영상의 잡음 제거 및 단순화 단계를 설명하기 위하여 예시한 참고도이다.
도 12는 본 발명에 의한 문자 인식 및 추출단계에서 영상영역을 제외한 문자 인식 단계를 설명하기 위하여 예시한 참고도이다.
도 13은 본 발명에 의한 문자 인식 및 추출단계에서 영상영역 내 문자 인식 및 인덱싱 단계를 설명하기 위하여 예시한 참고도이다.
도 14는 본 발명을 통해 일반 교육자료를 촉각정보로 변환한 최종 결과를 예시한 참고도이다.
1 is a block diagram schematically illustrating an overall configuration of a haptic display based visual information display system for a visually impaired person according to the present invention.
FIG. 2 is a schematic operation flowchart illustrating an overall processing procedure of a haptic display based visual information display method for a visually impaired person according to the present invention.
3 is a detailed flowchart of the image region extracting step of FIG.
FIGS. 4A and 4B are detailed flowcharts of the step of discriminating and extracting the center object and the noise elimination and simplification steps of the high-complexity image of FIG.
FIGS. 5A to 5D are diagrams for explaining an operation of separating an image region and a character region in general education data. FIG. 5A is an example of general education data, FIG. (C) is a result of extracting pixel information of a specific row in the image of (b), converting the brightness value of the pixel for each column of the row into a histogram, and (d) Is the result of converting the difference in the amount of change with respect to the brightness value of (c) into a histogram.
6 (a) and 6 (b) are reference views illustrating cumulative histograms of brightness of a low-complexity image and a high-complexity image, respectively.
FIGS. 7 to 9 are reference views illustrating an image region and character extraction step in general education data according to the present invention.
FIG. 10 is a reference diagram for explaining the tactualization step of an image according to the present invention.
FIG. 11 is a reference diagram for explaining a noise reduction and simplification step of a high-complexity image according to the present invention.
FIG. 12 is a reference diagram for explaining a character recognition step excluding an image area in the character recognition and extraction step according to the present invention.
13 is a reference diagram illustrating character recognition and indexing steps in an image region in the character recognition and extraction step according to the present invention.
14 is a reference diagram illustrating the final result of transforming general education data into tactile information through the present invention.

이하, 본 발명의 실시 형태에 의한 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시시스템의 구성 및 그 방법에 대한 동작 흐름을 첨부 도면을 참조하여 상세히 설명한다.Hereinafter, a configuration of a haptic display based visual information display system for a visually impaired person according to an embodiment of the present invention and an operation flow of the method will be described in detail with reference to the accompanying drawings.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되지 아니하며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.It is to be understood that the words or words used in the present specification and claims are not to be construed in a conventional or dictionary sense and that the inventor can properly define the concept of a term in order to describe its invention in the best possible way And should be construed in light of the meanings and concepts consistent with the technical idea of the present invention. Therefore, it should be understood that the embodiments described herein and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and that various equivalents and modifications may be substituted for them at the time of the present application shall.

도 1은 본 발명에 따른 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시시스템의 전체적인 구성을 개략적으로 예시한 블록도로서, 본 발명의 촉각정보 변환시스템(100)은, 일반 교육자료 내에 혼합되어 있는 각 정보에 대한 문자영역 및 영상영역을 추출하는 영상/문자영역 추출부(110), 추출한 영상영역을 분석하여 저 복잡도 영상과 고 복잡도 영상을 구분하여 촉각정보로 변환하는 복잡도별 영상 촉각화부(120), 및 추출한 문자영역 내의 문자정보 및 상기 영상영역 내의 문자정보를 분석하여, 시각장애인이 인지할 수 있는 점자정보로 변환하는 문자인식 및 점역부(130)를 포함하여 구성되며, 그 외에도 자료 입력을 위한 교육자료 입력부(10), 점역된 점자를 표현하는 촉각정보 표시부(20)를 더 포함하여 구성될 수 있다.1 is a block diagram schematically illustrating the overall configuration of a haptic display-based visual information display system for the visually impaired according to the present invention, the tactile information conversion system 100 of the present invention, each mixed in the general education material Image / text area extraction unit 110 for extracting a text area and image area for information, and a complex image tactile unit 120 for converting a low complexity image and a high complexity image into tactile information by analyzing the extracted image area. And character recognition in the extracted character area and the character information in the image area, and the character recognition and the point area unit 130 for converting into braille information that can be recognized by the visually impaired. Education data input unit 10 for, may be configured to further include a tactile information display unit 20 for expressing the braille.

도 2는 본 발명에 따른 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법의 전체적인 처리과정을 예시한 개략적인 동작 흐름도이며, 도 3 및 도 4a와 도 4b는 도 2의 영상영역 추출단계(a2) 및 고 복잡도 영상에 대한 중심객체 유무 판별 및 추출단계(b2)와 잡음제거 및 단순화단계(b3)에 대한 각각의 상세 흐름도이다.FIG. 2 is a schematic flowchart illustrating an entire process of a haptic display-based visual information display method for a visually impaired person according to the present invention. FIGS. 3 and 4A and 4B illustrate an image region extracting step a2 of FIG. And a step (b2) for discriminating and extracting a center object for a high-complexity image and a noise elimination and simplification step (b3), respectively.

본 발명의 방법은 도 2에 예시된 바와 같이, 크게 일반교육 자료 내 영상영역 및 문자영역 추출단계(a100), 복잡도별 영상정보 촉각화단계(b100), 및 문자인식 및 점자 변환단계(c100)로 이루어진다.As illustrated in FIG. 2, the method of the present invention includes a step of extracting an image region and a character region (a100) in a general education data, a step of haptening an image information by a complexity (b100), and a step of character recognition and braille transformation (c100) .

일반교육 자료 내 영상영역 및 문자영역 추출단계(a100)에서는 일반 교육자료 내에 혼합되어 있는 각 정보에 대한 문자영역 및 영상영역을 각각 추출하는 단계로서, 일반 교육자료 내의 각 정보를 영상영역 이외의 문자영역, 영상영역 내의 문자영역, 및 영상영역으로 분류하며, 일반교육 자료 입력단계(a1), 영상영역 추출단계(a2), 및 영상영역 내 문자 추출단계(a3)로 이루어진다.The step of extracting the image region and the character region in the general education data extracting step (a100) is a step of extracting the character region and the image region for each information mixed in the general education data, (A1), an image region extraction step (a2), and a character region extraction step (a3) in the image region.

일반교육 자료 입력단계(a1)에서는 일반 교육자료에 대한 문자와 시각자료의 특성 분석을 위한 밝기(brightness) 영상 및 라벨(label)에 대한 기반 정보를 생성한다. 밝기 영상에 대한 기반정보는 스캔한 일반 교육자료의 모든 픽셀에 대해 그레이 스케일(gray scale) 처리를 수행하여 생성하고, 라벨에 대한 기반정보는 상기 생성된 밝기 영상에 대한 기반정보의 이진화 및 라벨링 처리를 통해 생성한다. 상기 라벨에 대한 기반정보 생성단계는 이진화 및 라벨링 처리를 통해 이루어지며, 이진화 처리를 통해 상기 생성된 밝기 영상을 흑화소(픽셀 값:0)와 백화소(픽셀 값:255)만으로 재구성하고, 라벨링 처리를 통해 상기 이진화 처리된 밝기 영상의 인접한 흑화소 간의 연결 상태를 검사하고 서로 연결된 픽셀들을 하나의 개체로 판단하여, 적어도 자소(문자를 구성하는 최소 단위) 단위 이상의 개체들로 분류되는 문자와, 백화소의 유무에 따라 하나 혹은 그 이상의 개체로 분류되는 시각자료를 구분한다. 이 단계에서 생성된 밝기 영상과 라벨은 영상영역 추출 과정과 영상 내 문자 추출 과정의 입력데이터로 활용된다.In the general education data input step (a1), brightness information and label information are generated for character and visual characteristics of the general education data. The base information for the brightness image is generated by performing gray scale processing on all pixels of the scanned general education data, and the base information for the label is generated by binarizing and labeling the base information for the generated brightness image Lt; / RTI &gt; The base information generation step for the label is performed through binarization and labeling processing. The generated brightness image is reconstructed using only black pixels (pixel value: 0) and white pixels (pixel value: 255) through binarization processing, A process of checking the connection state between adjacent black pixels of the binarized brightness image through the process, determining the pixels connected to each other as one entity, and comparing the characters classified into entities of at least a character (minimum unit) It distinguishes visual data classified as one or more objects according to the presence or absence of white papers. The brightness image and label generated at this stage are used as input data for the image region extraction process and the image character extraction process.

영상영역 추출단계(a2)에서는 상기 생성된 밝기 영상 내에서 나타나는 문자와 시각자료의 특징을 기반으로 문자영역과 영상영역을 각각 분류하여 영상영역을 추출한다. 이 영상영역 추출단계(a2)는 도 3의 동작 흐름도에 예시된 바와 같이, 밝기 값에 대한 변화량(G) 산출단계(a21), 변화량 차이(GD) 영상 생성단계(a22), 문자의 라벨에 대한 평균 너비(LW average ) 산출단계(a23), 최대 변화량 차이(MGD) 영상 재구성단계(a24), MGD 영상 내 예상되는 문자영역의 후보군 결정단계(a25), MGD 영상 내 산재된 문자영역 병합단계(a26), 및 문자영역과 영상영역 분류단계(a27)를 포함하여 이루어진다. In the image region extraction step (a2), the image region is extracted by classifying the character region and the image region on the basis of the characteristics of the characters and the visual data appearing in the generated brightness image. As shown in the operation flow chart of FIG. 3, the image region extracting step a2 is a step of calculating a change amount G for a brightness value a21, a difference amount difference (GD) image creating step a22, for the average width (LW average) calculation step (a23), the maximum change amount difference (MGD) image reconstruction step (a24), candidate determining step (a25), the merge phase in scattered character areas MGD image within estimated character region MGD image (a26), and a character region and a video region classification step (a27).

밝기 값에 대한 변화량(G) 산출단계(a21)에서는 입력된 일반교육 자료에 대한 밝기 영상 내에서 문자와 시각자료의 이웃한 픽셀 간의 밝기 값에 대한 변화량(G, Gradient)을 다음의 수학식 1을 통해 산출한다.In the step of calculating the amount of change (G) with respect to the brightness value, a change amount (G, Gradient) with respect to the brightness value between neighboring pixels of the character and the visual data in the brightness image of the inputted general education data is calculated by the following equation Lt; / RTI &gt;

Figure pat00009
Figure pat00009

상기 수학식 1에서, x, y는 픽셀의 열과 행의 위치, w, h는 영상의 너비와 높이, B(x, y)는 해당 픽셀 위치의 밝기 값, G(x, y)는 이웃한 픽셀에 대한 변화량을 나타낸다. In Equation 1, x, y are the location of the rows and columns of pixels, w, h are the width and height, B (x, y) of the image brightness values, G (x, y) of the pixel location is adjacent Represents the amount of change for the pixel.

변화량 차이(GD) 영상 생성단계(a22)에서는 상기 산출된 문자와 시각자료의 이웃한 픽셀 간의 밝기 값에 대한 변화량(G)만으로 변화량 차이(GD, Gradient Difference) 영상을 생성한다.In the GD image generation step (a22), a GD (Gradient Difference) image is generated only by the amount of change (G) with respect to the brightness value between neighboring pixels of the calculated character and the visual data.

문자의 라벨에 대한 평균 너비(LW average ) 산출단계(a23)에서는 상기 생성된 GD 영상 내에서 예상되는 문자 영역의 후보군을 결정하기 위해, 상기 생성한 시각자료에 대한 라벨을 이상치(Outlier)로 제외시킨 상태에서, 문자의 라벨에 대한 평균 너비(LW average )를 다음의 수학식 2를 통해 산출한다.In the average width ( LW average ) calculation step (a23) of the label of the character, the label of the generated visual data is determined as an outlier in order to determine the candidate group of the character region expected in the generated GD image The average width ( LW average ) with respect to the label of the character is calculated by the following equation (2).

Figure pat00010
Figure pat00010

상기 수학식 2에서, Q 1 Q 3 는 라벨의 너비에 대한 1사분위 수와 3사분위 수, LW NL은 각각 라벨의 너비와 라벨의 총 개수를 나타낸다.In Equation (2), Q 1 and Q 3 denote the first quartile and the third quartile for the width of the label, and LW and NL denote the width of the label and the total number of labels, respectively.

최대 변화량 차이(MGD) 영상 재구성단계(a24)에서는 상기 산출된 문자의 라벨에 대한 평균 너비(LW average )를 기준으로 GD 영상에 대해 다음의 수학식 3을 적용하여 최대 변화량 차이(MGD, Maximum Griadient Difference) 영상을 재구성한다.In the maximum change amount difference (MGD) image reconstruction step (a24), the following equation (3) is applied to the GD image on the basis of the average width ( LW average ) for the labels of the calculated characters, Difference) reconstruct the image.

Figure pat00011
Figure pat00011

상기 수학식 3의 변수는 상기 수학식 1의 것과 동일하다. The variables in the above Equation (3) are the same as those in Equation (1).

MGD 영상 내 예상되는 문자영역의 후보군 결정단계(a25)에서는 상기 재구성한 MGD 영상에 대해 다음의 수학식 4를 통해 경계값(Tb)을 결정하여 이진화를 수행하고, 각 행별로 연결된 백화소의 너비를 구하여 2개의 문자를 합한 너비(2 LW average )보다 작은 너비의 백화소를 제거하여 MGD 영상 내 예상되는 문자영역의 후보군을 결정한다.In the determination step (a25) of the candidate region of the character region expected in the MGD image, the boundary value (Tb) is determined by the following Equation (4) for the reconstructed MGD image and binarization is performed. ( 2 LW average ), and determines the candidate region of the expected character region in the MGD image.

Figure pat00012
Figure pat00012

상기 수학식 4의 변수는 수학식 1 및 수학식 2의 변수들과 동일하며, T b 는 이진화를 수행할 경계값을 나타낸다.The variables of Equation (4) are the same as those of Equations (1) and (2), and T b represents a boundary value for performing binarization.

MGD 영상 내 산재된 문자영역 병합단계(a26)에서는 상기 예상되는 문자영역의 후보군을 결정한 MGD 영상에 대해 팽창(dilate)과 침식(erode)의 모폴로지(morphology) 연산을 수행하여 상기 MGD 영상 내에서 자소 및 띄어쓰기에 의해 산재되어 있는 문자영역을 병합한다.
In the step (a26) of merging the character regions scattered in the MGD image, a morphology operation of dilate and erode is performed on the MGD image in which the candidate region of the predicted character region is determined, And character regions scattered by the spacing are merged.

문자영역과 영상영역 분류단계(a27)에서는 상기 일반교육 자료의 입력단계에서 산출한 자료의 라벨들에 대해, 상기 후보군의 문자영역 내에 포함되는지의 여부를 검사하여, 일반교육 자료 내 문자와 시각자료를 각각 문자영역과 영상영역으로 분류한다. 이 분류단계에서는 일반교육 자료의 입력단계에서 산출한 자료의 라벨이 상기 후보군의 문자영역 내에 포함되어 있으면 문자에 대한 라벨로 결정하고, 후보군에 포함되어 있지 않으면 영상영역에 대한 라벨로 결정하여, 일반교육 자료 내 문자와 시각자료를 각각 문자영역과 영상영역으로 분류한다.In the character area and the image area classification step (a27), it is checked whether or not the labels of the data calculated in the input step of the general education data are included in the character area of the candidate group, Are classified into a character area and an image area, respectively. In this classification step, if the label of the data calculated in the input step of the general education data is included in the character area of the candidate group, the label is determined as a label for the character. If the label is not included in the candidate group, Classify text and visual materials in educational materials into character area and image area, respectively.

영상영역 내 문자 추출단계(a3)에서는 상기 영상영역 추출단계에서 결정한 영상영역 내에 문자의 유/무를 판단하여, 문자가 있을 시에는 이를 문자영역으로 추출하되, 상기 영상영역 추출단계와 동일한 환경(문자의 라벨에 대한 평균너비, 모폴로지 연산의 필터) 하에서 그 탐색 범위를 영상영역만으로 제한하여 수행하며, 그 결과 영상영역 내 문자영역을 추출한다.In the character region extracting step (a3), it is determined whether or not a character exists in the image region determined in the image region extracting step. When there is a character, the character region is extracted as a character region. The average width of the label of the image, and the filter of the morphology operation), the search range is limited to only the image region, and the character region in the image region is extracted as a result.

복잡도별 영상정보 촉각화단계(b100)에서는 추출한 영상영역을 분석하여 도형 및 그래프 등을 포함하는 저 복잡도 영상과, 삽화 및 사진 등을 포함하는 고 복잡도 영상을 구분하고, 구분된 각 영상을 복잡도에 따라 서로 다른 처리과정을 통해 촉각정보로 변환하며, 영상 분류단계(b1), 고 복잡도 영상의 중심객체 유무 판별 및 추출단계(b2), 및 고 복잡도 영상의 잡음제거 및 단순화단계(b3)로 이루어진다.In the hapticization step (b100) of the complexity, the extracted image region is analyzed to distinguish low complexity images including graphics and graphs, high complexity images including illustrations and photographs, (B1), a step of discriminating and extracting the center object of the high-complexity image (b2), and a step of removing and simplifying the noise of the high-complexity image (b3) .

영상 분류단계(b1)에서는 상기 산출된 영상영역의 밝기에 대한 누적 히스토그램을 분석하여 복잡도에 따라 영상을 저 복잡도 영상(도표 및 그래프)과 고 복잡도 영상(삽화, 만화, 지도 및 사진)으로 분류한다. In the image classification step b1, the cumulative histogram of the brightness of the calculated image region is analyzed to classify the image into low complexity images (graphics and graphs) and high-complexity images (illustrations, cartoons, maps, and photographs) according to the complexity .

이를 위해 영상 분류단계(b1)에서는 먼저, 영상에 대한 밝기의 평균누적값을 다음의 조건적 연산식 1을 통해 산출하고, 그 산출된 밝기의 평균누적값을 다음의 조건적 연산식 2를 통해 각각의 밝기 누적값에서 차분하여 저 복잡도 영상 내 밝기의 누적값이 연속된 구간에서 나타나는 현상을 제거한다.For this purpose, in the image classification step (b1), first, an average cumulative value of brightness for an image is calculated by the following conditional expression (1), and the average cumulative value of the calculated brightness is calculated by the following conditional expression Eliminates the phenomenon that the cumulative value of brightness in the low-complexity image is subtracted from each cumulative brightness value and appears in successive intervals.

상기 조건적 연산식 1은, The conditional expression (1)

for(i=0, cnt=0, sum=0; i<256; i++){if((Q 1 -1.5(Q 3 -Q 1 ) <= NH i <= (Q 3 +1.5(Q 3 -Q 1 )) then cnt++, sum+= NH i ;} NH average = sum / cnt;이며, for (i = 0, cnt = 0, sum = 0; i <256; i ++) {if ((Q 1 -1.5 (Q 3 - Q 1) <= NH i A,; - <= (Q 3 +1.5 (Q 3 Q 1)) then cnt ++, sum + = NH i;} NH average = sum / cnt

상기 조건적 연산식 2는,
The conditional expression (2)

*for(i=0; i<256; i++) NH i -= NH average ;이고,* for (i = 0; i <256; i ++) NH i - = NH average ;

상기 각 연산식에서 NH i 는 해당 밝기에 대한 누적값, NH average 는 영상에 대한 밝기의 평균 누적값, Q 1 Q 3 는 각각 밝기의 누적 값에 대한 1사분위수와 3사분위수이다.In the above equations, NH i is an accumulated value for the brightness, NH average is an average cumulative value of brightness for an image, and Q 1 and Q 3 are a first quartile and a third quartile for the cumulative value of brightness, respectively.

다음으로 영상 분류단계(b1)에서는 상기 밝기의 평균누적값을 제거하기 이전과 제거한 후에 영상의 밝기 누적값의 잔여 구간에 대한 변화율(D NH )을 다음의 수학식 5를 통해 검사하여 그 검사 결과에 따라 저 복잡도 영상과 고 복잡도 영상을 분류한다.Next, in the image classification step (b1), the rate of change ( D NH ) with respect to the remaining interval of the brightness cumulative value of the image before and after eliminating the average cumulative value of the brightness is examined through the following equation (5) And low-complexity images and high-complexity images.

Figure pat00013
Figure pat00013

상기 수학식 5에서, 고 복잡도 및 저 복잡도 영상을 분류하는 변화율(D NH )에 대한 임계값(D th )은 도형, 그래프, 삽화, 지도 및 사진을 포함하는 일반교육 자료 내에서 빈번하게 나타나는 영상들에 대해 도출되는 최적 실험치, cnt before cnt after 는 누적 값을 제거하기 이전과 이후의 밝기의 잔여구간, I 는 영상영역이다.
In Equation (5), the threshold value ( D th ) for the change rate ( D NH ) for classifying the high-complexity and low-complexity images is a value that is frequently displayed in the general education data including figures, graphs, illustrations, Cnt before and cnt after are the residuals of the brightness before and after removing the cumulative value, and I is the image area.

*고 복잡도 영상의 중심객체 유무 판별 및 추출단계(b2)에서는 상기 분류된 고 복잡도 영상이 주요 객체를 포함하는지의 여부를 판단하여 추출한다. 이 고 복잡도 영상의 중심 객체 유무 판별 및 추출단계(b2)는 도 4a의 동작 흐름도에 예시된 바와 같이, 유사한 색상들의 대표색상 변환단계(b21), 중심객체의 유무 판별단계(b22), 및 중심객체에 대한 윤곽선 추출단계(b23)를 포함하여 이루어진다.In the step (b2) of discriminating and extracting the center object of the high-complexity image, it is determined whether or not the classified high-complexity image includes the main object and extracted. As shown in the operation flow chart of FIG. 4A, the step b2 of discriminating and extracting the center object of the high-complexity image includes a representative color conversion step b21 of similar colors, a presence / absence discrimination step b22 of center objects, And an outline extraction step b23 for the object.

유사한 색상들의 대표색상 변환단계(b21)는 고 복잡도 영상을 구성하는 픽셀의 색상 유사도를 측정하고, 양자화(quantization)를 통해 유사한 색상들을 대표색상으로 변환하는 단계로서, 이 단계에서는 유사한 색상들을 대표색상으로 변환하는 고 복잡도 영상의 양자화를 위해, 먼저 PGF(Peer Group Filtering)기법을 이용하여 양자화 레벨을 결정한다. 다음으로 상기 결정한 레벨에 따라 양자화를 수행함으로써 유사한 색상들을 대표색상으로 변환시켜 고 복잡도 영상의 색상에 대한 복잡도를 감소시킨다.The representative color conversion step b21 of similar colors measures the color similarity of pixels constituting a high complexity image and converts similar colors into representative colors through quantization. In this step, similar colors are converted into representative colors The quantization level is first determined using a Peer Group Filtering (PGF) technique. Next, quantization is performed according to the determined level to convert similar colors to representative colors, thereby reducing the complexity with respect to colors of the high-complexity image.

중심객체의 유무 판별단계(b22)는 상기 대표색상으로 변환된 고 복잡도 영상 내에서 중심객체 영역에 해당되는 색상의 분포도를 측정하여, 중심객체의 유무를 판별하는 단계로서, 이 단계에서는 다음의 수학식 6에 정의한 영상의 중심영역에서 빈도수가 가장 많은 색상을 중심객체의 대표색상이라 가정하고, 이에 대한 세로 방향 및 가로 방향에 대한 분산을 계산하여 영상 내 분포도를 산출하고, 이 분포도에 따라 중심객체의 유무를 판별하게 된다.In the step b22, the presence or absence of a central object is determined by measuring a distribution of colors corresponding to the central object region in the high-complexity image converted into the representative color, and in this step, It is assumed that the color having the highest frequency in the central region of the image defined in Equation 6 is a representative color of the central object, and the distribution in the vertical direction and the horizontal direction is calculated to calculate the distribution in the image. Or the like.

Figure pat00014
Figure pat00014

상기 수학식 6에서 w, h는 각각 고 복잡도 영상의 너비와 높이, AreaX obj AreaY obj 는 각각 중심영역의 x축과 y축의 범위이다. In Equation (6), w and h are the width and height of the high complexity image, respectively, and AreaX obj and AreaY obj are the ranges of the x and y axes of the central region, respectively.

여기서, 중심객체 유무 판별은 다음의 조건적 연산식 3을 통해 이루어지며, 숲이나 바다 등과 같은 배경영상들에서 나타나는 특징과 같이 중심객체를 대표하는 색상이 수평적으로 넓게 분포되어 있거나 분포도가 낮은 경우 중심객체가 없는 영상으로 판단하고, 그 밖의 경우에는 중심객체가 있는 것으로 판단한다.Here, the determination of presence or absence of a central object is performed by the following conditional expression 3. The color representing the central object is horizontally wide or low in distribution, such as a feature appearing in background images such as forest or sea, It is determined that there is no central object, and in other cases, it is determined that there is a central object.

상기 조건적 연산식 3은 The conditional expression (3)

s max =max(s verticality , s horizontality ) s max = max ( s verticality , s horizontality )

if(((s max == s horizontality )&&(s max >T 1 ))||(s max <T 2 ))if (( s max == s horizontality ) && ( s max > T 1 )) ( s max < T 2 )

then I is a non-object imagethen I is a non-object image

otherwise I is an object imageotherwise I is an object image

(T 1 = 0.06, T 2 = 0.01)( T 1 = 0.06, T 2 = 0.01)

상기 조건적 연산식 3에서 s verticality s horizontality 는 고 복잡도 영상(I) 내 중심객체의 대표색상에 대한 최대 수직 및 최대 수평 분산, s max s verticality s horizontality 중 큰 값을 갖는 최대 분산, 최대 분산과 비교하는 임계값 T 1 T 2 는 상수로서 다양한 고 복잡도 영상에 대해 반복적인 실험을 통해 산출되는 최적 실험치이다.In the conditional expression 3, s verticality And s horizontality is the maximum vertical and maximum horizontal variance, s max for the representative color of the central object in the high complexity image ( I ) s verticality and s horizontality , the threshold values T 1 and T 2, which are compared with the maximum variance and the maximum variance, are constants, which are optimal values calculated through repeated experiments on various high-complexity images.

중심객체에 대한 윤곽선 추출단계(b23)는 상기 중심객체 유무 판별 결과 중심객체가 존재할 경우 그 중심객체에 대한 윤곽선을 추출하는 단계로서, 이 단계에서는 먼저, 상기 양자화된 고 복잡도 영상에서 수학식 7을 통해 정의되는 영상의 네 모서리 구간에 대한 배경영역의 대표색상들을 추출하고, 그 추출된 색상들을 영상 전체에서 제거한다. 이로써, 고 복잡도 영상 내에는 중심객체에 대한 대표색상 남게 된다.The contour extraction step b23 of the center object extracts the contour of the center object when the center object exists as a result of the determination of whether the center object exists. In this step, first, in the quantized high-complexity image, The representative colors of the background region for the four corner regions of the image defined by the extracted regions are extracted and the extracted colors are removed from the entire image. This leaves a representative color for the center object in the high complexity image.

Figure pat00015
Figure pat00015

상기 수학식 7에서 AreaX n AreaY n 은 각각 영상의 네 모서리에 대한 배경영역을 나타내며, wh는 고 복잡도 영상의 너비와 높이를 나타낸다.In the equation 7 AreaX AreaY n and n denotes a background area of the four corners of each image, w and h represent the width and height of the high complexity image.

그런데, 이때 중심 영역 이외의 영역에서도 동일한 색상정보들이 잔재할 수 있으며, 이렇게 중심 영역 이외에서 나타나는 색상정보들은 객체를 표현하는 정보가 아닌 잡음으로 판단할 수 있다. 따라서 이를 제거하기 위해 본 단계에서는 상기 고 복잡도 영상에 대해 이진화 및 라벨링을 수행하여, 중심영역 이외에서 나타나는 색상정보들을 제거함과 아울러 중심객체의 대표색상에 대한 라벨들을 생성하고, 생성된 각각의 라벨들에 대한 위치가 중심영역에 포함되는지를 검사하여 잡음을 제거하고, 고 복잡도 영상 내에 남겨진 중심 객체의 윤곽선을 검출하여, 촉각정보로 변환할 영상의 중심객체를 추출한다.However, at this time, the same color information may remain in an area other than the center area. Thus, the color information appearing outside the center area can be determined as noise, not information representing the object. Therefore, in order to remove this, in this step, binarization and labeling are performed on the high-complexity image to remove color information appearing in areas other than the central area, labels for representative colors of the central object are generated, And extracts the center object of the image to be converted into the tactile information by detecting the contour of the center object remaining in the high-complexity image.

잡음제거 및 단순화단계(b3)에서는 시각장애인의 인지를 돕기 위해 영상의 복잡도를 낮춰 단순화한다. 이 잡음제거 및 단순화단계(b3)는 도 4b의 동작 흐름도에 예시된 바와 같이, 윤곽선들에 대한 라벨 크기 산출단계(b31), 잡음 제거단계(b32), 연결선 생성단계(b33), 및 윤곽선에 대한 복잡도 낮춤단계(b34)를 포함하여 이루어진다.
In the noise reduction and simplification step (b3), the complexity of the image is lowered and simplified in order to assist the visually impaired. This noise elimination and simplification step b3 includes the steps of calculating the label size for the contours b31, removing the noise b32, creating the connecting line b33, and delineating the contour line as illustrated in the operation flow chart of Fig. And a step (b34) for lowering the degree of complexity.

윤곽선들에 대한 라벨 크기 산출단계(b31)에서는 고 복잡도 영상에 대해 이진화 및 라벨링 처리를 수행하여 영상을 구성하는 윤곽선들에 대한 라벨의 크기를 산출한다.In the label size calculation step b31 of the outlines, binarization and labeling processing are performed on the high-complexity image to calculate the size of the label for the outlines constituting the image.

잡음 제거단계(b32)에서는 영상의 해상도와 햅틱디스플레이의 해상도를 비교하여 너비와 높이의 비율을 산출한 후, 각각의 라벨을 수학식 8을 통해 햅틱디스플레이의 해상도에 맞춰 축소하였을 경우, 픽셀의 크기가 햅틱디스플레이의 1셀 이하로 축소되는 라벨이 가진 영상정보를 중요도가 낮은 잡음으로 분류하여 제거한다.In the noise removal step (b32), when the ratio of the width and the height is calculated by comparing the resolution of the image and the resolution of the haptic display, and the respective labels are reduced according to the resolution of the haptic display through the equation (8) The image information of the label which is reduced to one cell or less of the haptic display is classified into low-importance noise and removed.

Figure pat00016
Figure pat00016

상기 수학식 8에서, H width H height 는 햅틱 디스플레이의 너비와 높이, I width I height 는 영상의 너비 및 높이, T w T h 는 햅틱디스플레이로 축소하기 위한 영상의 너비 및 높이에 대한 축소 비율, LW, LHn은 해당 라벨의 너비와 높이 및 총 개수, S는 라벨을 햅틱디스플레이 해상도로 변환하였을 때의 픽셀의 크기를 나타낸다.In Equation (8), H width and H height are the width and height of the haptic display, I width and I height are the width and height of the image, and T w and T h are the width and height of the image LW , LH, and n represent the width, height, and total number of the label, and S represents the size of the pixel when the label is converted to the haptic display resolution.

연결선 생성단계(b33)에서는 상기 검출된 윤곽선들의 복잡도를 낮추기 위해 윤곽선들의 코너점을 검출하고, 그 코너점들을 서로 연결하는 연결선을 생성한다. In the connection line creation step (b33), the corner points of the contours are detected to lower the complexity of the detected contours, and connection lines connecting the corner points are generated.

윤곽선에 대한 복잡도 낮춤단계(b34)에서는 상기 연결선들 간의 교차각을 검사하여 그 교차각이 임계각(바람직하게는 150도) 이상일 경우 그 연결선이 공유하는 코너점을 제거하고 남은 두 점으로 새로운 연결선을 생성하여 영상의 윤곽선에 대한 복잡도를 낮추게 된다. 이때 상기 임계각(150도)은 윤곽선의 복잡도가 높은 다양한 영상에 대해 실험을 수행하여 측정될 수 있는 최적 실험치이다. In the complexity lowering step (b34) for the contour line, the crossing angle between the connecting lines is checked. When the crossing angle is greater than the critical angle (preferably 150 degrees), the corner point shared by the connecting line is removed, And the complexity of the contour of the image is lowered. At this time, the critical angle (150 degrees) is an optimal experimental value that can be measured by performing experiments on various images having high complexity of contours.

문자인식 및 점자 변환단계(c100)는 추출한 문자영역 내의 문자정보 및 영상영역 내의 문자정보를 분석하여 시각장애인이 인지가능한 점자정보로 변환하는 단계로서, 상기 추출한 문자영역에 대해 광학문자인식(OCR, Optional Character Recognition)을 적용하여 컴퓨터가 인식할 수 있는 정보로 변환한 후, 다시 이를 시각장애인이 인지할 수 있는 점자형태로 변환할 수 있게 된다. 이 문자인식 및 점자 변환단계(c100)는 영상영역 외의 문자 인식단계(c1), 영상영역 내의 문자 인식단계(c2), 및 인식된 문자의 점자 표현단계(c3)를 포함하여 이루어진다. The character recognition and braille conversion step c100 is a step of analyzing the character information in the extracted character area and the character information in the image area and converting the character information into braille information recognizable by the blind person, Optional Character Recognition) can be applied to convert it into computer-recognizable information, and then convert it into braille, which can be recognized by the visually impaired. The character recognition and braille conversion step c100 includes a character recognition step c1 outside the image area, a character recognition step c2 in the image area, and a braille rendering step c3 of the recognized character.

영상영역 외의 문자 인식단계(c1)에서는 일반교육 자료 내 시각자료를 제외한 문단이나 단락의 문자영역에 광학문자인식을 수행하여, 문자영역에 대한 영상정보로부터 컴퓨터가 인식할 수 있는 문자정보를 생성한다.In the character recognizing step (c1) outside the video area, optical character recognition is performed on a character area of a paragraph or a paragraph except for the visual data in the general education data to generate computer-recognizable character information from the image information on the character area .

영상영역 내의 문자 인식단계(c2)에서는 일반교육 자료 내 시각자료 내에 포함되는 문자들에 대해 광학문자인식을 수행하여, 영상영역 내의 문자영역으로부터 컴퓨터가 인식할 수 있는 문자정보를 생성한다.In the character recognizing step (c2) in the video region, optical character recognition is performed on the characters included in the visual data in the general education data, thereby generating computer-recognizable character information from the character region in the video region.

인식된 문자의 점자 표현단계(c3)에서는 상기 생성된 영상영역 외의 문자정보, 영상영역 내의 문자정보를 한국어점자규정’ 및 ‘영어점자규정’ 을 따르는 점자 표현 알고리즘을 통해 시각장애인들이 인지할 수 있는 점자정보로 점역하여 표시한다. 이러한 점자표현 알고리즘은 연결어, 약어, 기본적인 산술 연산기호, 및 일반기호에 대한 점역을 포함하는 것이 바람직하다. 특히 이 점자 표현단계에서는 영상영역 외의 문자정보로부터 점역된 점자정보에 대해서는 햅틱디스플레이에의 표현을 위해, 먼저 점자의 길이를 계산하고, 햅틱디스플레이 해상도의 너비에 맞추어 줄 바꿈을 수행한 후 점자정보를 출력한다. 또한 영상영역 내의 문자정보로부터 점역된 점자정보에 대해서는 먼저 해당 점자정보를 영상영역 내에 배치한 후 주변의 영상정보와 중첩되는지를 검사하고, 그 검사 결과 영상영역 내에 배치되는 점자정보가 주변의 영상정보와 중첩될 경우 그 점자정보에 대응하는 인덱스를 해당 영상영역 내에 배치하고, 상기 영상영역의 외부에 해당 인덱스와 함께 점자정보를 출력한다.In the step (c3) of recognizing the recognized character, the blind person can recognize the character information outside the generated image area and the character information in the image area through the braille expression algorithm conforming to Korean Braille Specification and English Braille Specification Braille information is displayed in braille. Such braille expression algorithms preferably include brackets for conjunctions, abbreviations, basic arithmetic symbols, and general symbols. Particularly, in this braille expression step, braille information obtained from character information outside the image area is firstly calculated by calculating the length of the braille to express it on the haptic display, performing line wrapping according to the width of the haptic display resolution, Output. In addition, for the braille information to be transferred from character information in the image area, first, the braille information is arranged in the image area, and then it is inspected whether or not the braille information overlaps with the surrounding image information. An index corresponding to the braille information is placed in the corresponding image area, and braille information is output along with the index outside the image area.

이와 같이 구성되는 본 발명의 전체적인 동작 및 그에 의한 작용 및 효과를 설명하면 다음과 같다.The overall operation of the present invention constructed as described above, and the operation and effects thereof will be described below.

먼저 영상/문자 영역 추출부(110)에서는 교육자료 입력부(10)를 통해 입력되는 일반 교육 자료 내에 혼합되어 있는 문자정보와 시각정보를 촉각정보로 변환하기 위해 각 정보에 대한 문자영역 및 영상영역을 추출하는 일반교육 자료 내 영상영역 및 문자영역 추출단계(a100)를 수행하며, 이 일반교육 자료 내 영상영역 및 문자영역 추출단계(a100)에서는 일반교육 자료 입력단계(a1), 영상영역 추출단계(a2), 및 영상영역 내 문자 추출단계(a3)가 순차적으로 실행된다. First, in the video / character region extracting unit 110, in order to convert the text information and the time information mixed in the general education data inputted through the training data input unit 10 into tactile information, a character region and an image region (A100) of extracting general education data and a character area extracting step (a100) in the general education data extracting step a100 in the general education data extracting step a1, a2), and a character extraction step (a3) in the video region are sequentially executed.

일반교육 자료 입력단계(a1)에서는 일반교육 자료에 대한 문자와 시각자료의 특성을 분석하기 위해 밝기 영상 및 라벨 등과 같은 기반 정보를 생성한다. 먼저, 밝기 영상과 같은 경우는 스캔한 일반교육 자료의 모든 픽셀에 대해 그레이스케일(gray scale) 과정을 수행함으로써 생성할 수 있게 된다. 다음으로 문자와 시각자료에 대해 특성을 분석하기 위한 라벨은 밝기 영상에 대해 이진화를 수행한 후, 라벨링 처리를 통해서 생성할 수 있게 된다. 이 때, 이진화 처리르 통해 밝기 영상을 흑화소(픽셀 값:0)와 백화소(픽셀 값:255)만으로 재구성하며, 라벨링 처리를 통해 인접한 흑화소간의 연결 상태를 검사하여 연결된 픽셀들을 하나의 개체로 판단할 수 있게 된다. 이를 통해 문자는 적어도 자소(문자를 구성하는 최소 단위) 단위 이상의 개체들로 분류되고, 시각자료는 백화소의 유무에 따라 하나 혹은 그 이상의 개체로 분류된다. 본 단계에서 생성한 밝기 영상과 라벨은 영상영역 추출 과정과 영상 내 문자 추출 과정의 입력데이터로 활용된다.In the general education data input step (a1), the base information such as the brightness image and the label is generated in order to analyze characteristics of the character and visual data of the general education data. First, in the case of a brightness image, a gray scale process can be performed on all the pixels of the scanned general education data. Next, a label for analyzing characteristics of character and visual data can be generated by performing labeling processing after binarizing the brightness image. At this time, the brightness image is reconstructed using only the black pixel (pixel value: 0) and the white pixel (pixel value: 255) through the binarization process, and the connected state of adjacent black pixels is checked through the labeling process, As shown in FIG. Through this, the characters are classified into at least units (minimum units) and the visual data are classified into one or more objects according to the presence or absence of white papers. The brightness image and label generated in this step are used as input data of the image region extraction process and the image character extraction process.

영상영역 추출단계(a2)에서는 문자와 시각자료 간의 밝기의 특성을 분석하고, 이와 함께 선행과정을 통해 산출한 라벨의 영역을 이용하여 입력된 일반교육 자료를 문자영역과 영상영역으로 분류한다.In the image region extraction step (a2), the characteristics of the brightness between the character and the visual data are analyzed, and the general education data inputted using the area of the label calculated through the preceding process is classified into the character area and the image area.

도 5의 (a) 내지 (d)는 일반 교육 자료 내 영상영역 및 문자영역을 분리하는 동작을 설명하기 위하여 예시한 참고도로서, (a)는 일반 교육자료의 한 예시도이고, (b)는 (a)에 대한 밝기 영상이며, (c)는 (b)의 영상 내에서 특정 행의 픽셀 정보를 추출하여 그 행의 각 열에 대한 픽셀의 밝기 값을 히스토그램으로 변환한 결과이고, (d)는 (c)의 밝기값에 대한 변화량의 차이를 히스토그램으로 변환한 결과를 예시하고 있다. 이 때, 문자를 구성하는 픽셀들에서는 0에 가까운 밝기 값(흑화소, 문자가 인쇄된 검은색)과 255에 가까운 밝기 값(백화소, 여백)들이 교차하면서 나타남을 볼 수 있고, 시각자료를 구성하는 픽셀들에서는 밝기 값이 연속적으로 변화하는 것을 볼 수 있다. 이를 보다 명확하게 판단하기 위하여 (c)의 밝기 값에 대한 변화량의 차이를 나타내는 (d)의 히스토그램을 생성하면, 그 결과에서 문자와 시각자료를 구성하는 픽셀 간의 밝기 값에 대한 변화량의 차이가 매우 상이함을 확인할 수 있다. 따라서 이러한 문자와 시각자료의 밝기 값의 변화량에 대한 특징을 이용하여 이웃한 픽셀에 대한 변화량(G)을 상기 수학식 1을 통해 산출한 후 이러한 변화량만으로 변화량 차이(GD) 영상을 재구성한다.FIGS. 5A to 5D are diagrams for explaining an operation of separating an image region and a character region in general education data. FIG. 5A is an example of general education data, FIG. (C) is a result of extracting pixel information of a specific row in the image of (b), converting the brightness value of the pixel for each column of the row into a histogram, and (d) Shows the result of converting the difference in the amount of change with respect to the brightness value of (c) into a histogram. At this time, in the pixels constituting the character, it is seen that a brightness value close to 0 (a black pixel and a black printed character) intersects with a brightness value (white pixel, blank space) close to 255, In the constituent pixels, the brightness value changes continuously. In order to determine this more clearly, when the histogram of (d) representing the difference in the amount of change with respect to the brightness value of (c) is generated, the difference between the brightness values of the pixels constituting the character and the visual data is very different . Therefore, a change amount (G) for a neighboring pixel is calculated using Equation (1) by using the feature of the brightness value of the character and the visual data, and the change amount difference (GD) image is reconstructed using only the change amount.

이를 통해 생성한 GD 영상 내 문자가 존재하는 영역에서는 픽셀 간의 밝기 변화량이 높아 백화소들이 군집되어 있으며, 문자 간의 사이를 나타내는 여백과 인쇄영역 이외의 여백에서는 픽셀 간의 밝기 변화량이 거의 없으므로 흑화소에 가까운 결과가 나타난다. 그리고 시각자료와 같은 경우는 영상의 전체 밝기를 낮추고, 대비를 높인 그레이스케일 영상과 같이 나타난다.In the region where the characters in the generated GD image exist, the amount of change in brightness between the pixels is high, so that white pixels are crowded. In the margins representing the space between characters and in margins other than the printing region, Results appear. And, in the case of visual data, the whole brightness of the image is lowered, and the appearance of the gray scale image is enhanced.

다음으로 생성한 GD 영상 내에서 예상되는 문자 영역의 후보군을 결정하기 위해 문단이나 단락 내 문자 간의 경계를 제거한다. 이를 위해 선행단계에서 생성한 라벨을 이용하여 평균적인 문자의 너비를 수학식 2과 같은 조건으로 산출하며, 산출한 너비를 기준으로 GD 영상에 대해 수학식 3을 적용하여 최대 변화량 차이 영상(MGD)으로 재구성한다.Next, the boundaries between the characters in the paragraph or paragraph are removed to determine the candidate group of the character region expected in the generated GD image. For this, the width of the average character is calculated using the label generated in the previous step under the same conditions as in Equation (2), and the maximum variation amount difference image (MGD) is calculated by applying Equation (3) Lt; / RTI &gt;

일반적으로 일반교육 자료로부터 생성한 라벨은 대부분이 문자에 대한 것이며, 시각자료에 대한 라벨은 그 크기가 문자에 비해 상대적으로 큰 반면에 빈도수는 매우 적다. 따라서 수학식 2를 이용함으로써 시각자료에 대한 라벨을 이상치(Outlier)로 제외한 후, 문자의 라벨에 대한 평균 너비(LW average )를 산출할 수 있게 되며, 상기 산출한 LW average 를 수학식 3에 대입함으로써 MGD 영상을 생성할 수 있게 된다. Generally, labels generated from general education materials are mostly letters, labels for visual materials are relatively large in size, while frequencies are very small. Therefore, by using Equation (2), it is possible to calculate the average width ( LW average ) with respect to the label of the character after excluding the label for the visual data as an outlier, and assigning the calculated LW average to the expression Thereby generating an MGD image.

또한, GD 영상을 재구성한 MGD 영상에 대해 문자영역을 보다 명확하게 분류하기 위해 수학식 4의 임계값 결정을 통해 이진화를 수행한 후, 각 행별로 연결된 백화소의 너비를 구하여 2개의 문자를 합한 너비(2 LW average )보다 작은 너비의 백화소를 제거한다. 이는 대체로 문자가 단독으로 존재하지 않는 특성을 이용함과 함께 자료의 스캔 과정 및 영상영역에 대한 잡음을 제거하기 위함이다.In order to more clearly classify the character region with respect to the MGD image reconstructed from the GD image, binarization is performed through determination of the threshold value of Equation (4), and then the width of white pixels connected to each row is obtained, ( 2 LW average ). This is in order to eliminate the noise of the scanning process of the data and the image area by using the property that the character does not exist alone.

마지막으로 예상되는 문자 영역의 후보군을 결정한 MGD 영상 내에서 자소 및 띄어쓰기에 의해 산재되어 있는 문자영역을 병합하기 위해 팽창(dilate)과 침식(erode)의 모폴로지(morphology) 연산을 수행한다. 이 때, 모폴로지 연산의 필터 크기는 수학식 2의 LW average 와 동일하게 설정하며, 이러한 모폴로지 연산의 결과를 통해 문자영역을 명확히 결정할 수 있게 된다. 따라서 일반교육 자료의 입력 과정에서 산출한 자료의 라벨들에 대해 결정한 문자영역 내에 포함되는지의 여부를 검사하고, 포함되었을 시에는 문자에 대한 라벨로, 미 포함되었을 시에는 영상영역에 대한 라벨로 결정한다. 이를 통해 최종적으로 일반교육 자료 내 문자와 시각자료를 각각 문자영역과 영상영역으로 분류할 수 있게 된다.The morphology operation of dilate and erode is performed in order to merge character regions scattered by the glyphs and spacing in the MGD image that determines the candidate region of the last expected character region. At this time, the filter size of the morphology operation is set to be equal to the LW average of Equation (2), and the character region can be clearly determined through the result of this morphology operation. Therefore, it is checked whether or not the label of the data calculated in the input process of the general education data is included in the determined character area, and when it is included, it is determined as a label for the character, do. Finally, it is possible to classify text and visual materials in general education materials into character area and image area, respectively.

영상영역 내 문자 추출단계(a3)에서는 영상영역 추출 과정에서 결정한 영상영역 내에 문자의 유무를 판단하여, 문자가 있을 시에는 이를 문자영역으로 추출한다. 본 과정은 영상영역 추출 과정과 동일한 환경(문자의 평균너비, 모폴로지 연산의 필터 등) 하에 탐색 범위를 영상영역만으로 제한하여 수행하며, 그 결과 영상 내 문자영역을 추출할 수 있다.In the character extraction step (a3), the presence or absence of a character in the image area determined in the image area extraction process is determined, and when there is a character, the character area is extracted. This process is performed by limiting the search range to only the image area under the same environment (average width of characters, filter of morphology operation, etc.) as the image region extraction process, and as a result, character region in the image can be extracted.

다음으로 복잡도별 영상 촉각화부(120)에서는 상기 추출한 영상영역을 저 복잡도 영상과 고 복잡도 영상으로 구분하여 주요 객체 포함 여부를 판단하고, 이를 각각의 복잡도에 따라 처리하여 촉각정보로 변환하는 복잡도별 영상정보 촉각화단계(b100)를 수행하며, 이 복잡도별 영상정보 촉각화단계(b100)에서는, 영상영역을 분석하여 복잡도에 따라 저 복잡도 영상(도표 및 그래프)과 고 복잡도 영상(삽화, 만화, 지도 및 사진)으로 분류하는 영상 분류단계(b1), 고 복잡도 영상이 주요 객체를 포함하는지를 판단하고 이를 추출하는 고 복잡도 영상의 중심객체 유무 판별 및 추출단계(b2), 및 시각장애인의 인지를 돕기 위해 영상의 복잡도를 낮춰주는 고 복잡도 영상의 잡음제거 및 단순화단계(b3)가 순차적으로 실행된다.Next, the complexity-based image hunting unit 120 divides the extracted image region into a low-complexity image and a high-complexity image to determine whether or not the main object is included. The complexity-based image hunting unit 120 processes the complexity- (Graphics and graphs) and high-complexity images (such as illustrations, cartoons, and maps) according to the degree of complexity in the tactile information visualization step (step b100) (B2) for determining whether a high-complexity image includes a main object, extracting and extracting the high-complexity image, and (b2) A noise removal and simplification step (b3) of the high-complexity image that reduces the complexity of the image is executed sequentially.

영상 분류단계(b1)에서는 영상영역의 밝기에 대한 누적 히스토그램을 분석하여 저 복잡도 영상과 고 복잡도 영상을 분류한다.In the image classification step (b1), a low-complexity image and a high-complexity image are classified by analyzing a cumulative histogram of the brightness of the image region.

먼저, 도 6의 (a)와 (b)는 저 복잡도 영상과 고 복잡도 영상의 밝기에 대한 누적 히스토그램을 각각 예시하는 참고도로서, 도면에 예시된 바와 같이 (a)와 같은 저 복잡도 영상은 단순한 밝기로 구성되어 있어, 그 밝기의 누적 값이 특정 구간들에서만 나타난다. 반면에 (b)와 같은 고 복잡도 영상은 다채로운 밝기로 구성되어 있어, 그 밝기의 누적 값이 연속된 구간에서 나타난다. 따라서 이러한 특징을 바탕으로 밝기 값이 나타나는 구간의 빈도수를 산출하여 영상을 분류하는데, 이 때, 저 복잡도 영상과 같은 경우에도 미세한 밝기 값들이 존재하여 고 복잡도 영상과 같이 밝기 값이 연속된 구간에서 나타날 수 있다. 따라서 상기 조건적 연산식 1 및 2를 통해 평균적인 밝기의 누적 값을 산출하여, 이를 각각의 밝기 값에서 차분함으로써 저 복잡도 영상 내 밝기 값이 연속된 구간에서 나타나는 현상을 제거할 수 있게 된다.6 (a) and 6 (b) are reference views illustrating cumulative histograms of brightness of a low-complexity image and a high-complexity image, respectively. As illustrated in the figure, a low- Brightness, and the cumulative value of the brightness appears only in certain intervals. On the other hand, the high-complexity image as shown in (b) consists of various brightness, and the cumulative value of the brightness appears in a continuous interval. Therefore, the image is classified by calculating the frequency of the interval in which the brightness value appears based on these characteristics. In this case, even in the case of the low-complexity image, there are minute brightness values and the brightness values appear in the continuous interval like the high- . Accordingly, the cumulative value of the average brightness is calculated through the conditional equations 1 and 2, and the brightness value of the low-complexity image is removed from each brightness value.

다음으로 평균적인 밝기의 누적 값을 제거하기 이전과 제거한 후에 밝기 값의 잔여 구간에 대한 변화율을 상기 수학식 5와 같이 검사하여 저 복잡도 영상과 고 복잡도 영상으로 분류한다.Next, the change rate with respect to the remaining interval of the brightness value before and after removing the cumulative value of the average brightness is examined as shown in Equation (5), and classified into a low-complexity image and a high-complexity image.

고 복잡도 영상의 중심객체 유무 판별 및 추출단계(b2)에서는 고 복잡도 영상을 구성하는 픽셀의 색상 유사도를 측정하고, 양자화(quantization)를 통해 유사한 색상들을 대표색상으로 변환한다. 그리고 대표색상으로 변화된 영상 내에서 중심객체 영역에 해당되는 색상의 분포도를 측정하여, 중심객체의 유무를 판별함과 함께 중심객체가 존재할 시에는 이에 대한 윤곽선을 추출한다. In the step (b2) of discriminating and extracting the center object of the high-complexity image, color similarity of pixels constituting the high-complexity image is measured, and similar colors are converted into representative colors through quantization. Then, the distribution of the color corresponding to the center object area is measured in the representative color image, and the presence or absence of the center object is determined, and when the center object exists, the outline is extracted.

이러한 고 복잡도 영상의 중심객체 유무 판별 및 추출단계(b2)에서는 유사한 색상들을 대표색상으로 변환하는 고 복잡도 영상의 양자화를 수행하기 위해 먼저, PGF(Peer Group Filtering)기법을 이용하여 양자화 레벨을 결정하고 그 결정한 레벨에 따라 양자화를 수행함으로써, 유사한 색상들이 이를 대표하는 색상으로 변환되어 고 복잡도 영상의 색상에 대한 복잡도를 감소시킬 수 있게 된다.In order to quantize the high complexity image which transforms similar colors into the representative color, the quantization level is first determined using the Peer Group Filtering (PGF) technique in the step b2 of discriminating and extracting the center object of the high complexity image By performing quantization according to the determined level, similar colors can be converted into colors representing them to reduce complexity with respect to colors of high-complexity images.

다음으로 고 복잡도 영상의 중심객체 유무 판별 및 추출단계(b2)에서는 상기 수학식 6에 정의한 영상의 중심영역에서 빈도수가 가장 많은 색상을 중심객체의 대표색상이라 가정하고, 이에 대한 세로 방향 및 가로 방향에 대한 분산을 계산하여 영상 내 분포 정도를 산출한다. 이 때, 중심객체를 대표하는 색상이 수평적으로 넓게 분포되어 있거나, 분포도가 낮으면 중심객체가 없는 영상으로 판단한다. 이는 숲이나 바다 등과 같은 배경 영상들에서 나타나는 특징이기 때문이다. 그 밖의 경우에는 중심객체가 있는 것으로 판단하며, 이러한 동작은 상기 조건적 연산식 3을 통해 수행될 수 있게 된다.Next, in the step b2 of discriminating and extracting the center object of the high-complexity image, it is assumed that the color having the highest frequency in the central region of the image defined in Equation (6) is the representative color of the center object, And the degree of distribution in the image is calculated. At this time, if the color representative of the central object is horizontally wide or if the distribution is low, it is judged that the image has no central object. This is because it is a feature that appears in background images such as forests and seas. In other cases, it is determined that there is a central object, and such an operation can be performed through the conditional expression 3.

마지막으로 고 복잡도 영상의 중심객체 유무 판별 및 추출단계(b2)에서는 양자화된 고 복잡도 영상에서 배경영역의 대표색상들을 추출하고, 추출한 색상들을 영상 전체에서 제거한다. 이 때, 영상의 배경영역은 수학식 7과 같이 영상의 네 모서리에 대한 구간으로 정의한다. 이를 수행함으로써, 영상 내에는 중심객체에 대한 대표색상만이 남게 되는데, 이 때, 중심영역 이외의 영역에서도 동일한 색상정보들이 잔재할 수 있다. 이렇게 중심영역 이외에서 나타나는 색상정보들은 객체를 표현하는 정보가 아닌 잡음으로 판단할 수 있으며, 이를 제거하기 위해 이진화 및 라벨링을 수행한다. 이진화 및 라벨링을 수행한 결과로부터 중심객체의 대표색상에 대한 라벨들을 생성함과 함께 그 위치를 찾을 수 있으며, 각각의 라벨들에 대한 위치가 중심영역에 포함되는지를 검사하여 잡음을 제거한다. 결과적으로 고 복잡도 영상 내에는 중심객체의 정보만이 남게 되며, 이에 윤곽선을 검출함으로써 촉각정보로 변환할 영상의 중심객체를 추출할 수 있게 된다.Finally, in the step (b2) of discriminating and extracting the center object of the high complexity image, the representative colors of the background region are extracted from the quantized high-complexity image, and the extracted colors are removed from the entire image. In this case, the background region of the image is defined as a section with respect to four corners of the image as shown in Equation (7). By doing this, only the representative color for the center object remains in the image. In this case, the same color information may remain in an area other than the center area. Thus, color information appearing outside the center area can be determined as noise, not information representing an object, and binarization and labeling are performed to remove the noise. From the result of performing binarization and labeling, it is possible to generate labels for the representative color of the central object, find its position, and check whether the position of each label is included in the center area to remove noise. As a result, only the information of the center object remains in the high-complexity image, and by detecting the outline of the center object, the center object of the image to be converted into the tactile information can be extracted.

고 복잡도 영상의 잡음제거 및 단순화단계(b3)에서는 고 복잡도 영상을 햅틱디스플레이의 해상도에 적합한 촉각정보로 변환하기 위하여 먼저 이진화 및 라벨링을 수행하여 영상을 구성하는 윤곽선들에 대한 라벨의 크기를 산출한다. 그리고 수학식 8을 통해 영상의 해상도와 햅틱디스플레이의 해상도를 비교하여 너비와 높이의 비율을 산출한 후, 각각의 라벨을 햅틱디스플레이의 해상도에 맞추어 축소하였을 시, 라벨을 햅틱디스플레이 해상도로 변환하였을 때의 픽셀의 크기(S i )가 햅틱디스플레이의 1셀 이하로 축소되는 경우에 해당 라벨이 가진 영상정보를 중요도가 낮다고 판단하여 이를 잡음으로 분류하여 제거한다. In the noise removal and simplification step (b3) of the high-complexity image, in order to convert the high-complexity image into tactile information suitable for the resolution of the haptic display, binarization and labeling are first performed to calculate the size of the label for the contours constituting the image . When the ratio of width and height is calculated by comparing the resolution of the image and the resolution of the haptic display through Equation (8), and the labels are reduced in accordance with the resolution of the haptic display, when the label is converted into the haptic display resolution The size of the pixel S i of the haptic display is reduced to one cell or less, it is determined that the importance of the image information of the corresponding label is low, and the image information is classified into noise and removed.

또한, 고 복잡도 영상 내 복잡한 윤곽선들은 시각장애인이 정보를 인지하는데 어려움을 준다. 따라서 고 복잡도 영상의 잡음제거 및 단순화단계(b3)에서는 다음 과정으로 이러한 윤곽선들의 복잡도를 낮추기 위해 윤곽선들의 코너점을 검출하고, 검출한 코너점을 이용하여 연결선을 생성한다. 그리고 연결선들 간의 교차각을 검사하여 임계각(150도) 이상일 때에는 연결선이 공유하는 코너점을 제거하고 남은 두 점으로 새로운 연결선을 생성한다. 이 때, 임계각(150도)에 대한 설정값은 윤곽선의 복잡도가 높은 다양한 영상에 대해 실험을 수행하여 측정한 최적 실험치이다. 결과적으로 특정 수치를 기준으로 코너점을 제거하여 영상정보에 대한 새로운 윤곽선을 생성함으로써 영상의 윤곽선에 대한 복잡도를 낮춰 시각장애인의 정보 인지에 도움을 줄 수 있게 된다.In addition, complicated contours in high complexity images make it difficult for the visually impaired to recognize the information. Therefore, in the noise removal and simplification step (b3) of the high-complexity image, the corner points of the contour lines are detected in order to lower the complexity of the contour lines, and a connection line is generated using the detected corner points. When the intersection angle between the connecting lines is more than the critical angle (150 degrees), the corner point shared by the connecting line is removed and a new connecting line is formed by the remaining two points. At this time, the set value for the critical angle (150 degrees) is the optimum value measured by performing experiments on various images having high contour complexity. As a result, corner points are removed based on a specific value to generate a new contour line for the image information, thereby reducing the complexity of the contour of the image, thereby helping the visually impaired to know the information.

영상/문자 영역 추출부(110)에서는 교육자료 입력부(10)를 통해 입력되는 일반 교육 자료 내에 혼합되어 있는 문자정보와 시각정보를 촉각정보로 변환하기 위해 각 정보에 대한 문자영역 및 영상영역을 추출하는 일반교육 자료 내 영상영역 및 문자영역 추출단계(a)를 수행하며, 이 일반교육 자료 내 영상영역 및 문자영역 추출단계(a)에서는 일반교육 자료 입력단계(a1), 영상영역 추출단계(a2), 및 영상영역 내 문자 추출단계(a3)가 순차적으로 실행된다. The image / character region extraction unit 110 extracts a text region and an image region for each information to convert the text information and the visual information mixed in the general education data input through the training data input unit 10 into tactile information (A), the general education data input step (a1), the image area extraction step (a2), and the general education data input step ), And a character extraction step (a3) in the video region are sequentially executed.

마지막으로 문자 인식 및 점역부(130)에서는 상기 추출한 문자영역(영상영역 이외의 문자영역 및 영상영역 내의 문자영역)에 대해 광학문자인식(OCR, Optional Character Recognition)을 적용하여 컴퓨터가 인지할 수 있는 정보로 변환한 후, 이를 다시 시각장애인이 인지할 수 있는 점자정보로 변환하는 문자인식 및 점자 변환단계(c100)를 수행함으로써, 촉각정보 표시부(20)를 통해 표현할 수 있게 되며, 이 문자인식 및 점자 변환단계(c100)에서는 영상영역 외의 문자 인식단계(c1), 영상영역 내의 문자 인식단계(c2), 및 인식된 문자의 점자 표현단계(c3)가 순차적으로 수행된다.Finally, the character recognizing and translating unit 130 applies optical character recognition (OCR) to the extracted character area (a character area other than the video area and a character area in the video area) (C100), which converts the text information into braille information that can be recognized by the visually impaired person. The character recognition and braille conversion step (c100) can be performed through the tactile information display unit (20) In the braille conversion step (c100), the character recognizing step (c1) outside the image area, the character recognizing step (c2) within the image area, and the braille rendering step (c3) of the recognized character are sequentially performed.

영상영역 외의 문자 인식단계(c1)에서는 일반교육 자료 내 시각자료를 제외한 문단이나 단락 등과 같은 문자영역에 대해 광학문자인식을 수행하여, 문자영역에 대한 영상정보로부터 컴퓨터가 인식할 수 있는 문자정보를 생성한다. In the character recognizing step (c1) outside the video area, optical character recognition is performed on a character area such as a paragraph or a paragraph except for the visual data in the general education data, and the computer recognizes character information from the video information on the character area .

영상영역 내의 문자 인식단계(c2)에서는 일반교육 자료 내에서 시각자료 내 포함되는 문자들에 대해 상기와 마찬가지로 광학문자인식을 수행하여, 영상영역 내의 문자영역으로부터 컴퓨터가 인식할 수 있는 문자정보를 생성한다. In the character recognition step c2 in the video region, optical character recognition is performed on the characters included in the visual data in the general education data as described above to generate computer-recognizable character information from the character region in the video region do.

인식된 문자의 점자 표현단계(c3)에서는 영상영역 이외의 문자영역과 영상영역 내 문자영역에서 각각 광학문자인식을 통해 생성한 문자정보를 ‘한국어점자규정’ 및 ‘영어점자규정’ 에 따라 시각장애인들이 인지할 수 있는 점자정보로 각각 변환하게 되며, 현재의 시각장애인들이 사용하고 있는 연결어나 약어, 기본적인 산술연산 기호 및 일반기호 등도 함께 점역한다.In step (c3), the character information generated by the optical character recognition in the character area other than the video area and the character area in the video area is classified into 'Korean Braille Regulation' and 'English Braille Regulation' And braille information which can be perceived by the users of the visually impaired, and the connection words, abbreviations, basic arithmetic operation symbols and general symbols used by the visually handicapped persons are also brought together.

한편, 일반적으로 점자는 문자를 자소 단위로 표현함으로써 그 길이가 문자에 비해 길어지게 된다. 따라서 이 점자 표현단계(c3)에서는 상기 영상영역 외의 문자정보로부터 점역된 점자정보를 햅틱디스플레이에 표현하기 위해, 점자의 길이를 계산하여 햅틱디스플레이 해상도의 너비에 맞추어 줄 바꿈을 수행하여 점자정보를 출력한다.On the other hand, in general, a braille character is expressed by a unit of a character so that its length is longer than that of a character. Therefore, in this braille expression step (c3), braille information is calculated by calculating the length of the braille and converting the braille information to the width of the haptic display resolution in order to express the braille information from the character information outside the image area in the haptic display do.

또한 영상영역 내에서 점자를 표현할 때에는 점자가 영상정보와 중첩되어 시각장애인의 인지율을 떨어뜨릴 위험이 있다. 따라서 이를 해결하기 위해 이 단계(c3)에서는 상기 영상영역 내의 문자정보로부터 점역된 점자정보를 영상영역 내에 배치한 후, 주변의 영상정보와 중첩되는지를 검사하여, 중첩될 경우에는 그 점자정보에 대응하는 인덱스를 영상영역 내에 배치하고, 상기 영상영역의 외부에 해당 인덱스와 함께 점자정보를 출력한다.Also, when braille is expressed in the image area, there is a risk that the braille overlaps with the image information, thereby lowering the perception rate of the blind. In order to solve this problem, in this step (c3), braille information, which is obtained from the character information in the image area, is placed in the image area, and then it is checked whether the braille information overlaps with surrounding image information. And outputs braille information along with the index to the outside of the image area.

도 7 내지 도 9는 일반 교육자료 내 영상영역 및 문자 추출단계를 설명하기 위하여 예시한 참고도로서, 본 발명에 따른 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법을 일반교육 자료에 적용하여 촉각정보로 변환한 실험결과를 예시하고 있다. 본 실험은 총 3단계로 구성된 각각의 일반교육 자료 내 영상영역 및 문자영역 추출단계(a), 복잡도별 영상정보 촉각화단계(b), 및 문자인식 및 점자 변환단계(c)에 대한 성능을 측정하기 위해 도 7부터 도 9까지의 (a)에 보인 바와 같이 문자, 시각자료(그래프, 지도, 사진) 및 시각자료 내 문자가 혼합되어 있는 세 가지 종류의 일반교육 자료들을 바탕으로 진행하였다. 먼저, 각 그림의 (b)부터 (e)까지는 입력된 교육자료의 영상영역과 문자영역을 분류하기 위한 단계(수학식 1 내지 수학식 4 참조)을 순차적으로 예시하고 있으며, (f)는 분류한 결과를 예시하고 있다. 이 때, 영상 내 파란색 라벨과 녹색 라벨은 각각 영상영역 이외의 문자영역과 영상영역에 포함된 문자영역을 나타내며, 붉은색 라벨은 시각자료에 대한 영상영역을 나타낸다. 문자영역 및 영상영역에 대한 분류의 정확도(p) 및 재현율(r)은 추출한 문자를 기준으로 다음의 수학식 9를 통해 산출할 수 있다.FIGS. 7 to 9 are reference views for explaining the image region and character extraction step in the general education data. The visual information display method based on the haptic display for the visually impaired according to the present invention is applied to the general education data, As shown in Fig. In this experiment, the performance of the image region and character region extraction step (a), the image information hapticization step (b), and the character recognition and braille transformation step (c) To do this, we conducted three types of general education materials, which are composed of letters, visual materials (graphs, maps, photographs) and letters in visual materials, as shown in Figures 7 to 9 (a). (B) to (e) illustrate sequentially the steps (see Equations 1 to 4) for classifying the image region and the character region of the inputted training data, and (f) The results are illustrated. In this case, the blue label and the green label in the image represent a character region other than the image region and a character region included in the image region, respectively, and a red label represents an image region for visual data. The accuracy ( p ) and the recall rate (r) of the classification for the character region and the image region can be calculated by the following Equation (9) based on the extracted character.

Figure pat00017
Figure pat00017

상기 수학식 9에서 NDT(Number of Detected Texts)는 문자로 판단한 라벨의 총 수를 나타내며, TNCT(Total Number of Correct Texts)는 NDT 중 정확히 추출한 문자의 라벨 수를 나타낸다. 그리고 TNT(Total Number of Texts)는 자료 내 실제 문자개체의 총 수를 나타낸다. 본 수학식을 통해 그래프, 지도 및 사진을 포함하는 문자의 정확도는 각각 100%, 97.2%, 90.9%로 나타났으며, 재현율은 모든 문자가 라벨에 포함되어 모두 100%로 나타났다.In Equation (9), NDT (Number of Detected Texts) represents the total number of labels judged as characters, and TNCT represents the number of labels of correctly extracted characters in NDT . And TNT (Total Number of Texts) represents the total number of actual text objects in the data. Through this equation, the accuracy of the characters including graph, map, and photograph were 100%, 97.2%, and 90.9%, respectively, and the recall rate was 100% for all characters included in the label.

다음으로, 도 10은 각각 복잡도별 영상의 촉각화 단계를 설명하기 위하여 예시한 참고도이고, 도 11은 고 복잡도 영상의 잡음 제거 및 단순화 단계를 설명하기 위하여 예시한 참고도로서, 도 10의 (a)는 각각 그래프, 지도 및 사진에 대한 밝기 영상을 예시하고 있으며, (b)는 이에 대한 밝기의 누적 히스토그램을 예시하고 있다. 이에 조건적 연산식 1 및 2를 적용하여 밝기의 평균 누적값을 제거함으로써 (c)와 같은 히스토그램을 생성할 수 있으며, 밝기 값의 잔여 구간에 대한 변화율은 각각 82.5%, 58.4%, 0.4%로 나타났다. 산출한 각각의 변화율을 수학식 5에 대입함으로써 그래프는 저 복잡도 영상으로, 지도 및 사진은 고 복잡도 영상으로 분류할 수 있다. 그리고 (d)는 분류한 영상을 촉각정보로 변환한 결과를 예시하고 있는데, 이 때, 고 복잡도 영상으로 분류된 지도 및 사진과 같은 경우는 저 복잡도 영상인 그래프와는 달리 시각장애인에게 보다 명확하게 영상정보를 전달하기 위해, 도 11의 (a)부터 (d)까지에 예시한 바와 같이 잡음 및 단순화 과정(수학식 6 내지 수학식 8), 조건적 연산식 3을 추가적으로 수행한다.10 is a reference view illustrating the haptic step of each complexity image, FIG. 11 is a reference diagram illustrating a noise cancellation and simplification step of a high-complexity image, and FIG. a) shows a brightness image for a graph, a map and a photograph, respectively, and (b) illustrates a cumulative histogram of the brightness for the graph, the map and the photograph. The histogram of (c) can be generated by removing the average cumulative brightness by applying the conditional equations 1 and 2, and the change rate of the brightness value with respect to the remaining interval is 82.5%, 58.4%, and 0.4%, respectively appear. By substituting the calculated rate of change into Equation 5, the graph can be classified into a low-complexity image, and the map and photograph can be classified into a high-complexity image. (D) illustrate the result of transforming the classified image into tactile information. In this case, in the case of maps and photographs classified into high-complexity images, unlike the low complexity graph, Noise and simplification processes (Equations (6) to (8)) and Conditional Equation (3) are additionally performed as illustrated in Figs. 11A to 11D in order to transmit the image information.

마지막으로 도 12는 문자 인식 및 추출단계에서 영상영역을 제외한 문자 인식 단계를 설명하기 위하여 예시한 참고도이고, 도 13은 문자 인식 및 추출단계에서 영상영역 내 문자 인식 및 인덱싱 단계를 설명하기 위하여 예시한 참고도로서, 도 12와 도 13은 추출한 문자영역들에 대해 광학문자인식을 적용하여 컴퓨터가 인식할 수 있는 정보를 추출하고, 시각장애인이 인지할 수 있는 점자정보로 변환한 결과를 예시하고 있다. 이 때, 도 13에 예시된 바와 같이 영상 내 문자가 존재할 경우에는 점자정보가 영상정보와 중첩되지 않으면 영상 내 점자를 표현하고, 중첩될 시에는 점자의 위치에 인덱스를 표기한 후, 이에 대한 인덱스 및 점자정보를 따로 생성한다.12 is a reference view for explaining a character recognition step excluding an image area in a character recognition and extraction step, and FIG. 13 is a flowchart illustrating an example of a character recognition and extraction step in a character recognition and extraction step, 12 and 13 illustrate a result obtained by extracting computer-recognizable information by applying optical character recognition to extracted character regions, converting the information into braille information that can be perceived by a visually impaired person, have. 13, if braille characters do not overlap with the image information, braille in the image is represented. If the braille information overlaps with the image information, an index is displayed at the position of the braille, and an index And braille information separately.

도 14는 그래프, 지도 및 사진을 포함하는 일반교육 자료를 촉각정보로 변환한 최종결과를 예시하고 있다. 이러한 촉각정보의 배치는 시각자료를 우선 시하며, 시각자료 내 문자 및 인덱스가 있을 경우에는 이어서 관련된 정보를 출력한다. 그리고 본문의 내용을 점역한 결과를 출력하며, 결과 영상 내 파랑색의 선은 햅틱디스플레이의 해상도에 따른 페이지를 나타내는 경계선이다. 결과적으로 본 발명의 일반교육 자료 내 영상영역 및 문자영역 추출단계(a100), 복잡도별 영상정보 촉각화단계(b100), 및 문자인식 및 점자 변환단계(c100)를 통해 일반교육 자료 내 주요정보들을 추출하여 시각장애인이 인지할 수 있는 촉각정보로 변환함으로써, 기존의 촉도를 생성하는데 요구되는 많은 자원을 절감함과 함께 시각장애인에게도 많은 자료를 손쉽게 생성하여 제공할 수 있게 된다. Figure 14 illustrates the end result of transforming general education materials, including graphs, maps and photographs, into tactile information. This arrangement of tactile information prioritizes visual data, and if there is a character and an index in the visual data, related information is then output. The blue line in the resulting image is a boundary line indicating a page according to the resolution of the haptic display. As a result, the main information in the general education data is extracted through the image region and character region extraction step (a100), the complexity-based image information tactilation step (b100), and the character recognition and braille conversion step (c100) By converting the tactile information into tactile information that can be perceived by the visually impaired, it is possible to save a lot of resources required to generate the existing tactile and easily generate and provide a large amount of data to the visually impaired.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Modification is possible. Accordingly, it is intended that the scope of the invention be defined by the claims appended hereto, and that all equivalent or equivalent variations thereof fall within the scope of the present invention.

10 : 교육자료 입력부 20 : 촉각정보 표시부
100 : 촉각정보 변환시스템 110 : 영상/문자영역 추출부
120 : 복잡도별 영상 촉각화부 130 : 문자인식 및 점역부
10: training data input unit 20: tactile information display unit
100: tactile information conversion system 110: image / character area extraction unit
120: an image hunting unit 130 for each complexity 130:

Claims (23)

(a100) 일반 교육자료 내에 혼합되어 있는 각 정보에 대한 문자영역 및 영상영역을 추출하는 일반교육 자료 내 영상영역 및 문자영역 추출단계;
(b100) 상기 추출한 영상영역을 분석하여 도형 및 그래프를 포함하는 저 복잡도 영상과, 삽화 및 사진을 포함하는 고 복잡도 영상을 구분하고, 상기 구분된 각 영상을 복잡도에 따라 서로 다른 처리과정을 통해 촉각정보로 변환하는 복잡도별 영상정보 촉각화단계; 및
(c100) 상기 추출한 문자영역 내의 문자정보 및 상기 영상영역 내의 문자정보를 분석하여, 시각장애인이 인지할 수 있는 점자정보로 변환하는 문자인식 및 점자변환단계;를 포함하여 이루어지는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
(a100) extracting a character region and an image region for each information mixed in the general education data;
(b100) analyzing the extracted image region to distinguish a low-complexity image including a figure and a graph, a high-complexity image including an illustration and a photograph, and dividing each of the classified images into tactile A tactile sense step of converting the image information into information; And
(c100) analyzing character information in the extracted character area and character information in the video area, and converting the character information into braille information that can be recognized by a visually impaired person; and A haptic display based visual information display method.
제1항에 있어서, 상기 (a100) 일반교육 자료 내 영상영역 및 문자영역 추출단계는,
일반 교육자료 내의 각 정보를 영상영역 이외의 문자영역, 영상영역 내의 문자영역, 및 영상영역으로 분류하는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
The method of claim 1, wherein the step (a100)
Wherein each piece of information in the general education data is classified into a character area other than the video area, a character area in the video area, and an image area, and the haptic display based visual information display method for the visually impaired.
제1항에 있어서, 상기 (a100) 일반교육 자료 내 영상영역 및 문자영역 추출단계는,
(a1) 일반 교육자료에 대한 문자와 시각자료의 특성 분석을 위한 밝기(brightness) 영상 및 라벨(label)에 대한 기반 정보를 생성하는 일반교육 자료 입력단계;
(a2) 상기 생성된 밝기 영상 내에서 나타나는 문자와 시각자료의 특징을 기반으로 문자영역과 영상영역을 각각 분류하여 영상영역을 추출하는 영상영역 추출단계; 및
(a3) 상기 분류한 영상영역 내에서 문자영역을 검출하는 영상영역 내 문자 추출단계;를 포함하여 이루어지는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
The method of claim 1, wherein the step (a100)
(a1) a general education data input step of generating brightness information for a character and visual characteristic of general education data and base information about a label;
(a2) an image region extracting step of extracting an image region by classifying a character region and an image region, respectively, based on characteristics of characters and visual data appearing in the generated brightness image; And
(a3) extracting a character region in the image region within the classified image region; and (h3) extracting a character region in the image region in the classified image region.
제3항에 있어서, 상기 (a1) 일반교육 자료 입력단계는,
(a11) 스캔한 일반 교육자료의 모든 픽셀에 대해 그레이 스케일(gray scale) 처리를 수행하여 밝기 영상에 대한 기반정보를 생성하는 단계;
(a12) 상기 생성된 밝기 영상에 대한 기반정보의 이진화 및 라벨링 처리를 통해 라벨에 대한 기반정보를 생성하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
4. The method of claim 3, wherein the step (a1)
(a11) performing gray scale processing on all pixels of the scanned general education data to generate base information for the brightness image;
(a12) generating base information on the label through binarization and labeling of the base information on the generated brightness image, and displaying the base information on the haptic display based on the haptic display.
제4항에 있어서, 상기 (a12) 라벨에 대한 기반정보 생성단계는,
상기 생성된 밝기 영상을 흑화소와 백화소만으로 재구성하는 이진화 처리단계;
상기 이진화 처리된 밝기 영상의 인접한 흑화소 간의 연결 상태를 검사하여 서로 연결된 픽셀들을 하나의 개체로 판단하여, 적어도 자소(문자를 구성하는 최소 단위) 단위 이상의 개체들로 분류되는 문자와, 백화소의 유무에 따라 하나 혹은 그 이상의 개체로 분류되는 시각자료를 구분하는 라벨링 처리단계;를 포함하여 이루어지는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
5. The method of claim 4, wherein the step (a12)
A binarization processing step of reconstructing the generated brightness image into only black pixels and white pixels;
Checking the connection state between adjacent black pixels of the binarized brightness image, determining the pixels connected to each other as one entity, determining at least characters that are classified into entities of at least a character (minimum unit) And a labeling processing step of identifying visual data classified into one or more objects according to the haptic display information.
제3항에 있어서, 상기 (a2) 영상영역 추출단계는,
(a21) 상기 입력된 일반교육 자료에 대한 밝기 영상 내에서 문자와 시각자료의 이웃한 픽셀 간의 밝기 값에 대한 변화량(G)을 수학식 1을 통해 산출하는 단계;
(a22) 상기 산출된 문자와 시각자료의 이웃한 픽셀 간의 밝기 값에 대한 변화량(G)만으로 변화량 차이(GD) 영상을 생성하는 단계;
(a23) 상기 생성된 GD 영상 내에서 예상되는 문자 영역의 후보군을 결정하기 위해, 상기 생성한 시각자료에 대한 라벨을 이상치(Outlier)로 제외시킨 상태에서, 문자의 라벨에 대한 평균 너비(LW average )를 수학식 2를 통해 산출하는 단계;
(a24) 상기 산출된 문자의 라벨에 대한 평균 너비(LW average )를 기준으로 GD 영상에 대해 수학식 3을 적용하여 최대 변화량 차이(MGD) 영상을 재구성하는 단계;
(a25) 상기 재구성한 MGD 영상에 대해 수학식 4를 통해 경계값(Tb)을 결정하여 이진화를 수행하고, 각 행별로 연결된 백화소의 너비를 구하여 2개의 문자를 합한 너비(2 LW average )보다 작은 너비의 백화소를 제거하여 MGD 영상 내 예상되는 문자영역의 후보군을 결정하는 단계;
(a26) 상기 예상되는 문자영역의 후보군을 결정한 MGD 영상에 대해 팽창(dilate)과 침식(erode)의 모폴로지(morphology) 연산을 수행하여 상기 MGD 영상 내에서 자소 및 띄어쓰기에 의해 산재되어 있는 문자영역을 병합하는 단계; 및
(a27) 상기 일반교육 자료의 입력단계에서 산출한 자료의 라벨들에 대해, 상기 후보군의 문자영역 내에 포함되는지의 여부를 검사하여, 일반교육 자료 내 문자와 시각자료를 각각 문자영역과 영상영역으로 분류하는 단계;를 포함하여 이루어지는 것을 특징으로 하며,
수학식 1
Figure pat00018

수학식 2
Figure pat00019

수학식 3
Figure pat00020

수학식 4
Figure pat00021

상기 수학식 1 내지 수학식 4에서, x, y는 픽셀의 열과 행의 위치, w, h는 영상의 너비와 높이, B(x, y)는 해당 픽셀 위치의 밝기 값, G(x, y)는 이웃한 픽셀에 대한 변화량, Q 1 Q 3 는 라벨의 너비에 대한 1사분위 수와 3사분위 수, LW NL은 각각 라벨의 너비와 라벨의 총 개수, T b 는 이진화를 수행할 경계값인, 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
4. The method of claim 3, wherein the extracting of the image region (a2)
(a21) calculating a change amount (G) with respect to a brightness value between neighboring pixels of the character and the visual data in the brightness image of the input general education data through Equation (1);
(a22) generating a change amount difference (GD) image by only the amount of change (G) with respect to the brightness value between neighboring pixels of the calculated character and the visual data;
(a23) In order to determine the candidate region of the character region expected in the generated GD image, the label for the generated visual data is excluded by Outlier, and the average width ( LW average ) Using Equation (2);
(a24) reconstructing a maximum change amount difference (MGD) image by applying Equation (3) to a GD image based on an average width ( LW average ) of the calculated characters of the label;
(a25) For the reconstructed MGD image, binarization is performed by determining the boundary value Tb through Equation (4), and the width of white pixels connected to each line is determined so that the width ( 2 LW average ) Determining a candidate region of a character region expected in the MGD image by removing a white pixel of a width;
(a26) A morphology operation of dilate and erode is performed on the MGD image in which the candidate region of the predicted character region is determined, so that the character region scattered by the glyph and spacing in the MGD image Merging; And
(a27) It is checked whether or not the labels of the data calculated in the input step of the general education data are included in the character area of the candidate group, and the characters and the visual data in the general education data are classified into the character area and the image area And classifying the plurality of pixels,
Equation 1
Figure pat00018

Equation 2
Figure pat00019

Equation 3
Figure pat00020

Equation 4
Figure pat00021

In Equation 1 to Equation 4, x, y are the location of the rows and columns of pixels, w, h are the width and height, (x, y) B of the image is the brightness value of the corresponding pixel locations, G (x, y ) Is the variation of neighboring pixels, Q 1 and Q 3 are the first quartile and third quartile for the width of the label, LW and NL are the label width and the total number of labels, respectively, and T b is binarization A visual information display method based on haptic display for a visually impaired person.
제6항에 있어서, 상기 (a27) 문자영역과 영상영역 분류단계는,
상기 일반교육 자료의 입력단계에서 산출한 자료의 라벨이 상기 후보군의 문자영역 내에 포함되어 있으면 문자에 대한 라벨로 결정하고, 후보군에 포함되어 있지 않으면 영상영역에 대한 라벨로 결정하여, 일반교육 자료 내 문자와 시각자료를각각 문자영역과 영상영역으로 분류하는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
7. The method of claim 6, wherein the step (a27)
If the label of the data calculated in the inputting step of the general education data is included in the character area of the candidate group, it is determined as a label for the character, and if the label is not included in the candidate group, Wherein the character and visual data are classified into a character area and an image area, respectively, and a haptic display based visual information display method for a visually impaired person.
제3항에 있어서, 상기 (a3) 영상영역 내 문자 추출단계는,
상기 영상영역 추출단계에서 결정한 영상영역 내에 문자의 유/무를 판단하여, 문자가 있을 시에는 이를 문자영역으로 추출하되, 상기 영상영역 추출단계와 동일한 환경(문자의 라벨에 대한 평균너비, 모폴로지 연산의 필터) 하에서 그 탐색 범위를 영상영역만으로 제한하여 수행하며, 그 결과 영상영역 내 문자영역을 추출하는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
4. The method of claim 3, wherein the step (a3)
The method comprising the steps of: determining whether a character exists in an image region determined in the image region extraction step, and extracting the character as a character region when there is a character, Filter), the search range is limited to only the image region, and as a result, the character region in the image region is extracted. The haptic display-based visual information display method for a visually impaired person.
제1항에 있어서, 상기 (b100) 복잡도별 영상정보 촉각화단계는,
(b1) 상기 산출된 영상영역의 밝기에 대한 누적 히스토그램을 분석하여 복잡도에 따라 영상을 저 복잡도 영상과 고 복잡도 영상으로 분류하는 영상 분류단계;
(b2) 상기 분류된 고 복잡도 영상이 주요 객체를 포함하는지의 여부를 판단하여 추출하는 고 복잡도 영상의 중심객체 유무 판별 및 추출단계; 및
(b3) 시각장애인의 인지를 돕기 위해 영상의 복잡도를 낮춰 단순화하는 고 복잡도 영상의 잡음제거 및 단순화단계;를 포함하여 이루어지는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
The method according to claim 1, wherein the step (b100)
(b1) an image classification step of classifying the image into a low-complexity image and a high-complexity image according to the complexity by analyzing an accumulated histogram of the brightness of the calculated image region;
(b2) a step of discriminating and extracting a center object of a high-complexity image for determining whether the classified high-complexity image includes a main object and extracting the center object; And
(b3) removing and simplifying the noise of the high-complexity image, which simplifies and simplifies the complexity of the image to help the visually impaired to recognize the haptic display.
제9항에 있어서, 상기 (b1) 영상 분류단계는,
(b11) 영상에 대한 밝기의 평균누적값을 조건적 연산식 1을 통해 산출하는 단계;
(b12) 상기 산출된 밝기의 평균누적값을 조건적 연산식 2를 통해 각각의 밝기 누적값에서 차분하여 저 복잡도 영상 내 밝기의 누적값이 연속된 구간에서 나타나는 현상을 제거하는 단계; 를 포함하여 이루어지는 것을 특징으로 하며,
상기 조건적 연산식 1은,
for(i=0, cnt=0, sum=0; i<256; i++){if((Q 1 -1.5(Q 3 -Q 1 ) <= NH i <= (Q 3 +1.5(Q 3 -Q 1 )) then cnt++, sum+= NH i ;} NH average = sum / cnt;이며,
상기 조건적 연산식 2는,
for(i=0; i<256; i++) NH i -= NH average ;이고,
상기 각 연산식에서 NH i 는 해당 밝기에 대한 누적값, NH average 는 영상에 대한 밝기의 평균 누적값, Q 1 Q 3 는 각각 밝기의 누적 값에 대한 1사분위수와 3사분위수인, 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
The method according to claim 9, wherein the step (b1)
(b11) calculating an average cumulative value of brightness for the image through a conditional expression (1);
(b12) removing the phenomenon that the cumulative value of the brightness in the low-complexity image appears in a continuous interval by subtracting the average cumulative value of the calculated brightness from each cumulative brightness value through the conditional expression (2); And a control unit,
The conditional expression (1)
for (i = 0, cnt = 0, sum = 0; i <256; i ++) {if ((Q 1 -1.5 (Q 3 - Q 1) <= NH i A,; - <= (Q 3 +1.5 (Q 3 Q 1)) then cnt ++, sum + = NH i;} NH average = sum / cnt
The conditional expression (2)
for (i = 0; i <256; i ++) NH i - = NH average ;
In the above equations, NH i is an accumulated value for the corresponding brightness, NH average is an average cumulative value of brightness for an image, Q 1 and Q 3 are a first and a third quartile of cumulative brightness values, A haptic display based visual information display method.
제9항에 있어서, 상기 (b2) 고 복잡도 영상의 중심 객체 유무 판별 및 추출단계는,
(b21) 고 복잡도 영상을 구성하는 픽셀의 색상 유사도를 측정하고, 양자화(quantization)를 통해 유사한 색상들을 대표색상으로 변환하는 단계;
(b22) 상기 대표색상으로 변환된 영상 내에서 중심객체 영역에 해당되는 색상의 분포도를 측정하여, 중심객체의 유무를 판별하는 단계; 및
(b23) 상기 판별 결과 중심객체가 존재할 경우 그 중심객체에 대한 윤곽선을 추출하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
10. The method of claim 9, wherein the step (b2)
(b21) measuring color similarity of pixels constituting the high-complexity image, and converting similar colors into representative colors through quantization;
(b22) determining a presence or absence of a center object by measuring a distribution of colors corresponding to a center object area in the image converted into the representative color; And
(b23) extracting a contour of the center object when the determination result center object exists, and displaying the contour of the center object when the determination result center object exists.
제11항에 있어서, 상기 (b21) 유사한 색상들을 대표색상으로 변환하는 단계는,
PGF(Peer Group Filtering)기법을 이용하여 양자화 레벨을 결정하는 단계;
상기 결정된 레벨에 따른 양자화를 통해 유사한 색상들을 대표색상으로 변환시켜 고 복잡도 영상의 색상에 대한 복잡도를 감소시키는 단계;를 포함하여 이루어지는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
12. The method of claim 11, wherein transforming (b21) similar colors to representative colors comprises:
Determining a quantization level using a Peer Group Filtering (PGF) technique;
And converting the similar colors into representative colors through quantization according to the determined level to reduce complexity with respect to colors of the high-complexity image.
제11항에 있어서, 상기 (b22) 중심객체의 유무를 판별하는 단계는,
수학식 6에 정의한 영상의 중심영역에서 빈도수가 가장 많은 색상을 중심객체의 대표색상이라 가정한 상태에서, 이에 대한 세로 방향 및 가로 방향에 대한 분산을 계산하여 영상 내 분포도를 산출하는 단계;
상기 산출된 분포도에 따라 중심객체의 유무를 판별하는 단계;를 포함하여 이루어지는 것을 특징으로 하며,
수학식 6
Figure pat00022

상기 수학식 6에서 w, h는 각각 고 복잡도 영상의 너비와 높이, AreaX obj AreaY obj 는 각각 중심영역의 x축과 y축의 범위인, 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
12. The method as claimed in claim 11, wherein the step (b22)
Calculating an intra-image distribution by calculating a variance with respect to a vertical direction and a horizontal direction of the image, assuming that a color having the highest frequency among the central regions of the image defined in Equation (6) is a representative color of the central object;
And determining whether or not the center object exists according to the calculated distribution map.
Equation 6
Figure pat00022

Where w and h are the width and height of the high complexity image, respectively, and AreaX obj and AreaY obj are the ranges of the x and y axes of the central region, respectively.
제13항에 있어서, 상기 중심객체 유무 판별단계는,
조건적 연산식 3을 통해 중심객체를 대표하는 색상이 수평적으로 넓게 분포되어 있거나 분포도가 낮은 경우를 중심객체가 없는 영상으로 판단하고, 그 밖의 경우에는 중심객체가 있는 것으로 판단하는 것을 특징으로 하며,
조건적 연산식 3
s max =max(s verticality , s horizontality )
if(((s max == s horizontality )&&(s max >T 1 ))||(s max <T 2 ))
then I is a non-object image
otherwise I is an object image
(T 1 = 0.06, T 2 = 0.01)
상기 조건적 연산식 3에서 s verticality s horizontality 는 고 복잡도 영상(I) 내 중심객체의 대표색상에 대한 최대 수직 및 최대 수평 분산, s max s verticality s horizontality 중 큰 값을 갖는 최대 분산, 최대 분산과 비교하는 임계값 T 1 T 2 는 상수로서 다양한 고 복잡도 영상에 대해 반복적인 실험을 통해 산출되는 최적 실험치인, 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
[14] The method of claim 13,
It is determined that the color representing the central object is horizontally wide or the distribution is low through the conditional expression (3) as an image without the center object, and in other cases, it is determined that the center object exists ,
Conditional expression 3
s max = max ( s verticality , s horizontality )
if (( s max == s horizontality ) && ( s max > T 1 )) ( s max < T 2 )
then I is a non-object image
otherwise I is an object image
( T 1 = 0.06, T 2 = 0.01)
In the conditional expression 3, s verticality And s horizontality is the maximum vertical and maximum horizontal variance, s max for the representative color of the central object in the high complexity image ( I ) s verticality and s horizontality , the threshold values T 1 and T 2, which are compared with the maximum variance and the maximum variance, are constants, which are the optimal test values obtained through repeated experiments on various high- Display based visual information display method.
제11항에 있어서, 상기 (b23) 중심객체의 윤곽선 추출단계는,
상기 양자화된 고 복잡도 영상에서 수학식 7을 통해 정의된 영상의 네 모서리 구간에 대한 배경영역의 대표색상들을 추출하고, 그 추출된 색상들을 영상 전체에서 제거하여 영상 내에 중심객체에 대한 정보만을 남기는 단계;
상기 고 복잡도 영상에 대해 이진화 및 라벨링을 수행하여, 중심영역 이외에서 나타나는 색상정보들을 제거함과 아울러 중심객체의 대표색상에 대한 라벨들을 생성하는 단계; 및
상기 생성된 각각의 라벨들에 대한 위치가 중심영역에 포함되는지를 검사하여 잡음을 제거하고, 고 복잡도 영상 내에 남겨진 중심 객체의 윤곽선을 검출하여, 촉각정보로 변환할 영상의 중심객체를 추출하는 단계;를 포함하여 이루어지며,
수학식 7
Figure pat00023

상기 수학식 7에서 AreaX n AreaY n 은 각각 영상의 네 모서리에 대한 배경영역, wh는 고 복잡도 영상의 너비와 높이인, 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
12. The method according to claim 11, wherein the step (b23)
Extracting representative colors of a background region for four corners of the image defined by Equation (7) in the quantized high-complexity image, removing the extracted colors from the entire image, and leaving only information about the center object in the image ;
Performing binarization and labeling on the high-complexity image to remove color information appearing in areas other than the center area, and generating labels for the representative color of the center object; And
Extracting a center object of an image to be converted into tactile information by detecting a contour of a center object left in a high-complexity image by checking whether a position for each of the generated labels is included in the center area, ; &Lt; / RTI &gt;
Equation 7
Figure pat00023

In the equation 7 AreaX AreaY n and n is the background area of the four corners of each image, and w and h are the width and height of the image complexity, the haptic display based on the time information display method for the visually impaired.
제9항에 있어서, 상기 (b3) 고 복잡도 영상의 잡음제거 및 단순화단계는,
(b31) 고 복잡도 영상에 대해 이진화 및 라벨링 처리를 수행하여 영상을 구성하는 윤곽선들에 대한 라벨의 크기를 산출하는 단계;
(b32) 영상의 해상도와 햅틱디스플레이의 해상도를 비교하여 너비와 높이의 비율을 산출한 후, 각각의 라벨을 수학식 8을 통해 햅틱디스플레이의 해상도에 맞춰 축소하였을 경우, 픽셀의 크기가 햅틱디스플레이의 1셀 이하로 축소되는 라벨이 가진 영상정보를 중요도가 낮은 잡음으로 분류하여 제거하는 단계;를 포함하여 이루어지며,
수학식 8
Figure pat00024

상기 수학식 8에서, H width H height 는 햅틱디스플레이의 너비와 높이, I width I height 는 영상의 너비 및 높이, T w T h 는 햅틱디스플레이로 축소하기 위한 영상의 너비 및 높이에 대한 축소 비율, LW, LHn은 해당 라벨의 너비와 높이 및 총 개수, S는 라벨을 햅틱디스플레이 해상도로 변환하였을 때의 픽셀의 크기인, 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
10. The method of claim 9, wherein the step (b3)
(b31) calculating a size of a label for contours constituting an image by performing binarization and labeling processing on a high-complexity image;
(b32) When the ratio of the width and the height is calculated by comparing the resolution of the image and the resolution of the haptic display, and the respective labels are reduced according to the resolution of the haptic display through Equation (8) And classifying and removing the image information of the label which is reduced to one cell or less into low-importance noise,
Equation 8
Figure pat00024

In Equation (8), H width and H height are the width and height of the haptic display, I width and I height are the width and height of the image, and T w and T h are the width and height of the image Wherein the reduction ratio, LW , LH, and n are the width, height, and total number of labels, and S is the size of the pixel when the label is converted to the haptic display resolution.
제16항에 있어서, 상기 (b3) 고 복잡도 영상의 잡음제거 및 단순화단계는,
(b33) 상기 검출된 윤곽선들의 복잡도를 낮추기 위해 윤곽선들의 코너점을 검출하고, 그 코너점을 이용하여 연결선을 생성하는 단계;
(b34) 상기 연결선들 간의 교차각을 검사하여 그 교차각이 임계각 이상일 경우 그 연결선이 공유하는 코너점을 제거하고 남은 두 점으로 새로운 연결선을 생성하여 영상의 윤곽선에 대한 복잡도를 낮추는 단계;를 더 포함하여 이루어지며,
상기 임계각은 윤곽선의 복잡도가 높은 다양한 영상에 대해 실험을 수행하여 측정된 최적 실험치인, 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
The method of claim 16, wherein the removing and simplifying the noise of the high complexity image (b3)
(b33) detecting a corner point of the contours to lower the complexity of the detected contours, and creating a connecting line using the corner points;
(b34) checking the intersection angle between the connecting lines, and if the intersection angle is greater than or equal to the critical angle, removing a corner point shared by the connecting line and creating a new connecting line at the remaining two points to lower the complexity with respect to the contour of the image &Lt; / RTI &gt;
Wherein the threshold angle is an optimal test value measured by performing an experiment on various images having a high complexity of a contour line, and a haptic display based visual information display method for a visually impaired person.
제1항에 있어서, 상기 (c100) 문자인식 및 점자 변환단계는,
상기 추출한 문자영역에 대해 광학문자인식(OCR, Optional Character Recognition)을 적용하여 컴퓨터가 인식할 수 있는 정보로 변환한 후 이를 시각장애인이 인지할 수 있는 점자형태로 변환하는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
The method as claimed in claim 1, wherein the step (c100)
Converting the extracted character area into information recognizable by a computer by applying optical character recognition (OCR) to the character area, and converting the converted character information into a braille type recognizable by a visually impaired person. A haptic display based visual information display method.
제1항에 있어서, 상기 (c100) 문자인식 및 점자 변환단계는,
(c1) 일반교육 자료 내 시각자료를 제외한 문단이나 단락의 문자영역에 광학문자인식을 수행하여, 문자영역에 대한 영상정보로부터 컴퓨터가 인식할 수 있는 문자정보를 생성하는, 영상영역 외의 문자 인식단계;
(c2) 일반교육 자료 내 시각자료 내에 포함되는 문자들에 대해 광학문자인식을 수행하여, 영상영역 내의 문자영역으로부터 컴퓨터가 인식할 수 있는 문자정보를 생성하는, 영상영역 내의 문자 인식단계; 및
(c3) 상기 생성된 영상영역 외의 문자정보 및 영상영역 내의 문자정보를 점자 표현 알고리즘을 통해 시각장애인들이 인지할 수 있는 점자정보로 점역하여 표시하는, 인식된 문자의 점자 표현단계;를 포함하여 이루어지는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
The method as claimed in claim 1, wherein the step (c100)
(c1) character recognizing step outside the image area for performing optical character recognition on a character area of a paragraph or a paragraph excluding visual data in the general education data to generate computer-recognizable character information from the image information on the character area; ;
(c2) a character recognition step in the image area for performing optical character recognition on the characters included in the visual information in the general education data and generating computer-recognizable character information from the character area in the image area; And
(c3) braille character recognition step of displaying character information outside the generated image area and character information in the image area as braille information that can be recognized by the blind people through the braille expression algorithm Wherein the visual information is displayed on the haptic display.
제19항에 있어서, 상기 (c3) 인식된 문자의 점자 표현단계는,
(c31) 상기 영상영역 외의 문자정보로부터 점역된 점자정보를 햅틱디스플레이에 표현하기 위해, 점자의 길이를 계산하여 햅틱디스플레이 해상도의 너비에 맞추어 줄 바꿈을 수행하여 점자정보를 출력하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
20. The method of claim 19, wherein the step (c3)
(c31) calculating the length of the braille to display braille information from the character information outside the image area in the haptic display, and outputting braille information by performing line wrapping according to the width of the haptic display resolution And displaying the haptic display based visual information.
제19항에 있어서, 상기 (c3) 인식된 문자의 점자 표현단계는,
(c32) 상기 영상영역 내의 문자정보로부터 점역된 점자정보를 영상영역 내에 배치한 후, 주변의 영상정보와 중첩되는지를 검사하여, 중첩될 경우에는 그 점자정보에 대응하는 인덱스를 영상영역 내에 배치하고, 상기 영상영역의 외부에 해당 인덱스와 함께 점자정보를 출력하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
20. The method of claim 19, wherein the step (c3)
(c32) After placing braille information in the video area from the character information in the video area, it is checked whether the braille information overlaps with the surrounding video information. If overlapping, the index corresponding to the braille information is placed in the video area And outputting braille information to the outside of the image area together with the corresponding index. The haptic display-based visual information display method for a visually impaired person according to claim 1,
제19항에 있어서, 상기 (c3) 인식된 문자의 점자 표현단계는,
한국어점자규정 및 영어점자규정을 따라 점역이 이루어지며, 연결어, 약어, 기본적인 산술 연산기호, 및 일반기호에 대한 점역을 포함하는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시방법.
20. The method of claim 19, wherein the step (c3)
A braille character, a braille character, an arithmetic operation symbol, and a general symbol. The haptic display-based visual information display method for a visually impaired person, comprising:
자료 입력을 위한 교육자료 입력부(10), 점역된 점자를 표현하는 촉각정보 표시부(20)가 구비된 시각장애인을 위한 시각정보 표시시스템에 있어서,
일반 교육자료 내에 혼합되어 있는 각 정보에 대한 문자영역 및 영상영역을 추출하는 영상/문자영역 추출부(110);
추출한 영상영역을 분석하여 저 복잡도 영상과 고 복잡도 영상을 구분하여 촉각정보로 변환하는 복잡도별 영상 촉각화부(120); 및
및 추출한 문자영역 내의 문자정보 및 상기 영상영역 내의 문자정보를 분석하여, 시각장애인이 인지할 수 있는 점자정보로 변환하는 문자인식 및 점역부(130);를 포함하여 구성되는 것을 특징으로 하는 시각장애인을 위한 햅틱 디스플레이 기반 시각정보 표시시스템.
1. A visual information display system for a visually impaired person having an educational data input unit (10) for inputting data and a tactile information display unit (20) representing braille characters,
A video / character region extraction unit 110 for extracting a character region and an image region for each piece of information mixed in the general education data;
An image hunting unit 120 for each complexity for converting the low-complexity image and the high-complexity image into haptic information by analyzing the extracted image region; And
And a character recognition and a gamut unit 130 for analyzing the extracted text information in the text area and the text information in the image area and converting the text information into braille information that can be recognized by the visually impaired. Haptic display based visual information display system.
KR1020140007966A 2014-01-22 2014-01-22 System and method for displaying visual information based on haptic display for blind person KR101396678B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140007966A KR101396678B1 (en) 2014-01-22 2014-01-22 System and method for displaying visual information based on haptic display for blind person

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140007966A KR101396678B1 (en) 2014-01-22 2014-01-22 System and method for displaying visual information based on haptic display for blind person

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020120078087 Division 2012-07-18 2012-07-18

Publications (2)

Publication Number Publication Date
KR20140049525A true KR20140049525A (en) 2014-04-25
KR101396678B1 KR101396678B1 (en) 2014-05-30

Family

ID=50655071

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140007966A KR101396678B1 (en) 2014-01-22 2014-01-22 System and method for displaying visual information based on haptic display for blind person

Country Status (1)

Country Link
KR (1) KR101396678B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200103205A (en) * 2019-02-20 2020-09-02 경북대학교 산학협력단 Deep learning-based learning data generation method including an outline and a caption elimination method in a drawing and learning data generation system
CN112348067A (en) * 2020-10-28 2021-02-09 北京兆芯电子科技有限公司 Image apparatus and image processing method
CN113780260A (en) * 2021-07-27 2021-12-10 浙江大学 Computer vision-based intelligent barrier-free character detection method
KR20220091231A (en) * 2020-12-23 2022-06-30 주식회사 닷 Apparatus and method for output information

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102483860B1 (en) * 2021-02-26 2022-12-30 가천대학교 산학협력단 Cognitive Assistance System and Method for Visually Impaired using Tactile Display Tablet based on Artificial Intelligent
KR102480682B1 (en) 2021-06-01 2022-12-22 숙명여자대학교산학협력단 Electronic Device For Providing Audiovisual Data About Graph and The Method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101221513B1 (en) * 2010-12-13 2013-01-21 가천대학교 산학협력단 Graphic haptic electronic board and method for transferring visual information to visually impaired people as haptic information

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200103205A (en) * 2019-02-20 2020-09-02 경북대학교 산학협력단 Deep learning-based learning data generation method including an outline and a caption elimination method in a drawing and learning data generation system
CN112348067A (en) * 2020-10-28 2021-02-09 北京兆芯电子科技有限公司 Image apparatus and image processing method
KR20220091231A (en) * 2020-12-23 2022-06-30 주식회사 닷 Apparatus and method for output information
CN113780260A (en) * 2021-07-27 2021-12-10 浙江大学 Computer vision-based intelligent barrier-free character detection method
CN113780260B (en) * 2021-07-27 2023-09-19 浙江大学 Barrier-free character intelligent detection method based on computer vision

Also Published As

Publication number Publication date
KR101396678B1 (en) 2014-05-30

Similar Documents

Publication Publication Date Title
KR101396678B1 (en) System and method for displaying visual information based on haptic display for blind person
US10643094B2 (en) Method for line and word segmentation for handwritten text images
CN111401372A (en) Method for extracting and identifying image-text information of scanned document
CN110991403A (en) Document information fragmentation extraction method based on visual deep learning
McBride et al. A comparison of skin detection algorithms for hand gesture recognition
Papandreou et al. ICDAR 2013 document image skew estimation contest (DISEC 2013)
KR20130010841A (en) Image processing device and method
CN112446259A (en) Image processing method, device, terminal and computer readable storage medium
Hashim et al. Development of tomato inspection and grading system using image processing
KR20180013777A (en) Apparatus and method for analyzing irregular data, a recording medium on which a program / application for implementing the same
Park et al. A method for automatically translating print books into electronic Braille books
US9740927B2 (en) Identifying screenshots within document images
Caron et al. Use of power law models in detecting region of interest
KR101571681B1 (en) Method for analysing structure of document using homogeneous region
CN113673294A (en) Method and device for extracting key information of document, computer equipment and storage medium
Mohamad et al. Recognize printed Arabic letter using new geometrical features
CN110633666A (en) Gesture track recognition method based on finger color patches
Akoum et al. A new algorithmic approach for detection and identification of vehicle plate numbers
CN114494678A (en) Character recognition method and electronic equipment
Fang Semantic Segmentation of PHT Based on Improved DeeplabV3+.
Biller et al. Evolution maps for connected components in text documents
Nazemi et al. Mathematical formula recognition and transformation to a linear format suitable for vocalization
Tamatjita et al. A Lightweight Chinese Character Recognition Model for Elementary Level Hanzi Learning Application
Salunke et al. Sign Language Recognition System Using Customized Convolution Neural Network
Gebretinsae Video-based finger spelling recognition for Ethiopian sign language using center of mass and finite state of automata

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170418

Year of fee payment: 4