KR100238572B1 - 속성판정방법 - Google Patents

속성판정방법 Download PDF

Info

Publication number
KR100238572B1
KR100238572B1 KR1019950015957A KR19950015957A KR100238572B1 KR 100238572 B1 KR100238572 B1 KR 100238572B1 KR 1019950015957 A KR1019950015957 A KR 1019950015957A KR 19950015957 A KR19950015957 A KR 19950015957A KR 100238572 B1 KR100238572 B1 KR 100238572B1
Authority
KR
South Korea
Prior art keywords
pattern
feature data
data
mesh
input
Prior art date
Application number
KR1019950015957A
Other languages
English (en)
Other versions
KR960002071A (ko
Inventor
노리아키 유카와
쇼이치 이시이
미쯔타카 테시마
Original Assignee
모리시타 요이찌
마쯔시다덴기산교 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모리시타 요이찌, 마쯔시다덴기산교 가부시키가이샤 filed Critical 모리시타 요이찌
Publication of KR960002071A publication Critical patent/KR960002071A/ko
Application granted granted Critical
Publication of KR100238572B1 publication Critical patent/KR100238572B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)
  • Image Processing (AREA)

Abstract

본 발명은, 텔레비젼카메라등의 신호입력장치와 컴퓨터를 구비한 신호처리장치를 사용해서 입력화상에 포함되는 패턴이 어떠한 종류에 속하는 지를 판정하는 속성판정방법에 관한 것으로서, 속성판정의 정답율이 높고, 신뢰성이 높은 속성판정을 할 수 있는 동시에, 또 능력개선도 비교적 용이하게 행할 수 있는 속성방법을 제공하는 것을 목적으로 한 것이며, 그 구성에 있어서, 입력화상에 포함되는 입력패턴의 복수의 특징데이터와 표준패턴으로부터 구한 특징데이터의 멤버십함수를 비교하고, 이 입력패턴의 각 특징데이터에 대한 각 멤버십함수의 출력치를 얻는 것을 모든 특징데이터에 대해서 행하여 모든 특징데이터에 대한 출력치의 종합체를 구하고, 이것을 판정해야할 다수의 각 표준패턴에 대해서 행하고, 가장 종합치가 높은 표준패턴을 판별함으로서 입력패턴에 가장 유사도가 높은 표준패턴을 판정하는 것을 특징으로 한 것이다.

Description

속성판정방법
제1도는 본 발명의 속성판정방법의 일실시예에 있어서의 학습방법의 처리의 흐름도.
제2도는 동 실시예에 있어서의 판정방법의 처리의 흐름도.
제3도는 동 실시예에 있어서의 특징량의 세로구조벡터합의 설명도.
제4도는 동 실시예에 있어서의 특징량의 가로구조벡터합의 설명도.
제5도는 동 실시예에 있어서의 특징량의 면적차의 설명도.
제6도는 동 실시예에 있어서의 특징량의 상하 교차개수의 설명도.
제7도는 멤버십함수의 설명도.
제8도는 동 실시예에 있어서의 멤버십함수의 일예의 설명도.
제9도는 동 실시예에 있어서의 기여치를 구하는 방법의 설명도.
제10도는 동 실시예에 있어서의 퍼지추론방법의 설명도.
제11도는 동 실시예에 있어서의 스탠더드메시패턴데이터에 대응하는 각기준특징량을 표시한 도면.
제12도는 동실시예에 있어서의 대상패턴 「2」에 대응하는 판정결과를 표시한 도면.
제13도는 본 발명의 속성판정방법의 다른 실시예에 있어서의 처리의 흐름도.
제14도는 동 실시예에 있어서의 대상패턴 「2」에 대응하는 판정결과를 표시한 도면.
제15도는 문자인식장치의 개략구성도.
제16도는 종래예의 문자인식장치의 화상처리부의 구성도.
제17도는 2치화된 화상의 설명도.
제18도는 문자잘라내기된 화상의 설명도.
제19도는 메시패턴데이터에의 변환의 설명도.
제20도는 표준패턴데이터의 설명도.
제21도는 뉴럴네트워크의 구성의 설명도.
제22도는 뉴럴네트워크의 데이터입력시의 반응의 설명도.
제23도는 판정대상이 「2」의 경우에 있어서의 판정검정용의 문자데이터의 설명도.
제24도는 판정대상이 「9」의 경우에 있어서의 판정검정용의 문자데이터의 설명도.
제25도는 판정대상이 「A」의 경우에 있어서의 판정검정용의 문자데이터의 설명도.
제26도는 판정대상이 「F」의 경우에 있어서의 판정검정용의 문자데이터의 설명도.
〈도면의 주요부분에 대한 부호의 설명〉
(1) : 특징량추출회로 (2) : 멤버십함수추출회로
(3) : 특징량추출회로 (4) : 멤버십함수비교회로
(5) : 기어치합계회로 (f) : 메시패턴데이터
i : 스탠더드메시패턴데이터 j : 특징량
k : 멤버십함수 l : 기어치
m : 종합기여치
본 발명은, 텔레비젼카메라등의 신호입력장치와 컴퓨터를 구비한 신호처리장치를 사용해서 입력화상에 포함되는 패턴이 어떠한 종류에 속하는지를 판정하는 속성판정방법에 관한 것이다.
최근, 공업제품등의 검사공정에 있어서는, 제품의 정확한 종류분류, 불량종류분류등이 중요한 과제의 하나로 되어 있다. 이들은 자동화를 강력히 요망되고 있으며, 텔레비젼카메라등의 화상입력장치와 컴퓨터를 구비한 화상처리장치가 널리 사용되고 있다. 예를 들면, 제품에 기록되어 있는 제조번호등을 자동적으로 식별하는 텔레비젼카메라를 사용한 문자인식장치는 그중의 하나로서 들수 있다.
종래의 텔레비젼카메라를 사용한 문자인식장치의 예를 이하에 설명한다. 제 15도에 장치의 개략구성을 표시한다. 대상(11)의 표면에 하프미러(halt mirror)(14)를 개재해서 광원(15)으로부터 조명광을 조사하는 동시에, 히프미러(14)를 개재해서 텔레비젼카메라(12)로 대상(11)의 표면을 촬상한다. 이 텔레비젼카메라(12)는 CCD센서를 구비하고 있으며, 각 화소 마다에 농담(濃淡)신호를 얻게 되고, 이것은 디지틀화된 모양으로 인식처리부(13)속에서 처리한다. 또한, 인식처리부(13)는, 화상데이터를 기억하는 기억부와 문자인식처리를 실행하는 프로그램을 격납하는 격납부가 형성되어 있는 것은 말할 것도 없다.
제 16도에 인식처리부의 구성을 표시한다. 텔레비젼카메라(12)로부터 출력된 영상신호 a는 A/D변환회로(21)에 입력되고, A/D변환회로(21)에서 디지틀화되어서 출력된 디지틀신호 b는 화상메모리(22)에서 기억된다. 화상메모리(22)로부터는 화상데이터C가 출력되고, 2차화회로(23)에서 2치화상 d로 변환된다. 2치화회로(23)에서는, 제 17도에 표시한 바와 같이, 화상데이터(27)에 있어서의 문자부분을 「혹」, 배경부분을 「백」으로 하도록 2치화를 행한다. 2치화상 d는 문자잘라내기회로(24)에 입력되고, 잘라내기화상 e가 출력된다. 문자잘라내기회로(24)에서는, 제18도에 표시한 바와 같이, 1문자마다 외접(外接)하는 외접 직4각형(28)을 검출해서 문자열이 문자마다 분리된다. 이 문자잘라내기는, 수평축과 수직축에 투영되는 투영데이터를 기초로 문자의 분리가 행하여지는 일이 많다. 문자마다 분리된 잘라내기 화상 e는 정규화회로(25)에 입력되고, 메시패턴데이터 f가 출력된다. 정규화회로(25)에서는, 각 문자의 외접직4각형내에 존재하는 화소가 적당한 메시사이즈의 패턴으로 정규화 변환된다. 각 메시에 대응하는 복수화소로부터의 변환은, 이들의 평균치, 최대치, 최소치, 중앙치, 최다빈도치 등을 사용하므로써 행하여진다. 제 19도에, 문자마다 분리된 화상(29)이, 가로 5×세로 9의 메시사이즈의 메시패턴(30)에 변환되는 모양을 표시한다. 메시패턴데이터 f는 문자판정회로(26)에 입력되고, 문자의 판정결과 g가 출력된다. 문자로서는, 공업용의 경우, 영수자(英數字)의 「0」∼「9」,「A」∼「Z」, 특수문자의 「-」의 37문자가 사용되는 일이 많고, 문자판정회로(26)는 메시패턴데이터가 어느문자에 가까운지를 결과로서 출력한다. 제20도에 상기 37문자의 표준패턴데이터(스텐더드패턴데이터)를 표시한다.
문자판정히로(26)에는 뉴럴네트워크(이하, NN라 표기함)가 잘 사용된다.
NN에 대해서는, 각종의 구성의 것이 있으나(참고문헌 : 이이누마편, 「뉴로컴퓨터」, 기술평논사, 일본국 평성원년9원 간행), 실제적으로 잘 응용되는 퍼셉트톤형(perceptron type)의 NN의 구성을 제21도에 표시한다. 이 NN은, 입력층, 중간층, 출력층의 3층으로 이루어지고, 각각의 다수의 뉴론이라 호칭되는 비선형소자로 구성되어 있다. 입력층에는, 값으로서 배경의 부분을 표시하는 「0」, 문자의 부분을 표시하는 「1」을 취하는 45개(가로5×세로9)의 뉴론이 존재하고, 출력층에는, 판정되는 문자인 영수자의 「0」∼「9」,「A」∼「Z」, 특수문자의 「-」의 37개의 뉴론이 존재한다. 여기에서는, 입력층과 중간층, 중간층과 출력층은, 각각 뉴론사이에서 결선되어 있으며, 그 위에 웨이브 W가 정의되어 있다. 개개의 뉴론은, 접속되어 있는 뉴론의 출력 y와 그 결선상에 정의된 웨이트 W의 적을 모든 결선에 대해서 총계하고, 그것을 비선형함수처리하고 난후 0.0∼1.0의 값을 출력한다. 여기서, 웨이트 W의 값에 의해, 이 NN은 여러가지의 특성을 지니게 된다. 이 웨이트의 결정에는, 실제는 데이터를 부여해서, 출력층 뉴론이 기대의 출력을 내는지 어떤지를 봐서, 그 오차분만큼의 웨이트의 수정을 몇번이나 반복하므로써 행하여진다. 이 수정방법으로서, 백프로퍼게이션(Back propagation)이 잘 사용된다(D.E.Rumelhart, et.kal: Learning Representations by Back-Propagating Erross, Nature, No. 323, pp533-536(1986)). 스탠더드패턴데이터를 입력층에 부여하고, 그 문자에 대응하는 뉴론은 1.0으로, 그 이외의 뉴론을 0.0으로 하게하는 출력층의 기대의 출력을 상정하고, 그 오차량분만큼의 웨이트W의 수정을 몇번이라도 반복하므로써 행하여진다. 실시예에서는, 모든 출력층의 뉴론의 값과 기대의 출력치의 오차가 0.1이하로 될때까지 수정작업을 반복하는 것으로 하고 있다. 수정작업이 끝난 NN에 대해서 판정작업을 행하게 하였을 경우, 제 22도에 표시한 바와 같이, 입력층에 「A」가 입력되면, 출력층에 있어서의 「A」에 대응하는 뉴론의 출력이 다른 뉴론에 비해서 크게 된다. 이상적으로는, 「A」에 대응하는 뉴론이 1.0에 가까운 값, 그 이외의 뉴론이 0.0에 가까운 값으로 된다. 실시예에서는, 문자의 판정조건을 다음과 같이 하고 있다.
① 출력층의 뉴론이 0.7이상의 값으로 되었을 경우, 그것의 대응하는 문자를 판정문자로 한다(판정조건①).
② 출력층의 뉴론에서 첫번째로 큰값과 두번째로 큰값의 차가 0.3이상의 경우, 첫번째에 대응하는 문자를 판정문자로 한다(판정조건 ②).
③ 출력층의 어느뉴론으로부터도 그와같은 값이 출력되지 않는 경우, 「?」로서 판정 불가능으로 한다.
그러나, 상기 종래의 NN을 사용한 판정방법에서는, 요구되는 신뢰성에 의해서 그 속성판정(문자판정)을 행할 수 없다고 하는 문제가 있었다. 실제의 예를 근거로 이하에 설명한다.
제 20도에 표 시한 표준패턴데이터(스탠더드패턴데이터)에 의해서, 입력층: 45(가로45×세러9의 2치(0,1)패턴), 중간층 : 45, 출력층: 37(영수자의 「0」∼「9」「A」∼「Z」, 특수문자의 「-」의 3층으로 이루어진 네트워크에 대하여, 학습을 행한 결과 실시한 것이다.
제 23도∼제 26도는, 문자판독의 검정에 사용한 문자패턴이며, 「2」, 「9」, 「A」,「F」의 4문자가 각각 30개씩이다. 도면중에서는 흑의 「1」을 「*」로 표시하고, 백의 「0」을 「-」로 표시하고 있다.
문자 「2」에 대해서 대표적인 결과를 표시하면, 제23도에 있어서, (1)은 제일 큰 출력뉴론이 「2」이고 그 값이 0.86이며, 판정조건 ①을 충족시키고 있다.(2)는 제일 큰 출력뉴론이 「2」이고 그 값이 0.63이며, 두번째로 큰 출력뉴론이 「Z」이고 그 값이 0.12이며, 그 차가 0.63이므로 판정조건 ②를 충족시키고 있다. 그러나, (4)는 제일큰 출력뉴론이 「2」이고 그 값이 0.34이며, 두번째로 큰 출력뉴론이 「S」이고 그 값이 0.15이며, 그 차가 0.19이기 때문에 판정불가능하게 된다. 마찬가지로, (9)는 제일 큰 출력뉴론이 「2」이고 그 값이 0.58이며, 두번째로 큰 출력뉴론이 「C」이고 그 값이 0.48이며, 그 차가 0.10으로 판정불가능하게 된다.
문자 「9」에 대해서 대표적인 결과를 표시하면, 제24도에 있어서, (1)은 제일 큰 출력뉴론이 「9」이고, 그 값이 0.90이며, 판정조건 ①을 충족시키고 있다. (3)은 제일 큰 출력뉴론이 「9」이고 그 값이 0.37이며, 두번째로 큰 출력뉴론이 「5」이고 그 값이 0.07이며, 그 차가 0.30이므로 판정조건 ②를 충족시키고 있다. 그러나, (2)는 제일 큰 출력뉴론이 「9」이고 그 값이 0.27이며, 두번째로 큰 출력 뉴론이 「3」이고 그 값이 0.07이며, 그 차가 0.20이기 때문에 판정불가능하게 된다. 마찬가지로, (8)은 제일 큰 출력뉴론이 「9」이고 그 값이 0.38이며, 두번째 큰 출력뉴론이 「S」이고 그 값이 0.18이며, 그 차가 0.20으로 판정불가능하게 된다.
문자 「A」에 대해서 대표적인 결과를 표시하면, 제 25도에 있어서, (1)은 제일 큰 출력뉴론이 「A」이고 그 값이 0.91이며, 판정조건 ①을 충족시키고 있다. (3)은 제일큰 출력뉴론이 「A」이고 그 값이 0.66이며, 두번째로 큰 출력뉴론이 「4」이고 그 값이 0.11이며, 그 차가 0.55이므로 판정조건 ②를 충족하고 있다. 그러나, (22)는 제일큰 출력뉴론이 「A」이고 그 값이 0.22이며, 두번째로 큰 출력 뉴론이 「M」이고 그 값이 0.08이며, 그차가 0.14이기 때문에 판정불가능하게 된다. 마찬가지로, (26)은 제일 큰 출력뉴론이 「Q」이고 그 값이 0.52이며, 두번째로 큰 출력뉴론이 「A」이고 그 값이 0.38이며, 그 차가 0.14로 판정불가능하게 된다.
문자 「F」에 대해서 대표적인 결과를 표시하면, 제26도에 있어서, (1)은 제일 큰 출력뉴론이 「F」이고 그 값이 0.91이며, 판정조건 ①을 충족시키고 있다. (3)은 제일 큰 출력뉴론이 「F」이고 그 값이 0.65이며, 두번째로 큰 출력뉴론이 「P」이고 그 값이 0.27이며, 그 차가 0.39이므로 판정조건 ②를 충족하고 있다.
그러나, (5)는 제일 큰 출력뉴론이 「K」이고 그 값이 0.12이며, 두번째로 큰 출력뉴론이 「F」이고 그 값이 0.09이며, 그차가 0.03이기 때문에 판정가능하게 된다. 마찬가지로 (6)은 제일 큰 출력뉴론이 「K」이고 그 값이 0.11이며, 두번째로 큰 출력뉴론이 「F」이고 그 값이 0.09이며, 그 차가 0.02로 판정불가능하게 된다.
이상의 실험에서는, 상당히 표준패턴데이터로부터 현격되 떨어져 있는 것도 실험문자로 포함하고 있지만, 사람으로서는 어떻게든 식별가능한 문자이다. 120개전부의 결과에서는, 정답: 82/120(68%), 오답: 5/120(4%), 판정불가능: 33/120(28%)였다. 이 결과로부터 알 수 있는 바와같이 오답, 판정불가능이 많은데에 문제가 있다.
또, NN의 능력의 개선을 목표로해서 구조를 변경하려고 몰두해도, 웨이트 W의 결정방법이 실제의 데이터와 그것에 대한 기대출력을 부여해서 자기(自己)조직화를 행하고있기 때문에, 내부구조가 블랙박스적으로 되어 있어서 최적의 방법을 찾아내기 어렵다고 하는 문제가 있다.
본 발명은, 상기 종래의 문제점에 비추어, 속성판정의 정답율이 높고, 신뢰성이 높은 속성판정을 할 수 있는 동시에, 또 능력개선도 비교적 용이하게 행할 수 있는 속성판정방법을 제공하는 것을 목적으로 하고 있다.
본 발명의 속성판정방법은, 입력화상에 포함되는 입력패턴의 복수의 특징데이터와 다수의 표준패턴으로부터 구한 특징데이터의 멤버십함수를 비교하고, 입력패턴에 가장 유사도가 높은 표준패턴을 판정하는 속성판정방법으로서, 입력패턴의 각 특징데이터에 대한 각 멤버십함수의 출력치를 얻는 것을 모든 특징데이터에 대해서 행하고, 모든 특징데이터에 대한 출력치의 종합치를 구하고, 이것을 판정해야할 각 표준패턴에 대해서 행하여, 가장 종합치가 높은 표준패턴을 판별하는 것을 특징으로 한다.
호적하게는, 입력화상에 포함되는 입력패턴에 대하여, 미리 뉴럴네트워크를 사용해서 유사도가 높은 표준패턴의 판정을 행하고, 그 결과로부터 상위의 복수개의 표준패턴을 선택하고, 선택한 표준패턴을 사용해서 상기 방법에 의해서 판별을 행한다. 또, 그 경우에 종합치에 뉴럴네트워크의 판정결과를 고려해도 된다.
또, 표준패턴의 특징데이터로부터 작성하는 멤버십함수를, 그 특징데이터가 입력되었을 경우에 가장 높은 값을 출력하고, 그 전후의 특징데이터에 대해서 낮은 값이 출력되도록 설정하는 것이 바람직하다.
또, 입력패턴을 메시 패턴으로 하고, 특징데이터로서 메시패턴데이터를 열마다 위로부터 아래 및 아래로부터 위로 나아가 혹의 메시에 닿을 때까지의 백의 메시수를 합계한 상하의 세로구조벡터합과, 메시패턴데이터를 행마다 좌로부터 우 및 우로부터 좌로 나아가 혹의 메시에 닿을때까지 백의 메시수를 합계한 좌우의 횡구조벡터합과, 메시패턴데이터의 위절반과 아래절반 및 좌절반과 우절반의 혹의 면적차를 구한 상하의 좌우의 면적차와, 열중앙에서 상하방향으로 혹과 교차하는 회수를 구한 상하교차개수를 사용하므로서 문자인식을 행한다.
본 발명의 속성판정방법에 의하면, 다수의 표준패턴으로부터 구한 복수의 특징데이터의 멤버십함수와 입력패턴의 복수의 특징데이터를 비교하고, 모든 특징량에 대한 멤버십함수의 출력치의 총계치를, 모든 표준패턴에 대해서 구하고, 가장 총계치가 높은 표준패턴을 판별하는 퍼지추론에 의해서 속성판별을 행하므로, 그 특징데이터를 적당하게 설정하므로서 속성판정의 정답율을 높게할 수 있어, 신뢰성이 높은 속성판정을 할 수 있다. 또, 종래의 뉴럴네트워크에 비교해서 판정방법의 짜임이 명확하고, 필요한 특징데이터의 조합을 할 수 있기 때문에, 특징데이터의 보충, 변경에 의해 더욱 정확한 속성판정을 할 수 있게 되어, 능력개선도 비교적 용이하게 행할 수 있다.
또, 뉴럴네트워크는 내부구조가 블랙박스적인 것에 대응해서 특징데이터의 선정등의 시간을 요하지 않고, 그 적부의 영향을 받지 않고, 또한 정세(精細)한 판별에는 문제가 있어도 성긴(粗)판별에는 효과적이므로, 미리 뉴럴네트워크를 사용해서 유사도가 높은 표준패턴의 판정을 행하여 상위의 복수개의 표준패턴을 선택하고, 선택한 표준패턴을 사용해서 상기 방법에 의해서 판별을 행하면, 보다 적은 데이터처리로 신뢰성이 높은 판별을 행할 수 있는 동시에, 특징데이터의 선정도 간단하게 된다.
이하, 본 발명의 제1실시예에 대해서 제1도∼제12도를 참조하면서 설명한다.
제 1도는 속성판정방법의 학습방법의 처리의 흐름을 표시하며, 제2도는 속성 판정방법의 처리의 흐름을 표시한다. 입력패턴을 얻을때까지는 종래의 기술과 마찬가지이며, 2치로 메시화된 메시패턴에 대해서 이하의 처리를 행한다.
여기서는, 가로 5×세로 9의 메시패턴을 사용해서 설명한다.
먼저, 학습방법에 대해서 설명한다. 이것은, 문자판정에 필요한 특징량으로부터 멤버십함수를 구하기 위하여 행한다.
특징량 추출회로(1)에 스탠더드메시패턴데이터 i가 입력되고, 여기서 필요로 하는 특징량 j가 출력된다. 여기에서는, 특징량 j로서 세로구조벡터합1, 세로 구조벡터합2, 가로구조벡터합1, 가로구조벡터합2, 상하면적합, 좌우면적합, 상하교차개수의 특징량 1∼7을 사용한다.
세로구조벡터합1(특징량1: UDVEC)는, 제 3도에 표시한 바와 같이, 열마다 위로부터 아래에 나아가, 처음에 혹의 메시에 닿을 때까지의 백메시의 수를 구하고, 이것을 합계하는 특징량이다. 제 3도의 「U」의 예에서는 세로구조벡터합1은, 0 + 8 + 8 + 8 + 0 = 24로 된다.
세로구조벡터합2(특징량2 : DUVEC)는, 열마다 아래로부터 위로 나아가, 처음에 혹의 메시에 닿을때까지 백의 메시의 수를 구하고, 이것을 합계하는 특징량이다. 제3도의 「U」의 예에서는 세로구조벡터합2는, 0 + 0 + 0 + 0 + 0 = 0 으로 된다.
가로구조벡터합1(특징량3: LRVEC)은, 제 4도에 표시한 바와 같이, 행마다 좌로부터 우에 나아가, 처음에 혹의 메시에 닿을 때까지의 백의 메시의 수를 구하고, 이것을 합계하는 특징량이다. 제4도의 「3」의 예에서는 가로 구조벡터합1은, 0 + 4 + 4 + 4 + 0 + 4 + 4 + 4 + 0 = 24로 된다.
가로구조벡터합2(특징량4: RLVEC)는, 행마다 우에서부터 좌로 나아가, 처음에 혹의 메시에 닿을때 까지의 백의 메시의 수를 구하고, 이것을 합계하는 특징량이다. 제 4도의 「3」의 예에서는 가로구조벡터합2는, 0 + 0 + 0 + 0 + 0 + 0 + 0 + 0 + 0 + 0 = 0로 된다.
상하면적차(특징량5 : UDDIFF)는, 제 5도에 표시한 바와 같이, 위절반의 가로 4×세로4의 혹의 면적과 아래절반의 가로 4 × 세로 4의 혹의 면적과의 차를 구한 특징량이다. 제 5도의 「U」의 예에서는 상하면적차는 8 - 11 = -3 으로 된다.
좌우면적차(특징량6 : LRKDIFF)는, 제 5도에 표시한 바와 같이, 좌절반의 가로2×세로9의 혹의 면적과 우절반의 가로2×세로9의 혹의 면적과의 차를 구한 특징량이다. 제 7도의 「U」의 예에서는 상하면적차는 10 - 10 = 0으로 된다.
상하 교차개수(특징량 7: VCN)는, 제 6도에 표시한 바와 같이 열중앙에서 위에서부터 아래로 나아가, 혹에 교차하는 회수를 구한 특징량이다. 제 6도의 「3」의 예에서는 상호교차 개수는 3으로 된다.
특징량추출회로(1)에서 구한 특징량 j는, 멤버십함수추출회로(2)에 입력되고, 멤버십함수 K가 출력된다. 멤버십함수란, 스탠더드메시패턴데이터의 특징량(이하, 기준특징량이라 부름)을 중심으로 해서 일정한 퍼짐을 가진 입출력함수이며, 판정해야할 메시패턴데이터의 특징량 j를 입력으로 하고, 기준특징량과의 편차를 평가하는 기여치를 출력한다. 여기서는, 기준특징량이 입력시에 최대치 1.0을 출력하는 것으로 해서, 이것을 중심으로 퍼지는 함수를 형성하도록 작성한다. 제 7도는 멤버십함수를 표시하며, 가로축에 특징량, 세로축에 기여치를 취하고 있다. 제 7도의 예에서는, 기준특징량 S에 대하여, 폭 A이고 기여치 1.0을 출력하는 구간이 계속되고, 폭 B이고 기여치 0.0∼1.0을 출력하는 구간이 계속되고, 폭 C이고 기여치-1.0∼0.0을 출력하는 구간이 계속하도록 형성하고 있다. 또한, 각폭 A,B,C는 다른 스탠더드메시패턴데이터의 특징량과의 중첩을 고려해서 경험적으로 설정한다.
예를 들면, 각 문자의 동일기준특징량이 0∼30정도의 경우, 폭 A=1, 폭 B=2, 폭 C=5 정도를 설정하는 것이 적당하다. 제8도에 기준특징량 S가 10, 폭 A=1, 폭 B=2, 폭 C=5의 경우의 멤버십함수를 표시하고 있다.
다음에, 판정방법에 대해서, 제2도를 참조해서 설명한다. 이것은, 문자판정에 필요한 특징량을 구하고, 이것을 멤버십함수와 비교해서 기여치를 구하고, 마지막으로 종합기여치를 구하므로써 판정을 행한다.
특징량추출회로(3)에 판정해야할 메시패턴데이터 f가 입력되고, 여기서 필요로 하는 특징량 j가 추출된다. 여기에서는, 미리 구하고 있는 기준특징량에 대응해서 세로구조벡터합 1, 세로구조벡터합2, 가로구조벡터합1, 가로구조벡터합2, 상하면적합, 좌우면적합, 상하교차계수를 사용한다. 이 특징량 j가 멤버십함수비교회로(4)에 입력하고, 기여치1을 출력한다. 이것을, 여기서 채용한 7개의 특징량에 대해서 마찬가지로 행한다. 제 9도는 기여치를 구하는 방법을 표시하고 있으며, 입력되는 특징량(23)에 대해서 출력으로서, 기여치(0.5)을 얻을 수 있다.
기여치합계회로(5)에 각 기여치 1이 입력되고, 종합기여치 m이 출력된다.
제 10도는, 퍼지추론방법에 대해서 표시한 것이다. 7개의 특징량에 관계서 각 문자의 멤버십함수에 대한 기여치를 구하고, 각 문자마다에 중합기여치를 가로축을 따라서 구하고, 최종적으로 가장 큰 종합기여치를 가진 문자를 판정결과로 한다.
다음에, 실제의 메시패턴데이터에 대해서 상기 판정처리를 적용한 예를 설명한다.
제 20도에 표시한 스탠더스패턴데이터에 대해서는 제 11도에 표시한 바와 같이 기준 특징량이 계산된다. 그리고, 특징량 1∼6에 대해서는 폭 A=1, 폭 B=2, 폭 C=5이고, 특징량 7에 대해서는 폭 A=0, 폭 B=1, 폭 C=1로 해서 멤버십함수가 작성된다. 이상으로 학습을 종료한다.
다음에, 판정처리를 제 12도를 참조해서 설명한다. 판정대상의 메시패턴 10을 제 12도(a)에 표시하며, 제 12도(b)에 각 문자에 관해서 각각의 특징량의 멤버십함수에 대한 기여치와, 각 문자에 대한 종합기여치를 표시한다. 제 12도(a)에 있어서, 「1」은 혹, 「0」은 백이며 이 대상패턴10의 특징량을 각각 구하면, 특징량1(UDVEC)는, 1 + 0 + 0 + 0 + 0 = 1, 특징량2(DUVEC)는, 0 + 0 + 0 + 0 + 0 = 0, 특징량3(LRVEC)는, 1 + 0 + 4 + 3 + 2 + 1 + 0 + 0 + 0 = 11, 특징량4(RLVEC)는, 0 + 0 + 0 + 1 + 2 + 3 + 4 + 4 + 0 = 14, 특징량5(UDDIFF)는, 8 - 8 = 0, 특징량6(LRDIFF)는, 7 - 7 = 0, 특징량7(VCN)은, 3이다. 각 문자에 대해서 각각 이들 특징량의 기여치를 구하고, 그 종합기여치를 구하는 처리를 행하나, 여기서는 간단을 위하여, 「2」, 「3」,「C」,「E」,「I」,「S」,「Z」만을 예시하고, 다른 문자에 대해서는 도시를 생략하고 있다. 각각의 문자에 대한 종합기여치는, 「2」가 7.00, 「3」이 1.30, 「C」가 0.10, 「E」가 1.20, 「1」가 4.00, 「S」가 6.00, 「Z」가 6.50이며, 대상패턴 11은 가장 큰 기여치를 가진 「2」로 판정된다.
이들 처리는, 문자를 판정하는데 적합한 특징량을 적당하게 보충, 변경하므로써, 보다 판정능력을 향상시키는 일이 가능하다. 또, 처리가 매우 간단하기 때문에 특징량의 수를 상당히 많게해도 문제가 되는 일도 없다.
다음에, 본 발명의 제2실시예에 대해서 설명한다. 이 실시예는, NN을 사용한 처리를 예비적으로 행한 후에 상기 퍼지추론에 의한 판정처리를 행하는 것이다. 즉, NN에 의한 판정방법에 있어서는 상기한 바와 같이 정밀도가 높은 판별에는 문제가 있어도, 대부분의 문자판정에 있어서 정답의 문자에 대응하는 출력층의 뉴론의 값을 위로부터 3위이내에 들어있으므로, 성긴판별방법으로서는 간단하고 좋은 방법이며, 본 실시예는 미리 NN처리에 의해서 문자를 선택한 후, 퍼지추론에 의한 판정을 행하는 것이다.
제13도에 문자판정의 흐름을 표시하고 있다. 메시패턴데이터를 작성할때까지는 상기 실시예와 마찬가지이다. 스텝 #1에서 종래예와 마찬가지로 NN판정처리를 행한다. 다음에 스텝 #2에서 NN판정결과가 판저임계치이상이면, 스텝 #3에서 대응하는 문자를 결과로 한다. 만약, 판정임계치이하이면, 퍼지추론으로 나아가는 동시에 그때에 NN판정결과의 어느정도 큰 값을 가진 것만으로 퍼지추론을 행하도록 한다. 이와같이, 스텝 #4에서 NN출력데이터로부터 선별된 데이터만 NN출력데이터의 포인트세트를 행한다. 스텝 #5에서 선별된 데이터(문자)만의 특정량의 추출을 행한다. 스텝#6에서 각각의 멤버십함수로부터 퍼지추론에 의해 포인트세트를 행한다. 스텝#7에서 퍼지추론판정결과가 판정임계치이상이면, 스텝 #8에서 대응하는 문자를 결과로 한다. 만약, 판정임계치이하이면, 스텝 #9에서 판정불가능인 것으로 한다.
실제의 패턴데이터에 대해서 적용한 예를 설명하면, 제 20도에 표시한 스탠더드메시패턴에 대해서, 판정대상의 메시패턴(12)을 제 14도(a)에 표시하며, 제 14도(b)에 선택된 각 문자에 관해서 NN출력데이터와 각각의 특정량의 멤버십함수에 대한 기여치와, 각 문자에 대한 종합기여치를 표시한다. NN출력데이터는 0.01이상을 선택해서 남기고, 그 출력데이터를 10배해서 퍼지추론에 추가하고 있다. 최종적으로 가장 큰 종합기여치를 가진 「2」로 판정되고 있다.
상기한 7개의 특징량이외에 적당한 특징량을 추가해서 전부 26개의 특징량을 선택해서, 제 23도∼제 26도에 표시한 120개의 문자패턴의 판별에 적용한 구체적 적용예에 있어서는, 정답이 108/120(90%), 오답이 1/120(1%), 판정불가능이 11/120(9%)였다. 이것은, NN단독에 의한 판정과 비교하면, 오답이 1/5로, 판정불가능이 1/3으로 저감되어 있다. 인간이 판단해도 판단하기 어려운 문자패턴을 포함하고 있는 것을 고려하면, 판단능력은 종래기술과 비교해서 상당히 향상되어 있다.
또한, 상기 실시예에 있어서는 문자인식에 대해서 설명하였으나, 분별해야할 속성에 대해서 유효한 특징량을 선택하여, 멤버십함수를 형성하고, 퍼지추론을 행하는 것이라면, 문자인식에 한정시키지 않고 폭넓게 응용할 수 있는 것은 말할 것도 없다.
또, 상기 실시예에서는 메시데이터속을 2치데이터로서 취급하였으나, 메시데이터속에서 농담치로부터 유효한 특징량을 선택할 수 있는 것이라면 적용할 수 있다. 또, 상기 실시예에서는 정규화후의 메시데이터로부터 특징량을 추출하였으나, 정규화전의 데이터로부터 유효한 특징량을 선택할 수 있는 것이라면 정규화하는 필요는 없다. 또, 기여치의 범위를 -1.0∼1.0으로 하였으나, 이에 한정되는 것은 아니다. 또, 특징량의 수도 한정되지 않는다. 또, NN라 조합시킬 때의 판정임계치로 적당하게 설정하면 된다. 또, 상기 실시예에서는 퍼지추론에 의한 판정시에 NN출력데이터를 추가하였으나, NN에서는 문자선택만을 행하고, 퍼지추론시에는 NN출력데이터를 고려하지 않아도 된다. 또, NN출력데이터를 고려하는 경우에도, 그 승수는 판별대상에 따라서 임의로 설정하면 된다.
또, 본 발명의 대상이 되는 입력패턴으로서는, 예를 들면, 반도체웨이퍼나 액정패널상의 식별번호, IC칩상의 제조번호등, 대상물상의 문자나 기호나 모양등을 텔레비젼카메라에 의해서 촬상한 화상으로부터 얻은 패턴에만 한정하지 않는다.
본 발명의 속성판정방법에 의하면, 이상의 설명에서 명백한 바와 같이, 다수의 표준패턴으로부터 구한 복수의 특징데이터의 멤버십함수와 입력패턴의 복수의 특징데이터를 비교하고, 모든 특징량에 대한 멤버십함수의 출력치의 종합치를, 모든 표준패턴에 대해서 구하고, 가장 종합치가 높은 표준패턴을 판별해서 속성판별을 행하므로, 그 특징데이터를 적당하게 설정하므로써 속성판정의 정답율을 높게할 수 있어, 신뢰성이 높은 속성판정을 할 수 있다. 또, 처리가 매우 단순하기 때문에, 특징데이터의 수를 상당히 많게해도 처리시간이나 처리용량등이 문제가 되는 일도 없다. 또, 종래의 뉴럴네트워크에 비교해서 판정방법의 짜임이 명확하며, 필요한 특징데이터의 종합을 알 수 있기 때문에, 특징데이터의 보충, 변경에 의해 더욱 정확한 속성판정을 할 수 있게 되어, 능력개선도 비교적 용이하게 행할 수 있는 등의 효과가 있다.
또, 뉴럴네트워크는 정세한 판별에는 문제가 있어도 성긴판별에는 효과적인 것에 비추어서, 미리 뉴럴네트워크를 사용해서 유사도가 높은 표준패턴의 판정을 행하여 상위의 복수개의 표준패턴을 선택하고, 선택한 표준패턴을 사용해서 상기 방법에 의해서 판별을 행하면, 보다 적은 데이터처리로 신뢰성이 높은 판별을 행할 수 있는 동시에, 특징데이터의 선정도 간단하게 된다고 하는 효과를 얻을 수 있다.
또, 뉴럴네트워크에 의한 판별을 미리 사용할 경우에, 속성판정시에 뉴럴네트워크의 출력치를 고려하면, 더욱 신뢰성이 높은 판별을 할 수 있는 일이 있다.
또, 멤버십함수를, 표준패턴의 특징데이터가 입력된 경우에 가장 높은 값을 출력하고, 그 전후의 특징데이터에 대해서 낮은 값이 출력되도록 설정하므로서, 유사한 패턴을 준별해서 정밀도가 높은 판별을 행할 수 있다.
또, 문자의 판별에 있어서, 입력패턴을 메시패턴으로 하고, 특징데이터로서 상하의 세로구조벡터합과, 좌우의 가로구조벡터합과, 상하와 좌우의 면적차와, 상하교차계수를 사용하므로서, 문자가 가진 특징을 정확하게 식별해서 높은 정답율 문자를 판별할 수 있다.

Claims (8)

  1. 입력화상에 포함되는 입력패턴의 복수의 특징데이터와 다수의 표준패턴으로부터 구한 특징데이터의 멤버십함수를 비교하고, 입력패턴에 가장 유사도가 높은 표준패턴을 판정하는 속성판정방법으로서, 입력패턴의 각 특징데이터에 대한 각 멤버십함수의 출력치를 얻는 것을 모든 특징데이터에 대해서 행하고, 모든 특징데이터에 대한 출력치의 종합치를 구하고, 이것을 판정해야할 각 표준패턴에 대해서 행하여, 가장 종합치가 높은 표준패턴을 판별하는 것을 특징으로 하는 속성판정방법.
  2. 입력화상에 포함되는 입력패턴에 대하여, 미니 뉴럴네트워크를 사용해서 유사도가 높은 표준패턴의 판정을 행하고, 그 결과로부터 상위의 복수개의 표준패턴을 선택하고, 선택한 표준패턴을 사용해서 청구범위 제1항 기재의 속성판정방법을 행하는 것을 특징으로 하는 속성판정방법.
  3. 제2항에 있어서, 종합치에 뉴럴네트워크의 판정결과를 고려하는 것을 특징으로 하는 속성판정방법.
  4. 제1항에 있어서, 표준패턴의 특징데이터로부터 작성하는 멤버십함수를, 그 특징데이터가 입력되었을 경우에 높은 값을 출력하고, 그 전후의 특징데이터에 대해서 낮은 값이 출력되도록 설정하는 것을 특징으로 하는 속성판정방법.
  5. 제1항 또는 제3항에 있어서, 입력패턴을 메시패턴으로 하고, 특징데이터로서 메시패턴데이터를 열마다 위로부터 아래 및 아래로부터 위로 나아가 혹의 메시에 닿을 때까지의 백의 메시수를 합계한 상하의 세로구조벡터합과 메시패턴데이터를 행마다 좌로부터 우 및 우로부터 좌로 나아가 혹의 메시에 닿을 때까지의 백의메시수를 합계한 좌우의 횡구조벡터합과, 메시패턴데이터의 위절반과 아래절반 및 좌절반과 우절반의 혹의 면적차를 구한 상하와 좌우의 면적치와, 열중앙에서 상하방향으로 혹과 교차하는 회수를 구한 상하교차개수를 사용해서 문자인식을 행하는 것을 특징으로 하는 속성판정방법.
  6. 제2항에 있어서, 입력패턴을 메시패턴으로 하고, 특징데이터로서 메시패턴데이터를 열마다 위로부터 아래 및 아래로부터 위로 나아가 혹의 메시에 닿을 때까지 백의 메시수를 합계한 상하의 세로구조벡터합과 메시패턴데이터를 행마다 좌로부터 우 및 우로부터 좌로 나아가 혹의 메시에 닿을 때까지의 백의메시수를 합게한 좌우의 횡구조벡터합과, 메시패턴데이터의 위절반과 아래절반 및 좌절반과 우절반의 혹의 면적차를 구한 상하와 좌우의 면적차와, 열중앙에서 상하방향으로 혹과 교차하는 회수를 구한 상하교차개수를 사용해서 문자인식을 행하는 것을 특징으로 하는 속성판정방법.
  7. 제4항에 있어서, 입력패턴을 메시패턴으로 하고, 특징데이터로서 메시패턴데이터를 열마다위로부터 아래 및 아래로부터 위로 나아가 혹의 메시에 닿을 때까지의 백의 메시수를 합계한 상하의 세로구조벡터합과 메시패턴데이터를 행마다 좌로부터 우 및 우로부터 좌로 나아가 혹의 메시에 닿을 때까지의 백의메시수를 합계한 좌우의 횡구조벡터합과, 메시패턴데이터의 위절반과 아래절반 및 좌절반과 우절반의 혹의 면적차를 구한 상하와 좌우의 면적차와, 열중앙에서 상하방향으로 혹과 교차하는 회수를 구한 상하교차개수를 사용해서 문자인식을 행하는 것을 특징으로 하는 속성판정방법.
  8. 제2항에 있어서, 표준패턴의 특징데이터로부터 작성하는 멤버십함수를, 그 특징데이터가 입력되었을 경우에 높은 값을 출력하고, 그 전후의 특징데이터에 대해서 낮은 값이 출력되도록 설정하는 것을 특징으로 하는 속성판정방법.
KR1019950015957A 1994-06-16 1995-06-16 속성판정방법 KR100238572B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP06133998A JP3095623B2 (ja) 1994-06-16 1994-06-16 属性判定方法
JP94-133998 1994-06-16

Publications (2)

Publication Number Publication Date
KR960002071A KR960002071A (ko) 1996-01-26
KR100238572B1 true KR100238572B1 (ko) 2000-01-15

Family

ID=15117998

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019950015957A KR100238572B1 (ko) 1994-06-16 1995-06-16 속성판정방법

Country Status (4)

Country Link
US (1) US5655031A (ko)
JP (1) JP3095623B2 (ko)
KR (1) KR100238572B1 (ko)
CN (1) CN1122237C (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3563911B2 (ja) * 1997-03-04 2004-09-08 シャープ株式会社 文字認識装置
TW200403598A (en) * 2002-03-29 2004-03-01 Olympus Optical Co Test figure, geometric feature analyzing system, geometric feature analyzing-method, printer, and inkjet printer
FI121583B (fi) * 2002-07-05 2011-01-14 Syslore Oy Symbolijonon etsintä
US20040042650A1 (en) * 2002-08-30 2004-03-04 Lockheed Martin Corporation Binary optical neural network classifiers for pattern recognition
WO2008004559A1 (fr) * 2006-07-06 2008-01-10 Asahi Glass Company, Limited système de groupage, et dispositif d'évaluation de type de défaut
US9116923B2 (en) * 2011-10-06 2015-08-25 Trimble Navigation Limited Construction drawing evaluation systems and methods
KR200497932Y1 (ko) 2021-06-30 2024-04-15 성지연 애완용 동물의 둥지
WO2023113295A1 (ko) * 2021-12-16 2023-06-22 주식회사 씨에스리 모델 갱신 장치 및 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5911152B2 (ja) * 1976-10-19 1984-03-13 肇産業株式会社 パタ−ンマツチング方法及びその実施装置
US4864628A (en) * 1983-08-26 1989-09-05 Texas Instruments Incorporated Method of optical character recognition
JPH01183793A (ja) * 1988-01-18 1989-07-21 Toshiba Corp 文字認識装置
JPH0695192A (ja) * 1991-05-01 1994-04-08 Matsushita Electric Ind Co Ltd 画像認識装置及び画像入力方法
US5237627A (en) * 1991-06-27 1993-08-17 Hewlett-Packard Company Noise tolerant optical character recognition system
CA2077970C (en) * 1991-11-19 1999-02-23 Daniel P. Huttenlocher Optical word recognition by examination of word shape
US5479533A (en) * 1992-02-28 1995-12-26 Yamatake-Honeywell Co., Ltd. Pattern recognition apparatus and method using fuzzy logic

Also Published As

Publication number Publication date
US5655031A (en) 1997-08-05
JP3095623B2 (ja) 2000-10-10
CN1122237C (zh) 2003-09-24
CN1144943A (zh) 1997-03-12
JPH087045A (ja) 1996-01-12
KR960002071A (ko) 1996-01-26

Similar Documents

Publication Publication Date Title
Bendjebbour et al. Multisensor image segmentation using Dempster-Shafer fusion in Markov fields context
US4630308A (en) Character reader
Ko et al. Solder joints inspection using a neural network and fuzzy rule-based classification method
CN113344475B (zh) 基于序列模态分解的变压器套管缺陷识别方法及系统
KR100238572B1 (ko) 속성판정방법
CN114565770B (zh) 基于边缘辅助计算和掩模注意力的图像分割方法及系统
CN110880175A (zh) 一种焊点缺陷检测方法、系统以及设备
CN103955950B (zh) 一种利用关键点特征匹配的图像跟踪方法
CN111242046B (zh) 一种基于图像检索的地面交通标志识别方法
CN114359245A (zh) 一种工业场景下产品表面缺陷检测方法
Bhattacharya et al. Interleaved deep artifacts-aware attention mechanism for concrete structural defect classification
CN114863492B (zh) 一种低质量指纹图像的修复方法及修复装置
US5638460A (en) Method of evaluating object based upon image processing and inspection apparatus using said method
CN114882423A (zh) 一种基于改进Yolov5m模型和DeepSort的货车入库货物识别方法
Jacobsen et al. A comparison between neural networks and decision trees
CN110751225A (zh) 图像分类方法、装置及存储介质
CN113408342A (zh) 一种基于特征确定交并比阈值的目标检测方法
JPH0715703B2 (ja) 文字読取方式
JP3020973B2 (ja) 画像処理方法
CN110891172A (zh) 坏点检测及校正装置
CN113792739B (zh) 一种通用型车牌文本识别方法
Ezhilmaran et al. Fuzzy inference system for finger vein biometric images
CN112396620A (zh) 一种基于多阈值的图像语义分割方法及系统
Solanki et al. Technique for edge detection based on interval Type-2 fuzzy logic with sobel filtering
Fiala et al. Framework for image sensor design parameter optimization for pupil detection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20031013

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee