KR0172197B1 - 정보 처리 방법 및 장치 - Google Patents

정보 처리 방법 및 장치 Download PDF

Info

Publication number
KR0172197B1
KR0172197B1 KR1019950037500A KR19950037500A KR0172197B1 KR 0172197 B1 KR0172197 B1 KR 0172197B1 KR 1019950037500 A KR1019950037500 A KR 1019950037500A KR 19950037500 A KR19950037500 A KR 19950037500A KR 0172197 B1 KR0172197 B1 KR 0172197B1
Authority
KR
South Korea
Prior art keywords
pattern
information processing
input
processing method
processing apparatus
Prior art date
Application number
KR1019950037500A
Other languages
English (en)
Other versions
KR960015281A (ko
Inventor
히로또 요시이
Original Assignee
미따라이 후지오
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 미따라이 후지오, 캐논 가부시끼가이샤 filed Critical 미따라이 후지오
Publication of KR960015281A publication Critical patent/KR960015281A/ko
Application granted granted Critical
Publication of KR0172197B1 publication Critical patent/KR0172197B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

고차원의 특징 변수를 가지고 있는 처리되지 않은 패턴 테이타의 이전-처리와 같은 임시 처리 없이, 화상 또는 음성과 같은 입력 패턴의 직접적인 인식을 허용하는 분류 트리가 작성된다. 정보 처리 방법 및 장치는 학습용 패턴을 계층적으로 이전 처리를 행하며, 계층화 이전-처리에 의해 처리된 학습용 패턴에 기초하여 분류 트리를 작성하여, 이 분류 트리를 사용하여 인식한다.

Description

정보 처리 방법 및 장치
제1도는 본 발명의 한 실시예의 패턴 인식용 사전 작성법을 도시한 도면.
제2도는 본 실시예의 정보 처리 장치의 구성을 도시한 블럭도.
제3도는 본 실시예에서 사용된 뉴럴 네트워크의 구조도.
제4도는 본 실시예의 패턴 인식용 사전 작성 처리의 흐름도.
제5도는 학습용 패턴의 예시도.
제6도는 계층화 학습용 패턴의 예시도.
제7도는 본 실시예의 분류 트리 작성 과정을 도시한 도면.
제8도는 본 실시예의 분류 트리를 도시한 도면.
제9도는 종래 기술의 뉴럴 네트워크의 적용예를 도시한 도면.
* 도면의 주요부분에 대한 부호의 설명
101 : 처리되지 않은 학습용 패턴 102 : 계층화 이전 처리
103 : 계층화 학습용 패턴 104 : 분류 트리 작성 처리
105 : 전개 변수 판별 처리 106 : 분류 트리
201 : 패턴 입력 장치 202 : 표시 장치
203 : CPU 204 : 메모리
본 발명은 화상, 음성 및 문자와 같은 패턴을 카테고리(category)들로 분류하는 것과 관계 있는 정보 처리 방법 및 장치에 관한 것이다.
본 발명은 더우기 화상, 음성 및 문자 정보를 인식하기에 적당한 정보 처리 방법 및 장치에 관한 것이다.
종래 기술의 패턴 인식 방법에서, 뉴럴 네트워크(neural network)를 이용하는 인식 방법이 알려져 있다. 오차 역 전파(error inverse propagation) 알고리즘으로 대표된 강력한 학습 알고리즘을 갖는 뉴럴 네트워크의 큰 특징이 제공된다. 이러한 특징 때문에, 뉴럴 네트워크는 패턴 인식의 광범위한 분야에서 채택되어 왔다.
패턴 인식의 다른 방법은 분류 트리(calssification tree)를 사용하여 단계적으로 패턴을 카테고리로 분류하는 방법이다. 예를 들어, JP-B-6-52537호에 기재된 패턴 인식용 시스템에서, 특징 축(characteristic axes)들은 순번이 정해져서, 그 순번에 따라 분류된다.
특징 변수들의 1차 결합을 기본으로 하여 분류하는 방법도 또한 알려져 있다. 일반적으로, 특징 축들을 하나씩 사용하는 것보다 특징 변수들의 1차결합을 사용함으로써 양호한 결과가 얻어진다.
그러나, 상술한 종래 기술은 다음의 결점들을 가진다.
1. 뉴럴 네트워크가 적용가능한 특징 변수들의 범위는 10차이며, 입력 변수들이 고차원 변수를 포함하는 경우, 소정의 사전-분리 또는 특징 추출이 필요하다. 게다가, 카테고리 사전-분리 또는 특징 추출과 같은 이전 처리를 행하면, 비록 뉴럴 네트워크가 고정밀도로 구성되지만, 이전 처리 중에 오차가 포함될 수도 있고 최종 인식률은 높지 않다.
2. 분류 트리들이 적용가능한 특징 변수의 범위도 또한 10차이며, 고차 특징 변수들이 처리되면, 분류 트리의 구성은 사실상 불가능하다.
3. 실제적 패턴 인식에서, 처리되지 않은 데이타의 특징 변수들의 차원은 100과 1000 사이의 범위에 이른다. 따라서, 실질적 패턴 인식에 10차만을 허용하는 현존 뉴럴 네트워크 및 분류 트리를 사용하는 것이 불가능하다.
본 발명은 입력 학습용 패턴을 계층적으로 이전-처리하는 계층화 이전-처리 단계, 및 계층화 이전-처리 단계에서 처리된 학습용 패턴에 기초한 분류 트리를 작성하는 분류 트리 작성 단계를 포함한다. 결과적으로, 입력 변수들이 고차원 특성을 갖더라도, 고 인식 팩터가 고효율로 달성된다.
본 발명은 계층화 이전-처리 단계내의 학습용 패턴 단계들 중 특징 변수들을 축퇴(degenerate)시켜 고효율성 분류를 성취한다.
본 발명은 상부 계층과 하부 계층 사이의 관계에 따라 변수들을 선택하는 전개 변수 판별 단계를 포함하며, 효율적인 분류를 성취하기 위해 전개 변수 판별 단계의 결과에 기초하여 축퇴된 변수들을 하부 계층쪽으로 전개한다.
본 발명은 고인식 팩터를 효율적으로 성취하기 위해 작성된 분류 트리를 사용하여 입력 패턴을 인식한다.
본 발명은 작성된 분류 트리에 기초하여 인식용 템플리트(recognition template)를 작성하여, 효과적으로 고 인식률을 성취하기 위해 그 템플리트를 사용하여 입력 패턴을 인식한다.
본 발명은 입력 패턴으로서 손으로 쓴 문자 패턴을 입력함으로써, 고인식 팩터로 손으로 쓴 문자들의 효과적인 인식을 허용한다.
본 발명은 입력 패턴으로서 광학적으로 판독된 문자 패턴을 입력함으로써, 고인식 팩터로 광학적으로 판독된 문자들의 효과적인 인식을 허용한다.
본 발명은 입력 패턴으로서 음성 패턴을 입력함으로써, 고인식 팩터로 음성의 효과적인 인식을 허용한다.
이제, 첨부 도면을 참조로 본 발명의 양호한 실시예가 설명된다.
[실시예 1]
제2도는 본 발명의 패턴 인식 방법이 적용된 정보 처리 장치의 구성을 도시한다.
패턴 인식 장치는 패턴 입력 장치(201), 표시 장치(202), 중앙 처리 장치(CPU;203) 및 메모리(204)로 구성된다.
패턴 입력 장치(201)은 온-라인 문자 인식용 디지타이저를 포함하며, 첨필에 의해 디지타이저 상에 입력된 문자 또는 도형의 좌표 데이타가 CPU(203)에 전송된다. 패턴 입력 장치는 디지타이저 및 첨필의 조합으로 제한되지는 않지만, 인식될 패턴을 입력할 수만 있으면, 스캐너(2진 패턴 데이타 입력용) 또는 마이크로폰(음성 패턴 입력용)에 의해 제한될 수도 있다. 표시 장치(202)는 패턴 입력 장치(201)에 의해 입력된 처리되지 않은 패턴 데이타 및 CPU(203)에 의해 인식된 결과를 표시한다. CPU(203)은 입력 패턴을 인식하여, 후술될 흐름도에 도시된 바와 같이, 메모리(204)에 저장된 제어 프로그램에 따라 처리를 수행하고 모든 장치를 제어한다. 메모리(204)는 CPU(203)에 의해 사용될 인식 프로그램 및 사전을 저장하고, 인식 프로그램에 의해 사용된 가변 변수 및 인식 처리 중에 생성된 데이타를 저장한다.
제1도는 본 실시예의 패턴 인식용 사전 작성 방법 및 패턴 인식 방법을 도시한다. 참조 번호(101)은 처리되지 않은 학습용 패턴을 나타내며, 참조 번호(102)는 처리되지 않은 학습용 패턴을 뉴럴 네트워크로 전송하기 위한 계층화 이전-처리를 나타내며, 참조 번호(103)은 뉴럴 네트워크에 의해 처리된 계층화 학습용 패턴을 나타내며, 참조 번호(104)는 계층화 학습용 패턴에 기초하여 분류 트리를 작성하는 분류 트리 작성을 나타내며, 참조 번호(105)는 분류 트리 작성에 의해 분류 트리를 작성하면서 사용된 전개 변수 판별을 나타내며, 참조 번호(106)은 최종 분류 트리를 나타낸다.
본 실시예에서, 입력은 처리되지 않은 학습용 패턴이며, 출력은 분류 트리이다.
제3도 내지 제7도를 참조하여 본 발명의 동작이 설명된다.
16 × 16 메시 상에 쓰여진 '0' 내지 '9'의 10 종류의 수자들은 입력 패턴의 카테고리라고 가정한다. '0' 입력 패턴은 제5도에 도시되어 있다. 사전을 작성하기 위해 입력된 학습용 패턴들은 각각 100개의 패턴을 포함한 카테고리를 가진 '0' 내지 '9'를 포함한다고 가정한다. 즉, 100개의 템플리트는 각각의 카테고리용으로 작성된다. 학습용 패턴으로부터 작성된 템플리트는 LTi,j(학습용 템플리트, i는 카테고리를 나타내며, 0 ≤ i ≤ 9이며, j는 템플리트 번호를 나타내며, 1 ≤ j ≤ 100의 범위임.)로 나타나 있다.
상술한 가정에 기초하여, 제3도에 도시된 바와 같은 4개의 계층 뉴럴 네트워크가 구성되어 있다. 제3도의 4개의 계층은 각각 2 × 2, 4 × 4, 8 × 8 및 16 × 16 뉴런 그룹을 포함한다.
제4도의 흐름도에서 도시된 바와 같이, 본 실시예의 패턴 인식용 사전 작성 처리는 뉴럴 네트워크 전개 단계 및 분류 트리 작성 단계의 두 단계에 걸쳐 수행된다.
(1) 뉴럴 네트워크 전개 단계
학습용 템플리트는 제3도의 최하층 16 × 16개의 뉴런들로서 입력된다. 뉴런들은 입력 패턴(LTi,j)의 백색 부분에서 오프되고, 흑색 부분에서 온된다고 가정한다. (다음 설명에서, 흑색 및 뉴런 온, 및 백색 및 뉴런 오프가 교환 가능하게 사용된다.)
뉴럴 네트워크의 구조는 매우 단순하다. 즉, 하부층의 2 × 2 뉴런 그룹내에 온으로 되는 뉴런이 적어도 하나 있는 경우, 인접 상부층내의 대응하는 뉴런이 온되는 종래 방식에 따라 상부층쪽으로 처리된다. 제5도에 도시된 학습용 템플리트는 뉴럴 네트워크 전개 처리에서 처리되어, 제6도에 도시된 바와같이, 제1층 내지 제4층을 포함한 뉴럴 네트워크를 작성한다.
입력 패턴의 특징 공간은 256차 초입방 격자(2256)을 형성한다.
(2) 분류 트리 작성 단계
모든 학습용 템플리트(LTi,j)(각각 100개의 패턴을 가지고 있는 10개의 카테고리)는 뉴럴 네트워크 전개 단계(1)에서 제3도에 도시된 바와 같은 뉴럴 네트워크로 전개된다. 분류 트리의 작성은 뉴럴 네트워크의 전개와 역행하여 상부(제1)층으로부터 하부(제4)층으로 행해진다.
루트(root) 노드는 제3도의 최상위층(제1층, 2 × 2) 상의 가상적 뉴런으로부터 시작한다.
학습용 템플리트의 전개에 따라, 제3도의 최상위층(2 × 2)내의 적어도 하나의 뉴런이 온된다. [전체적으로 백색 학습용 템플리트가 존재할 때를 제외하고 부분 최상위층(2 × 2)내의 모든 뉴런이 오프되는 것은 아니다]. 따라서, 가상적 최상위 뉴런의 반응이 모든 학습용 템플리트(LTi,j)에 대해 온이다.
최상위층(2 × 2)의 상태들은 24= 16개가 존재하기 때문에(상술된 바와 같이, 모두 오프 상태는 없기 때문에, 정확하게는 15개의 상태), 16개의 브랜치가 루트 노드로부터 연장된다(제7도 참조).
각 브랜치에 존재하는 학습용 템플리트의 수는 카운트된다. 그 결과에 따라 이후 처리가 나눠진다.
(1) 학습용 템플리트(LTi,j)가 존재하지 않는다. : 브랜치는 삭제된다.
(2) 소정의 카테고리(예를 들어, '1')의 템플리트만이 학습용 템플리트(LTi,j)내에 존재한다. :
브랜치가 판정되면, 카테고리가 유일하게 결정되며, 브랜치는 리프(leaf)로서 정의되며 카테고리 번호(예를 들어, '1')로 할당된다.
(3) 이상 (1) 및 (2)외의 즉, 다수의 카테고리들의 템플리트가 혼합적으로 존재한다. :
브랜치는 노드로서 정의되어 분류 트리의 작성을 계속한다.
제7도는 상술한 처리의 결과를 도시하고 있다. 제3도의 최상위층(제1층)의 뉴런의 발화 상태를 나타냄으로써 브랜치 상태들이 도시된다. (흑색은 온을 나타내고 흰색은 오프를 나타낸다).
현존 카테고리의 형태가 x인 브랜치는 (1) 학습용 템플리트(LTi,j)가 존재하지 않는다의 경우에 상응하며 삭제된다. (정확히 말하면, 전체적으로 백색 패턴은 없다고 알려져 있기 때문에, 가장 좌측 브랜치는 루트로부터 연장되지 않는다.)
좌측 말단에서 8번째 브랜치에는, 카테고리 '1'의 학습용 템플리트만이 존재한다. 이것은 (2) 소정의 카테고리(예를 들어, '1')의 템플리트만이 학습용 템플리트(LTi,j)내에 존재한다의 경우에 상응하며, 이것은 리프가 된다.
좌측 말단의 12번째 브랜치에는, 카테고리 '2', '4', '5' 및 '6'이 존재한다. 이것은 (3) 이상 (1) 및 (2)외의 즉, 다수의 카테고리들의 템플리트가 혼합적으로 존재한다의 경우에 상당하며 노드가 된다.
이후, 노드로부터 브랜치를 작성하는 방법이 설명될 것이다.
노드로부터 브랜치를 작성하는 경우에, 가장 효율적인 브랜치를 작성하는 것이 바람직하다. 가장 효율이 좋다는 것은 브랜치를 전개했을 때, 카테고리에 대해 가장 많은 정보가 얻어지는 것을 의미한다.
노드로부터 전개된 브랜치들은 온 상태 뉴런들로부터 하부층 쪽으로 전개된 브랜치들로 한정된다고 가정된다. 예를 들어, 제7도의 좌측 말단으로부터 12번째 브랜치의 경우, 하나의 뉴런은 제3도의 제1층내의 좌측 상부 및 우측 하부의 3개의 뉴런으로부터 선택되며, 브랜치들은 그 뉴런들 아래의 뉴런 즉, 제3도의 제2층의 하부 4개의 뉴런들의 상태에 대해 전개된다.
그 결과, 브랜치의 전개에 필요한 계산 시간이 상당히 단축된다. 그러한 제한은 분류 트리의 분류 성능을 본질적으로 손상시키지 않는다.
이제, 전개될 때, 노드내의 온 상태 뉴런들 중 가장 효율적 뉴런을 선택하는 방법이 설명된다.
노드내에 존재하는 학습용 템플리트(LTi,j) 중에 카테고리 i를 가진 학습용 템플리트의 수는 Ni로 나타나며, 노드내에 존재하는 학습용 템플리트의 총수는 N으로 나타난다고 가정하면, 노드내의 각각의 카테고리의 존재 확률 Pi은 = Ni/N로 나타내며, N은 다음과 같다.
따라서, 노드 정보가 얻어지면, 엔트로피는 다음 식으로 표시된다:
노드내의 하나의 온 상태가 선택되어, 그것으로부터 브랜치들이 전개되면 엔트로피의 감소량이 계산된다.
상술한 바와 같이, 하나의 뉴런이 하부층쪽으로 전개될 때, 브랜치들의 수는 16이다. 학습용 템플리트(LTi,j)의 16개의 브랜치들로의 분포 방법은 전개된 브랜치내에 존재하는 학습용 템플리트(LTi,j)의 수 Ni,b로 표시되며, 여기서 i는 카테고리 수를 나타내며, b는 브랜치 수를 나타낸다. 각각의 브랜치 정보가 얻어질 때, 엔트로피는 다음과 같이 주어진다:
여기서,
브랜치내에 존재하는 학습용 템플리트(LTi,j)의 총수를 나타낸다.
각각의 브랜치들에 이르는 확률은 다음과 같이 주어진다:
N은 (1)식의 N과 동일하기 때문에, 브랜치들이 전개될 때, 평균 엔트로피는 다음과 같이 주어진다:
따라서, 엔트로피의 평균 감소량은 다음과 같이 주어진다:
브랜치들의 수에 의해 분배된 (4)식의 비율.
브랜치들이 전개될 때, 분류 효율을 나타낸다.
(5)식에서 최대값을 갖는 뉴런이 선택되고 브랜치들이 전개된다.
하나의 뉴런만으로 전개하는 대신, 브랜치는 복수개의 뉴런으로 전개될 수도 있다.
이 경우에, (5)식의 브랜치 수(Branch Number)는 뉴런의 수 × 16과 같아진다. (정확히 말하면, 하부층내의 모든 뉴런들이 오프인 것은 불가능하므로, 브랜치 수는 뉴런의 수 × 15과 같아진다.)
본 실시예에서, (5)식으로 나타낸 값은 브랜치들이 전개될 때, 분류 효율을 나타내기 위한 값으로서 채택되지만, (5)식의 다른 값은 참조 문헌 Classification and Regression Trees에 기재된 Gini criterion의 브랜치들의 전개 효율을 나타내는 함수에 사용될 수 있다.
전개될 하나의 뉴런 또는 한 세트의 뉴런들이 결정되면, 브랜치들은 전개되며, 리프들 및 노드들이 작성된다. 마침내 전체가 리프가 되면, 분류 트리의 작성이 완료된다.
제8도는 실제적으로 작성된 분류 트리의 내용을 도시한다.
제8도는 삭제된 브랜치들은 생략하고 제7도를 상세힌 도시한다. 제8도의 원이 있는 브랜치들은 그들이 리프라는 것을 나타낸다.
리프들 외의 모든 브랜치들은 노드가 되기 때문에, 그 브랜치들은 더 깊게 전개된다. 제8도에서, 브랜치들이 다시 전개한 결과가 우측 말단으로부터 세번째 노드의 경우에만 도시되어 있다. 우측 말단으로부터 세번째 노드에는, 3개의 카테고리 '1', '7' 및 '9'가 공존하며 브랜치들의 전개가 필요해진다. 우측 말단으로부터 세번째 노드에서, 전개될 제1층의 뉴런은 전개 변수 판별 단계내의 제1층내의 우측 상부 뉴런으로서 결정된다고 가정한다. 그 후, 제7도에서 처럼, 24=16개의 브랜치들은 우측 상부 뉴런의 상태로 전개되며, 상술한 조건 (1) 내지 (3)에 따라, 몇몇 브랜치들은 삭제되고 몇몇 브랜치들은 리프들이 되며 몇몇 브랜치들은 노드가 된다.
노드들이 되는 리프들은 다시 브랜치들을 전개하여, 마침내 모든 브랜치들의 말단은 리프가 된다.
제8도에서, 우측 말단으로부터 세번째 노드의 전개의 결과는 단순화를 위해 제1층 및 제2층을 중복하여 도시되어 있다. 실제적으로, 그 상태들은 제3도에 도시된 뉴럴 네트워크의 제1층의 4개의 뉴런 및 제2층의 4개의 우측 상부 뉴런들로 표시된다.
실제적 인식 처리는 상술한 방식으로 작성된 분류 트리에 따라 수행되거나, 분류 트리에 의해 작성된 리프들을 템플리트의 형태로 만듬으로써 수행될 수도 있다.
[실시예 2]
실시예 1의 뉴럴 네트워크 전개 단계 (1)에서, 뉴럴 구조/규칙은 다음과 같이 설정된다. :
하부 층의 2 × 2의 뉴런들 중에 2개 이상의 뉴런이 온되면, 상술한 층 상의 하나의 뉴런은 온되고 다른 것들은 오프된다.
이 경우에, 실시예 1에서 처럼 온 상태 뉴런만의 정보가 퇴화되는 것이 항상 사실은 아니다. 따라서, 분류 트리 작성 단계 (2)에서, 오프 상태 뉴런을 포함한 전개될 하나의 뉴런 또는 한 세트의 뉴런들이 선택되어야 한다. 그것은 실시예 1의 방식과 동일한 방식으로 구현될 수도 있다.
따라서, 뉴럴 네트워크 구조/규칙의 제한은 본질적으로 없으며, 어느 정도의 연속성만이 보증될 필요가 있다.
예를 들어, 제7도의 브랜치의 상태의 경우에, 실시예 1에서의 규칙은 하부 4개의 뉴런들 중에 가장 좌측의 뉴런은 오프되고 다른 뉴런들은 온되는 것이며, 본 실시예의 규칙은 좌측 말단으로부터 5번째까지의 뉴런들은 오프되고 나머지는 온되는 것이다.
규칙/맵핑 연속성이 보증되기 때문에, 오프 및 온 경계는 제7도의 상태들의 어레이에서 임의로 설정될 수도 있다.

Claims (38)

  1. 정보 처리 방법에 있어서, 입력 학습용 패턴을 계층적으로 이전-처리하는 단계; 및 상기 계층화 이전 처리 단계에서 처리된 학습용 패턴에 기초하여 분류 트리를 작성하는 단계를 포함하는 것을 특징으로 하는 정보 처리 방법.
  2. 제1항에 있어서, 상기 계층화 이전 처리 단계는 상기 학습용 패턴의 특징 변수를 단계적으로 축퇴(degenerate)하는 것을 특징으로 하는 정보 처리 방법.
  3. 제2항에 있어서, 상기 작성 단계는 상부 계층과 하부 계층 사이의 관계에 기초하여 변수를 선택하는 단계를 포함하며, 그 선택의 결과에 따라 상기 축퇴된 변수를 하부 계층쪽으로 전개되는 것을 특징으로 하는 정보 처리 방법.
  4. 제1항에 있어서, 상기 입력 패턴은 상기 작성된 분류 트리를 사용하여 인식되는 것을 특징으로 하는 정보 처리 방법.
  5. 제1항에 있어서, 인식용 템플리트(recognition template)는 상기 작성된 분류 트리에 기초하여 작성되며, 상기 입력 패턴은 상기 템플리트를 사용하여 인식되는 것을 특징으로 하는 정보 처리 방법.
  6. 제4항에 있어서, 상기 입력 패턴은 손으로 쓴 문자 패턴인 것을 특징으로 하는 정보 처리 방법.
  7. 제5항에 있어서, 상기 입력 패턴은 손으로 쓴 문자 패턴인 것을 특징으로 하는 정보 처리 방법.
  8. 제4항에 있어서, 상기 입력 패턴은 광학적으로 판독된 문자 패턴인 것을 특징으로 하는 정보 처리 방법.
  9. 제5항에 있어서, 상기 입력 패턴은 광학적으로 판독된 문자 패턴인 것을 특징으로 하는 정보 처리 방법.
  10. 제4항에 있어서, 상기 입력 패턴은 음성 패턴인 것을 특징으로 하는 정보 처리 방법.
  11. 제5항에 있어서, 상기 입력 패턴은 음성 패턴인 것을 특징으로 하는 정보 처리 방법.
  12. 제4항에 있어서, 상기 인식 결과는 표시 장치 상에 표시되는 것을 특징으로 하는 정보 처리 방법.
  13. 제5항에 있어서, 상기 인식 결과는 표시 장치 상에 표시되는 것을 특징으로 하는 정보 처리 방법.
  14. 제4항에 있어서, 인식될 패턴은 태블릿(tablet)에 의해 입력되는 것을 특징으로 하는 정보 처리 방법.
  15. 제5항에 있어서, 인식될 상기 패턴은 테블릿에 의해 입력되는 것을 특징으로 하는 정보 처리 방법.
  16. 제4항에 있어서, 인식될 상기 패턴은 스캐너에 의해 입력되는 것을 특징으로 하는 정보 처리 방법.
  17. 제5항에 있어서, 인식될 상기 패턴은 스캐너에 의해 입력되는 것을 특징으로 하는 정보 처리 방법.
  18. 제4항에 있어서, 인식될 상기 패턴은 마이크로폰에 의해 입력되는 것을 특징으로 하는 정보 처리 방법.
  19. 제5항에 있어서, 인식될 상기 패턴은 마이크로폰에 의해 입력되는 것을 특징으로 하는 정보 처리 방법.
  20. 정보 처리 방법에 있어서, 입력 학습용 패턴을 계층적으로 이전-처리하는 계층화 이전-처리 수단; 및 상기 계층화 이전-처리 수단에 의해 처리된 학습용 패턴에 기초하여 분류 트리를 작성하는 분류 트리 작성 수단을 포함하는 것을 특징으로 하는 정보 처리 장치.
  21. 제20항에 있어서, 상기 계층화 이전-처리 수단은 상기 학습용 패턴의 특징 변수를 단계적으로 축퇴하는 수단을 포함하는 것을 특징으로 하는 정보 처리 장치.
  22. 제21항에 있어서, 상기 분류 트리 작성 수단은 상부 계층과 하부 계층 사이의 관계에 기초하여 변수를 선택하는 수단을 포함하며, 상기 선택 수단에 의한 결과에 따라 상기 축퇴된 변수를 상기 하부 계층쪽으로 전개되는 것을 특징으로 하는 정보 처리 장치.
  23. 제20항에 있어서, 상기 작성된 분류 트리를 사용하여 상기 입력 패턴을 인식하는 인식 수단을 더 포함하는 것을 특징으로 하는 정보 처리 장치.
  24. 제20항에 있어서, 상기 작성된 분류 트리에 기초하여 인식용 템플리트를 작성하고 이 템플리트를 사용하여 상기 입력 패턴을 인식하는 인식 수단을 더 포함하는 것을 특징으로 하는 정보 처리 장치.
  25. 제23항에 있어서, 상기 입력 패턴은 손으로 쓴 문자 패턴인 것을 특징으로 하는 정보 처리 장치.
  26. 제24항에 있어서, 상기 입력 패턴은 손으로 쓴 문자 패턴인 것을 특징으로 하는 정보 처리 장치.
  27. 제23항에 있어서, 상기 입력 패턴은 광학적으로 판독된 문자 패턴인 것을 특징으로 하는 정보 처리 장치.
  28. 제24항에 있어서, 상기 입력 패턴은 광학적으로 판독된 문자 패턴인 것을 특징으로 하는 정보 처리 장치.
  29. 제23항에 있어서, 상기 입력 패턴은 음성 패턴인 것을 특징으로 하는 정보 처리 장치.
  30. 제24항에 있어서, 상기 입력 패턴은 음성 패턴인 것을 특징으로 하는 정보 처리 장치.
  31. 제23항에 있어서, 상기 인식 결과는 표시 장치 상에 표시되는 것을 특징으로 하는 정보 처리 장치.
  32. 제24항에 있어서, 상기 인식 결과는 표시 장치 상에 표시되는 것을 특징으로 하는 정보 처리 장치.
  33. 제23항에 있어서, 인식될 상기 패턴은 태블릿에 의해 입력되는 것을 특징으로 하는 정보 처리 장치.
  34. 제24항에 있어서, 인식될 상기 패턴은 테블릿에 의해 입력되는 것을 특징으로 하는 정보 처리 장치.
  35. 제23항에 있어서, 인식될 상기 패턴은 스캐너에 의해 입력되는 것을 특징으로 하는 정보 처리 장치.
  36. 제24항에 있어서, 인식될 상기 패턴은 스캐너에 의해 입력되는 것을 특징으로 하는 정보 처리 장치.
  37. 제23항에 있어서, 인식될 상기 패턴은 마이크로폰에 의해 입력되는 것을 특징으로 하는 정보 처리 장치.
  38. 제24항에 있어서, 인식될 상기 패턴은 마이크로폰에 의해 입력되는 것을 특징으로 하는 정보 처리 장치.
KR1019950037500A 1994-10-28 1995-10-27 정보 처리 방법 및 장치 KR0172197B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP26505494A JP3630734B2 (ja) 1994-10-28 1994-10-28 情報処理方法
JP94-265054 1994-10-28

Publications (2)

Publication Number Publication Date
KR960015281A KR960015281A (ko) 1996-05-22
KR0172197B1 true KR0172197B1 (ko) 1999-03-30

Family

ID=17411945

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019950037500A KR0172197B1 (ko) 1994-10-28 1995-10-27 정보 처리 방법 및 장치

Country Status (6)

Country Link
US (1) US6233352B1 (ko)
EP (1) EP0709800B1 (ko)
JP (1) JP3630734B2 (ko)
KR (1) KR0172197B1 (ko)
CN (1) CN1097240C (ko)
DE (1) DE69521868T2 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6061472A (en) * 1997-06-06 2000-05-09 Microsoft Corporation Method and mechanism to reduce handwriting recognizer errors using multiple decision trees
JP3634574B2 (ja) * 1997-07-11 2005-03-30 キヤノン株式会社 情報処理方法及び装置
US6185745B1 (en) * 1998-04-28 2001-02-13 Fred Alger Clothing combination comprising a self-releasing bonding fastening means
DE19831413C2 (de) * 1998-07-14 2002-03-07 Daimler Chrysler Ag Bildverarbeitungsverfahren und Vorrichtungen zur Erkennung von Objekten im Verkehr
US20020174088A1 (en) * 2001-05-07 2002-11-21 Tongwei Liu Segmenting information records with missing values using multiple partition trees
CN101312409B (zh) * 2007-05-23 2010-08-04 上海络杰软件有限公司 一种信息分层处理系统
US7608744B1 (en) 2008-07-31 2009-10-27 Celanese International Corporation Ethanol production from acetic acid utilizing a cobalt catalyst
JP5538967B2 (ja) 2009-06-18 2014-07-02 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US8768944B2 (en) 2010-08-18 2014-07-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP5675214B2 (ja) 2010-08-18 2015-02-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP5719145B2 (ja) 2010-11-02 2015-05-13 キヤノン株式会社 情報処理装置、その処理方法及びプログラム
WO2017124221A1 (en) * 2016-01-18 2017-07-27 Xiaogang Wang System and method for object detection

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634236B2 (ja) * 1985-11-02 1994-05-02 日本放送協会 階層型情報処理方法
JPH0652537B2 (ja) 1986-08-26 1994-07-06 日本電気株式会社 パタ−ン認識方法
US4805225A (en) * 1986-11-06 1989-02-14 The Research Foundation Of The State University Of New York Pattern recognition method and apparatus
US4975975A (en) * 1988-05-26 1990-12-04 Gtx Corporation Hierarchical parametric apparatus and method for recognizing drawn characters
JPH0782544B2 (ja) * 1989-03-24 1995-09-06 インターナショナル・ビジネス・マシーンズ・コーポレーション マルチテンプレートを用いるdpマツチング方法及び装置
US5029223A (en) * 1990-02-02 1991-07-02 International Business Machines Corporation Constraint driven-on line recognition of handwritten characters and symbols
FR2658337A1 (fr) * 1990-02-09 1991-08-16 Philips Electronique Lab Procede d'apprentissage d'un reseau de neurones hierarchise et reseau de neurones hierarchise.
US5022091A (en) * 1990-02-28 1991-06-04 Hughes Aircraft Company Image processing technique
JPH03288285A (ja) * 1990-04-04 1991-12-18 Takayama:Kk データ処理装置の学習方法
JP3118725B2 (ja) * 1991-09-11 2000-12-18 株式会社日立製作所 自動分類方法
JPH05324726A (ja) * 1992-05-25 1993-12-07 Fujitsu Ltd 文書データ分類装置及び文書分類機能構築装置
JP3248700B2 (ja) 1992-06-04 2002-01-21 松下電器産業株式会社 磁気記録媒体
DE69333664T2 (de) * 1992-06-19 2005-11-17 United Parcel Service Of America, Inc. Verfahren und Gerät zur Einstellung eines Neurons
US5533148A (en) * 1993-09-30 1996-07-02 International Business Machines Corporation Method for restructuring physical design images into hierarchical data models
US5444796A (en) * 1993-10-18 1995-08-22 Bayer Corporation Method for unsupervised neural network classification with back propagation
US5479523A (en) * 1994-03-16 1995-12-26 Eastman Kodak Company Constructing classification weights matrices for pattern recognition systems using reduced element feature subsets

Also Published As

Publication number Publication date
JPH08123913A (ja) 1996-05-17
US6233352B1 (en) 2001-05-15
CN1097240C (zh) 2002-12-25
KR960015281A (ko) 1996-05-22
EP0709800A2 (en) 1996-05-01
EP0709800A3 (en) 1996-12-11
JP3630734B2 (ja) 2005-03-23
DE69521868D1 (de) 2001-08-30
DE69521868T2 (de) 2001-12-20
EP0709800B1 (en) 2001-07-25
CN1122928A (zh) 1996-05-22

Similar Documents

Publication Publication Date Title
KR0172197B1 (ko) 정보 처리 방법 및 장치
Giammarresi et al. Two-dimensional languages
AU706080B2 (en) Character recognition system identification of scanned and real time handwritten characters
US5943663A (en) Data processing method and system utilizing parallel processing
US4799270A (en) Image classifier
RU2598300C2 (ru) Способы и системы автоматического распознавания символов с использованием дерева решений
CN112926565B (zh) 图片文本的识别方法、系统、设备和存储介质
CN111738133A (zh) 模型训练方法、目标检测方法、装置、电子设备及可读存储介质
CN114882884B (zh) 一种基于深度学习模型的多任务实现方法、装置
EP0450522A2 (en) A learning method for a data processing system
RU2582064C1 (ru) Способы и системы эффективного автоматического распознавания символов с использованием леса решений
JP4313178B2 (ja) ベクトル化図形の作成方法および装置
Watkins The use of fuzzy graph grammars for recognising noisy two-dimensional images
JPH11120291A (ja) パタン認識システム
JP3647127B2 (ja) 情報処理方法及び装置
JPH0855098A (ja) ニューラルネットワーク・クラシファイアおよびニューラルネットワークの構成法
Kozlova et al. Pattern Recognition System in Modern Communication Tools
Huang Interpretations of Deep Learning by Forests and Haar Wavelets
JP3630837B2 (ja) 情報処理方法及び装置
Szu et al. Gram-Schmidt orthogonalization neural nets for OCR
Jakobsson Inversion of an artificial neural network mapping by evolutionary algorithms with sharing
JPH11306222A (ja) 事例学習装置及び事例学習方法
CN113469277A (zh) 图像识别方法及装置
Monjel et al. Optical character recognition for Bangla documents using HMM
Yabuki et al. Genetic Programming Using a Turing-Complete Representation: Recurrent Network Consisting of Trees

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120924

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20130926

Year of fee payment: 16

LAPS Lapse due to unpaid annual fee