JPH0321811A - Method of determining text azimuth - Google Patents

Method of determining text azimuth

Info

Publication number
JPH0321811A
JPH0321811A JP2138656A JP13865690A JPH0321811A JP H0321811 A JPH0321811 A JP H0321811A JP 2138656 A JP2138656 A JP 2138656A JP 13865690 A JP13865690 A JP 13865690A JP H0321811 A JPH0321811 A JP H0321811A
Authority
JP
Japan
Prior art keywords
text
feature
orientation
determining
symbol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2138656A
Other languages
Japanese (ja)
Other versions
JPH0726836B2 (en
Inventor
Robert J T Morris
ロバート ジェー.テー.モリス
Lawrence D Rubin
ローレンス デー.ルビン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AT&T Corp
Original Assignee
American Telephone and Telegraph Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by American Telephone and Telegraph Co Inc filed Critical American Telephone and Telegraph Co Inc
Publication of JPH0321811A publication Critical patent/JPH0321811A/en
Publication of JPH0726836B2 publication Critical patent/JPH0726836B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees

Abstract

PURPOSE: To hold a required sensitivity to posture while maintaining insensitivity to changes of contents, by determining which of 'upward', 'inverted' and 'uncertain' postures a text has after a predetermined count of symbols are processed. CONSTITUTION: At a step (a), an image of at least one feature on an object or at lest one symbol (symbol or the like) of a text of a predetermined size is extracted. At a step (b), when the extracted symbol or the like does not correspond to a symbol or the like in an image of a second predetermined size, the symbol or the like is normalized in the image. At a step (c), a similar measurement value of vectors is determined and a probability for each symbol or the like to have a predetermined 'up' or 'down' posture is determined. At a step (d), which of the 'up', 'down' and 'uncertain' postures the text or the like has is determined from the probability. At a step (e), which of the 'up', 'down' and 'uncertain' postures the object has is determined from an index of the posture of the text or the like.

Description

【発明の詳細な説明】 本発明は、物体上のフィーチャー,例えば、プリントさ
れたテキストの方位を、物体の方位を決定するための順
フィート ニューラル網の形式の判定装置を含む網を使
用して検出するための技術に関する. 発1区11景 組み立゛Cプロセスが“ジャスト イン タイム(Ju
st In Time) ”運転に近付くに従っで、自
動検査かより重要な技術となる。例えば、製造動作と検
査との間の密接なループが作られ、これによっで、製造
設定に起因するエラーか発生した場合、最低数以上の欠
陥品目か製造されないように保証される.これは、ロフ
ト或はバッチ単位の製品か製造された後に初めてエラー
か検出される従来のバッチ製造と対照的である.迅速な
検出は他の長所も持つ.例えば、回路パケットの表面搭
載アセンブリーにおいては、半田付けされる前に、最初
に、要素か粘着剤にて所定の位置に保持される,従っで
、この据え付け動作の後のライン内に置かれた検査シス
テムは、半田付けプロセスか遂行される前にエラーを見
付けることかでき、こうしで、修理コストを最小限に削
減する。
DETAILED DESCRIPTION OF THE INVENTION The present invention describes the orientation of features on an object, such as printed text, using a network including a determination device in the form of a forward neural network for determining the orientation of the object. Concerning technology for detection. The C process for assembling 11 views in the 1st ward of departure is “just in time” (Ju
As we move closer to production, automatic inspection becomes a more important technology. For example, a tight loop is created between manufacturing operations and inspection, which eliminates errors caused by manufacturing settings. If a defect occurs, a minimum number of defective items are guaranteed not to be manufactured. This is in contrast to traditional batch manufacturing, where errors are detected only after the loft or batch of products has been manufactured. Rapid detection has other advantages as well, for example, in surface mount assembly of circuit packets, which are first held in place with an element or adhesive before being soldered, this Inspection systems placed in-line after the installation operation can detect errors before the soldering process is performed, thus minimizing repair costs.

同路l1(板の欠陥を検出するための様々な構成が冬案
されている。例えば1977年6月7日付にで、B.H
.シャープ( B.H.Sbarp )に交付された合
衆国特許第4,028,827号は、物品−Lの少なく
とも二つの異なるタイプの光反射表面の存花或は不在,
及ひこれらの間の弁別を選択的に達成する為のビデオ 
システムを開示する。これらシステムは、回路経路及び
半田接続を検査するために使用かり能である。6う一つ
の装置かJ.W.マクファーレン( J.W.MacF
arlane)らに、1986年5月25日付けで交付
された合衆国特許第4,578,810号において開示
されるか、ここでは、自動ビションテスターによっで、
印刷配線基板(printed *iringboar
d, P W B )の欠陥が検出される.これら検出
器は、印刷配線回路を光学的に検出するためのPWBの
二進イメージ パターンを形或するアレイの光学センサ
ーを含む。
(Various configurations for detecting board defects have been proposed. For example, in June 7, 1977, B.H.
.. U.S. Pat. No. 4,028,827 to B.H. Sbarp discloses the presence or absence of at least two different types of light-reflecting surfaces on article-L;
and a video to selectively achieve discrimination between them.
Disclose the system. These systems can be used to inspect circuit paths and solder connections. 6. Another device or J. W. MacFarlane (J.W.MacF
arlane et al., U.S. Pat. No. 4,578,810 issued May 25, 1986;
printed wiring board (printed *iringboar
d, P W B ) defects are detected. These detectors include an array of optical sensors forming a binary image pattern of the PWB for optically detecting printed wiring circuits.

s.p.デンカー(S.P.Denker)らによッテ
、ベニシルハニア州,フィラデルフィフにで、1984
年lO月にllIl催された国朕エ蓋上会通( InL
ernational Test Conferenc
e )の.;ii.s録、ページ、 558一563に
掲載の論文は、マシーン ビジョン技術を使用して回路
印刷回路基板(Printed circuit bo
ard,PCB)アセンブリー エラーを検出するため
の自動ビション テスターを開示する。このテスターに
おいては、カメラかPCBのイメージを捕1足し、この
イメージの電気的表現をコンピューターに送るために使
用される。コンピューターは.PCBイメージのフィー
チャーをメモリー内に格納された理想イメージと比較し
、アセンブリー エラーの検出を行なう.もう一つの構
威が、ハイブリッド回路(llybrid Circu
its . GB) . No. 13. 1987年
,べ−ジ5−8にD.J.スベトコフ(D.J.Sve
tkoff)らによって発表の論文において開示される
が、ここでは、テスト下の回路基板の三次元マップ及び
クレー スケール(Gray−Scale)ビション 
データの内方を使用する要素基板な白動的に検査するた
めの技術か開示される。この技術は,要素、例えば、半
[11ペーストの量の検出及び方位の測定に有効である
と説明される。
s. p. S.P. Denker et al., Philadelphia, Benichirhania, 1984.
InL
International Test Conference
e). ;ii. The paper, published on pages 558-563, uses machine vision technology to create printed circuit boards.
An automatic vision tester for detecting assembly errors (Ard, PCB) is disclosed. This tester is used to capture an image of a camera or PCB and send an electrical representation of this image to a computer. The computer is. Compares the features of the PCB image with the ideal image stored in memory to detect assembly errors. Another structure is the hybrid circuit.
its. GB). No. 13. In 1987, D.B. J. Svetkov (D.J.Sve
Here, a three-dimensional map of the circuit board under test and a Gray-Scale vision map are disclosed in a paper published by Tkoff et al.
A technique for dynamically inspecting element substrates using internal data is disclosed. This technique is described as being useful for detecting the amount and measuring the orientation of elements, such as half [11 paste.

先行技術は、要素の様々な位置、並びに接続及び全ての
要素か回路薄板上に正しく置かれているか否かを検存す
るか、欠陥を持たない品目か,常に、格納されているイ
メージと同一に見えるような状況に限定される。先行技
術において欠落しているものは,製造の様々な段階、例
えば、ホッパーのローディング、半田付け前の基板への
要素の搭載、回路基板上へのチップの搭載等の段階にお
いで、要素自体の方位を決定するための低コストで、信
頼性の高い完全な検査システムを得るための方法か存花
しないことである.更に、先行技術によるシステムのも
う一つの問題は、これらシステムか検出された要素と比
較するための格納された理憩イメージを持たず,一方に
おいで、これら要素上のマークか、例えば、日付スタン
プの使用,或は,印刷位置及びスタイルの変動のために
,大きく変動することである。
The prior art detects the various positions of the elements, as well as the connections and whether all elements are placed correctly on the circuit board, or whether the item has no defects or is always identical to the stored image. limited to visible situations. What is missing in the prior art is the ability of the elements themselves to be integrated at various stages of manufacturing, such as loading the hopper, mounting the element on the board before soldering, and mounting the chip on the circuit board. There is no way to obtain a low-cost, reliable, and complete inspection system for determining orientation. Furthermore, another problem with prior art systems is that these systems do not have stored search images to compare detected elements, whereas they do not have marks on these elements, such as date stamps. or due to variations in printing position and style.

え姓豊鷹1 先行技術の前述の欠陥及び問題か本発明に従って解決さ
れるか、本発明は、物体、例えば、電気要素上のフィー
チャー或はマーク、例えば、文字、数字、商標記号の方
位を決定し、それから,その物体自体の方位を決定する
ための技術に関する。本発明によるシステムにおいては
,物体の全て或は一部のイメージかラインのシンボル或
は個々のシンボルを抽出するために使用される。こうし
て分離されたシンボルか,次に、各々適当にトリミング
及びスケーリンクされiE規化されたシンボルが得られ
る。その後,例えば、順フィート ニューラル網の形式
での最適ベイズ決定法( Optimal Rayes
ian DecisionIle thod )によっ
て,所定の数のシンボルか処理された後にテキストの方
位が“上向き( right−sideup >”であ
るか、′逆さ向き(upside−down )″であ
るか、或は“不定(indetervinate ) 
”であるかが決定される。本発明は、フィーチャー或は
マーキングの方位を格納された理想イメージを使用せず
に決定するため、これは、内容、例えば、日付スタンプ
及び活字スタイルの変更にインセンシテイブであり、一
方においで、方位に対する要求されるセンシティビティ
は保持する。
The above-mentioned deficiencies and problems of the prior art are solved according to the present invention; and then the orientation of the object itself. In the system according to the invention, it is used to extract images of all or part of an object, or line symbols or individual symbols. The thus separated symbols are then each suitably trimmed and scaled to iE normalized symbols. Optimal Rays decision methods, for example in the form of forward foot neural networks, are then used.
ian DecisionIle thod) determines whether the text orientation is “right-side up”, “upside-down”, or “indeterminate” after a predetermined number of symbols have been processed. intervinate)
Because the present invention determines the orientation of a feature or marking without using a stored ideal image, this may be insensitive to changes in content, e.g., date stamps and type style. on the other hand, retaining the required sensitivity to orientation.

夏廉斑曵五』 第1図は、本発明による物体力位検出システムの好まし
い構成のフロック図を示すが、このシスデムは、要素、
例えば、電気デバイス或はチップ上の情報、例えば,プ
リントされたテキスト或はマークを読み出し、この情報
の方位を決定する。このシステムは、例えば、しばしば
、数百の要素か一つの回路パック上に置かれる電子アセ
ンツリー ライン内に使用することか可能である.この
ようなアセンブリー内においては、これら要素は、最初
に、例えば、手作業にで、それらのホッパーに入れられ
るか、セットアップ時或は補給時に,これら要素の対称
性から方位エラーか起こる.多くの物品は、方位マーク
,例えば、ノッチ、斜]白或はトットを持つか,現在の
所、これらマークの標準化か存在せず,また、マークか
使用される場合、これらは、通常、コンピューター ビ
ション システムにて検出するのか非常に困難である。
FIG. 1 shows a block diagram of a preferred configuration of an object force position detection system according to the present invention, which system includes the following elements:
For example, reading information on an electrical device or chip, such as printed text or marks, and determining the orientation of this information. This system can be used, for example, in electronic assembly lines where hundreds of elements are often placed on one circuit pack. Within such assemblies, the elements are initially placed into their hoppers, eg, manually, or during set-up or replenishment, orientation errors may occur due to the symmetry of the elements. Many articles have orientation marks, such as notches, diagonals, or dots, or there is currently no standardization of these marks, and when marks are used, they are usually It is very difficult to detect it with a vision system.

前部方位検出問題の幾つかの屯要要件として,(1)フ
ィーチャーのきっちりとした特長或は内容、例えば、活
字スタイル或はサイズに関する事前の知識か存在しない
;(2)フィーチャーか,通常、読みに〈〈、例えば、
プリントは、通常、低品質である;(3)検出か迅速に
遂行されなければならない一方、(a)誤方位検出の確
率か可能な限り高くなければならず、そして(b)”誤
破棄( false reject)Hの確率か非常に
低くなければならない;そして(4)180度の回転に
対して一定不変或はほぼ一定不変であり、どちらの方位
からも正しく読めるような多くのフィーチャー、例えば
、文字か存在する。この後者のセクションに関しては、
文字A−Z及び数字0−9のセットのうち、約40%(
つまり、BHIMOQSWXZO l 689)は回転
的に不変或は回転的に共役不変(conjugate−
invariant )である.つまり、180度の回
転の後の記号か,使用される活字によっては、セットに
で、他の記号と回しように見える。説明の目的上、本発
明のシステムは、チップの方位を決定するために使用さ
れるか、本発明のシスデムは、そのLに重一或は複数の
フィーチャー、例えば、コンベアベルト上のボックス、
ボトルLのラベルを持つ任意の物体の方位を決定するた
めに修正することもてきる。さらに、このシステムは、
テキスト以外の要素或はマークの方位を決定するために
も同様に適用できる。このシステムは、入力としで、任
意のセットの基準イメージを持つことに依存する。
Some essential requirements of the front orientation detection problem are: (1) there is no prior knowledge of the exact features or content of the features, e.g., type style or size; To read 〈〈, for example,
Prints are usually of low quality; (3) detection must be accomplished quickly, while (a) the probability of misorientation detection must be as high as possible; and (b) "false discard" ( and (4) many features that are constant or nearly constant over 180 degrees of rotation and can be read correctly from either orientation, e.g. Regarding this latter section,
Approximately 40% of the set of letters A-Z and numbers 0-9 (
In other words, BHIMOQSWXZO l 689) is rotationally invariant or rotationally conjugate-invariant.
invariant). That is, the symbol after a 180 degree rotation or, depending on the typeface used, appears to be rotated with other symbols in a set. For illustrative purposes, the system of the present invention is used to determine the orientation of a chip, or the system of the present invention is used to determine the orientation of a chip, or a system of the present invention is used to determine the orientation of a chip, or a system of the present invention, that
It can also be modified to determine the orientation of any object labeled bottle L. Furthermore, this system
It can be similarly applied to determining the orientation of elements or marks other than text. This system relies on having an arbitrary set of reference images as input.

第1図の方位検出システムにおいては、(1)ビデオ 
カメラ: (2)ビデオ ピクチャーのフレームと関連
するピクチャー信号を捕らえるためのフレーム グラバ
ー,及び(3)例えば、約0.002インチ/画素,及
び256グレイ レベル/画素の実物体スケール(re
al object scale )を持ツ5l2x5
12画素フレームを提供するためのアナログ/デジタル
(A/D)ハートウエアを含むビデオイメージング デ
ハイス10か準備される。基準設計データ ベース1l
か個々の調べられるデバイス,例えば,基板上にアセン
ツルされるチップのその基板に対する正確なフートプリ
ント或は位置、及び正確に位置された或は挿入されたデ
バイスに対するフィーチャ一方位を格納及び提供するた
めに使用される。ビデオ イメージ デハイス10から
の一例としてのチップの結果としてのイメージか適応城
値モジュール(Adaptive Threshold
 Module , A TM)12への一つの入力と
して提供される。
In the direction detection system shown in Figure 1, (1) video
Camera: (2) a frame grabber for capturing frames of a video picture and associated picture signals, and (3) a real object scale (re
al object scale) 5l2x5
A video imaging device 10 is prepared that includes analog/digital (A/D) hardware to provide a 12 pixel frame. Standard design database 1l
or for storing and providing the exact footprint or position of an individual interrogated device, e.g., a chip assembled on a substrate, with respect to that substrate, and the feature orientation for the precisely positioned or inserted device. used for. Image as a result of an example chip from Video Image Dehys 10 or Adaptive Threshold module
Module, ATM) 12 is provided as one input.

ATM1 2内においで、設計データベース11からの
チップのフートプリントが注意をビデオ イメージンク
 デバイス10からのチップのイメージ上の関心のある
特定の要素或は領域に向けるために使用され,そしで、
この結果としての要素或は領域のイメージは,この時点
においで、ビデオ イメージング デバイスlOによっ
て提供される256x256画素イメージングのかわり
に,例えば.200xl30画素のみを含む,ATM1
2は、結果としての要素或は領域のイメージを二進イメ
ージに変換するか,ここで,個々の画素は一例としての
256プレイ レベルの一つのかわりにO或は1のレベ
ルのみを含む。この二進化ステップを省略し、イメージ
をタレイ スケール デー夕のまま処理することも可能
であるか,好ましい実施態様においては、これかより高
速2低コストの実k態様を与えるために、ATM二進化
ステップか使用される。一般に、元の256個のタレイ
 レヘルと2個の二進レベルとの間の適当な域値の自動
評価は大変困難な問題であるか、但し、本システムにお
いては、殆どのケースにおいで、テキストがコントラス
トの背景上の一つの色として現われ、クレイ レベル 
ヒストクラムか二つのかなり簡単に決定できるピークを
持つために,巾純なヒストクラム法か使用できる。これ
らピークは、二つのパラメータ、つまり、ラシアルサー
カムスベクション(radial circu置spe
ction )とマス域値(mass thresho
ld)の相互作用を満足のできる解か得られるまで適応
的に使用することによって決定される。ラジアル サー
カムスベクションは、ヒストグラム内の近似の半径であ
り、これか、ある値か局所最大であ゛ることを検証する
ために調べられる。ピークを構成するためには、グレイ
 レベルが局所最大であり、しかも、マス域値を越える
質敬を持たなければならない。この技術は,プリントが
黒土のライト或はライト上の黒、等と関係なく、前景か
“l”として表わされ、そして背景が“0″として表わ
されるようにも修正することができる。
Within ATM 1 2, the footprint of the chip from design database 11 is used to direct attention to a particular element or region of interest on the image of the chip from video imaging device 10, and
The resulting image of the element or region is now, for example, instead of the 256x256 pixel imaging provided by the video imaging device IO. ATM1, containing only 200xl30 pixels
2 converts the resulting element or region image into a binary image, where each pixel contains only O or 1 levels instead of one of 256 play levels as an example. It is also possible to omit this binarization step and process the image as a tally scale data, or in the preferred embodiment, it is possible to omit this binarization step and process the image as a tower scale data. step or used. In general, the automatic evaluation of the appropriate threshold between the original 256 levels and the two binary levels is a very difficult problem; however, in this system, in most cases the text appears as a single color on a contrasting background, and the clay level
In order to have a histogram with two fairly easily determined peaks, a simple histogram method can be used. These peaks are determined by two parameters: radial circumvection
ction ) and mass thresho
ld) interactions adaptively until a satisfactory solution is obtained. Radial circumvection is the radius of approximation in the histogram that is examined to verify that this or some value is a local maximum. In order to constitute a peak, the gray level must be at a local maximum and have a quality that exceeds the mass threshold. This technique can also be modified so that the print is represented as the foreground or "l" and the background as "0", regardless of whether the print is a black clay light or black on light, etc.

ATM12によって生成される二進イメージは、フレー
マー モジュール(Framer Moclule )
 l 3に人力として提供され、ここで、イメージのシ
ンボル(文字,数等)か捕らえられる。より具体的には
、これらシンボルの捕獲は,例えば、最初に二進イメー
ジのOと1のビットマップ マトリックスの水平総和を
とってラインのシンボルを抽出し、次に、個々のシンボ
ルを抽出するためにライン内の垂直総和をとることによ
って遂行される.この目的のために,本発明による量域
値(quantile thresholds )が使
用される。より詳細には、二進イメージの個々の走査ラ
インiに対しで、“l”ビットの列の合計r[ilが形
成される.こうしで、r [ilはテキストの列のピー
ク,及びテキストの列の間の谷或はギャップを含む.こ
れらピーク及びギャップは、テ?ストのノイス及び振動
によって妬害されることかある。従って,域値dかギャ
ップからピークを分離するために使用される。ここで、
例えば、d=δγ■、、δは所定の定数,例えば、0.
07、モしてγ1〜は、列の総和ベクトル[]内の最も
大きな項目である。このプロセスは、本質的に、最も上
部の走査ラインから開始され、所定の城値の上のピーク
の開始を探すために順次走査ラインを進み、そして,あ
る域偵の下の谷を求めで、ピーク領域を通じて継続し、
ラインのシンボルを抽出する。小さく見え過ぎるような
ライン或はギャップは,ノイズに起因するものとして破
棄される。これらプロセスか二進イメージの行の総和を
用いて反復され、個々のシンボルか抽出される。これら
水平及び垂直ヒストクラムの技術は90度の回転を暴露
し、直ちにこれを修正できることに注意する,ATMl
2のプロセスを通じて分離されたトットをろ波するため
に,フレーマー モジュールl3か所定の定数以下の“
接続されたドット質量(connected dot 
llass)″を持つ領域も無視するために使用される
.このプロセスは、砕かれた有効なシンボルの一部を失
うリスクを持つか、認識器手順に対する悪影響は見られ
ない。
The binary image generated by ATM12 is processed by a framer module (Framer Molcle).
It is provided as human power to l3, where the symbols (letters, numbers, etc.) of the image are captured. More specifically, the capture of these symbols can be accomplished by, for example, first taking a horizontal summation of the O's and 1's bitmap matrix of the binary image to extract the line symbols, and then extracting the individual symbols. This is accomplished by taking the vertical summation within the line. For this purpose, quantile thresholds according to the invention are used. More specifically, for each scan line i of the binary image, a sum r[il of a sequence of "l" bits is formed. Thus, r [il includes the peaks of the text columns and the valleys or gaps between the text columns. These peaks and gaps are Te? Sometimes people are jealous of the noise and vibrations of strikes. Therefore, the threshold d is used to separate peaks from gaps. here,
For example, d=δγ■, δ is a predetermined constant, for example, 0.
07, γ1~ is the largest item in the column summation vector [ ]. The process essentially begins at the top scan line, steps through the scan lines sequentially to find the beginning of the peak above a given castle value, and then searches for the valley below a certain area value. Continuing through the peak area,
Extract line symbols. Lines or gaps that appear too small are discarded as being due to noise. These processes are repeated using the summation of the rows of the binary image to extract individual symbols. Note that these horizontal and vertical histogram techniques expose a 90 degree rotation and can be corrected immediately.
In order to filter the tots separated through the process of 2, the framer module 13 or the “
connected dot mass
This process runs the risk of losing some of the valid symbols that are crushed or no negative impact on the recognizer procedure is seen.

フレーマー モジュールl3は、また、シンボルが常に
所定の位置にあるときは、省略することかできる。但し
、好ましい実施態様においては、このモジュールがプリ
ントの位置かかなり変動する従来の方法にてマークされ
た電子要素を検査することをIrf能とするためにこれ
か使用される。フレーマー モシュール13は,従っで
、システム全体に対する変位不変能力(displac
e@eM−invariance capabilit
y)を牛える。
The framer module l3 can also be omitted if the symbol is always in place. However, in a preferred embodiment, this module is used to provide IRF capability to inspect electronic elements marked in a conventional manner where the position of the print varies considerably. The framer mosule 13 therefore has a displacement-invariant capability for the entire system.
e@eM-invariance capability
Understand y).

正規化モジュール(Norvalization Mo
dule, N M )14は、フレーマー モジュー
ルl3からの出力を受信し,個々の抽出されたシンボル
を゛トリム″及び“スケーリング゜′する。このトリミ
ングは、抽出されたシンボルか両側部、L部及び/或は
下部の所に付随する白或は殆ど白の空間を持つことかあ
るために遂行される。スケーリングは、シンボル イメ
ージか、例えば、24列x16行の所定の標準サイズを
占拠するようにスケール アップするために遂行される
。幾つかのケースにおいては、この正規化プロセスは,
元のイメージに歪を午える。例えば、薄い文字、例えば
、文字“■”か、16行を占拠するように“肥大化(f
atten) ”される。但しこれは、入力データ及び
下に説明の基準ベクトルの両方か同一方法にて変換され
るために問題とはならない。一例としての“I”の肥大
化を起こさないこれにかわる方法は,基準及びサンプル
 イメージの垂直整合ミスに起因する整合ミスを許容で
きるという潜在的な長所を持つ。正規化モジュールl4
は、シンボルか常に所定のサイズであるときは、省略す
ることかてきる。但し、好ましい実施態様においては、
NMl4がシステムに対するスケール不変能力(sca
le−invariance capability 
)を与えるために使用される. 正規化されたシンボルを表わす信号は、次に、判定モジ
ュールl5に送られ、ここで、設計データベース11情
報を用いで、シンボルの方向が″L”を向いているか、
“下“を向いているか、或は“不確定”であるか否かの
決定か行なわれる。後に説明されるように、その特定の
形式か“順フィート( 1’cedforward .
  F F )″ニューラル網法とも呼ばれる好ましい
最適検出(Optimal DeLecLi+)n ,
 O D )法を使用する判定モジュールl5に対する
好ましい構成は、例えば,検索テーブルを用いて捕獲さ
れたシンボルと基準イメージのビットマップ間の“預似
側定値(similarity measure) ”
 .例えば、ハミング距離( Ilammingdis
tance)を計算することにより、シンボルの方向か
“上゛を向いているか、“ド゜を向いているか、或は、
“不確定”であるかの確率を計算する.シンボル、例え
ば,文字は、正常な方位にあるときは、“上”向きであ
るといわれ、逆転した位置にあるときは、“下”向きで
あるといわれる。
Normalization module
dule, N M ) 14 receives the output from the framer module l3 and "trims" and "scales" the individual extracted symbols. This trimming is performed because the extracted symbols may have associated white or nearly white spaces on the sides, L and/or bottom. Scaling is performed to scale up the symbol image to occupy a predetermined standard size, for example, 24 columns by 16 rows. In some cases, this normalization process
The original image is distorted. For example, a thin character, such as the character “■”, or a “bloated” character (f) that occupies 16 lines.
However, this is not a problem since both the input data and the reference vector described below are transformed in the same way. Alternative methods have the potential advantage of being able to tolerate misalignment due to vertical misalignment of the reference and sample images.Normalization module l4
can be omitted if the symbol is always a given size. However, in a preferred embodiment,
NMl4 provides scale-invariant ability (sca
le-invariance capability
) is used to give. The signal representing the normalized symbol is then sent to a decision module l5, which uses the design database 11 information to determine whether the symbol orientation is "L" or not.
A determination is made whether it is facing "down" or "indeterminate". As will be explained later, its particular form is ``cededforward.
Optimal DeLecLi+, also called F F )'' neural network method,
A preferred configuration for the determination module l5 using the O D ) method is to measure the "similarity measurements" between the captured symbols and the reference image bitmap using, for example, a look-up table.
.. For example, Hamming distance (Ilammingdis
tance), it is possible to determine whether the direction of the symbol is "up", "down", or
Calculate the probability of “uncertainty”. A symbol, eg, a letter, is said to be oriented "up" when it is in its normal orientation, and is said to be oriented "down" when it is in an inverted position.

物体,或はチップは、“上”或は“下”方向を向いた正
常に方位したテキストを持つ.正常に方位したチップは
、ここでは“表向き(right−side up )
″と呼ばれ、正常でない方位を持つチップは“逆向き(
upside down )″と呼ばれる。
The object, or chip, has normally oriented text pointing in the "up" or "down" direction. A normally oriented chip is here “right-side up”
A chip with an incorrect orientation is called a “reverse orientation (
upside down)''.

より具体的には、観察されたイメージは,長さNのビッ
トマップである。つまり,Ω={0.1}’?のベクト
ルである。”−L”向きの方位の時U,u2、  U■
、として現われ、“下”向きのときd1、d2、...
d,として現われる基準イメージ或はシンボル(つまり
、様々な活字サイズの文字、数字、l゜11標ログ)の
集合か存在するものと想定される。また、そのイメージ
に固有のノイズ,イメージ捕獲プロセスに起因するノイ
ズの両方、及び基準セット内にない活字スタイル、サイ
ズ等の使用に起因する変動を表わす歪プロセスか存花す
るものと悲定する。
More specifically, the observed image is a bitmap of length N. In other words, Ω={0.1}'? is the vector of When the direction is “-L” U, u2, U■
, and when facing downward, d1, d2, . .. ..
It is assumed that there is a set of reference images or symbols (i.e., letters, numbers, l°11 logs of various type sizes) that appear as d. It is also assumed that there is a distortion process that represents both noise inherent in the image, noise due to the image capture process, and variations due to the use of type styles, sizes, etc. that are not within the reference set.

これら歪みプロセスは、以降、p(xly)によって表
わされるか、これは,基準ベクトルyか観察されたベク
トルX内に確率p (x I y)にて歪められること
を示す。又、p(xlu)或はp (x I d)は,
ベクトルXか観察される確率であると定五される。ここ
で、ベクトルXは,それぞれul−.’ 2、..u3
或はd,,d2、..− d.の基準セットからランダ
ムに選択されたシンボルの歪である。従っで、確率 p(xlu)一Σp(xlu,) p(uI)+−1 及び p(xld) − : p(xld;)p(d:).+
−1 てあり、ここで、p (u+ )或はp (dt )は
、シンボルか“上”或は“下”の方位を持つとき、それ
ぞれ、シンボルu.或はd+か使用されるアプリすり確
率である。上の基準セットのシンボルは、例えば、様々
なサイズ、活字スタイル、及び方位の文字A−Z、及び
数字0−9から成る。スケーリング動作か正規化モジュ
ールl4内において遂行されるか、基準セットの複数の
サイズの存在か、活字か、典型的には、スケール不変(
scale−invariant )であるために要求
されることに注意する.この問題の一つの公式化は、従
っで、Ωの判定“−h (1111) ” ,  “下
( down )″或は“不確定(indete目in
ate )”を表わす領域Ω1,Ω4、Ωiへの分割を
見つけることである。この問題は、“誤破棄( fal
se reject)”の確率の制限内において方位の
IE L/い決定の確率を最大化することである.これ
は,単一シンボルの方位の最適決定のための以下の実用
的な技術を導く。
These distortion processes will hereinafter be denoted by p(xly), which indicates that the reference vector y is distorted into the observed vector X with probability p (x I y). Also, p(xlu) or p(x I d) is
The probability that vector X will be observed is given by 5. Here, the vectors X are respectively ul-. '2,. .. u3
Or d,,d2, . .. -d. is the distortion of a randomly selected symbol from the reference set of . Therefore, the probabilities p(xlu) - Σp(xlu,) p(uI)+-1 and p(xld) − : p(xld;) p(d:). +
−1, where p (u+) or p (dt) is the symbol u. when the symbol has an “up” or “down” orientation, respectively. Alternatively, d+ is the app slip probability used. The symbols in the above reference set, for example, consist of letters AZ and numbers 0-9 of various sizes, type styles, and orientations. Whether the scaling operation is performed within the normalization module l4, the presence of multiple sizes of the reference set, or the typeface, typically scale invariant (
Note that this is required because it is (scale-invariant). One formulation of this problem is therefore the decision of Ω "-h (1111)", "down" or "indeterminate".
The problem is to find a partition into regions Ω1, Ω4, Ωi that represent “false discards (false discards)”.
The objective is to maximize the probability of an IEL/I determination of orientation within the limits of the probability of "reject)". This leads to the following practical technique for optimal determination of orientation of a single symbol.

この技術は、以下を出力する。This technique outputs:

p (xld)/p (xlu)≧入の場合は、d(“
下′)、 p (x l d)/p (x l u)≦入−1の場
合は、U ( “”Lx”)  、 その他の場合は,l(“不確定”) 次に、パラメータ入≧1か分析或は実験からてきる限り
小さいか、たたし、過剰数の誤破棄か存イEしないよう
に調節される。
If p (xld)/p (xlu)≧in, then d(“
(lower'), if p (x l d)/p (x l u)≦in-1, then U (“Lx”), otherwise, l (“uncertain”) Next, the parameter input It is adjusted to be ≧1 or as small as possible from analysis or experiment, and to avoid an excessive number of erroneous discards.

複数のシンボル:x (1). x (2)、. . 
. x(L)から成るチップに対する方位の決定か必要
となる。従って,以下の条件付き独立前提か採用される
. 次に、この最適テストは以下の出力を与える。
Multiple symbols: x (1). x (2), . ..
.. It is necessary to determine the orientation for the chip consisting of x(L). Therefore, the following conditional independence assumption is adopted. This optimal test then gives the following output:

d(“下”)[ p(x(1) l d)/ p(x(
1)l u)≧λ(L),++1 その他の場合は、l(不確定)。
d(“bottom”) [ p(x(1) l d)/ p(x(
1) l u)≧λ(L),++1 In other cases, l (uncertain).

基板を検査するために割り当てられた侍間か十分テアる
場合は、物体Eに発見される全てのシンボルを調べるこ
とによって最良の結果か得られる。ただし、通常,全て
のシンボルを読まなくても方位に関しての非常に高い確
かさを得ることか可能である。
If the samurai assigned to inspect the board are sufficiently available, best results are obtained by examining all symbols found on object E. However, it is usually possible to obtain a very high degree of certainty about orientation without reading every symbol.

これ(ま、A.ウ才一ノレト(A.Wald)による著
書rシーケンシャル アナリシス(Sequentia
l^nalysis)1、トーハー パブリケーション
(Dower Publications) ,  1
 947年,ベージ34二43について説明されるシー
ケンシャル テスト手順を使用することを示唆する.こ
の方法においては,シンボルか確率比の累積的な積かあ
る上限入を越えるまで、或は下限入−1以下に落ちるま
で読まれ、その時点においで、方位の決定が行なわれる
。これは、チップ当りの平均時間で測定した場合、潜在
的にプロセスの十分な高速化を達成する.ただし、前の
分布に関してのバイアスかあったり或は分布に関しての
知識が乏しい場合は,!lやかに成長する入関数を使用
するか、或は,この分布を任意の一つの観察の積に制限
することが必要となる. 判定モジュールl5に上に説明のプロセスを遂行するた
めに順フィート ニューラル網を実現するための一例と
しての構成か第2図に示される。第2Vにおいで、正規
化モシュールl4からの入力は、正規化されたシンボル
に対するビットマップ(マトリックス)の別個の要素を
持ち、これらには,Xtからx.の記号か与えられる6
個々のビットマップ要素X,は、入力として個々の入力
ユニット(Inputυnip.  I U) 20+
から20Hに送られる。より几体的には、個々の正規化
シンボルか24x l6要素の一例としてのビットマッ
プ マトリックス内に置かれるように配列された場合、
Nは384要素に等しくなり、そしで、判定モジュール
l5は、384個の入力ユニット20を含む。個々の入
力ユニット20.からの出力は,M個のパターン ユニ
ット21.から2lいまでに分配される。ここで、例え
ば、M個のパターン ユニット2lの第一の半分か以下
の確率を決定するために使用される.及び これら値P (u, )及びp (d. )は,例えば
、現場実験から得ることかできる、或は、全体を通して
均一の確率を使用する、つまり、全てのシンボルをいず
れの方位においても同一の確率に取ることによって得る
ことかてきるアプリオリ確率である。これら値P(Xl
u1)及びp(xld.)を得るためには、歪プロセス
についての幾つかの仮定を立てる必要かある。単純な一
例としてのモテルは、(1)確率g (k)においで、
ビットマップのkビット変化され、(2)これらビット
が独立した同一に分んするトライアルに従って変化する
という憩定を行なう。従って ここで、h (x,u,)はベクトルXとU.の間のハ
ミング距離を表わす。この手順のニューラル,網の図か
第2図に示される。パターン ユニット2lから成る第
一のアクティブ層は,上の式に従っで、p(xlu.)
及びp(x1d.)を計算する。総和ユニット221及
び222から成る次の層は、確率p(xlu)及びp(
xld)を生成し、シーケンシャル判定ユニット23は
、チップに対する最終判定を与える。第2図の部分及び
使用される用語は,D.F.スベクト(D.F.Spe
chL)によって,ニューラル に  るIEEE  
 A−    (TheProceediBs of 
the IEEE International Co
nferenceOn Neural Network
s ) ,  1 9 8 8年、6月、カリフ才ノレ
ニア州,サンジエゴ、Vol.l,ベーシl−525か
らI−532に掲載の論文において使用されるのと類似
する。ただし、このパターン ユニットの内部構造は大
きく異なる。第2図は、直ちに、パラレル実現を示唆す
る.第2図内の相互接続上に示される代数量はこれら要
素間をバスされる値であり,括弧にて囲まれる量は、倍
数ウエートであることに注意する。
This is from the book Sequential Analysis by A. Wald.
l^nalysis) 1, Dower Publications, 1
947 suggests using the sequential test procedure described for Page 34-243. In this method, symbols are read until the cumulative product of probability ratios exceeds some upper bound or falls below a lower bound - 1, at which point a determination of orientation is made. This potentially achieves a significant speed-up of the process when measured in average time per chip. However, if there is a bias regarding the previous distribution or lack of knowledge about the distribution, It is necessary to use a rapidly growing input function or to restrict this distribution to the product of any one observation. An exemplary configuration for implementing a forward neural network to perform the process described above in decision module l5 is shown in FIG. In the second V, the input from the normalization mosule l4 has separate elements of the bitmap (matrix) for the normalized symbols, which include from Xt to x. The symbol of 6 is given
Each bitmap element X, has as input an individual input unit (Inputυnip. I U) 20+
Sent from 20H. More formally, if the individual normalized symbols are arranged to be placed in a bitmap matrix as an example of 24x l6 elements,
N will be equal to 384 elements, so the decision module l5 includes 384 input units 20. Individual input units 20. The output from M pattern units 21. It has been distributed by 2l. Here, it is used, for example, to determine the probability of the first half or less of M pattern units 2l. and these values P (u, ) and p (d.) can be obtained, for example, from field experiments, or by using uniform probabilities throughout, i.e. by making all symbols identical in any orientation. This is the a priori probability that can be obtained by taking the probability of . These values P(Xl
In order to obtain u1) and p(xld.), it is necessary to make some assumptions about the strain process. As a simple example, Motel has (1) probability g (k),
The k bits of the bitmap are changed, and (2) we make a decision that these bits change according to independent and co-partitioning trials. Therefore, h (x, u,) is the vector X and U. represents the Hamming distance between The neural network diagram for this procedure is shown in Figure 2. The first active layer consisting of pattern units 2l has p(xlu.) according to the above formula.
and p(x1d.). The next layer consisting of summing units 221 and 222 has probabilities p(xlu) and p(
xld) and the sequential decision unit 23 provides the final decision for the chip. The parts of FIG. 2 and the terminology used are as follows: D. F. D.F.Spe
chL), IEEE
A- (The ProceediBs of
the IEEE International Co.
nferenceOn Neural Network
s), June 1988, San Diego, Caliphate, Vol. 1, similar to that used in papers published in Basis 1-525 to I-532. However, the internal structure of this pattern unit is very different. Figure 2 immediately suggests a parallel realization. Note that the algebraic quantities shown on the interconnects in FIG. 2 are the values bused between these elements, and the quantities enclosed in parentheses are multiple weights.

このパターン ユニットの内部構造は、シリアルでもパ
ラレルでもあり得る.このパラグラフの残りの部分にお
いては、“類似測定値(si■ilarity sea
sure) ”がハミング距離であるようなパターン 
ユニット2lを十分に実現する方法について説明する.
ハミング距離を計算するための専用のハートウエアかな
い場合は、これらを迅速に計算するために採用できる技
術かある。この方法では、ビットマップ間のハミング距
離は,ビットごとの“排他的OR”を取り,次に、結果
としての語内の1ビットの数をリターンする事前に計算
されたテーブル検索を使用することによっで、一度に一
語づつ計算される。これは、ハミング距離の計算を語当
たり数マシーン インストラクションに整理し、現在の
マイクロプロセッサにて秒当たり数ミリオン語のオーダ
ーの距離を計算することを可能にする。
The internal structure of this pattern unit can be either serial or parallel. In the remainder of this paragraph, we refer to “silarity sea
pattern such that ``sure'' is the Hamming distance.
We will explain how to fully realize unit 2l.
In the absence of dedicated hardware to calculate Hamming distances, there are techniques that can be employed to quickly calculate them. In this method, the Hamming distance between bitmaps is determined using a precomputed table lookup that takes a bitwise "exclusive OR" and then returns the number of 1 bits in the resulting word. is calculated one word at a time. This reduces Hamming distance calculations to a few machine instructions per word, allowing modern microprocessors to calculate distances on the order of millions of words per second.

第2図の費素20から22の動作か完了した後に、個々
のシンボルに対しで、出力確率値か得られる。これらか
、シーケンシャル゛H定ユニット23内の乗数を使用し
で、FF法にて結合される。この結果か、次に、シーケ
ンシャル判定ユニット23内の上限および下限域値と比
較され、そのチップに対する全体的な決定、或は不確定
か生成される。この手順は、“ストツビンク”規則に従
って進行する。つまり、チップ上のシンボルの処理が所
定の確かさが得られた時点において中出される。@後に
、このチップに対する結果か、比較器24内においで、
“設計データベース”内に格納された正しい方位と比較
され、そして,設定、例えば、“ストップ オンエラー
(stop on errors) ”或は“ストツフ
  才ンエラー ブラス インデシション(5top 
on errors plus indeciions
)に従っで、例えば、アラームを動作したりしなかった
りするように出力信号か生成される。
After the operations in elements 20 to 22 of FIG. 2 are completed, output probability values are obtained for each symbol. These are combined using the FF method using a multiplier in the sequential H constant unit 23. This result is then compared to the upper and lower thresholds in the sequential decision unit 23 to generate an overall decision or indeterminacy for that chip. This procedure proceeds according to the "Stottsbing" rule. In other words, the processing of the symbols on the chip is completed when a predetermined certainty is obtained. @Later, the result for this chip is stored in the comparator 24,
It is compared with the correct orientation stored in the “Design Database” and the settings, e.g.
on errors plus instructions
), an output signal is generated to, for example, activate or deactivate an alarm.

順フィート ニューラル網法の上の説明は、説明のため
のものであり、限定することを目的とするものではなく
、所定の決定を生或するために他の適当な方法を使用す
ることもてきる。例えば、T.コーネン( T. Ko
hnen  )によって,著書『自己編或および連想メ
モリー(Self−OrganizaLion and
 Associative Mexxory) J .
 7二版、スプリンガー ハーレッグ(Springe
r−Verlag ) .ベージ199−209に説明
される方法と類似する学習ベクトル睦子化(Learn
ing Vector Quantization, 
LVQ )を使用することも可能である,LVQ法が使
用されるときは、判定モシュール15内において得られ
る結果は,単に、“投票”であり、つまり“上“向きス
コアの数か観察の総数で割られるのみてあり、FF法に
おけるように明示的な確率値ではない。
The above description of forward foot neural network methods is for illustrative purposes only and is not intended to be limiting; other suitable methods may be used to produce a given decision. Ru. For example, T. Koenen (T. Ko
hnen) in his book ``Self-Organize and Associative Memory (Self-Organize Lion and
Associative Mexxory) J.
72nd edition, Springer Harleg
r-Verlag). A learning vector algorithm similar to the method described in Pages 199-209
ing Vector Quantization,
It is also possible to use a It is not an explicit probability value as in the FF method.

【図面の簡単な説明】[Brief explanation of the drawing]

r5l図は本発明に従う物体方位検出システムの好まし
い実施席様のブロック図てあり;そし゛(第2図は第1
図のシステムに使用される判定モシュールのための一例
としての構威のブロック図である。 〈主要部分の符号の説明〉 ビデオ イメージング デハイス 適応悶値モジュール フレーマー モジュール 正規化モジュール 判定モシュール 設定モジュール l O l 2 l 3 l 4 l 5 l1
Figure r5l is a block diagram of a preferred implementation of the object orientation detection system according to the present invention;
1 is a block diagram of an exemplary architecture for a decision module used in the illustrated system; FIG. <Explanation of symbols of main parts> Video imaging device adaptive agony value module framer module normalization module judgment model setting module l O l 2 l 3 l 4 l 5 l1

Claims (10)

【特許請求の範囲】[Claims] 1.物体上のフィーチャー或はテキストの方位を決定す
るための方法において、該方法が: (a)該物体上に位置する該フィーチャーの少なくとも
一つ、或は該テキストの少なくとも一つのシンボルの所
定のサイズにされたイメージを抽出するステップ; (b)ステップ(a)において抽出された該少なくとも
一つのフィーチャー或はシンボルが第二の所定のサイズ
にされたイメージ内の正規化されたフィーチャー或はシ
ンボルに既に対応しない場合に、ステップ(a)におい
て得られた該少なくとも一つのフィーチャー或はシンボ
ルの各を第二の所定のサイズにされたイメージ内におい
て正規化するステップ; (c)ステップ(a)或は(b)において得られた該少
なくとも一つのフィーチャー或はシンボルの個々に対す
る該所定のサイズにされたイメージを処理して、ベクト
ル間の類似測定値を決定し、これから該少なくとも一つ
のフィーチャー或はシンボルの各々が所定の“上”或は
“下”向きの方位を持つ確率を決定するステップ; (d)ステップ(c)において得られた該少なくとも一
つのフィーチャー或はシンボルの各々に対する確率から
該フィーチャー或はテキストが“上”向きであるか、“
下”向きであるか、或は“不確定”であるかを決定する
ステップ;及び(e)ステップ(d)において得られた
フィーチャー或はテキストの方位の指標から該物体の方
位か“上向きであるか”、“逆さであるか”或は“不確
定”であるかを決定するステップを含む方法。
1. A method for determining the orientation of a feature or text on an object, the method comprising: (a) a predetermined size of at least one symbol of the feature or of the text located on the object; (b) extracting the at least one feature or symbol extracted in step (a) into a normalized feature or symbol in a second predetermined sized image; (c) normalizing each of the at least one feature or symbol obtained in step (a) in a second predetermined sized image if they do not already correspond; (c) step (a); processes the predetermined sized image for each of the at least one feature or symbol obtained in (b) to determine a similarity measure between vectors, and from this the at least one feature or (d) determining the probability that each of the symbols has a predetermined "up" or "down"orientation; (d) determining the probability from the probability for each of the at least one feature or symbol obtained in step (c); Is the feature or text facing “up”?
(e) determining whether the orientation of the object is "upward" from the feature or text orientation indicator obtained in step (d); The method includes the step of determining whether the object is "inverted,""inverted," or "indeterminate."
2.ステップ(a)がさらに (a1)該フィーチャー或はテキストのビットマップの
個々の列に対する二進値を総和し、該列の総和に域値を
加え、ラインのフィーチャー或はテキストの位置を決定
するサブステップ;及び(a2)該フィーチャー或はテ
キストのビットマップの個々の行に対する二進値を総和
し、該行の総和に第二の域値を加え、ステップ(a1)
の結果との関連で、個々のフィーチャー或はテキストの
シンボルの位置を決定するサブステップを含むことを特
徴とする請求項1に記載の方法。
2. Step (a) further comprises: (a1) summing the binary values for the individual columns of the bitmap of the feature or text and adding a threshold value to the summation of the columns to determine the position of the feature or text on the line; and (a2) summing the binary values for each row of the bitmap of the feature or text and adding a second threshold value to the summation of the rows; and (a1)
A method according to claim 1, characterized in that it includes the substep of determining the position of individual features or symbols of text in relation to the results of the process.
3.ステップ(c)がさらに (c1)ステップ(a)或は(b)において得られた個
々の正規化され抽出されたフィーチャー或はテキストの
シンボルのビットマップから、ビット単位での“排他的
OR”およびテーブル検索動作を使用してランダムに選
択されたフィーチャー或はシンボルの基準セットからの
歪を含む入力ベクトルとフィーチャー或はシンボルの個
々の基準セットとの間のハミング距離を測定することに
より該入力ベクトルか特定の”上”或は“下”向きの方
位にある確率を決定するサブステップ;および (c2)ステップ(c1)に応答して、抽出されたシン
ボルの方位が“上”向き、“下”向き或は“不確定”で
ある確率を決定するサブステップを含むことを特徴とす
る請求項1ないし2に記載の方法。
3. Step (c) further comprises (c1) bitwise "exclusive OR" of the individual normalized extracted feature or text symbol bitmaps obtained in step (a) or (b). and a table lookup operation by measuring the Hamming distance between the input vector containing the distortion from a randomly selected reference set of features or symbols and each reference set of features or symbols. a sub-step of determining the probability that the vector is in a particular "up" or "down"orientation; and (c2) in response to step (c1), determining the probability that the extracted symbol is in an "up"orientation; 3. Method according to claim 1, characterized in that it comprises a sub-step of determining the probability of being "downward" or "uncertain".
4.ステップ(d)の遂行において、 ステップ(c)において処理されたシーケンシャルシン
ボルの個々に対して決定される確率に全ての他の前に処
理されたシンボルの確率の積を掛けるプロセスをフィー
チャー或はテキストの方位が“上”向きであるか、“下
”向きであるか或は“不確定”であるかを示すある域値
が達成されるまで継続するサブステップがさらに含まれ
ることを特徴とする請求項1ないし2に記載の方法。
4. In carrying out step (d), the process of multiplying the probability determined for each of the sequential symbols processed in step (c) by the product of the probabilities of all other previously processed symbols or text The method further includes a substep that continues until a certain threshold value indicating whether the orientation is "up", "down", or "uncertain" is achieved. The method according to claim 1 or 2.
5.ステップ(d)の遂行において、 (d1)テキストの個々のシンボルの方位が“上”向き
であるか、“下”向きであるか或は“不確定”であるか
を決定するステップ;および(d2)ステップ(d1)
において行なわれる決定の総意からテキストの方位か“
上”向きであるか、“下”向きであるか、或は“確定”
であるかを決定するサブステップがさらに含まれること
を特徴とする請求項1ないし2に記載の方法。
5. In carrying out step (d): (d1) determining whether the orientation of each symbol of the text is "up", "down", or "indeterminate"; and ( d2) Step (d1)
Is the direction of the text based on the consensus of decisions made in “?
Is it facing “up”, facing “down”, or “determined”
3. A method according to claim 1, further comprising the substep of determining whether the .
6.物体上のフィーチャー或はテキストの方位を決定す
るための装置において、 該装置が: イメージからフィーチャー或はテキストのシンボルを抽
出するため、及び個々の抽出されたシンボルに対する標
準化されたサイズのビットマップを表わす出力信号を生
成するための手段;及び判定装置を含み、該判定装置が 該抽出及び生成手段からの該出力信号に応答して、個々
の抽出されたフィーチャー或はシンボルに対する正規化
されたサイズのビットマップのベクトル間の類似性値を
決定し、又、個々の抽出されたフィーチャー或はシンボ
ルに対して、それらの方位が“上”向き、“下”向き、
或は“不確定”である確率を示す出力信号を生成するた
めの第一の手段、及び 該第一の手段の出力信号に応答して、全体としてのフィ
ーチャー或はテキストの方位が“上”向き、“下”向き
或は“不確定”である確率を示す出力信号を生成するた
めの第二の手段を含むことを特徴とする装置。
6. An apparatus for determining the orientation of features or text on an object, the apparatus comprising: extracting symbols of features or text from an image and generating a bitmap of standardized size for each extracted symbol; means for generating an output signal representing the normalized size for each extracted feature or symbol; and a determining device, the determining device responsive to the output signal from the extracting and generating means. The similarity value between the bitmap vectors is determined, and for each extracted feature or symbol, whether their orientation is "up", "down",
or, in response to the output signal of the first means, the orientation of the feature or text as a whole is "up"; Apparatus characterized in that it comprises second means for producing an output signal indicative of the probability of orientation, "down" orientation or "indeterminate".
7.該決定装置がさらに 該第二の手段の該出力信号から物体の方位を決定するた
めの第三の手段を含むことを特徴とする請求項6に記載
の装置。
7. 7. Apparatus according to claim 6, characterized in that the determining apparatus further comprises third means for determining the orientation of an object from the output signal of the second means.
8.該抽出及び生成手段が フィーチャー或はテキストのイメージのビットマップの
個々の列に対する二進値の総和を生成し、該列の総和に
域値を加えることによって該フィーチャー或はテキスト
内のラインの位置を示す出力信号を生成するための第一
の手段;及びフィーチャー或はテキストのイメージのビ
ットマップの個々の行の総和を生成し、該行の総和に第
二の域値を加えることによって、該第一の手段からの出
力信号及び該行の総和の両方から、個々のフィーチャー
或はテキスト内のシンボルの位置を決定するための第二
の手段を含むことを特徴とする請求項6ないし7に記載
の装置。
8. The extraction and generation means generates a sum of binary values for each column of the bitmap of the image of the feature or text, and determines the position of the line within the feature or text by adding a threshold value to the sum of the columns. a first means for generating an output signal indicative of the feature or text; 8. The method according to claim 6, further comprising second means for determining the position of an individual feature or symbol within the text from both the output signal from the first means and the summation of the rows. The device described.
9.該判定装置の第二の手段がさらに 該判定装置の該第一の手段からの出力信号に応答して、
個々のシーケンシャル信号に対して決定された確率に他
の前に処理された全てのフィーチャー或はテキストのシ
ンボルの確率の積を該フィーチャー或はテキストの方位
が“上”向き、“下”向き、或は“不確定”であること
を示すある域値が達成されるまで掛け、その時点で、そ
の方位の決定を表わす出力信号を生成するための手段を
含むことを特徴とする請求項6ないし7に記載の装置。
9. The second means of the determining device is further responsive to the output signal from the first means of the determining device;
The probability determined for each sequential signal is multiplied by the probabilities of all other previously processed features or text symbols, depending on whether the orientation of the feature or text is "up" or "down"; or multiplying until a certain threshold value indicating "uncertainty" is achieved, at which point it includes means for producing an output signal representative of the determination of the orientation. 7. The device according to 7.
10.該判定装置の第二の手段がさらに 個々のフィーチャー或はテキトスのシンボルの方位が“
上”向きであるか、“下”向きであるか、或は“不確定
”であるかを示す出力信号を生成するための手段、及び 該フィーチャー或はテキストの方位が“正常”であるか
、“逆さ”であるか或は“不確定”であるかを決定する
ために該第二の手段の該生成手段からの出力信号の総意
を形成するための手段を含むことを特徴とする請求項6
ないし7に記載の装置。
10. The second means of the determining device further determines whether the orientation of the individual features or symbols of the text is “
means for generating an output signal indicating whether the feature or text is oriented "up", oriented "down", or "indeterminate", and whether the orientation of the feature or text is "normal"; , "inverted" or "indeterminate" means for consolidating the output signal from the generating means of the second means to determine whether it is "inverted" or "indeterminate". Section 6
8. The device according to 7.
JP2138656A 1989-05-31 1990-05-30 Text orientation determination method Expired - Fee Related JPH0726836B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US359,296 1989-05-31
US07/359,296 US5060276A (en) 1989-05-31 1989-05-31 Technique for object orientation detection using a feed-forward neural network

Publications (2)

Publication Number Publication Date
JPH0321811A true JPH0321811A (en) 1991-01-30
JPH0726836B2 JPH0726836B2 (en) 1995-03-29

Family

ID=23413214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2138656A Expired - Fee Related JPH0726836B2 (en) 1989-05-31 1990-05-30 Text orientation determination method

Country Status (8)

Country Link
US (1) US5060276A (en)
EP (1) EP0400881B1 (en)
JP (1) JPH0726836B2 (en)
KR (1) KR930003403B1 (en)
CA (1) CA2013378C (en)
DE (1) DE69029427T2 (en)
ES (1) ES2095237T3 (en)
HK (1) HK45997A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5810163A (en) * 1996-04-15 1998-09-22 Nakabayashi Co., Ltd. Holder structure for film cartridge and filing-box type album

Families Citing this family (203)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067379A (en) * 1988-12-09 2000-05-23 Cognex Corporation Method and apparatus for locating patterns in an optical image
FR2662526B1 (en) * 1990-05-22 1994-12-09 Thomson Csf METHOD FOR FAST RECOGNITION OF OBJECTS LIKELY TO BE PART OF A COLLECTION COMPRISING A LARGE NUMBER OF OBJECTS WITH DIFFERENT CHARACTERISTICS.
JPH04195485A (en) * 1990-11-28 1992-07-15 Hitachi Ltd Image information input device
US5263107A (en) * 1991-01-31 1993-11-16 Sharp Kabushiki Kaisha Receptive field neural network with shift-invariant pattern recognition
DE69226103T2 (en) * 1991-02-22 1998-11-19 Canon Kk Image processing system
EP0506483B1 (en) * 1991-03-29 1999-02-17 Canon Kabushiki Kaisha Information recording apparatus and image recording method
US5239593A (en) * 1991-04-03 1993-08-24 Nynex Science & Technology, Inc. Optical pattern recognition using detector and locator neural networks
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US5319722A (en) * 1992-10-01 1994-06-07 Sony Electronics, Inc. Neural network for character recognition of rotated characters
US5742702A (en) * 1992-10-01 1998-04-21 Sony Corporation Neural network for character recognition and verification
US5594814A (en) * 1992-10-19 1997-01-14 Fast; Bruce B. OCR image preprocessing method for image enhancement of scanned documents
JPH06203005A (en) * 1992-10-27 1994-07-22 Eastman Kodak Co High speed partitioned neural network and building-up method thereof
DE69310187T2 (en) * 1992-12-23 1997-11-27 Taligent Inc OBJECT-ORIENTED FRAMEWORK SYSTEM
US6259446B1 (en) 1992-12-23 2001-07-10 Object Technology Licensing Corporation Menu state system
US5434965A (en) * 1992-12-23 1995-07-18 Taligent, Inc. Balloon help system
US5390325A (en) * 1992-12-23 1995-02-14 Taligent, Inc. Automated testing system
US5550563A (en) * 1992-12-23 1996-08-27 Taligent, Inc. Interaction framework system
EP0664901B1 (en) * 1992-12-23 1996-09-18 Otlc Atomic command system
US5551055A (en) * 1992-12-23 1996-08-27 Taligent, Inc. System for providing locale dependent user interface for presenting control graphic which has different contents or same contents displayed in a predetermined order
US5315703A (en) * 1992-12-23 1994-05-24 Taligent, Inc. Object-oriented notification framework system
US5530864A (en) * 1992-12-23 1996-06-25 Taligent Command object system for an object-oriented software platform
US5859923A (en) * 1992-12-29 1999-01-12 Cognex Corporation Mark quality inspection apparatus and method
EP0664036B1 (en) * 1993-01-22 1997-06-11 Taligent, Inc. Flexible network system
US5428718A (en) * 1993-01-22 1995-06-27 Taligent, Inc. Tessellation system
WO1994017481A1 (en) * 1993-01-22 1994-08-04 Taligent, Inc. Business card system
AU6081994A (en) * 1993-01-22 1994-08-15 Taligent, Inc. Flexible system
US5394523A (en) * 1993-01-22 1995-02-28 Taligent, Inc. Polymorphic graphic device
US5519862A (en) * 1993-02-26 1996-05-21 Taligent, Inc. Concurrent processing apparatus with incremental command objects
EP0667972B1 (en) * 1993-02-26 1996-11-06 Taligent, Inc. Collaborative work system
US5369766A (en) * 1993-03-25 1994-11-29 Taligent, Inc. Object-oriented loader system with support for different load formats
US5485373A (en) * 1993-03-25 1996-01-16 Taligent, Inc. Language-sensitive text searching system with modified Boyer-Moore process
EP0672278B1 (en) * 1993-03-25 1996-05-22 Taligent, Inc. Multi-level interrupt system
US5439160A (en) * 1993-03-31 1995-08-08 Siemens Corporate Research, Inc. Method and apparatus for obtaining reflow oven settings for soldering a PCB
DE69400276T2 (en) * 1993-04-05 1997-02-13 Taligent Inc CHARACTER SET FOR TEXT INPUT
US5459865A (en) * 1993-04-05 1995-10-17 Taligent Inc. Runtime loader
WO1994023379A1 (en) * 1993-04-05 1994-10-13 Taligent, Inc. Font selection system
US5432948A (en) * 1993-04-26 1995-07-11 Taligent, Inc. Object-oriented rule-based text input transliteration system
WO1994025921A1 (en) * 1993-04-26 1994-11-10 Taligent, Inc. Text transliteration system
CN1113395A (en) * 1993-06-03 1995-12-13 塔里根特公司 Place object display system
CA2141931A1 (en) * 1993-06-03 1994-12-22 Robert David Dickinson Place object system
US5544302A (en) * 1993-06-03 1996-08-06 Taligent, Inc. Object-oriented framework for creating and using container objects with built-in properties
US5524190A (en) * 1993-06-04 1996-06-04 Taligent, Inc. Command object logging system for restoring documents
US5471568A (en) * 1993-06-30 1995-11-28 Taligent, Inc. Object-oriented apparatus and method for scan line conversion of graphic edges
US5487145A (en) * 1993-07-09 1996-01-23 Taligent, Inc. Method and apparatus for compositing display items which minimizes locked drawing areas
US5519867A (en) * 1993-07-19 1996-05-21 Taligent, Inc. Object-oriented multitasking system
US5455951A (en) * 1993-07-19 1995-10-03 Taligent, Inc. Method and apparatus for running an object-oriented program on a host computer with a procedural operating system
US5473777A (en) * 1993-07-19 1995-12-05 Moeller; Christopher P. Wrapper for enabling an object otented application to maintain virtual memory using procedural function calls
US5404529A (en) * 1993-07-19 1995-04-04 Taligent, Inc. Object-oriented interprocess communication system interface for a procedural operating system
US5379432A (en) * 1993-07-19 1995-01-03 Taligent, Inc. Object-oriented interface for a procedural operating system
US6684261B1 (en) 1993-07-19 2004-01-27 Object Technology Licensing Corporation Object-oriented operating system
DE69400870T2 (en) * 1993-07-19 1997-05-15 Taligent Inc DYNAMIC LINKING SYSTEM
JPH0737103A (en) * 1993-07-23 1995-02-07 Olympus Optical Co Ltd Inclination angle detection device
AU6081494A (en) * 1993-07-27 1995-02-28 Taligent, Inc. Object-oriented rendering system
FR2708365B1 (en) * 1993-07-27 1995-09-01 Thomson Csf Method and device for correcting the positioning of an electronic component.
US5471675A (en) * 1993-07-27 1995-11-28 Taligent, Inc. Object oriented video framework system
US5379430A (en) * 1993-08-04 1995-01-03 Taligent, Inc. Object-oriented system locator system
US5479589A (en) * 1993-08-04 1995-12-26 Taligent, Inc. Object-oriented system for selecting a graphic image on a display
US5396626A (en) * 1993-08-04 1995-03-07 Taligent, Inc. Object-oriented locator system
US5621434A (en) * 1993-08-11 1997-04-15 Object Technology Licensing Corp. Cursor manipulation system and method
US5586236A (en) * 1993-08-11 1996-12-17 Object Technology Licensing Corp. Universal color look up table and method of generation
US5566278A (en) * 1993-08-24 1996-10-15 Taligent, Inc. Object oriented printing system
US5481666A (en) * 1993-08-25 1996-01-02 Taligent, Inc. Object-oriented navigation system
US5428744A (en) * 1993-08-30 1995-06-27 Taligent, Inc. Object-oriented system for building a graphic image on a display
US5500929A (en) * 1993-08-30 1996-03-19 Taligent, Inc. System for browsing a network resource book with tabs attached to pages
US5388264A (en) * 1993-09-13 1995-02-07 Taligent, Inc. Object oriented framework system for routing, editing, and synchronizing MIDI multimedia information using graphically represented connection object
AU5989194A (en) * 1993-09-13 1995-04-03 Taligent, Inc. Object-oriented audio record/playback system
CA2153968A1 (en) * 1993-09-13 1995-03-23 Steven H. Milne Multimedia data routing system
US5511002A (en) * 1993-09-13 1996-04-23 Taligent, Inc. Multimedia player component object system
US5390138A (en) * 1993-09-13 1995-02-14 Taligent, Inc. Object-oriented audio system
EP0714531B1 (en) 1993-09-13 1997-06-18 Taligent, Inc. Object-oriented video system
US5583977A (en) * 1993-10-21 1996-12-10 Taligent, Inc. Object-oriented curve manipulation system
US5522025A (en) * 1993-10-25 1996-05-28 Taligent, Inc. Object-oriented window area display system
US5455854A (en) * 1993-10-26 1995-10-03 Taligent, Inc. Object-oriented telephony system
AU6019194A (en) * 1993-10-29 1995-05-22 Taligent, Inc. Graphic editor framework system
EP0727076B1 (en) * 1993-11-02 1997-10-22 Taligent, Inc. Object-oriented graphic system and method
US6040838A (en) * 1993-11-05 2000-03-21 Obejct Technology Licensing Corporation Graphic state processing
US5428722A (en) * 1993-11-05 1995-06-27 Taligent, Inc. Object-oriented painter maker
US5537526A (en) * 1993-11-12 1996-07-16 Taugent, Inc. Method and apparatus for processing a display document utilizing a system level document framework
WO1995015524A1 (en) * 1993-12-02 1995-06-08 Taligent, Inc. Method and apparatus for displaying hardware dependent graphics in an object-oriented operating system
US5594921A (en) * 1993-12-17 1997-01-14 Object Technology Licensing Corp. Authentication of users with dynamically configurable protocol stack
US5530799A (en) * 1993-12-17 1996-06-25 Taligent Inc. Rendering cache in an object oriented system
US5499343A (en) * 1993-12-17 1996-03-12 Taligent, Inc. Object-oriented networking system with dynamically configurable communication links
US5548726A (en) * 1993-12-17 1996-08-20 Taligeni, Inc. System for activating new service in client server network by reconfiguring the multilayer network protocol stack dynamically within the server node
US5515508A (en) * 1993-12-17 1996-05-07 Taligent, Inc. Client server system and method of operation including a dynamically configurable protocol stack
WO1995017064A1 (en) 1993-12-17 1995-06-22 Taligent, Inc. Object-oriented distributed communications directory service
US5548723A (en) * 1993-12-17 1996-08-20 Taligent, Inc. Object-oriented network protocol configuration system utilizing a dynamically configurable protocol stack
US5491800A (en) * 1993-12-20 1996-02-13 Taligent, Inc. Object-oriented remote procedure call networking system
US5566346A (en) * 1993-12-21 1996-10-15 Taligent, Inc. System for constructing hardware device interface software systems independent of operating systems including capability of installing and removing interrupt handlers
AU6814594A (en) * 1993-12-21 1995-07-10 Taligent, Inc. Automatic hardware configuration
US5548779A (en) 1993-12-21 1996-08-20 Taligent System for providing system services for a device to a client using stack definition and stack description of a stack having top, intermediate, and bottom service objects
US5371884A (en) * 1993-12-21 1994-12-06 Taligent, Inc. Processor fault recovery system
US5546595A (en) * 1993-12-21 1996-08-13 Taligent, Inc. Object-oriented system using objects representing hardware devices, physical connectors and connections between the physical connectors for configuring a computer
US5574915A (en) * 1993-12-21 1996-11-12 Taligent Object-oriented booting framework
US5680624A (en) * 1993-12-21 1997-10-21 Object Licensing Corporation Object oriented interrupt system
WO1995017729A1 (en) * 1993-12-22 1995-06-29 Taligent, Inc. Input methods framework
US5615326A (en) * 1993-12-30 1997-03-25 Taligent, Inc. Object-oriented viewing framework having view grouping
US5524199A (en) * 1993-12-30 1996-06-04 Taligent Object-oriented view system with background processing of update request
AU7872494A (en) * 1993-12-30 1995-07-17 Taligent, Inc. Object-oriented view coordinate space system
US5555368A (en) * 1993-12-30 1996-09-10 Taligent Object-oriented multi-tasking view framework
AU7725794A (en) * 1993-12-30 1995-07-17 Taligent, Inc. Object-oriented view hierarchy framework
US5524200A (en) * 1993-12-30 1996-06-04 Taligent, Inc. Object-oriented non-rectilinear viewing framework
US5544301A (en) * 1993-12-30 1996-08-06 Taligent, Inc. Object-oriented view layout system
US5465362A (en) * 1993-12-30 1995-11-07 Taligent, Inc. Object-oriented view-system for displaying information in a windowing environment
US5832219A (en) * 1994-02-08 1998-11-03 Object Technology Licensing Corp. Distributed object networking service
EP0742918B1 (en) * 1994-03-21 1997-10-15 Object Technology Licensing Corp. Apparatus and method for document processing
US5680563A (en) * 1994-07-25 1997-10-21 Object Technology Licensing Corporation Object-oriented operating system enhancement for filtering items in a window
US5912666A (en) * 1994-08-23 1999-06-15 Object Technology Licensing Corp. Object-oriented global cursor tool
US5504892A (en) * 1994-09-08 1996-04-02 Taligent, Inc. Extensible object-oriented file system
US5519818A (en) * 1994-09-19 1996-05-21 Taligent, Inc. Object-oriented graphic picking system
JPH10507853A (en) * 1994-10-25 1998-07-28 オブジェクト テクノロジー ライセンシング コーポレイション Object oriented system for servicing windows
US5630131A (en) * 1994-11-14 1997-05-13 Object Technology Licensing Corp. Method and apparatus for importing and exporting archive files for a graphical user interface
US5652884A (en) * 1994-11-14 1997-07-29 Object Technology Licensing Corp. Method and apparatus for dynamic update of an existing object in an object editor
US5613122A (en) * 1994-11-14 1997-03-18 Object Technology Licensing Corp. Object-oriented operating system
US5659735A (en) * 1994-12-09 1997-08-19 Object Technology Licensing Corp. Object-oriented system for program version and history database management system for various program components
US5752245A (en) * 1994-12-09 1998-05-12 Object Technology Licensing Corporation Object-oriented system for configuration history management with a project workspace and project history database for draft identification
US5553282A (en) * 1994-12-09 1996-09-03 Taligent, Inc. Software project history database and method of operation
US5642106A (en) * 1994-12-27 1997-06-24 Siemens Corporate Research, Inc. Visual incremental turn detector
JP3727971B2 (en) * 1995-02-01 2005-12-21 キヤノン株式会社 Document processing apparatus and document processing method
US5713045A (en) * 1995-06-29 1998-01-27 Object Technology Licensing Corporation System for processing user events with input device entity associated with event producer which further links communication from event consumer to the event producer
US6026176A (en) 1995-07-25 2000-02-15 Cognex Corporation Machine vision methods and articles of manufacture for ball grid array inspection
US5778230A (en) * 1995-11-13 1998-07-07 Object Technology Licensing Corp. Goal directed object-oriented debugging system
US5812850A (en) * 1995-11-13 1998-09-22 Object Technology Licensing Corp. Object-oriented symbolic debugger using a compiler driven database and state modeling to control program execution
US5815653A (en) * 1995-11-13 1998-09-29 You; Lawrence L. Debugging system with portable debug environment-independent client and non-portable platform-specific server
US5787245A (en) * 1995-11-13 1998-07-28 Object Technology Licensing Corporation Portable debugging service utilizing a client debugger object and a server debugger object
US6158045A (en) * 1995-11-13 2000-12-05 Object Technology Licensing Corporation Portable debugging services utilizing a client debugger object and a server debugger object with flexible addressing support
US5956479A (en) * 1995-11-13 1999-09-21 Object Technology Licensing Corporation Demand based generation of symbolic information
US5790132A (en) * 1995-12-07 1998-08-04 Object Technology Licensing Corp. Image rendering system with extensible mechanism for providing visual user feedback when an image graphic is selected
US5822580A (en) * 1996-01-19 1998-10-13 Object Technology Licensing Corp. Object oriented programming based global registry system, method, and article of manufacture
US5872870A (en) * 1996-02-16 1999-02-16 Cognex Corporation Machine vision methods for identifying extrema of objects in rotated reference frames
US5909504A (en) * 1996-03-15 1999-06-01 Cognex Corporation Method of testing a machine vision inspection system
US6298149B1 (en) 1996-03-21 2001-10-02 Cognex Corporation Semiconductor device image inspection with contrast enhancement
US6259827B1 (en) 1996-03-21 2001-07-10 Cognex Corporation Machine vision methods for enhancing the contrast between an object and its background using multiple on-axis images
US5978502A (en) * 1996-04-01 1999-11-02 Cognex Corporation Machine vision methods for determining characteristics of three-dimensional objects
US5877768A (en) * 1996-06-19 1999-03-02 Object Technology Licensing Corp. Method and system using a sorting table to order 2D shapes and 2D projections of 3D shapes for rendering a composite drawing
US6137893A (en) * 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
US5960125A (en) 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
DE19652925C2 (en) * 1996-12-18 1998-11-05 Hans Dr Geiger Method and device for the location and size-independent detection of features from an image
US5953130A (en) * 1997-01-06 1999-09-14 Cognex Corporation Machine vision methods and apparatus for machine vision illumination of an object
US6075881A (en) * 1997-03-18 2000-06-13 Cognex Corporation Machine vision methods for identifying collinear sets of points from an image
US5974169A (en) * 1997-03-20 1999-10-26 Cognex Corporation Machine vision methods for determining characteristics of an object using boundary points and bounding regions
US6141033A (en) * 1997-05-15 2000-10-31 Cognex Corporation Bandwidth reduction of multichannel images for machine vision
US6608647B1 (en) 1997-06-24 2003-08-19 Cognex Corporation Methods and apparatus for charge coupled device image acquisition with independent integration and readout
US5978080A (en) * 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine an orientation, pixel width and pixel height of a field of view
US6025854A (en) * 1997-12-31 2000-02-15 Cognex Corporation Method and apparatus for high speed image acquisition
US6282328B1 (en) 1998-01-28 2001-08-28 Cognex Corporation Machine vision systems and methods for morphological transformation of an image with non-uniform offsets
US6236769B1 (en) 1998-01-28 2001-05-22 Cognex Corporation Machine vision systems and methods for morphological transformation of an image with zero or other uniform offsets
US6381375B1 (en) 1998-02-20 2002-04-30 Cognex Corporation Methods and apparatus for generating a projection of an image
US6215915B1 (en) 1998-02-20 2001-04-10 Cognex Corporation Image processing methods and apparatus for separable, general affine transformation of an image
US6252986B1 (en) 1998-04-03 2001-06-26 Cognex Corporation Locating an image of an object having a concentric profile
US6411734B1 (en) 1998-04-03 2002-06-25 Cognex Corporation Object image search using validated sub-model poses
US6324299B1 (en) * 1998-04-03 2001-11-27 Cognex Corporation Object image search using sub-models
US6424734B1 (en) 1998-04-03 2002-07-23 Cognex Corporation Fiducial mark search using sub-models
US6516092B1 (en) 1998-05-29 2003-02-04 Cognex Corporation Robust sub-model shape-finder
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US6963338B1 (en) 1998-07-31 2005-11-08 Cognex Corporation Method for refining geometric description models using images
US6459820B1 (en) 1998-08-25 2002-10-01 Cognex Corporation Gauging using sub-model poses
US6381366B1 (en) 1998-12-18 2002-04-30 Cognex Corporation Machine vision methods and system for boundary point-based comparison of patterns and images
US6687402B1 (en) 1998-12-18 2004-02-03 Cognex Corporation Machine vision methods and systems for boundary feature comparison of patterns and images
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6614926B1 (en) 1999-06-29 2003-09-02 Cognex Corporation Methods and apparatuses for generating from an image a model of an object
US6813377B1 (en) 1999-08-06 2004-11-02 Cognex Corporation Methods and apparatuses for generating a model of an object from an image of the object
US6898333B1 (en) 1999-08-06 2005-05-24 Cognex Corporation Methods and apparatus for determining the orientation of an object in an image
US6684402B1 (en) 1999-12-01 2004-01-27 Cognex Technology And Investment Corporation Control methods and apparatus for coupling multiple image acquisition devices to a digital data processor
GB2404733B (en) * 2000-03-14 2005-03-23 Intel Corp Estimating text color and segmentation of images
US6748104B1 (en) 2000-03-24 2004-06-08 Cognex Corporation Methods and apparatus for machine vision inspection using single and multiple templates or patterns
US6993205B1 (en) 2000-04-12 2006-01-31 International Business Machines Corporation Automatic method of detection of incorrectly oriented text blocks using results from character recognition
US6950548B1 (en) 2000-05-17 2005-09-27 Cognex Corporation Creating geometric model descriptions for use in machine vision inspection systems
US7006669B1 (en) 2000-12-31 2006-02-28 Cognex Corporation Machine vision method and apparatus for thresholding images of non-uniform materials
US6804416B1 (en) 2001-03-16 2004-10-12 Cognex Corporation Method and system for aligning geometric object models with images
US6954551B2 (en) * 2001-12-04 2005-10-11 The Boeing Company Method for determining attitude of an object
US7020338B1 (en) * 2002-04-08 2006-03-28 The United States Of America As Represented By The National Security Agency Method of identifying script of line of text
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US7190834B2 (en) 2003-07-22 2007-03-13 Cognex Technology And Investment Corporation Methods for finding and characterizing a deformed pattern in an image
FR2861524A1 (en) * 2003-10-23 2005-04-29 Thomson Licensing Sa Method for detecting orientation of image taken by digital camera, involves detecting lines in image, calculating attributes that characterize lines, for each detected line, and detecting orientation of image according to attributes
US7349567B2 (en) 2004-03-05 2008-03-25 Electro Scientific Industries, Inc. Method and apparatus for determining angular pose of an object
JP4420447B2 (en) * 2004-06-14 2010-02-24 キヤノン株式会社 Color processing apparatus and color processing method
US7639861B2 (en) 2005-09-14 2009-12-29 Cognex Technology And Investment Corporation Method and apparatus for backlighting a wafer during alignment
US8111904B2 (en) 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
US8162584B2 (en) 2006-08-23 2012-04-24 Cognex Corporation Method and apparatus for semiconductor wafer alignment
US8144989B2 (en) * 2007-06-21 2012-03-27 Sharp Laboratories Of America, Inc. Methods and systems for identifying text orientation in a digital image
US8208725B2 (en) * 2007-06-21 2012-06-26 Sharp Laboratories Of America, Inc. Methods and systems for identifying text orientation in a digital image
US8340430B2 (en) * 2007-07-10 2012-12-25 Sharp Laboratories Of America, Inc. Methods and systems for identifying digital image characteristics
US8023770B2 (en) 2008-05-23 2011-09-20 Sharp Laboratories Of America, Inc. Methods and systems for identifying the orientation of a digital image
US8023741B2 (en) * 2008-05-23 2011-09-20 Sharp Laboratories Of America, Inc. Methods and systems for detecting numerals in a digital image
US8437576B2 (en) * 2008-06-23 2013-05-07 Samsung Electronics Co., Ltd. Method of correcting orientation of an image in automatic printing, and an image forming method and image forming apparatus thereof
US8160365B2 (en) * 2008-06-30 2012-04-17 Sharp Laboratories Of America, Inc. Methods and systems for identifying digital image characteristics
US8218904B2 (en) * 2008-08-27 2012-07-10 Lockheed Martin Corporation Method and system for circular to horizontal transposition of an image
US8620080B2 (en) * 2008-09-26 2013-12-31 Sharp Laboratories Of America, Inc. Methods and systems for locating text in a digital image
US20110185353A1 (en) * 2010-01-27 2011-07-28 Jack Matthew Mitigating Problems Arising From Incompatible Software
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
US9076058B2 (en) 2013-01-29 2015-07-07 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for determining orientation in a document image
US9679224B2 (en) 2013-06-28 2017-06-13 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models
US9875429B2 (en) * 2015-10-06 2018-01-23 Adobe Systems Incorporated Font attributes for font recognition and similarity
US10074042B2 (en) 2015-10-06 2018-09-11 Adobe Systems Incorporated Font recognition using text localization
US10007868B2 (en) 2016-09-19 2018-06-26 Adobe Systems Incorporated Font replacement based on visual similarity
CN107179495B (en) * 2017-06-06 2023-10-20 上海传英信息技术有限公司 Circuit board welding detection method and device
US10616443B1 (en) * 2019-02-11 2020-04-07 Open Text Sa Ulc On-device artificial intelligence systems and methods for document auto-rotation
US10950017B2 (en) 2019-07-08 2021-03-16 Adobe Inc. Glyph weight modification
US11295181B2 (en) 2019-10-17 2022-04-05 Adobe Inc. Preserving document design using font synthesis
CN111402284B (en) * 2020-03-17 2023-07-25 中国人民解放军国防科学技术大学 Image threshold value determination method and device based on three-dimensional connectivity
CN113845064B (en) * 2021-08-05 2023-05-09 乐仓信息科技有限公司 Positioning method and system for material bearing device with round support legs
WO2023148850A1 (en) * 2022-02-02 2023-08-10 Nec Corporation Training apparatus, angle estimation apparatus, training method, and angle estimation method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55119782A (en) * 1979-03-09 1980-09-13 Daihen Corp Pattern automatic inspection method
JPS5626209A (en) * 1979-08-09 1981-03-13 Fuji Electric Co Ltd Inclination detector
JPS6177707A (en) * 1984-09-25 1986-04-21 Mitsubishi Electric Corp Direction judging device of semiconductor integrated circuit device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3801775A (en) * 1972-08-07 1974-04-02 Scanner Method and apparatus for identifying objects
US3847346A (en) * 1972-08-30 1974-11-12 Scanner Data field recognition and reading method and system
US4028728A (en) * 1976-04-02 1977-06-07 Western Electric Company, Inc. Method of and video system for identifying different light-reflective surface areas on articles
DE3204021A1 (en) * 1982-02-05 1983-08-18 Gebhardt Fördertechnik GmbH, 6920 Sinsheim DISTRIBUTION SYSTEM FOR MOVING PARTS
US4500202A (en) * 1982-05-24 1985-02-19 Itek Corporation Printed circuit board defect detection of detecting maximum line width violations
JPS5924386A (en) * 1982-08-02 1984-02-08 Hitachi Ltd Input device of optical pattern
US4578810A (en) * 1983-08-08 1986-03-25 Itek Corporation System for printed circuit board defect detection
JPS6054565A (en) * 1983-09-06 1985-03-29 Canon Inc Ducument processor
JPH0810132B2 (en) * 1986-06-04 1996-01-31 富士電機株式会社 Target pattern rotation angle detection method
JP2667435B2 (en) * 1987-05-01 1997-10-27 株式会社リコー Region extraction method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55119782A (en) * 1979-03-09 1980-09-13 Daihen Corp Pattern automatic inspection method
JPS5626209A (en) * 1979-08-09 1981-03-13 Fuji Electric Co Ltd Inclination detector
JPS6177707A (en) * 1984-09-25 1986-04-21 Mitsubishi Electric Corp Direction judging device of semiconductor integrated circuit device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5810163A (en) * 1996-04-15 1998-09-22 Nakabayashi Co., Ltd. Holder structure for film cartridge and filing-box type album

Also Published As

Publication number Publication date
DE69029427T2 (en) 1997-04-03
EP0400881B1 (en) 1996-12-18
KR930003403B1 (en) 1993-04-26
CA2013378A1 (en) 1990-11-30
JPH0726836B2 (en) 1995-03-29
EP0400881A3 (en) 1992-12-30
EP0400881A2 (en) 1990-12-05
DE69029427D1 (en) 1997-01-30
CA2013378C (en) 1993-10-12
US5060276A (en) 1991-10-22
ES2095237T3 (en) 1997-02-16
HK45997A (en) 1997-04-18
KR900018851A (en) 1990-12-22

Similar Documents

Publication Publication Date Title
JPH0321811A (en) Method of determining text azimuth
CN101424645B (en) Soldered ball surface defect detection device and method based on machine vision
CN102003945B (en) Virtual optical extensometer and measurement method thereof
US6665424B1 (en) Automatic inspection of print quality using an elastic model
CN114266764A (en) Character integrity detection method and device for printed label
CN113780484B (en) Industrial product defect detection method and device
CN116309427A (en) PCB surface defect detection method based on improved YOLOv5 algorithm
CN108664970A (en) A kind of fast target detection method, electronic equipment, storage medium and system
CN111311545A (en) Container detection method, device and computer readable storage medium
JPS6221011A (en) Measuring apparatus by light cutting method
CN115937555A (en) Industrial defect detection algorithm based on standardized flow model
CN202204479U (en) Virtual optical extensometer
JP3301031B2 (en) Automatic object recognition method and automatic recognition device
CN111275682A (en) Container detection method, device and computer readable storage medium
CN116485766A (en) Grain imperfect grain detection and counting method based on improved YOLOX
JP3279099B2 (en) Mark recognition device and mark recognition method
CN114332084A (en) PCB surface defect detection method based on deep learning
CN113780284A (en) Logo detection method based on target detection and metric learning
CN108491852B (en) Blind pixel detection method for area array infrared focal plane
CN107123105A (en) Images match defect inspection method based on FAST algorithms
Sher et al. Pyramid cluster detection and delineation by consensus
Yang et al. Fire Detection of Satellite Remote Sensing Images Based on VGG Ensemble Classifier
CN109817538A (en) SRAM failure on-line testing method
CN115100393A (en) Deep learning-based PCB welding defect detection method
CN117333762B (en) Image reproduction identification method based on multi-feature fusion

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees