JPH07287753A - Article discrimination system - Google Patents

Article discrimination system

Info

Publication number
JPH07287753A
JPH07287753A JP6104877A JP10487794A JPH07287753A JP H07287753 A JPH07287753 A JP H07287753A JP 6104877 A JP6104877 A JP 6104877A JP 10487794 A JP10487794 A JP 10487794A JP H07287753 A JPH07287753 A JP H07287753A
Authority
JP
Japan
Prior art keywords
article
image
vector
identification
gray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6104877A
Other languages
Japanese (ja)
Other versions
JP2700440B2 (en
Inventor
Hiroshi Tomiyasu
寛 冨安
Kenji Wakamatsu
健司 若松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP6104877A priority Critical patent/JP2700440B2/en
Publication of JPH07287753A publication Critical patent/JPH07287753A/en
Application granted granted Critical
Publication of JP2700440B2 publication Critical patent/JP2700440B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To surely discriminate the brand of an article such as a tablet by extracting the feature of each article without requiring human visual observation. CONSTITUTION:The operation of this system is divided into a learning phase for the preparation of a dictionary and a discrimination phase for executing discrimination in the learning phase, many tablet samples of each brand are photographed by a camera 1 and a learning part 106 prepares a dictionary 108 by using the photographed picture. In the discrimination phase, a tablet to be discriminated is photographed by the camera 1 and a discrimination part 107 discriminates the brand of the tablet by using its photographed picture and the dictionary 108. A gray level value vector extracted from an actually photographed picture is used as a feature vector of an article. RGB/gray picture conversion using inverse gamma correction and a G component out of RGB components is applied to the actually photographed picture as preliminary processing so that the gray level feature of the article is effectively reflected on the gray level value vector. A gray picture is divided into small sections and the gray level center value of each small section is sampled to prepare a gray level value vector.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像処理・識別技術を
用いて、物品の識別を行う物品識別システムに関わり、
特に、入力された医薬品の錠剤やカプセル剤(以下、単
に錠剤という)の銘柄を識別するのに好適な物品識別シ
ステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an article identification system for identifying articles using image processing / identification technology,
In particular, the present invention relates to an article identification system suitable for identifying a brand of an inputted drug tablet or capsule (hereinafter, simply referred to as a tablet).

【0002】[0002]

【従来の技術】現在、国内では約6000種類の錠剤が
販売されており、それに伴って多くの錠剤を扱う総合病
院では、上記の錠剤に対する鑑別の依頼が患者から寄せ
られている。それは、「以前通っていた病院でもらった
薬と現在もらっている薬を同時に服用しても大丈夫か
?」という不安から起こるものである。
2. Description of the Related Art Currently, about 6000 kinds of tablets are sold in Japan, and in general hospitals handling a lot of tablets, patients are requesting discrimination of the above tablets. That is caused by the anxiety that "Is it okay to take the medicine I received at the hospital I used to go and the medicine I am receiving at the same time?"

【0003】この鑑別依頼に対し、現在では薬剤師が鑑
別対象としての錠剤の表面に記載されている識別コード
を読み取り、また錠剤の色や形を参考にしてその銘柄を
識別し、識別した銘柄をもとに薬品集等を検索して、患
者にその薬効や副作用に関する情報を提供している。
In response to this identification request, the pharmacist now reads the identification code written on the surface of the tablet to be identified, identifies the brand with reference to the color and shape of the tablet, and identifies the identified brand. It searches the drug collections based on the original information and provides the patients with information on their efficacy and side effects.

【0004】大きな病院になるとこの鑑別業務は1日に
50件も発生し、錠剤の目視による銘柄の識別は、薬剤
師にとって非常に大きな負担となる。錠剤の銘柄識別の
問題点については、例えば、「北澤式文:医薬品の識別
の現状と問題点、月刊薬事vol.31、pp.23ー
25、1989」において論じられている。
[0004] In a large hospital, this discrimination work occurs as many as 50 times a day, and visual identification of the tablet makes a very heavy burden on the pharmacist. The problem of tablet brand identification is discussed, for example, in “Kitazawa Shikibun: Present Situation and Problems of Drug Identification, Monthly Yakuji Vol. 31, pp. 23-25, 1989”.

【0005】そのため、鑑別業務における薬剤師の負担
の軽減を指向した対話式の簡易なコンピュータシステム
が実験的に運用されてきた。これらは、錠剤の特徴を薬
剤師が目視で抽出し、その特徴をキーワードにして、予
め上記システムに登録されている錠剤の銘柄中から候補
となる錠剤の銘柄を検索し、その検索結果を表示部に表
示するように構成されている。このコンピュータシステ
ムの詳細については、例えば、「石島正之;言語表現に
よる識別選定に関する一考察、第11回医療情報学連合
大会論文集、pp.587ー588、1991」におい
て論じられている。
Therefore, an interactive simple computer system aimed at reducing the burden on the pharmacist in the discrimination work has been experimentally operated. In these, the pharmacist visually extracts the characteristics of the tablet, searches for candidate tablet brands from the tablet brands registered in the system in advance using the characteristics as keywords, and displays the search results on the display unit. Is configured to display. The details of this computer system are discussed, for example, in "Masayuki Ishijima; A Study on Identification and Selection by Linguistic Expression, Proceedings of the 11th Joint Conference on Medical Informatics, pp. 587-588, 1991".

【0006】これらのコンピュータシステムを用いるこ
とで、鑑別業務における薬剤師の負担は軽減され、医療
の高品質化を図ることが可能となる。
By using these computer systems, the burden on the pharmacist in the discrimination work can be reduced and the quality of medical treatment can be improved.

【0007】[0007]

【発明が解決しようとする課題】上記鑑別業務のコンピ
ュータシステムにおいては、薬剤師が目視で錠剤の特徴
を抽出する必要がある。しかし最近では人が飲み易い錠
剤を提供するという観点から、円形・白色・識別コード
は刻印という錠剤が圧倒的に多い。また識別コードの記
載のない錠剤もある。
In the computer system for the above discrimination work, it is necessary for the pharmacist to visually extract the characteristics of the tablet. However, in recent years, from the viewpoint of providing tablets that are easy for humans to take, overwhelmingly many tablets have engraved circles, white colors, and identification codes. There are also tablets without identification code.

【0008】これらのことから目視による特徴の抽出も
困難になっている。
[0008] For these reasons, it is difficult to visually extract features.

【0009】従って本発明の目的は、錠剤の特徴抽出を
人間の目視によらずに行えるようにすることによって、
錠剤の銘柄識別を確実に行うことが可能な物品識別シス
テムを提供することにある。
Therefore, an object of the present invention is to enable feature extraction of tablets without human eyes,
An object of the present invention is to provide an article identification system capable of surely identifying tablet brands.

【0010】また、より一般化された本発明の目的は、
物品の識別検査を画像処理・識別技術を用いて自動的且
つ正確に行えるようにすることにある。
Further, the more general object of the present invention is to
The object of the present invention is to make it possible to carry out the identification inspection of the article automatically and accurately by using the image processing / identification technology.

【0011】[0011]

【課題を解決するための手段】本発明に係る物品識別シ
ステムは、基本的構成として、各カテゴリーに係るサン
プル物品の画像及び識別対象物品の画像を入力する画像
入力手段と、この入力画像から、濃淡値ベクトルを抽出
する特徴抽出手段と、サンプル物品の入力画像から抽出
された濃淡値ベクトルに基づいて、各カテゴリーの参照
ベクトルを生成する学習手段と、参照ベクトルを蓄積す
る辞書ファイルと、識別対象物品の入力画像から抽出さ
れた濃淡値ベクトルに基づき、辞書ファイル中の参照ベ
クトルを参照することにより、識別対象物品のカテゴリ
ーを特定する識別手段とを備える。
An article identification system according to the present invention has, as a basic configuration, image input means for inputting an image of a sample article and an image of an article to be identified according to each category, and from this input image, Feature extraction means for extracting a gray value vector, learning means for generating a reference vector for each category based on the gray value vector extracted from the input image of the sample article, a dictionary file for accumulating the reference vector, and an identification target An identification unit that identifies the category of the identification target article by referring to the reference vector in the dictionary file based on the gray value vector extracted from the input image of the article.

【0012】本発明の第1の側面の従うシステムは、上
記の基本的構成に加えて、入力画像に対しγ補正の影響
を除去するための逆γ補正を行なう逆γ補正手段を更に
備え、この逆γ補正がなされた後の画像が特徴抽出手段
に入力されるようになっている。
The system according to the first aspect of the present invention further comprises an inverse gamma correction means for performing an inverse gamma correction for removing the influence of the gamma correction on the input image, in addition to the above basic structure. The image after the inverse γ correction is input to the feature extraction means.

【0013】また、本発明の第2の側面に従がうシステ
ムは、上記基本構成において、画像入力手段は物品のR
GBカラー画像を入力し、そして、このRGBカラー画
像をそのG(グリーン)成分を優先的に用いてグレイ画
像に変換するRGBグレイ変換手段を更に備え、この変
換手段からのグレイ画像が特徴抽出手段に入力されるよ
うになっている。
Further, in the system according to the second aspect of the present invention, in the above basic structure, the image input means is an R of the article.
It further comprises RGB gray conversion means for inputting a GB color image and converting this RGB color image into a gray image by preferentially using the G (green) component thereof, and the gray image from this conversion means is feature extraction means. It is designed to be input to.

【0014】また、本発明の第3の側面に従うシステム
は、上記基本構成において、特徴抽出手段が、入力画像
から物品領域を含む所定領域を小区間に分け、各小区間
内の画素の濃淡値の中央値をサンプリングし、サンプリ
ングした小区間の濃淡中央値を要素とする濃淡値ベクト
ルを抽出するようになっている。
Further, in the system according to the third aspect of the present invention, in the above basic configuration, the feature extracting means divides the predetermined area including the article area from the input image into small sections, and the grayscale value of the pixel in each small section. The median value of is sampled, and the gradation value vector having the median gradation value of the sampled small section as an element is extracted.

【0015】本発明の好適な実施例では、学習手段が、
学習サンプルの濃淡値ベクトルに対して主成分分析を施
して固有値及び固有ベクトルを求め、これら固有値及び
固有ベクトルを用いて濃淡値ベクトルを有意な主成分ベ
クトルに変換し、この主成分ベクトルを参照ベクトルと
するようになっている。また、識別手段は、固有ベクト
ルを用いて識別対象物品の濃淡値ベクトルを主成分ベク
トルに変換し、この主成分ベクトルに基づき前記参照ベ
クトルを参照して識別を行なうようになっている。
In a preferred embodiment of the present invention, the learning means comprises:
Principal component analysis is performed on the grayscale value vector of the learning sample to obtain eigenvalues and eigenvectors, the grayscale value vector is converted to a significant principal component vector using these eigenvalues and eigenvectors, and this principal component vector is used as the reference vector. It is like this. Further, the identifying means converts the gray value vector of the article to be identified into a principal component vector using the eigenvector, and refers to the reference vector based on the principal component vector for identification.

【0016】[0016]

【作用】本発明の物品識別システムは、辞書作成の際に
は各カテゴリーのサンプル物品の画像が、また、識別の
際には識別対象物品の画像がそれぞれシステムに入力さ
れて、この入力画像から物品の特徴ベクトルが自動的に
抽出され、この特徴ベクトルに基づいて、辞書作成時に
参照ベクトルが、また、識別時には識別対象物品の識別
が行われる。これにより、物品の識別検査を人の目視に
よらず、自動的に行うことが可能となる。
In the article identification system of the present invention, the images of the sample articles of each category are input to the system when creating the dictionary, and the images of the identification target articles are input to the system when identifying the dictionary. The feature vector of the article is automatically extracted, and based on this feature vector, the reference vector is created when the dictionary is created, and the identification target article is identified when the identification is performed. As a result, it becomes possible to automatically carry out the identification inspection of the article without relying on the visual inspection of a person.

【0017】ここで、特徴ベクトルとしては、入力画像
の画素の濃淡値を要素とした濃淡値ベクトルを用いる。
濃淡値ベクトルを用いて識別を行うということは、参照
画像と識別対象画像とを重ね合せてその一致の度合いを
算出していることに他ならない。このような識別手法
は、画像情報を最大限活用できることから、大カテゴリ
ー(カテゴリー数が多い)の識別に有効である。
Here, as the feature vector, a gray value vector having the gray values of the pixels of the input image as elements is used.
The identification using the gray value vector is nothing but the calculation of the degree of coincidence by superimposing the reference image and the identification target image. Such an identification method is effective for the identification of large categories (there are many categories) because the image information can be utilized to the maximum extent.

【0018】本発明の第1の側面に従うシステムでは、
入力画像から濃淡値ベクトルを抽出する前に、入力画像
に対して逆γ補正を行って、入力画像に内在するγ補正
を除去する。これにより、γ補正によって真の物品イメ
ージよりも濃度変化やコントラストが抑圧されていた濃
度領域における濃度変化やコントラストが真の物品イメ
ージに近くなるため、真の物品イメージを反映した濃淡
値ベクトルの抽出が容易となり、結果として、識別精度
が向上する。
In the system according to the first aspect of the present invention,
Before the grayscale value vector is extracted from the input image, the inverse γ correction is performed on the input image to remove the γ correction inherent in the input image. As a result, the density change and contrast in the density area where the density change and contrast were suppressed more than the true product image by γ correction are closer to the true product image, so the gray value vector reflecting the true product image is extracted. Is facilitated, and as a result, the identification accuracy is improved.

【0019】本発明の第2の側面に従うシステムでは、
物品画像としてRGBカラー画像を入力し、そのG成分
を優先的に用いてこのカラー画像を濃淡値だけのグレイ
画像に変換する。TVカメラ等の画像入力手段では、一
般に、G成分は他のR(レッド)成分及びB(ブルー)
成分に比較して、ダイナミックレンジが広いため、物品
画像の微妙な濃度の違い、特に低濃度領域での濃度の違
いを良く反映できる。従って、G成分を優先的に用いて
グレイ画像を作成することにより、物品の微妙な濃度の
違いを良く表した濃淡値ベクトルを得ることができ、結
果として、識別精度が向上する。
In a system according to the second aspect of the invention,
An RGB color image is input as an article image, and the G component is preferentially used to convert this color image into a gray image having only grayscale values. In image input means such as a TV camera, the G component is generally another R (red) component and B (blue) component.
Since the dynamic range is wider than that of the components, it is possible to well reflect a subtle difference in density of the article image, particularly a difference in density in a low density region. Therefore, by preferentially using the G component to create a gray image, it is possible to obtain a gray value vector that well represents a subtle difference in density of the article, and as a result, the identification accuracy is improved.

【0020】本発明の第3の側面に従うシステムでは、
濃淡値ベクトルを求める際、入力画像の物品を含む領域
内を小区画に細分し、各小区画内の画素の濃淡値の中央
値をサンプリングする。そして、サンプリングした濃淡
中央値を要素として濃淡値ベクトルを作成する。各小区
画の中央値は、平均値等に比較して各小区画の濃淡の特
徴を良く反映する。例えば、白領域と黒領域とに分れた
小区画では、平均値をとるとグレイとなるが、中央値を
とると、白領域が大きければ白、黒領域が大きければ黒
というように、その区画の特徴を良く表す。従って、小
区画の中央値を要素とした濃淡値ベクトルを用いること
により、識別の精度が向上する。
In a system according to the third aspect of the invention,
When obtaining the gray value vector, the area containing the article of the input image is subdivided into small sections, and the median gray value of the pixels in each small section is sampled. Then, a gradation value vector is created with the sampled gradation median value as an element. The median value of each small section reflects the light and shade characteristics of each small section better than the average value. For example, in a small section divided into a white area and a black area, the average value is gray, but when the median is taken, the larger white area is white, and the larger black area is black. The characteristics of the compartment are well represented. Therefore, by using the gray value vector having the median value of the small section as an element, the identification accuracy is improved.

【0021】好適な実施例では、画像から抽出した濃淡
値ベクトルに対して主成分分析を施し、その結果に基づ
いて濃淡値ベクトルを有意な主成分ベクトルに変換し、
この主成分ベクトルを用いて識別を行う。これにより、
識別精度の向上に寄与しない又は寄与の度合いが小さい
特徴を用いずに識別が行えるため、高い識別精度を維持
したまま識別処理の高速化が図れる。
In the preferred embodiment, a principal component analysis is performed on the gray value vector extracted from the image, and the gray value vector is converted to a significant principal component vector based on the result.
Identification is performed using this principal component vector. This allows
Since the identification can be performed without using the feature that does not contribute to the improvement of the identification accuracy or the feature of which the contribution degree is small, the identification processing can be speeded up while maintaining the high identification accuracy.

【0022】[0022]

【実施例】以下、本発明の実施例を図面により詳細に説
明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0023】図1は、本発明の一実施例に係る錠剤識別
システムの機能構成を示す。
FIG. 1 shows a functional configuration of a tablet identification system according to an embodiment of the present invention.

【0024】この錠剤識別システムは、NTSCテレビ
カメラ1を外部機器として備えたコンピュータ100上
で動作する。コンピュータ100は、画像入力部10
1、逆γ補正部102、RGBグレイ変換部103、位
置・向き補正部104、特徴抽出部105、学習部10
6、識別部107及び辞書ファイル108を備える。
This tablet identification system operates on a computer 100 equipped with the NTSC TV camera 1 as an external device. The computer 100 includes an image input unit 10
1, inverse γ correction unit 102, RGB gray conversion unit 103, position / orientation correction unit 104, feature extraction unit 105, learning unit 10
6, the identification unit 107 and the dictionary file 108.

【0025】本システムの動作は大きく学習フェーズと
識別フェーズに分けることができる。
The operation of this system can be roughly divided into a learning phase and an identification phase.

【0026】以下、(A)学習フェーズと(B)識別フ
ェーズとに分けて、各部の機能及び動作を述べる。
The functions and operations of the respective parts will be described below separately for (A) learning phase and (B) identification phase.

【0027】(A)学習フェーズ 本システムは、その運用に入る前の初期化または準備と
して、まず学習フェーズを経てなければならない。学習
フェーズにおいては、識別対象となる錠剤の各銘柄につ
いて、多数個の錠剤サンプル(以下、学習サンプルとい
う)が入力され、これに基づいて各銘柄の参照ベクトル
が計算され、辞書ファイル108として保存される。
(A) Learning Phase The system must first go through a learning phase as initialization or preparation before starting its operation. In the learning phase, a large number of tablet samples (hereinafter referred to as learning samples) are input for each brand of tablets to be identified, the reference vector of each brand is calculated based on this, and stored as the dictionary file 108. It

【0028】まず、画像入力部101が、NTSCテレ
ビカメラ1で無地の黒い背景に設置した錠剤を撮影した
カラーアナログ画像を入力し、これをRGBディジタル
画像に変換する。
First, the image input unit 101 inputs a color analog image obtained by photographing a tablet placed on a plain black background with the NTSC television camera 1, and converts it into an RGB digital image.

【0029】次に、逆γ補正部102が、上記RGBデ
ィジタル画像について、RGBの各プレーンに施された
γ補正の影響を取り除き、カメラ1の入出力特性が実質
的に線形となるように、逆γ補正を行う。この時、γの
値として例えば2.2を用いる。これは、NTSCテレ
ビカメラ1は通常、γ=2.2のγ補正を撮影画像に施
すよう構成されているからである。この逆γ補正を行う
ことにより画像中の錠剤領域と背景領域とのコントラス
トが大きくなり、以後の処理を有効に行うことができ
る。
Next, the inverse γ correction unit 102 removes the influence of the γ correction applied to each of the RGB planes on the RGB digital image so that the input / output characteristics of the camera 1 become substantially linear. Inverse γ correction is performed. At this time, for example, 2.2 is used as the value of γ. This is because the NTSC television camera 1 is usually configured to perform γ correction of γ = 2.2 on a captured image. By performing the inverse γ correction, the contrast between the tablet area and the background area in the image is increased, and the subsequent processing can be effectively performed.

【0030】次に、RGBグレイ変換部103が、RG
B成分の中のG成分の濃淡値をそのまま用いて、RGB
画像を濃淡成分のみのグレイ画像に変換する。ここでG
成分を用いる理由は、一般にテレビカメラにおいて、G
成分は他の2つの成分に比べてダイナミックレンジが広
いため、圧倒的に白色の多い錠剤において、微妙な白色
の違いを濃淡に反映することができると考えられるから
である。なお、RGB画像からグレイ画像に変換するこ
とで、以下の処理量を3分の1に削減することができ
る。
Next, the RGB gray conversion unit 103 causes the RG
Using the grayscale value of the G component of the B component as it is, RGB
Converts the image to a gray image with only grayscale components. Where G
The reason for using a component is that G
This is because the components have a wider dynamic range than the other two components, and therefore it is considered that the subtle difference in white can be reflected in the light and shade in a tablet with an overwhelmingly large amount of white. By converting an RGB image into a gray image, the following processing amount can be reduced to 1/3.

【0031】次に、位置・向き補正部104が、画像中
の錠剤の位置と向きを、同一銘柄であれば常に同一の位
置及び方向となるような処理を行う。図2は、この位置
・向き補正の詳細な処理フローを示す。
Next, the position / orientation correction unit 104 performs processing such that the position and orientation of the tablet in the image are always the same position and orientation for the same brand. FIG. 2 shows a detailed processing flow of this position / orientation correction.

【0032】図2に示すように、まず、グレイ画像に対
し、所定の閾値を用いて画像全体の2値化処理を行い、
錠剤の領域のみを抽出する(ステップ201)。この
時、2値化の閾値を選択する手法として、例えば、判別
基準に基づく大津氏の方法を用いる。この手法は、背景
領域と錠剤領域の2領域に明確に領域分割できるような
画像に対して非常に有効な手法である。詳細について
は、「大津展之:判別及び最小2乗基準に基づく自動閾
値選定法、電子通信学会論文誌vol.J63ーDN
o.4、pp.349ー356、1980」において論
じられている。
As shown in FIG. 2, first, the gray image is binarized by using a predetermined threshold value,
Only the tablet area is extracted (step 201). At this time, for example, Otsu's method based on the discrimination criterion is used as a method of selecting the binarization threshold value. This method is a very effective method for an image that can be clearly divided into two areas, a background area and a tablet area. For details, see “Otsu Nobuyuki: Discrimination and Automatic Threshold Selection Method Based on Least Squares Criterion, IEICE Transactions vol. J63-DN.
o. 4, pp. 349-356, 1980 ".

【0033】次に、2値化画像中の錠剤領域の重心を求
め、重心を画像中心に移動する(ステップ202)。続
いて、錠剤領域内において、上記とは別の閾値を用いて
グレイ画像を2値化することにより、錠剤表面に印刷又
は印刻された識別番号コードの領域を抽出する(ステッ
プ203)。この時の2値化の閾値選定手法にも、上述
した判別基準に基づく大津氏の方法を用いることができ
る。
Next, the center of gravity of the tablet area in the binarized image is obtained, and the center of gravity is moved to the center of the image (step 202). Subsequently, in the tablet area, the gray image is binarized using a threshold value different from the above threshold value to extract the area of the identification number code printed or stamped on the tablet surface (step 203). The method of Mr. Otsu based on the above-mentioned discrimination standard can also be used for the binarization threshold selection method at this time.

【0034】次に、抽出した識別コード領域の2次モー
メントを求め(ステップ204)、この2次モーメント
が最大となる方向を画像のX軸と一致するように、アフ
ィン変換によって画像全体を回転させる(ステップ20
5)。
Next, the second moment of the extracted identification code area is obtained (step 204), and the entire image is rotated by affine transformation so that the direction in which the second moment becomes maximum coincides with the X axis of the image. (Step 20
5).

【0035】こうして錠剤領域の位置と方向を補正する
ことにより、後述する識別の精度が向上する。錠剤の外
観形状の特徴は、その位置及び方向に依存するからであ
る。
By correcting the position and direction of the tablet area in this manner, the identification accuracy described later is improved. This is because the characteristics of the external shape of the tablet depend on its position and direction.

【0036】又、同一の錠剤であれば常に同じ位置及び
方向になるため、撮影する際のテレビカメラ1に対する
錠剤の厳密な位置・向きの調整が不要となる。
Further, since the same tablet always has the same position and direction, it is not necessary to strictly adjust the position and orientation of the tablet with respect to the television camera 1 at the time of photographing.

【0037】再び図1を参照して、次に、特徴抽出部1
05が、位置・向き補正されたグレイ画像から錠剤の特
徴ベクトルを抽出する処理を行う。図3は、この特徴抽
出の詳細な処理フローを示す。又、図4〜図6は、特徴
抽出の処理を段階を追って説明するための画像例を示
す。
Referring again to FIG. 1, next, the feature extraction unit 1
05 performs a process of extracting the feature vector of the tablet from the gray image whose position / direction has been corrected. FIG. 3 shows a detailed processing flow of this feature extraction. 4 to 6 show examples of images for explaining the feature extraction processing step by step.

【0038】まず、図4に示すような位置・向き補正さ
れたグレイ画像400から、図5に示すように錠剤領域
の全体又は一部を含む所定サイズの矩形領域500を切
出す(図3、ステップ301)。ここで、矩形領域50
0のサイズは、予め、種々の銘柄の錠剤について特徴抽
出を行ってみた結果に基づき、最も、精度の良い特徴抽
出ができるサイズとして、統計的手法により決定された
ものである。
First, as shown in FIG. 5, a rectangular area 500 of a predetermined size is cut out from the gray image 400 whose position and orientation are corrected as shown in FIG. 4 (FIG. 3, FIG. 3). Step 301). Here, the rectangular area 50
The size of 0 is determined by a statistical method based on the result of performing feature extraction on tablets of various brands in advance as the size that allows the most accurate feature extraction.

【0039】次に、図6に示すように、この矩形領域5
00を任意のサイズN×Mの小区画600に分割する
(ステップ302)。ここで、小区画600のサイズN
×Mはコンピュータ100の処理能力に比例して決定さ
れる。
Next, as shown in FIG. 6, the rectangular area 5
00 is divided into small sections 600 of arbitrary size N × M (step 302). Here, the size N of the small section 600
× M is determined in proportion to the processing capacity of the computer 100.

【0040】次に、各小区画600毎に、その全画素の
濃淡値から代表値を算出する(ステプ303)。この代
表値には、例えば中央値を用いる。中央値は、錠剤領域
と背景のように明らかに濃淡値の分布が偏る場合でも、
その分布全体を良く反映することができるからである。
この後、各小区画600の代表値を要素とする濃淡値ベ
クトルを特徴ベクトルとして抽出する(ステップ30
4)。
Next, for each small section 600, a representative value is calculated from the gray values of all the pixels (step 303). The median is used as the representative value, for example. The median value is, even when the distribution of gray values is obviously biased, such as the tablet area and the background.
This is because the entire distribution can be well reflected.
Then, a grayscale value vector having the representative value of each small section 600 as an element is extracted as a feature vector (step 30).
4).

【0041】学習フェーズでは、識別対象となる錠剤の
種々の銘柄について、多数の学習サンプルが本システム
に供給されて、各学習サンプルに対して以上の撮影から
特徴抽出までの処理が行われる。
In the learning phase, a large number of learning samples are supplied to this system for various brands of tablets to be identified, and the above-described processing from photographing to feature extraction is performed on each learning sample.

【0042】再び、図1を参照して、学習部106で
は、各銘柄について、その銘柄の多数の学習サンプルか
ら抽出した全濃淡値ベクトルに対して主成分分析を施
し、固有値及び固有ベクトルを得る。そして、固有値に
基づき、寄与率を求め、寄与率の高いほうから数個の主
成分を選択し、上記固有ベクトルを用いて、上記全濃淡
値ベクトルを主成分ベクトルに変換する。このように、
主成分分析の結果に基づき有意な特徴を選択することに
より、特徴ベクトルの次元圧縮が図れ、以後の処理量を
削減することができる。次に、得られた上記主成分ベク
トルを各銘柄毎に平均して参照ベクトルとし、この参照
ベクトルを各銘柄の参照ベクトルとして辞書ファイル1
08に格納する。更に、各銘柄の固有ベクトルも辞書フ
ァイル108に格納される。以下、辞書ファイル108
に格納された全銘柄の参照ベクトルを総称して辞書と呼
ぶ。
Referring again to FIG. 1, the learning unit 106 performs principal component analysis on all gray value vectors extracted from a large number of learning samples for each brand to obtain eigenvalues and eigenvectors. Then, based on the eigenvalue, the contribution ratio is calculated, several principal components are selected from the one having the highest contribution ratio, and the all gray value vector is converted into a principal component vector using the eigenvector. in this way,
By selecting a significant feature based on the result of the principal component analysis, the dimension of the feature vector can be compressed, and the amount of processing thereafter can be reduced. Next, the obtained main component vector is averaged for each issue to obtain a reference vector, and this reference vector is used as a reference vector for each issue.
It is stored in 08. Further, the eigenvector of each issue is also stored in the dictionary file 108. Below, the dictionary file 108
The reference vectors of all brands stored in are collectively called a dictionary.

【0043】(B)識別フェーズ このフェーズでは、未知の錠剤について、学習フェーズ
で作成された辞書を用いて、いずれの銘柄に近いかの識
別検査が行われる。ここでは、識別対象となる錠剤が本
システムに入力される。
(B) Identification Phase In this phase, an unknown tablet is identified using the dictionary created in the learning phase to identify which brand is closest. Here, the tablet to be identified is input to this system.

【0044】図1を参照して、まず、入力された錠剤に
ついて、学習フェーズと同様にカメラ撮影が行われ、こ
の画像に対し逆γ補正部102、RGBグレイ変換部1
03、位置・向き補正部104及び特徴抽出部106に
よる一連の画像処理が行われ、濃淡値ベクトルが抽出さ
れる。
Referring to FIG. 1, first, an input tablet is photographed by a camera as in the learning phase, and an inverse γ correction unit 102 and an RGB gray conversion unit 1 are applied to this image.
03, the position / orientation correction unit 104 and the feature extraction unit 106 perform a series of image processes to extract a grayscale value vector.

【0045】次に、識別部107が、上記学習フェーズ
で得られた固有ベクトルを用いて、濃淡値ベクトルを主
成分ベクトルに変換する。次に、この主成分ベクトルと
各銘柄の参照ベクトルとの間の距離を計算する。この
時、距離関数にはユークリッド距離、類似度などを用い
る。一般的な距離関数については、例えば、「舟久保
登:視覚パターンの処理と認識、啓学出版発行、199
0」に記載されている。
Next, the identifying unit 107 converts the gray value vector into a principal component vector by using the eigenvector obtained in the learning phase. Next, the distance between this principal component vector and the reference vector of each brand is calculated. At this time, Euclidean distance, similarity, etc. are used for the distance function. For general distance functions, see, for example, “Noboru Funakubo: Visual Pattern Processing and Recognition,” published by Keigaku Shuppan, 199.
0 ".

【0046】ところで、本実施例では、基本となる特徴
ベクトルとして濃淡値ベクトルを用いるため、距離計算
の処理は、参照画像と識別対象画像とを重ね合わせてそ
の一致の度合いを算出していることに他ならない。この
ような特徴ベクトルは従来のパターン識別システムにお
いてはほとんど用いられることがなかったが、画像情報
を最大限活用できることから、大カテゴリーを処理対象
にする場合には有効である。
By the way, in the present embodiment, since the gray value vector is used as the basic feature vector, the distance calculation process is performed by superimposing the reference image and the identification target image to calculate the degree of coincidence. It is none other than. Such a feature vector has hardly been used in the conventional pattern identification system, but it is effective when a large category is to be processed because it can maximize the use of image information.

【0047】更に、識別部107は、こうして得た距離
の中で最も近い距離を持つ銘柄を正解として出力する。
または、距離の近い順に幾つかの銘柄を正解候補として
出力し、最終的な正解の選択は薬剤師が行なうようにし
てもよい。
Further, the identifying section 107 outputs the brand having the shortest distance among the distances thus obtained as a correct answer.
Alternatively, some brands may be output as correct answer candidates in ascending order of distance, and the pharmacist may finally select the correct answer.

【0048】以上のように、本実施例の錠剤識別システ
ムでは、人間の目視に頼ることなく錠剤の識別検査を自
動的に行うことができる。
As described above, in the tablet identification system of this embodiment, the tablet identification inspection can be automatically performed without relying on human visual inspection.

【0049】なお、本発明は上記実施例に限定されるも
のではなく、その要旨を逸脱しない範囲において種々の
異なる態様で実施可能である。例えば、錠剤識別だけで
なく、自動組立てラインにおける選別された部品の識別
などにも本発明は適用できる。
The present invention is not limited to the above embodiments, but can be carried out in various different modes without departing from the scope of the invention. For example, the present invention can be applied to not only tablet identification but also identification of selected parts in an automatic assembly line.

【0050】[0050]

【発明の効果】本発明によれば、物品の識別を自動的に
行うことが可能である。
According to the present invention, it is possible to automatically identify articles.

【0051】また、物品の特徴ベクトルとして物品の画
像から抽出した濃淡値ベクトルを用いるようにしている
ため、大カテゴリーの識別に有効である。
Further, since the gray value vector extracted from the image of the article is used as the feature vector of the article, it is effective for identifying a large category.

【0052】また、濃淡値ベクトルの抽出前に逆γ補正
を行なったり、G成分を用いたRGB・グレイ画像変換
を行なったり、或いは小区画の濃淡中央値を用いて濃淡
値ベクトルを作成するようにした場合には、物品の濃淡
特徴をよく反映した濃淡値ベクトルが得られるため、識
別の精度が向上する。
Further, before the gray value vector is extracted, inverse γ correction is performed, RGB / gray image conversion using the G component is performed, or the gray value vector is created using the gray median value of the small section. In the case of, the grayscale value vector that well reflects the grayscale feature of the article is obtained, so that the identification accuracy is improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る錠剤識別システムの構
成を示すブロック図。
FIG. 1 is a block diagram showing the configuration of a tablet identification system according to an embodiment of the present invention.

【図2】同実施例における位置・向き補正部の処理を示
すフローチャート。
FIG. 2 is a flowchart showing processing of a position / orientation correction unit in the embodiment.

【図3】同実施例における特徴抽出部の処理を示すフロ
ーチャート。
FIG. 3 is a flowchart showing a process of a feature extraction unit in the embodiment.

【図4】同実施例における位置・向き補正を施した後の
グレイ画像の例を示す図。
FIG. 4 is a diagram showing an example of a gray image after position / orientation correction according to the embodiment.

【図5】同実施例における図4の画像から切り出された
矩形領域を示す図。
FIG. 5 is a diagram showing a rectangular area cut out from the image of FIG. 4 in the embodiment.

【図6】同実施例における図5の画像を小区画に分けた
状態を示す図。
FIG. 6 is a diagram showing a state in which the image of FIG. 5 in the embodiment is divided into small sections.

【符号の説明】 1 NTSCテレビカメラ 100 コンピュータ 101 画像入力部 102 逆γ補正部 103 RGBグレイ変換部 104 位置・向き補正部 105 特徴抽出部 106 学習部 107 識別部 108 辞書ファイル[Explanation of Codes] 1 NTSC TV camera 100 computer 101 image input unit 102 inverse γ correction unit 103 RGB gray conversion unit 104 position / orientation correction unit 105 feature extraction unit 106 learning unit 107 identification unit 108 dictionary file

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/00 9061−5L G06F 15/70 460 B ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Internal reference number FI Technical display location G06T 7/00 9061-5L G06F 15/70 460 B

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 識別対象物品が予め設定された複数のカ
テゴリーのいずれに属するかを識別する物品識別システ
ムにおいて、 各カテゴリーに係るサンプル物品の画像及び識別対象物
品の画像を入力する画像入力手段と、 前記入力された画像に対し、内在するγ補正の影響を除
去するための逆γ補正を行なう逆γ補正手段と、 前記逆γ補正を行った後の前記入力画像から、濃淡値ベ
クトルを抽出する特徴抽出手段と、 前記サンプル物品の入力画像から抽出された濃淡値ベク
トルに基づいて、各カテゴリーの参照ベクトルを生成す
る学習手段と、 前記参照ベクトルを蓄積する辞書ファイルと、 前記識別対象物品の入力画像から抽出された濃淡値ベク
トルに基づき、前記辞書ファイル中の参照ベクトルを参
照することにより、前記識別対象物品のカテゴリーを特
定する識別手段と、 を備えることを特徴とする物品識別システム。
1. An article identifying system for identifying which of a plurality of preset categories an identification target article belongs to, image input means for inputting an image of a sample article and an image of an identification target article relating to each category. , An inverse γ correction means for performing an inverse γ correction for removing the influence of an inherent γ correction on the input image, and a gray value vector extracted from the input image after the inverse γ correction Feature extracting means, based on the gray value vector extracted from the input image of the sample article, learning means for generating a reference vector of each category, a dictionary file for accumulating the reference vector, and the identification target article Based on the gray value vector extracted from the input image, by referring to the reference vector in the dictionary file, Article identification system, characterized in that it comprises identification means for identifying a Gori, a.
【請求項2】 識別対象物品が予め設定された複数のカ
テゴリーのいずれに属するかを識別する物品識別システ
ムにおいて、 各カテゴリーに係るサンプル物品のRGBカラー画像及
び識別対象物品のRGBカラー画像を入力する画像入力
手段と、 前記RGBカラー画像のG成分を優先的に用いて、前記
RGBカラー画像をグレイ画像に変換するRGBグレイ
変換手段と、 前記グレイ画像から、濃淡値ベクトルを抽出する特徴抽
出手段と、 前記サンプル物品のグレイ画像から抽出された濃淡値ベ
クトルに基づいて、各カテゴリーの参照ベクトルを生成
する学習手段と、 前記参照ベクトルを蓄積する辞書ファイルと、 前記識別対象物品のグレイ画像から抽出された濃淡値ベ
クトルに基づき、前記辞書ファイル中の参照ベクトルを
参照することにより、前記識別対象物品のカテゴリーを
特定する識別手段と、 を備えることを特徴とする物品識別システム。
2. In an article identification system for identifying which of a plurality of categories an identification target article belongs to, a RGB color image of a sample article and an RGB color image of an identification target article are input for each category. An image input means; an RGB gray converting means for converting the RGB color image into a gray image by preferentially using the G component of the RGB color image; and a feature extracting means for extracting a gray value vector from the gray image. Learning means for generating a reference vector of each category based on a gray value vector extracted from the gray image of the sample article, a dictionary file for accumulating the reference vector, and extracted from the gray image of the identification target article The reference vector in the dictionary file based on the gray value vector And an identification unit that identifies the category of the identification target article.
【請求項3】 識別対象物品が予め設定された複数のカ
テゴリーのいずれに属するかを識別する物品識別システ
ムにおいて、 各カテゴリーに係るサンプル物品の画像及び識別対象物
品の画像を入力する画像入力手段と、 前記入力画像内の物品領域を含む所定領域を小区間に分
け、各小区間内の画素の濃淡値の中央値をサンプリング
し、サンプリングした小区間の濃淡中央値を要素とする
濃淡値ベクトルを抽出する特徴抽出手段と、 前記サンプル物品の入力画像から抽出された濃淡値ベク
トルに基づいて、各カテゴリーの参照ベクトルを生成す
る学習手段と、 前記参照ベクトルを蓄積する辞書ファイルと、 前記識別対象物品の入力画像から抽出された濃淡値ベク
トルに基づき、前記辞書ファイル中の参照ベクトルを参
照することにより、前記識別対象物品のカテゴリーを特
定する識別手段と、 を備えることを特徴とする物品識別システム。
3. An article identification system for identifying which of a plurality of preset categories an identification target article belongs to, and image input means for inputting an image of a sample article and an image of the identification target article in each category. , A predetermined area including the article area in the input image is divided into small sections, the median of the gray values of the pixels in each small section is sampled, and a gray value vector whose elements are the median gray values of the sampled small sections Feature extracting means for extracting, learning means for generating a reference vector of each category based on the gray value vector extracted from the input image of the sample article, a dictionary file for accumulating the reference vector, and the identification target article By referring to the reference vector in the dictionary file based on the gray value vector extracted from the input image of Article identification system characterized in that it comprises, identification means for identifying a category of another target object.
【請求項4】 請求項1乃至3記載のシステムにおい
て、 前記学習手段が、前記学習サンプルの濃淡値ベクトルに
対して主成分分析を施して固有値及び固有ベクトルを求
め、これら固有値及び固有ベクトルを用いて前記濃淡値
ベクトルを有意な主成分ベクトルに変換し、この主成分
ベクトルを前記参照ベクトルとし、 前記識別手段が、前記固有ベクトルを用いて識別対象物
品の濃淡値ベクトルを主成分ベクトルに変換し、この主
成分ベクトルに基づき前記参照ベクトルを参照して識別
を行なう、ことを特徴とする物品識別システム。
4. The system according to claim 1, wherein the learning unit performs principal component analysis on the gray value vector of the learning sample to obtain an eigenvalue and an eigenvector, and uses the eigenvalue and the eigenvector to perform the The gray value vector is converted into a significant principal component vector, the principal component vector is used as the reference vector, and the identifying means converts the gray value vector of the article to be identified into the principal component vector using the eigenvector. An article identification system, wherein identification is performed by referring to the reference vector based on a component vector.
JP6104877A 1994-04-19 1994-04-19 Article identification system Expired - Lifetime JP2700440B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6104877A JP2700440B2 (en) 1994-04-19 1994-04-19 Article identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6104877A JP2700440B2 (en) 1994-04-19 1994-04-19 Article identification system

Publications (2)

Publication Number Publication Date
JPH07287753A true JPH07287753A (en) 1995-10-31
JP2700440B2 JP2700440B2 (en) 1998-01-21

Family

ID=14392437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6104877A Expired - Lifetime JP2700440B2 (en) 1994-04-19 1994-04-19 Article identification system

Country Status (1)

Country Link
JP (1) JP2700440B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11206855A (en) * 1998-01-20 1999-08-03 Tosho:Kk Machine for allotting tablets to packs
JPH11206853A (en) * 1998-01-20 1999-08-03 Tosho:Kk Medicine preparation device
JP2003323622A (en) * 2002-02-27 2003-11-14 Nec Corp Image recognition system and method and its program
WO2004006185A1 (en) * 2002-07-09 2004-01-15 Sony Corporation Similarity calculation method and device
JP2005083775A (en) * 2003-09-05 2005-03-31 Seirei Ind Co Ltd Grain classifier
JP2010117331A (en) * 2008-11-14 2010-05-27 Waseda Univ Granular article kind inspection device
JP2010170504A (en) * 2009-01-26 2010-08-05 Univ Of Tsukuba Medication confirmation system for watching recipe person
JP2010205133A (en) * 2009-03-05 2010-09-16 Panasonic Corp Apparatus and method for identifying object
JP2012098191A (en) * 2010-11-03 2012-05-24 Waseda Univ Image identification device and program
JP5103736B2 (en) * 2003-10-17 2012-12-19 アステラス製薬株式会社 Heterogeneous product detection device using a planar spectrometer
JP2017127407A (en) * 2016-01-19 2017-07-27 富士フイルム株式会社 Dispensing inspection device and method, and program
KR102009721B1 (en) * 2018-02-20 2019-08-12 재단법인 아산사회복지재단 Method for identifying a plurality of drugs using a drug image and drug information
JP2020020998A (en) * 2018-08-02 2020-02-06 古河電気工業株式会社 Fusion splicing system, fusion splicing machine, and optical fiber rotation angle determination method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02252392A (en) * 1989-03-25 1990-10-11 Ricoh Co Ltd Picture quality evaluating method
JPH0644377A (en) * 1992-03-10 1994-02-18 Landis & Gyr Business Support Ag Device for sorting pattern, particularly pattern of paper money or money

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02252392A (en) * 1989-03-25 1990-10-11 Ricoh Co Ltd Picture quality evaluating method
JPH0644377A (en) * 1992-03-10 1994-02-18 Landis & Gyr Business Support Ag Device for sorting pattern, particularly pattern of paper money or money

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11206855A (en) * 1998-01-20 1999-08-03 Tosho:Kk Machine for allotting tablets to packs
JPH11206853A (en) * 1998-01-20 1999-08-03 Tosho:Kk Medicine preparation device
US8027522B2 (en) 2002-02-27 2011-09-27 Nec Corporation Image recognition system and recognition method thereof and program
US7532745B2 (en) 2002-02-27 2009-05-12 Nec Corporation Image recognition system and recognition method thereof, and program
JP2003323622A (en) * 2002-02-27 2003-11-14 Nec Corp Image recognition system and method and its program
JP2004046370A (en) * 2002-07-09 2004-02-12 Sony Corp Method and device for calculating similarity, program and recording medium
CN1324509C (en) * 2002-07-09 2007-07-04 索尼株式会社 Method and device for calculating similarity
US7260488B2 (en) 2002-07-09 2007-08-21 Sony Corporation Similarity calculation method and device
WO2004006185A1 (en) * 2002-07-09 2004-01-15 Sony Corporation Similarity calculation method and device
JP2005083775A (en) * 2003-09-05 2005-03-31 Seirei Ind Co Ltd Grain classifier
JP5103736B2 (en) * 2003-10-17 2012-12-19 アステラス製薬株式会社 Heterogeneous product detection device using a planar spectrometer
JP2010117331A (en) * 2008-11-14 2010-05-27 Waseda Univ Granular article kind inspection device
JP2010170504A (en) * 2009-01-26 2010-08-05 Univ Of Tsukuba Medication confirmation system for watching recipe person
JP2010205133A (en) * 2009-03-05 2010-09-16 Panasonic Corp Apparatus and method for identifying object
JP2012098191A (en) * 2010-11-03 2012-05-24 Waseda Univ Image identification device and program
JP2017127407A (en) * 2016-01-19 2017-07-27 富士フイルム株式会社 Dispensing inspection device and method, and program
KR102009721B1 (en) * 2018-02-20 2019-08-12 재단법인 아산사회복지재단 Method for identifying a plurality of drugs using a drug image and drug information
JP2020020998A (en) * 2018-08-02 2020-02-06 古河電気工業株式会社 Fusion splicing system, fusion splicing machine, and optical fiber rotation angle determination method
US10921520B2 (en) 2018-08-02 2021-02-16 Furukawa Electric Co., Ltd. Fusion splicing system, fusion splicer and method of determining rotation angle of optical fiber

Also Published As

Publication number Publication date
JP2700440B2 (en) 1998-01-21

Similar Documents

Publication Publication Date Title
US8698916B2 (en) Red-eye filter method and apparatus
JP2000082147A (en) Method for detecting human face and device therefor and observer tracking display
JPH07287753A (en) Article discrimination system
JP2002216129A (en) Face area detector, its method and computer readable recording medium
WO2000073974A1 (en) Method and system for identifying an image feature
JP6410450B2 (en) Object identification device, object identification method, and program
JPH1185988A (en) Face image recognition system
JP2989741B2 (en) Article identification system
JPH07282266A (en) Article discrimination system
JPH09130714A (en) Image information extracting device and method
US20060010582A1 (en) Chin detecting method, chin detecting system and chin detecting program for a chin of a human face
JPH07262379A (en) Article identifying system
JP2922110B2 (en) Article identification system
JPH07146937A (en) Pattern matching method
JPH07262378A (en) Article identifying system
JP2879129B2 (en) Article identification system and method
JPH07254068A (en) Article identification system
JPH09245166A (en) Pattern matching device
JP2005346663A (en) Object image distinction method, object image distinction system, object image distinction program, false detection distinction method, false detection distinction system and false detection distinction program
Bereska et al. Correlation of color components of camera output signal and decorrelation methods
JPH06215140A (en) Pattern discriminating device
JPH06300543A (en) Glossy material extraction device
JPH1196373A (en) Image pickup device
JPH09128542A (en) Image recognision and retrieval device
JPH07254066A (en) Article identification system

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071003

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081003

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091003

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101003

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 15