JPH07234941A - Article identification system - Google Patents

Article identification system

Info

Publication number
JPH07234941A
JPH07234941A JP6047846A JP4784694A JPH07234941A JP H07234941 A JPH07234941 A JP H07234941A JP 6047846 A JP6047846 A JP 6047846A JP 4784694 A JP4784694 A JP 4784694A JP H07234941 A JPH07234941 A JP H07234941A
Authority
JP
Japan
Prior art keywords
vector
image
tablet
article
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6047846A
Other languages
Japanese (ja)
Other versions
JP2922110B2 (en
Inventor
Hiroshi Tomiyasu
寛 富安
Kenji Wakamatsu
健司 若松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP6047846A priority Critical patent/JP2922110B2/en
Publication of JPH07234941A publication Critical patent/JPH07234941A/en
Application granted granted Critical
Publication of JP2922110B2 publication Critical patent/JP2922110B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To automatically judge whether or not a selected tablet coincides with a designated tablet and thereby, to always output a correct package in which the designated tablet is housed from an automatic tablet packer when a tablet of designated brand is automatically selected and packed by the automatic tablet packet. CONSTITUTION:The tablet is color-photographed by a camera 1, and inverse (gamma) correction is applied to the image of the tablet, and it is converted into a gray image by using a G component out of R, G and B components, and further, a tablet area in the image is corrected in fixed position and direction, and a feature vector is sampled from the image. As the feature vector, the variable density vector of the image is used. Distance between the feature vector and a reference vector of designated brand stored in a dictionary file 110 is found, and when it is within an allowable value r.sigma decided by scatter (sigma) of designated brand, it is judged that the tablet is the one of designated brand.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像処理・識別技術を
用いて物品の同定を行う物品同定システムに関わり、特
に、医薬品の錠剤やカプセル剤(以下、単に錠剤とい
う)の自動包装機において、入力された名柄に対し選別
された錠剤が正しいかどうかを検査するための錠剤同定
に好適な物品同定システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an article identification system for identifying an article using image processing / identification technology, and particularly in an automatic packaging machine for pharmaceutical tablets and capsules (hereinafter simply referred to as tablets). The present invention relates to an article identification system suitable for tablet identification for inspecting whether a selected tablet is correct for an input name pattern.

【0002】[0002]

【従来の技術】現在、多くの総合病院で、指定した銘柄
の複数の錠剤を自動的に分包紙内に包装する自動錠剤包
装機が用いられている。自動錠剤包装機においては、オ
ペレータが端末から入力した複数の錠剤銘柄情報を受け
て、装置内のダブレットケースから該当する錠剤を搬送
し、同一の分包紙内に包装する処理を行っている。一般
的な自動錠剤包装機については、例えば、「清野 敏
一、折井 孝男他:調剤業務への電算機の利用−自動調
剤包装機への監査システムの試み、第8回医療情報連合
大会論文集、565−568、1988」において論じ
られている。
2. Description of the Related Art At present, in many general hospitals, an automatic tablet packing machine for automatically packing a plurality of tablets of a designated brand in a packaging paper is used. The automatic tablet packing machine receives a plurality of tablet brand information inputted by the operator from the terminal, carries the corresponding tablets from the doublet case in the apparatus, and performs a process of packing the tablets in the same packaging paper. For general automatic tablet packaging machines, see, for example, “Toshikazu Seino, Takao Orii, et al .: Use of a computer for dispensing operations-Trial of an audit system for automatic dispensing packaging machines, Proc. Of the 8th Medical Information Union Conference. , 565-568, 1988 ".

【0003】このような自動錠剤包装機を用いた薬剤シ
ステムを病院に導入することで、これまでの薬剤師の手
を介して行われていた錠剤の包装が自動化され、大幅な
待ち時間の短縮が可能となり、医療の高品質化を図るこ
とができる。
By introducing a drug system using such an automatic tablet packing machine into a hospital, the tablet packing which has been performed by a pharmacist until now is automated, and the waiting time is greatly shortened. It becomes possible and the quality of medical treatment can be improved.

【0004】[0004]

【発明が解決しようとする課題】上記自動錠剤包装機で
は、タブレットケースから指定された錠剤を取り出す処
理、及び、取り出した錠剤を包装する位置まで搬送する
処理に機械的な動作を含む。そのため、錠剤の取り出し
誤りや欠損が起こる可能性がある。また、タブレットケ
ースへの錠剤の補給は人間が行うが、その際に補給すべ
き銘柄を間違う可能性もある。しかし、このような機械
的又は人為的誤りがあったとしても、最終的に患者に提
供される分包中には、指定された名柄の錠剤が間違いな
く入っている必要がある。そのため、従来自動錠剤包装
機を運用する際には、包装後の錠剤が指定された銘柄か
どうか、薬剤師が目視で同定検査を行っていた。
In the above automatic tablet packing machine, a mechanical operation is included in the process of taking out the specified tablet from the tablet case and the process of carrying the taken-out tablet to the packaging position. Therefore, there is a possibility that the tablets may be taken out incorrectly or missing. In addition, although the human beings supply the tablets to the tablet case, there is a possibility that the brand to be supplied at that time may be wrong. However, even if there is such a mechanical or human error, it is necessary for the package to be finally provided to the patient to definitely contain the tablet of the designated name. Therefore, conventionally, when operating an automatic tablet packaging machine, a pharmacist has visually performed an identification test to determine whether the packaged tablet is a designated brand.

【0005】そのため、同定検査の手間が面倒であり、
検査に時間がかかるという問題があった。また、包装後
に検査するため、間違った錠剤の包装が発見された場合
には、その包装を破り、再度正しい錠剤の包装を作らな
ければならない、という面倒があった。
Therefore, the labor of the identification test is troublesome,
There was a problem that the inspection took time. Further, since the inspection is performed after the packaging, if the wrong packaging of tablets is found, the packaging has to be broken and the packaging of correct tablets has to be made again.

【0006】従って、本発明の目的は、自動錠剤包装機
の運用において、選別された錠剤が指定された銘柄と一
致するかどうかを自動的に判定し、それにより、自動錠
剤包装機から常に指定通りの錠剤の入った正しい包装が
出てくるようにすることにある。
Therefore, it is an object of the present invention to automatically determine whether or not a selected tablet matches a designated brand in the operation of the automatic tablet packing machine, and thereby, the automatic tablet packing machine always specifies the selected tablet. The goal is to get the correct packaging out of the street tablets.

【0007】また、より一般化された本発明の目的は、
多カテゴリーの物品群中から指定されたカテゴリーの物
品を選別するような用途において、選別された物品が指
定されたカテゴリーのものであるか否かを確認するため
の同定検査を、画像処理・識別技術を用いて自動的且つ
正確に行えるようにすることにある。
The more general purpose of the present invention is to
In applications such as selecting items in a specified category from a multi-category item group, an identification test is performed to confirm whether the selected item belongs to the specified category. It is to be able to do it automatically and accurately using technology.

【0008】[0008]

【課題を解決するための手段】本発明の物品同定システ
ムは、物品の画像を入力する画像入力手段と、物品のカ
テゴリーを入力するカテゴリー入力手段と、入力された
画像の濃淡値ベクトルを特徴ベクトルとして抽出する特
徴抽出手段と、抽出した特徴ベクトルと予め用意した参
照ベクトルとの距離を求め、この距離が予め定めた許容
値内にあるか否かにより、入力された物品が入力された
カテゴリーに係るものか否かを判定する同定手段とを備
えることを特徴とする。
The article identification system of the present invention comprises an image input means for inputting an image of an article, a category input means for inputting a category of an article, and a gray value vector of the input image as a feature vector. The feature extraction means for extracting as, the distance between the extracted feature vector and the reference vector prepared in advance is obtained, and whether the distance is within a predetermined allowable value or not It is characterized by comprising an identification means for determining whether or not it is related.

【0009】[0009]

【作用】本発明においては、カメラ等で物品(例えば、
錠剤)を撮影した画像とその物品のカテゴリー(例え
ば、錠剤の銘柄)とがシステムに入力される。すると、
画像から物品の特徴ベクトルが画像処理によって抽出さ
れる。特徴ベクトルには、画像内の濃淡値を要素とする
濃淡値ベクトルが用いられる。この特徴ベクトルと予め
用意した参照ベクトルとから両者の距離が求められ、こ
の距離が予め定めた許容値内にあるかどうかで、入力し
たカテゴリーと物品とが対応するかどうかが判定され
る。
In the present invention, an article (for example,
An image of the tablet) and the category of the article (eg, tablet brand) are input to the system. Then,
The feature vector of the article is extracted from the image by image processing. As the feature vector, a gray value vector having gray values in the image as elements is used. The distance between the feature vector and the reference vector prepared in advance is obtained, and it is determined whether or not the input category corresponds to the article depending on whether or not the distance is within a predetermined allowable value.

【0010】上記のような処理を行うことにより、物品
の同定検査を人の目視によらず、自動的に行うことが可
能になる。
By carrying out the above-mentioned processing, it becomes possible to automatically carry out the identification inspection of the article without the visual inspection of a person.

【0011】本システムには、或カテゴリーに係る学習
サンプルとそのカテゴリーとがシステムに入力された
時、上記特徴抽出手段から学習サンプルの特徴ベクトル
を受けて、入力されたカテゴリーの参照ベクトルを算出
する学習手段と、算出された参照ベクトルと学習サンプ
ルの特徴ベクトルとの距離の分布の散布度を算出する散
布度算出手段とを更に設けることができる。
In this system, when a learning sample related to a certain category and its category are input to the system, the feature vector of the learning sample is received from the feature extracting means and a reference vector of the input category is calculated. It is possible to further include a learning unit and a dispersion degree calculation unit that calculates a dispersion degree of a distribution of the distance between the calculated reference vector and the feature vector of the learning sample.

【0012】このようにした場合、本システムは同定に
用いる参照ベクトルと散布度とを自システムにおいて生
成することができるので、同定対象となるカテゴリー群
が変ったような場合にも、対応が容易である。
In this case, the present system can generate the reference vector used for identification and the degree of dispersion in its own system, so that it is easy to deal with the case where the category group to be identified changes. Is.

【0013】また、本システムは、以下の種々の手段を
付加させることができ、それにより、同定精度の向上ま
たは処理量の削除が図れる。
Further, the present system can be added with the following various means, whereby the identification accuracy can be improved or the processing amount can be eliminated.

【0014】即ち、入力画像に内在するγ補正を除去す
るための逆γ補正手段を付加することができる。それに
より、撮影時に画像に施されたγ補正の影響を取り除く
ことができ、錠剤が持つ本来の濃淡が一層忠実に画像に
表現される。
That is, it is possible to add an inverse γ correction means for removing the γ correction inherent in the input image. As a result, the influence of the γ correction applied to the image at the time of shooting can be removed, and the original light and shade of the tablet can be more faithfully expressed in the image.

【0015】また、入力画像がカラー画像である場合、
そのカラー画像のG成分からグレイ画像を生成するRG
Bグレイ変換手段を付加することができる。これによ
り、カラー画像内でダイナミックレンジの広いG成分に
対応した、ダイナミックレンジの広いグイレ画像が得ら
れので、後の処理に有利であり、しかも、RGB3成分
からグレイ1成分に情報を圧縮した分だけ、以後の処理
量を削減することができる。
If the input image is a color image,
RG that generates a gray image from the G component of the color image
B-gray conversion means can be added. As a result, a guilleu image with a wide dynamic range corresponding to a G component with a wide dynamic range in the color image can be obtained, which is advantageous for the subsequent processing, and moreover, the amount of information compressed from RGB 3 components to 1 gray component Therefore, the amount of processing thereafter can be reduced.

【0016】また、入力画像内の物品領域を一定の位置
及び向きに補正する位置・向き補正手段を付加すること
もできる。これにより、画像内での物品の位置・向きを
常に一定にすることができ、画像撮影の際にカメラに対
する錠剤の厳密な位置・向きの調整が不要になる。
It is also possible to add a position / orientation correction means for correcting the article area in the input image to a fixed position and orientation. As a result, the position / orientation of the article in the image can be made constant at all times, and strict adjustment of the position / orientation of the tablet with respect to the camera is not necessary at the time of image capturing.

【0017】また、上記特徴抽出手段での特徴抽出手順
は、次のようにすることができる。即ち、まず、入力画
像から物品領域を含む矩形領域を切出し、この矩形領域
からサンプリングした濃淡値を要素とする濃淡値ベクト
ルを物品の特徴ベクトルとして抽出する。これにより、
背景等の物品以外の情報を画像から削除し、物品に関係
の深い有意な情報を優先的に抽出することができる。
Further, the feature extracting procedure by the feature extracting means can be performed as follows. That is, first, a rectangular area including the article area is cut out from the input image, and a gray value vector having the gray value sampled from this rectangular area as an element is extracted as a feature vector of the article. This allows
Information other than the article such as the background can be deleted from the image, and significant information that is closely related to the article can be preferentially extracted.

【0018】また、上記学習手段においては、抽出され
た特徴ベクトルに対して主成分分析を施し、固有値・固
有ベクトルを求め、これらを用いて濃淡値ベクトルを有
意な主成分ベクトルに変換して、これを参照ベクトルと
すると共に、上記同定手段においても、上記固有ベクト
ルを用いて濃淡値ベクトルを主成分ベクトルに変換する
処理を行ない、この主成分ベクトルと参照ベクトルとか
ら同定を行なうようにすることもできる。これにより、
特徴ベクトルを次元圧縮し有意な特徴だけを主成分ベク
トルとして選択し使用することができるので、更に処理
量の削減を図ることができる。
Further, in the learning means, principal component analysis is performed on the extracted feature vector to obtain an eigenvalue / eigenvector, the gray value vector is converted into a significant principal component vector using these, and this It is also possible to use as a reference vector and also in the identifying means to perform a process of converting a grayscale value vector into a principal component vector using the eigenvector, and perform identification from the principal component vector and the reference vector. . This allows
Since the feature vector can be dimensionally compressed and only significant features can be selected and used as the principal component vector, the amount of processing can be further reduced.

【0019】また、上記散布度としては、参照ベクトル
に対する学習サンプルの距離分布の標準偏差σを用いる
ことができる。
Further, the standard deviation σ of the distance distribution of the learning sample with respect to the reference vector can be used as the dispersion degree.

【0020】また、上記許容量としては、ユーザが可変
設定できる係数を上記散布度に施した(例えば、乗算)
値を用いることができる。これにより、本システムによ
る同定の厳密度をユーザが自己の目的に応じて調整でき
る。
As the allowable amount, a coefficient that can be variably set by the user is applied to the dispersion degree (for example, multiplication).
Values can be used. This allows the user to adjust the strictness of identification by this system according to his / her purpose.

【0021】本システムを、錠剤自動包装機における錠
剤同定に用いる場合は、本システムは錠剤の選定処理と
選定された錠剤の包装処理との間に置かれることが望ま
しい。その場合、本システムの同定結果に応じて、選定
された錠剤を包装処理に送るか送らずに排出またはタブ
レットに戻すかする選択機構を設けることが望ましい。
それにより、同定結果が否定的である場合、間違った錠
剤を包装してしまうことがなくなり、常に正しい錠剤の
みが包装機から出力されることになる。
When the system is used for tablet identification in an automatic tablet packaging machine, it is desirable that the system is placed between the tablet selection process and the selected tablet packaging process. In that case, it is desirable to provide a selection mechanism that sends the selected tablets to the packaging process or discharges them or returns them to the tablets according to the identification result of the present system.
As a result, if the identification result is negative, the wrong tablet will not be packed, and only the correct tablet will always be output from the packing machine.

【0022】[0022]

【実施例】以下、本発明の実施例を図面により詳細に説
明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0023】図1は、本発明の一実施例に係る錠剤同定
システムの機能構成を示す。
FIG. 1 shows a functional configuration of a tablet identification system according to an embodiment of the present invention.

【0024】この錠剤同定システムは、NTSCテレビ
カメラ1を外部機器として備えたコンピュータ100上
で動作する。コンピュータ100は、画像入力部10
1、名柄入力部102、逆γ補正部103、RGBグレ
イ変換部104、位置・向き補正手段105、特徴抽出
部106、学習部107、散布度算出部108、同定部
109及び辞書ファイル110を備える。
This tablet identification system operates on a computer 100 equipped with the NTSC TV camera 1 as an external device. The computer 100 includes an image input unit 10
1, name pattern input unit 102, inverse γ correction unit 103, RGB gray conversion unit 104, position / orientation correction unit 105, feature extraction unit 106, learning unit 107, dispersion degree calculation unit 108, identification unit 109, and dictionary file 110. Prepare

【0025】本システムの動作は大きく学習フェーズと
同定フェーズに分けることができる。以下、(A)学習
フェーズと(B)同定フェーズに分けて、各部の機能及
び動作を述べる。
The operation of this system can be roughly divided into a learning phase and an identification phase. Hereinafter, the functions and operations of each unit will be described separately for (A) learning phase and (B) identification phase.

【0026】(A)学習フェーズ 本システムは、その運用に入る前の初期化または準備と
して、まず学習フェーズを経てなければならない。学習
フェーズにおいては、同定対象となる錠剤の各銘柄につ
いて、複数個のサンプルと正確な銘柄名とが入力され、
これに基づいて各銘柄の参照ベクトルと散布度とが計算
され、参照ベクトルファイル10として保存される。
(A) Learning Phase The system must first go through a learning phase as initialization or preparation before starting its operation. In the learning phase, for each brand of tablets to be identified, multiple samples and accurate brand names are entered,
Based on this, the reference vector and the degree of dispersion of each brand are calculated and stored as the reference vector file 10.

【0027】まず画像入力部101が、NTSCテレビ
カメラ1で無地の黒い背景に設置した錠剤を撮影したカ
ラーアナログ画像を入力し、これをRGBディジタル画
像に変換する。また、銘柄入力部102が、当該錠剤の
銘柄名をシステム内に入力する。
First, the image input section 101 inputs a color analog image obtained by photographing a tablet placed on a plain black background by the NTSC television camera 1, and converts it into an RGB digital image. Further, the brand input unit 102 inputs the brand name of the tablet into the system.

【0028】次に、逆γ補正部103が、RGBの各プ
レーンに施されたγ補正の影響を取り除き、カメラ1の
入出力特性が実質的に線形となるように、逆γ補正を行
う。この時、γの値として例えば2.2を用いる。これ
は、NTSCテレビカメラ1は通常、γ=2.2のγ補
正を撮影画像に施すよう構成されているからである。こ
の逆γ補正を行うことで、画像中の錠剤領域と背景領域
(黒地)のコントラストが大きくなり、以後の処理を有
効に行うことができる。
Next, the inverse γ correction unit 103 removes the influence of the γ correction applied to each of the RGB planes, and performs the inverse γ correction so that the input / output characteristic of the camera 1 becomes substantially linear. At this time, for example, 2.2 is used as the value of γ. This is because the NTSC television camera 1 is usually configured to perform γ correction of γ = 2.2 on a captured image. By performing this inverse γ correction, the contrast between the tablet region and the background region (black background) in the image is increased, and the subsequent processing can be effectively performed.

【0029】次に、RGBグレイ変換部104が、RG
B成分の中のG成分の濃淡値をそのまま用いて、RGB
画像を濃淡成分のみのグレイ画像に変換する。ここでG
成分を用いる理由は、一般にテレビカメラにおいて、G
成分は他の2つの成分に比べてダイナミックレンジが広
いため、圧倒的に白色の多い錠剤において、微妙な白色
の違いを濃淡に反映することができると考えられるから
からである。なお、RGB画像からグレイ画像に変換す
ることで、以下の処理量を3分の1に削減することがで
きる。
Next, the RGB gray conversion unit 104 causes the RG
Using the grayscale value of the G component of the B component as it is, RGB
Converts the image to a gray image with only grayscale components. Where G
The reason for using a component is that G
This is because the components have a wider dynamic range than the other two components, and thus it is considered that a subtle difference in white can be reflected in the light and shade in a tablet having an overwhelmingly large amount of white. By converting an RGB image into a gray image, the following processing amount can be reduced to 1/3.

【0030】次に、位置・向き補正部105が、画像中
の錠剤の位置と向きを、同一名柄であれば常に同一の位
置及び方向となるような処理を行う。図2は、この位置
・向き補正の詳細な処理フローを示す。
Next, the position / orientation correction unit 105 performs processing so that the position and orientation of the tablet in the image will always be the same position and orientation if they have the same name. FIG. 2 shows a detailed processing flow of this position / orientation correction.

【0031】図2に示すように、まず、グレイ画像に対
し、所定の閾値を用いて画像全体の2値化処理を行い、
錠剤の領域のみを抽出する(ステップ201)。この
時、2値化の閾値を選択する手法として、例えば、判別
基準に基づく大津氏の方法を用いる。この手法は、背景
領域と錠剤領域の2領域に明確に領域分割できるような
画像に対して非常に有効な手法である。詳細について
は、「大津展之:判別および最小2乗基準に基づく自動
閾値選定法、電子通信学会論文誌Vol.J63−DN
o.4、pp.349−356、1980」において論
じられている。
As shown in FIG. 2, first, the gray image is binarized by using a predetermined threshold value,
Only the tablet area is extracted (step 201). At this time, for example, Otsu's method based on the discrimination criterion is used as a method of selecting the binarization threshold value. This method is a very effective method for an image that can be clearly divided into two areas, a background area and a tablet area. For details, see “Nobuyuki Otsu: Automatic Threshold Selection Method Based on Discrimination and Least Squares Criterion, IEICE Transactions Vol. J63-DN.
o. 4, pp. 349-356, 1980 ".

【0032】次に、2値化画像中の錠剤領域の重心を求
め、重心を画像中心に移動する(ステップ202)。続
いて、錠剤領域内において、上記とは別の閾値を用いて
グレイ画像を2値化することにより、錠剤表面に印刷又
は印刻された識別番号コードの領域を抽出する(ステッ
プ203)。この時の2値化の閾値選定手法にも、上述
した判別基準に基づく大津氏の方法を用いることができ
る。
Next, the center of gravity of the tablet area in the binarized image is obtained, and the center of gravity is moved to the center of the image (step 202). Then, in the tablet area, the gray image is binarized by using a threshold value different from the above threshold value to extract the area of the identification number code printed or stamped on the tablet surface (step 203). The method of Mr. Otsu based on the above-mentioned discrimination standard can also be used for the binarization threshold selection method at this time.

【0033】次に、抽出した識別コード領域の2次モー
メントを求め、この2次モーメントが最大となる方向を
画像のX軸と一致するように、アフィン変換によって画
像全体を回転させる(ステップ204)。
Next, the second moment of the extracted identification code area is obtained, and the entire image is rotated by affine transformation so that the direction in which the second moment becomes maximum coincides with the X axis of the image (step 204). .

【0034】こうして錠剤領域の位置と方向を補正する
ことにより、後述する同定の精度が向上する。錠剤の外
観形状の特徴は位置及び方向に依存するからである。ま
た、同一の錠剤であれば常に同じ位置及び方向になるた
め、撮影する際のカメラ1に対する錠剤の厳密な位置・
向きの調整が不要となる。
By correcting the position and direction of the tablet area in this manner, the identification accuracy described later is improved. This is because the appearance characteristics of tablets depend on the position and the direction. In addition, since the same tablet always has the same position and direction, the exact position of the tablet with respect to the camera 1 at the time of shooting
No need to adjust orientation.

【0035】再び図1を参照して、次に、特徴抽出部1
06が、位置・向き補正されたグレイ画像から錠剤の特
徴ベクトルを抽出する処理を行う。図3はこの特徴抽出
の詳細な処理フローを示す。また、図4〜図6は、特徴
抽出の処理を段階を追って説明するための画像例を示
す。
Referring again to FIG. 1, next, the feature extraction unit 1
06 performs processing for extracting the feature vector of the tablet from the position / orientation-corrected gray image. FIG. 3 shows a detailed processing flow of this feature extraction. Further, FIGS. 4 to 6 show image examples for explaining the feature extraction processing step by step.

【0036】まず、図4に示すような位置・向き補正さ
れたグレイ画像400から、図5に示すように錠剤領域
の全体または一部を含む所定サイズの矩形領域500を
切出す(図3、ステップ301)。ここで、矩形領域5
00のサイズは、予め種々の銘柄の錠剤について特徴抽
出を行なってみた結果に基づき、最も精度の良い特徴抽
出ができるサイズとして、統計的手法により決定された
ものである。
First, a rectangular area 500 of a predetermined size including the whole or a part of the tablet area is cut out from the gray image 400 whose position and orientation are corrected as shown in FIG. 4 (FIG. 3, FIG. 3). Step 301). Here, the rectangular area 5
The size of 00 is determined by a statistical method as a size that enables the most accurate feature extraction based on the result of performing feature extraction on tablets of various brands in advance.

【0037】次に、図6に示すように、この矩形領域5
00を任意のサイズN×Mの小区画600に分割する
(ステップ302)。ここで、小区画600のサイズN
×Mはコンピュータの処理能力に比例して決定される。
Next, as shown in FIG. 6, the rectangular area 5
00 is divided into small sections 600 of arbitrary size N × M (step 302). Here, the size N of the small section 600
× M is determined in proportion to the processing capacity of the computer.

【0038】次に、各小区画600毎に、その全画素の
濃淡値から代表値を算出する(ステップ303)。この
代表値には、例えば中央値を用いる。中央値は錠剤領域
と背景のように明らかに濃淡値の分布が偏る場合でも、
その分布全体を良く反映することができるからである。
この後、各小区画600の代表値を要素とする濃淡値ベ
クトルを特徴ベクトルとして抽出する(ステップ30
4)。
Next, for each small section 600, a representative value is calculated from the gray values of all the pixels (step 303). The median is used as the representative value, for example. Even if the distribution of gray values is obviously biased like the tablet area and the background, the median value is
This is because the entire distribution can be well reflected.
Then, a grayscale value vector having the representative value of each small section 600 as an element is extracted as a feature vector (step 30).
4).

【0039】学習フェーズでは、同定対象となる錠剤の
種々の銘柄の多数の学習サンプルが本システムに供給さ
れて、各学習サンプルに対して以上の撮影から特徴抽出
までの処理が行なわれる。
In the learning phase, a large number of learning samples of various brands of tablets to be identified are supplied to this system, and the above-described processing from photographing to feature extraction is performed on each learning sample.

【0040】再び図1を参照して、学習部107では、
各銘柄について、その銘柄の多数の学習サンプルから抽
出した全濃淡値ベクトルに対し主成分分析を施し、固有
値及び固有ベクトルを得る。そして、固有値に基づき寄
与率を求め、寄与率の高いほうから数個の主成分を選択
し、上記固有ベクトルを用いて、上記全濃淡値ベクトル
を主成分ベクトルに変換する。このように、主成分分析
の結果に基づき有意な特徴を選択することにより、特徴
ベクトルの次元圧縮が図れ、以後の処理量を削減するこ
とができる。次に、得られた上記主成分ベクトルを各銘
柄毎に平均して参照ベクトルとし、この参照ベクトルを
銘柄入力部102から入力された銘柄の参照ベクトルと
して辞書ファイル110に格納する。更に、各銘柄の固
有ベクトルも辞書ファイル110に格納される。
Referring again to FIG. 1, in the learning section 107,
For each issue, principal component analysis is performed on the total gray value vector extracted from many learning samples of that issue to obtain the eigenvalue and the eigenvector. Then, the contribution ratio is calculated based on the eigenvalue, several principal components are selected from the one having the highest contribution ratio, and the above-mentioned eigenvector is used to convert the above all gray value vector into the principal component vector. As described above, by selecting a significant feature based on the result of the principal component analysis, the dimension of the feature vector can be reduced, and the amount of processing thereafter can be reduced. Next, the obtained main component vector is averaged for each issue to be a reference vector, and this reference vector is stored in the dictionary file 110 as a reference vector of the issue input from the issue input unit 102. Further, the eigenvector of each issue is also stored in the dictionary file 110.

【0041】散布度算出部108は、各銘柄毎に、参照
ベクトルと多数の学習サンプルの主成分ベクトルとの間
の距離の分布から、その平均を0とした場合のその標準
偏差σを求める。ここで、参照ベクトルに対する学習サ
ンプルの距離の分布は例えば図7に示すようになってい
る。このような距離分布の標準偏差を各銘柄毎に求め、
これを銘柄入力部102から入力された銘柄の散布度と
して辞書ファイル110に格納する。
The dispersion degree calculation unit 108 obtains the standard deviation σ for each issue when the average is set to 0 from the distribution of the distances between the reference vector and the principal component vectors of many learning samples. Here, the distribution of the distance of the learning sample with respect to the reference vector is as shown in FIG. 7, for example. The standard deviation of such distance distribution is calculated for each stock,
This is stored in the dictionary file 110 as the dispersion degree of the brand input from the brand input unit 102.

【0042】以下、辞書ファイル110に格納された全
銘柄の参照ベクトルと散布度を総称して辞書と呼ぶ。
Hereinafter, the reference vectors and the degree of dispersion of all the brands stored in the dictionary file 110 are collectively called a dictionary.

【0043】(B)同定フェーズ 学習フェーズで作成された辞書を用いて、システムに供
給された錠剤とその銘柄とが対応しているかどうかの同
定検査が行なわれる。ここでは、同定対象となる錠剤と
銘柄名とがシステムに入力される。
(B) Identification Phase Using the dictionary created in the learning phase, an identification test is performed to determine whether the tablets supplied to the system correspond to their brands. Here, the tablet to be identified and the brand name are input to the system.

【0044】図1を参照して、まず、入力された錠剤に
ついて、学習フェーズと同様にカメラ撮影及び銘柄名の
入力から始って、画像入力部101から特徴抽出部10
6に至る一連の画像処理が行なわれ、濃淡値ベクトルが
抽出される。
Referring to FIG. 1, first, with respect to the input tablets, starting from the camera photographing and the input of the brand name as in the learning phase, the image input unit 101 to the feature extraction unit 10 are started.
A series of image processing up to 6 is performed and the gray value vector is extracted.

【0045】次に、同定部109が、上記学習フェーズ
で得られた固有ベクトルを用いて、濃淡値ベクトルを主
成分ベクトルに変換する。次に、この主成分ベクトルと
入力された銘柄に対応する参照ベクトルとの間の距離を
計算する。この時、距離関数にはユークリッド距離、類
似度などを用いる。一般的な距離関数については、例え
ば、「舟久保登:視覚パターンの処理と認識、啓学出版
発行、1990」に記載されている。
Next, the identification unit 109 uses the eigenvector obtained in the learning phase to convert the grayscale value vector into a principal component vector. Next, the distance between this principal component vector and the reference vector corresponding to the input brand is calculated. At this time, Euclidean distance, similarity, etc. are used for the distance function. A general distance function is described, for example, in “Noboru Funakubo: Visual Pattern Processing and Recognition, published by Keigaku Shuppan, 1990”.

【0046】ところで、本実施例では、基本となる特徴
ベクトルとして濃淡値ベクトルを用いるため、距離計算
の処理は、参照画像と同定対象画像とを重ね合わせてそ
の一致の度合いを算出していることにほかならない。こ
のような特徴ベクトルは従来のパタン識別システムにお
いてはほとんど用いられることがなかったが、画像情報
を最大限活用できることから、大カテゴリーを処理対象
にする場合には有効である。
By the way, in the present embodiment, since the gray value vector is used as the basic feature vector, the distance calculation process is performed by superimposing the reference image and the identification target image to calculate the degree of coincidence. It is none other than. Such a feature vector has hardly been used in the conventional pattern identification system, but it is effective when a large category is to be processed because it can maximize the use of image information.

【0047】更に、同定部109は、こうして得た距離
を、入力された銘柄に対応する散布度(標準偏差)σか
ら定まる許容値r・σと比較し、この距離が許容値r・
σ内にある場合は、当該錠剤が入力された銘柄に対応す
る錠剤であると判定し、そうでない場合は対応しない別
銘柄の錠剤であると判定し、その判定結果を出力する。
この結果は、自動錠剤包装機において、同定した錠剤を
包装するか、包装せずに排出又は元のタブレットへ戻す
かの選択に利用することが望ましい。或いは、同定結果
に関わらず全ての錠剤を包装することとするが、その包
装紙面に同定結果を印刷するようにし、後に薬剤師がチ
ェックするようにしてもよい。
Further, the identifying unit 109 compares the distance thus obtained with a permissible value r.sigma., Which is determined from the dispersion degree (standard deviation) .sigma.
If it is within σ, it is determined that the tablet is a tablet that corresponds to the input brand, and if not, it is determined that it is a tablet of another brand that does not correspond, and the determination result is output.
It is desirable to utilize this result in the automatic tablet packing machine for selecting whether to pack the identified tablet, discharge it without packing, or return it to the original tablet. Alternatively, all tablets are packaged regardless of the identification result, but the identification result may be printed on the surface of the packaging paper and checked by the pharmacist later.

【0048】ここで、許容値r・σを決める係数rはユ
ーザが任意に設定できるようになっている。例えば、r
=1.0のように許容値が小さい場合、同定の基準は厳
しくなり、銘柄に対応しない錠剤を容易にはじくことが
できるが、実際には対応する錠剤であっても、錠剤表面
のキズ、欠損、その他の理由で参照ベクトルとの距離が
大きい時には、対応しない錠剤と判定され、はじかれて
しまう。逆にr=3.0のように許容値が大きい場合に
は上記の例とは逆の結果が生じる。このように許容値に
よって、本システムのふるまいには大きく異なる。その
ため、例えば安全性を重視して多少でも異なる錠剤はは
じくというように、目的によってユーザが適当な許容値
を設定する必要がある。
Here, the coefficient r that determines the allowable value r · σ can be arbitrarily set by the user. For example, r
= 1.0, the identification standard becomes strict and tablets that do not correspond to the brand can be easily repelled. However, even in the case of tablets that actually correspond, scratches on the tablet surface, When the distance from the reference vector is large due to a lack or other reasons, it is determined that the tablet does not correspond and is repelled. On the contrary, when the allowable value is large such as r = 3.0, the result opposite to the above example is produced. In this way, the behavior of this system varies greatly depending on the allowable value. Therefore, it is necessary for the user to set an appropriate allowable value depending on the purpose, for example, to repel tablets that are slightly different while giving priority to safety.

【0049】以上のように、本実施例の錠剤同定システ
ムでは、人間の目視に頼ることなく銘柄と錠剤の同定検
査を行うことができる。
As described above, in the tablet identification system of this embodiment, the brand and tablet identification inspection can be performed without relying on human visual inspection.

【0050】尚、本発明は上記実施例に限定されるもの
ではなく、その要旨を逸脱しない範囲において種々の異
なる態様で実施可能である。
The present invention is not limited to the above embodiments, but can be implemented in various different modes without departing from the scope of the invention.

【0051】[0051]

【発明の効果】本発明によれば、物品の同定を自動的に
行うことが可能である。特に、錠剤自動包装機の運用に
使用する場合には、確実に正しい錠剤だけを患者に提供
できるので、医療の高品質化を実現することができる。
According to the present invention, it is possible to automatically identify an article. In particular, when used in the operation of an automatic tablet packaging machine, only correct tablets can be reliably provided to the patient, so that high quality medical treatment can be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る錠剤同定システムの構
成を示すブロック図。
FIG. 1 is a block diagram showing the configuration of a tablet identification system according to an embodiment of the present invention.

【図2】同実施例における位置・向き補正部の処理を示
すフローチャート。
FIG. 2 is a flowchart showing processing of a position / orientation correction unit in the embodiment.

【図3】同実施例における特徴抽出部の処理を示すフロ
ーチャート。
FIG. 3 is a flowchart showing a process of a feature extraction unit in the embodiment.

【図4】同実施例における位置・向き補正部を施した後
のグレイ画像の例を示す図。
FIG. 4 is a diagram showing an example of a gray image after applying a position / orientation correction unit in the embodiment.

【図5】同実施例における図4の画像から切り出された
矩形領域を示す図。
FIG. 5 is a diagram showing a rectangular area cut out from the image of FIG. 4 in the embodiment.

【図6】同実施例における図5の画像を小区域に分けた
状態を示す図。
FIG. 6 is a diagram showing a state in which the image of FIG. 5 in the embodiment is divided into small areas.

【図7】同実施例における参照ベクトルに対する学習サ
ンプルの距離分布の例を示す図。
FIG. 7 is a diagram showing an example of a distance distribution of learning samples with respect to a reference vector in the same embodiment.

【符号の説明】[Explanation of symbols]

1 NTSCテレビカメラ 100 コンピュータ 101 画像入力部 102 銘柄入力部 103 逆γ補正部 104 RGBグレイ変換部 105 位置・向き補正部 106 特徴抽出部 107 学習部 108 散布度算出部 109 同定部 1 NTSC TV camera 100 Computer 101 Image input unit 102 Brand input unit 103 Inverse γ correction unit 104 RGB gray conversion unit 105 Position / orientation correction unit 106 Feature extraction unit 107 Learning unit 108 Scattering degree calculation unit 109 Identification unit

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 システムに入力された物品が入力された
カテゴリーに係るものか判定する物品同定システムにお
いて、 前記物品の画像を入力する画像入力手段と、 前記物品のカテゴリーを入力するカテゴリー入力手段
と、 前記入力された画像の濃淡値ベクトルを特徴ベクトルと
して抽出する特徴抽出手段と、 前記抽出した特徴ベクトルと予め用意した前記入力され
たカテゴリーの参照ベクトルとの距離を求め、この距離
が予め定めた許容値内にあるか否かにより、前記入力さ
れた物品が前記入力されたカテゴリーに係るものか否か
を判定する同定手段と、を備えることを特徴とする物品
同定システム。
1. An article identification system for determining whether an article input to the system is related to an input category, and an image input means for inputting an image of the article, and a category input means for inputting the category of the article. A feature extraction means for extracting a gray value vector of the input image as a feature vector, and a distance between the extracted feature vector and a reference vector of the input category prepared in advance, and the distance is predetermined. An article identification system comprising: an identification unit that determines whether or not the input article is related to the input category based on whether or not the article is within a permissible value.
【請求項2】 請求項1記載のシステムにおいて、 システムに或カテゴリーに係る学習サンプルとそのカテ
ゴリーとが入力された時、前記特徴抽出手段により前記
学習サンプルの特徴ベクトルを受けて、前記入力された
カテゴリーの参照ベクトルを算出する学習手段と、 前記算出された参照ベクトルと前記学習サンプルの特徴
ベクトルとの距離の分布の散布度を、前記許容値を決め
るために算出する散布度算出手段と、 前記算出された参照ベクトルと散布度を、前記同定手段
が使用できるように保持する辞書ファイルと、を備える
ことを特徴とする物品同定システム。
2. The system according to claim 1, wherein when a learning sample relating to a certain category and its category are input to the system, the feature extracting means receives the feature vector of the learning sample and inputs the feature vector. Learning means for calculating a reference vector of a category, scatter degree calculation means for calculating the scatter degree of the distribution of the distance between the calculated reference vector and the feature vector of the learning sample, for determining the allowable value, An article identification system, comprising: a dictionary file that holds the calculated reference vector and the degree of dispersion so that the identification unit can use it.
【請求項3】 請求項1記載のシステムにおいて、 前記入力された画像に対し、内在するγ補正の影響を除
去するための逆γ補正を行なう逆γ補正手段を更に備え
ることを特徴とする物品同定システム。
3. The system according to claim 1, further comprising an inverse gamma correction means for performing an inverse gamma correction on the input image so as to remove the influence of an inherent gamma correction. Identification system.
【請求項4】 請求項1記載のシステムにおいて、 前記入力された画像が、RGBカラー画像であり、 前記RGBカラー画像のG成分を用いて、前記RGBカ
ラー画像をグレイ画像に変換するRGBグレイ変換手段
を更に備えることを特徴とする物品同定システム。
4. The system according to claim 1, wherein the input image is an RGB color image, and an RGB gray conversion for converting the RGB color image into a gray image by using a G component of the RGB color image. An article identification system further comprising means.
【請求項5】 請求項1記載のシステムにおいて、 前記入力された画像内の物品領域を一定の位置及び方向
に補正する位置・向き補正手段を更に備えることを特徴
とする物品同定システム。
5. The system according to claim 1, further comprising position / orientation correction means for correcting the article region in the input image to a constant position and direction.
【請求項6】 請求項1記載のシステムにおいて、 前記特徴抽出手段が、前記入力された画像から物品領域
を含む所定サイズの矩形領域を切出し、この矩形領域か
らサンプリングした複数の濃淡値を要素とする濃淡値ベ
クトルを、前記特徴ベクトルとすることを特徴とする物
品同定システム。
6. The system according to claim 1, wherein the feature extracting means cuts out a rectangular area of a predetermined size including an article area from the input image, and sets a plurality of grayscale values sampled from the rectangular area as elements. An article identification system characterized in that a grayscale value vector that is set is the feature vector.
【請求項7】 請求項2記載のシステムにおいて、 前記学習手段が、前記学習サンプルの特徴ベクトルに対
して主成分分析を施して固有値及び固有ベクトルを求
め、これら固有値及び固有ベクトルを用いて前記特徴ベ
クトルを有意な主成分ベクトルに変換し、この主成分ベ
クトルを前記参照ベクトルとし、 前記同定手段が、前記固有ベクトルを用いて同定対象物
品の前記特徴ベクトルを主成分ベクトルに変換し、この
主成分ベクトルと前記参照ベクトルとから同定を行な
う、ことを特徴とする物品同定システム。
7. The system according to claim 2, wherein the learning means performs a principal component analysis on the feature vector of the learning sample to obtain an eigenvalue and an eigenvector, and uses the eigenvalue and the eigenvector to determine the feature vector. Converting to a significant principal component vector, using this principal component vector as the reference vector, the identifying means transforms the feature vector of the identification target article into a principal component vector using the eigenvector, and the principal component vector and the An article identification system characterized by performing identification from a reference vector.
【請求項8】 請求項2記載のシステムにおいて、 前記散布度が、前記指定されたカテゴリーにおける前記
参照ベクトルと予め用意した多数の学習サンプルとの距
離の分布の標準偏差であることを特徴とする物品同定シ
ステム。
8. The system according to claim 2, wherein the scatter degree is a standard deviation of a distribution of distances between the reference vector and a large number of training samples prepared in advance in the designated category. Item identification system.
【請求項9】 請求項2記載のシステムにおいて、 前記許容値が、前記散布度にユーザが可変設定できる係
数を施した値であることを特徴とする物品同定システ
ム。
9. The system according to claim 2, wherein the allowable value is a value obtained by applying a coefficient that can be variably set by the user to the dispersion degree.
JP6047846A 1994-02-22 1994-02-22 Article identification system Expired - Fee Related JP2922110B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6047846A JP2922110B2 (en) 1994-02-22 1994-02-22 Article identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6047846A JP2922110B2 (en) 1994-02-22 1994-02-22 Article identification system

Publications (2)

Publication Number Publication Date
JPH07234941A true JPH07234941A (en) 1995-09-05
JP2922110B2 JP2922110B2 (en) 1999-07-19

Family

ID=12786740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6047846A Expired - Fee Related JP2922110B2 (en) 1994-02-22 1994-02-22 Article identification system

Country Status (1)

Country Link
JP (1) JP2922110B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264742A (en) * 2006-03-27 2007-10-11 Fujifilm Corp Method for detecting face and imaging device using it
JP2019148583A (en) * 2018-01-26 2019-09-05 ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. Identification for spectroscopic quantification with decreased erroneous detection
CN113255467A (en) * 2021-04-30 2021-08-13 广州有酱料网络科技有限公司 Seasoning raw material selling intelligent tracing system
US11656174B2 (en) 2018-01-26 2023-05-23 Viavi Solutions Inc. Outlier detection for spectroscopic classification
US11656175B2 (en) 2018-01-26 2023-05-23 Viavi Solutions Inc. Reduced false positive identification for spectroscopic classification

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56500107A (en) * 1979-03-19 1981-02-05
JPH02292676A (en) * 1989-05-08 1990-12-04 Hitachi Ltd Color document picture processing system
JPH03134779A (en) * 1989-10-20 1991-06-07 Fuji Electric Co Ltd Picture processing device
JPH04316282A (en) * 1991-04-16 1992-11-06 Fuji Photo Film Co Ltd Picture memory device and its operation
JPH05159063A (en) * 1991-12-09 1993-06-25 Nippon Telegr & Teleph Corp <Ntt> Image retrieving device
JPH05297950A (en) * 1992-03-18 1993-11-12 Nec Corp Object positioning device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56500107A (en) * 1979-03-19 1981-02-05
JPH02292676A (en) * 1989-05-08 1990-12-04 Hitachi Ltd Color document picture processing system
JPH03134779A (en) * 1989-10-20 1991-06-07 Fuji Electric Co Ltd Picture processing device
JPH04316282A (en) * 1991-04-16 1992-11-06 Fuji Photo Film Co Ltd Picture memory device and its operation
JPH05159063A (en) * 1991-12-09 1993-06-25 Nippon Telegr & Teleph Corp <Ntt> Image retrieving device
JPH05297950A (en) * 1992-03-18 1993-11-12 Nec Corp Object positioning device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264742A (en) * 2006-03-27 2007-10-11 Fujifilm Corp Method for detecting face and imaging device using it
JP2019148583A (en) * 2018-01-26 2019-09-05 ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. Identification for spectroscopic quantification with decreased erroneous detection
US11656174B2 (en) 2018-01-26 2023-05-23 Viavi Solutions Inc. Outlier detection for spectroscopic classification
US11656175B2 (en) 2018-01-26 2023-05-23 Viavi Solutions Inc. Reduced false positive identification for spectroscopic classification
US11775616B2 (en) 2018-01-26 2023-10-03 Viavi Solutions Inc. Reduced false positive identification for spectroscopic quantification
CN113255467A (en) * 2021-04-30 2021-08-13 广州有酱料网络科技有限公司 Seasoning raw material selling intelligent tracing system

Also Published As

Publication number Publication date
JP2922110B2 (en) 1999-07-19

Similar Documents

Publication Publication Date Title
JP4367757B2 (en) Method and system for outputting formatted information relating to defects in one device of a chain, in particular relating to smearing
US20040136574A1 (en) Face image processing apparatus and method
US6226399B1 (en) Method and system for identifying an image feature and method and system for determining an optimal color space for use therein
TW201419169A (en) Object discrimination device, object discrimination method, and program
KR100422709B1 (en) Face detecting method depend on image
JP2004357277A (en) Digital image processing method
EP1766554A1 (en) Identification of acquisition devices from digital images
KR20060119968A (en) Apparatus and method for feature recognition
JP2002216129A (en) Face area detector, its method and computer readable recording medium
JP2700440B2 (en) Article identification system
JP2922110B2 (en) Article identification system
KR101673558B1 (en) System and method for providing plant information using smart device
EP1298012A3 (en) Method for recognizing and tracking objects
JPH07262379A (en) Article identifying system
JP2002342758A (en) Visual recognition system
JP2879129B2 (en) Article identification system and method
JP2879128B2 (en) Article identification system and method
JPH07262378A (en) Article identifying system
JP2989741B2 (en) Article identification system
JPH07254068A (en) Article identification system
JP2879127B2 (en) Article identification system and method
JP2001202516A (en) Device for individual identification
JPH06309434A (en) Method and device for processing picture
JPH09288068A (en) Appearance inspecting instrument
JP3087788B2 (en) Component position detection method and device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090430

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090430

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100430

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110430

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120430

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 14

LAPS Cancellation because of no payment of annual fees