JP3483039B2 - Identification device based on image signals - Google Patents
Identification device based on image signalsInfo
- Publication number
- JP3483039B2 JP3483039B2 JP24569093A JP24569093A JP3483039B2 JP 3483039 B2 JP3483039 B2 JP 3483039B2 JP 24569093 A JP24569093 A JP 24569093A JP 24569093 A JP24569093 A JP 24569093A JP 3483039 B2 JP3483039 B2 JP 3483039B2
- Authority
- JP
- Japan
- Prior art keywords
- image signal
- unit
- fish
- understanding
- feature extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/80—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
- Y02A40/81—Aquaculture, e.g. of fish
Landscapes
- Farming Of Fish And Shellfish (AREA)
- Processing Of Meat And Fish (AREA)
- Image Analysis (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、CCDカメラなどで取
得した画像信号を処理することにより、CCDカメラに
よる被写体の識別を高速で行うことができる画像信号に
よる識別装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image signal identification apparatus capable of identifying an object by a CCD camera at high speed by processing an image signal obtained by a CCD camera or the like.
【0002】[0002]
【従来の技術】従来、魚体の形状より魚種の選別を行う
ために、白黒画像処理技術を用いたものがある。2. Description of the Related Art Conventionally, there is a method using a black and white image processing technique for selecting fish species from the shape of the fish body.
【0003】すなわち、かかる装置は、半透明のベルト
コンベア状を流れてくる魚体を、半透明のベルトコンベ
アの下より光を当て、シルエット状の魚体を白黒カメラ
で検出し、濃淡画像により認識を行うものである。That is, such an apparatus illuminates a fish body flowing on a semitransparent belt conveyor from below the semitransparent belt conveyor, detects a silhouette fish body with a black and white camera, and recognizes it by a grayscale image. It is something to do.
【0004】かかる計測処理では、魚体の区別を濃度変
換の画像処理技術で行うものであり、魚体の輪郭を求
め、体高、体長等を計測することにより魚種の選別を試
みている。In such a measurement process, fish bodies are distinguished by an image processing technique of density conversion, and an attempt is made to select fish species by obtaining contours of fish bodies and measuring body height, body length and the like.
【0005】[0005]
【発明が解決しようとする課題】しかしながら、上記の
ように濃淡画像により認識を行う装置では、同科の魚等
は形状が似ているため、形状の情報だけでは十分な認識
率が得られず、実用的とはいえない。そのため、実用化
されていない。However, in the device for recognizing with a grayscale image as described above, since the fish of the same family have similar shapes, sufficient recognition rate cannot be obtained only by the shape information. , Not practical. Therefore, it has not been put to practical use.
【0006】この認識率を良くするためには、白黒カメ
ラの白黒画像を用いるのではなく、カラーカメラで撮影
したカラー画像を用いて形状特徴と色特徴の両方を抽出
したほうが有効と思われる。In order to improve the recognition rate, it seems effective to extract both the shape feature and the color feature using a color image taken by a color camera, instead of using a black and white image of a black and white camera.
【0007】しかし、従来のカラー画像処理装置を用い
ようとすると、同カラー画像処理装置は1画面の全ての
データを処理対象としており、必要最小限の魚体の情報
を取り込んで高速で処理するようにはできておらず、そ
のため、大容量のメモリを要し、更に、無駄なアクセス
に時間がかかり、高速で魚種を識別することができない
という問題がある。However, if the conventional color image processing apparatus is used, the same color image processing apparatus targets all the data of one screen, so that the minimum necessary information of the fish body is taken in and processed at high speed. Therefore, there is a problem that a large-capacity memory is required, wasteful access takes time, and fish species cannot be identified at high speed.
【0008】[0008]
【課題を解決するための手段】そこで本発明では、画像
信号を出力する検出部と、同検出部から出力された画像
信号から所定位置の画像信号を抽出して出力する画像信
号分配部と、同画像信号分配部から出力された所定位置
の画像信号を用いて行った識別の結果を外部に出力する
理解部と、検出部と画像信号分配部と理解部の動作を制
御・モニタするホストコンピュータ部とを具備する画像
信号による識別装置において、はじめに、画像信号分配
部は、検出部から出力された1画面分の画像信号をあら
かじめ設定したメッシュ状に区分して、区分したメッシ
ュ状の各領域における所定位置の画像信号のみを理解部
に入力し、同理解部では入力された画像信号に基づいて
背景画像との識別を行うことにより1画面中における存
在位置をメッシュ状の領域単位で認識し、1つあるいは
複数のメッシュ状の領域からなる小領域を特定し、次い
で、画像信号分配部は、理解部で特定した小領域の画像
信号を理解部に入力し、同理解部では入力された画像信
号に基づいて、背景画像との識別を行うことにより形状
抽出を行い、抽出した形状情報に基づいて識別を行うべ
く構成した画像信号による識別装置を提供せんとするも
のである。Therefore, in the present invention, a detector for outputting an image signal, an image signal distributor for extracting and outputting an image signal at a predetermined position from the image signal output from the detector, An understanding unit that outputs the result of identification performed using the image signal at the predetermined position output from the image signal distribution unit to the outside, and a host computer that controls and monitors the operations of the detection unit, the image signal distribution unit, and the understanding unit. In the identification device based on the image signal, the image signal distribution unit first divides the image signal for one screen output from the detection unit into a preset mesh shape, and divides each divided mesh area. Only the image signal at the predetermined position in is input to the understanding unit, and the understanding unit discriminates from the background image based on the input image signal to mesh the existence position in one screen. The image signal distribution unit inputs the image signal of the small region specified by the understanding unit to the understanding unit, and identifies the small region composed of one or a plurality of mesh-shaped regions. Based on the input image signal, the understanding unit performs shape extraction by performing identification with the background image, and provides an identification device based on the image signal configured to perform identification based on the extracted shape information. Is.
【0009】また、理解部は、形状抽出により抽出した
形状情報に基づいて色特徴抽出のための色特徴抽出領域
を特定し、特定した色特徴抽出領域における画像信号に
基づいて、濃度値のヒストグラムの分布を解析すること
により色特徴抽出に基づく識別を行うべく構成したこと
にも特徴を有するものである。Further, the understanding unit specifies a color feature extraction area for color feature extraction based on the shape information extracted by the shape extraction, and a histogram of density values based on the image signal in the specified color feature extraction area. It is also characterized in that it is configured to perform discrimination based on color feature extraction by analyzing the distribution of.
【0010】[0010]
【発明の作用】本発明の画像信号による識別装置を魚種
識別装置として用いた場合には、例えば、漁船で捕獲さ
れ氷づけされた大量の魚体を、水槽等で氷を溶かして、
魚体を1尾づつに分離し、所定の間隔をあけ、水切り装
置等で魚体表面の水分を除去して魚体表面の水膜からの
反射を防止し、コンベア等の搬送装置で、1尾づつに分
離し、所定の間隔をあけて、搬送されている魚体を魚種
識別の対象としている。When the identification device based on the image signal of the present invention is used as a fish species identification device, for example, a large amount of fish caught in a fishing boat and iced is melted in an aquarium or the like,
Separate the fish into individual fish, set a predetermined interval, and remove water from the surface of the fish with a drainer to prevent reflection from the water film on the surface of the fish. The fish bodies that have been separated and are conveyed at predetermined intervals are targeted for fish species identification.
【0011】検出部では、魚体をカラーCCDカメラで
撮影し、アナログ画像信号として画像信号分配部に送
る。In the detecting section, the fish body is photographed by a color CCD camera and sent to the image signal distributing section as an analog image signal.
【0012】画像信号分配部は、ステップ1で、1画面
分の画像信号をあらかじめ設定したメッシュ状に区分し
て、区分したメッシュ状の各領域における所定位置の画
像信号のみをディジタル画像信号に変換して理解部に入
力し、ステップ2では、ステップ1で後述するように理
解部が特定した小領域の画像信号のみをディジタル画像
信号に変換して理解部に入力している。In step 1, the image signal distribution unit divides the image signal for one screen into a preset mesh shape, and converts only the image signal at a predetermined position in each divided mesh area into a digital image signal. Then, in step 2, as will be described later in step 1, only the image signal of the small area specified by the understanding part is converted into a digital image signal and input into the understanding part.
【0013】理解部では、ステップ1で、入力された画
像信号に基づいてカラーCCDカメラ被写体の背景画像
との識別を行うことにより1画面中における存在位置を
メッシュ状の領域単位で認識し、1つあるいは複数のメ
ッシュ状の領域からなる小領域を特定し、ステップ2
で、上記結果から形状を更に詳しく計測するための複数
の領域及び色特徴抽出のための領域の画像情報を画像信
号分配部から入力し、理解部の複数のプロセッサユニッ
トの画像専用プロセッサに割り当てる。なお、画像専用
プロセッサは画像メモリを併用している。そして、複数
の画像専用プロセッサが各プロセッサユニットの汎用プ
ロセッサの制御・支援のもとに詳細な形状特徴抽出を行
い、形状特徴だけの情報で識別が行える場合は結果を魚
種分配装置に送り、形状特徴だけの情報で識別が行えな
い場合は、形状特徴の情報を基にして色特徴抽出のため
の領域の大きさ及び位置を決定し、複数のプロセッサユ
ニットで、色平均、ヒストグラム、共起行列、FFT処
理、HSV変換等の処理を色特徴抽出領域に対して行
い、形状、色特徴抽出の情報を総合的に判断し、魚体の
詳細な識別を行い、魚種や大きさを識別する。In step 1, the understanding unit recognizes the existing position in one screen on a mesh-like region basis by discriminating the subject from the background image of the color CCD camera based on the input image signal. Specify a small area consisting of one or more mesh-shaped areas, and
Then, from the above result, image information of a plurality of regions for measuring the shape in more detail and a region for color feature extraction is input from the image signal distribution unit and assigned to the image-dedicated processors of the plurality of processor units of the understanding unit. The image dedicated processor also uses an image memory. Then, a plurality of image-only processors perform detailed shape feature extraction under the control and support of the general-purpose processor of each processor unit, and if the information can be identified only by the shape features, the result is sent to the fish species distribution device, If the information cannot be identified using only the shape feature information, the size and position of the area for color feature extraction are determined based on the shape feature information, and color averaging, histogram, co-occurrence are performed by multiple processor units. Matrix, FFT processing, HSV conversion, and other processing are performed on the color feature extraction area, the shape and color feature extraction information are comprehensively determined, the fish body is identified in detail, and the fish species and size are identified. .
【0014】以上の動作を画像信号分配部、理解部を構
成する汎用プロセッサ間の高速通信及び搬送部、検出
部、画像信号分配部を統合して制御・モニタを行うホス
トコンピュータ部の働きにより、パイプライン動作で高
速にデータの処理を行って、魚体の識別を迅速かつ確実
に行うことができる。The above operation is performed by the host computer section which controls and monitors by integrating the high-speed communication between the general-purpose processors constituting the image signal distribution section and the understanding section and the control section and the detection section and the image signal distribution section. The data can be processed at high speed by the pipeline operation, and the fish can be identified quickly and reliably.
【0015】本発明の画像信号による識別装置では、上
記のようにしてCCDカメラによる被写体の識別を行う
ものであり、識別装置が魚体識別装置であれば、識別結
果を、例えば、自動的に魚体を分配するように構成した
魚種分配装置等に送って、魚種及び大きさごとに分別し
て、一定数量ごとに箱詰めする等の処理を行うことがで
きる。In the image signal identification device of the present invention, the object is identified by the CCD camera as described above. If the identification device is a fish identification device, the identification result is automatically detected, for example. Can be sent to a fish species distribution device or the like configured to distribute the fish, and the fish can be sorted according to fish species and size, and can be boxed in fixed quantities.
【0016】[0016]
【実施例】以下、本発明の実施例を図面を参照しながら
説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0017】図1は、本発明に係る画像信号による識別
装置を魚種識別装置Kとして用いた場合を示しており、
Aは未選別の魚体を一尾づつ所定間隔を保持して順序よ
く並べ、かつ、魚体表面の水分を除去しながら搬送する
搬送部、Kは魚種及び大きさを識別する魚体理解装置、
Eは理解部Dより得られた識別結果に応じて魚体を魚種
ごとに分離し箱詰めする魚種分配装置、Fは上記搬送部
A、画像信号分配部C、理解部D及び魚種分配装置Eの
動作を制御・モニタするホストコンピュータ部である。FIG. 1 shows a case where the image signal identification device according to the present invention is used as a fish species identification device K.
A is a transportation unit that arranges unsorted fish bodies one by one at a predetermined interval and transports them while removing water on the surface of the fish. K is a fish body understanding device that identifies the fish species and size.
E is a fish species distribution device that separates fish bodies into boxes according to the identification result obtained from the understanding part D, and F is the transport part A, the image signal distribution part C, the understanding part D, and the fish species distribution device. A host computer unit that controls and monitors the operation of E.
【0018】搬送部Aは、投入された氷づけ魚体の氷を
溶かし、1尾づつに分離する水槽4と、同水槽4との間
で水を循環させて、魚体を1尾づつ水切り装置3に運ぶ
水流運搬装置5と、スポンジと冷風によって魚体表面の
水分を一時的に除去する水切り装置3と、水切りした魚
体を1尾づつ検出部BのカラーCCDカメラ2の下に魚
体を運ぶ運搬装置7とで構成している。The transporting section A melts the ice of the thrown fish bodies and circulates the water between the water tanks 4 for separating the fish bodies one by one to drain the fish bodies one by one. A water flow carrier 5 for transporting the fish, a drainer 3 for temporarily removing water on the surface of the fish with a sponge and cold air, and a transporter for transporting the drained fish one by one under the color CCD camera 2 of the detection unit B. It is composed of 7 and.
【0019】水槽4中には、図2に示すように、魚体を
1尾づつに分離するための分離装置4aを設置してい
る。分離装置4aは、モータ駆動によって一定の速度で
回転する回転軸4bに、自動的に伸縮・屈折する腕4c
を放射状に突設し、同腕4cの先端に魚体載せ皿4dを
連設し、この分離装置4aの回転によって、水槽4中の
魚体を魚体載せ皿4dで1尾づつすくいあげ、魚体載せ
皿4dが水流運搬装置5の始端より高位置に達すると、
腕4cを伸長させ、次いで腕4cを下方に屈折させて魚
体載せ皿4dを下向きにすることにより、魚体を1尾づ
つ水流運搬装置5に運搬すべく構成している。As shown in FIG. 2, the water tank 4 is provided with a separating device 4a for separating fish bodies one by one. The separating device 4a includes an arm 4c that automatically expands and contracts on a rotating shaft 4b that rotates at a constant speed by a motor drive.
Are arranged in a radial manner, and a fish placing plate 4d is connected to the tip of the same arm 4c. The fish in the aquarium 4 is scooped up by the fish placing plate 4d one by one by the rotation of the separating device 4a. When reaches a position higher than the start end of the water flow carrier 5,
The arm 4c is extended, and then the arm 4c is bent downward so that the fish body loading tray 4d faces downward, so that the fish bodies are carried one by one to the water stream carrying device 5.
【0020】なお、水槽4中に設置する分離装置4aの
数によって、水流運搬装置5に1尾づつ運搬する魚体の
数を増加することができる。It should be noted that the number of fish bodies to be carried to the water stream carrying device 5 can be increased by the number of separating devices 4a installed in the water tank 4.
【0021】また、魚体載せ皿4dの形状、大きさ等の
調整によって、確実に魚体を1尾づつすくいあげること
ができる。By adjusting the shape and size of the fish loading plate 4d, the fish can be scooped up one by one with certainty.
【0022】かかる構成の搬送部Aでは、魚体を搬送す
るのに主として水流を用いているので、魚体を傷付ける
ことを防止できる。Since the water stream is mainly used to carry the fish in the carrying section A having such a structure, it is possible to prevent the fish from being damaged.
【0023】水切り装置3は、図3に示すように、網状
またはスノコ状等透水性のコンベア3aと、モータ駆動
により上下するスポンジ体6aと、冷風噴出し機6bと
で構成しており、コンベア3aで1尾づつ搬送する魚体
表面の水分を落とし、スポンジ体6aで残った表面の水
分を吸取り、更に冷風噴出し機6bからの冷風で魚体表
面の水分を除去して、魚体の水膜からの反射による撮影
の支障を防止している。As shown in FIG. 3, the draining device 3 is composed of a net-like or slat-like water-permeable conveyor 3a, a motor-driven sponge 6a that moves up and down, and a cold air blower 6b. The water on the surface of the fish, which is conveyed one by one by 3a, is removed, the remaining water on the surface is absorbed by the sponge body 6a, and the water on the surface of the fish is removed by the cool air from the cool air blower 6b. It prevents the trouble of shooting due to the reflection of.
【0024】魚体理解装置Kは、検出部Bと、画像信号
分配部Cと、理解部Dと、これらを制御するホストコン
ピュータ部Fとで構成している。The fish comprehension apparatus K comprises a detection section B, an image signal distribution section C, an understanding section D, and a host computer section F for controlling them.
【0025】検出部Bは、図1に示すように、運搬装置
7の上方に配設した照明ランプ1と、電子シャッタ付の
カラーCCDカメラ2とで構成しており、照明ランプ1
の光を当てた運搬装置7上の魚体をカラーCCDカメラ
2で撮影してアナログRGB画像信号を取得し、同アナ
ログRGB画像信号を画像信号分配部Cに入力してい
る。As shown in FIG. 1, the detection section B is composed of an illumination lamp 1 arranged above the carrying device 7 and a color CCD camera 2 with an electronic shutter.
The color CCD camera 2 captures an image of the fish on the transporting device 7 exposed to the above light to obtain an analog RGB image signal, and the analog RGB image signal is input to the image signal distribution unit C.
【0026】画像信号分配部Cでは、図4に示すよう
に、カラーCCDカメラ2から入力したアナログRGB
画像信号をディジタル画像信号に変換し、同信号を後述
する理解部Dの第1プロセッサユニット14―1と、第
2プロセッサユニット14―2と、第3プロセッサユニ
ット14―3に分配して入力するA/D変換・画像信号
分配ボード11と、同ボード11の動作を制御する画像
信号分配制御用DSPボード12とで構成している。In the image signal distributing section C, as shown in FIG. 4, analog RGB input from the color CCD camera 2 is input.
The image signal is converted into a digital image signal, and the signal is distributed and input to the first processor unit 14-1, the second processor unit 14-2, and the third processor unit 14-3 of the understanding unit D described later. It is composed of an A / D conversion / image signal distribution board 11 and an image signal distribution control DSP board 12 for controlling the operation of the board 11.
【0027】理解部Dは、図4に示すように、第1プロ
セッサユニット14―1と、第2プロセッサユニット1
4―2と、第3プロセッサユニット14―3とで構成し
ている。各プロセッサユニット14―1,14―2,1
4―3は、図5に示すように、それぞれ複数の画像専用
プロセッサ基板15―1〜15―nと、プレーンメモリ
基板16と、汎用プロセッサ基板17とで構成してい
る。各画像専用プロセッサ基板15―1〜15―nは、
それぞれ第1ブロックメモリ15―aと、第2ブロック
メモリ15―bと、マトリックスゲート15―cと、画
像専用プロセッサ15―dとで構成している。As shown in FIG. 4, the understanding section D includes a first processor unit 14-1 and a second processor unit 1
It is composed of 4-2 and a third processor unit 14-3. Each processor unit 14-1, 14-2, 1
As shown in FIG. 5, 4-3 includes a plurality of image-dedicated processor boards 15-1 to 15-n, a plain memory board 16, and a general-purpose processor board 17, respectively. The image-dedicated processor boards 15-1 to 15-n are
Each is composed of a first block memory 15-a, a second block memory 15-b, a matrix gate 15-c, and an image dedicated processor 15-d.
【0028】そして、上記画像信号分配部Cと理解部D
の構成要素は画像信号バス13で接続している。Then, the image signal distribution unit C and the understanding unit D
The constituent elements of are connected by the image signal bus 13.
【0029】画像信号分配部Cでは、検出部Bから入力
したアナログRGB画像信号のうち、ステップ1では、
図6に示すように、1画面分の画像信号をあらかじめ設
定したメッシュ状に区分して、区分したメッシュ状の各
領域における所定位置の画像信号のみをディジタル画像
信号に変換して画像信号バス13を通して理解部Dに入
力し、ステップ2では、ステップ1で後述するように理
解部Dが特定した小領域Gの画像信号のみをディジタル
画像信号に変換して画像信号バス13を通して理解部D
に入力し、理解部Dに設けた第1プロセッサユニット1
4―1と、第2プロセッサユニット14―2と、第3プ
ロセッサユニット14―3に分配して処理している。In the image signal distributor C, among the analog RGB image signals input from the detector B, in step 1,
As shown in FIG. 6, the image signal for one screen is divided into preset meshes, and only the image signals at predetermined positions in the divided mesh-like regions are converted into digital image signals to obtain the image signal bus 13. Through the image signal bus 13 to the understanding section D, and in step 2, only the image signal of the small area G specified by the understanding section D is converted into a digital image signal in step 2, and the understanding section D is inputted through the image signal bus 13.
First processor unit 1 provided in the understanding section D
4-1, the second processor unit 14-2, and the third processor unit 14-3 are distributed and processed.
【0030】各プロセッサユニット14―1,14―
2,14―3にディジタル画像信号を入力する場合に
は、パイプライン処理によって第1ブロックメモリ15
―aと第2ブロックメモリ15―bのうち、処理中では
ない第1ブロックメモリ15―aと第2ブロックメモリ
15―bのいずれか一方に入力してディジタル画像信号
をストアし、ディジタル画像信号伝達の高速化をはかっ
ている。そして、第1ブロックメモリ15―aまたは第
2ブロックメモリ15―bにストアしたディジタル画像
信号を用いて画像専用プロセッサ15―dによる演算を
行い、演算結果を汎用プロセッサ基板17に入力してい
る。Each processor unit 14-1, 14-
When inputting a digital image signal to the second and 14-3, the first block memory 15 is processed by pipeline processing.
-A and the second block memory 15-b, the digital image signal is stored by inputting it to either the first block memory 15-a or the second block memory 15-b which is not being processed. We are trying to speed up the transmission. Then, the digital image signal stored in the first block memory 15-a or the second block memory 15-b is used to perform the calculation by the image-dedicated processor 15-d, and the calculation result is input to the general-purpose processor board 17.
【0031】ホストコンピュータ部Fは、複数の画像専
用プロセッサ基板15―1〜15―n及び複数のプレー
ンメモリ基板16―1〜16―nの並列処理を実行させ
ることによって処理の高速化を実現している。The host computer section F realizes high-speed processing by executing parallel processing of the plurality of image-dedicated processor boards 15-1 to 15-n and the plurality of plane memory boards 16-1 to 16-n. ing.
【0032】そして、これらの結果を用い、汎用プロセ
ッサ基板17でFFT処理等の高速演算処理及び識別を
行っており、更に、第1プロセッサユニット14―1
と、第2プロセッサユニット14―2と、第3プロセッ
サユニット14―3とを並列処理することで、形状特徴
及び色特徴抽出及び魚種識別を高速で行うことができ
る。Using these results, the general-purpose processor board 17 performs high-speed arithmetic processing such as FFT processing and identification, and further, the first processor unit 14-1.
By parallelly processing the second processor unit 14-2 and the third processor unit 14-3, it is possible to perform shape feature and color feature extraction and fish species identification at high speed.
【0033】このようにして、1画面中の必要なディジ
タル画像信号のみを選ぶことによりデータ量を圧縮して
処理の高速化をはかる働きは画像分配部Cが担い、並列
処理を行って演算速度及び識別の高速化をはかる働きは
理解部Dが担い、更に、システム全体のパイプライン処
理による高速化は、2個のブロックメモリ15―a,1
5―bとホストコンピュータ部Fが担い、これらの相乗
効果によってカラー画像による魚種識別の高速化を実現
している。In this way, the image distributing unit C plays a role of speeding up the processing by compressing the data amount by selecting only the necessary digital image signal in one screen, and the parallel processing is performed to perform the operation speed. Further, the understanding unit D is responsible for the speedup of identification, and the speedup by pipeline processing of the entire system is performed by the two block memories 15-a, 1
5-b and the host computer unit F play a role in realizing the speedup of fish species identification by a color image by their synergistic effect.
【0034】次に、前述した領域設定について説明す
る。Next, the above-mentioned area setting will be described.
【0035】図6及び図7は形状特徴抽出の一例とし
て、全長及び体高を計測するためのエッジ抽出を行う小
領域Gの設定方式の説明図であり、ステップ1では、画
像信号分配部Cで、図6で示すように、横X×縦Y画素
の原画像をあらかじめ設定したメッシュ状に区分して、
区分したメッシュ状の各領域における所定位置の画素の
画像信号だけを取出し、理解部Dでキルシュオペレータ
或いは魚体と背景画像の色平均との差等を3原色に対し
て行って、1画面中における存在位置をメッシュ状の領
域単位で認識し、1つあるいは複数のメッシュ状の領域
からなる小領域Gを特定する。FIG. 6 and FIG. 7 are explanatory views of a method of setting a small area G for performing edge extraction for measuring the total length and the body height as an example of shape feature extraction. As shown in FIG. 6, the original image of horizontal X × vertical Y pixels is divided into a preset mesh shape,
Only the image signal of a pixel at a predetermined position in each divided mesh region is extracted, and the understanding unit D performs the difference between the Kirsch operator or the color average of the fish and the background image with respect to the three primary colors, and in one screen. The existence position is recognized for each mesh-shaped area, and the small area G including one or a plurality of mesh-shaped areas is specified.
【0036】次に、ステップ2で、上記ステップ1で理
解部Dにより特定した小領域Gに基づき、画像信号分配
部Cは、小領域Gの画像信号を理解部Dに入力し、同理
解部Dでは入力された画像信号に基づいて、背景画像と
の識別を行うことにより形状抽出を行い、抽出した形状
情報に基づいて識別を行う。Next, in step 2, the image signal distribution unit C inputs the image signal of the small region G to the understanding unit D based on the small region G specified by the understanding unit D in the above step 1, and the understanding unit D receives the image signal. At D, shape extraction is performed by performing discrimination from the background image based on the input image signal, and discrimination is performed based on the extracted shape information.
【0037】特に、抽出した形状情報を用いることによ
って、魚種識別の場合、まず、識別する魚の全長及び体
高等を計測することができる。In particular, in the case of identifying a fish species, it is possible to first measure the total length and height of the identified fish by using the extracted shape information.
【0038】そして、計測した全長情報及び体高情報に
基づいて色特徴抽出のための領域Hの特定等を行う。Then, based on the measured total length information and body height information, the area H for color feature extraction is specified.
【0039】次に、色特徴抽出による魚種識別について
説明する。Next, fish species identification by color feature extraction will be described.
【0040】一例として、同科のゴマサバとマサバを魚
種識別の対象とし、図9で示すように、色特徴抽出領域
Hを色特徴が良く現れる魚体の腹部に設定するのである
が、前記したように、魚体の全長及び体高が±10%以
下の誤差範囲で計測されるので、色抽出のための領域の
位置を設定する場合、±10%の誤差が生じても色特徴
の抽出が可能な領域の大きさを確保すればよいことにな
る。As an example, sesame mackerel and chub mackerel of the same family are targets for fish species identification, and as shown in FIG. 9, the color feature extraction area H is set in the abdomen of the fish body where the color features often appear. As described above, the total length and height of the fish body are measured within an error range of ± 10% or less, so when setting the position of the area for color extraction, it is possible to extract color features even if an error of ± 10% occurs. It is sufficient to secure the size of a large area.
【0041】図10は、ゴマサバの全長方向における濃
度分布であり、図9の破線x上を頭部から腹部の色特徴
抽出領域Hを通って尾鰭方向に走査しており、腹部にお
いて濃度分布が安定しているので、色特徴抽出領域Hの
全長方向における大きさ及び位置のずれが、色特徴の抽
出結果に与える影響が小さいことがわかり、色特徴抽出
領域Hをかなり小さく設定しても色特徴抽出が可能なこ
とがわかる。FIG. 10 is a density distribution in the entire length direction of sesame mackerel, which is scanned on the broken line x in FIG. 9 from the head through the color feature extraction region H of the abdomen in the caudal fin direction. Since it is stable, it can be seen that the shift in the size and position of the color feature extraction area H in the entire length direction has little influence on the color feature extraction result. It turns out that feature extraction is possible.
【0042】図11〜図13に色特徴抽出領域Hの大き
さを変え、図9における設定位置を縦方向に±10画素
(体高の±10%程度)変動させた場合のゴマサバの濃
度値のヒストグラムを示している。11 to 13 show the density value of sesame mackerel when the size of the color feature extraction area H is changed and the set position in FIG. 9 is changed in the vertical direction by ± 10 pixels (about ± 10% of the body height). A histogram is shown.
【0043】色特徴抽出領域Hの大きさを、図11では
横32画素、縦4画素、図12では横32、縦24画
素、図13では横32、縦32画素にしており、図11
のように色特徴抽出領域Hが小さくなると、濃度値のヒ
ストグラムの分布は±10画素の変動に対して大きく変
化するが、図12のように、横32画素、縦24画素程
度の大きさにすれば、位置設定の誤差が現れず、濃度値
のヒストグラムの平均値の変化は71〜79、分散の変
化は77〜86であり、同様にして抽出したマサバの濃
度値ヒストグラム(図14)の平均値の変化91〜9
4、分散の変化30〜53であるから、両者の値を充分
に分離できることになる。The size of the color feature extraction region H is 32 pixels in the horizontal direction and 4 pixels in the vertical direction in FIG. 11, 32 pixels in the horizontal direction and 24 pixels in the vertical direction in FIG. 12, and 32 pixels in the horizontal direction and 32 pixels in the vertical direction in FIG.
When the color feature extraction region H becomes smaller as shown in FIG. 12, the distribution of the histogram of the density values changes largely with respect to the fluctuation of ± 10 pixels, but as shown in FIG. 12, the size becomes about 32 pixels horizontally and 24 pixels vertically. Then, the error of the position setting does not appear, the change of the average value of the histogram of the density value is 71 to 79, and the change of the variance is 77 to 86, and the density value histogram (FIG. 14) of the mackerel extracted in the same manner. Change in average value 91 to 9
4. Since the change in dispersion is 30 to 53, both values can be sufficiently separated.
【0044】したがって、このような手順で決定した色
特徴抽出領域Hで濃度値ヒストグラムの分布を解析する
ことによって、充分に魚種の識別が可能であり、しかも
色特徴抽出領域Hが小さいため、前記形状特徴抽出を含
め、高速で魚種の識別が可能である。Therefore, by analyzing the distribution of the density value histogram in the color feature extraction area H determined by such a procedure, it is possible to sufficiently identify the fish species, and the color feature extraction area H is small. Including the shape feature extraction, it is possible to identify fish species at high speed.
【0046】なお、魚種の識別には、色特徴抽出領域H
の大きさが、横32画素、縦24画素(図12)程度の
大きさにすれば充分であり、横32、縦32画素(図1
3)程の大きさを要しないことがわかる。To identify the fish species, the color feature extraction area H
It is sufficient to set the size of 32 pixels in the horizontal direction and 24 pixels in the vertical direction (FIG. 12) to 32 pixels in the horizontal direction and 32 pixels in the vertical direction (see FIG. 1).
3) It can be seen that the size is not so large.
【0047】また、上記色特徴抽出領域Hを複数設定す
ることにより、識別精度を高めることができる。Further, by setting a plurality of the color feature extraction areas H, the identification accuracy can be improved.
【0048】魚種分配装置Eは、水流運搬装置8と、水
流分配仕分け装置9と、複数の仕分け箱9d―1〜9d
―nとで構成されている。The fish species distribution device E includes a water flow carrier device 8, a water flow distribution / sorting device 9, and a plurality of sorting boxes 9d-1 to 9d.
-N and.
【0049】水流運搬装置8は、水流を用いて運搬装置
7から水流分配仕分け装置9に魚体を運搬するものであ
る。The water stream carrying device 8 carries the fish bodies from the carrying device 7 to the water stream distributing / sorting device 9 using the water stream.
【0050】水流分配仕分け装置9は、図15で示すよ
うに、搬送方向に付設した中央水路9aと、中央水路9
aから分岐した複数の分岐水路9b―1〜9b―nと、
各分岐水路9b―1〜9b―nの始端にそれぞれ対向し
て設けた水流噴出し口9c―1〜9c―nとで構成して
おり、各分岐水路9b―1〜9b―nの終端には、氷が
入った仕分け箱9d―1〜9d―nが配設しており、水
流運搬装置8から受取った魚体は、理解部Dで得られた
魚種識別情報に基づいて選定した水流噴出し口から噴出
する水によって、魚種別に分岐水路9b―1〜9b―n
を流下し、該当する魚種の仕分け箱9d―1〜9d―n
に分別収集する。As shown in FIG. 15, the water flow distribution / sorting device 9 includes a central water channel 9a and a central water channel 9a attached in the transport direction.
a plurality of branch water channels 9b-1 to 9b-n branched from a,
It is composed of water jet outlets 9c-1 to 9c-n provided at the start ends of the respective branch water channels 9b-1 to 9b-n, respectively, and at the end of each of the branch water channels 9b-1 to 9b-n. Are provided with sorting boxes 9d-1 to 9d-n containing ice, and the fish bodies received from the water stream carrier 8 are the water jets selected based on the fish species identification information obtained in the understanding section D. Divergence water channels 9b-1 to 9b-n depending on the type of fish depending on the water ejected from the mouth
And sort boxes 9d-1 to 9d-n for the relevant fish species.
Separately collect.
【0051】[0051]
【発明の効果】請求項1記載の発明によれば、画像信号
を出力する検出部と、同検出部から出力された画像信号
から所定位置の画像信号を抽出して出力する画像信号分
配部と、同画像信号分配部から出力された所定位置の画
像信号を用いて行った識別の結果を外部に出力する理解
部と、検出部と画像信号分配部と理解部の動作を制御・
モニタするホストコンピュータ部とを具備する画像信号
による識別装置において、はじめに、画像信号分配部
は、検出部から出力された1画面分の画像信号をあらか
じめ設定したメッシュ状に区分して、区分したメッシュ
状の各領域における所定位置の画像信号のみを理解部に
入力し、同理解部では入力された画像信号に基づいて背
景画像との識別を行うことにより1画面中における存在
位置をメッシュ状の領域単位で認識し、1つあるいは複
数のメッシュ状の領域からなる小領域を特定し、次い
で、画像信号分配部は、理解部で特定した小領域の画像
信号を理解部に入力し、同理解部では入力された画像信
号に基づいて、背景画像との識別を行うことにより形状
抽出を行い、抽出した形状情報に基づいて識別を行うべ
く構成したことによって、処理するデータ量を非常に少
なくして、画像処理を高速化し、識別処理を高速化する
ことができる。According to the first aspect of the present invention, there is provided a detecting section for outputting an image signal, and an image signal distributing section for extracting and outputting an image signal at a predetermined position from the image signal output from the detecting section. , An operation of the understanding unit that outputs the result of the identification performed using the image signal at the predetermined position output from the image signal distribution unit to the outside, and the operation of the detection unit, the image signal distribution unit, and the understanding unit.
In the image signal identifying apparatus including a host computer unit for monitoring, first, the image signal distribution unit divides the image signal for one screen output from the detection unit into a preset mesh shape, and divides the divided mesh. In the understanding unit, only the image signal at a predetermined position in each region of the shape is input to the understanding unit, and the understanding unit discriminates the background image based on the input image signal to determine the existence position in one screen in the mesh region. Recognizing in units, a small area consisting of one or a plurality of mesh areas is specified, and then the image signal distribution unit inputs the image signal of the small area specified by the understanding unit to the understanding unit, and the understanding unit Then, based on the input image signal, shape extraction is performed by distinguishing from the background image, and it is configured to perform identification based on the extracted shape information. , Very small amount of data to be processed, the image processing faster, it is possible to speed up the identification process.
【0052】請求項2記載の発明によれば、形状抽出に
より抽出した形状情報に基づいて色特徴抽出のための色
特徴抽出領域を特定し、特定した色特徴抽出領域におけ
る画像信号に基づいて、濃度値のヒストグラムの分布を
解析することにより色特徴抽出に基づく識別を行うべく
構成したことによって、確実な識別処理を可能とするこ
とができる。According to the second aspect of the present invention, the color feature extraction area for color feature extraction is specified based on the shape information extracted by the shape extraction, and based on the image signal in the specified color feature extraction area, By performing the classification based on the color feature extraction by analyzing the distribution of the histogram of the density values, the reliable classification process can be performed.
【図1】本発明に係る魚種識別装置の構成を示す説明
図。FIG. 1 is an explanatory diagram showing a configuration of a fish species identification device according to the present invention.
【図2】搬送部の水槽及び水流運搬装置の側面図。FIG. 2 is a side view of a water tank and a water stream carrying device of a carrying section.
【図3】搬送部の水切り装置の側面図。FIG. 3 is a side view of the water draining device of the transport section.
【図4】画像信号分配部と魚体理解部の構成を示す説明
図。FIG. 4 is an explanatory diagram showing a configuration of an image signal distribution unit and a fish body understanding unit.
【図5】魚体理解部の構成を示す説明図。FIG. 5 is an explanatory diagram showing a configuration of a fish body understanding unit.
【図6】小領域設定方式の説明図。FIG. 6 is an explanatory diagram of a small area setting method.
【図7】小領域設定方式の説明図。FIG. 7 is an explanatory diagram of a small area setting method.
【図8】小領域の画素数とブロックメモリ容量との関係
を示すグラフ。FIG. 8 is a graph showing the relationship between the number of pixels in a small area and the block memory capacity.
【図9】色特徴抽出領域の設定位置と大きさを示す説明
図。FIG. 9 is an explanatory diagram showing setting positions and sizes of color feature extraction areas.
【図10】体長方向の濃度値ヒストグラム。FIG. 10 is a density value histogram in the body length direction.
【図11】色特徴抽出領域の濃度値ヒストグラム(ゴマ
サバ)。FIG. 11 is a density value histogram of a color feature extraction area (Sesame mackerel).
【図12】色特徴抽出領域の濃度値ヒストグラム(ゴマ
サバ)。FIG. 12 is a density value histogram of a color feature extraction area (Sesame mackerel).
【図13】色特徴抽出領域の濃度値ヒストグラム(ゴマ
サバ)。FIG. 13 is a density value histogram of a color feature extraction area (Sesame mackerel).
【図14】色特徴抽出領域の濃度値ヒストグラム(マサ
バ)。FIG. 14 is a density value histogram (masaba) of the color feature extraction area.
【図15】水流分配仕分け装置の平面図。FIG. 15 is a plan view of a water flow distribution / sorting device.
B 検出部 C 画像信号分配部 D 理解部 F ホストコンピュータ部 G 小領域 H 色特徴抽出領域 2 カラーCCDカメラ 14―1 第1プロセッサユニット 14―2 第2プロセッサユニット 14―3 第3プロセッサユニット 17 汎用プロセッサ基板 15―a 第1ブロックメモリ 15―b 第2ブロックメモリ 15―c マトリックスゲート 15―d 画像専用プロセッサ 15―1〜15―n 画像専用プロセッサ基板 16―1〜16―n プレーンメモリ基板 B detector C image signal distributor D Understanding Department F Host computer section G small area H color feature extraction area 2 color CCD camera 14-1 First processor unit 14-2 Second processor unit 14-3 Third processor unit 17 General-purpose processor board 15-a First block memory 15-b Second block memory 15-c Matrix gate 15-d Image dedicated processor 15-1 to 15-n Image-only processor board 16-1 to 16-n plain memory board
───────────────────────────────────────────────────── フロントページの続き (72)発明者 長田 純夫 長崎県大村市宮小路3−6−204 (72)発明者 指方 顕 長崎県佐世保市広田三丁目3−2−302 (56)参考文献 特開 平6−6793(JP,A) 特開 平5−159064(JP,A) 特開 平5−20455(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 H04N 7/18 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Sumio Nagata 3-6-204 Miyakoji, Omura-shi, Nagasaki Prefecture (72) Inventor Shikata 3-3-302 Hirota, Sasebo City, Nagasaki Prefecture (56) References JP-A-6-6793 (JP, A) JP-A-5-159064 (JP, A) JP-A-5-20455 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G06T 7/00-7/60 G06T 1/00 H04N 7/18
Claims (2)
検出部(B)から出力された画像信号から所定位置の画
像信号を抽出して出力する画像信号分配部(C)と、同
画像信号分配部(C)から出力された所定位置の画像信
号を用いて行った識別の結果を外部に出力する理解部
(D)と、検出部(B)と画像信号分配部(C)と理解
部(D)の動作を制御・モニタするホストコンピュータ
部(F)とを具備する画像信号による識別装置におい
て、 はじめに、画像信号分配部(C)は、検出部(B)から
出力された1画面分の画像信号をあらかじめ設定したメ
ッシュ状に区分して、区分したメッシュ状の各領域にお
ける所定位置の画像信号のみを理解部(D)に入力し、
同理解部(D)では入力された画像信号に基づいて背景
画像との識別を行うことにより1画面中における存在位
置をメッシュ状の領域単位で認識し、1つあるいは複数
のメッシュ状の領域からなる小領域(G)を特定し、 次いで、画像信号分配部(C)は、理解部(D)で特定
した小領域(G)の画像信号を理解部(D)に入力し、
同理解部(D)では入力された画像信号に基づいて、背
景画像との識別を行うことにより形状抽出を行い、抽出
した形状情報に基づいて識別を行うべく構成したことを
特徴とする画像信号による識別装置。1. A detector (B) for outputting an image signal, and an image signal distributor (C) for extracting and outputting an image signal at a predetermined position from the image signal output from the detector (B). The understanding unit (D) that outputs the result of the identification performed using the image signal at the predetermined position output from the image signal distribution unit (C), the detection unit (B), and the image signal distribution unit (C). In the identification device based on an image signal, which includes a host computer unit (F) that controls and monitors the operation of the understanding unit (D), first, the image signal distribution unit (C) is output from the detection unit (B). The image signal for one screen is divided into preset mesh shapes, and only the image signal at a predetermined position in each divided mesh area is input to the understanding unit (D).
The understanding unit (D) recognizes the existing position in one screen in mesh area units by discriminating it from the background image based on the input image signal, and recognizes it from one or a plurality of mesh areas. Then, the image signal distribution unit (C) inputs the image signal of the small region (G) specified by the understanding unit (D) to the understanding unit (D).
The understanding unit (D) is configured to perform shape extraction by performing discrimination from a background image based on the input image signal, and to perform discrimination based on the extracted shape information. Identification device.
た形状情報に基づいて色特徴抽出のための色特徴抽出領
域(H)を特定し、特定した色特徴抽出領域(H)にお
ける画像信号に基づいて、濃度値のヒストグラムの分布
を解析することにより色特徴抽出に基づく識別を行うべ
く構成したことを特徴とする請求項1記載の画像信号に
よる識別装置。2. The understanding unit (D) specifies a color feature extraction area (H) for color feature extraction based on the shape information extracted by the shape extraction, and an image in the specified color feature extraction area (H). The image signal identifying apparatus according to claim 1, wherein the image signal identifying apparatus is configured to perform color feature extraction-based identification by analyzing a distribution of a density value histogram based on the signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24569093A JP3483039B2 (en) | 1993-09-30 | 1993-09-30 | Identification device based on image signals |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24569093A JP3483039B2 (en) | 1993-09-30 | 1993-09-30 | Identification device based on image signals |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07231733A JPH07231733A (en) | 1995-09-05 |
JP3483039B2 true JP3483039B2 (en) | 2004-01-06 |
Family
ID=17137367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24569093A Expired - Fee Related JP3483039B2 (en) | 1993-09-30 | 1993-09-30 | Identification device based on image signals |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3483039B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4324170B2 (en) | 2005-03-17 | 2009-09-02 | キヤノン株式会社 | Imaging apparatus and display control method |
JP5171468B2 (en) | 2008-08-06 | 2013-03-27 | キヤノン株式会社 | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
KR101269790B1 (en) | 2009-12-10 | 2013-05-30 | 한국전자통신연구원 | Apparatus and Method for parallel processing data flow |
ES2552397B1 (en) * | 2014-05-27 | 2016-09-14 | Tecnología Marina Ximo, S.L. | System and method for estimating tuna caught by species on board fishing vessels |
EP3239925A1 (en) * | 2014-12-10 | 2017-11-01 | Nireco Corporation | Fish type determination device and fish type determination method |
JP6632042B2 (en) * | 2016-08-26 | 2020-01-15 | Necソリューションイノベータ株式会社 | Live fish management system |
CN106598114A (en) * | 2016-10-26 | 2017-04-26 | 陈鸽 | Remote server-based fish tank control system |
JP7126858B2 (en) * | 2018-05-18 | 2022-08-29 | 古野電気株式会社 | Fish species estimation system, fish species estimation method, and program |
JP6702370B2 (en) * | 2018-07-24 | 2020-06-03 | 日本電気株式会社 | Measuring device, measuring system, measuring method and computer program |
JP7155375B1 (en) * | 2021-10-13 | 2022-10-18 | マルハニチロ株式会社 | Measurement system, information processing device, information processing method and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3030126B2 (en) * | 1991-07-15 | 2000-04-10 | 三洋電機株式会社 | Image processing method |
JPH05159064A (en) * | 1991-12-09 | 1993-06-25 | Nippon Telegr & Teleph Corp <Ntt> | Image searching device |
JP3358142B2 (en) * | 1992-06-23 | 2002-12-16 | 博文 松尾 | Object identification system |
-
1993
- 1993-09-30 JP JP24569093A patent/JP3483039B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH07231733A (en) | 1995-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5253765A (en) | Sorting and grading system | |
JP3483039B2 (en) | Identification device based on image signals | |
Zion et al. | Sorting fish by computer vision | |
French et al. | Deep neural networks for analysis of fisheries surveillance video and automated monitoring of fish discards | |
Paliwal et al. | Grain kernel identification using kernel signature | |
KR101743270B1 (en) | The method for separating and recognizing individual plankton using deep learning in a clumped or dispersed microscopic plankton image | |
EP0089212B1 (en) | Method and apparatus for sorting articles | |
CN108719424A (en) | A kind of aquatic products sorting technique and system based on machine vision | |
CN108805116A (en) | Image text detection method and its system | |
JP2007017163A (en) | Evaluation method of granular product | |
CN108918093B (en) | Optical filter mirror surface defect detection method and device and terminal equipment | |
CN112750104B (en) | Method and device for automatically matching optimal camera by monitoring ship through multiple cameras | |
Pearson et al. | A machine vision system for high speed sorting of small spots on grains | |
JP2001304946A (en) | Weight-measuring device and automatic fish-selecting device | |
US4566123A (en) | Standard memory take in method | |
JP2001503897A (en) | Pipeline processor for medical and biological image analysis | |
JPH08261737A (en) | Device and method for inspecting net shape object | |
JP3783835B2 (en) | Quantity measuring device for fish going up the fishway | |
JPH07113969B2 (en) | Image processing method | |
JP3055205B2 (en) | Fruit and Vegetable Scratch Detection Device | |
JPH067171B2 (en) | Moving object detection method | |
CN118196639A (en) | Corn yield estimation method and device | |
CN114187279A (en) | Shrimp larvae marking method and device based on image processing | |
Lambert | Digital enhancement techniques for underwater video image sequences | |
Malpica et al. | Morphological segmentation of clustered nuclei in analytical cytology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030902 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |