JPH04505817A - Method and apparatus for processing image signals - Google Patents

Method and apparatus for processing image signals

Info

Publication number
JPH04505817A
JPH04505817A JP2508004A JP50800490A JPH04505817A JP H04505817 A JPH04505817 A JP H04505817A JP 2508004 A JP2508004 A JP 2508004A JP 50800490 A JP50800490 A JP 50800490A JP H04505817 A JPH04505817 A JP H04505817A
Authority
JP
Japan
Prior art keywords
color
pixel
background
coordinates
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2508004A
Other languages
Japanese (ja)
Inventor
ティレット,ロビン・デアードレ
マクファーレーン,ナイジェル・ジェイムス・ブルース
Original Assignee
ナショナル・リサーチ・ディベロプメント・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ナショナル・リサーチ・ディベロプメント・コーポレーション filed Critical ナショナル・リサーチ・ディベロプメント・コーポレーション
Publication of JPH04505817A publication Critical patent/JPH04505817A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。 (57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 イメージ信号を処理するための方法及び装置く技術分野〉 本発明は、物体のイメージを表わす信号を処理するための、特に、しかし排他的 ではない、複雑な形状を有し且つその視覚イメージ信号の処理を困難にする影を 投じるような三次元物体の視覚イメージ信号を処理するだめの方法及び装置に関 する0本発明は、例えば植物物質の微小増殖に用いられるロボ7)装置の誘導の ための植物物質のイメージの処理における特定であるが排他的でない応用を有す る。[Detailed description of the invention] Technical field: method and device for processing image signals The present invention particularly, but exclusively, provides a method for processing signals representing images of objects. shadows that have complex shapes and make it difficult to process the visual image signal. Relating to a method and apparatus for processing visual image signals of three-dimensional objects such as objects The present invention is directed to the guidance of a robot 7) device used for micro-propagation of plant materials, for example. has particular but not exclusive application in the processing of images of plant matter for Ru.

〈背景技術〉 植物の組織培養からの成長、即ち微小増殖は、多分、病気抵抗性等の好ましい性 質を所有する多数の遺伝学的に同等な植物を短時間の内に生成することのできる 技術である。斯かる植物を解剖したり移植する作業は労働集約的であり且つ反復 的であり、ロボットの使用によって達成することのできる速度、不稔性及び労働 経費における利得によって自動化は高速に拡大する微小増殖業に対する魅力的な 見通しをつけるものとなる。しかしながら、自動化は困難であり、生物物体の自 然変異性を取扱うことのできるロボット誘導の方法を必要とする。視覚処理は農 業の他の領域、例えばトマト分類、果物収穫、及び植物同定における同様の問題 に通用されてきた感覚制御の方法である。しかしながら、これらの技術は植物物 質の性質及び定位することが必要な植物の節等の特性の故に微小増殖に応用する ことが困難である。<Background technology> Growth from tissue culture of plants, i.e. micropropagation, probably improves desirable properties such as disease resistance. capable of producing in a short time a large number of genetically equivalent plants possessing the quality It's technology. Dissecting and transplanting such plants is labor intensive and repetitive. speed, sterility and labor that can be achieved through the use of robots. Cost gains make automation attractive to rapidly expanding micropropagation industries. It will give you perspective. However, automation is difficult and We need a method of robot guidance that can handle natural variability. Visual processing is agricultural Similar problems in other areas of industry, such as tomato classification, fruit harvesting, and plant identification This is a method of sensory control that has been widely used in the past. However, these techniques are It is applied to micropropagation due to its quality and characteristics such as plant nodes that need to be located. It is difficult to do so.

微小増殖の関係において解決されるべき問題は、分析される植物物質が三次元で あり、草木の全体においては影が背景の表面に投じられるということである。The problem to be solved in the context of micropropagation is that the plant material to be analyzed is three-dimensional. This means that the entire plant casts a shadow on the surface of the background.

するとイメージを分析すること及び植物の暗い領域と影になった背景表面の暗い 領域とを区別すること、並びに植物の最も明るい部分と背景表面の照明された領 域とを区別することが困難になる。You can then analyze the image and identify the dark areas of the plant and the dark shadowed background surface. areas, as well as the brightest parts of the plant and the illuminated areas of the background surface. It becomes difficult to distinguish between regions.

本発明によると、電磁線によって形成された物体のイメージを表わす信号を処理 する方法において、実質的に均一色の背景に対して配置された三次元物体のイメ ージを表わすイメージ信号を発生する段階、上記イメージ信号の画素の色を分析 して画素の色を表わす画素のための座標を与える段階、及び上記画素の座標が、 上記背景の照明の異なった値の範囲を通して背景の色を表わす色空間における所 定範囲の内側にあるかあるいは外側にあるかに従って画素を背景を表わす画素あ るいは物体を表わす画素として分類する段階を含む方法が提供される。According to the invention, a signal representing an image of an object formed by electromagnetic radiation is processed. The method of The step of generating an image signal representing the image, and analyzing the color of the pixels of the image signal. providing coordinates for a pixel representing the color of the pixel, and the coordinates of the pixel are The location in the color space that represents the color of the background through a range of different values of background illumination above. Pixels representing the background are classified according to whether they are inside or outside a certain range. A method is provided that includes classifying a pixel as a pixel representing a pixel or an object.

「色」と言う用語がイメージ信号に関連して用いられる場合、この用語が意味す る物が、この色を画定する電磁線が視覚範囲内あるいは視覚範囲外、例えば赤外 線範囲あるいは紫外線範囲にあっても、イメージ信号によって表わされる電磁線 の周波数成分である。When the term ``color'' is used in connection with an image signal, what is meant by it? If the electromagnetic radiation that defines this color is within the visual range or outside the visual range, e.g. Electromagnetic radiation represented by an image signal, even in the line or ultraviolet range is the frequency component of

好ましい応用において、この方法は物体に関する且つ上記分類された画素から引 き出された位置信号を含む出力信号を生成する段階を含んでいる。別の好ましい 段階は、上記の分類された画素から引き出された情報を含む上記物体のイメージ を表わす出力信号を生成することを含んでいる。In a preferred application, the method uses pixels related to the object and derived from said classified pixels. and generating an output signal including the extracted position signal. another preferred The step is to create an image of the object containing information derived from the classified pixels. and generating an output signal representative of the .

好ましい形において、この方法は、画素の色を分析して三次元色空間における画 素の座標を与えること、及び画素の色座標が背景の色を表わす領域を略包囲する 上記三次元色空間における所定の容積の内側あるいは外側にあるかに従って画素 を背景を表わす画素又は物体を表わす画素として分類することを含んでいる。In a preferred form, the method analyzes the color of pixels to create an image in a three-dimensional color space. The pixel's color coordinates approximately encompass the area representing the background color. Pixels according to whether they are inside or outside a given volume in the above three-dimensional color space This includes classifying the pixel as a pixel representing a background or a pixel representing an object.

上記所定容積の背景色領域を略包囲して且つ色空間の原点に向っている実質的に 円錐形状の容積であることが好ましい。substantially surrounding the background color area of the predetermined volume and facing the origin of the color space; Preferably, it is a conically shaped volume.

好ましい特性によると、この方法は所定のしきいより原点に近く存在している画 素、斯かる画素が色空間における上記所定容積内にあるにいかんに拘らず物体と して分類する段階を含んでいる。これは、色空間における上記の実質的に円錐形 状の容積が原点に近い所で先端を切られており、円錐の先端を切られた底部を越 えて存在する如何なる画素も物体として識別されるであろうことを意味する。According to the favorable property, the method uses images that lie closer to the origin than a given threshold. element, whether or not such a pixel is within the above-mentioned predetermined volume in the color space. It includes a stage of classification. This is essentially a cone of the above in color space The volume of the cone is truncated close to the origin and extends beyond the truncated base of the cone. This means that any pixel that is present will be identified as an object.

この割当を行うことにより物体における特定の間隔が物体として識別された場合 においても、暗い影が物体の材質のヘリに非常に近くなるため、斯かる領域は物 体自体に非常に近くなる。When a specific interval in an object is identified as an object by making this assignment Even in this case, the dark shadows are very close to the edge of the material of the object, so such areas are Become very close to the body itself.

1つの実用的な構成において、上記の実質的に円錐形状の容積は背景の色を表わ す色空間における領域から原点に向っている円錐によって定義することができる 。正常な照明における背景の色が三次元色空間における球体によって返信的に表 わされる場合、三次元色空間の原点に向っているこの球体から取られた円錐は背 景表面の影の領域に相当する色座標を含むことが見い出されている。視覚イメー ジの分析においてこの円錐内に存在する色を有する如何なる画素も背景に対して 割当られた場合は、そうでなければ物体自体の物質と混同されていたであろう複 雑な物体における更により明確な間隔又は空間を選び出すことが可能である。In one practical configuration, the substantially conically shaped volume represents a background color. can be defined by a cone pointing from a region in color space to the origin. . The color of the background in normal illumination is represented by a sphere in a three-dimensional color space. If the cone taken from this sphere pointing towards the origin of the three-dimensional color space is It has been found to contain color coordinates corresponding to the shadow areas of the scene surface. visual image In the analysis of the image, any pixel whose color lies within this cone is compared to the background. If assigned, the compound that would otherwise have been confused with the substance of the object itself is It is possible to pick out even more distinct intervals or spaces in a cluttered object.

本発明の方法の特定の使用において、画素の分類の結果は物体の輪郭を表わす出 力信号を生成するのに利用することができる。別の使用において、分類結果は所 定の特定の特徴、例えば植物の節を有する物体における定位の空間座標を引出す のに利用することができる。In a particular use of the method of the invention, the result of the pixel classification is an output representing the contour of the object. It can be used to generate force signals. In another use, the classification results are Deriving spatial coordinates of localization in objects with certain specific features, e.g. plant nodes It can be used for.

この方法の1つの好ましい実用的な例において、分類段階は、(i)1つの画素 に対して、αが背景色の色空間における平均ベクトルとこの画素の色空間におけ るベクトルとの角度である所の、以下の式によって与えられるcosαの値を計 算する段階: rr+gg+rb哨 (r” +g” +b”)” (r” +g” +b’)””cos et(こ こでr、g及び5は背景色の平均ベクトルの赤、緑及び青色座標であり、r、g 及びbは画素のベクトルの色座標である)(ii)1つの画素に対して、cos αが、φが背景色を表わし且つ原点に向っている領域から取られた上記円錐形状 容積の半角を表わす所定の定数である所のcosφより大きいか否かを決定する 段階、及び(iii)cogα>cosφの不等式が保持される場合この画素を 背景として分類する段階 を含み得る。In one preferred practical example of this method, the classification step comprises (i) one pixel , α is the average vector in the background color color space and the average vector in the color space of this pixel. Calculate the value of cosα given by the following formula at the angle with the vector Steps to calculate: rr+gg+rb sentry (r”+g”+b”)”(r”+g”+b’)””cos et(this Here, r, g, and 5 are the red, green, and blue coordinates of the average vector of the background color, and r, g and b are the color coordinates of the pixel vector) (ii) For one pixel, cos The above conical shape taken from the area where α represents the background color and φ points towards the origin. Determine whether it is larger than a certain cosφ, which is a predetermined constant representing the half-angle of the volume. and (iii) this pixel if the inequality cogα>cosφ holds. Stage of classification as background may include.

斯かる構成において、この方法は所定しきい(スレシラホールド)より下の値の 色座標を育する画素を物体として分類すること、及び前記のバラグラフにおいて 規定された段階を所定強度しきいより上の画素のみに対して用いることを含み得 る。In such a configuration, the method detects values below a predetermined threshold (threshold) Classifying pixels that develop color coordinates as objects, and in the above-mentioned bar graph may include using a defined step only for pixels above a predetermined intensity threshold. Ru.

この方法は、色空間における背景領域のパラメータがイメージ背景の典型として 得られる画素のサンプルから計算される学習段階を含み得る。実用的な応用にお いて、これは同一の背景を有するイメージのシリーズの全体に対して一度達成さ れるだけでよい。この学習段階を実施するために、この方法は背景の色イメージ を表わす構成イメージ信号を発生し、背景の画素のサンプルを分析して背景の色 座標を与え、これらのサンプル色座標から、三次元色空間における原点に色空間 において背景画素のサンプルの色座標を略包囲している容積を接合することによ って形成されている円錐の平均ベクトル角及び返信半角を計算する段階によって 、背景を表わす上記の所定の領域、例えば色空間における実質的に円錐形状の領 域のパラメータを計算する予備段階を含み得る。In this method, the parameters of the background region in the color space are It may include a learning phase computed from the resulting pixel samples. For practical applications and this is accomplished once for the entire series of images with the same background. All you have to do is To perform this learning step, the method uses a background color image generates a constituent image signal representing the background color and analyzes a sample of background pixels to determine the background color. from these sample color coordinates to the origin in the three-dimensional color space. By joining a volume that approximately surrounds the color coordinates of the background pixel sample in by calculating the average vector angle and return half-angle of the cone formed by , the above predetermined region representing the background, e.g. a substantially cone-shaped region in color space. It may include a preliminary step of calculating the parameters of the area.

本発明の方法に関して上記に述べられてきた本発明の特徴は、本発明に係る装置 に関して等しく通用可能である。The features of the invention that have been described above with respect to the method of the invention are such that the device according to the invention It is equally applicable to

特に、本発明によると、電磁線によって形成された物体のイメージを表わす信号 を処理するための装置において、実質的に均一の色の背景に対して配置された三 次元物体のイメージを表わすイメージ信号を発生するための手段、及びこの信号 の画素の色を分析してこの画素の色を表わす画素に対する座標を与えるための且 つこの画素の座標が、背景の照明の異なった値の範囲を通して背景の色を表わす 色空間における所定の領域の中あるいは外側にあるかに応じて、画素を背景又は 物体を表わす画素として分類するための信号処理手段を含む装置が提供される。In particular, according to the invention, a signal representing an image of an object formed by electromagnetic radiation In an apparatus for processing three Means for generating an image signal representing an image of a dimensional object, and the signal and for analyzing the color of a pixel and giving the coordinates for the pixel representing the color of this pixel. The coordinates of this pixel represent the background color through a range of different values of background illumination. Depending on whether the pixel is inside or outside a given region in color space, it can be An apparatus is provided that includes signal processing means for classifying pixels as representing objects.

〈図面の簡単な説明〉 、本発明の一実施例をここで、添付図面に従って例として述べることにするが、 これらの図面において、 第1図は、植物の視覚イメージ信号を生成するための且つこの信号を利用して植 物物質のロポノト工学的微小増殖を行うための本発明を実施する装置の線図であ り、 第2図は、本発明の一実施例における視覚イメージ信号を処理するためのルーチ ンのフローチャートであり、 第3図は、青色背景表面におけるラッグの微小増殖の黒及び白イメージであり、 第4図は、三次元色空間の線図であって、第4図に示されている点は背景に対す る植物の色イメージにおける画素の色を表わしており、第4a図、4b図、及び 4a図は、第3図に示されている植物及び背景を表わす画素の群を示す、三次元 色空間のそれぞれ両側面図及び平面図である点図表を示しており、 第5a図、5b図及び5a図は、均一に照明された青色背景表面のイメージに対 する色値を示す三次元色空間のそれぞれ両側面図及び平面図である点図表を示し ており、 第6a図、6b図及び60図は、影を生成するように傾斜した照明の下で、同一 の青色背景表面に対する第5a図乃至50図に相当する点図表であり、及び第7 図は、本発明に従って用いられる色値の円錐を示す三次元色空間の線図であり、 第8図は、第3図におけるイメージにおける全ての画素に対して計算される、1 つの画素に対するαが画素ベクトルと平均背景ベクトルとの角度である所のco sαの度数分布図である。<Brief explanation of the drawing> , an embodiment of the invention will now be described by way of example with reference to the accompanying drawings, in which: In these drawings, FIG. 1 shows a method for generating a visual image signal of a plant and using this signal. 1 is a diagram of an apparatus implementing the present invention for loponotically engineered micropropagation of substances; FIG. the law of nature, FIG. 2 shows a routine for processing visual image signals in one embodiment of the invention. is a flowchart of FIG. 3 is a black and white image of lag microproliferation on a blue background surface; Figure 4 is a diagram of a three-dimensional color space, and the points shown in Figure 4 are relative to the background. Figures 4a, 4b, and Figure 4a is a three-dimensional diagram showing groups of pixels representing the plants and background shown in Figure 3. It shows a dot diagram that is a side view and a top view of the color space, respectively. Figures 5a, 5b and 5a are for images of a uniformly illuminated blue background surface. shows a dot diagram that is a double-sided view and a plan view, respectively, of a three-dimensional color space showing the color values to be and Figures 6a, 6b and 60 show the same image under slanted illumination to produce shadows. 5a to 50 for the blue background surface of The figure is a diagram of a three-dimensional color space showing a cone of color values used according to the invention, FIG. 8 shows the 1 co where α for one pixel is the angle between the pixel vector and the average background vector It is a frequency distribution diagram of sα.

〈実施例による説明〉 本発明の実施例が微小増殖中の植物mt@堵養における自動又は半自動作業、例 えば植物からの節の切断に関係して述べられる。第1図において、コンベアベル ト11は植物をソリッドステートカラービデオカメラ12の下を通して運び次に 13で全体的に示されているデカルトロボットシステムのすぐ下を通す、キャリ ジ14は制御デバイス17によって制御されるモータ15及び16によってコン ベアベルト11上の如何なる選択された位置にも移動することができる。コンベ ア11の速度は、カメラ12によって観察される植物の位置がキャリジ14の下 の植物の後続の位置と相関されるように制御デバイス18によって制御される。<Explanation based on examples> Embodiments of the present invention include automatic or semi-automatic operation in micro-propagating plants mt@fertilization, e.g. For example, it is mentioned in connection with cutting nodes from plants. In Figure 1, the conveyor bell The transporter 11 carries the plant under the solid state color video camera 12 and then The carrier passes just below the Cartesian robot system shown generally at 13. The motor 14 is controlled by motors 15 and 16 which are controlled by a control device 17. It can be moved to any selected position on the bare belt 11. conveyor belt The speed of A 11 is such that the position of the plant observed by camera 12 is below carriage 14 by a control device 18 so as to be correlated with the subsequent position of the plant.

キャリジ14は、制御デバイス20の下で作動する作動デバイス、例えば植物を 切断するためのカッタ19を運搬する。制御デバイス17.18及び20は全て メインマイクロコンピュータ21によって制御されている。The carriage 14 carries an actuating device, e.g. a plant, which operates under the control device 20. A cutter 19 for cutting is carried. Control devices 17, 18 and 20 are all It is controlled by a main microcomputer 21.

ビデオカメラ12は本発明を実施する信号処理手段22に第1色視覚イメージ信 号を供給し、その出力に、例えば植物の輪郭の2進視覚イメージを表わし得る第 2イメージ信号を生成する。第2イメージ信号はモニタ23に供給さ担且つマイ クロコンピュータ21にも供給される。(これ以後述べられる)本発明に係る画 素の分類は既存の色情報に付加的な情報を与える。従って改善された2進出力は 1つの可能性ではあるが、灰色レベル又は色情報も用いることができ、無視しな くてもよい。Video camera 12 sends a first color visual image signal to signal processing means 22 embodying the invention. a signal, whose output may represent, for example, a binary visual image of the outline of a plant. 2 image signals are generated. The second image signal is supplied to the monitor 23 and It is also supplied to the computer 21. Images according to the present invention (described hereafter) Plain classification provides additional information to existing color information. Therefore, the improved 2nd place power is Gray level or color information could also be used, although this is a possibility and should not be ignored. You don't have to.

このシステムの作動は半自動又は全自動である。半自動の時は、オペレータはモ ニタ23上のイメージを観察し、マイクロコンピュータ21のキーボードを作動 することにより、例えば植物の所要節(a required node)を切 り取るべく、カンタ19によって切られる定位をモニタ23上で選択する。全自 動システムでは、マイクロコンピュータ21は更に第2イメージ信号を処理し、 節を自動的に位置付け、カッタ19の移動を指示する。幾つかの構成では、信号 処理手段22及びマイクロコンピュータ21は所要の全ての機能を実施するため の1つの信号処理コンピュータによって提供され得る。他の構成では、信号処理 手段22において更に処理が行なわ九信号処理手段22はコンビエータ21にイ メージにおける所要定位の位置情報のみを送る。The operation of this system is semi-automatic or fully automatic. When semi-automatic, the operator Observe the image on the monitor 23 and operate the keyboard of the microcomputer 21. By doing this, for example, you can cut a required node of a plant. The localization cut by the canter 19 is selected on the monitor 23 in order to obtain the image. Full self In the dynamic system, the microcomputer 21 further processes the second image signal; The knot is automatically positioned and the movement of the cutter 19 is instructed. In some configurations, the signal The processing means 22 and the microcomputer 21 carry out all necessary functions. may be provided by one signal processing computer. In other configurations, signal processing Further processing is carried out in the means 22, and the signal processing means 22 is input to the combiator 21. Only the position information for the desired localization in the image is sent.

第2図は信号処理手段22におけるイメージ信号の処理の主段階を設定するフロ ーチャートを線図の形で示している。このチャートはこの実施例の作動の一般的 な方法が述べられた後以下に詳細に述べられよう。FIG. 2 shows a flowchart for setting the main stages of image signal processing in the signal processing means 22. – Shows the chart in the form of a line diagram. This chart provides a general overview of the operation of this example. The method will be described in detail below after it has been described.

ソリッドステートカラービデオカメラ(solid−state colour  video caa+era)からのビデオ信号はPAL復号器によってその 赤、緑及び青成分に分割される。これらの赤、緑及び青成分はもとの黒及び白ビ デオイメージと一緒にデジタル化され、フレームグラバカード(Frame G rabber card)によってRAMに置かれる。solid-state color video camera The video signal from video caa+era) is decoded by a PAL decoder. Split into red, green and blue components. These red, green and blue components are the original black and white components. It is digitized together with the video image, and a frame grabber card (Frame G Rabber card).

各完全なイメージは、各々が256x256画素を有し且つ各画素に255灰色 レベルが可能な4つの成分イメージから成っている0色イメージにおける各画素 の色及び輝度は赤、緑及び青成分イメージにおけるその灰色レベル値によって決 定さ九例えば、色イメージの赤画素は緑又は青におけるよりも赤成分に高い値を 有する。Each complete image has 256x256 pixels and 255 grays for each pixel. Each pixel in a zero-color image consists of four component images with possible levels The color and brightness of is determined by its gray level values in the red, green and blue component images. For example, a red pixel in a color image has a higher value in the red component than in green or blue. have

これから述べられる例において、用いられるイメージは青色表面の背景に対して 設定されたツツジ属の微小植物のものであり、この背景は主に赤及び緑である植 物に対して最良のコントラストを与えることが判っている。第3図は典型的な黒 白イメージを示している。斯かるイメージを分類する公知の方法は灰色レベルス レシタルディングであり、この方法では画素がそれらの灰色レベルがしきい値よ り上にあるか下にあるかによって「暗」又は明」と呼ばれる。この技術は、イメ ージにおける意図されたカテゴリの灰色レベル値、例えば植物と背景との間に重 なりが存在する時はよく機能しない。例えば、第3図において、植物の茎の内幾 つかは背景より明るいが、背景の影の幾つかは植物と同しように暗くなっており 、このため、灰色レベルスレショルディングの結果は多くの画素が誤分類されて しまうことになる。本発明に従って説明されるように、これらの画素を正しく分 類するにはより多くの情報、例えば色が必要となる。In the example that follows, the image used is against a blue surface background. This is a set of microphytes of the genus Rhododendron, and this background is mainly red and green. It has been found to give the best contrast to objects. Figure 3 is a typical black Shows a white image. A known method for classifying such images is gray levels. Recitalding, in which pixels have their gray level below the threshold. It is called ``dark'' or ``light'' depending on whether it is above or below. This technology The gray level value of the intended category in the page, e.g. the overlap between plants and background. It does not function well when there is a problem. For example, in Figure 3, the inner diameter of the plant stem is The shadows are brighter than the background, but some of the shadows in the background are darker, like the plants. , so the result of gray level thresholding is that many pixels are misclassified. It will end up being put away. These pixels are correctly separated as described according to the present invention. Similarity requires more information, such as color.

ビデオカメラによって生成された色イメージはその赤、緑及び青成分によって完 全に表現されるため、各画素はベクトル又は色空間における点(R,C,B)と して表わされ得る。第4図は、赤、緑及び青を表わすデカルト座標(Carte si−an coordinates) R,G、 Bによって画定される三次 元色空間の線図である。完全に黒い画素は3つの全ての成分においてゼロ値を有 し、従って色空間において点(0,0,0)に見ら瓢一方最高に明るい白画素は (255,255,255)に見られる。全ての色において等しい値を存する灰 色画素は、線R−G−Bに沿って見られる。The color image produced by a video camera is completed by its red, green and blue components. Because it is fully represented, each pixel is a vector or point (R, C, B) in color space. It can be expressed as Figure 4 shows the Cartesian coordinates representing red, green and blue. si-an coordinates) tertiary defined by R, G, B It is a diagram of the original color space. A completely black pixel has zero values in all three components. Therefore, the brightest white pixel is seen at the point (0,0,0) in the color space. (255, 255, 255). Gray with equal value in all colors Color pixels are seen along the line R-G-B.

第4図に示されている点は実質的に均一の色の背景に対する植物(例えば第3図 において黒白で示される植物)の色イメージを示している。第4図に示されてい る図は、実質的に均一の色の背景に対して植物の色イメージの各画素を取り、各 画素の色座標を決定し、次に色空間の適切な座標にこの画素を表わすドツトをプ ロットすることにより達成される。背景及び植物の色をそれぞれ線図で示してい る2つの群のドツトがχ及びYに示されている。しかしながら、これらの点の群 は純粋に線図的であり、次の第4a図、第4b図及び4a図に示されている第3 図の植物の図に位置的に正確に対応していない。The points shown in Figure 4 are for plants against a background of substantially uniform color (e.g. It shows the color image of plants (shown in black and white). As shown in Figure 4. The diagram takes each pixel of a color image of a plant against a background of substantially uniform color, and Determine the color coordinates of a pixel, then print a dot representing this pixel at the appropriate coordinates in the color space. This is achieved by making lots. The background and plant colors are shown in line diagrams. Two groups of dots are shown in χ and Y. However, the group of these points is purely diagrammatic and is shown in the following Figures 4a, 4b and 4a. The location does not correspond exactly to the plant diagram in the figure.

第3図に等価な色イメージはその赤、緑及び青成分に分解することができる。A color image equivalent to FIG. 3 can be decomposed into its red, green and blue components.

色空間における画素の分布は第4a図、4b図及び40図に示されている点図表 によって最も良く見ることができ、これらの点図表において、各画素の色成分は 互いにプロットされている。これらの点図表はある点における画素の濃度が陰影 によって表わされている色空間キューブの側面図及び平面図である。The distribution of pixels in the color space is shown in the dot diagrams shown in Figures 4a, 4b and 40. In these point diagrams, the color components of each pixel are are plotted against each other. These point charts show the density of pixels at a certain point. FIG. 2 is a side view and a top view of a color space cube represented by FIG.

第4a図、4b図及び4a図における点図表において、2つの群が見え、一方は 植物に対応しており、他方は背景に対応している。明るい背景からの画素は、こ れらが3つの全ての色における大きな値を有するため、優勢的に異い植物よりも 原点から遠い群を形成している。赤青点図表である第4b図において、背景群は その青さの故に線R−Bより上にある。前軸に向う同し傾向が第4C図の青緑点 図表に見られるが、第4a図の赤緑点図表は、第3図の植物において赤と緑イメ ージの間に殆んど差がないためどの群においても赤と緑値の間に殆んど差を示し ていない。In the dot diagrams in Figures 4a, 4b and 4a, two groups are visible, one One corresponds to the plants and the other corresponds to the background. Pixels from a bright background are dominantly different plants because they have greater values in all three colors. They form a group far from the origin. In Figure 4b, which is a red-blue dot diagram, the background group is Because of its blue color, it is above the line R-B. The same tendency toward the front axis is the blue-green point in Figure 4C. As can be seen in the diagram, the red-green dot diagram in Figure 4a is the red and green dot diagram for the plants in Figure 3. There is almost no difference between the red and green values in any group. Not yet.

第5a図、5b図及び5C図は均一に照明された純粋な青の背景の色空間分布を 示す点図表であり、第6a図、6b図及び60図はイメージに対して傾斜してい る照明を生じるために影が投げかけられた後の同じ背景表面の点図表を示してい る。第5a図乃至50図における分布は、全ての画素ベクトルが色空間における 特定の点に近い類恨の赤、緑及び青レベルを存していることを示す小さな楕円形 物である。影がイメージに投じられると、第6a図乃至60図に示されるように 、この楕円は色ベクトルがそれらの係数を変えるがそれらの方向は変えない場合 に予想されるように円錐の後尾を原点の方向に延ばす、これは、色ベクトルの輝 度又は強度がその係数の関係であり、その「色」がその方向の関数であるという 解釈と一致している。点図表6a、b、及びCの円錐分布は色空間の三次元図の 形で第7図に線図で示されている。この円錐はZで示されており、勿論第6a図 乃至60図に示されている実際の実験的結果から形状的に簡略化されている。Figures 5a, 5b and 5c show the color space distribution of a uniformly illuminated pure blue background. Figures 6a, 6b, and 60 are point diagrams shown at an angle to the image. shows a dot diagram of the same background surface after a shadow has been cast to produce the same illumination. Ru. The distributions in Figures 5a to 50 show that all pixel vectors are in the color space. A small oval indicating that similar red, green and blue levels exist near a particular point. It is a thing. When a shadow is cast on the image, as shown in Figures 6a-60, , this ellipse is created if the color vectors change their coefficients but not their directions extends the tail of the cone towards the origin as expected in It is said that the degree or intensity is a relationship between its coefficients and its "color" is a function of its direction. consistent with the interpretation. The conic distributions of point diagrams 6a, b, and C are three-dimensional diagrams of the color space. The shape is shown diagrammatically in FIG. This cone is designated Z and is of course shown in Figure 6a. The shape has been simplified from the actual experimental results shown in FIGS.

第5a図乃至50図及び6a図乃至60図において見られるように、同じ色では あるが、影のために異なった強度の画素は色空間において円錐形状群を形成して いる0本発明の本実施例の提藁されたアルゴリズムにおいて、画素はそれらの色 ベクトルがサンプル背景群によって画定される円錐の内側又は外側にあるかに応 じて背景又は物体として分類される。As seen in Figures 5a-50 and 6a-60, the same color However, due to shadows, pixels of different intensities form a cone-shaped group in color space. In the proposed algorithm of this embodiment of the invention, pixels have their color depending on whether the vector lies inside or outside the cone defined by the sample background group. are classified as background or object.

このアルゴリズムの初期段階は学習プロセスであり、このプロセスにおいて円錐 の軸方向ベクトル及び半角が背景の典型的なサンプルから派生され、この場合は イメージのへりの回りの幅広スリップである。サンプルが影を含むか否かによら ず、平均背景ベクトルは群の軸の上に存在しなければならないため、軸方向ベク トルはサンプルの平均に設定することができる。サンプルの共分散マトリクスか ら適切な半角を派生することが原理的に可能であるが、実用的な実施例において は、最上の値はあまり変化しないことが判っており、処理の前に定数として簡単 に選択された。The initial stage of this algorithm is the learning process, in which the cone The axial vector and half-angle of are derived from a typical sample of the background, in this case There is a wide slip around the edge of the image. Depending on whether the sample contains shadows or not First, the mean background vector must lie on the group axis, so the axial vector Tor can be set to the average of the samples. Sample covariance matrix Although it is possible in principle to derive an appropriate half-angle from is known to not change much, and is simply set as a constant before processing. was selected.

スカラ積を取ることにより、平均背景ベクトル(下、g、b)と任意ベクトル( r、g、b)との間の角度αは、 rr+gg十bb= (〒1+12十石” )” (r” 十g” +b” )”cos a −−− (1)によって与えられ、且つ軸方向ベクトル(r、g、b)及び半角φを存す る円錐の内側にあるベクトル(r、g、b)は。。sa>。。5φ ・・−・・ ・−(2)であることが判る。By taking the scalar product, the average background vector (lower, g, b) and the arbitrary vector ( The angle α between r, g, b) is rr+gg10bb= (1+120 koku”)”(r”10g”+b”)”cos a--- (1) and has an axial vector (r, g, b) and a half-angle φ The vector (r, g, b) inside the cone is. . sa>. . 5φ・・・−・・ - It turns out that (2) is true.

このアルゴリズムの主部は式(1)からの各画素に対するcosαを計算し、こ れを不等式(2)におけるcosφと比較し、この画素を不等式(2)が保持さ れる場合に背景に割り当てることからなっている0画素当りの処理の量は、7. g及び■の項が学習段階において全て定数として確立され、平方根演算がルック アップテーブル(look−up tables)を通して達成され、cosφ が処理前定数であるためそれ程大きなものではない。The main part of this algorithm is to calculate cos α for each pixel from equation (1) and This pixel is compared with cosφ in inequality (2), and inequality (2) holds this pixel. The amount of processing per 0 pixel that consists of allocating to the background is 7. The terms g and ■ are all established as constants during the learning stage, and the square root operation looks This is achieved through look-up tables, cosφ Since is a pre-processing constant, it is not that large.

第8図は、第3図に見られる植物イメージに相当する色イメージにおける全ての 画素に対して式(1)から計算されたcosαの度数分布図を示している。これ は半角φの実際価を決定するのに用いられ得る。 cosα−1又はα−01に おけるピークは目盛を外れており、除去されている0色空間におけるこれら2つ の群の異なった方向がcosα−0,980又はαム11°でのそれらの間の有 意な谷によっていかに選び出されたかが銘記されよう。αのこの値は、背景円錐 のヘリを強調しているため、式(2)における角度φに対する最上の選択となる 。Figure 8 shows all the colors in the color image corresponding to the plant image seen in Figure 3. A frequency distribution diagram of cos α calculated from equation (1) for a pixel is shown. this can be used to determine the actual value of the half-angle φ. To cos α-1 or α-01 The peaks in 0 are off scale and these two in 0 color space are removed. The different directions of the groups are cos α − 0,980 or the difference between them at α 11°. It will be remembered how he was chosen by the valley of his will. This value of α is the background cone Since it emphasizes the edge of , it is the best choice for the angle φ in equation (2). .

第3a図に!!111mの約5つのイメージは同じように処理キへこの値はα− 10@から2度を超えて変化しないことが見い出された。この値は青色背景にお けるツツジ属の微小植物のイメージ以外のイメージに対して同じであると予想さ れないが、斯かるイメージに対してはそれらの間の変化は小さく、φ−10°を 処理前定数(pre−processiB constant)として固定する ことによりこの計算は簡略化される。In figure 3a! ! Approximately 5 images of 111 m are processed in the same way, and this value is α- It was found that it does not change by more than 2 degrees from 10@. This value is displayed on a blue background. It was expected that the results would be the same for images other than images of microphytes of the genus Rhododendron. However, for such images, the change between them is small, and φ−10° Fixed as a pre-processing constant (pre-processiB constant) This simplifies this calculation.

この半角の選択によって、分類の怒度、即ちどんな種類のエラーが住しるか(背 景が物体として分類されるかあるいはこの逆)に影響する。理論的には、この角 度は背景画素のサンプル、及び恐らくは物体画素のサンプルの色空間における分 布の特定の学習から選択することができる。非常に簡単な戦略は、全てのサンプ ル画素を収態として円錐内に存在せしめた最小角度を選択することである。The selection of this half-width determines the degree of severity of the classification, that is, what kind of errors are present (back It affects whether a scene is classified as an object or vice versa. In theory, this angle The degree of separation in the color space of samples of background pixels, and possibly samples of object pixels. You can choose from specific learning cloths. A very simple strategy is to The first step is to select the smallest angle that allows all pixels to lie within the cone.

1つの実用的な方法は異なった角度を実験的に試し、この分割を目によって評価 することである。別の実用的な方法は度数分布図を作成しく第8図のように)、 約0.98における下降が物体と背景の2つの母集団の間の知覚可能な分岐点を 表わしていると仮定することである。特定の場合において、この半角に対して1 つの万蛯な値を選択することが可能であると見い出されているが、これは多分、 常に当てはまるものではない。一般的に、この半角は予め設定されるか(多分実 験に基づいて)あるいは学習手順の一部として活発に設定することができる。One practical method is to experiment with different angles and evaluate this division by eye. It is to be. Another practical method is to create a frequency distribution map (as shown in Figure 8). The drop at about 0.98 marks the perceptible bifurcation between the two populations of object and background. It is assumed that it represents In certain cases, 1 for this half-angle It has been found that it is possible to choose one thousand values; this is probably because This is not always the case. Generally, this half-width is preset (perhaps actually (based on experience) or actively as part of a learning procedure.

ここで、第2図のフローチャートにおけるA乃至りと指定された段階の作動につ いても説明することにする。このフローチャートは第1図の処理手段22によっ て実行される主処理段階を示している。第2図の段階Aにおいて実行される最初 の段階は、カメラ12からの入力信号から何組かの成分信号を派生することであ る。この処理手段は入力信号を3つの成分色イメージの形で把握し、これをメモ リに記憶するように構成されている。Bにおける次の段階は、処理手段22にお いて行及び列カウンタをリセット(入力ビデオ信号における画素の行及び列に相 当して)し、これらのカウンタが各成分イメージの上部の左手画素を指定するよ うにすることである。Here, regarding the operation of the steps designated as A to A in the flowchart of Figure 2, I will explain it anyway. This flowchart is executed by the processing means 22 in FIG. It shows the main processing steps performed. The first step executed in step A of FIG. The step is to derive a set of component signals from the input signal from the camera 12. Ru. This processing means grasps the input signal in the form of three component color images and writes them down. It is configured to be stored in memory. The next step in B is to provide processing means 22 with resets the row and column counters (corresponds to the row and column of pixels in the input video signal) ) and make these counters specify the top left-hand pixel of each component image. It is to do so.

段F@C乃至Gにおける第2図のフローチャートの中心部は、これらの行及び列 カウンタによって指定される画素の処理を表わしている0段階Cにおいて、各色 成分における画素の灰色レベルがメモリからフェッチされる0段階りにおいて、 これらの値は、αが原点から色空間における画素の位置へのベクトルと原点から 色空間における平均背景色の位置へのベクトルの間の角度である所のcosαを 計算するのに用いられる。 cosαの値は前記に設定された公式に従って段階 已において試験さ担この画素は段階已における試験の結果によりて段階Fにおい て背景としであるいは段階Gにおいて物体として強調される。The center of the flowchart of FIG. 2 in stages F@C to G consists of these rows and columns. At the 0 stage C, which represents the processing of the pixel specified by the counter, each color At step 0, the gray level of the pixel in the component is fetched from memory, These values are defined by α being the vector from the origin to the pixel's position in color space and from the origin Let cos α be the angle between the vector to the position of the average background color in color space. used for calculations. The value of cosα is determined according to the formula set above. This pixel that was tested in step F is determined by the result of the test in step F. It is emphasized as a background or as an object in stage G.

段階H乃至にの組によって、このアルゴリズムはこのイメージの全体を通して進 み、各画素を順次に処理する0段階Hにおいて列カウンタは増分され、このカウ ンタの内容は段l!lIにおいて試験される0画素の現在の行がまだ完了してい ない場合、流れは段階Cに戻り次の画素を処理する。この行が段階rにおいて完 了した場合、流れは段階Jに送ら娠ここで行カウンタは増分され、列カウンタが リセットされる。行カウンタが256に到達すると、全ての画素が処理されたこ とになる。これは段階Kにおいて試験される0行カウンタが256に到達してい ない場合、論理流れは段階℃に戻る。全ての画素が把握された3つの色成分イメ ージにおいて処理された場合、論理流れは段階りに送られ、段階りは3つの成分 色イメージの特定の組に対してのアルゴリズムを終了する。The set of steps H causes the algorithm to progress through this image. The column counter is incremented in the 0 stage H, processing each pixel in turn; The contents of this page are in tier 1! The current row of 0 pixels tested in lI is not yet completed. If not, flow returns to stage C to process the next pixel. This line is completed at stage r. If completed, the flow is sent to stage J where the row counter is incremented and the column counter is will be reset. When the row counter reaches 256, it means that all pixels have been processed. It becomes. This means that the 0 row counter tested in phase K has reached 256. If not, the logic flow returns to step °C. Three color component images with all pixels identified When processed in a stage, the logic flow is sent to a stage, and a stage consists of three components. Terminate the algorithm for a particular set of color images.

円錐アルゴリズムによって得られた結果は明るい茎を背景として誤分類すること を避けており、実際の応用においては避けられない弱い照明でも良好な結果を生 じている。影の大部分は正しく分類されるが、色空間の原点近くのデンタル化エ ラーに因って絵の最も暗い領域において誤りが生じ得る。原点から7灰色レベル 値の半径においては、色空間における1つの画素の定位における1つの灰色レベ ルのエラーによって式(1)における角度αの8°の差を生じ得る。第8図にお ける物体と背景群との間の角度は僅か約11@であるため、このエラーは画素を 1つの群から他の群に誤分類するのに十分である。この問題は、α−g−b−0 の時のcosαの独特の定義を許容せず且つ色情報をこの点の近くでは信幀性の ないものにしてしまう式(1)における特異性によって生じる0例えば正常化さ れた色、彩度及び色相の如き色の他の非直線定義は、同じ特異性を特徴とする。The results obtained by the cone algorithm misclassify bright stems as background. It avoids high-temperature illumination and produces good results even under weak illumination, which is unavoidable in practical applications. It's working. Most of the shadows are classified correctly, but the dentalization effect near the origin of the color space Errors can occur in the darkest areas of the picture due to color. 7 gray levels from the origin In the value radius, one gray level at the localization of one pixel in color space. An error in the angle can result in an 8° difference in the angle α in equation (1). In Figure 8 Since the angle between the object and the background group is only about 11, this error causes the pixel to It is sufficient to misclassify from one group to another. This problem is α-g-b-0 does not allow a unique definition of cos α when For example, the normalization of 0 caused by the specificity in equation (1) that makes it Other non-linear definitions of color, such as color, saturation and hue, are characterized by the same specificity.

従って、このアルゴリズムには、円錐が第7図の破線によって線図で示されてい るようにその先端において切られている修正を行うことができる。すると、式( 1)は設定された強度しきい、例えば30の上にのみにおいて用いら九このしき いより下の如何なる画素も植物として分類される。この方法によってより良い結 果が得られ、これにより完全な円錐にて得られる結果に改善が加えられる。Therefore, this algorithm requires that the cone is indicated diagrammatically by the dashed line in Figure 7. A modification can be made that is cut at its tip so that it looks like this. Then, the expression ( 1) is used only above a set intensity threshold, e.g. 30 Any pixel below this is classified as a plant. This method results in better results. This improves the results obtained with a full cone.

第7図において示され且つ上記のアルゴリズムによって定義される円錐は、それ が空想上の色「キューブ(cube) Jの限度に到達するまで原点から外に延 びていると定義されていることを銘記すべきものである。従って、この円錐は円 板又は球体で終らない、背景画素のサンプルは色空間における特定の形状を形成 する。The cone shown in Figure 7 and defined by the above algorithm is that The imaginary color "cube" extends outward from the origin until it reaches the limit of J. It should be noted that it is defined as extending. Therefore, this cone is a circle Samples of background pixels that do not end in a plate or sphere form a particular shape in color space do.

この画素の群は、原点と共にこの円錐の基礎を形成している球体によって近(以 さ得るが、この円錐はこの球体を超えて延びていない。時々この球体をこの群よ りも僅かに小さくすることが望ましくなる。斯かる場合、特定の背景画素は誤分 類されるが、より多くの物体画素が正しく分類され得る。This group of pixels is near (hereinafter referred to as However, this cone does not extend beyond this sphere. Sometimes this sphere is this group. It is also desirable to slightly reduce the In such cases, certain background pixels may be misclassified. , but more object pixels can be correctly classified.

CO5α。CO5α.

FIG、8゜ 補正書の翻訳文提出書 (特許法第184条の8) 平成 3年11月26日圏FIG, 8° Submission of translation of written amendment (Article 184-8 of the Patent Act) November 26, 1991 area

Claims (12)

【特許請求の範囲】[Claims] 1.電磁線によって形成された物体のイメージを表わす信号を処理する方法にお いて、 実質的に均一の色の背景に対して配置された三次元物体のイメージを表わすイメ ージ信号を発生する段階、 上記イメージ信号の画素の色を分析して上記画素の色を表わす画素に対する座標 を与える段階、及び 画素を、上記画素の座標が、上記背景の照明の異なった値の範囲にわたって上記 背景の色を表わしている色空間における所定領域の内側又は外側にあるかに応じ て、背景又は物体として分類する段階を含むことを特徴とする方法。1. A method for processing signals representing images of objects formed by electromagnetic radiation. There, An image that represents an image of a three-dimensional object placed against a background of substantially uniform color. generating a digital signal; Coordinates for the pixel representing the color of the above pixel by analyzing the color of the pixel of the above image signal and pixel, the coordinates of the pixel are the above over a range of different values of the background illumination, depending on whether it is inside or outside a given area in the color space representing the background color. A method characterized in that the method includes the step of classifying the object as a background or an object. 2.上記物体に関する且つ上記分類された画素から派生された位置情報を含む出 力イメージ信号を生成する段階を含むことを特徴とする請求項1による方法。2. an output containing positional information related to the object and derived from the classified pixels; A method according to claim 1, characterized in that it includes the step of generating a force image signal. 3.上記分類された画素から派生された情報を含む上記物体のイメージを表わす 出力信号を生成する段階を含むことを特徴とする請求項1による方法。3. represents an image of the object containing information derived from the classified pixels; A method according to claim 1, characterized in that it includes the step of generating an output signal. 4.画素の色を分析して三次元色空間における画素に対する座標を与えること、 及び 画素を、上記画素の色座標が、上記背景の色を表わす領域を略包囲している上記 三次元色空間における所定容積の内側又は外側にあるかに従って、背景又は物体 を表わすものとして分類すること、 を含むことを特徴とする請求項1による方法。4. analyzing the color of a pixel to provide coordinates for the pixel in a three-dimensional color space; as well as the pixel, the color coordinates of the pixel substantially surrounding the area representing the color of the background; Background or objects according to whether they are inside or outside a given volume in a three-dimensional color space to be classified as representing A method according to claim 1, characterized in that it comprises: 5.上記所定容積が上記背景色領域を略包囲し且つ原点に向っている実質的に円 錐形状の容積であることを特徴とする請求項4による方法。5. The predetermined volume is substantially a circle that substantially surrounds the background color area and faces toward the origin. 5. A method according to claim 4, characterized in that the volume is cone-shaped. 6.斯かる画素が色空間における上記所定容積内に存在するか否かを問わず、原 点に対して所定しきいよりも近くに存在する画素を物体として分類する段階を含 むことを特徴とする請求項4による方法。6. Regardless of whether such a pixel exists within the above predetermined volume in the color space, The method includes the step of classifying pixels that are closer to a point than a predetermined threshold as objects. 5. A method according to claim 4, characterized in that: 7.上記画素の分類の結果を利用して上記物体のアウトラインを表わす出力信号 を生成することを含むことを特徴とする請求項1による方法。7. An output signal representing the outline of the object using the results of the classification of the pixels A method according to claim 1, characterized in that it comprises generating. 8.上記画素の分類の結果を利用して所定の指定特徴を有する物体上の定位の空 間座標を派生することを含むことを特徴とする請求項1による方法。8. Using the results of the above pixel classification, we can determine the localization of an object with certain specified features. 2. A method according to claim 1, characterized in that it comprises deriving intermediate coordinates. 9.上記分類段階が、 (i)1つの面素に対して、αが上記背景色の三次元色空間における平均的ベク トルと上記画素の色空間におけるベクトルとの角度である所の、次式、▲数式、 化学式、表等があります▼ (ここでr,g及びbは上記背景色の平均値ベクトルの赤、緑及び青色座標であ り、r,g及びbは上記画素色のベクトルの色座標である)によって与えられる cosαの値を計算する段階、及び(ii)1つの画素に対して、cosαが、 φが上記背景色を表わす領域からとらえ、且つ原点に向っている上記の円錐形状 容積の半角を表わす所定定数である所のcosψより大きいか否かを決定する段 階、及び(iii)上記不等式 cosα>cosψ が保持する場合上記画素を背景として分類する段階を含むことを特徴とする請求 項1による方法。9. The above classification stage is (i) For one surface element, α is the average vector in the three-dimensional color space of the above background color. The angle between Tor and the vector in the color space of the above pixel is the following formula, ▲ Formula, There are chemical formulas, tables, etc.▼ (Here, r, g, and b are the red, green, and blue coordinates of the average value vector of the background color above. where r, g and b are the color coordinates of the above pixel color vector) (ii) for one pixel, cos α is The above conical shape where φ is taken from the area representing the above background color and facing the origin A stage for determining whether or not the value is larger than a predetermined constant cosψ representing a half-angle of a volume. and (iii) the above inequality. cosα>cosψ The claim further comprises the step of classifying the pixel as background if the pixel is retained. Method according to Section 1. 10.所定強度しきいより下の値の色座標を有する画素を物体として分類する段 階、及び請求項10において規定された諸段階を上記所定強度しきいより上の画 素に対してのみ用いる段階を含むことを特徴とする請求項9による方法。10. A stage for classifying pixels having color coordinates with values below a predetermined intensity threshold as objects. and the steps defined in claim 10 above the predetermined intensity threshold. 10. A method according to claim 9, characterized in that it comprises the step of using only elements. 11.上記背景の色イメージを表わす校正イメージ信号を発生する段階、上記背 景の画素のサンプルを分析して上記背景の色座標を与える段階、上記サンプル色 座標から、上記平均ベクトル角度、並びに三次元色空間における原点に色空間に おいて上記背景画素のサンプルの色座標を略包囲している容積を接合することに より形成された円錐の略半角を計算する段階によって背景を表わす上記所定領域 のパラメータを計算する予備段階を含むことを特徴とする請求項1による方法。11. generating a calibration image signal representing a color image of said background; analyzing a sample of pixels of the scene to provide the color coordinates of the background; the sample color; From the coordinates, the above average vector angle, as well as the origin in the three-dimensional color space to the color space. By joining the volume that approximately surrounds the color coordinates of the sample of the background pixel above, The above-mentioned predetermined area representing the background by calculating the approximate half-angle of the cone formed by 2. A method according to claim 1, characterized in that it comprises a preliminary step of calculating the parameters of . 12.電磁線によって形成された物体のイメージを表わす信号を処理するための 装置において、実質的に均一の色の背景に対して配置された三次元物体のイメー ジを表わすイメージ信号を発生するための手段、及びこのイメージ信号の画素の 色を分析してこの画素の色を表わす画素に対する座標を与えるための且つこの画 素の座標が、背景の照明の異なった値の範囲を通して背景の色を表わす色空間に おける所定の領域の中あるいは外側にあるかに応じて、画素を背景又は物体を表 わす画素として分類するための信号処理手段を含む装置。12. for processing signals representing images of objects formed by electromagnetic radiation. The device provides an image of a three-dimensional object placed against a background of substantially uniform color. means for generating an image signal representative of a pixel of the image signal; and to analyze the color and give the coordinates for the pixel that represents the color of this pixel. The raw coordinates are in a color space that represents the background color through a range of different values of background illumination. Pixels represent background or objects depending on whether they are inside or outside a predetermined area in the An apparatus comprising signal processing means for classifying a pixel as a white pixel.
JP2508004A 1989-05-26 1990-05-24 Method and apparatus for processing image signals Pending JPH04505817A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB898912226A GB8912226D0 (en) 1989-05-26 1989-05-26 Method of and apparatus for processing an image signal
GB8912226.1 1989-05-26

Publications (1)

Publication Number Publication Date
JPH04505817A true JPH04505817A (en) 1992-10-08

Family

ID=10657456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2508004A Pending JPH04505817A (en) 1989-05-26 1990-05-24 Method and apparatus for processing image signals

Country Status (7)

Country Link
EP (1) EP0473661A1 (en)
JP (1) JPH04505817A (en)
AU (1) AU5732990A (en)
CA (1) CA2056985A1 (en)
GB (2) GB8912226D0 (en)
IL (1) IL94481A0 (en)
WO (1) WO1990014635A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5179598A (en) * 1990-05-31 1993-01-12 Western Atlas International, Inc. Method for identifying and displaying particular features of an object
JP3468877B2 (en) * 1994-10-27 2003-11-17 矢崎総業株式会社 Plant automatic diagnosis method and apparatus
DE102012010912B3 (en) 2012-06-04 2013-08-14 Yara International Asa A method for contactless determination of the current nutritional status of a crop and for processing this information

Also Published As

Publication number Publication date
WO1990014635A1 (en) 1990-11-29
EP0473661A1 (en) 1992-03-11
GB9011678D0 (en) 1990-07-11
CA2056985A1 (en) 1990-11-27
GB8912226D0 (en) 1989-07-12
AU5732990A (en) 1990-12-18
GB2232764A (en) 1990-12-19
IL94481A0 (en) 1991-03-10

Similar Documents

Publication Publication Date Title
US5253302A (en) Method and arrangement for automatic optical classification of plants
EP1842153B1 (en) Differentiation of illumination and reflection boundaries
Whittaker et al. Fruit location in a partially occluded image
WO1990010273A1 (en) Process and arrangement for automatic optical classification of plants
Timmermans Computer vision system for on-line sorting of pot plants based on learning techniques
WO2003021533A9 (en) Color image segmentation in an object recognition system
Khoshroo et al. Detection of red tomato on plants using image processing techniques.
Chen et al. A practical solution for ripe tomato recognition and localisation
Van De Vooren et al. Identification of mushroom cultivars using image analysis
JPH04505817A (en) Method and apparatus for processing image signals
Ghate et al. Maturity detection in peanuts (Arachis hypogaea L.) using machine vision
DK172429B1 (en) Method of training an image analysis system for use in analyzing a subject, as well as using the method
JP4843766B2 (en) Method and apparatus for determining the degree of flowering of cut flowers
Nawawi et al. Comprehensive pineapple segmentation techniques with intelligent convolutional neural network
Danev et al. Cheese quality evaluation by image segmentation: Image segmentation algorithm for broken surface evaluation of Bulgarian white cheese in brine
JP4740686B2 (en) Protein crystallization state discrimination system and method
Braginskii et al. Identification of plants condition using digital images
Sandoval et al. Machine vision systems–a tool for automatic color analysis in agriculture
JP2005009949A (en) Method of determining crystallized state of protein and system therefor
Tetu et al. The application of digital image processing in extracting the image features in maize samples that aid learning and classification
Brosnan et al. PH—Postharvest Technology: Evaluation of Cut Lily Flower Vase Life by Computer Vision
Ismail et al. Outdoor colour recognition system for oil palm fresh fruit bunches (ffb)
Vijayarekha Multivariate image analysis for defect identification of apple fruit images
Teımourlou et al. A machine vision system for the real-time harvesting of ripe tomato
Al-Janobi Machine vision inspection of date fruits