JPH10511786A - Data recognition system - Google Patents

Data recognition system

Info

Publication number
JPH10511786A
JPH10511786A JP8517937A JP51793796A JPH10511786A JP H10511786 A JPH10511786 A JP H10511786A JP 8517937 A JP8517937 A JP 8517937A JP 51793796 A JP51793796 A JP 51793796A JP H10511786 A JPH10511786 A JP H10511786A
Authority
JP
Japan
Prior art keywords
state
data
histogram
neural network
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8517937A
Other languages
Japanese (ja)
Inventor
チャールズ・タスマン・ウェスコット
レオナード・ジョージ・チャドボーン・ヘイミー
Original Assignee
アーノット・ビスケット・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アーノット・ビスケット・リミテッド filed Critical アーノット・ビスケット・リミテッド
Publication of JPH10511786A publication Critical patent/JPH10511786A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/02Food
    • G01N33/10Starch-containing substances, e.g. dough
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Food Science & Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Medicinal Chemistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 本発明は、状態に依存したカラー特性を持つ材料(2)に対してその状態を判定する方法に関するものである。その方法には以下のステップがある。カメラ(3)を用いて上記材料(3)のピクセル・イメージを形成するステップ、ニューラルネットワーク(7)を用いて上記ピクセル・イメージを三次元カラー空間に投影するステップ、第二のニューラルネットワーク(9)を用いて、上記投影(37)を、状態が既に判っている上記材料(2)の第二のポジションの投影と比較するステップ。 (57) [Summary] The present invention relates to a method for determining the state of a material (2) having a state-dependent color characteristic. The method includes the following steps. Forming a pixel image of said material (3) using a camera (3); projecting said pixel image into a three-dimensional color space using a neural network (7); ) Comparing said projection (37) with a projection of a second position of said material (2) whose condition is already known.

Description

【発明の詳細な説明】 データ認識システム発明の属する技術分野 この発明は、画像の中のデータ特性の認識に関するものであり、特に焼成工程 (ベーキングプロセス)における特性の認識に関するものである。発明の背景 焼成工程においては、製造結果に影響を及ぼすいくつかの要因がある。たとえ ば、パン、ビスケット、その他の食品の製造工程においては、使用するオーブン の温度、焼成時間、そして生地(ドウ等)の大きさ、形、厚さや湿り気など多く の要因が焼成工程の最後に生成される最終製品に影響を与える。さらに、これら の焼成食品はしばしば量産工程によって商業的規模で、大量に、生産される。 製造工程の最後で、通常製品はその品質を確かめるため検査される。検査は、 適合性を確かめるため、生産ラインから送り出されたあるひと焼き分(あるバッ チ)の製品をチェックするという形でしばしば行われる。 多くの場合、検査工程は人間によって行われる。実際のところ、人間による観 察は変化を伴った主観的判断となることが判ってきている。さらに、人間による 観察はある一定の速さでしか作業ができないし、また人間による場合は退屈、疲 労そして/又は病気といった悪条件を引き起こしがちである。発明の概要 この発明の目的は、人間による観察では変化を伴ってしまう視覚的データ特性 を持つ対象物に対して、その状態を判定する方法を提供することである。 本発明の第一の側面によれば、状態に依存したカラー特性を持つ材料に対して その状態を判定する方法を提供する。その方法には以下のステップがある。 上記材料のピクセル・イメージを形成するステップ。 上記ピクセル・イメージを三次元カラー空間に投影するステップ。 上記投影を、状態がすでに判っている上記材料の第二の部分の投影と比較し、 上記材料の状態を判定するステップ。 本発明の第二の側面によれば、上記方法に従って動作可能な装置を開示してい る。 本発明の第三の側面によれば、一連の特性を集合的に持つ第一のデータサンプ ルに対してその状態を判定する方法を提供する。その方法には以下のステップが ある。 上記第一のデータサンプルを多次元空間に投影するステップ。 上記投影を、状態の判っている特性のセットを持つ第二のデータサンプルの投 影と比較し、第一のデータサンプルの特性の状態を判定するステップ。図の簡単な説明 本発明の好ましい実施例は、以下に述べる図面を参照して記述されている。 図1は、好ましい実施例のステップを示す図。 図2は、好ましい実施例で使用するスキャン済み入力データフォーマットを示 す図。 図3〜8は、焼成工程の進行に伴うカラーの変化の様子を示す図。 図9は、コホーネンによる自己組織化特性マップを示す図。 図10は、第一の焼成曲線を示す図。 図11は、別のビスケットに対する第二の焼成曲線を示す図。詳細な説明 以下の好ましい実施例では、焼成(ベーキング)について述べているが、本発 明は焼成に限らず、外見から材料の状態を判定できる全ての視覚化された形態の 物に適用可能であることは本分野の熟練した技術者にとって明らかであろう。 本発明の好ましい実施例では、焼成製品のカラー特性の詳細な分析は、製造工 程にインテグレートされたコンピュータシステムにより行われる。 本発明の好ましい実施例による焼成食品製造のための量産システム1の概要を 図1に示す。システム1は食品処理装置(オーブン等)4と材料の特徴抽出装置 3、6、7、8、9、さらにコントロールシステム11からなる。焼成製品(ベ ークドプロダクト)2はオーブン4を出る際にカメラ3によって画像化される。 このカメラ3による画像は、マイクロコンピューターを使用して好適にインプリ メントされた多くの処理工程へと渡されることになる。その詳細を以下に述べる 。上記処理工程には、画像処理ステップあるいは画像校正(キャリブレーション )ステップ6、第一のニューラルネットワーク処理ステップ7、画像処理ステッ プ8、及び第2のニューラルネットワークステップ9があり、上記処理工程の結 果、焼成製品2の焼け具合を示す出力指標10を作成する。出力10は、製品2 が焼き足りないか焼きすぎであるかの程度を示す指標であり、温度や時間といっ たオーブンのパラメータの調整が必要であるかどうかを決定するためにコントロ ールシステム11への入力として使用される。 好ましい実施例において用いられるカメラ3は、赤(R)と緑(G)と青(B )のすなわちRGBのピクセル値を持つ512X512アレイを生成する3チッ プのCCD(Charge Coupled Device電化結合素子)カメラである。このピクセ ル値のアレイはマイクロコンピューター内の「フレームグラバー(frame grabber )」ボードに記憶される。焼成製品2は、直接照明として昼光にカラーバランス されたTHORN(登録商標)蛍光灯を2本と周りの照明を排除するための黒幕 とを使用して画像化された。本発明の範囲及び精神から離れることなく周りの照 明を遮る他の形態を使用することも可能であるが、本分野の熟練した技術者であ れば、工業的生産工程では、他の照明を使用すること、及び/あるいは、背景の 黒幕を取り除いてもよいことは明らかである。第一のサンプルとして画像化され た焼成製品はアーノット・ビスケット社(Arnott's Biscuits Limited)のビスケ ット工場の生産ラインで製造された「SAO」(登録商標)ビスケットであった 。 画像化されたビスケットの適正なカラー校正(カラーキャリブレーション)を 確実にするために、ビスケットは、図2に示すカラー校正チャート12と共に画 像化される。スキャンされた画像12’はビスケット部分13、背景14、参照 用白背景15、グレイスケール16、及び複数色の参照カラー17からなる。ス キャンされた画像12’及び画像12はビスケット13のピクセルのカラー校正 のために使用された。サンプル画像のカラーの一貫性を確実にするためのカラー 校正プロセスは、コンピューター画像処理技術の熟練者には周知の技術である。 カラー校正プロセスの参考技術としては、ノバックとシェイファーによる「カラ ーチャートを使用した教師ありの恒常色」(Novak,C.L.and S.A.Shafer 1990 ,″Supervised Color Constancy Using a Color Chart″,Technical Report C MU-CS-140,Carnegie Mellon Unversity School of Computer Science)がある。 ノバックらによる本文献はカラー校正のより広範囲にわたる手段について詳細に 述べている。しかし、照明環境を適正にし、装置をコントロールすることによっ て、カラー校正を不要にすることもできる。 カラー校正プロセス(図1のブロック6)が終了すると、各ビスケット画像は RGBファイルとして記憶することができる。RGBカラー空間はコンピュータ ーシステムでは普通に使用される周知のカラー空間である。しかしながら、本分 野の技術の熟練した技術者であれば、HSV、XYZ、又は、CIEカラー空間 といった他のカラーシステムも同様に使用できることは明らかである。 図3から図8には、焼成工程の異なる段階でのビスケット13(図2)のピク セル値の投影図を示している。 図3は、RGB立方体21に対する「生の」ビスケットのピクセル画像の投影 図20を示している。 図4から図8は、焼きが足りないビスケット(図4)から焼き過ぎのビスケッ ト(図8)までのそれぞれのビスケットの投影図を示している。図4から図8を 比べることによって、ビスケットのカラー特性は焼成レベルの進行につれて変化 することが判る。図4から図8に示したピクセルデータの進行はサンプルビスケ ットの焼成段階を判別するために使用できる。 焼成工程における図4から図8に示す進行を使用するためには、図4から図8 のデータサンプルの近似値を簡明にかつコンパクトに表す必要がある。これは図 4から図8の三次元データ空間内の重要なカラー変化の一次元表示である「焼成 曲線」を生成することで可能となる。この焼成曲線の生成の一方法として、コホ ーネン自己組織化特性マップ(Kohonen self-organising feature map)を使用す る。コホーネン自己組織化特性マップは、高度な非線形関係を持った複雑な実 験データからストラクチャを抽出するのに効果的な、教師なし学習テクニックで ある。コホーネン自己組織化特性マップは、ジュディスによる「ニューラル・ネ ットワーク・アーキテクチャ:序論」(Neural Network Architectures: An Intr oduction by Judith E.Dayhoff,published 1990 by Van Nostrand Reinholdat pages 163 - 191)に詳細に説明されており、この明細書にクロスリファレンス としてその記述内容を取り入れるものとする。 図9に、本実施例で使用する自己組織化マップ(Self Organising Map)(SO M)の一例を示す。SOM30には、ビスケット13(図2)のデジタル化した カラー画像のピクセル値のカラー成分である赤、緑、青に対応する三つの入力ノ ード31がある。SOM30にはN個の出力ノード32がある。三つの入力ノー ド31は稜線33のような手段で出力ノード1からNにそれぞれ接続されている 。一次元のSOM30の使用は、SOMネットワーク30が学習によりビスケッ ト画像のRGBピクセル値31の全集合を、一次元アレイの点群へすなわち出力 ノード32へマップすることを意味する。これには二つの主たる効果がある。第 一に、入力データ機能を低次元のデータ空間へと減少させることである。第二に は、入力データ31の最も関連した点同士の相互関係はネットワーク30の出力 フォーマット中でも変わらないことである。 入力31をEで表せば以下のようになる。 E=(Red,Green,Blue) 式1 出力ノードiと入力31とが重みUiをもった一連の稜線で接続されているとき 、ただしUiは、 Ui=(Wi,red,Wi,green,Wi,blue) 式2 かつ、重みは稜線に初めにランダムに与えられており、ピクセル成分値と同じデ ータ値の集合の範囲の値(この好適な実施例では0から255)をとるとき、S OMは、各ピクセル毎に、入力ピクセルEに最も近い重みUiを持つ出力ノード 32を見つけることにより、訓練される。「近さ」の程度は通常ユークリッド距 離測定の手段により測定される。最も近い出力ノードがサブスクリプトcを持つ とすると、最も近い出力ノードは数学的には以下のように示される。 最良のノードあるいはウィニングノードcはcの近傍内(たとえば、ノードc− 1とc+1)のノードとともに変更される。cの近傍(Ncで表す)内の各出力 ノードjについて、この変更は、まず、以下のΔUjの計算によって行われる。 ΔUj=α(t)x(E−Uj) 式4 次に、新しい重みの集合Uj (t+1)を以下の式5により得る。 選択されたノードcから予め定めた近傍内でない出力ノードは変更されない。 式4の関数α(t)は「学習定数」として知られているものである。関数α (t)は、適当な以下のフォームのアルファ関数を持つ単調減少関数である。 α(t)=αo(1−t/T) 式6 ここで、αoは0.02から0.05の範囲であり、tは現在の訓練反復数であ り、Tは実施されるべき全訓練反復数である。近傍Ncの幅dも、式7に表すよ うに同様のやり方で変化させることができる。 d(t)=do(1−t/T) 式7 ここで、doはたとえば出力ノードの幅の三分の一に初期設定することができる 。 本実施例に従ったプロセスの一例として、アーノット・ビスケット社製の「S AO」の四個のビスケットのサンプルをスキャンした結果、ビスケット一個あた り47,967のピクセルを生じた。各ピクセルは三つの別々のR、G、Bピク セル値を持つ。四つのピクセルの集合をシャフルしてランダムシーケンスとし、 全訓練反復数を20訓練パスとして、10個の出力ノードをもった図9のフォー ムのSOMへの訓練入力とした。 図10に、三次元カラー立方体35中の10個の出力ノードの重み値Uiのプ ロットを示す。10個の点(36等)は曲線37上に連なって現れている。曲線 37は入力データの最終的な「焼成曲線」を示している。 図11に示すように、ビスケットの別のフォームであるアーノットの「MIL KCOFFEE」(登録商標)ビスケットについて15個のノード出力を持つS OMを用いて同様のプロセスを繰り返した。SOMに対して訓練データを合計5 0回パスさせた結果41がカラー立方体40中にプロットされている。図11の 焼 成曲線41のストラクチャは図10の焼成曲線37と似ていることが判る。2本 の曲線37、41はカラー立方体35、40の異なる部分を占め、二つの製品の 材料の違いを反映している。「MILK COFFEE」ビスケットは「SAO 」ビスケットよりムラなく褐色になるので、図11のカラー曲線41は図10の 曲線より短くなっている。「SAO」ビスケットはブリスター(気泡による膨れ )があるので褐色にムラが出る。 いったん訓練されると、図9のSOMは、図1のニューラルネットワーク7と して使用できる。SOMは、各入力ピクセルについて、入力ピクセルに最も近い ポジションを持つ出力ノードの指標を生成する。ある画像の各ピクセルにマッチ した最も近い出力ノード32(図9)は画像処理8(図1)に使用されヒストグ ラム化される。これによりスキャンした焼成製品2のヒストグラム・プロファイ ルを生成する。 第2のニューラルネットワーク9は、教師付きフィードフォワード・ニューラ ルネットワークであり、既知の焼成特性を持った多数のビスケット2を画像化す ること、SOM7を通じて画像をフィードすること、ヒストグラム8を形成する ことにより「訓練」を受けさせることができる。ヒストグラム8は教師付き逆伝 播ニューラルネットワークへの入力データとなる。教師付き逆伝播ニューラルネ ットワークは、焼成製品(ビスケット等)2のカラーレベルを分類するように、 通常の方法で訓練される。ニューラルネットワーク9が焼成レベルを示す出力1 0を生成するように適正に訓練されるまで、複数のサンプルがステップ6から9 まで連続してフィードされる。 出力10は、コントロールシステム11によって利用される。コントロールシ ステム11は、焼成製品2を改良するために、手動によりあるいは自動プロセス によりオーブン4内の条件を調整する。 上記システムを特殊化することにより、種々の異なる背景から対象ビスケット を自動分離することができる。この自動分離は、ヒストグラム点から各画像ピク セルへの距離を減少させるための機能(reducing function)として各画像ピクセ ルを「ウェイする」(重みづける)ヒストグラム化プロセスにより達成される。 こうして、自己組織化マップが描いた焼成曲線から明らかに離れた位置にあるピ クセルはヒストグラム全体にほとんどあるいは全く影響しない程度に重みづけら れる。実際には、このことはビスケットは特別に用意した背景で画像化される必 要はないことを意味する。検査対象となるビスケットのとりうるカラーと明らか に異なるカラーの背景であればどのような背景でも十分である。画像の背景はカ ラーにムラのあるコンベアベルトであるかもしれないので、このことは、オンラ インモニタリングとオーブン調節に本システムを適用する際、実用的な利点とな る。 SOMにより生成されたマップからの上記ヒストグラム8の計算を詳細に以下 に示す。原則として、ヒストグラム中の各ビンが焼成曲線35、40のファジィ な部分に存在するピクセルの重みづけしたカウントを表すようなヒストグラムを 得るのが目的である。このファジィな部分はパラメータσxとσyを使用したガウ ス重量関数(Gaussian weighting function)によって定義される。パラメータσx の値は焼成曲線についてのガウス重量関数のスプレッド(拡がり:spread)を表 し、曲線周囲の起こり得るカラー変化を考慮することで決定される。パラメータ σxの値は上述した自動分離プロセスを可能にするために十分な小さな値が選択 される。パラメータσyは特定のヒストグラムビンのための、焼成曲線に沿って のガウス重量関数のスプレッドを表す。通常、σyはσxより大きい。 上記テクニックの実際のインプリメンテーションは以下のステップのようにな る。 a.多数のサンプリング点を確保するためにSOMノードは補間される。離れ た点で焼成曲線をサンプリングすることにより生じる不具合を許容可能なレベル に制限するために、サンプリング点の数は、σxにより決められる。サンプリン グ理論のナイキスト結果(Nyquist result)がこのステップに適用される。 b.複数のビスケットピクセルは補間された複数のサンプリング点でヒストグ ラム化される。各サンプリング点から、(RGBカラー空間内の)各ピクセルま での距離を計算し、その特定のサンプリング点のヒストグラムビンに対してその ピクセルの重みづけされた貢献を計算する。重みづけされた貢献を計算するため にスプレッドσxを持つガウス関数が用いられる。 c.(b)で生成したヒストグラムは1次元信号として扱われ、スプレッド おいて、ヒストグラムはフィードフォワード・ニューラルネットワークの入力ノ ードの数にサブサンプリングされる。このさらなるサブサンプリングによる不具 合を許容可能なレベルに制限するためにσyの値が選択される。 本システムは、カラー、ビジュアルテキスチャー、及び/あるいは三次元スト ラクチャセンシングの組み合わせといった多種多様の多次元データに適用できる 。焼成曲線の場合は1−D(一次元)SOMのみ必要であるが、状況によっては 、状態の集合が2−D(二次元)又は3−D(三次元)のSOMを必要とする場 合もある。 本分野の熟練した技術者にとり、本発明のステップ6から9については、ニュ ーラルネットワーク専用ハードウェアや関連コンピュータハードウェア、あるい はニューラルネットワークシステムのソフトウェア・シミュレーションといった 他の多くの方法でもインプリメントできることは明らかである。本発明による好 ましい方法では、焼成製品のフォームを変更したい場合その変更が容易であるた め、ステップ6から9のインプリメンテーションは標準マイクロコンピュータシ ステムのソフトウェアインプリメンテーションで行われる。 以上は本発明の単に一実施例を述べたにすぎず、本分野の熟練した技術者にと り、本発明の概念から離れることなく本技術の他の応用が可能であることは明ら かである。DETAILED DESCRIPTION OF THE INVENTION Data recognition systemTechnical field to which the invention belongs   The present invention relates to recognition of data characteristics in an image, and particularly to a firing process. (Baking process).Background of the Invention   In the firing process, there are several factors that affect the manufacturing results. for example Ovens used in the manufacture of bread, biscuits and other foods Temperature, baking time, and size (shape, dough, etc.) of dough, etc. Factors affect the final product produced at the end of the firing process. In addition, these Is often produced in large quantities on a commercial scale by mass production processes.   At the end of the manufacturing process, the product is usually inspected to ensure its quality. Inspection is To check the suitability, a batch (a batch) sent out of the production line H) often in the form of checking products.   In many cases, the inspection process is performed by humans. As a matter of fact, It has been found that insight is a subjective judgment with change. In addition, by humans Observation can only be performed at a certain speed, and if it is done by humans, it is boring and tired. It is prone to adverse conditions such as labor and / or illness.Summary of the Invention   SUMMARY OF THE INVENTION It is an object of the present invention to provide a visual data characteristic that changes when observed by a human. The object of the present invention is to provide a method for judging the state of an object having the following.   According to a first aspect of the present invention, for a material having a state-dependent color characteristic, A method is provided for determining the state. The method includes the following steps.   Forming a pixel image of the material.   Projecting the pixel image into a three-dimensional color space.   Comparing the projection with a projection of a second portion of the material whose condition is already known, Determining the state of the material.   According to a second aspect of the invention, there is disclosed an apparatus operable according to the above method. You.   According to a third aspect of the present invention, a first data sampler having a set of characteristics collectively. Provide a method for determining the state of the file. The method involves the following steps: is there.   Projecting the first data sample into a multidimensional space.   The projection is performed by projecting a second data sample with a set of known properties of the state. Determining the state of the characteristic of the first data sample by comparing with the shadow.Brief description of figures   Preferred embodiments of the present invention are described with reference to the drawings described below.   FIG. 1 shows the steps of the preferred embodiment.   FIG. 2 shows the scanned input data format used in the preferred embodiment. Figure.   3 to 8 are views showing a state of a change in color as the firing process proceeds.   FIG. 9 is a diagram showing a self-organizing characteristic map by Kohonen.   FIG. 10 is a diagram showing a first firing curve.   FIG. 11 is a diagram showing a second firing curve for another biscuit.Detailed description   In the following preferred embodiment, baking is described. Akira is not limited to firing, but all visualized forms that can determine the state of the material from the appearance Applicability to objects will be apparent to those skilled in the art.   In a preferred embodiment of the present invention, a detailed analysis of the color characteristics of the baked product It is performed by a computer system that has been fully integrated.   An outline of a mass production system 1 for producing baked food according to a preferred embodiment of the present invention will be described. As shown in FIG. The system 1 includes a food processing device (such as an oven) 4 and a material characteristic extracting device. 3, 6, 7, 8, 9 and a control system 11. Baked products The cooled product 2 is imaged by the camera 3 as it leaves the oven 4. The image from the camera 3 is preferably implemented using a microcomputer. To a number of processing steps. The details are described below. . The above processing steps include an image processing step or an image calibration (calibration). ) Step 6, first neural network processing step 7, image processing step Step 8 and a second neural network step 9, which are the result of the above processing steps. As a result, an output index 10 indicating the degree of burning of the baked product 2 is created. Output 10 is product 2 Is an indicator of the degree of under-baking or over-baking, Control to determine if adjustments to oven parameters are necessary. Used as an input to the control system 11.   The camera 3 used in the preferred embodiment has red (R), green (G) and blue (B 3) to generate a 512 × 512 array with RGB pixel values. This is a CCD (Charge Coupled Device) camera. This pixel The array of values is stored in the microcomputer as a frame grabber. ) "Is stored on the board. Baking product 2 is color balanced to daylight as direct lighting Black screen for eliminating two THRON® fluorescent lamps and surrounding lighting And was imaged using. Ambient illumination without departing from the scope and spirit of the invention Other forms of blocking light may be used, but may be used by skilled technicians in the field. If the industrial production process uses other lighting and / or background Obviously, the mastermind can be removed. Imaged as the first sample Baked products are manufactured by Arnott's Biscuits Limited "SAO" (registered trademark) biscuit manufactured on the production line .   Proper color proofing (color calibration) of imaged biscuits For assurance, the biscuit is painted with the color proof chart 12 shown in FIG. Imaged. Scanned image 12 'is biscuit portion 13, background 14, reference A white background 15, a gray scale 16, and a plurality of reference colors 17. S Canned image 12 'and image 12 are color proofed for biscuit 13 pixels Used for Colors to ensure color consistency of sample images The calibration process is a technique well known to those skilled in computer image processing technology. As reference technology for the color proofing process, Novak and Shafer -Supervised constant colors using charts "(Novak, C.L. and S.A. Shafer 1990 , "Supervised Color Constancy Using a Color Chart", Technical Report C MU-CS-140, Carnegie Mellon University of Computer Science). This paper by Novak et al. Details the broader means of color proofing. Says. However, by adjusting the lighting environment properly and controlling the equipment, Thus, color proofing can be dispensed with.   At the end of the color proofing process (block 6 in FIG. 1), each biscuit image is It can be stored as an RGB file. RGB color space is computer -A well-known color space commonly used in systems. However, HSV, XYZ or CIE color space if you are a skilled technician in the field Obviously, other color systems can be used as well.   FIGS. 3 to 8 show a pictorial representation of the biscuit 13 (FIG. 2) at different stages of the firing process. FIG. 4 shows a projection of cell values.   FIG. 3 shows the projection of the pixel image of the “raw” biscuit onto the RGB cube 21 FIG. 20 is shown.   FIGS. 4 to 8 show biscuits from underbaked biscuits (FIG. 4). FIG. 9 shows a projection view of the respective biscuits up to FIG. 4 to 8 By comparison, the color characteristics of the biscuit change as the firing level progresses You can see. The progress of the pixel data shown in FIGS. It can be used to determine the firing stage of the kit.   In order to use the progress shown in FIGS. 4 to 8 in the firing step, FIGS. It is necessary to express the approximation of the data sample in a simple and compact manner. This is the figure 4 to 8 is a one-dimensional display of important color changes in the three-dimensional data space. This is made possible by generating a “curve”. As one method of generating this firing curve, Koho Use the Kohonen self-organizing feature map You. The Kohonen Self-Organizing Characteristic Map is a complex realm with highly nonlinear relationships. Unsupervised learning techniques that are effective at extracting structure from test data is there. The Kohonen Self-Organizing Characteristic Map is based on Judith's “Neural Neural Network”. Neural Network Architectures: An Intr oduction by Judith E. Dayhoff, published 1990 by Van Nostrand Reinholdat  pages 163-191), and the cross-reference The content of the description shall be incorporated.   FIG. 9 shows a self-organizing map (SOL Organizing Map) (SO M) shows an example. The SOM 30 has a digitized biscuit 13 (Figure 2) Three input nodes corresponding to the color components of the pixel values of the color image, red, green, and blue. There is a code 31. SOM 30 has N output nodes 32. Three input no The nodes 31 are connected to the output nodes 1 to N by means such as a ridge line 33, respectively. . The use of the one-dimensional SOM 30 means that the SOM network 30 can Output the entire set of RGB pixel values 31 of the image to a point cloud in a one-dimensional array. This means mapping to the node 32. This has two main effects. No. First, it reduces the input data function to a lower dimensional data space. Secondly Is the relationship between the most relevant points of the input data 31 It doesn't change during formatting.   If the input 31 is represented by E, it becomes as follows.       E = (Red, Green, Blue) Equation 1 The output node i and the input 31 have the weight UiWhen connected by a series of ridges with , But UiIs       Ui= (Wi, red, Wi, green, Wi, blueEquation 2 In addition, the weights are initially randomly assigned to the edges, and are the same as the pixel component values. When taking a value in the range of the set of data values (0 to 255 in the preferred embodiment), S OM is, for each pixel, the weight UiOutput node with Trained by finding 32. The degree of "closeness" is usually the Euclidean distance It is measured by means of separation measurement. Closest output node has subscript c Then, the closest output node is mathematically shown as: The best node or winning node c is in the neighborhood of c (eg, node c- 1 and c + 1). near c (NcOutput) For node j, this change is first made by the following ΔUjIs calculated.       ΔUj= Α (t) x (E-UjEquation 4 Next, a new set of weights Uj (t + 1)Is obtained by the following equation 5. Output nodes that are not within a predetermined neighborhood from the selected node c are not changed.     The function α (t) in Equation 4 is what is known as “learning constant”. Function α (T) is a monotonically decreasing function with an alpha function of the appropriate form:       α (t) = αo(1-t / T) Equation 6 Where αoRanges from 0.02 to 0.05, and t is the current number of training iterations. Where T is the total number of training iterations to be performed. Neighbor NcThe width d of Can be varied in a similar manner.       d (t) = do(1-t / T) Equation 7 Where doCan be initialized to, for example, one third of the width of the output node .   As an example of the process according to this embodiment, “S” manufactured by Arnot Biscuit, Inc. As a result of scanning the sample of four biscuits of "AO", 47,967 pixels. Each pixel has three separate R, G, B pictures Has a cell value. Shuffle the set of four pixels into a random sequence, Assuming that the total number of training repetitions is 20 training paths, the format of FIG. Training input to the SOM.   FIG. 10 shows the weight values U of the ten output nodes in the three-dimensional color cube 35.iNo Indicates a lot. The ten points (such as 36) appear continuously on the curve 37. curve Reference numeral 37 denotes the final “firing curve” of the input data.   As shown in FIG. 11, another form of biscuit, Arnot's "MIL" "KCOFFEE" (registered trademark) biscuit with 15 node outputs S The same process was repeated using OM. Training data total 5 for SOM The result 41 of the zero pass is plotted in the color cube 40. In FIG. Burning It can be seen that the structure of the formation curve 41 is similar to the firing curve 37 of FIG. Two Curves 37, 41 occupy different parts of the color cubes 35, 40 and represent the two products. It reflects the difference in materials. “MILK COFFEE” biscuit is “SAO The color curve 41 in FIG. 11 is the same as that in FIG. It is shorter than the curve. "SAO" biscuit is blister ) Causes uneven brown color.   Once trained, the SOM of FIG. 9 can be combined with the neural network 7 of FIG. Can be used. The SOM is, for each input pixel, the closest to the input pixel Generate an index for the output node that has a position. Match each pixel of an image The closest output node 32 (FIG. 9) used for image processing 8 (FIG. 1) Rammed. This scans the histogram profile of the baked product 2 Generate files.   The second neural network 9 is a supervised feedforward neural network. A large number of biscuits 2 with known firing characteristics. Feeding an image through the SOM 7 and forming a histogram 8 This allows them to receive "training". Histogram 8 is a supervised reverse biography It becomes the input data to the seeding neural network. Supervised backpropagation neural networks The network is to classify the color level of the baked product (biscuit etc.) 2 Trained in the usual way. Output 1 indicating the firing level by the neural network 9 Multiple samples are taken from steps 6 through 9 until properly trained to produce Feeds continuously.   Output 10 is used by control system 11. Control The stem 11 may be manually or automatically processed to improve the baked product 2. To adjust the conditions in the oven 4.   By specializing the above system, the target biscuits from various different backgrounds Can be automatically separated. This automatic separation is performed by Each image pixel is used as a reducing function to reduce the distance to the cell. This is accomplished by a "way" histogramming process. In this way, the piecing curve clearly located away from the firing curve drawn by the self-organizing map Xell is weighted to have little or no effect on the entire histogram It is. In practice, this means that biscuits must be imaged on a specially prepared background. It means no need. Obviously the possible colors of the biscuits to be inspected Any background of different colors is sufficient. The background of the image is mosquito This may be a conveyer belt with irregularities in the There are practical advantages when applying this system for in-monitoring and oven conditioning. You.   The calculation of the histogram 8 from the map generated by the SOM will be described in detail below. Shown in In principle, each bin in the histogram is a fuzzy curve of the firing curves 35,40. Histogram that represents a weighted count of the pixels that The purpose is to get. This fuzzy part is the parameter σxAnd σyGau using It is defined by a Gaussian weighting function. Parameter σx The value of represents the spread of the Gaussian weight function for the firing curve. It is determined by taking into account possible color changes around the curve. Parameters σxValue is chosen small enough to enable the automatic separation process described above Is done. Parameter σyAlong the firing curve for a particular histogram bin Represents the spread of the Gaussian weight function of Usually σyIs σxGreater than.   The actual implementation of the above technique is as follows: You.   a. SOM nodes are interpolated to ensure a large number of sampling points. Away Acceptable level of failures caused by sampling the firing curve at different points To limit the number of sampling points to σxIs determined by Sun pudding The Nyquist result of the logic theory is applied to this step.   b. Multiple biscuit pixels are histogrammed at multiple interpolated sampling points. Rammed. From each sampling point to each pixel (in RGB color space) In the histogram bin at that particular sampling point. Compute the weighted contribution of the pixel. To calculate weighted contributions Spread σxIs used.   c. The histogram generated in (b) is treated as a one-dimensional signal, and the spread The histogram is the input node of the feedforward neural network. Subsampled to the number of codewords. Malfunction due to this further subsampling Sigma to limit the join to an acceptable levelyIs selected.   The system may include color, visual texture, and / or three-dimensional Applicable to a wide variety of multi-dimensional data such as combinations of racture sensing . In the case of the firing curve, only 1-D (one-dimensional) SOM is required, but depending on the situation, If the set of states requires a 2-D (two-dimensional) or 3-D (three-dimensional) SOM In some cases.   For a skilled technician in the field, steps 6 to 9 of the present invention are Hardware dedicated to neural networks, related computer hardware, or Are software simulations of neural network systems Obviously, many other methods can be implemented. According to the present invention, The preferred method is that if you want to change the form of the baked product, that change is easy Therefore, the implementation of steps 6 to 9 is based on a standard microcomputer system. This is done in the software implementation of the system.   The foregoing merely describes one embodiment of the present invention and is intended for a skilled technician in the art. It is clear that other applications of the present technology are possible without departing from the concept of the present invention. Is.

【手続補正書】特許法第184条の4第4項 【提出日】1996年4月15日 【補正内容】 1.状態に依存したカラー特性を持つ材料の状態判定方法であって、 上記材料の複数ピクセルからなるピクセル・イメージを形成するステップ、 上記ピクセル・イメージを三次元カラー空間に投影するステップ、及び 上記投影を、状態が判っている上記材料の第二の部分の投影と比較し、上記材 料の状態を判定するステップを備えたことを特徴とする状態判定方法。 2.上記比較するステップは、さらに、 上記材料の第二の部分から一連の状態データポイントを生成するステップ、及 び 上記材料の状態を判定するために、上記状態データポイントを用いて上記投影 の比較をプロデュースするステップを備えたことを特徴とする請求項1記載の方 法。 3.上記生成するステップは、さらに、自己組織化特性マップによって上記一連 の状態データポイントを生成するステップを備えたことを特徴とする請求項2記 載の方法。 4.上記プロデュースするステップは、さらに、上記投影されたピクセル・イメ ージ及び上記状態データポイントからデータヒストグラムをプロデュースするス テップを備え、上記ヒストグラムは複数の状態データポイント各々の近傍に投影 されたピクセルの数を表すことを特徴とする請求項2記載の方法。 5.上記プロデュースするステップは、さらに、 上記データヒストグラムを用いてニューラル・ネットワークへのニューラル・ ネットワーク入力を生成するステップを備え、上記ニューラル・ネットワークは 状態の判っている材料の投影されたピクセル・イメージのヒストグラムから生成 されたニューラル・ネットワーク入力を認識し上記判っている状態を表す信号を 生成するように訓練されると共に、及び 上記データヒストグラムの投影されたピクセル・イメージの上記状態を表す信 号を上記ニューラル・ネットワークから出力するステップを備えたことを特徴と する請求項4記載の方法。 6.一連の特性を集合的に持つ第一のデータサンプルの状態判定方法であって、 複数のデータポイントを持つ上記第一のデータサンプルを多次元空間に投影す るステップ、及び 第一のデータサンプルの特性の状態を判定するために、上記投影を、状態の 判っている特性のセットを持つ第二のデータサンプルの投影と比較するステップ を備えたことを特徴とする状態判定方法。 7.上記比較するステップは、さらに、 上記第二のデータサンプルから一連の状態データポイントを生成するステップ 、及び 上記第一のデータサンプル特性の状態を判定するために、上記状態データポイ ントを用いて上記投影の比較をプロデュースするステップを備えたことを特徴と する請求項6記載の方法。 8.上記生成するステップは、さらに、自己組織化特性マップによって上記一連 の状態データポイントを生成するステップを備えたことを特徴とする請求項7記 載の請求項。 9.上記プロデュースするステップは、さらに、上記第一のデータサンプル及び 上記状態データポイントからデータヒストグラムを作成するステップを備え、上 記ヒストグラムは各状態データポイントの近傍の第一のサンプルの数を表すこと を特徴とする請求項8記載の請求項。 10.上記プロデュースするステップは、さらに、 上記データヒストグラムを用いてニューラル・ネットワークへのニューラル・ ネットワーク入力を生成するステップを備え、上記ニューラル・ネットワークは 、状態の判っている一連の特性を持つデータサンプルのヒストグラムから生成さ れたニューラル・ネットワーク入力を認識し上記判っている状態を表す信号を生 成するように訓練されると共に、及び 上記データヒストグラムの投影されたデータサンプルの上記状態を表す信号を 上記ニューラル・ネットワークから出力するステップを備えたことを特徴とする 請求項9記載の方法。 11.請求項1から5のいずれかに記載の上記判定方法を用いた食品焼成方法で あって、上記材料の状態によって上記食品を焼成するために用いるオーブンをコ ントロールするステップを備えたことを特徴とする食品焼成方法。 12.請求項6から10のいずれかに記載の上記判定方法を用いた食品焼成方法 であって、上記第一のデータサンプル特性の状態によって上記食品を焼成するた めに用いるオーブンをコントロールするステップを備えたことを特徴とする食品 焼成方法。 13.材料の状態判定システムであって、 上記材料のピクセル・イメージを形成するイメージ装置、及び 上記イメージ装置に接続され、請求項1から10のいずれかの方法を実行する 処理手段を備えたことを特徴とする状態判定システム。 14.食品焼成アセンブリであって、オーブンと、 上記オーブンから出力される上記焼成食品のイメージを形成するためのイメー ジ装置、 上記イメージ装置に接続され、請求項1から10のいずれかに記載の判定方法 を実行する処理手段、及び 上記処理手段に接続され、上記焼成食品の状態を表す上記処理手段の出力信号 を入力するコントロール手段を備え、 上記コントロール手段は上記焼成食品の上記状態に基づいて上記オーブンを操 作するために上記オーブンに接続されていることを特徴とする食品焼成アセンブ リ。 【手続補正書】特許法第184条の8第1項 【提出日】1997年2月7日 【補正内容】 請求の範囲 1.状態に依存したカラー特性を持つ材料の状態を判定する食品焼成方法であっ て、 上記材料の複数ピクセルからなるピクセル・イメージを形成するステップ、 上記ピクセル・イメージを三次元カラー空間に投影するステップ、 上記投影を、状態が判っている上記材料の第二の部分の投影と比較し、上記材 料の状態を判定するステップ、及び 上記判定した材料の状態によって上記食品を焼成するためのオーブンを調節す るステップを備えたことを特徴とする食品焼成方法。 2。上記比較するステップは、さらに、 上記材料の第二の部分から一連の状態データポイントを生成するステップ、及 び 上記材料の状態を判定するために、上記状態データポイントを用いて上記投影 の比較をプロデュースするステップを備えたことを特徴とする請求項1記載の食 品焼成方法。 3.上記生成するステップは、さらに、自己組織化特性マップによって上記一連 の状態データポイントを生成するステップを備えたことを特徴とする請求項2記 載の食品焼成方法。 4.上記プロデュースするステップは、さらに、上記投影されたピクセル・イメ ージ及び上記状態データポイントからデータヒストグラムをプロデュースするス テップを備え、上記ヒストグラムは各状態データポイントの近傍に投影されたピ クセルの数を表すことを特徴とする請求項2記載の食品焼成方法。 5。上記プロデュースするステップは、さらに、 上記データヒストグラムを用いてニューラル・ネットワークへのニューラル・ ネットワーク入力を生成するステップを備え、上記ニューラル・ネットワークは 状態の判っている材料の投影されたピクセル・イメージのヒストグラムから生成 されたニューラル・ネットワーク入力を認識し上記判っている状態を表す信号を 生成するように訓練されると共に、及び 上記データヒストグラムの投影されたピクセル・イメージの上記状態を表す信 号を上記ニューラル・ネットワークから出力するステップを備えたことを特徴と する請求項4記載の食品焼成方法。 6.一連の特性を集合的に持つ第一のデータサンプルの状態を判定する食品焼成 方法であって、 複数のデータポイントを持つ上記第一のデータサンプルを多次元空間に投影す るステップ、 第一のデータサンプルの特性の状態を判定するために、上記投影を、状態の 判っている特性のセットを持つ第二のデータサンプルの投影と比較するステップ 、及び 上記第一のデータサンプル特性の状態によって上記食品を焼成するためのオー ブンを調節するステップを備えたことを特徴とする食品焼成方法。 7.上記比較するステップは、さらに、 上記第二のデータサンプルから一連の状態データポイントを生成するステップ 、及び 上記第一のデータサンプル特性の状態を判定するために、上記状態データポイ ントを用いて上記投影の比較をプロデュースするステップを備えたことを特徴と する請求項6記載の食品焼成方法。 8.上記生成するステップは、さらに、自己組織化特性マップによって上記一連 の状態データポイントを生成するステップを備えたことを特徴とする請求項7記 載の食品焼成方法。 9.上記プロデュースするステップは、さらに、上記第一のデータサンプル及び 上記状態データポイントからデータヒストグラムを作成するステップを備え、上 記ヒストグラムは各状態データポイントの近傍の第一のサンプルの数を表すこと を特徴とする請求項8記載の食品焼成方法。 10.上記プロデュースするステップは、さらに、 上記データヒストグラムを用いてニューラル・ネットワークへのニューラル・ ネットワーク入力を生成するステップを備え、上記ニューラル・ネットワークは 、状態の判っている一連の特性を持つデータサンプルのヒストグラムから生成さ れ たニューラル・ネットワーク入力を認識し上記判っている状態を表す信号を生成 するように訓練されると共に、及び 上記データヒストグラムの投影されたデータサンプルの上記状態を表す信号を 上記ニューラル・ネットワークから出力するステップを備えたことを特徴とする 請求項9記載の食品焼成方法。 11.状態に依存したカラー特性を持つ材料の状態を判定する食品焼成システム であって、 上記材料の複数ピクセルからなるピクセル・イメージを形成するイメージ装置 、 上記ピクセル・イメージを三次元カラー空間に投影する手段、 上記投影を、状態が判っている上記材料の第二の部分の投影と比較し、上記材 料の状態を判定する手段、及び 上記判定した材料の状態によって上記食品を焼成するためのオーブンを調節す る手段を備えたことを特徴とする食品焼成システム。 12.上記投影を比較する手段は、さらに、 上記材料の第二の部分から一連の状態データポイントを生成する手段、及び 上記材料の状態を判定するために、上記状態データポイントを用いて上記投影 の比較をプロデュースする手段を備えたことを特徴とする請求項11記載の食品 焼成システム。 13.上記生成する手段は、さらに、上記一連の状態データポイントを生成する ために自己組織化特性マップを生成する手段を備えたことを特徴とする請求項1 2記載の食品焼成システム。 14.上記比較をプロデュースする手段は、さらに、上記投影されたピクセル・ イメージ及び上記状態データポイントからヒストグラムをプロデュースする手段 を備え、上記ヒストグラムは各状態データポイントの近傍に投影されたピクセル の数を表すことを特徴とする請求項12記載の食品焼成システム。 15.上記プロデュースする手段は、さらに、 上記データヒストグラムを用いてニューラル・ネットワークへのニューラル・ ネットワーク入力を生成する手段を備え、上記ニューラル・ネットワークは状態 の判っている材料の投影されたピクセル・イメージのヒストグラムから生成され たニューラル・ネットワーク入力を認識し上記判っている状態を表す信号を生成 するように訓練されると共に、及び 上記データヒストグラムの投影されたピクセル・イメージの上記状態を表す信 号を上記ニューラル・ネットワークから出力する手段を備えたことを特徴とする 請求項14記載の食品焼成システム。 16.一連の特性を集合的に持つ第一のデータサンプルの状態を判定する食品焼 成システムであって、 複数のデータポイントを持つ上記第一のデータサンプルを多次元空間に投影す る手段、 第一のデータサンプルの特性の状態を判定するために、上記投影を、状態の 判っている特性のセットを持つ第二のデータサンプルの投影と比較する手段、及 び 上記第一のデータサンプル特性の状態によって上記食品を焼成するためのオー ブンを調節する手段を備えたことを特徴とする食品焼成システム。 17.上記投影を比較する手段は、さらに、 上記第二のデータサンプルから一連の状態データポイントを生成する手段、及 び 上記第一のデータサンプル特性の状態を判定するために、上記状態データポイ ントを用いて上記投影の比較をプロデュースする手段を備えたことを特徴とする 請求項16記載の食品焼成システム。 18.上記生成する手段は、さらに、上記一連の状態データポイントを生成する ために自己組織化特性マップを生成する手段を備えたことを特徴とする請求項1 7記載の食品焼成システム。 19.上記比較をプロデュースする手段は、さらに、上記第一のデータサンプル 及び上記状態データポイントからヒストグラムをプロデュースする手段を備え、 上記ヒストグラムは各状態データポイントの近傍の第一のサンプルの数を表すこ とを特徴とする請求項18記載の食品焼成システム。 20.上記ヒストグラムをプロデュースする手段は、さらに、 上記データヒストグラムを用いてニューラル・ネットワークへのニューラル・ ネットワーク入力を生成する手段を備え、上記ニューラル・ネットワークは、状 態の判っている一連の特性を持つデータサンプルのヒストグラムから生成された ニューラル・ネットワーク入力を認識し上記判っている状態を表す信号を生成す ろように訓練されると共に、及び 上記データヒストグラムの投影されたデータサンプルの上記状態を表す信号を 上記ニューラル・ネットワークから出力する手段を備えたことを特徴とする請求 項19記載の食品焼成システム。 21。食品焼成アセンブリであって、オーブンと、 請求項11から20のいずれかに記載の食品焼成システムを備えたことを特徴 とする食品焼成アセンブリ。[Procedure of Amendment] Patent Law Article 184-4, paragraph 4 [Submission date] April 15, 1996 [Correction contents] 1. A method for judging a state of a material having a color characteristic depending on a state,   Forming a pixel image consisting of a plurality of pixels of the material;   Projecting the pixel image into a three-dimensional color space;   Comparing the projection with a projection of a second portion of the material whose condition is known, A state determining method, comprising a step of determining a state of a charge. 2. The comparing step further includes:   Generating a series of state data points from the second portion of the material; and And   Using the state data points to determine the state of the material 2. The method of claim 1, further comprising the step of producing a comparison of Law. 3. The step of generating further includes the step of generating Generating the state data points of The method described. 4. The step of producing further comprises the step of producing the projected pixel image. To produce a data histogram from the state data points The histogram is projected to the vicinity of each of a plurality of state data points. 3. The method according to claim 2, wherein the number of pixels is represented. 5. The producing step further includes:   Using the above data histogram, the neural network Generating a network input, the neural network comprising: Generated from a histogram of projected pixel images of known material Recognizes the input of the neural network and outputs a signal representing the known state. Trained to produce, and   A signal representing the state of the projected pixel image of the data histogram. Outputting a signal from the neural network. 5. The method of claim 4, wherein 6. A method for determining a state of a first data sample having a series of characteristics collectively,   Project the first data sample with multiple data points into a multidimensional space Steps, and     To determine the state of the property of the first data sample, the projection is Comparing to a projection of a second data sample having a set of known properties A state determination method comprising: 7. The comparing step further includes:   Generating a series of state data points from the second data sample ,as well as   To determine the state of the first data sample characteristic, the state data point Producing the comparison of the projections using 7. The method of claim 6, wherein 8. The step of generating further includes the step of generating 8. The method of claim 7, further comprising the step of generating state data points. Claims listed. 9. The step of producing further comprises the first data sample and Creating a data histogram from said state data points; The histogram should represent the number of first samples near each state data point The claim according to claim 8, characterized in that: 10. The producing step further includes:   Using the above data histogram, the neural network Generating a network input, the neural network comprising: Generated from a histogram of a data sample with a set of known properties Recognizes the input of the neural network and generates a signal representing the known state. Trained to do so, and   A signal representing the state of the projected data sample of the data histogram is Outputting from the neural network. The method according to claim 9. 11. A food baking method using the determination method according to any one of claims 1 to 5. Therefore, depending on the condition of the material, the oven used to bake the food A food baking method, comprising a step of controlling the food. 12. A food baking method using the above-described determination method according to claim 6. Wherein the food is baked according to the state of the first data sample characteristic. Characterized by the step of controlling the oven used for cooking Firing method. 13. A material state determination system,   An image device for forming a pixel image of the material; and   11. The method according to claim 1, wherein the method is connected to the image device. A state determination system comprising processing means. 14. A food baking assembly, comprising: an oven;   An image for forming an image of the baked food output from the oven Device   The determination method according to claim 1, wherein the determination method is connected to the image device. Processing means for executing   An output signal of the processing means connected to the processing means and representing a state of the baked food Control means for inputting   The control means operates the oven based on the condition of the baked food. Food baking assembly connected to the oven for making Ri. [Procedure of Amendment] Article 184-8, Paragraph 1 of the Patent Act [Submission date] February 7, 1997 [Correction contents]                                The scope of the claims 1. A food baking method for determining the state of a material having color characteristics depending on the state. hand,   Forming a pixel image consisting of a plurality of pixels of the material;   Projecting the pixel image into a three-dimensional color space;   Comparing the projection with a projection of a second portion of the material whose condition is known, Determining the state of the fee; and   Adjust the oven for baking the food according to the state of the material determined above. A food baking method, comprising the steps of: 2. The comparing step further includes:   Generating a series of state data points from the second portion of the material; and And   Using the state data points to determine the state of the material 2. The method of claim 1, further comprising the step of producing a comparison of Product firing method. 3. The step of generating further includes the step of generating Generating the state data points of Food baking method described. 4. The step of producing further comprises the step of producing the projected pixel image. To produce a data histogram from the state data points Step, and the histogram is projected peaks near each state data point. The food baking method according to claim 2, wherein the number of cells is represented. 5. The producing step further includes:   Using the above data histogram, the neural network Generating a network input, the neural network comprising: Generated from a histogram of projected pixel images of known material Recognizes the input of the neural network and outputs a signal representing the known state. Trained to produce, and   A signal representing the state of the projected pixel image of the data histogram. Outputting a signal from the neural network. The food baking method according to claim 4, wherein 6. Food baking to determine the state of a first data sample with a set of properties collectively The method   Project the first data sample with multiple data points into a multidimensional space Steps,     To determine the state of the property of the first data sample, the projection is Comparing to a projection of a second data sample having a set of known properties ,as well as   An oven for baking the food according to the state of the first data sample characteristic. A method for baking food, comprising the step of adjusting a bun. 7. The comparing step further includes:   Generating a series of state data points from the second data sample ,as well as   To determine the state of the first data sample characteristic, the state data point Producing the comparison of the projections using The food baking method according to claim 6, wherein 8. The step of generating further includes the step of generating 8. The method of claim 7, further comprising the step of generating state data points. Food baking method described. 9. The step of producing further comprises the first data sample and Creating a data histogram from said state data points; The histogram should represent the number of first samples near each state data point The food baking method according to claim 8, wherein: 10. The producing step further includes:   Using the above data histogram, the neural network Generating a network input, the neural network comprising: Generated from a histogram of a data sample with a set of known properties Re Recognizes neural network input and generates a signal indicating the above known state Trained to do so, and   A signal representing the state of the projected data sample of the data histogram is Outputting from the neural network. The food baking method according to claim 9. 11. Food baking system that determines the state of a material with state-dependent color characteristics And   Imaging device for forming a pixel image consisting of a plurality of pixels of the above material ,   Means for projecting the pixel image into a three-dimensional color space,   Comparing the projection with a projection of a second portion of the material whose condition is known, Means for determining the state of the fee, and   Adjust the oven for baking the food according to the state of the material determined above. Food baking system, comprising: 12. The means for comparing the projections further comprises:   Means for generating a series of state data points from the second portion of the material; and   Using the state data points to determine the state of the material 12. A food according to claim 11, further comprising means for producing a comparison of Firing system. 13. The means for generating further generates the series of state data points. And means for generating a self-organizing characteristic map for generating the self-organizing characteristic map. Food baking system according to 2. 14. The means for producing the comparison further comprises: Means for producing a histogram from an image and said state data points And the histogram includes pixels projected near each state data point. 13. The food baking system according to claim 12, wherein the number represents the number of foods. 15. The means for producing the above further comprises:   Using the above data histogram, the neural network Means for generating a network input, the neural network comprising a state Generated from a histogram of projected pixel images of known materials Recognizes neural network input and generates a signal indicating the above known state Trained to do so, and   A signal representing the state of the projected pixel image of the data histogram. Means for outputting a signal from the neural network. The food baking system according to claim 14. 16. Food baking to determine the status of a first data sample having a set of properties collectively System,   Project the first data sample with multiple data points into a multidimensional space Means,     To determine the state of the property of the first data sample, the projection is Means for comparing to a projection of a second data sample having a set of known properties, and And   An oven for baking the food according to the state of the first data sample characteristic. A food baking system comprising means for adjusting a bun. 17. The means for comparing the projections further comprises:   Means for generating a series of state data points from said second data sample; and And   To determine the state of the first data sample characteristic, the state data point Means for producing the comparison of the projections using The food baking system according to claim 16. 18. The means for generating further generates the series of state data points. And means for generating a self-organizing characteristic map for generating the self-organizing characteristic map. 8. The food baking system according to 7. 19. The means for producing the comparison further comprises the first data sample And means for producing a histogram from the state data points, The histogram above represents the number of first samples near each state data point. 19. The food baking system according to claim 18, wherein: 20. The means for producing the histogram further comprises:   Using the above data histogram, the neural network Means for generating a network input, wherein the neural network comprises Generated from a histogram of a data sample with a set of known characteristics Recognizes neural network input and generates a signal representing the known state To be trained, and   A signal representing the state of the projected data sample of the data histogram is A means for outputting from the neural network. Item 20. A food baking system according to item 19. 21. A food baking assembly, comprising: an oven;   A food baking system according to any one of claims 11 to 20. And food baking assembly.

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FR,GB,GR,IE,IT,LU,M C,NL,PT,SE),OA(BF,BJ,CF,CG ,CI,CM,GA,GN,ML,MR,NE,SN, TD,TG),AP(KE,LS,MW,SD,SZ,U G),AL,AM,AT,AU,BB,BG,BR,B Y,CA,CH,CN,CZ,DE,DK,EE,ES ,FI,GB,GE,HU,IS,JP,KE,KG, KP,KR,KZ,LK,LR,LS,LT,LU,L V,MD,MG,MK,MN,MW,MX,NO,NZ ,PL,PT,RO,RU,SD,SE,SG,SI, SK,TJ,TM,TT,UA,UG,US,UZ,V N (72)発明者 レオナード・ジョージ・チャドボーン・ヘ イミー オーストラリア国、ニュー・サウス・ウェ ールズ 2113、ノース・ライド、ジョプリ ング・ストリート 51────────────────────────────────────────────────── ─── Continuation of front page    (81) Designated countries EP (AT, BE, CH, DE, DK, ES, FR, GB, GR, IE, IT, LU, M C, NL, PT, SE), OA (BF, BJ, CF, CG , CI, CM, GA, GN, ML, MR, NE, SN, TD, TG), AP (KE, LS, MW, SD, SZ, U G), AL, AM, AT, AU, BB, BG, BR, B Y, CA, CH, CN, CZ, DE, DK, EE, ES , FI, GB, GE, HU, IS, JP, KE, KG, KP, KR, KZ, LK, LR, LS, LT, LU, L V, MD, MG, MK, MN, MW, MX, NO, NZ , PL, PT, RO, RU, SD, SE, SG, SI, SK, TJ, TM, TT, UA, UG, US, UZ, V N (72) Inventor Leonard George Chadbourne             Immy             New South Way, Australia             Charles 2113, North Ryde, Jopri             Ning Street 51

Claims (1)

【特許請求の範囲】 1.状態に依存したカラー特性を持つ材料の状態判定方法であって、 上記材料のピクセル・イメージを形成するステップ、 上記ピクセル・イメージを三次元カラー空間に投影するステップ、及び 上記投影を、状態が判っている上記材料の第二の部分の投影と比較し、上記材 料の状態を判定するステップを備えたことを特徴とする状態判定方法。 2.上記比較するステップは、さらに、 上記材料の第二の部分から一連の状態データポイントを生成するステップ、及 び 上記材料の状態を判定するために、上記状態データポイントを用いて上記投影 の比較をプロデュースするステップを備えたことを特徴とする請求項1記載の方 法。 3.上記生成するステップは、さらに、自己組織化特性マップによって上記一連 の状態データポイントを生成するステップを備えたことを特徴とする請求項2記 載の方法。 4.上記プロデュースするステップは、さらに、上記投影されたピクセル・イメ ージ及び上記状態データポイントからデータヒストグラムをプロデュースするス テップを備え、上記ヒストグラムは各データポイントの近傍に投影されたピクセ ルの数を表すことを特徴とする請求項2記載の方法。 5.上記プロデュースするステップは、さらに、 ニューラル・ネットワーク上記データヒストグラム、へのニューラル・ネット ワーク入力を生成するステップを備え、上記ニューラル・ネットワークは状態の 判っている材料の投影されたピクセル・イメージのヒストグラムから生成された ニューラル・ネットワーク入力を認識し上記判っている状態を表す信号を生成す るように訓練使用されると共に、及び 上記データヒストグラムの投影されたピクセル・イメージの上記状態を表す信 号を上記ニューラル・ネットワークから出力するステップを備えたことを特徴と する請求項4記載の方法。 6.一連の特性を集合的に持つ第一のデータサンプルの状態判定方法であって、 上記第一のデータサンプルを多次元空間に投影するステップ、及び 第一のデータサンプルの特性の状態を判定するために、上記投影を、状態の 判っている特性のセットを持つ第二のデータサンプルの投影と比較するステップ を備えたことを特徴とする状態判定方法。 7.上記比較するステップは、さらに、 上記第二のデータサンプルから一連の状態データポイントを生成するステップ 、及び 上記第一のデータサンプル特性の状態を判定するために、上記状態データポイ ントを用いて上記投影の比較をプロデュースするステップを備えたことを特徴と する請求項6記載の方法。 8.上記生成するステップは、さらに、自己組織化特性マップによって上記一連 の状態データポイントを生成するステップを備えたことを特徴とする請求項7記 載の請求項。 9.上記プロデュースするステップは、さらに、上記第一のデータサンプル及び 上記状態データポイントからデータヒストグラムを作成するステップを備え、上 記ヒストグラムは各状態データポイントの近傍の第一のサンプルの数を表すこと を特徴とする請求項8記載の請求項。 10.上記プロデュースするステップは、さらに、 上記データヒストグラムを用いてニューラル・ネットワークへのニューラル・ ネットワーク入力を生成するステップを備え、上記ニューラル・ネットワークは 、状態の判っている一連の特性を持つデータサンプルのヒストグラムから生成さ れたニューラル・ネットワーク入力を認識し上記判っている状態を表す信号を生 成するように訓練されると共に、及び 上記データヒストグラムの投影されたデータサンプルの上記状態を表す信号を 上記ニューラル・ネットワークから出力するステップを備えたことを特徴とする 請求項9記載の方法。 11.請求項1から5のいずれかに記載の上記判定方法を用いた食品焼成方法で あって、上記材料の状態によって上記食品を焼成するために用いるオーブンをコ ントロールするステップを備えたことを特徴とする食品焼成方法。 12.請求項6から10のいずれかに記載の上記判定方法を用いた食品焼成方法 であって、上記第一のデートサンプル特性の状態によって上記食品を焼成するた めに用いるオーブンをコントロールするステップを備えたことを特徴とする食品 焼成方法。 13.材料の状態判定システムであって、 上記材料のピクセル・イメージを形成するイメージ装置、及び 上記イメージ装置に接続され、請求項1から10のいずれかの方法を実行する 処理手段を備えたことを特徴とする状態判定システム。 14.食品焼成アセンブリであって、オーブンと、 上記オーブンから出力される上記焼成食品のイメージを形成するためのイメー ジ装置、 上記イメージ装置に接続され、請求項1から10のいずれかに記載の判定方法 を実行する処理手段、及び 上記処理手段に接続され、上記焼成食品の状態を表す上記処理手段の出力信号 を入力するコントロール手段を備え、 上記コントロール手段は上記焼成食品の上記状態に基づいて上記オーブンを操 作するために上記オーブンに接続されていることを特徴とする食品焼成アセンブ リ。[Claims] 1. A method for judging a state of a material having a color characteristic depending on a state,   Forming a pixel image of the material;   Projecting the pixel image into a three-dimensional color space;   Comparing the projection with a projection of a second portion of the material whose condition is known, A state determining method, comprising a step of determining a state of a charge. 2. The comparing step further includes:   Generating a series of state data points from the second portion of the material; and And   Using the state data points to determine the state of the material 2. The method of claim 1, further comprising the step of producing a comparison of Law. 3. The step of generating further includes the step of generating Generating the state data points of The method described. 4. The step of producing further comprises the step of producing the projected pixel image. To produce a data histogram from the state data points Step, and the histogram is a pixel projected near each data point. 3. The method of claim 2, wherein the method represents a number of files. 5. The producing step further includes:   Neural network Neural network to the above data histogram Generating a work input, wherein the neural network Generated from a histogram of projected pixel images of known materials Recognizes neural network input and generates a signal representing the known state Used together with training, and   A signal representing the state of the projected pixel image of the data histogram. Outputting a signal from the neural network. 5. The method of claim 4, wherein 6. A method for determining a state of a first data sample having a series of characteristics collectively,   Projecting the first data sample into a multidimensional space; and     To determine the state of the property of the first data sample, the projection is Comparing to a projection of a second data sample having a set of known properties A state determination method comprising: 7. The comparing step further includes:   Generating a series of state data points from the second data sample ,as well as   To determine the state of the first data sample characteristic, the state data point Producing the comparison of the projections using 7. The method of claim 6, wherein 8. The step of generating further includes the step of generating 8. The method of claim 7, further comprising the step of generating state data points. Claims listed. 9. The step of producing further comprises the first data sample and Creating a data histogram from said state data points; The histogram should represent the number of first samples near each state data point The claim according to claim 8, characterized in that: 10. The producing step further includes:   Using the above data histogram, the neural network Generating a network input, the neural network comprising: Generated from a histogram of a data sample with a set of known properties Recognizes the input of the neural network and generates a signal representing the known state. Trained to do so, and   A signal representing the state of the projected data sample of the data histogram is Outputting from the neural network. The method according to claim 9. 11. A food baking method using the determination method according to any one of claims 1 to 5. Therefore, depending on the condition of the material, the oven used to bake the food A food baking method, comprising a step of controlling the food. 12. A food baking method using the above-described determination method according to claim 6. Wherein the food is baked according to the state of the first date sample characteristic. Characterized by the step of controlling the oven used for cooking Firing method. 13. A material state determination system,   An image device for forming a pixel image of the material; and   11. The method according to claim 1, wherein the method is connected to the image device. A state determination system comprising processing means. 14. A food baking assembly, comprising: an oven;   An image for forming an image of the baked food output from the oven Device   The determination method according to claim 1, wherein the determination method is connected to the image device. Processing means for executing   An output signal of the processing means connected to the processing means and representing a state of the baked food Control means for inputting   The control means operates the oven based on the condition of the baked food. Food baking assembly connected to the oven for making Ri.
JP8517937A 1994-12-13 1995-12-01 Data recognition system Pending JPH10511786A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU0023 1994-12-13
AUPN0023A AUPN002394A0 (en) 1994-12-13 1994-12-13 Data recognition system
PCT/AU1995/000813 WO1996018975A1 (en) 1994-12-13 1995-12-01 Data recognition system

Publications (1)

Publication Number Publication Date
JPH10511786A true JPH10511786A (en) 1998-11-10

Family

ID=3784530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8517937A Pending JPH10511786A (en) 1994-12-13 1995-12-01 Data recognition system

Country Status (8)

Country Link
JP (1) JPH10511786A (en)
CN (1) CN1170469A (en)
AU (1) AUPN002394A0 (en)
CA (1) CA2207326A1 (en)
DE (1) DE19581867T1 (en)
GB (1) GB2311369A (en)
NZ (1) NZ296487A (en)
WO (1) WO1996018975A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312762A (en) * 2001-04-12 2002-10-25 Seirei Ind Co Ltd Grain sorting apparatus utilizing neural network
CN106778912A (en) * 2017-01-13 2017-05-31 湖南理工学院 A kind of full-automatic apparatus for baking and method for cake
CN110111648A (en) * 2019-04-17 2019-08-09 吉林大学珠海学院 A kind of programming training system and method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0437439B1 (en) * 1988-07-14 1996-03-27 Garibaldi Pty. Ltd. Computerised colour matching
JPH0786433B2 (en) * 1990-05-22 1995-09-20 支朗 臼井 Color vision information conversion method and device
US5283839A (en) * 1990-12-31 1994-02-01 Neurosciences Research Foundation, Inc. Apparatus capable of figure-ground segregation
GB2256708A (en) * 1991-06-11 1992-12-16 Sumitomo Heavy Industries Object sorter using neural network
SE470465B (en) * 1992-09-07 1994-04-18 Agrovision Ab Method and apparatus for automatic assessment of grain cores and other granular products

Also Published As

Publication number Publication date
GB2311369A (en) 1997-09-24
WO1996018975A1 (en) 1996-06-20
CA2207326A1 (en) 1996-06-20
GB9710197D0 (en) 1997-07-09
AUPN002394A0 (en) 1995-01-12
CN1170469A (en) 1998-01-14
DE19581867T1 (en) 1997-12-11
NZ296487A (en) 2000-01-28

Similar Documents

Publication Publication Date Title
Sapirstein et al. Instrumental measurement of bread crumb grain by digital image analysis
Arzate-Vázquez et al. Image processing applied to classification of avocado variety Hass (Persea americana Mill.) during the ripening process
Sapirstein et al. An instrumental system for cereal grain classification using digital image analysis
US5206918A (en) Color analysis based upon transformation to spherical coordinates
JP5647878B2 (en) Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method
KR101913612B1 (en) System and method for identifying complex tokens in an image
CN109191428B (en) Masking texture feature-based full-reference image quality evaluation method
CN109141640A (en) Acetes chinensis method, system, equipment and storage medium based on machine vision
CN104871175A (en) Method for scoring and controlling quality of food products in a dynamic production line
CN111899182A (en) Color enhancement method and device
JPH05225332A (en) Method and apparatus for variable-space wave filtering
CN109948653B (en) Image similarity judging method, electronic equipment and storage medium
CN111860639A (en) System and method for judging quantized flue-cured tobacco leaf curing characteristics
JP2021152686A (en) Image processing equipment, image processing system, and image processing method
Zheng et al. Object measurement methods
CN112016621B (en) Training method of classification model, color classification method and electronic equipment
JPH10511786A (en) Data recognition system
CN112488997B (en) Method for detecting and evaluating color reproduction of ancient painting printed matter based on characteristic interpolation
CN116597029B (en) Image re-coloring method for achromatopsia
Hamey et al. Pre-processing colour images with a self-organising map: baking curve identification and bake image segmentation
Khan et al. Automatic quality inspection of bakery products based on shape and color information
JPH0993443A (en) Color-monochromatic image conversion method and edge position detection method for object to be inspected
Saito et al. Eggplant classification using artificial neural network
Wasnik et al. Digital image analysis: Tool for food quality evaluation
CN114943737B (en) Flaky pastry quality evaluation method and device and readable storage medium