JPH06266687A - テクスチュアイメージ合成装置 - Google Patents
テクスチュアイメージ合成装置Info
- Publication number
- JPH06266687A JPH06266687A JP5227303A JP22730393A JPH06266687A JP H06266687 A JPH06266687 A JP H06266687A JP 5227303 A JP5227303 A JP 5227303A JP 22730393 A JP22730393 A JP 22730393A JP H06266687 A JPH06266687 A JP H06266687A
- Authority
- JP
- Japan
- Prior art keywords
- texture
- neural network
- synthesizer
- synthesis
- analyzer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N35/00—Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/44—Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/649—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding the transform being applied to non rectangular image segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
(57)【要約】
【目的】 アナライザ(24)及びシンセサイザ(28)を具え
たテクスチュアイメージの合成のための装置(22)を提供
する。 【構成】 テクスチュアアナライザー(24)は、テクスチ
ュアのピクセルの周囲を特徴づける少なくとも1つの近
接関数を用いてシナプス係数(Cab)を計算することに
よってテクスチュアを特徴づけることを学習する分析用
ニューラルネットワーク(30)を有する。テクスチュア
シンセサイザ(28)は、計算されたシナプス係数(Cab)
を受信し、緩和機構を用いて学習したテクスチュアのレ
プリカを合成する合成用ニューラルネットワーク(40)
を有する。ニューラルネットワーク(30)(40)はツリー構
造であってもよい。テレビジョン、ビデオ電話、ビデオ
CD等に応用される。
たテクスチュアイメージの合成のための装置(22)を提供
する。 【構成】 テクスチュアアナライザー(24)は、テクスチ
ュアのピクセルの周囲を特徴づける少なくとも1つの近
接関数を用いてシナプス係数(Cab)を計算することに
よってテクスチュアを特徴づけることを学習する分析用
ニューラルネットワーク(30)を有する。テクスチュア
シンセサイザ(28)は、計算されたシナプス係数(Cab)
を受信し、緩和機構を用いて学習したテクスチュアのレ
プリカを合成する合成用ニューラルネットワーク(40)
を有する。ニューラルネットワーク(30)(40)はツリー構
造であってもよい。テレビジョン、ビデオ電話、ビデオ
CD等に応用される。
Description
【0001】
【産業上の利用分野】本発明は、シナプス係数(Cab)
によって重み付けが決められるリンクによって相互接続
されているニューロンからなる合成用ニューラルネット
ワークと、入力イメージのテクスチュアの少なくとも1
つのピクセル近接関数を特徴づけるシナプス係数(Ca
b)の値を合成用ニューラルネットワークにロードする
入力手段と、合成用ニューラルネットワークを自律的に
動作させ合成用ニューラルネットワークの出力データが
該合成用ニューラルネットワークの入力にサイクリック
に再導入される緩和機構によって該テクスチュアの統計
的なレプリカを生成させる手段とを有するテクスチュア
シンセサイザを具えたテクスチュアイメージ合成装置に
関するものである。
によって重み付けが決められるリンクによって相互接続
されているニューロンからなる合成用ニューラルネット
ワークと、入力イメージのテクスチュアの少なくとも1
つのピクセル近接関数を特徴づけるシナプス係数(Ca
b)の値を合成用ニューラルネットワークにロードする
入力手段と、合成用ニューラルネットワークを自律的に
動作させ合成用ニューラルネットワークの出力データが
該合成用ニューラルネットワークの入力にサイクリック
に再導入される緩和機構によって該テクスチュアの統計
的なレプリカを生成させる手段とを有するテクスチュア
シンセサイザを具えたテクスチュアイメージ合成装置に
関するものである。
【0002】
【従来の技術】イメージにおけるテクスチュアとは、見
る者の目に一様に見える範囲をいう。テクスチュアは、
多少とも規則的に或いはランダムに配列が繰り返されて
いる限られた数のパターンによって、同じ材質例えば
木、織物、舗装道路、水等を表現する。従って、テクス
チュアを再現することは、可能な限り初期のイメージの
外観を持つイメージを目に見えるようにすること、即ち
テクスチュアパターンの配列の統計的レプリカを再生す
ることである。
る者の目に一様に見える範囲をいう。テクスチュアは、
多少とも規則的に或いはランダムに配列が繰り返されて
いる限られた数のパターンによって、同じ材質例えば
木、織物、舗装道路、水等を表現する。従って、テクス
チュアを再現することは、可能な限り初期のイメージの
外観を持つイメージを目に見えるようにすること、即ち
テクスチュアパターンの配列の統計的レプリカを再生す
ることである。
【0003】テクスチュアを特徴づけるためには、前も
ってその範囲を決めることが必要である。この操作はテ
クスチュアの分割に関することである。これは、テクス
チュアの範囲の境界の輪郭を確定するのに利用できる。
この操作はシステムの外で行うことができる。テクスチ
ュアの輪郭が決まると、利用するイメージを生成するた
めにはこれを再生する必要がある。例えばテレビジョン
を用いてビデオコンパクトディク或いはビデオ電話のイ
メージを生成する場合である。
ってその範囲を決めることが必要である。この操作はテ
クスチュアの分割に関することである。これは、テクス
チュアの範囲の境界の輪郭を確定するのに利用できる。
この操作はシステムの外で行うことができる。テクスチ
ュアの輪郭が決まると、利用するイメージを生成するた
めにはこれを再生する必要がある。例えばテレビジョン
を用いてビデオコンパクトディク或いはビデオ電話のイ
メージを生成する場合である。
【0004】テクスチュアのコード化の方法は、ピクセ
ルの発光レベルをその隣接ピクセルの発光レベルに基づ
いて決めることと一致する。テクスチュアを合成するた
めの反復処理は、費用関数を最適にしながらピクセルの
発光度を連続的に更新することによって遂行される。こ
のように、合成されたテクスチュアは費用の関数として
コード化されたパラメータに依存する。従って、テクス
チュア合成のための計算時間とデータ伝送時間を減らす
ためには、これらのパラメータの数を最小にすることが
必要である。そのためには、情報の充分な圧縮が必要で
ある。
ルの発光レベルをその隣接ピクセルの発光レベルに基づ
いて決めることと一致する。テクスチュアを合成するた
めの反復処理は、費用関数を最適にしながらピクセルの
発光度を連続的に更新することによって遂行される。こ
のように、合成されたテクスチュアは費用の関数として
コード化されたパラメータに依存する。従って、テクス
チュア合成のための計算時間とデータ伝送時間を減らす
ためには、これらのパラメータの数を最小にすることが
必要である。そのためには、情報の充分な圧縮が必要で
ある。
【0005】V.ATALAY、E.GELENBE 及びN.YALABIK の論
文「 ランダムニューラルネットワークモデルによるテク
スチュアの生成」 (Proc.ICANN,1991,pp.111-116)に
は、テクスチュアを生成するための装置が記載されてい
る。この装置は、テクスチュアシンセサイザとして動作
するニューラルネットワークを用いている。ここでは、
ニューラルネットワークは、テクスチュアの対称性の解
析に基づいてユーザーが予め決めた定数をシナプス係数
としている。ニューラルネットワークは、1つ1つのピ
クセルについてそのピクセルの周囲のピクセルの状態を
考慮し、統計的レプリカを構成する全てのピクセルの状
態を決める。この計算は、ニューラルネットワークの出
力データをその入力端子に再導入する緩和機構を用い
る。所定の数のサイクルの後、緩和機構は自身で安定す
る。この動作はコンピュータによって制御される。
文「 ランダムニューラルネットワークモデルによるテク
スチュアの生成」 (Proc.ICANN,1991,pp.111-116)に
は、テクスチュアを生成するための装置が記載されてい
る。この装置は、テクスチュアシンセサイザとして動作
するニューラルネットワークを用いている。ここでは、
ニューラルネットワークは、テクスチュアの対称性の解
析に基づいてユーザーが予め決めた定数をシナプス係数
としている。ニューラルネットワークは、1つ1つのピ
クセルについてそのピクセルの周囲のピクセルの状態を
考慮し、統計的レプリカを構成する全てのピクセルの状
態を決める。この計算は、ニューラルネットワークの出
力データをその入力端子に再導入する緩和機構を用い
る。所定の数のサイクルの後、緩和機構は自身で安定す
る。この動作はコンピュータによって制御される。
【0006】
【発明が解決しようとする課題】この種の装置はいくつ
かの欠点を有する。テクスチュアの分析(即ちテクスチ
ュアのコード化)は、装置自身の選択ではなくユーザー
が行った選択に基づいて行われる。そのため、この種の
装置は、テクスチュアの分析及び合成をユーザーの介在
なしに自律的に遂行することができない。従って、ダイ
ナミックに動作することができず、テクスチュアの内容
の変化に追随できない。
かの欠点を有する。テクスチュアの分析(即ちテクスチ
ュアのコード化)は、装置自身の選択ではなくユーザー
が行った選択に基づいて行われる。そのため、この種の
装置は、テクスチュアの分析及び合成をユーザーの介在
なしに自律的に遂行することができない。従って、ダイ
ナミックに動作することができず、テクスチュアの内容
の変化に追随できない。
【0007】更に、この技術では、オペレータは単純な
近接関数、即ち隣接ピクセルの重みづけ総和を用いる。
イメージのピクセルの間の遠隔相互作用、拡散相互作
用、分散相互作用等の相互作用を考慮に入れた複雑な関
数を計算することは容易ではない。実際に、そのような
選択方法はすぐに実行不可能になる。
近接関数、即ち隣接ピクセルの重みづけ総和を用いる。
イメージのピクセルの間の遠隔相互作用、拡散相互作
用、分散相互作用等の相互作用を考慮に入れた複雑な関
数を計算することは容易ではない。実際に、そのような
選択方法はすぐに実行不可能になる。
【0008】本発明の第1目的は、任意の複雑さでテク
スチュアをコード化し、続いて圧縮したコードにコード
化した情報を離れた箇所に伝送し、そのテクスチュアの
レプリカを再生する手段を提案することにある。
スチュアをコード化し、続いて圧縮したコードにコード
化した情報を離れた箇所に伝送し、そのテクスチュアの
レプリカを再生する手段を提案することにある。
【0009】
【課題を解決するための手段】この目的は、自己の入力
に印加される該テクスチュアに関するエグザンプルに基
づいて、該テクスチュアを構成するピクセルの隣接ピク
セルを特徴づける少なくとも1つの近接関数を用いて該
シナプス係数(Cab)の値を計算して該テクスチュアを
特徴づけることができる学習機能を有する分析用ニュー
ラルネットワークと、合成用ニューラルネットワークが
分析用ニューラルネットワークによって学習された近接
関数と同一の近接関数を用いて該レプリカのピクセルに
最初に付与されたランダム値に基づいて入力イメージの
テクスチュアの該統計的レプリカを生成するに際してこ
れに用いるための該シナプス係数(Cab)を合成用ニュ
ーラルネットワークに印加する手段とを具えた、テクス
チュアアナライザを具備するテクスチュアイメージ合成
装置によって達成される。
に印加される該テクスチュアに関するエグザンプルに基
づいて、該テクスチュアを構成するピクセルの隣接ピク
セルを特徴づける少なくとも1つの近接関数を用いて該
シナプス係数(Cab)の値を計算して該テクスチュアを
特徴づけることができる学習機能を有する分析用ニュー
ラルネットワークと、合成用ニューラルネットワークが
分析用ニューラルネットワークによって学習された近接
関数と同一の近接関数を用いて該レプリカのピクセルに
最初に付与されたランダム値に基づいて入力イメージの
テクスチュアの該統計的レプリカを生成するに際してこ
れに用いるための該シナプス係数(Cab)を合成用ニュ
ーラルネットワークに印加する手段とを具えた、テクス
チュアアナライザを具備するテクスチュアイメージ合成
装置によって達成される。
【0010】この種の装置は、テクスチュアが秩序立っ
ていない場合或いはノイズに影響されている場合であっ
ても真のテクスチュアを学習できる。この装置は先ずテ
クスチュアを知ることが必要である。各ピクセルの周囲
のテクスチュアを特徴づける近接関数を任意の複雑さに
することができる。テクスチュアの学習の後、即ち分析
用ニューラルネットワークによるテクスチュアのコード
化の後、ネットワークは学習したテクスチュアのパラメ
ータをシナプス係数の形でシンセサイザに供給し、シン
セサイザはテクスチュアを合成する。シナプス係数の形
でテクスチュアを伝送することによって、有効に情報の
圧縮を達成できる。
ていない場合或いはノイズに影響されている場合であっ
ても真のテクスチュアを学習できる。この装置は先ずテ
クスチュアを知ることが必要である。各ピクセルの周囲
のテクスチュアを特徴づける近接関数を任意の複雑さに
することができる。テクスチュアの学習の後、即ち分析
用ニューラルネットワークによるテクスチュアのコード
化の後、ネットワークは学習したテクスチュアのパラメ
ータをシナプス係数の形でシンセサイザに供給し、シン
セサイザはテクスチュアを合成する。シナプス係数の形
でテクスチュアを伝送することによって、有効に情報の
圧縮を達成できる。
【0011】シナプス係数を受信するテクスチュアシン
セサイザは、アナライザと同位置に或いは遠隔の位置に
置かれる。後者の場合はケーブルネットワーク或いは無
線によって伝送される。学習されたテクスチュアの統計
的レプリカを生成するために、シンセサイザはアナライ
ザからシナプス係数のみを受信する。他のパラメータを
アナライザから受信する必要はない。このため、合成用
ニューラルネットワークはアナライザが用いたものと同
じ近接関数を用いる。ニューラルネットワークの動作
は、緩和機構、即ちニューラルネットワークの出力信号
をサイクリックにこのネットワークの入力に再導入する
機構に基づく。
セサイザは、アナライザと同位置に或いは遠隔の位置に
置かれる。後者の場合はケーブルネットワーク或いは無
線によって伝送される。学習されたテクスチュアの統計
的レプリカを生成するために、シンセサイザはアナライ
ザからシナプス係数のみを受信する。他のパラメータを
アナライザから受信する必要はない。このため、合成用
ニューラルネットワークはアナライザが用いたものと同
じ近接関数を用いる。ニューラルネットワークの動作
は、緩和機構、即ちニューラルネットワークの出力信号
をサイクリックにこのネットワークの入力に再導入する
機構に基づく。
【0012】的確に動作するために、合成用ニューラル
ネットワークには初期ピクセル状態が必要である。ピク
セルに付与されたこの初期値はランダムな値でもよい。
テクスチュアの範囲と所定の初期値が付与されている箇
所とに跨がって分布している位置を有する初期化ピクセ
ルを選択することもできる。初期化ピクセルの状態と位
置の値はアナライザによって伝送される。
ネットワークには初期ピクセル状態が必要である。ピク
セルに付与されたこの初期値はランダムな値でもよい。
テクスチュアの範囲と所定の初期値が付与されている箇
所とに跨がって分布している位置を有する初期化ピクセ
ルを選択することもできる。初期化ピクセルの状態と位
置の値はアナライザによって伝送される。
【0013】好ましくは、分析用ニューラルネットワー
ク及び合成用ニューラルネットワークは、ニューロンツ
リーの形に構成される。ツリーの深さ、即ちニューロン
の連続層の数は予め決められる。ツリーのニューロンの
数及び合成用ニューラルネットワークによって行われる
計算の期間をこのようにして減らすことができる。ツリ
ー構造の単一ニューラルネットワークであれば、複数の
近接関数を実現することができる。分析用及び合成用ニ
ューラルネットワークは、既知の構造、例えばニューロ
ンの層の形の構造を採用することもできる。
ク及び合成用ニューラルネットワークは、ニューロンツ
リーの形に構成される。ツリーの深さ、即ちニューロン
の連続層の数は予め決められる。ツリーのニューロンの
数及び合成用ニューラルネットワークによって行われる
計算の期間をこのようにして減らすことができる。ツリ
ー構造の単一ニューラルネットワークであれば、複数の
近接関数を実現することができる。分析用及び合成用ニ
ューラルネットワークは、既知の構造、例えばニューロ
ンの層の形の構造を採用することもできる。
【0014】
【実施例】実施例によって本発明を更に詳細に説明す
る。図1Aは、異なったテクスチュアを有するイメージ
部分によって形成される2つのゾーン1a及び2aより
なるイメージ10aを示す。ゾーン1aは、斜線で形成さ
れたテクスチュアを持つ。一般的に、テクスチュアは完
全に決まって且つ完全に繰り返す幾何学的パターンに対
応するものではない。従って、数学的な見地からすると
単に統計的に記述できるに過ぎない。本発明によれば、
テクスチュアはモデル化され、このモデルはシンセサイ
ザが動作することによってテクスチュアの統計的レプリ
カを生成することができ、このレプリカは、見る者に対
して元のテクスチュア又は統計的レプリカの観察におい
て同じ視覚効果を与えるのに充分な忠実性を持ってい
る。従って、同一のテクスチュアをコピーするのではな
く、満足の行く再生を行うことを目的としている。
る。図1Aは、異なったテクスチュアを有するイメージ
部分によって形成される2つのゾーン1a及び2aより
なるイメージ10aを示す。ゾーン1aは、斜線で形成さ
れたテクスチュアを持つ。一般的に、テクスチュアは完
全に決まって且つ完全に繰り返す幾何学的パターンに対
応するものではない。従って、数学的な見地からすると
単に統計的に記述できるに過ぎない。本発明によれば、
テクスチュアはモデル化され、このモデルはシンセサイ
ザが動作することによってテクスチュアの統計的レプリ
カを生成することができ、このレプリカは、見る者に対
して元のテクスチュア又は統計的レプリカの観察におい
て同じ視覚効果を与えるのに充分な忠実性を持ってい
る。従って、同一のテクスチュアをコピーするのではな
く、満足の行く再生を行うことを目的としている。
【0015】図2は、本発明によるテクスチュアイメー
ジの処理装置22のブロック図を示す。処理されるイメー
ジデータはイメージメモリー20 MEM に格納される。こ
れらは連続的にデータを供給する伝送チャネルからも得
られる。装置22はアナライザ24 ANALYZ 及びシンセサイ
ザ28 SYNTHE を具える。先ず同じテクスチュアを持つゾ
ーンの輪郭を決める必要があり、これにより同じゾーン
に関するピクセルのアドレスを知る。輪郭検知器23をア
ナライザに組み込むこともできる。アナライザ24によっ
てゾーンが連続的に検知され、コード化され、アナライ
ザは強力に圧縮したコード化データをチャネル26を経て
シンセサイザ28に供給する。このデータに基づいてシン
セサイザはコード化されたテクスチュアの統計的レプリ
カを生成する。
ジの処理装置22のブロック図を示す。処理されるイメー
ジデータはイメージメモリー20 MEM に格納される。こ
れらは連続的にデータを供給する伝送チャネルからも得
られる。装置22はアナライザ24 ANALYZ 及びシンセサイ
ザ28 SYNTHE を具える。先ず同じテクスチュアを持つゾ
ーンの輪郭を決める必要があり、これにより同じゾーン
に関するピクセルのアドレスを知る。輪郭検知器23をア
ナライザに組み込むこともできる。アナライザ24によっ
てゾーンが連続的に検知され、コード化され、アナライ
ザは強力に圧縮したコード化データをチャネル26を経て
シンセサイザ28に供給する。このデータに基づいてシン
セサイザはコード化されたテクスチュアの統計的レプリ
カを生成する。
【0016】この装置の利点は、チャネル26に情報を伝
送するときに強力に圧縮されているコード化データを伝
送する点にある。もう一つの利点は、コード化データを
伝送する際に、シンセサイザはテクスチュアの統計的レ
プリカを供給するための元のテクスチュアのピクセルの
状態を受信することを必要としないことである。
送するときに強力に圧縮されているコード化データを伝
送する点にある。もう一つの利点は、コード化データを
伝送する際に、シンセサイザはテクスチュアの統計的レ
プリカを供給するための元のテクスチュアのピクセルの
状態を受信することを必要としないことである。
【0017】従って、第1のステップは再生するテクス
チュアの分析である。これは、テクスチュアのコード化
処理としてアナライザによって遂行される。本発明によ
れば、アナライザ24は(図3参照)分析用ニューラルネ
ットワーク30 NN を具え、このニューラルネットワーク
はテクスチュアを学習して強力に圧縮されているコード
化データを構成するシナプス係数を決める。
チュアの分析である。これは、テクスチュアのコード化
処理としてアナライザによって遂行される。本発明によ
れば、アナライザ24は(図3参照)分析用ニューラルネ
ットワーク30 NN を具え、このニューラルネットワーク
はテクスチュアを学習して強力に圧縮されているコード
化データを構成するシナプス係数を決める。
【0018】ニューラルネットワークに用いられる学習
機構は周知であり、ここでは詳述しない。本発明を的確
に理解するためには、ニューラルネットワークによる学
習は、ニューラルネットワークの入力にエグザンプルが
入力されたときに、ニューラルネットワークがそのエグ
ザンプルに基づいて出力すべきものと予め知られている
結果を出力すること(スーパーバイズ学習)であること
を知るだけで充分である。この予め知られた結果と実際
にニューラルネットワークが出力した結果とを比較し、
充分な数のエグザンプルを受け入れることによってそれ
らのギャップを小さくする。これは、ニューラルネット
ワークが用いるシナプス係数(Cab)を更新することに
よって行われる。これらのエグザンプルが入力された後
には、ニューラルネットワークは入力されるエグザンプ
ルに対応した結果の学習を終える。即ち、隣接するピク
セルの関数としてピクセルを再構成できるようになる。
このようにしてテクスチュアのコード化が完了する。
機構は周知であり、ここでは詳述しない。本発明を的確
に理解するためには、ニューラルネットワークによる学
習は、ニューラルネットワークの入力にエグザンプルが
入力されたときに、ニューラルネットワークがそのエグ
ザンプルに基づいて出力すべきものと予め知られている
結果を出力すること(スーパーバイズ学習)であること
を知るだけで充分である。この予め知られた結果と実際
にニューラルネットワークが出力した結果とを比較し、
充分な数のエグザンプルを受け入れることによってそれ
らのギャップを小さくする。これは、ニューラルネット
ワークが用いるシナプス係数(Cab)を更新することに
よって行われる。これらのエグザンプルが入力された後
には、ニューラルネットワークは入力されるエグザンプ
ルに対応した結果の学習を終える。即ち、隣接するピク
セルの関数としてピクセルを再構成できるようになる。
このようにしてテクスチュアのコード化が完了する。
【0019】一般論としては、この知識は、ニューロン
“a”とニューロン“b”(又は入力)との間の各リン
クの重み付けによって特徴づけられるシナプス係数(C
ab)の組に蓄えられる。ニューラルネットワークがテク
スチュアを学習するためには、テクスチュアに含まれる
ピクセルに基づいて動作する。座標xi,yi を持つ元の
テクスチュアにおける任意のピクセルPi (図1A)に
ついて、ニューラルネットワークの入力としてピクセル
Pi の隣接ピクセルのパラメータ値(例えば明るさ)が
供給される。これらのピクセルは近接関数によってピク
セルPi とリンクしている。種々の近接関数が使われ、
どのピクセルPi についても特徴付けができるようにな
っている。これらの近接関数は、ピクセルPi の直接接
しているピクセルを例えば最も近い隣接ピクセルとして
特徴付ける。少し離れているものについては、一般的に
は、テクスチュアの1つのピクセルの状態と他のピクセ
ルの状態との間に拡散関係があると特徴付ける。ニュー
ラルネットワークの利用に際し、近接関数の選択につい
ては何も制限することはない。どのようなテクスチュア
についても、非常に複雑なテクスチュアについてもこの
ようにしてコード化できる。
“a”とニューロン“b”(又は入力)との間の各リン
クの重み付けによって特徴づけられるシナプス係数(C
ab)の組に蓄えられる。ニューラルネットワークがテク
スチュアを学習するためには、テクスチュアに含まれる
ピクセルに基づいて動作する。座標xi,yi を持つ元の
テクスチュアにおける任意のピクセルPi (図1A)に
ついて、ニューラルネットワークの入力としてピクセル
Pi の隣接ピクセルのパラメータ値(例えば明るさ)が
供給される。これらのピクセルは近接関数によってピク
セルPi とリンクしている。種々の近接関数が使われ、
どのピクセルPi についても特徴付けができるようにな
っている。これらの近接関数は、ピクセルPi の直接接
しているピクセルを例えば最も近い隣接ピクセルとして
特徴付ける。少し離れているものについては、一般的に
は、テクスチュアの1つのピクセルの状態と他のピクセ
ルの状態との間に拡散関係があると特徴付ける。ニュー
ラルネットワークの利用に際し、近接関数の選択につい
ては何も制限することはない。どのようなテクスチュア
についても、非常に複雑なテクスチュアについてもこの
ようにしてコード化できる。
【0020】シナプス係数はこのように強力に圧縮され
たデータから構成され、一般的にはテクスチュアのどの
ような情報をも蓄積できる。これらのシナプス係数は有
線或いは無線で、アナライザから近い或いは離れたシン
セサイザに伝送される。本発明は、アナライザとシンセ
サイザの間のリンクが高いデータ圧縮率を持つ場合に特
に有利である。
たデータから構成され、一般的にはテクスチュアのどの
ような情報をも蓄積できる。これらのシナプス係数は有
線或いは無線で、アナライザから近い或いは離れたシン
セサイザに伝送される。本発明は、アナライザとシンセ
サイザの間のリンクが高いデータ圧縮率を持つ場合に特
に有利である。
【0021】図3はイメージメモリー20に接続されてい
るアナライザ24を示す。アナライザ24は、主として分析
用ニューラルネットワーク30 NN と演算装置32 CONTR
とからなっている。これはコード化されるテクスチュア
の輪郭を決める。この動作はアナライザの外で行うこと
もできる。決定されたコード化されるテクスチュアの範
囲として、テクスチュアの各ピクセルPi 及び予め決め
られた近接関数V(Pi )に対応する隣接ピクセルにつ
いて、演算装置32によってメモリー20にアドレス(信号
34)される。
るアナライザ24を示す。アナライザ24は、主として分析
用ニューラルネットワーク30 NN と演算装置32 CONTR
とからなっている。これはコード化されるテクスチュア
の輪郭を決める。この動作はアナライザの外で行うこと
もできる。決定されたコード化されるテクスチュアの範
囲として、テクスチュアの各ピクセルPi 及び予め決め
られた近接関数V(Pi )に対応する隣接ピクセルにつ
いて、演算装置32によってメモリー20にアドレス(信号
34)される。
【0022】隣接ピクセルの値V(Pi )はニューラル
ネットワークに供給され、このニューラルネットワーク
はP'i=f(V(Pi ),{Cab})を計算する。ここ
でfはシナプス係数で重み付けされた隣接ピクセルの状
態の総和を示す。演算装置32で既知の学習アルゴリズ
ム、例えば誤差後進アルゴリズムを用いて状態P'iと状
態Pi が比較される。演算装置はこのように更新済みの
シナプス係数(Cab)(接続25)を供給し、ニューラル
ネットワーク30では古いシナプス係数がこれに置き換え
られる。この機構はテクスチュアが充分に学習され、誤
差率が低くなるまで続けられる。学習が終わると、テク
スチュアはシナプス係数としてコード化され、分析用ニ
ューラルネットワークに記憶される。これらはテクスチ
ュアの圧縮されたコードを形成する。これらのシナプス
係数は、演算装置32の制御の下に伝送手段27 OUT によ
ってシンセサイザに供給される。
ネットワークに供給され、このニューラルネットワーク
はP'i=f(V(Pi ),{Cab})を計算する。ここ
でfはシナプス係数で重み付けされた隣接ピクセルの状
態の総和を示す。演算装置32で既知の学習アルゴリズ
ム、例えば誤差後進アルゴリズムを用いて状態P'iと状
態Pi が比較される。演算装置はこのように更新済みの
シナプス係数(Cab)(接続25)を供給し、ニューラル
ネットワーク30では古いシナプス係数がこれに置き換え
られる。この機構はテクスチュアが充分に学習され、誤
差率が低くなるまで続けられる。学習が終わると、テク
スチュアはシナプス係数としてコード化され、分析用ニ
ューラルネットワークに記憶される。これらはテクスチ
ュアの圧縮されたコードを形成する。これらのシナプス
係数は、演算装置32の制御の下に伝送手段27 OUT によ
ってシンセサイザに供給される。
【0023】図4は、シンセサイザ28を示す。これは合
成用ニューラルネットワーク40 NNを具えており、これ
にアナライザによつて計算されたシナプス係数(Cab)
が入力手段41 IN を経てロードされる。合成用ニューラ
ルネットワーク40は、前記の学習ステップの間に分析用
ニューラルネットワーク30によって実行されたものと同
じ近接関数V(.)を実行する。ニューラルネットワー
ク40は、近接関数V(Qi )及び隣接ピクセルの値(図
1B)に基づいて各ピクセルQi を計算し、テクスチュ
アの統計的レプリカを決める。
成用ニューラルネットワーク40 NNを具えており、これ
にアナライザによつて計算されたシナプス係数(Cab)
が入力手段41 IN を経てロードされる。合成用ニューラ
ルネットワーク40は、前記の学習ステップの間に分析用
ニューラルネットワーク30によって実行されたものと同
じ近接関数V(.)を実行する。ニューラルネットワー
ク40は、近接関数V(Qi )及び隣接ピクセルの値(図
1B)に基づいて各ピクセルQi を計算し、テクスチュ
アの統計的レプリカを決める。
【0024】本発明の方法は、相互作用(Qi,V(Qi
))の影響の下でニューラルネットワークが進化する
ことから成り立つ。この目的のため、瞬間tにピクセル
Q(t)が選択され、瞬間t+1のその状態Qi(t+1)が計
算される。これは以下のように行われる。 ・同期の場合:全てのピクセル(Q(t+1) )が近接関数
V(Q(t) )によって計算され、状態の2つの完全な組
として記憶される。 ・非同期の場合:各状態Q(t) が連続的に更新され、全
てのピクセルがこの処理の対象になった時点で完全な更
新済みの組{Q(t+1) }を得る。
))の影響の下でニューラルネットワークが進化する
ことから成り立つ。この目的のため、瞬間tにピクセル
Q(t)が選択され、瞬間t+1のその状態Qi(t+1)が計
算される。これは以下のように行われる。 ・同期の場合:全てのピクセル(Q(t+1) )が近接関数
V(Q(t) )によって計算され、状態の2つの完全な組
として記憶される。 ・非同期の場合:各状態Q(t) が連続的に更新され、全
てのピクセルがこの処理の対象になった時点で完全な更
新済みの組{Q(t+1) }を得る。
【0025】計算を初期化するには、ランダムに選択さ
れた値を全てのピクセルに付与して統計的レプリカの生
成を始める。またこれに代えて、アナライザから伝送さ
れた値をテクスチュアを構成する若干のピクセルに付与
することによっても計算を初期化できる。後者の場合、
シンセサイザはより早く定常状態に達する。各ピクセル
Qi はこのようにして計算されてイメージメモリー42に
記憶され、イメージメモリーはニューラルネットワーク
40の要求(信号44)に基づいてこれを近くの新しいピク
セルQi に供給する。このように、緩和機構といわれる
収束機構を用いて、ニューラルネットワークはテクスチ
ュアを構成する全てのピクセルの状態を計算し、安定し
たテクスチュアの統計的レプリカに収束する。統計的レ
プリカを得るために、ピクセルは複数回再計算される。
シンセサイザ28は、ニューラルネットワーク40、メモリ
ー42及び入力手段41の動作を制御する演算装置45を具え
る。
れた値を全てのピクセルに付与して統計的レプリカの生
成を始める。またこれに代えて、アナライザから伝送さ
れた値をテクスチュアを構成する若干のピクセルに付与
することによっても計算を初期化できる。後者の場合、
シンセサイザはより早く定常状態に達する。各ピクセル
Qi はこのようにして計算されてイメージメモリー42に
記憶され、イメージメモリーはニューラルネットワーク
40の要求(信号44)に基づいてこれを近くの新しいピク
セルQi に供給する。このように、緩和機構といわれる
収束機構を用いて、ニューラルネットワークはテクスチ
ュアを構成する全てのピクセルの状態を計算し、安定し
たテクスチュアの統計的レプリカに収束する。統計的レ
プリカを得るために、ピクセルは複数回再計算される。
シンセサイザ28は、ニューラルネットワーク40、メモリ
ー42及び入力手段41の動作を制御する演算装置45を具え
る。
【0026】処理の最終段階では、イメージメモリー42
に記憶されているピクセルの値を読み出すことができ、
適宜のディスプレイ或いは処理装置DISP 60 (図2)に
印加することができる。
に記憶されているピクセルの値を読み出すことができ、
適宜のディスプレイ或いは処理装置DISP 60 (図2)に
印加することができる。
【0027】分析用ニューラルネットワーク30及び合成
用ニューラルネットワーク40は既知のアーキテクチャ、
例えば多層アーキテクチャ或いはツリー形アーキテクチ
ャを持つことができる。後者は、例えば欧州特許出願 E
P0446084号に記載されている。これは、1つのピクセル
に対して、異なったテクスチュアの位置に相当する複数
の近接関数V1(P),V2(P),...,が利用できる点で特に
興味深いものである。
用ニューラルネットワーク40は既知のアーキテクチャ、
例えば多層アーキテクチャ或いはツリー形アーキテクチ
ャを持つことができる。後者は、例えば欧州特許出願 E
P0446084号に記載されている。これは、1つのピクセル
に対して、異なったテクスチュアの位置に相当する複数
の近接関数V1(P),V2(P),...,が利用できる点で特に
興味深いものである。
【0028】図5はテクスチュアのゾーン50を示す。ピ
クセルPi の状態の計算は、図6に示すツリー形ニュー
ラルネットワークを用いて以下のように行われる。1つ
のニューロンN1 が定義され、その入力に隣接ピクセル
V1 の状態を受信する。ニューロンN1 の出力の値(例
えばその信号)によって、入力に隣接ピクセルV2 の状
態を持っているニューロンN2 又は入力に隣接ピクセル
V3 の状態を持っているニューロンN3 がアクチベート
される。このメカニズムがデシジョンツリーの各ブラン
チに沿って連続しているニューロンに対して継続され
る。このメカニズムは欧州特許出願 EP0446084号に記載
されている。各ブランチは、終端ニューロンN8 乃至N
14で終わりになる。終端ニューロンN8 乃至N14の1つ
がピクセルPi の値を送り出す。このようなツリー形ニ
ューラルネットワークの動作は、異なった位置での連続
的なシーン或いはテクスチュアの分析によって、人間の
機能に近づく。
クセルPi の状態の計算は、図6に示すツリー形ニュー
ラルネットワークを用いて以下のように行われる。1つ
のニューロンN1 が定義され、その入力に隣接ピクセル
V1 の状態を受信する。ニューロンN1 の出力の値(例
えばその信号)によって、入力に隣接ピクセルV2 の状
態を持っているニューロンN2 又は入力に隣接ピクセル
V3 の状態を持っているニューロンN3 がアクチベート
される。このメカニズムがデシジョンツリーの各ブラン
チに沿って連続しているニューロンに対して継続され
る。このメカニズムは欧州特許出願 EP0446084号に記載
されている。各ブランチは、終端ニューロンN8 乃至N
14で終わりになる。終端ニューロンN8 乃至N14の1つ
がピクセルPi の値を送り出す。このようなツリー形ニ
ューラルネットワークの動作は、異なった位置での連続
的なシーン或いはテクスチュアの分析によって、人間の
機能に近づく。
【図1】図1A及び1Bは、2つのテクスチュアがある
元のイメージと、学習したテクスチュアの統計的レプリ
カで合成されたイメージを示す図である。
元のイメージと、学習したテクスチュアの統計的レプリ
カで合成されたイメージを示す図である。
【図2】図2は、本発明によるテクスチュアイメージを
処理するためのシステムを示す図である。
処理するためのシステムを示す図である。
【図3】図3は、テクスチュアアナライザを示す図であ
る。
る。
【図4】図4は、テクスチュアシンセサイザを示す図で
ある。
ある。
【図5】図5は、異なった近接関数のゾーンを含むテク
スチュアを示す図である。
スチュアを示す図である。
【図6】図6は、ツリー形ニューラルネットワークのア
ーキテクチャを示す図である。
ーキテクチャを示す図である。
1、2 テクスチュアのゾーン 10 イメージ 20 イメージメモリー 22 イメージ処理装置 23 境界検知器 24 アナライザ 27 伝送手段 28 シンセサイザ 30 分析用ニューラルネットワーク 32 演算装置 40 合成用ニューラルネットワーク 41 入力手段 42 イメージメモリー 45 演算装置 50 テクスチュアのゾーン Ni ニューロンの出力 Pi ピクセル Vi 隣接ピクセル
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ジャン ピエール ナダル フランス国 94250 ジャンティリー リ ュ エル ルフェーブル 12 (72)発明者 ジャック シラー フランス国 78000 ヴェルサイユ リュ デュ ポン コルベール 4
Claims (6)
- 【請求項1】 シナプス係数(Cab)によって重み付け
が決められるリンクによって相互接続されているニュー
ロンからなる合成用ニューラルネットワーク(40)と、 入力イメージ(10a )のテクスチュア(1a)、(2a)の
少なくとも1つのピクセル近接関数を特徴づけるシナプ
ス係数(Cab)の値を合成用ニューラルネットワーク
(40)にロードする入力手段(41)と、 合成用ニューラルネットワーク(40)を自律的に動作さ
せ、合成用ニューラルネットワーク(40)の出力データ
が該合成用ニューラルネットワーク(40)の入力にサイ
クリックに再導入される緩和機構によって、該テクスチ
ュア(1a)、(2a)の統計的なレプリカ(1b)、(2b)
を生成させる手段(42)、(45)とを有するテクスチュ
アシンセサイザ(28)を具えたテクスチュアイメージ合
成装置(22)において、 自己の入力に印加される該テクスチュア(1a)、(1b)
に関するエグザンプルに基づいて、該テクスチュア(1
a)、(2a)を構成するピクセルの隣接ピクセルを特徴
づける少なくとも1つの近接関数を用いて該シナプス係
数(Cab)の値を計算して該テクスチュア(1a)、(2
a)を特徴づけることができる学習機能を有する分析用
ニューラルネットワーク(30)と、 合成用ニューラルネットワーク(40)が分析用ニューラ
ルネットワーク(30)によって学習された近接関数と同
一の近接関数を用いて該レプリカ(1b)、(2b)のピク
セルに最初に付与されたランダム値に基づいて入力イメ
ージ(10a )のテクスチュア(1a)、(2a)の該統計的
レプリカ(1b)、(2b)を生成するに際し、これに用い
るための該シナプス係数(Cab)を合成用ニューラルネ
ットワーク(40)に印加する手段(27)とを具えたテク
スチュアアナライザ(24)を具備することを特徴とする
テクスチュアイメージ合成装置。 - 【請求項2】 合成用ニューラルネットワーク(40)及
び分析用ニューラルネットワーク(30)がニューロンツ
リーの形状をなすハイアラーキ構造を有することを特徴
とする請求項1に記載のテクスチュアイメージ合成装
置。 - 【請求項3】 統計的レプリカ(1b)、(2b)の初期化
ピクセルがアナライザ(24)によってシンセサイザ(2
8)に印加されることを特徴とする請求項1又は2に記
載のテクスチュアイメージ合成装置。 - 【請求項4】 ニューロンのツリーの形のハイアラーキ
構造がツリーの所定の深さを持つことを特徴とする請求
項2又は3に記載のテクスチュアイメージ合成装置。 - 【請求項5】 請求項1乃至4のいずれか1項に記載の
テクスチュアイメージ合成装置(22)に使用するテクス
チュアアナライザ(24)。 - 【請求項6】 請求項1乃至4のいずれか1項に記載の
テクスチュアイメージ合成装置(22)に使用するテクス
チュアシンセサイザ(28)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9211044A FR2695743A1 (fr) | 1992-09-16 | 1992-09-16 | Système de traitement d'images texturées, analyseur de textures et synthétiseur de textures. |
FR9211044 | 1992-09-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06266687A true JPH06266687A (ja) | 1994-09-22 |
Family
ID=9433569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5227303A Pending JPH06266687A (ja) | 1992-09-16 | 1993-09-13 | テクスチュアイメージ合成装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US5680475A (ja) |
EP (1) | EP0588422B1 (ja) |
JP (1) | JPH06266687A (ja) |
KR (1) | KR100275353B1 (ja) |
DE (1) | DE69322340T2 (ja) |
FR (1) | FR2695743A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003066539A (ja) * | 2001-08-29 | 2003-03-05 | Noritsu Koki Co Ltd | 写真処理装置におけるカラーマネジメントシステム及び方法 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5995651A (en) * | 1996-07-11 | 1999-11-30 | Duke University | Image content classification methods, systems and computer programs using texture patterns |
US6011295A (en) * | 1997-07-22 | 2000-01-04 | Foveonics, Inc. | Neural network active pixel cell |
US6167391A (en) * | 1998-03-19 | 2000-12-26 | Lawrence Technologies, Llc | Architecture for corob based computing system |
AU759353B2 (en) * | 1999-03-02 | 2003-04-10 | Cea Technologies Inc. | Method for image texture analysis |
AUPP898499A0 (en) * | 1999-03-02 | 1999-03-25 | University Of Queensland, The | Method for image texture analysis |
US6947913B1 (en) | 2001-08-23 | 2005-09-20 | Lawrence Technologies, Llc | Systems and methods for generating string correlithm objects |
US6977659B2 (en) | 2001-10-11 | 2005-12-20 | At & T Corp. | Texture replacement in video sequences and images |
US7031969B2 (en) * | 2002-02-20 | 2006-04-18 | Lawrence Technologies, Llc | System and method for identifying relationships between database records |
US7606435B1 (en) * | 2002-02-21 | 2009-10-20 | At&T Intellectual Property Ii, L.P. | System and method for encoding and decoding using texture replacement |
US9104648B2 (en) * | 2004-11-08 | 2015-08-11 | Jinan Glasgow | Patent claims analysis system and method |
US10198478B2 (en) | 2003-10-11 | 2019-02-05 | Magic Number, Inc. | Methods and systems for technology analysis and mapping |
US20070165045A1 (en) * | 2004-01-12 | 2007-07-19 | Allegorithmic | Method and tool for modifying a procedural map |
WO2005069225A2 (en) * | 2004-01-12 | 2005-07-28 | Allegorithmic | Method and tool for the generation or the modification of image processing procedural maps |
WO2005114588A1 (fr) * | 2004-04-19 | 2005-12-01 | Allegorithmic | Methode et dispositif pour generer une carte procedurale a partir d'un parametre externe tel une caracteristique d’une image |
US7333667B2 (en) | 2004-12-23 | 2008-02-19 | Kabushiki Kaisha Toshiba | Image encoding apparatus and image encoding method |
JP2007013235A (ja) | 2005-06-28 | 2007-01-18 | Canon Inc | 画像合成装置、画像処理装置の制御方法およびプログラム |
US7945627B1 (en) | 2006-09-28 | 2011-05-17 | Bitdefender IPR Management Ltd. | Layout-based electronic communication filtering systems and methods |
US8572184B1 (en) | 2007-10-04 | 2013-10-29 | Bitdefender IPR Management Ltd. | Systems and methods for dynamically integrating heterogeneous anti-spam filters |
US8010614B1 (en) | 2007-11-01 | 2011-08-30 | Bitdefender IPR Management Ltd. | Systems and methods for generating signatures for electronic communication classification |
US8131655B1 (en) | 2008-05-30 | 2012-03-06 | Bitdefender IPR Management Ltd. | Spam filtering using feature relevance assignment in neural networks |
US10860946B2 (en) * | 2011-08-10 | 2020-12-08 | Konlanbi | Dynamic data structures for data-driven modeling |
US10839573B2 (en) * | 2016-03-22 | 2020-11-17 | Adobe Inc. | Apparatus, systems, and methods for integrating digital media content into other digital media content |
GB201608101D0 (en) * | 2016-05-09 | 2016-06-22 | Magic Pony Technology Ltd | Multiscale 3D texture synthesis |
US10147459B2 (en) * | 2016-09-22 | 2018-12-04 | Apple Inc. | Artistic style transfer for videos |
US10198839B2 (en) | 2016-09-22 | 2019-02-05 | Apple Inc. | Style transfer-based image content correction |
US10664963B1 (en) | 2017-09-11 | 2020-05-26 | Apple Inc. | Real-time selection of DNN style transfer networks from DNN sets |
US11100151B2 (en) | 2018-01-08 | 2021-08-24 | Magic Number, Inc. | Interactive patent visualization systems and methods |
US11977722B2 (en) | 2018-01-08 | 2024-05-07 | Magic Number, Inc. | Interactive patent visualization systems and methods |
US11367163B2 (en) | 2019-05-31 | 2022-06-21 | Apple Inc. | Enhanced image processing techniques for deep neural networks |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4897881A (en) * | 1988-03-23 | 1990-01-30 | Centre De Recherche Industrielle Du Quebec | Optimum fast textural feature extractor |
US5003490A (en) * | 1988-10-07 | 1991-03-26 | Hughes Aircraft Company | Neural network signal processor |
FR2639739B1 (fr) * | 1988-11-25 | 1991-03-15 | Labo Electronique Physique | Procede et dispositif de compression de donnees d'image utilisant un reseau de neurones |
FR2646543A1 (fr) * | 1989-04-26 | 1990-11-02 | Labo Electronique Physique | Procede pour l'analyse de textures et analyseur |
FR2646575A1 (fr) * | 1989-04-26 | 1990-11-02 | Labo Electronique Physique | Procede et structure pour la compression de donnees |
FR2658337A1 (fr) * | 1990-02-09 | 1991-08-16 | Philips Electronique Lab | Procede d'apprentissage d'un reseau de neurones hierarchise et reseau de neurones hierarchise. |
FR2661265B1 (fr) * | 1990-04-24 | 1994-07-29 | Thomson Csf | Systeme neuronal de classification et procede de classification utilisant un tel systeme. |
US5214507A (en) * | 1991-11-08 | 1993-05-25 | At&T Bell Laboratories | Video signal quantization for an mpeg like coding environment |
-
1992
- 1992-09-16 FR FR9211044A patent/FR2695743A1/fr active Pending
-
1993
- 1993-09-09 DE DE69322340T patent/DE69322340T2/de not_active Expired - Fee Related
- 1993-09-09 EP EP93202625A patent/EP0588422B1/fr not_active Expired - Lifetime
- 1993-09-13 JP JP5227303A patent/JPH06266687A/ja active Pending
- 1993-09-15 KR KR1019930018509A patent/KR100275353B1/ko not_active IP Right Cessation
-
1995
- 1995-04-18 US US08/425,674 patent/US5680475A/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003066539A (ja) * | 2001-08-29 | 2003-03-05 | Noritsu Koki Co Ltd | 写真処理装置におけるカラーマネジメントシステム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
DE69322340T2 (de) | 1999-06-17 |
EP0588422A1 (fr) | 1994-03-23 |
US5680475A (en) | 1997-10-21 |
KR940007534A (ko) | 1994-04-27 |
FR2695743A1 (fr) | 1994-03-18 |
DE69322340D1 (de) | 1999-01-14 |
EP0588422B1 (fr) | 1998-12-02 |
KR100275353B1 (ko) | 2000-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH06266687A (ja) | テクスチュアイメージ合成装置 | |
US20200357099A1 (en) | Video inpainting with deep internal learning | |
JP3798021B2 (ja) | 確率的しきい値アレーを生成する像再現システムおよび方法 | |
US5134396A (en) | Method and apparatus for encoding and decoding data utilizing data compression and neural networks | |
Cottrell et al. | Principal components analysis of images via back propagation | |
CN113658051A (zh) | 一种基于循环生成对抗网络的图像去雾方法及系统 | |
JPH08275180A (ja) | 輪郭符号化装置 | |
KR20190105745A (ko) | 전자 장치 및 그 제어 방법 | |
JP7504120B2 (ja) | 高分解能なリアルタイムでのアーティスティックスタイル転送パイプライン | |
CN112862001A (zh) | 一种隐私保护下的去中心化数据建模方法 | |
Dupont et al. | Probabilistic semantic inpainting with pixel constrained cnns | |
CN113906467A (zh) | 风格化视频帧的方法、系统、及计算机可读介质 | |
Salmona et al. | Deoldify: A review and implementation of an automatic colorization method | |
Xu et al. | Deep video inverse tone mapping | |
Amar et al. | Wavelet networks approach for image compression | |
Muruganandham et al. | Adaptive fractal image compression using PSO | |
CN111612721B (zh) | 一种图像修复模型训练、卫星图像修复方法及装置 | |
CN113077383B (zh) | 一种模型训练方法及模型训练装置 | |
Feng et al. | Neural subspaces for light fields | |
Liatsis et al. | Nonlinear 1D DPCM image prediction using polynomial neural networks | |
Chen | An efficient prediction algorithm for image vector quantization | |
CN117115453B (zh) | 目标图像生成方法、装置及计算机可读存储介质 | |
CN114511466B (zh) | 一种基于生成对抗网络先验的盲人脸图像复原方法 | |
JPH08293028A (ja) | 並列画像クラスタリング装置 | |
CN114926568A (zh) | 模型训练方法、图像生成方法和装置 |