JP5506272B2 - 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム - Google Patents
画像処理装置及び方法、データ処理装置及び方法、並びにプログラム Download PDFInfo
- Publication number
- JP5506272B2 JP5506272B2 JP2009179838A JP2009179838A JP5506272B2 JP 5506272 B2 JP5506272 B2 JP 5506272B2 JP 2009179838 A JP2009179838 A JP 2009179838A JP 2009179838 A JP2009179838 A JP 2009179838A JP 5506272 B2 JP5506272 B2 JP 5506272B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- tensor
- sub
- projection
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 731
- 238000000034 method Methods 0.000 title claims description 180
- 239000011159 matrix material Substances 0.000 claims description 201
- 239000013598 vector Substances 0.000 claims description 198
- 238000007906 compression Methods 0.000 claims description 82
- 230000008569 process Effects 0.000 claims description 82
- 230000006835 compression Effects 0.000 claims description 81
- 238000003860 storage Methods 0.000 claims description 65
- 230000006870 function Effects 0.000 claims description 56
- 238000003672 processing method Methods 0.000 claims description 25
- 238000005070 sampling Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 10
- 230000000875 corresponding effect Effects 0.000 description 83
- 238000009826 distribution Methods 0.000 description 62
- 238000006243 chemical reaction Methods 0.000 description 52
- 238000004364 calculation method Methods 0.000 description 44
- 239000011229 interlayer Substances 0.000 description 37
- 238000005286 illumination Methods 0.000 description 28
- 238000003384 imaging method Methods 0.000 description 27
- 238000012937 correction Methods 0.000 description 26
- 230000000694 effects Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 23
- 238000001514 detection method Methods 0.000 description 20
- 230000008921 facial expression Effects 0.000 description 19
- 230000006872 improvement Effects 0.000 description 18
- 230000010365 information processing Effects 0.000 description 16
- 230000009467 reduction Effects 0.000 description 16
- 230000009466 transformation Effects 0.000 description 16
- 230000015572 biosynthetic process Effects 0.000 description 15
- 238000003786 synthesis reaction Methods 0.000 description 15
- 238000000513 principal component analysis Methods 0.000 description 13
- 239000011521 glass Substances 0.000 description 12
- 238000013139 quantization Methods 0.000 description 12
- 238000000354 decomposition reaction Methods 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 9
- 239000000470 constituent Substances 0.000 description 8
- 239000002131 composite material Substances 0.000 description 7
- 230000006837 decompression Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000004321 preservation Methods 0.000 description 6
- 238000012098 association analyses Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000036544 posture Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 241000255925 Diptera Species 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 238000013213 extrapolation Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000001629 suppression Effects 0.000 description 3
- 238000000342 Monte Carlo simulation Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000010410 layer Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002195 synergetic effect Effects 0.000 description 2
- 241001522296 Erithacus rubecula Species 0.000 description 1
- 208000004547 Hallucinations Diseases 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/23—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/33—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Description
はじめに射影変換の原理を説明する。低画質の入力画像から高画質の画像を復元する処理を行うための準備段階として、事前に複数人分の顔画像のデータを学習し、変換関係を規定する関数を求めておく。このような処理を学習ステップという。そして、この学習ステップで得られた変換関数を用いて、任意の入力画像(低画質)から高画質の出力画像を得る工程を復元ステップとよぶ。
まず、学習画像セットとして、複数人数分(例えば、60人分)の顔の低解像画像と高解像画像とを対(ペア)とした学習画像群を用意する。ここで用いる学習画像セットは、高解像の学習画像から一定割合で画素を間引くなど、ある条件で情報を減らすことにより低画質化したものを低解像の学習画像として用いている。この情報削減によって生成した低解像の学習画像と、これに対応する元の高解像の学習画像(同一人物の同内容の画像)とのペアの対応関係を事前に学習することで、変換関数(射影を規定するテンソル)を生成する。
図1はテンソル射影の概念図である。ここでは図示の便宜上、3次元の空間で説明するが、任意の有限次元(N次元)に拡張することができる。テンソル射影は、ある実空間Rから固有空間(「特徴空間」ともいう。)Aへの移動を可能とするとともに、複数の固有A,B,Cの間での移動(射影)を可能とする。
H=UpixelsGHV
一方、画素実空間における低解像度画素ベクトルLは同様に、次式となる。
L=UpixelsGLV
よって、画素実空間の低解像度画像(低解像度画素ベクトルL)から画素固有空間→個人差固有空間を経由して画素固有空間→画素実空間に戻し、画素実空間における高解像度画像を得る場合、次式の射影によって変換可能である。
H=UpixelsGHV=UpixelsGH(UpixelsGL)-1L
本実施形態では、低解像画像と高解像画像のペア群からなる学習画像セットから局所性保存射影(LPP)を利用して射影関数(Upixels)を求め、これを基に個人差空間上で同一人物のL画像点とH画像点とが略一致するように射影関数GL、GHを求めている。
LPP射影の演算手順を概説すると、次のとおりである。
例えば、[1]Cholesky分解や[2]一般固有値問題を逆行列算出により、固有値問題に変形して解く。
図3は本発明の実施形態における処理の概要を示すブロックチャートである。図示のように、本実施形態による処理は、学習ステップと復元ステップとに大別することができる。
図4は、LPP固有空間上でのモダリティ(ここでは、個人差)内の変化が線形に近い性質を持つ場合の例を示したものである。例えば、Aさん、Bさん、Cさん、Dさんの4人の学習画像についてLPPで変換すると、局所構造を維持した状態で図4のAさんからBさんまでの間の変化(個人差の変化)が当該個人差固有空間上で概ねなめらかに(連続的に)変化していく線形に近いものなる。
このようなLPPの性質を利用して、モダリティの両要素間(低解像と高解像)の相互射影関係を更に多重線形射影の枠組みのテンソル(GL、GH)で表現することで、変換を高精化できる(誤差を小さくできる)という新たな効果が生まれる(利点2)。
図3で説明した処理の手順を含んで更に実用的な実施形態について以下に説明する。
低解像拡大処理部102は、入力された低解像画像を所定のサイズに拡大する処理を行う。拡大法は、特に限定されず、バイキュービック、Bスプライン、バイリニア、ニアレストネイバー等、各種方法を用いることができる。
高域通過フィルタ104は、入力された画像に低域を抑制するフィルタをかけるものである。フィルタには、アンシャープマスク、ラプラシアン、グラジエントなどを用いることができる。顔画像における照明変動の影響の多くは低周波域に存在するため、この高域通過フィルタ104によって低域を抑圧することで照明変動の影響を取り除き、照明変動に対するロバスト性を上げることができる。
パッチ分割部106は、入力された画像を将棋盤のマス状に分割する。本例では分割された1区画の「マス(ブロック)」を「パッチ」と呼ぶ。学習ステップ、復元ステップともに、各パッチ単位で信号処理が行われることになる。パッチ毎の処理を行うことで、処理対象を画像の局所に限定することで射影対象を低次元で扱えるようにしたため、高画質及び個人差の変化に対してロバスト化できる。したがって、本発明の実施に際し、パッチ分割の手段を具備する構成は好ましい態様である。
LPP射影テンソル生成部108は、上記の低解像拡大、高域通過フィルタ、パッチ分割といった前処理の済んだ入力学習画像セット(低解像画像と高解像画像のペア群)から局所保存射影(LPP)を適用して、LPP射影テンソルを生成する。
LPPアルゴリズムから対角行列Dとラプラシアン行列Lが求まっていることを前提にして直交LPP射影行列WOLPP={u1,…,ur}を以下の手順で求める。なお、次元数rは、元の次元数n以下の数である。
M(k)={I−(XDXt)−1A(k−1)[B(k−1)]−1[A(k−1)]}(XDXt)−1(XLXt)
ここで、
A(k−1)={u1,…,uk−1},
B(k−1)=[A(k−1)]t(XDXt)−1A(k−1)
である。
上述のLPPに対し、主成分分析(PCA)の原理は、大局分散の最大化であり、大域的な分布を保持して線形次元を削減することを主目的とする。PCAは、大域的な幾何学性を保存し、線形変換のみで簡単に射影するという特徴があり、直交基底である。
既述のとおり、本実施形態では、射影関数の決定に際して適切なサンプルを選択するために学習画像を絞り込む。その際、最終的に使用する学習画像のペア群の数(ここでは、サンプルの人数)を「学習代表数」といい、この学習代表数の情報を外部から取得する。
学習セット代表値化処理部112は、前処理済の入力学習画像セット(低解像度画像と高解像度画像の少なくとも一方)から個人差固有空間係数ベクトル群を求める処理を行う。この処理は、入力学習画像セットについて、復元ステップにおける第1のLPP_HOSVD射影処理部130と同じ処理、すなわち、L画素→固有空間射影(符号132による処理)と[L画素→個人差]固有空間射影(符号134による処理)までの処理を行い、個人差固有空間の係数ベクトルを求めるものである。
再射影テンソル生成部114は、学習セット代表値化処理部112で得られたN個の代表学習画像セットについてLPP射影テンソル生成部108と同じ処理を行い、LPP固有射影行列とLPP射影核テンソルを生成し直す。こうして、代表学習画像セットを基に、後述の復元ステップで使用されるLPP固有射影行列(Upixels)115とLPP射影核テンソル(G)116が得られる。
設定値取得部120は、処理対象とするパッチ位置の情報と、L、Hの設定を指定する情報を外部から取得し、その情報を「第1のサブ核テンソル生成部122」、「第2のサブ核テンソル生成部124」、「L画素→固有空間射影部132」、「固有空間→H画素射影部154」に与える手段である。
第1のサブ核テンソル生成部122は、設定値取得部120から出力されるパッチ位置とL設定の条件を与えることにより、再射影テンソル生成部114の出力に係るLPP射影核テンソル116から低解像用のサブ核テンソルGLを生成する。なお、当該手段は、学習ステップで行ってもよく、LPP射影核テンソル116を記憶保存する態様に代えて、或いは、これと併用して、学習ステップにおいてサブ核テンソルGLを生成し、記憶保存しておいてもよい。かかる態様によれば、当該サブ核テンソルを保存するメモリが必要になるが、復元ステップの処理時間が短縮できるという利点がある。
第1のLPP_HOSVD射影処理部130における「L画素→固有空間射影部132」は、設定値取得部120から与えられるパッチ位置を基に、LPP固有射影行列115(Upixels)を得て、パッチ分割部106からの出力の画像に対して、図2(a)→(b)で説明した画素固有空間へのUpixels −1射影の処理を行う。なお、Upixels −1は、Upixelsの逆行列を表す。
図6において「L画素→固有空間射影部132」に続く[L画素→個人差]固有空間射影部134は、第1のサブ核テンソル生成部122から該当する射影テンソルGLを得て、「L画素→固有空間射影部132」の出力に対して、図2(b)→(c)で説明した個人差固有空間へのGL −1射影の処理を行い、個人差固有空間係数ベクトルを求める。
係数ベクトル補正処理部140は、図6の[L画素→個人差]固有空間射影部134で求められたパッチ数分の個人差固有空間係数ベクトル群を用いて、第2のLPP_HOSVD射影処理部150の[個人差→H画素]固有空間射影部152に与える補正係数ベクトル群を生成する。
隠蔽物が存在するパッチの画素ベクトルは、個人差固有空間において、他の隠蔽物がないパッチの画素ベクトルが集まる領域から離れた位置の点となる。このような場合に、隠蔽物のあるパッチの画素ベクトルを補正し、隠蔽物のないベクトル(補正係数ベクトル)に修正できる。
個人差固有空間における同人物に係るパッチ群の係数ベクトル群の平均値、メジアン、最大値、最小値等の代表値を補正係数ベクトル群の値として用いることで、個人差固有空間係数ベクトル群のノイズ(眼鏡、マスク、扉等部分隠蔽物の影響)を除去する。
個人差固有空間における同人物に係るパッチ群の係数ベクトル群のヒストグラムにおける平均値、メジアン、最大値、最小値等の代表値を中心に、例えば分散σの範囲、又は2σの範囲の個人差固有空間係数ベクトル群を対象にした平均値、メジアン、最大値、最小値等を補正係数ベクトル群の値として用いることで、更にノイズ除去してもよい。
隠蔽物が存在する領域が検出されたときに、当該領域をそれ専用のテンソルで変換する態様も可能である。
顔内の眼鏡(上部横長)やマスク(下部中央)の相対位置は事前に概ね把握できているため、該当領域のパッチの個人差固有空間係数ベクトル群と顔全体(又は、隠蔽候補領域を除いた顔領域)のパッチの個人差固有空間係数ベクトル群の代表値とを比較して、類似していたら(距離が近ければ)隠蔽無しの確率が高いと検出する。逆に、両者の距離が離れていたら隠蔽物が存在している確率が高いと検出される。
「例A-2-1」では代表値との距離に注目して隠蔽物を検出したが、係数ベクトル群の分布の広がりから検出することもできる。すなわち、例A−2−1の他の実施例として、隠蔽候補に該当する領域に対応するパッチの個人差固有空間係数ベクトル群の分布が広がっていたら隠蔽が有る確率が高いと検出する態様も可能である。隠蔽候補領域の分布が顔全体における同分布より広がっている場合、隠蔽が有る確率が高いとしても良い。
他の実施例として、事前に正解(学習セットには含まれない画像)の個人差固有空間係数ベクトル群の分布形状を求めておく態様もある。この場合、個人差固有空間係数ベクトル群が事前の分布形状と類似していたら隠蔽無しの確率が高いと検出する。
(例A-3-1):
「例A-2-1」と同様の検出を行い、隠蔽物領域に対して、バイキュービックや「汎用超解像処理部164」(図6参照)など別の変換手法による復元をする態様も可能である。
(例A-4-1):
同一人物の顔画像を分割したパッチ群の画素ベクトルについて、個人差固有空間で高い相関があることを利用して、顔内の一部(例えば、目、鼻、口の各領域)のパッチのみの個人差固有空間係数ベクトル群から、顔全体の補正係数ベクトル群を求めるようにしてもよい。
例えば、顔内の一部の個人差固有空間係数ベクトル群の平均値、メジアン、最大値、最小値等の代表値を顔全体の補正係数ベクトル群の値として用いる。
「例A-4-1-1」に代えて、顔内の中央部分の複数パッチについて個人差固有空間係数ベクトル群の分布を求める。次に、同分布より、外挿予測して、当該中央部分以外の補正係数ベクトル群を求める。例えば、顔内中央部分の3×3の9パッチについて係数ベクトル群の分布を求め、この分布から当該9パッチの外側位置の係数ベクトルを外挿法(補外法)によって求める。
顔内の水平垂直方向に間引いたパッチに対してのみ個人差固有空間係数ベクトル群の分布を求める。次に、同分布を補間して個人差固有空間係数ベクトルを求めていないパッチの補正係数ベクトル群を求める。例えば、偶数番号のパッチ位置についてのみ係数ベクトル群の分布を求め、残りの奇数番号のパッチについては補間して求める。
処理対象のパッチ及びその周囲のパッチの補正係数ベクトル群に対して、更に低域通過フィルタ(例えば、平均フィルタ)を掛けてもよい。かかる態様によれば、求められた補正係数ベクトル群を空間的に滑らかにし、ノイズ成分を除去する効果がある。また、平均フィルタに代えて、最大値、最小値、メジアンフィルタをかけても良い。
第2のサブ核テンソル生成部124は、設定値取得部120の出力のパッチ位置とH設定の条件を与えることにより、LPP射影核テンソル116から上記サブ核テンソルGHを生成する。
[個人差→H画素]固有空間射影部152は、第2のサブ核テンソル生成部124からGHを得て、係数ベクトル補正処理部140の出力の補正係数ベクトルに対して図2(c)→(d)で説明したGH射影を行う。
固有空間→H画素射影部154は、設定値取得部120からのパッチ位置をもとにLPP固有射影行列Upixelsを得て、[個人差→H画素]固有空間射影部152の出力の係数ベクトルに対して図2(d)→(e)で説明したUpixels射影の処理をして高解像画像を求める。
加算部160は、固有空間→H画素射影部154からの入力(高周波成分の復元情報)と、低解像拡大処理部102からの入力(元の低解像拡大画像)の和を出力する。また、この加算部160にて、全パッチ分を加算統合して1枚の顔画像(高解像の画像)を生成する。
汎用超解像処理部164は、入力された低解像画像を出力と同サイズに超解像拡大する。
[数5]
x=Σ(Ai・z+Bi)・wi(y−μi,πi)
ただし、z:低解像画像、x:高解像画像、Ai、Bi、μi、πiはそれぞれ学習時に確定され、重みとしての確率wiは、復元時、未知画素と周囲の差分の次元ベクトルyによって動的に求められる。
重み算出部162は、入力条件の外れ程度に応じて、汎用超解像処理部164による汎用超解像方式の採用率を増減調整するよう、合成部166で用いる重みw1を求める手段である。入力条件の外れ程度が低ければ汎用超解像方式の採用率を下げ、入力条件の外れ程度が高いほど汎用超解像方式の採用率を高くするよう重みw1が決定される。
既述したテンソル射影超解像の手段(図6の符号100A、100B)は、個人差固有空間上で個人差固有空間係数ベクトルが学習セットの係数ベクトルから遠いほど復元性が悪い、という特徴がある(特徴[1])。
学習セットの係数ベクトルと個人差固有空間係数ベクトルとの向きが類似しているほどw1を大きくする。
また、既述したテンソル射影超解像の手段(図4の符号100A,100B)は、個人差固有空間上で、個人差固有空間係数ベクトルの「パッチ数を標本数とした分布」が広がっている(ばらついている)ほど復元性能が悪い、という特徴がある(特徴[2])。
「例B-2-1」のパッチ標本に対する分布において、標本数の少ない(又は代表値から遠い)パッチ標本ほどw1を小さくする。すなわち、ヒストグラム上の頻度に応じて重みを変える。この場合、パッチ毎に重みが制御できるという効果がある。
「例B-2-1」のパッチ標本に対する分布において、分布の形状が類似しているほど重みを大きくしても良い。例えば、学習ステップで把握されているAさんの分布と、入力画像(未知の画像)の分布の分布形状が似ているかどうかによって重みを変える。
上述した「例B-1-1」、「例B-1-2」、「例B-2-1」、「例B-2-2」、「例B-3」についてそれぞれ共通に、次のような構成を採用し得る。例えば、「例B-1-1」又は「例B-1-2」において、更に学習サンプルである代表個人差ベクトルの個々に対し、個人毎(例えば、Aさんの顔内)の個々のパッチの正解妥当性判断指標を考える。この判断指標としてパッチ標本に対する分布の代表値からの個々のパッチの距離を利用する。代表値から遠いほど正解には相応しくないと扱うようにする。具体的には図11、β2/x、β2/x2、exp(−β2x)等と同様な特性を持つwpを求め、w1’=w1・wpを合成部166に与えても良い。
また、上述した「例B-1-1」、「例B-1-2」、「例B-2-1」、「例B-2-2」、「例B-3」についてそれぞれ共通に、代表値としては平均、メジアン、最大、最小など用いてよい。
上述した「例B-1-1」、「例B-1-2」、「例B-2-1」、「例B-2-2」、「例B-3」についてそれぞれ共通に、分布の広がり(ばらつき)としては分散、標準偏差など用いてよい。
学習セットの重心、周囲境界点などの代表値と個人差固有空間係数ベクトルとの距離が近く又は向きが類似しているほどw1を大きくする。かかる態様によれば、距離や向きの算出対象を減らし、高速化が可能である。
上述した各例における「距離」の計算については、ユークリット距離、マハラノビス距離、KL距離など用いてよい。
上述した各例における「向き」の計算については、ベクトル角度、内積、外積などを用いてよい。
図4で説明した「学習ステップ」時に距離、向き、代表値、分布広がり、分布形状と復元誤差との関係を正解不正解セットとして定義しておく。復元誤差とは、学習画像セットから求めた射影関数で復元した画像と正解画像との差であり、例えば、正解不正解画像との平均自乗誤差やPNSR(ピーク信号対ノイズ比)で表される。
「距離、向き、代表値、分布広がり、分布形状」のうち少なくとも1つと「復元誤差」の関係を求めておく。例えば、「距離−復元誤差の特性」として求めておく。なお、頻度に比例した信頼確率付き特性としても良い。
図6で説明した「復元ステップ」において求めた「距離、向き、代表値、分布広がり、分布形状」から、最も近い「学習ステップ」時の「距離、向き、代表値、分布広がり、分布形状」を選択し、対応する「復元誤差」を得る。
重みw1=b0+b1×(復元誤差)
[数6]で示す線形関数に代えて、非線形関数を定義して重みを求めても良い。
上記「例B-共通-7」における個人差固有空間上の正解不正解セットの「距離、向き、代表値、分布広がり、分布形状」のうち少なくとも1つと「重み」との相関を規定する関数は、(正則化)最小2乗法、重回帰分析、SVM(回帰)、AdaBoost(回帰)、ノンパラメトリックベイズ、最尤推定法、EMアルゴリズム、変分ベイズ法、マルコフ連鎖モンテカルロ法等で、[数6]の係数b0、b1を求めても良い。
また、上記の各例(「例B-1-1」〜「例B-共通-8」)において、更に、処理対象のパッチ及びその周囲のパッチの重みに対して低域通過(平均)フィルタを掛けてもよい。この態様によれば、求められた重みを空間的に滑らかにする効果及びノイズを除去する効果がある。また、最大値、最小値、メジアンフィルタをかけても良い。
図6の合成部166は、加算部160から与えられる画像(入力画像1)と、汎用超解像処理部164から与えられる画像(入力画像2)とを、重み算出部162で得られた以下の重みに応じて合成、又は選択をする。
出力高解像画像=Σ(wi・Ii)=w1・I1+w2・I2
ただし、w1は加算部160の出力I1の重みw1を表し、w2は汎用超解像処理部164の出力I2の重みw2=1−w1を表す。
図12は、他の実施形態を示すブロックである。図12中、図6の構成と同一又は類似する要素には同一の符号を付し、その説明は省略する。
図6、図12では、学習ステップと復元ステップとを1つの画像処理装置で実施し得る構成を示したが、学習ステップを実施する画像処理装置と、復元ステップを実施する画像処理装置とを別々の装置構成とすることも可能である。この場合、復元ステップを担う画像処理装置は、別途作成されている射影関係の情報(固有射影行列、射影テンソル)を外部から取得できる構成とすることが望ましい。このような情報取得手段としては、光ディスクその他のリムーバフル記憶媒体に対応したメディアインターフェースや通信インターフェースを適用できる。
上記実施形態では、局所関係を利用する射影として、LPPを例示したが、LPPに代えて、局所線形埋込み(LLE;locally linear embedding)、線形接空間位置合せ(LTSA;linear tangent-space alignment)、Isomap、ラプラス固有マップ(LE;Laplacian Eigenmaps)、近傍保存埋込み(NPE;Neighborhood Preserving Embedding)など、各種の多様体学習の手法を適用することも可能である。
図6で説明した実施形態では、説明を簡単にするために、表1で説明した4種類のモダリティに対して、パッチと解像度のモダリティを既知の要素として条件を設定し、「画素値」と「個人差」のモダリティに注目して、画素実空間から画素固有空間と個人差固有空間を経由した射影ルートを設計したが、本発明の実施に際して射影ルートの設計は本例に限定されない。モダリティバリエーションに応じて、射影ルートの中で経由する固有空間として様々な固有空間を選択することが可能である。
復元ステップに入力される変換元の画像は、図6や図12で説明した処理の手順に入る前段階で、ある画像の中から部分的に切り出された(抽出された)画像領域であってもよい。例えば、元となる画像内から人物の顔部分を抽出する処理が行われ、この抽出した顔画像領域について、復元ステップの入力画像データとして取り扱うことができる。
学習画像セットを以下のように変えることで様々な「対象」、「モダリティ」、「画像処理」に適用できるため、本発明の適用範囲は、上記の実施形態に限定するものではない。
図13は、本発明の実施形態に係る画像処理システム200の一例を示す。以下に説明する画像処理システム200は、一例として監視システムとして機能することができる。
画像処理装置220は、当該生成した特徴領域情報を圧縮動画データに付帯して、通信ネットワーク240を通じて画像処理装置250に送信する。
図14は、画像処理装置220のブロック構成の一例を示す。画像処理装置220は、画像取得部222、特徴領域特定部226、外部情報取得部228、圧縮制御部230、圧縮部232、対応付け処理部234、及び出力部236を備える。画像取得部222は、圧縮動画取得部223及び圧縮動画伸張部224を有する。
例えば、特徴領域特定部226は、予め定められた形状パターンに予め定められた一致度以上の一致度で一致するオブジェクトを複数の撮像画像のそれぞれから抽出して、抽出したオブジェクトを含む撮像画像における領域を、特徴の種類が同じ特徴領域として検出してよい。なお、形状パターンは、特徴の種類毎に複数定められてよい。また、形状パターンの一例としては、人物の顔の形状パターンを例示することができる。なお、複数の人物毎に異なる顔のパターンが定められてよい。これにより、特徴領域特定部226は、異なる人物をそれぞれ含む異なる領域を、異なる特徴領域として検出することができる。
また、特徴領域特定部226は、テンプレートマッチング等によるパターンマッチングの他にも、例えば、特開2007−188419号公報に記載された機械学習(例えば、アダブースト)等による学習結果に基づいて、特徴領域を検出することもできる。例えば、予め定められた被写体の画像から抽出された画像特徴量と、予め定められた被写体以外の被写体の画像から抽出された画像特徴量とを用いて、予め定められた被写体の画像から抽出された画像特徴量の特徴を学習する。そして、特徴領域特定部226は、当該学習された特徴に適合する特徴を有する画像特徴量が抽出された領域を、特徴領域として検出してよい。
図15は、特徴領域特定部226のブロック構成の一例を示す。特徴領域特定部226は、第1特徴領域特定部610、第2特徴領域特定部620、領域推定部630、高画質化領域決定部640、パラメータ格納部650、及び画像生成部660を有する。第2特徴領域特定部620は、部分領域判断部622及び特徴領域判断部624を含む。
図19は、図14に記載した圧縮部232のブロック構成の一例を示す。圧縮部232は、画像分割部242、複数の固定値化部244a−c(以下、固定値化部244と総称する場合がある。)、及び複数の圧縮処理部246a−d(以下、圧縮処理部246と総称する場合がある。)を有する。
図20は、図14に記載した圧縮部232のブロック構成の他の一例を示す。本構成における圧縮部232は、特徴の種類に応じた空間スケーラブルな符号化処理によって複数の撮像画像を圧縮する。
図21は、図13に示した画像処理装置250のブロック構成の一例を示す。図21に示すように、画像処理装置250は、圧縮画像取得部301、対応付け解析部302、伸張制御部310、伸張部320、外部情報取得部380、及び画像処理部330を備える。伸張部320は、複数の復号器322a−d(以下、復号器322と総称する。)を有する。
図22は、図21で説明した画像処理装置250が有する画像処理部330のブロック構成の一例を示す。図22に示すように、画像処理部330は、パラメータ格納部1010、属性特定部1020、特定オブジェクト領域検出部1030、パラメータ選択部1040、重み決定部1050、パラメータ生成部1060、及び画像生成部1070を含む。
図25は、図13中の表示装置260のブロック構成の一例を示す。図25に示すように、表示装置260は、画像取得部1300、第1画像処理部1310、特徴領域特定部1320、パラメータ決定部1330、表示制御部1340、第2画像処理部1350、外部情報取得部1380、及び表示部1390を有する。
図27は、他の実施形態に係る画像処理システム201の一例を示す。本実施形態における画像処理システム201の構成は、撮像装置210a−dがそれぞれ画像処理部804a−d(以下、画像処理部804と総称する。)を有する点を除いて、図13で説明した画像処理システム200の構成と同じとなっている。
上述の画像処理システム200、201では、複数の撮像装置210a−dを備えた例を述べたが、撮像装置210の台数は特に限定されず、1台であってもよい。また、表示装置260の台数も特に限定されず、1台であってもよい。
上述の画像処理システム200、201では、動画データの中の撮像画像(フレーム画像、或いはフィールド画像)から特徴領域を特定したが、動画データに限らず、静止画データについても適用可能である。
上述の画像処理システム200、201では、1つの撮像画像から複数の特徴領域を検出し得る構成を説明したが、特徴領域の数は特に限定されず、1つの撮像画像につき、特徴領域は1つであってもよい。
学習画像群を取得する手段について、予め高画質画像と低画質画像の対の画像群を用意しておく態様に限らず、高画質画像のみを与え、その高画質画像から低画質画像を生成することにより画像対を得てもよい。例えば、画像処理装置内に低画質化の処理を行うための処理手段(低画質化処理手段)を備え、高画質の学習画像を入力することにより、同装置内でこれを低画質化して学習画像対を取得する態様も可能である。
上述の実施形態では画像データを学習して高画質化の画像変換を行う例に説明したが、本発明は高画質化処理に限らず、画像認識など、他の画像変換にも適用できる。また、処理の対象とするデータは画像に限定されず、画像以外の各種データについて同様に適用できる。すなわち、画像処理装置、画像処理手段、画像処理システムとして説明した構成は、データ処理装置、データ処理手段、データ処理システムとして拡張することができる。
高画質化処理以外の応用例として、画像認識に基づく個人認証の技術への適用例を説明する。この場合、図2、図3、図6等で説明した高画質化処理の中間固有空間までの処理と同様の処理を行い、中間固有空間における係数ベクトルの位置関係を利用して個人認証することができる。位置関係は(係数ベクトル補正処理部140)の求め方で距離や向き等を求めてもよい。つまり、求められた入力データの距離や向きが学習データに近ければ近いほど判断対象である可能性が高いことになる。
画像以外のデータを取り扱う一例として、音声認識に適用する例を説明する。画像データに代えて、音声データを対象とし、図2、図3、図6等で説明した高画質化処理の中間固有空間までの処理と同様の処理を行い、中間固有空間における係数ベクトルの位置関係を利用して音声認識することができる。位置関係は「係数ベクトル補正処理部140」の求め方で距離や向き等を求めてもよい。つまり、求められた入力データの距離や向きが学習データに近ければ近いほど判断対象である可能性が高いことになる。
画像以外のデータを取り扱う他の例として、言語処理に適用する例を説明する。画像データに代えて、言語データ(音声データでもよいし、文字データでもよい)を対象とし、図2、図3、図6等で説明した高画質化処理の中間固有空間までの処理と同様の処理を行い、中間固有空間における係数ベクトルの位置関係を利用して言語処理することができる。位置関係は「係数ベクトル補正処理部140」の求め方で距離や向き等を求めてもよい。つまり、求められた入力データの距離や向きが学習データに近ければ近いほど判断対象である可能性が高いことになる。
画像以外のデータを取り扱う他の例として、生体情報処理に適用する例を説明する。生体情報には、例えば、心拍、脈拍、血圧、呼吸、発汗の波形や周期、振幅等がある。画像データに代えて、生体情報のデータを対象とし、図2、図3、図6等で説明した高画質化処理の中間固有空間までの処理と同様の処理を行い、中間固有空間における係数ベクトルの位置関係を利用して生体情報処理することができる。位置関係は「係数ベクトル補正処理部140」の求め方で距離や向き等を求めてもよい。つまり、求められた入力データの距離や向きが学習データに近ければ近いほど判断対象である可能性が高いことになる。
画像以外のデータを取り扱う他の例として、自然・物理情報処理に適用する例を説明する。自然・物理情報には、例えば、天候、気候、地震の波形や周期、振幅等がある。画像データに代えて、自然・物理情報のデータを対象とし、図2、図3、図6等で説明した高画質化処理の中間固有空間までの処理と同様の処理を行い、中間固有空間における係数ベクトルの位置関係を利用して自然・物理情報を処理することができる。位置関係は「係数ベクトル補正処理部140」の求め方で距離や向き等を求めてもよい。つまり、求められた入力データの距離や向きが学習データに近ければ近いほど判断対象である可能性が高いことになる。
Claims (26)
- 互いに画質の異なる第1画質画像と第2画質画像とを対とした画像対を含んだ学習画像群を取得する学習画像取得手段と、
前記取得した学習画像群から局所関係を利用した射影演算により固有射影行列を生成する固有射影行列生成手段と、
前記取得した学習画像群及び前記生成した前記固有射影行列から、前記第1画質画像と中間固有空間の対応関係と、前記第2画質画像と前記中間固有空間の対応関係とを規定した局所性利用の射影核テンソルを作成する射影核テンソル作成手段と、
前記作成した射影核テンソルから第1の設定で特定した条件に該当する第1のサブ核テンソルを作成する第1のサブ核テンソル作成手段と、
前記作成した射影核テンソルから第2の設定で特定した条件に該当する第2のサブ核テンソルを作成する第2のサブ核テンソル作成手段と、
処理の対象とする入力画像を前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを算出する第1のサブテンソル射影手段と、
前記算出された前記係数ベクトルを前記第2のサブ核テンソルと前記固有射影行列とを利用した第2の射影演算によって射影して前記入力画像とは異なる画質の変更画像を生成する第2のサブテンソル射影手段と、
を備えることを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置において、
前記第1画質画像は、前記画像対において相対的に低画質の画像であり、
前記第2画質画像は、前記画像対において相対的に高画質の画像であり、
前記変更画像は、前記入力画像よりも高画質の画像であることを特徴とする画像処理装置。 - 請求項1又は2に記載の画像処理装置において、
前記第1の設定は、前記第1画質画像を前記中間固有空間に射影する射影関係を指定するものであり、
前記第2の設定は、前記第2画質画像を前記中間固有空間に射影する射影関係を指定するものであることを特徴とする画像処理装置。 - 請求項1乃至3のいずれか1項に記載の画像処理装置において、
前記局所関係を利用した射影演算は、局所性保存射影(LPP;locality preserving projection)、局所線形埋込み(LLE;locally linear embedding)、線形接空間位置合せ(LTSA;linear tangent-space alignment)、Isomap、ラプラス固有マップ(LE;Laplacian Eigenmaps)、近傍保存埋込み(NPE;Neighborhood Preserving Embedding)のうち、いずれかであることを特徴とする画像処理装置。 - 請求項1乃至4のいずれか1項に記載の画像処理装置において、
前記学習画像群は、人物の顔を対象にした前記画像対を含み、
前記中間固有空間は、個人差固有空間であることを特徴とする画像処理装置。 - 互いに画質の異なる第1画質画像と第2画質画像とを対とした画像対を含んだ学習画像群を取得する学習画像取得手段と、
前記取得した学習画像群から局所関係を利用した射影演算により固有射影行列を生成する固有射影行列生成手段と、
前記取得した学習画像群及び前記生成した前記固有射影行列から、前記第1画質画像と中間固有空間の対応関係と、前記第2画質画像と前記中間固有空間の対応関係とを規定した局所性利用の射影核テンソルを作成する射影核テンソル作成手段と、
前記固有射影行列生成手段で生成した前記固有射影行列及び前記射影核テンソル作成手段で作成した前記射影核テンソルを記憶する記憶手段と、
を備えたことを特徴とする画像処理装置。 - 請求項6に記載の画像処理装置において、
前記作成した射影核テンソルから第1の設定で特定した条件に該当する第1のサブ核テンソルを作成する第1のサブ核テンソル作成手段と、
前記作成した射影核テンソルから第2の設定で特定した条件に該当する第2のサブ核テンソルを作成する第2のサブ核テンソル作成手段と、
を備え、
前記第1のサブ核テンソル作成手段で作成した前記第1のサブ核テンソル及び前記第2のサブ核テンソル作成手段で作成した前記第2のサブ核テンソルを前記射影核テンソルに代えて、又は前記射影核テンソルとともに前記記憶手段に記憶保存することを特徴とする画像処理装置。 - 互いに画質の異なる第1画質画像と第2画質画像とを対とした画像対を含んだ学習画像群から局所関係を利用した射影演算によって生成された固有射影行列と、前記学習画像群及び前記固有射影行列から生成された局所性利用の射影核テンソルであって、前記第1画質画像と中間固有空間の対応関係並びに前記第2画質画像と前記中間固有空間の対応関係を規定した射影核テンソルから、第1の設定で特定した条件に該当するものとして作成された第1のサブ核テンソルと、前記射影核テンソルから第2の設定で特定した条件に該当するものとして作成された第2のサブ核テンソルと、を取得する情報取得手段と、
処理の対象とする入力画像を、前記情報取得手段から取得した前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを算出する第1のサブテンソル射影手段と、
前記算出された前記係数ベクトルを、前記情報取得手段から取得した前記第2のサブ核テンソルと前記固有射影行列とを利用した第2の射影演算によって射影して前記入力画像とは異なる画質の変更画像を生成する第2のサブテンソル射影手段と、
を備えることを特徴とする画像処理装置。 - 請求項1乃至5及び8のいずれか1項に記載の画像処理装置において、
入力された画像内から第1特徴領域を特定する第1特徴領域特定手段と、
前記入力された画像について前記第1特徴領域の画像部分を第1の圧縮強度で圧縮する一方、前記第1特徴領域以外の画像部分を前記第1の圧縮強度よりも高い圧縮強度の第2の圧縮強度で圧縮する圧縮処理手段と、
少なくとも前記第1特徴領域を前記第1のサブテンソル射影手段及び前記第2のサブテンソル射影手段で射影して画質変更する手段と、
を備えたことを特徴とする画像処理装置。 - 互いに画質の異なる第1画質画像と第2画質画像とを対とした画像対を含んだ学習画像群を取得する学習画像取得工程と、
前記取得した学習画像群から局所関係を利用した射影演算により固有射影行列を生成する固有射影行列生成工程と、
前記取得した学習画像群及び前記生成した前記固有射影行列から、前記第1画質画像と中間固有空間の対応関係と、前記第2画質画像と前記中間固有空間の対応関係とを規定した局所性利用の射影核テンソルを作成する射影核テンソル作成工程と、
前記作成した射影核テンソルから第1の設定で特定した条件に該当する第1のサブ核テンソルを作成する第1のサブ核テンソル作成工程と、
前記作成した射影核テンソルから第2の設定で特定した条件に該当する第2のサブ核テンソルを作成する第2のサブ核テンソル作成工程と、
処理の対象とする入力画像を前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを算出する第1のサブテンソル射影工程と、
前記算出された前記係数ベクトルを前記第2のサブ核テンソルと前記固有射影行列とを利用した第2の射影演算によって射影して前記入力画像とは異なる画質の変更画像を生成する第2のサブテンソル射影工程と、
を備えることを特徴とする画像処理方法。 - 互いに画質の異なる第1画質画像と第2画質画像とを対とした画像対を含んだ学習画像群を取得する学習画像取得工程と、
前記取得した学習画像群から局所関係を利用した射影演算により固有射影行列を生成する固有射影行列生成工程と、
前記取得した学習画像群及び前記生成した前記固有射影行列から、前記第1画質画像と中間固有空間の対応関係と、前記第2画質画像と前記中間固有空間の対応関係とを規定した局所性利用の射影核テンソルを作成する射影核テンソル作成工程と、
前記固有射影行列生成工程で生成した前記固有射影行列及び前記射影核テンソル作成工程で作成した前記射影核テンソルを記憶手段に記憶する記憶工程と、
を備えたことを特徴とする画像処理方法。 - 請求項11に記載の画像処理方法において、
前記作成した射影核テンソルから第1の設定で特定した条件に該当する第1のサブ核テンソルを作成する第1のサブ核テンソル作成工程と、
前記作成した射影核テンソルから第2の設定で特定した条件に該当する第2のサブ核テンソルを作成する第2のサブ核テンソル作成工程と、
を備え、
前記第1のサブ核テンソル作成工程で作成した前記第1のサブ核テンソル及び前記第2のサブ核テンソル作成工程で作成した前記第2のサブ核テンソルを前記射影核テンソルに代えて、又は前記射影核テンソルとともに前記記憶手段に記憶保存することを特徴とする画像処理方法。 - 互いに画質の異なる第1画質画像と第2画質画像とを対とした画像対を含んだ学習画像群から局所関係を利用した射影演算によって生成された固有射影行列と、前記学習画像群及び前記固有射影行列から生成された局所性利用の射影核テンソルであって、前記第1画質画像と中間固有空間の対応関係並びに前記第2画質画像と前記中間固有空間の対応関係を規定した射影核テンソルから、第1の設定で特定した条件に該当するものとして作成された第1のサブ核テンソルと、前記射影核テンソルから第2の設定で特定した条件に該当するものとして作成された第2のサブ核テンソルと、を取得する情報取得工程と、
処理の対象とする入力画像を、前記情報取得工程で取得した前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを算出する第1のサブテンソル射影工程と、
前記算出された前記係数ベクトルを、前記情報取得工程で取得した前記第2のサブ核テンソルと前記固有射影行列とを利用した第2の射影演算によって射影して前記入力画像とは異なる画質の変更画像を生成する第2のサブテンソル射影工程と、
を備えることを特徴とする画像処理方法。 - コンピュータを、
互いに画質の異なる第1画質画像と第2画質画像とを対とした画像対を含んだ学習画像群を取得する学習画像取得手段、
前記取得した学習画像群から局所関係を利用した射影演算により固有射影行列を生成する固有射影行列生成手段、
前記取得した学習画像群及び前記生成した前記固有射影行列から、前記第1画質画像と中間固有空間の対応関係と、前記第2画質画像と前記中間固有空間の対応関係とを規定した局所性利用の射影核テンソルを作成する射影核テンソル作成手段、
前記作成した射影核テンソルから第1の設定で特定した条件に該当する第1のサブ核テンソルを作成する第1のサブ核テンソル作成手段、
前記作成した射影核テンソルから第2の設定で特定した条件に該当する第2のサブ核テンソルを作成する第2のサブ核テンソル作成手段、
処理の対象とする入力画像を前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを算出する第1のサブテンソル射影手段、
前記算出された前記係数ベクトルを前記第2のサブ核テンソルと前記固有射影行列とを利用した第2の射影演算によって射影して前記入力画像とは異なる画質の変更画像を生成する第2のサブテンソル射影手段、
として機能させるためのプログラム。 - コンピュータを、
互いに画質の異なる第1画質画像と第2画質画像とを対とした画像対を含んだ学習画像群を取得する学習画像取得手段、
前記取得した学習画像群から局所関係を利用した射影演算により固有射影行列を生成する固有射影行列生成手段、
前記取得した学習画像群及び前記生成した前記固有射影行列から、前記第1画質画像と中間固有空間の対応関係と、前記第2画質画像と前記中間固有空間の対応関係とを規定した局所性利用の射影核テンソルを作成する射影核テンソル作成手段、
前記固有射影行列生成手段で生成した前記固有射影行列及び前記射影核テンソル作成手段で作成した前記射影核テンソルを記憶する記憶手段、
として機能させるためのプログラム。 - 請求項15に記載のプログラムにおいて、更に、コンピュータを、
前記作成した射影核テンソルから第1の設定で特定した条件に該当する第1のサブ核テンソルを作成する第1のサブ核テンソル作成手段、
前記作成した射影核テンソルから第2の設定で特定した条件に該当する第2のサブ核テンソルを作成する第2のサブ核テンソル作成手段、
として機能させ、
前記第1のサブ核テンソル作成手段で作成した前記第1のサブ核テンソル及び前記第2のサブ核テンソル作成手段で作成した前記第2のサブ核テンソルを前記射影核テンソルに代えて、又は前記射影核テンソルとともに前記記憶手段に記憶保存させるためのプログラム。 - コンピュータを、
互いに画質の異なる第1画質画像と第2画質画像とを対とした画像対を含んだ学習画像群から局所関係を利用した射影演算によって生成された固有射影行列と、前記学習画像群及び前記固有射影行列から生成された局所性利用の射影核テンソルであって、前記第1画質画像と中間固有空間の対応関係並びに前記第2画質画像と前記中間固有空間の対応関係を規定した射影核テンソルから、第1の設定で特定した条件に該当するものとして作成された第1のサブ核テンソルと、前記射影核テンソルから第2の設定で特定した条件に該当するものとして作成された第2のサブ核テンソルと、を取得する情報取得手段、
処理の対象とする入力画像を、前記情報取得手段から取得した前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを算出する第1のサブテンソル射影手段、
前記算出された前記係数ベクトルを、前記情報取得手段から取得した前記第2のサブ核テンソルと前記固有射影行列とを利用した第2の射影演算によって射影して前記入力画像とは異なる画質の変更画像を生成する第2のサブテンソル射影手段、
として機能させるためのプログラム。 - 画像データについて、互いにモダリティの条件の異なる第1条件のデータと第2条件のデータとを対としたデータ対を含んだ学習データ群から局所関係を利用した射影演算によって生成された固有射影行列と、前記学習データ群及び前記固有射影行列から生成された局所性利用の射影核テンソルであって、前記第1条件のデータと中間固有空間の対応関係並びに第2条件のデータと前記中間固有空間の対応関係を規定した射影核テンソルから、第1の設定で特定した条件に該当するものとして作成された第1のサブ核テンソルを取得する情報取得手段と、
処理の対象とする入力データを、前記情報取得手段から取得した前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを算出する第1のサブテンソル射影手段と、を備えることを特徴とするデータ処理装置。 - 言語データについて、互いに言語、用途、時代、又は世代のいずれかの条件の異なる第1条件のデータと第2条件のデータとを対としたデータ対を含んだ学習データ群から局所関係を利用した射影演算によって生成された固有射影行列と、前記学習データ群及び前記固有射影行列から生成された局所性利用の射影核テンソルであって、前記第1条件のデータと中間固有空間の対応関係並びに第2条件のデータと前記中間固有空間の対応関係を規定した射影核テンソルから、第1の設定で特定した条件に該当するものとして作成された第1のサブ核テンソルを取得する情報取得手段と、
処理の対象とする入力データを、前記情報取得手段から取得した前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを算出する第1のサブテンソル射影手段と、を備えることを特徴とするデータ処理装置。 - 音声データ、生体情報、又は物理情報のいずれかについて、互いにサンプリング数又はシグナルノイズ比のいずれかの条件の異なる第1条件のデータと第2条件のデータとを対としたデータ対を含んだ学習データ群から局所関係を利用した射影演算によって生成された固有射影行列と、前記学習データ群及び前記固有射影行列から生成された局所性利用の射影核テンソルであって、前記第1条件のデータと中間固有空間の対応関係並びに第2条件のデータと前記中間固有空間の対応関係を規定した射影核テンソルから、第1の設定で特定した条件に該当するものとして作成された第1のサブ核テンソルを取得する情報取得手段と、
処理の対象とする入力データを、前記情報取得手段から取得した前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを算出する第1のサブテンソル射影手段と、を備えることを特徴とするデータ処理装置。 - データ処理装置におけるデータ処理方法であって、
画像データについて、互いにモダリティの条件の異なる第1条件のデータと第2条件のデータとを対としたデータ対を含んだ学習データ群から局所関係を利用した射影演算によって生成された固有射影行列と、前記学習データ群及び前記固有射影行列から生成された局所性利用の射影核テンソルであって、前記第1条件のデータと中間固有空間の対応関係並びに第2条件のデータと前記中間固有空間の対応関係を規定した射影核テンソルから、第1の設定で特定した条件に該当するものとして作成された第1のサブ核テンソルを、前記データ処理装置における情報取得手段により取得する情報取得工程と、
処理の対象とする入力データを、前記情報取得工程から取得した前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを、前記データ処理装置における処理部により算出する第1のサブテンソル射影工程と、を備えることを特徴とするデータ処理方法。 - データ処理装置におけるデータ処理方法であって、
言語データについて、互いに言語、用途、時代、又は世代のいずれかの条件の異なる第1条件のデータと第2条件のデータとを対としたデータ対を含んだ学習データ群から局所関係を利用した射影演算によって生成された固有射影行列と、前記学習データ群及び前記固有射影行列から生成された局所性利用の射影核テンソルであって、前記第1条件のデータと中間固有空間の対応関係並びに第2条件のデータと前記中間固有空間の対応関係を規定した射影核テンソルから、第1の設定で特定した条件に該当するものとして作成された第1のサブ核テンソルを、前記データ処理装置における情報取得手段により取得する情報取得工程と、
処理の対象とする入力データを、前記情報取得工程から取得した前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを、前記データ処理装置における処理部により算出する第1のサブテンソル射影工程と、を備えることを特徴とするデータ処理方法。 - データ処理装置におけるデータ処理方法であって、
音声データ、生体情報、又は物理情報のいずれかについて、互いにサンプリング数又はシグナルノイズ比のいずれかの条件の異なる第1条件のデータと第2条件のデータとを対としたデータ対を含んだ学習データ群から局所関係を利用した射影演算によって生成された固有射影行列と、前記学習データ群及び前記固有射影行列から生成された局所性利用の射影核テンソルであって、前記第1条件のデータと中間固有空間の対応関係並びに第2条件のデータと前記中間固有空間の対応関係を規定した射影核テンソルから、第1の設定で特定した条件に該当するものとして作成された第1のサブ核テンソルを、前記データ処理装置における情報取得手段により取得する情報取得工程と、
処理の対象とする入力データを、前記情報取得工程から取得した前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを、前記データ処理装置における処理部により算出する第1のサブテンソル射影工程と、を備えることを特徴とするデータ処理方法。 - コンピュータを、
画像データについて、互いにモダリティの条件の異なる第1条件のデータと第2条件のデータとを対としたデータ対を含んだ学習データ群から局所関係を利用した射影演算によって生成された固有射影行列と、前記学習データ群及び前記固有射影行列から生成された局所性利用の射影核テンソルであって、前記第1条件のデータと中間固有空間の対応関係並びに第2条件のデータと前記中間固有空間の対応関係を規定した射影核テンソルから、第1の設定で特定した条件に該当するものとして作成された第1のサブ核テンソルを取得する情報取得手段、
処理の対象とする入力データを、前記情報取得手段から取得した前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを算出する第1のサブテンソル射影手段、
として機能させるためのプログラム。 - コンピュータを、
言語データについて、互いに言語、用途、時代、又は世代のいずれかの条件の異なる第1条件のデータと第2条件のデータとを対としたデータ対を含んだ学習データ群から局所関係を利用した射影演算によって生成された固有射影行列と、前記学習データ群及び前記固有射影行列から生成された局所性利用の射影核テンソルであって、前記第1条件のデータと中間固有空間の対応関係並びに第2条件のデータと前記中間固有空間の対応関係を規定した射影核テンソルから、第1の設定で特定した条件に該当するものとして作成された第1のサブ核テンソルを取得する情報取得手段、
処理の対象とする入力データを、前記情報取得手段から取得した前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを算出する第1のサブテンソル射影手段、
として機能させるためのプログラム。 - コンピュータを、
音声データ、生体情報、又は物理情報のいずれかについて、互いにサンプリング数又はシグナルノイズ比のいずれかの条件の異なる第1条件のデータと第2条件のデータとを対としたデータ対を含んだ学習データ群から局所関係を利用した射影演算によって生成された固有射影行列と、前記学習データ群及び前記固有射影行列から生成された局所性利用の射影核テンソルであって、前記第1条件のデータと中間固有空間の対応関係並びに第2条件のデータと前記中間固有空間の対応関係を規定した射影核テンソルから、第1の設定で特定した条件に該当するものとして作成された第1のサブ核テンソルを取得する情報取得手段、
処理の対象とする入力データを、前記情報取得手段から取得した前記固有射影行列と前記第1のサブ核テンソルを利用した第1の射影演算によって射影して前記中間固有空間における係数ベクトルを算出する第1のサブテンソル射影手段、
として機能させるためのプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009179838A JP5506272B2 (ja) | 2009-07-31 | 2009-07-31 | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム |
CN201080034148.7A CN102576453B (zh) | 2009-07-31 | 2010-07-26 | 图像处理装置和方法、数据处理装置和方法 |
US13/388,025 US8605995B2 (en) | 2009-07-31 | 2010-07-26 | Image processing device and method, data processing device and method, program, and recording medium |
EP10804352.2A EP2461287A4 (en) | 2009-07-31 | 2010-07-26 | IMAGE PROCESSING DEVICE AND METHOD, DATA PROCESSING DEVICE AND METHOD, PROGRAM, AND RECORDING MEDIUM |
PCT/JP2010/062503 WO2011013606A1 (ja) | 2009-07-31 | 2010-07-26 | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム及び記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009179838A JP5506272B2 (ja) | 2009-07-31 | 2009-07-31 | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011034342A JP2011034342A (ja) | 2011-02-17 |
JP5506272B2 true JP5506272B2 (ja) | 2014-05-28 |
Family
ID=43529261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009179838A Expired - Fee Related JP5506272B2 (ja) | 2009-07-31 | 2009-07-31 | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US8605995B2 (ja) |
EP (1) | EP2461287A4 (ja) |
JP (1) | JP5506272B2 (ja) |
CN (1) | CN102576453B (ja) |
WO (1) | WO2011013606A1 (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5178662B2 (ja) * | 2009-07-31 | 2013-04-10 | 富士フイルム株式会社 | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム |
JP5476955B2 (ja) * | 2009-12-04 | 2014-04-23 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
US9053562B1 (en) | 2010-06-24 | 2015-06-09 | Gregory S. Rabin | Two dimensional to three dimensional moving image converter |
JP5492139B2 (ja) | 2011-04-27 | 2014-05-14 | 富士フイルム株式会社 | 画像圧縮装置、画像伸長装置、方法、及びプログラム |
CN102760444B (zh) * | 2012-04-25 | 2014-06-11 | 清华大学 | 基于支撑向量机的基带时域音频信号分类方法 |
EP2927864B1 (en) * | 2012-11-29 | 2018-06-13 | NEC Corporation | Image processing device and image processing method |
US20140267616A1 (en) * | 2013-03-15 | 2014-09-18 | Scott A. Krig | Variable resolution depth representation |
CN103278467A (zh) * | 2013-05-07 | 2013-09-04 | 江苏大学 | 一种植物叶片氮素丰缺快速无损高准确率的鉴别方法 |
CN103353764B (zh) * | 2013-06-08 | 2016-01-20 | 浙江理工大学 | 位置闭环运动控制系统中机电模型辨识方法 |
US9721561B2 (en) * | 2013-12-05 | 2017-08-01 | Nuance Communications, Inc. | Method and apparatus for speech recognition using neural networks with speaker adaptation |
US9159123B2 (en) * | 2014-01-24 | 2015-10-13 | Adobe Systems Incorporated | Image prior as a shared basis mixture model |
US10469398B2 (en) * | 2014-03-04 | 2019-11-05 | International Business Machines Corporation | Selecting forecasting model complexity using eigenvalues |
US9384402B1 (en) * | 2014-04-10 | 2016-07-05 | Google Inc. | Image and video compression for remote vehicle assistance |
US10521689B2 (en) * | 2015-01-14 | 2019-12-31 | Saronikos Trading And Services, Unipessoal Lda | Apparatus and method for detecting entities in an image |
WO2017092022A1 (zh) * | 2015-12-04 | 2017-06-08 | 深圳先进技术研究院 | 一种张量模式下的有监督学习优化方法及系统 |
CN106897965B (zh) * | 2015-12-14 | 2020-04-28 | 国基电子(上海)有限公司 | 彩色图像处理系统及彩色图像处理方法 |
US10402696B2 (en) * | 2016-01-04 | 2019-09-03 | Texas Instruments Incorporated | Scene obstruction detection using high pass filters |
CN105678261B (zh) * | 2016-01-07 | 2019-03-26 | 西安电子科技大学 | 基于有监督图的直推式数据降维方法 |
JP6728365B2 (ja) * | 2016-08-25 | 2020-07-22 | キヤノン株式会社 | 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体 |
JP6897092B2 (ja) * | 2016-12-22 | 2021-06-30 | カシオ計算機株式会社 | 投影制御装置、投影制御方法及びプログラム |
JP6668278B2 (ja) | 2017-02-20 | 2020-03-18 | 株式会社日立ハイテク | 試料観察装置および試料観察方法 |
CN107169531B (zh) * | 2017-06-14 | 2018-08-17 | 中国石油大学(华东) | 一种基于拉普拉斯嵌入的图像分类词典学习方法和装置 |
EP3451670A1 (en) * | 2017-08-28 | 2019-03-06 | Thomson Licensing | Method and apparatus for filtering with mode-aware deep learning |
JP7171361B2 (ja) * | 2018-10-19 | 2022-11-15 | 株式会社日立製作所 | データ解析システム、学習装置、及びその方法 |
TWI827725B (zh) | 2018-12-07 | 2024-01-01 | 日商索尼半導體解決方案公司 | 圖像處理裝置及圖像處理方法 |
US10881956B2 (en) * | 2018-12-28 | 2021-01-05 | Intel Corporation | 3D renderer to video encoder pipeline for improved visual quality and low latency |
US11049286B2 (en) | 2019-07-31 | 2021-06-29 | Hewlett Packard Enterprise Development Lp | Deep neural network color space optimization |
TWI812874B (zh) | 2019-10-01 | 2023-08-21 | 美商杜拜研究特許公司 | 張量乘積之b平滑曲線預測子 |
CN110660039B (zh) * | 2019-10-10 | 2022-04-22 | 杭州雄迈集成电路技术股份有限公司 | 一种多帧加权的宽动态图像处理方法 |
CN111276183B (zh) * | 2020-02-25 | 2023-03-21 | 云南大学 | 一种基于参数估计的张量分解处理海量基因序列的方法 |
CN111881858B (zh) * | 2020-07-31 | 2024-02-13 | 中南大学 | 一种微震信号多尺度去噪方法、装置及可读存储介质 |
CN112541470B (zh) * | 2020-12-22 | 2024-08-13 | 杭州趣链科技有限公司 | 基于超图的人脸活体检测方法、装置及相关设备 |
CN113033690B (zh) * | 2021-04-07 | 2024-04-02 | 东北大学 | 一种基于声音的双投影邻域保持嵌入的托辊故障检测方法 |
CN113204051B (zh) * | 2021-06-10 | 2022-04-15 | 成都理工大学 | 一种基于变分模态分解的低秩张量地震数据去噪方法 |
US20230237620A1 (en) * | 2022-01-27 | 2023-07-27 | Sonic Star Global Limited | Image processing system and method for processing image |
CN115019368B (zh) * | 2022-06-09 | 2023-09-12 | 南京审计大学 | 一种审计调查中人脸识别特征提取方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001222702A (ja) * | 2000-02-07 | 2001-08-17 | Sony Corp | 画像処理装置および画像処理方法、並びに記録媒体 |
JP2002170112A (ja) * | 2000-12-04 | 2002-06-14 | Minolta Co Ltd | 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法 |
US7302111B2 (en) | 2001-09-12 | 2007-11-27 | Micronic Laser Systems A.B. | Graphics engine for high precision lithography |
US7822693B2 (en) * | 2001-12-06 | 2010-10-26 | New York University | Logic arrangement, data structure, system and method for multilinear representation of multimodal data ensembles for synthesis, recognition and compression |
WO2003055119A2 (en) * | 2001-12-06 | 2003-07-03 | New York University | Logic arrangement, data structure, system and method for multilinear representation of multimodal data ensembles for synthesis, recognition and compression |
US7379925B2 (en) * | 2003-07-25 | 2008-05-27 | New York University | Logic arrangement, data structure, system and method for multilinear representation of multimodal data ensembles for synthesis, rotation and compression |
JP4543644B2 (ja) | 2003-09-16 | 2010-09-15 | 富士ゼロックス株式会社 | データ認識装置 |
JP2006350498A (ja) | 2005-06-14 | 2006-12-28 | Fujifilm Holdings Corp | 画像処理装置および方法並びにプログラム |
JP4712563B2 (ja) | 2006-01-16 | 2011-06-29 | 富士フイルム株式会社 | 顔検出方法および装置並びにプログラム |
JP4973098B2 (ja) * | 2006-09-28 | 2012-07-11 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP2008167948A (ja) | 2007-01-12 | 2008-07-24 | Fujifilm Corp | 放射線画像処理方法および装置ならびにプログラム |
WO2008084880A1 (en) | 2007-01-12 | 2008-07-17 | Fujifilm Corporation | Radiation image processing method, apparatus and program |
JP4913606B2 (ja) | 2007-01-12 | 2012-04-11 | 富士フイルム株式会社 | 放射線画像処理方法および装置ならびにプログラム |
JP4919408B2 (ja) | 2007-01-12 | 2012-04-18 | 富士フイルム株式会社 | 放射線画像処理方法および装置ならびにプログラム |
JP2008192031A (ja) * | 2007-02-07 | 2008-08-21 | Nec Corp | 圧縮方法、圧縮装置、圧縮データ復元方法、圧縮データ復元装置、可視化方法および可視化装置 |
JP4895204B2 (ja) | 2007-03-22 | 2012-03-14 | 富士フイルム株式会社 | 画像成分分離装置、方法、およびプログラム、ならびに、正常画像生成装置、方法、およびプログラム |
US7936906B2 (en) | 2007-06-15 | 2011-05-03 | Microsoft Corporation | Face recognition using discriminatively trained orthogonal tensor projections |
CN101299235B (zh) * | 2008-06-18 | 2010-06-02 | 中山大学 | 一种基于核主成分分析的人脸超分辨率重构方法 |
JP5161845B2 (ja) | 2009-07-31 | 2013-03-13 | 富士フイルム株式会社 | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム |
-
2009
- 2009-07-31 JP JP2009179838A patent/JP5506272B2/ja not_active Expired - Fee Related
-
2010
- 2010-07-26 US US13/388,025 patent/US8605995B2/en not_active Expired - Fee Related
- 2010-07-26 WO PCT/JP2010/062503 patent/WO2011013606A1/ja active Application Filing
- 2010-07-26 CN CN201080034148.7A patent/CN102576453B/zh not_active Expired - Fee Related
- 2010-07-26 EP EP10804352.2A patent/EP2461287A4/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
US8605995B2 (en) | 2013-12-10 |
US20120128238A1 (en) | 2012-05-24 |
WO2011013606A1 (ja) | 2011-02-03 |
CN102576453B (zh) | 2014-07-30 |
CN102576453A (zh) | 2012-07-11 |
EP2461287A4 (en) | 2013-05-01 |
JP2011034342A (ja) | 2011-02-17 |
EP2461287A1 (en) | 2012-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5506272B2 (ja) | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム | |
JP5506273B2 (ja) | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム | |
JP5161845B2 (ja) | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム | |
JP5178662B2 (ja) | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム | |
JP5506274B2 (ja) | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム | |
JP5366855B2 (ja) | 画像処理方法及び装置並びにプログラム | |
JP5684488B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP5335713B2 (ja) | 画像処理方法及び装置並びにプログラム | |
JP2010272109A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP5193931B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN109684969B (zh) | 凝视位置估计方法、计算机设备及存储介质 | |
JP5352332B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN108182429B (zh) | 基于对称性的人脸图像特征提取的方法及装置 | |
Sidiya | Generative Prior for Unsupervised Image Restoration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130814 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140311 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5506272 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |