JP2012127871A - Texture quantification device and texture quantification method - Google Patents
Texture quantification device and texture quantification method Download PDFInfo
- Publication number
- JP2012127871A JP2012127871A JP2010281004A JP2010281004A JP2012127871A JP 2012127871 A JP2012127871 A JP 2012127871A JP 2010281004 A JP2010281004 A JP 2010281004A JP 2010281004 A JP2010281004 A JP 2010281004A JP 2012127871 A JP2012127871 A JP 2012127871A
- Authority
- JP
- Japan
- Prior art keywords
- image
- histogram
- light
- fourier transform
- texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
Description
本発明は、物体表面の粗さ、光沢などに着目して、物体表面の質感を定量化する質感定量化装置及び質感定量化方法に関するものである。 The present invention relates to a texture quantification apparatus and a texture quantification method for quantifying the texture of an object surface by paying attention to the roughness and gloss of the object surface.
物体表面の粗さを測定する装置は種々提案されている。例えば、プローブを用いるフーリエ変換による表面測定方法(特許文献1)、受光装置を用いた鋼材の表面状態表示装置(特許文献2)、センサを用いたフーリエ変換による磁気テープなど面形状計測装置(特許文献3)、反射光を受光するヒストグラムによる帯状鋼板表面検査装置(特許文献4)、カメラを利用するヒストグラムによる塗膜層表面検査装置(特許文献5)、磁気記録媒体の表面粗さ解析装置(特許文献6)などがある。 Various apparatuses for measuring the roughness of an object surface have been proposed. For example, a surface measurement method using a Fourier transform using a probe (Patent Document 1), a surface state display device for steel using a light receiving device (Patent Document 2), and a surface shape measuring device such as a magnetic tape using a Fourier transform using a sensor (Patent Document 1) Reference 3), strip-shaped steel plate surface inspection device using a histogram that receives reflected light (Patent Document 4), coating layer surface inspection device using a camera using a histogram (Patent Document 5), surface roughness analysis device for a magnetic recording medium (Patent Document 5) Patent Document 6).
しかしながら、従来の発明は、単に物体表面の粗さを測定するだけであり、光沢などの質感を定量化することが不可能であり、多面的な表面の解析が困難であった。 However, the conventional invention simply measures the roughness of the surface of the object, and it is impossible to quantify the texture such as gloss, making it difficult to analyze a multifaceted surface.
本発明は、以上の問題点を解決するためになされたものであり、物体表面の粗さ、光沢などの質感を定量化することを目的とする。 The present invention has been made to solve the above-described problems, and an object thereof is to quantify the texture of an object surface such as roughness and gloss.
最近のロボットマーケットの発展にともない、人間と同様のロボットのための視覚プロセスシステムが研究されてきている。人の視覚認識は、リアルタイム処理と高精度認識からなる。リアルタイム処理は視覚で認識したデータと、参照データとを照合することで、物体の種類等を認識する。従来の方法では視覚的に目的物を識別するのに時間がかかるため、人のようなリアルタイム処理を行うためには、高速の画像識別の手法が必要とされている。高速の画像識別方法として、イメージマッチングによって、高速で、画像を識別することのできる、光学相関装置が多くの注目を集めている。光学相関装置を用いた画像識別は、計算機よりも演算速度が速く高速な画像識別が可能である。 With the recent development of the robot market, visual process systems for robots similar to humans have been studied. Human visual recognition consists of real-time processing and high-precision recognition. The real-time processing recognizes the type of object by comparing visually recognized data with reference data. In conventional methods, it takes time to visually identify an object, so a high-speed image identification method is required to perform real-time processing like a person. As a high-speed image identification method, an optical correlator that can identify an image at high speed by image matching has attracted much attention. Image identification using an optical correlator can be performed at higher speed and faster than computer.
光学相関装置を利用した画像識別の研究の多くは、指紋認証システム、顔認証システム、軍事追尾システムのために使用される形状識別に焦点を合わせていた。しかし、識別精度が低いという問題があり、人のように高精度に認識するためには、形状に加えて他の要素を加味する必要がある。画像は形状以外にも色彩、質感のような多くの情報を有しており、このような情報が視覚処理システムには重要である。形状、色彩、質感等によって高精度認識が可能となる。本発明は、そのうちの質感に関する識別技術発明である。ここで、質感とは物体表面の光学的作用である反射、透過、拡散に起因するものである。反射による物体の光沢(例えば、ダイヤモンド)、透過による物体の透明感(例えば、ガラス)、拡散によるざらざら感、やわらかさ(やすり、布)等を高精度認識するものである。 Many studies of image identification using optical correlators have focused on shape identification used for fingerprint authentication systems, face authentication systems, and military tracking systems. However, there is a problem that the identification accuracy is low, and in order to recognize with high accuracy like a person, it is necessary to consider other elements in addition to the shape. The image has a lot of information such as color and texture in addition to the shape, and such information is important for the visual processing system. High-precision recognition is possible by shape, color, texture, and the like. The present invention is an identification technology invention relating to the texture. Here, the texture is caused by reflection, transmission, and diffusion, which are optical actions on the surface of the object. It recognizes the gloss of an object by reflection (for example, diamond), the transparency of the object by transmission (for example, glass), the rough feeling by diffusion, the softness (file, cloth), etc. with high accuracy.
そこで、本発明の質感定量化装置は、結合変換相関法(JTC)を使用し、デジタルカメラ等の撮像装置により撮像された表面の画像が輝度ヒストグラムに変換され、このヒストグラムが、JTCの空間光変調器の上に表示され、円滑又は粗い表面などの種々の質感は、輝度ヒストグラムの形状を使用して定量化され、類似した参照の輝度ヒストグラムが選択される。このような結果から、質感の定量化がJTCを利用して実現したものである。 Therefore, the texture quantification device of the present invention uses the joint transformation correlation method (JTC), and the surface image captured by an imaging device such as a digital camera is converted into a luminance histogram. Various textures, such as smooth or rough surfaces, displayed on the modulator are quantified using the shape of the luminance histogram and a similar reference luminance histogram is selected. From these results, the quantification of the texture was realized using JTC.
すなわち、請求項1に係る発明は、光源からの光を変調する空間光変調器と、前記空間光変調器からの変調光を受けフーリエ変換を行うフーリエ変換レンズと、前記フーリエ変換レンズからの光像を撮像するカメラと、を備え、前記空間光変調器に入力される入力画像の結合変換相関演算を行い、出力画像を生成する光演算相関部と、前記入力画像を、輝度ヒストグラムとして設定され検索対象となる検索ヒストグラムと、輝度ヒストグラムとして設定され照合のために予め作成される参照ヒストグラムとを並置したものとして設定し、前記入力画像を前記空間光変調器に出力し、前記結合変換相関演算によって得られた自己相関スポットと相互相関スポットを含む出力画像を前記カメラから取得し、前記相互相関スポットの強度に基づいて、前記検索ヒストグラムと前記参照ヒストグラムを照合し、質感の類似性を判断する質感定量化部と、を備えたことを特徴とする。 That is, the invention according to claim 1 is a spatial light modulator that modulates light from a light source, a Fourier transform lens that receives the modulated light from the spatial light modulator and performs Fourier transform, and light from the Fourier transform lens. A camera that captures an image, and performs a combined conversion correlation calculation of an input image input to the spatial light modulator to generate an output image, and the input image is set as a luminance histogram. A search histogram to be searched and a reference histogram that is set as a luminance histogram and created in advance for collation are set side by side, the input image is output to the spatial light modulator, and the combined transformation correlation calculation An output image including the autocorrelation spot and the cross-correlation spot obtained from the camera is obtained based on the intensity of the cross-correlation spot The collating the reference histogram and the search histogram, characterized in that and a texture quantifying section for determining the similarity of textures.
請求項2に係る発明は、前記入力画像を入力した前記空間光変調器により第1変調光を生成し、前記フーリエ変換レンズにより前記第1変調光のフーリエ変換を行って第1光像を生成し、前記第1光像を前記カメラで撮像して一次変換画像とし、前記空間光変調器に前記一次変換画像を出力し、前記空間光変調器で前記一次変換画像によって変調された第2変調光を生成し、前記フーリエ変換レンズにより前記第2変調光のフーリエ変換を行って第2光像を生成し、前記第2光像を前記カメラで撮像して前記出力画像とすることを特徴とする。 The invention according to claim 2 generates a first modulated light by the spatial light modulator to which the input image is input, and generates a first optical image by performing a Fourier transform of the first modulated light by the Fourier transform lens. The first light image is picked up by the camera as a first converted image, the first converted image is output to the spatial light modulator, and the second modulation modulated by the first converted image by the spatial light modulator. Generating light, performing a Fourier transform of the second modulated light by the Fourier transform lens to generate a second light image, and capturing the second light image with the camera as the output image, To do.
請求項3に係る発明は、前記光相関演算部は、第1空間光変調器と、前記第1空間光変調器からの第1変調光を受けフーリエ変換を行い第1光像を生成する第1フーリエ変換レンズと、前記第1フーリエ変換レンズからの第1光像を撮像し一次変換画像を生成する第1カメラと、前記第1カメラからの一次変換画像を入力し第2変調光を生成する第2空間光変調器と、該第2空間光変調器からの第2変調光を受けフーリエ変換を行い第2光像を生成する第2フーリエ変換レンズと、前記第2フーリエ変換レンズからの第2光像を撮像し前記出力画像を生成する第2カメラと、を備えたことを特徴とする。 According to a third aspect of the present invention, the optical correlation calculation unit receives the first modulated light from the first spatial light modulator and the first spatial light modulator, performs Fourier transform, and generates a first optical image. A first Fourier transform lens, a first camera that captures a first light image from the first Fourier transform lens and generates a primary conversion image, and a primary conversion image from the first camera is input to generate second modulated light. A second spatial light modulator, a second Fourier transform lens that receives the second modulated light from the second spatial light modulator and performs a Fourier transform to generate a second light image, and a second Fourier transform lens from the second Fourier transform lens. And a second camera that captures a second light image and generates the output image.
請求項4に係る発明は、輝度ヒストグラムとして設定され質感の定量化の対象となる検索ヒストグラムと、輝度ヒストグラムとして設定され予め作成された参照ヒストグラムとが並置された入力画像を、空間光変調器に入力し、前記空間光変調器からの光をフーリエ変換レンズでフーリエ変換し第1光像を形成し、前記第1光像を撮像し一次変換画像を生成する第1相関演算ステップと、前記第1相関演算ステップで撮像された一次変換画像を空間光変調器に入力し、前記空間光変調器からの光をフーリエ変換レンズでフーリエ変換し第2光像を形成し、前記第2光像を撮像し、自己相関スポットと相互相関スポットを含む出力画像とする第2相関演算ステップと、前記出力画像の相互相関スポットの光学的な強度に基づいて、前記検索ヒストグラムと前記参照ヒストグラムを照合し、質感の類似性を判断する質感定量化ステップと、を備えたことを特徴とする。
上記した質感定量化装置及び質感定量化方法の具体的態様においては、定量化したい対象物の表層の撮像により画像を得て、輝度に関してヒストグラム化し、検索ヒストグラムを作成する。また一方、照合するためのデータベースとして参照ヒストグラムを予め設定しておく。そして、これらの検索ヒストグラム及び参照ヒストグラムとが並置された検索画像を用い結合変換相関演算器による光学的な相関演算を行い得られた相互相関スポットの強度から質感の類似性を判断している。このような構成によれば、質感に着目した質感検索を、充分な精度で、かつ高速に実行することが可能となる。
According to a fourth aspect of the present invention, an input image in which a search histogram that is set as a luminance histogram and is an object of quantification of a texture and a reference histogram that is set as a luminance histogram and created in advance is placed in a spatial light modulator. A first correlation calculation step of inputting, Fourier-transforming the light from the spatial light modulator by a Fourier transform lens to form a first light image, capturing the first light image, and generating a primary conversion image; A primary conversion image captured in one correlation calculation step is input to a spatial light modulator, light from the spatial light modulator is Fourier transformed by a Fourier transform lens to form a second light image, and the second light image is converted into a second light image. A second correlation calculation step of imaging and producing an output image including an autocorrelation spot and a cross-correlation spot; and the search hysteresis based on the optical intensity of the cross-correlation spot of the output image. Compares the reference histogram gram, characterized by comprising the texture quantification determining the similarity of textures, the.
In the specific embodiment of the texture quantification apparatus and the texture quantification method described above, an image is obtained by imaging the surface layer of an object to be quantified, and is histogrammed with respect to luminance to create a search histogram. On the other hand, a reference histogram is set in advance as a database for collation. Then, the similarity of the texture is determined from the intensity of the cross-correlation spot obtained by performing the optical correlation calculation by the combined conversion correlation calculator using the search image in which the search histogram and the reference histogram are juxtaposed. According to such a configuration, it is possible to execute a texture search focusing on the texture with high accuracy and at high speed.
質感を示す輝度ヒストグラムについては、具体的には、横軸が輝度、縦軸が画素数である質感図上での質感分布を用いることができる。具体的には、画像上での強度分布(濃淡)を閾値で2値化してもよいし、あるいは、強度分布を線画化(輪郭化)したものでもよい。 For the luminance histogram indicating the texture, specifically, a texture distribution on a texture map in which the horizontal axis represents luminance and the vertical axis represents the number of pixels can be used. Specifically, the intensity distribution (shading) on the image may be binarized with a threshold value, or the intensity distribution may be linearized (contoured).
請求項1の質感定量化装置、請求項4の質感定量化方法によれば、結合変換相関演算器を用いて、輝度ヒストグラムの形状に基づいて質感を識別するので、十分な精度で、かつ高速に実行することが可能となる。また、表面粗さや光沢などの解析が容易になる。 According to the texture quantification apparatus of claim 1 and the texture quantification method of claim 4, the texture is identified based on the shape of the luminance histogram using the combined transformation correlation calculator, so that it is sufficiently accurate and high speed. Can be executed. In addition, analysis of surface roughness and gloss becomes easy.
請求項2の質感定量化装置によれば、結合変換相関演算を同じ空間光変調器、同じフーリエ変換器を使用して行うので、光学系を小型化できる。 According to the texture quantification apparatus of the second aspect, since the joint transformation correlation calculation is performed using the same spatial light modulator and the same Fourier transformer, the optical system can be reduced in size.
請求項3の質感定量化装置によれば、結合変換相関演算を別々の空間光変調器、フーリエ変換レンズを使用して行うので、相関演算処理時間を一層高速化できる。 According to the texture quantification apparatus of the third aspect, since the joint conversion correlation calculation is performed using separate spatial light modulators and Fourier transform lenses, the correlation calculation processing time can be further increased.
以下、本発明による質感定量化装置及び質感定量化方法の好適な実施形態について図面を参照して詳細に説明する。 Hereinafter, preferred embodiments of a texture quantification apparatus and a texture quantification method according to the present invention will be described in detail with reference to the drawings.
質感定量化装置1は、図1に示す通り、レーザー光を出力するレーザ・ダイオード2(ここでは、波長が532nm)と、倍率40倍の対物レンズ3と、レーザー光を点光源とするピンホール部4と、波面位相の揃った平行光線とするコリメートレンズ5(ここでは焦点距離f=80mm)と、偏光子6と、ハーフミラー7と、後述する質感定量化部13から、検索ヒストグラム、及び、参照ヒストグラムとが並置された入力画像を入力し、これに基づいて空間光変調を行い、光像を生成する光像生成装置である空間光変調器8と、空間光変調器8からの変調光をハーフミラー7、偏光子9を介して受け光学的にフーリエ変換して、フーリエ変換された光像を形成するフーリエ変換レンズ10(ここでは焦点距離f=170mm)と、フーリエ変換レンズ10からの光像を出力画像として撮像するCMOSカメラ11(CCDカメラでもよい)と、を有する光演算相関器として構成された光演算相関部12を備えている。また、質感定量化装置1は、ディジタル処理部として構成され、輝度ヒストグラムとして設定され検索対象となる検索ヒストグラムと、輝度ヒストグラムとして設定され照合のために予め作成される参照ヒストグラムとを並置した入力画像を生成し、そして、検索ヒストグラムを複数の参照ヒストグラムと照合し検索する質感定量化部13を有し構成されている。空間光変調器8はここでは液晶型空間光変調器である。質感定量化部13に対しては、空間光変調器8は入力画面として機能し、CMOSカメラ11は出力画面として機能する。 As shown in FIG. 1, the texture quantification apparatus 1 includes a laser diode 2 that outputs laser light (here, wavelength is 532 nm), an objective lens 3 with a magnification of 40 times, and a pinhole that uses laser light as a point light source. A search histogram, a collimating lens 5 (here, focal length f = 80 mm), a polarizer 6, a half mirror 7 and a texture quantification unit 13 described later, The input image in which the reference histogram is juxtaposed is input, spatial light modulation is performed based on the input image, and the spatial light modulator 8 which is a light image generating device for generating a light image, and the modulation from the spatial light modulator 8 A Fourier transform lens 10 (focal length f = 170 mm in this case) that receives light through a half mirror 7 and a polarizer 9 and optically Fourier transforms to form a Fourier transformed optical image; Includes a CMOS camera 11 for imaging (or a CCD camera), a light calculation correlation unit 12 configured as an optical computing correlator having a light image from the transform lens 10 as an output image. The texture quantification apparatus 1 is configured as a digital processing unit, and is an input image in which a search histogram that is set as a luminance histogram and is a search target and a reference histogram that is set as a luminance histogram and created in advance for collation are juxtaposed. And a texture quantification unit 13 that searches the search histogram by comparing it with a plurality of reference histograms. Here, the spatial light modulator 8 is a liquid crystal type spatial light modulator. For the texture quantification unit 13, the spatial light modulator 8 functions as an input screen, and the CMOS camera 11 functions as an output screen.
質感定量化部13は、具体的には、例えば、画像検索処理等の各種の処理を実行するCPUと、処理動作に必要な各ソフトウェアプログラム等が記憶されるROMと、参照ヒストグラムに用いられる内部メモリまたは外部記憶装置などの記憶装置とを有して構成され、入力装置、表示装置、及び外部I/F等が接続される。入力装置は、質感定量化装置1における画像検索処理等の処理動作に必要な入力に用いられる入力手段である。このような入力装置としては、例えばキーボード、マウス、あるいは各種のボタン、スイッチなどが挙げられる。表示装置は、例えば液晶ディスプレイ等によって構成され、必要に応じて、画像検索処理に必要なデータや質感の表示、及び得られた画像検索結果の表示などに用いられる。 Specifically, the texture quantification unit 13 specifically includes, for example, a CPU that executes various processes such as an image search process, a ROM that stores software programs necessary for processing operations, and an internal used for a reference histogram. And an input device, a display device, an external I / F, and the like. The input device is input means used for input necessary for processing operations such as image search processing in the texture quantification device 1. Examples of such an input device include a keyboard, a mouse, and various buttons and switches. The display device is configured by, for example, a liquid crystal display or the like, and is used for displaying data and texture necessary for the image search process and displaying the obtained image search result as necessary.
光演算相関部12において、図1に示す通り、コヒーレントな光源であるレーザ・ダイオード2から532nm波長の光が出され、これが、対物レンズ3、ピンホール部4を通過し、コリメートレンズ5によりコリメートされる。このコリメートされた光は偏光子6、ハーフミラー7を通過する。空間光変調器8は、空間光変調器8の中心部からX方向に距離±dで参照ヒストグラム(図6では参照像bと記載)と検索ヒストグラム(図6では検索像aと記載)とを入力画像として表示する。ハーフミラー7を通過した光は、空間変調器8で反射される際に、入力画像に応じて変調される。そして、空間光変調器8で変調された変調光は、ハーフミラー7、偏光子9を経て、フーリエ変換レンズ10に至り、ここでフーリエ変換されて、第1光像を生成し、CMOSカメラ11で一次変換画像(干渉縞)として撮像され、この一次変換画像は質感定量化部13へ送信される。 As shown in FIG. 1, light having a wavelength of 532 nm is emitted from the laser diode 2, which is a coherent light source, and passes through the objective lens 3 and the pinhole unit 4 and collimated by the collimating lens 5. Is done. The collimated light passes through the polarizer 6 and the half mirror 7. The spatial light modulator 8 generates a reference histogram (referred to as a reference image b in FIG. 6) and a search histogram (referred to as a search image a in FIG. 6) at a distance ± d in the X direction from the center of the spatial light modulator 8. Display as input image. The light that has passed through the half mirror 7 is modulated according to the input image when reflected by the spatial modulator 8. Then, the modulated light modulated by the spatial light modulator 8 passes through the half mirror 7 and the polarizer 9, and reaches the Fourier transform lens 10, where it is Fourier transformed to generate a first light image, and the CMOS camera 11 The first converted image (interference fringe) is picked up and transmitted to the texture quantification unit 13.
つぎに、図1、図6に示す通り、質感定量化部13から一次変換画像が空間光変調器8へ入力され、空間光変調器8上に入力画像として表示され、フーリエ変換レンズ10で2回目のフーリエ変換を行い第2光像を生成し、CMOSカメラ11で出力画像として撮像され、この出力画像は質感定量化部13へ送信される。参照ヒストグラム及び検索ヒストグラムの相関は、CMOSカメラ9の中央部からX方向に距離±2dの点における、光学強度の関数として規定される。このようにして、輝度ヒストグラムとして設定された参照ヒストグラム及び検索ヒストグラムを利用して質感を認識する。ここで、光演算相関部12は、光アナログ演算で画像間の相関(類似度)を求める装置で、光学系の小型化が必要であり、VLC(マッチドフィルタ)とJTC(結合変換相関)とが考えられる。VLCは高速演算が可能であるが、光学調整の精度が必要であり、空間光変調器が2つ必要であり、光学系が大型化する。JTCは光学調整が容易であり、空間光変調器1つでも構成が可能であるので、光学系を小型化できる。このため、本実施形態においては、JTC方式を採用している。光演算相関部12は、1個の空間光変調器8と、1個のフーリエ変換レンズ10と、1個のカメラ11を備えるので、光学系を小型化できる。 Next, as shown in FIGS. 1 and 6, the primary conversion image is input from the texture quantification unit 13 to the spatial light modulator 8 and displayed as an input image on the spatial light modulator 8. A second light image is generated by performing a Fourier transform for the second time, and is captured as an output image by the CMOS camera 11, and this output image is transmitted to the texture quantification unit 13. The correlation between the reference histogram and the search histogram is defined as a function of optical intensity at a point of distance ± 2d in the X direction from the center of the CMOS camera 9. In this way, the texture is recognized using the reference histogram and the search histogram set as the luminance histogram. Here, the optical calculation correlation unit 12 is a device that calculates correlation (similarity) between images by optical analog calculation, and requires downsizing of the optical system. VLC (matched filter) and JTC (joint conversion correlation) Can be considered. Although VLC can perform high-speed computation, it requires optical adjustment accuracy, requires two spatial light modulators, and increases the size of the optical system. JTC is easy to adjust optically and can be constructed with only one spatial light modulator, so that the optical system can be downsized. For this reason, in this embodiment, the JTC system is adopted. Since the optical computation correlation unit 12 includes one spatial light modulator 8, one Fourier transform lens 10, and one camera 11, the optical system can be reduced in size.
この質感識別方法は質感情報を形状情報として抽出することに特徴がある。輝度ヒストグラムの形状に光沢情報を含んでいる。図2(a)に示す通り、輝度ヒストグラムは二次元画像であり、y軸が画素数、x軸が輝度(濃度)である。図2(b)に示す通り、黒画面に描かれた山の歪み度が光沢に関係する。この歪み度は画素数の分布の左右対称性を示す尺度である。光沢がない場合、歪み度は0.4、光沢がある場合には歪み度は1.4である。歪み度が正に大きいほど光沢が増加する傾向にある。図3(a)に示す通り、左に裾が長い分布は歪み度が負であり、図3(b)に示す通り、正規分布(左右対称)では歪み度は0であり、図3(c)に示す通り、右に裾が長い分布は歪み度が正である。図4(a)は横軸が諧調(輝度)、縦軸が画素数であり、%は光沢の程度を示すものである(0%は光沢なし、100%は光沢度が高い)。ただし、図4(b)(光沢含有面積の割合(%)と歪み度との関係を示す)し示す通り、光沢の減少とともに、歪み度は単純には減少しないので、歪み度の値だけで光沢の度合いを判断することができない。輝度ヒストグラムの上部突起の形状等、他の形状要素も補足することにより、光沢の度合いを決定できる。 This texture identification method is characterized in that the texture information is extracted as shape information. Gloss information is included in the shape of the luminance histogram. As shown in FIG. 2A, the luminance histogram is a two-dimensional image, the y-axis is the number of pixels, and the x-axis is the luminance (density). As shown in FIG. 2B, the degree of distortion of the mountains drawn on the black screen is related to the gloss. This degree of distortion is a measure showing the symmetry of the distribution of the number of pixels. When there is no gloss, the degree of distortion is 0.4, and when there is gloss, the degree of distortion is 1.4. Gloss tends to increase as the degree of distortion increases. As shown in FIG. 3 (a), the distribution having a long skirt on the left has a negative degree of distortion. As shown in FIG. 3 (b), the normal distribution (symmetrical) has a degree of distortion of 0, and FIG. As shown in (), a distribution with a long tail on the right has a positive degree of distortion. In FIG. 4A, the horizontal axis indicates gradation (luminance), the vertical axis indicates the number of pixels, and% indicates the degree of gloss (0% is not glossy and 100% is high gloss). However, as shown in FIG. 4B (showing the relationship between the gloss-containing area ratio (%) and the degree of distortion), the degree of distortion does not simply decrease as the gloss decreases. The degree of gloss cannot be determined. By supplementing other shape elements such as the shape of the upper protrusion of the luminance histogram, the degree of gloss can be determined.
図5(a)に示す通り、光沢の変化に応じて、輝度ヒストグラムの形状が変化する。0%が光沢なしで、100%が光沢の大きいものであり、その中間である25%、50%、75%は光沢の程度を示すものである。光沢の識別には、表面が凹凸になった黒色の紙に光沢仕上げ塗料を塗ったものの表面画像を使用した。一方、図5(b)に示す通り、粗さ(ざらざら感)の変化に応じても、輝度ヒストグラムの形状(裾の幅など)が変化する。粗さの識別には相違する粗さのサンド布の表面画像を使用した。サンド布の表面には研磨粒子が存在する。 As shown in FIG. 5A, the shape of the luminance histogram changes according to the change in gloss. 0% is not glossy, 100% is high gloss, and the intermediate 25%, 50% and 75% indicate the degree of gloss. For identification of gloss, a surface image of a black paper with a rough surface coated with a gloss finish paint was used. On the other hand, as shown in FIG. 5B, the shape of the luminance histogram (such as the width of the skirt) also changes in accordance with the change in roughness (roughness). The surface images of sand cloths with different roughnesses were used to identify the roughness. Abrasive particles are present on the surface of the sand cloth.
図5(b)において、単位面積当たりの研磨粒子の数(粒子個数/cm2)は、それぞれ、40、60、80、150、240、400であり、数値が大きいほど表面状態は滑らかであり、数値が少ないほど表面状態は粗くなる。 In FIG. 5B, the number of abrasive particles per unit area (number of particles / cm 2 ) is 40, 60, 80, 150, 240, and 400, respectively, and the larger the value, the smoother the surface state. The smaller the numerical value, the rougher the surface condition.
つぎに光演算相関部12で行われる検索ヒストグラムaと参照ヒストグラムbの相互相関演算を説明する。図6に示す通り、空間光変調器8の入力画面において、検索ヒストグラムa(x,y)と、参照ヒストグラムb(x,y)とが間隔dを置いて併置され、焦点距離fを置いてフーリエ変換レンズ10が配置され、フーリエ変換レンズ10から焦点距離fを置いてCMOSカメラ11の出力画面が配置される。入力画面の検索像と参照像は出力画面では干渉縞(一次変換画像)として出現する。つぎに、この干渉縞が、前記の入力画面に入力され、フーリエ変換レンズ10でフーリエ変換されると、出力画面の中央に自己相関スポット、その左右に間隔2dを置いて相互相関スポットが表われ、これが出力画像となる。 Next, the cross-correlation calculation between the search histogram a and the reference histogram b performed by the light calculation correlation unit 12 will be described. As shown in FIG. 6, on the input screen of the spatial light modulator 8, the search histogram a (x, y) and the reference histogram b (x, y) are juxtaposed with an interval d, and with a focal length f. A Fourier transform lens 10 is disposed, and an output screen of the CMOS camera 11 is disposed at a focal distance f from the Fourier transform lens 10. The search image and the reference image on the input screen appear as interference fringes (primary transformed images) on the output screen. Next, when the interference fringes are input to the input screen and Fourier-transformed by the Fourier transform lens 10, an autocorrelation spot appears at the center of the output screen, and a cross-correlation spot appears at an interval 2d on the left and right. This is the output image.
図7に示す通り、輝度ヒストグラムの形状の類似度は相互相関スポットの光沢的な強度に依存する。このような理由から相互相関スポットにおける光学強度は質感の類似性と等価である。図8に示すものは、図6に示す干渉縞(一次変換画像)を実験とシミュレーション(FFT計算)で求めてみた結果である。 As shown in FIG. 7, the similarity of the shape of the luminance histogram depends on the glossy intensity of the cross-correlation spot. For this reason, the optical intensity at the cross-correlation spot is equivalent to the similarity of the texture. FIG. 8 shows the result of obtaining the interference fringes (primary transformed image) shown in FIG. 6 through experiments and simulations (FFT calculation).
図9に光演算相関部12による実験と計算機によるシミュレーションを行って光沢の識別を行った場合の結果を示す。ここでは検索ヒストグラムとして100%(最も光沢のあるもの)を用い、この検索ヒストグラムと、100%、75%、50%、25%、0%の参照ヒストグラムとを相関演算した。参照ヒストグラムと検索ヒストグラムに同じヒストグラムを使用した場合の相互相関スポットの光学強度を100%として正規化した。実験とシミュレーションのいずれの場合にも、光沢を減少させてゆくと、光沢の類似性は低下することが分かった。実験は光演算相関部12を用い、シミュレーションはソフトウェアで行うことで、相互相関スポットの光学強度を計算した。この結果、実験、シミュレーションのいずれでも、光沢の識別を輝度ヒストグラムの形状により行うことができた。図10に示す通り、横軸を光沢を含む面積の割合(%)、縦軸を類似度とし、線形近似を用いてフィッテイング(光沢の識別)を行った。実験ではy=0.92x+1.49、シミュレーションではy=0.91x+5.82の一次関数となり、実験とシミュレーションの間の一次関数の比例定数割合は、0.91/0.92×100=99%であり、比例定数の差は1%である。 FIG. 9 shows the results when the gloss is identified by the experiment by the optical calculation correlation unit 12 and the simulation by the computer. Here, 100% (the most glossy) is used as a search histogram, and the search histogram is correlated with the reference histograms of 100%, 75%, 50%, 25%, and 0%. When the same histogram was used for the reference histogram and the search histogram, the cross correlation spot optical intensity was normalized to 100%. In both experiments and simulations, it was found that the gloss similarity decreased with decreasing gloss. The optical calculation correlation unit 12 was used for the experiment, and the simulation was performed using software, thereby calculating the optical intensity of the cross-correlation spot. As a result, in both experiments and simulations, gloss can be identified by the shape of the luminance histogram. As shown in FIG. 10, fitting (gloss identification) was performed using linear approximation, with the horizontal axis representing the percentage of area including gloss (%) and the vertical axis representing similarity. In the experiment, y = 0.92x + 1.49, and in the simulation, it becomes a linear function of y = 0.91x + 5.82, and the proportional constant ratio of the linear function between the experiment and the simulation is 0.91 / 0.92 × 100 = 99%. And the difference in proportionality constant is 1%.
図11に、光演算相関部12による実験と計算機によるシミュレーションを行って粗さの識別を行った場合の結果を示す。ここでは検索ヒストグラムとして40個/cm2(最も粗いもの)を用い、この検索ヒストグラムと、40,60、80、150、240、400個/cm2の参照ヒストグラムとを相関演算した。参照ヒストグラムと検索ヒストグラムに同じヒストグラムを使用した場合の相互相関スポットの光学強度を100%として正規化した。実験とシミュレーションのいずれの場合にも、表面が滑らかになると、粗さの類似性は低下することが分かった。シミュレーションはソフトウェアで行うことで、相互相関スポットの光学強度を計算した。この結果、実験、シミュレーションのいずれでも、粗さの識別を輝度ヒストグラムの形状により行うことができた。図12に示す通り、横軸を単位面積あたりの研磨粒子の数(個/cm2)、縦軸を類似度となる累乗近似を用いてフィッテイング(粗さの識別)を行った。実験ではy=3743X-0.98、シミュレーションではy=3115X-0.92の指数関数となった。実験とシミュレーションの指数関数の比例定数割合は、3115/3743×100=83%であり、比例定数の差は約17%であり、実験とシミュレーションの指数関数の指数値割合は、0.92/0.98×100=94%で、指数値の差は約6%である。 FIG. 11 shows the results when the roughness is identified by the experiment by the optical calculation correlation unit 12 and the simulation by the computer. Here, 40 pieces / cm 2 (the coarsest) was used as a search histogram, and a correlation calculation was performed between this search histogram and reference histograms of 40, 60, 80, 150, 240, and 400 pieces / cm 2 . When the same histogram was used for the reference histogram and the search histogram, the cross correlation spot optical intensity was normalized to 100%. In both experiments and simulations, it was found that the roughness similarity decreases as the surface becomes smoother. The simulation was performed by software, and the optical intensity of the cross-correlation spot was calculated. As a result, in both experiments and simulations, it was possible to identify roughness based on the shape of the luminance histogram. As shown in FIG. 12, fitting (roughness identification) was performed using a power approximation with the horizontal axis representing the number of abrasive particles per unit area (number / cm 2 ) and the vertical axis representing similarity. In the experiment, the exponential function was y = 3743X −0.98 , and in the simulation, y = 3115X −0.92 . The proportional constant ratio of the exponential function between the experiment and the simulation is 3115/3743 × 100 = 83%, the difference between the proportional constants is about 17%, and the exponent value ratio of the exponential function between the experiment and the simulation is 0.92 / 0.98 × 100 = 94%, and the index value difference is about 6%.
図13に示す通り、実験の場合、光演算相関部12を用いているので、演算時間は画像サイズにかかわらず一定であるが、シミュレーションの場合、計算機を用いているので、演算時間は画像サイズが大きくなるにつれて増大する。したがって、画像サイズが大きい場合、結合変換相関演算器である光演算相関部12を用いる方が演算時間は短くなる。 As shown in FIG. 13, in the case of the experiment, since the optical calculation correlation unit 12 is used, the calculation time is constant regardless of the image size, but in the case of simulation, the calculation time is the image size because a calculator is used. Increases as becomes larger. Therefore, when the image size is large, the calculation time is shorter when the light calculation correlation unit 12 which is a combined conversion correlation calculator is used.
ところで、図2(a)で説明した輝度ヒストグラムについては、まず、検索対象物の表層を撮像装置(カメラ、スキャナなど)により撮像し輝度ヒストグラムを生成し質感定量化部13に記録する。輝度ヒストグラムの作成には、各種の手法がある。例えば、2値化では、輝度ヒストグラムの下側を白(「0」)にして、上側を黒(「1」)にした2値化処理、あるいは、エッジ化では、曲線を線描画で描き(「1」)、それ以外を「0」とする処理も可能である。また、一方、参照ヒストグラムは、光沢、表面粗さに応じて、予め作成した複数の輝度ヒストグラムをメモリに記憶しデータベース化し、質感定量化部13に記録しておく。 By the way, regarding the luminance histogram described with reference to FIG. 2A, first, the surface layer of the search object is imaged by an imaging device (camera, scanner, etc.), and a luminance histogram is generated and recorded in the texture quantification unit 13. There are various methods for creating the luminance histogram. For example, in binarization, the lower side of the luminance histogram is set to white (“0”) and the upper side is set to black (“1”), or in the case of edging, a curve is drawn by line drawing ( “1”), and processing other than “0” is also possible. On the other hand, as the reference histogram, a plurality of brightness histograms created in advance are stored in a memory in accordance with the glossiness and surface roughness, stored in a database, and recorded in the texture quantification unit 13.
また、JTC法により光演算された出力画像では、JTC法により、図7に示す通り、相互相関スポットが両サイドに分かれて出現し、真中には自己相関スポットが出現する。このパターンを検出することによって、相関値の高低を判断している。 Further, in the output image optically calculated by the JTC method, as shown in FIG. 7, the cross-correlation spot appears separately on both sides by the JTC method, and the auto-correlation spot appears in the middle. By detecting this pattern, the level of the correlation value is determined.
ここで、自己相関スポットと相互相関スポットを得るためのJTC法を用いた光相関演算と等価な計算式を簡単に説明しておく。参照ヒストグラムと検索ヒストグラムをa(x,y)、b(x,y)とし、これらのヒストグラムをそれぞれ+d、−dだけ離して並置したものを入力画像f(x,y)とする。x,yは座標である。この入力画像f(x,y)は、下記の式(1)
数1: f(x、y)=a(x−d、y)+b(x+d,y)
によって表される。また、入力画像f(x,y)をフーリエ変換した関数をF(Vx,Vy)とすれば、このF(k)は下記の式(2)
Formula 1: f (x, y) = a (x−d, y) + b (x + d, y)
Represented by If a function obtained by Fourier transform of the input image f (x, y) is F (Vx, Vy), this F (k) is expressed by the following equation (2).
この関数F(Vx,Vy)に対して、複素共役の関数を利用して|F(Vx,Vy)|2をとり、さらに、これを実空間上のパワースペクトルPに変換すると、以下の式(3)が得られる。
また、この式(3)の右辺において、第1項、及び第2項は、相関ヒストグラムにおける自己相関スポットに対応している。また、第3項、及び第4項は、自己相関スポットから±2d離れた相互相関スポットにそれぞれ対応している。
式(4)はパワースペクトルPのフーリエ変換を示す。式中*はコンボリューション、上付き★は共役複素数を示す。したがって、式(4)の第3項と第4項はa,bの相関データとなる。自己相関スポットと相互相関スポットを出力画像とする。
Equation (4) shows the Fourier transform of the power spectrum P. In the formula, * indicates convolution and superscript ★ indicates a conjugate complex number. Therefore, the third term and the fourth term of the equation (4) are correlation data of a and b. Autocorrelation spots and cross-correlation spots are used as output images.
本実施形態で特徴的なことは物体の質感を粗さや光沢等に分けていることである。粗さや光沢等に分けることにより、相関値を取るための分離を行うことができる。光沢は、輝度ヒストグラムの上部の突起、或いは、歪み度など形状のアンバランスの度合い、例えば、明るい方に伸びている程度等の種々の形状要素を識別すると、光沢の程度がわかる。光沢の場合に輝度ヒストグラムの形状を捉えることで、光沢を認識することができる。一方、表面粗さも輝度ヒストグラムの形状(分布の幅等)によって変わる。例えば、分布幅が広がると、表面が粗くなる。こうした輝度ヒストグラムの形状パターンを輝度ヒストグラムの形状に基づいて予め登録しておけば、それとの相関度によって、高速にマッチングさせることができ、光沢量、表面粗さは定量化できる。 What is characteristic in this embodiment is that the texture of an object is divided into roughness, gloss, and the like. Separation for obtaining correlation values can be performed by dividing into roughness, gloss, and the like. For the gloss, the degree of gloss can be found by identifying the protrusions at the top of the luminance histogram or various shape elements such as the degree of unbalance of the shape such as the degree of distortion, for example, the degree of extension to the brighter side. Gloss can be recognized by capturing the shape of the luminance histogram in the case of gloss. On the other hand, the surface roughness also varies depending on the shape of the luminance histogram (distribution width, etc.). For example, as the distribution width increases, the surface becomes rough. If such a shape pattern of the luminance histogram is registered in advance based on the shape of the luminance histogram, it can be matched at high speed according to the degree of correlation with it, and the gloss amount and the surface roughness can be quantified.
結合変換相関演算によって、高速に相互相関スポットを演算し、これを質感定量部13で数値化する。数値化をするとデータベース側の方でそれに合っている輝度ヒストグラムが検索できる。 The cross-correlation spot is calculated at high speed by the combined transformation correlation calculation, and this is digitized by the texture quantification unit 13. When digitized, the database can search for a brightness histogram that matches it.
質感の類似性は、相互相関スポットの光学的な強度の大小と等価である。値が大きくなっていることは相関性が高いことを示す。例えば、複数の参照ヒストグラムを検索ヒストグラムとの類似度が高い順に並べるなど、画像検索を利用した様々な質感の取得が可能となる。データベースで定量化した参照ヒストグラムのパターンを複数用意しておき、その中で相互相関スポットの光学強度の一番大きなものを検索すればよい。図9〜図12で示すシミュレーションは計算機で同じ演算をソフトウェアによって行い相関値を出したものである。ある意味では、それが真に近いものであり、実験値と近い結果がでている。 The similarity in texture is equivalent to the optical intensity of the cross-correlation spot. A large value indicates a high correlation. For example, various textures can be acquired using image search, such as arranging a plurality of reference histograms in descending order of similarity to the search histogram. A plurality of reference histogram patterns quantified in the database may be prepared, and the one with the highest optical intensity of the cross-correlation spot may be searched. The simulations shown in FIG. 9 to FIG. 12 are obtained by calculating the correlation value by performing the same operation with software on a computer. In a sense, it is close to true, with results close to experimental values.
このように、元画像をそのまま用いるのではなく、それに対応する輝度ヒストグラムを参照するとともに、JTC法による光相関演算を利用して質感の相関度を計測して画像検索を行う構成によれば、質感に着目した画像検索を、充分な精度で、かつ光演算によって高速に実行することが可能となる。 In this way, according to the configuration in which the original image is not used as it is, but the luminance histogram corresponding to the original image is referred to and the image search is performed by measuring the correlation degree of the texture using the optical correlation calculation by the JTC method. Image retrieval focusing on the texture can be executed at high speed with sufficient accuracy and by optical calculation.
また、JTCを用いているので、光学系を小型化できる。例えば、光検出器の画素ピッチは細かいので(1.5μ程度)、レンズのf値を抑えられる。ただし、レーザ・ダイオード2の出力をある程度上げる必要がある。マッチドフィルタではレンズのf値が高く大型化され、光学調整に精度が必要である。 In addition, since JTC is used, the optical system can be downsized. For example, since the pixel pitch of the photodetector is fine (about 1.5 μm), the f value of the lens can be suppressed. However, it is necessary to increase the output of the laser diode 2 to some extent. In the matched filter, the f value of the lens is high and the size is increased, and accuracy is required for optical adjustment.
つぎに図14を参照して実施形態2の質感定量化装置101を説明する。これは高速で、結合変換相関演算を行うためのパイプライン処理を行う実施形態である。実施形態1と共通する構成については100番台として説明は援用する。偏光子は図示を略する。質感定量化装置101は光演算相関部112と、質感定量化部113とから構成される。図14に示す通り、コヒーレントな光源であるレーザーダイオート102から532nm波長の光が出され、これが、対物レンズ103、ピンホール部104を通過し、コリメートレンズ105によりコリメートされる。このコリメートされた光は、ハーフミラー107a、107bを通過し、空間光変調器108aの中心部からX方向に距離±dで表示された参照ヒストグラムと検索ヒストグラムとを照射する。この表示は質感定量化部113からの電気信号に基づいて行われる。そして、空間光変調器108aで反射された光は、ハーフミラー107bを経て、フーリエ変換レンズ110aに至り、フーリエ変換されて、CMOSカメラ111aで撮像される。光学信号が入力パワースペクトルとしてCMOSカメラ111aで記録され、記録データは、次段の空間光変調器108bへ出力される。また一方、ハーフミラー107aで反射された光はハーフミラー107c、107dを経て空間光変調器108bに送られる。そして、空間光変調器108bからの光はハーフミラー107dを経て、フーリエ変換レンズ110bに至り、2回目のフーリエ変換がされて、CMOSカメラ111bで撮像される。入力パワースペクトルとしてCMOSカメラ111bで撮像され、画像は、質感定量部113へ送信される。参照ヒストグラム及び検索ヒストグラムの相関性は、CMOSカメラ111bの中央部からX方向に距離±2dの点における、光学強度の関数として規定される。このようなパイプライン処理により実施形態1よりも装置は大型化するものの、実施形態1よりも高速な結合変換相関演算が可能となる。 Next, the texture quantification apparatus 101 according to the second embodiment will be described with reference to FIG. This is an embodiment that performs pipeline processing for performing joint transform correlation calculation at high speed. About the structure which is common in Embodiment 1, description is used as 100 series. The polarizer is not shown. The texture quantification apparatus 101 includes an optical calculation correlation unit 112 and a texture quantification unit 113. As shown in FIG. 14, light having a wavelength of 532 nm is emitted from a laser die auto 102 that is a coherent light source, passes through the objective lens 103 and the pinhole portion 104, and is collimated by the collimating lens 105. The collimated light passes through the half mirrors 107a and 107b, and irradiates a reference histogram and a search histogram displayed at a distance ± d in the X direction from the center of the spatial light modulator 108a. This display is performed based on the electrical signal from the texture quantification unit 113. The light reflected by the spatial light modulator 108a passes through the half mirror 107b, reaches the Fourier transform lens 110a, undergoes Fourier transform, and is imaged by the CMOS camera 111a. The optical signal is recorded as an input power spectrum by the CMOS camera 111a, and the recorded data is output to the spatial light modulator 108b at the next stage. On the other hand, the light reflected by the half mirror 107a is sent to the spatial light modulator 108b through the half mirrors 107c and 107d. Then, the light from the spatial light modulator 108b passes through the half mirror 107d, reaches the Fourier transform lens 110b, undergoes the second Fourier transform, and is imaged by the CMOS camera 111b. An image is captured as an input power spectrum by the CMOS camera 111 b, and the image is transmitted to the texture quantification unit 113. The correlation between the reference histogram and the search histogram is defined as a function of optical intensity at a point with a distance of ± 2d in the X direction from the center of the CMOS camera 111b. Although the apparatus is larger than that of the first embodiment by such pipeline processing, it is possible to perform the joint transform correlation calculation at a speed higher than that of the first embodiment.
なお、本発明は、上記の実施形態に何ら限定されるものではなく、本発明の技術的思想を逸脱しない範囲において、種々の改変等の実施形態を採り得る。たとえば、本実施形態では、光の反射による物体の光沢(例えば、ダイヤモンド)、光の拡散によるざらざら感、やわらかさ(やすり、布)等を高精度で認識するものであるが、これに限られずに、光の透過による物体の透明感(例えば、ガラス)等の各種の質感も対象とすることができる。 The present invention is not limited to the above-described embodiment, and various modifications and other embodiments can be adopted without departing from the technical idea of the present invention. For example, in the present embodiment, the gloss of an object due to light reflection (for example, diamond), the rough feeling due to light diffusion, the softness (file, cloth), and the like are recognized with high accuracy, but the present invention is not limited thereto. In addition, various kinds of texture such as transparency (for example, glass) of an object due to light transmission can also be targeted.
本発明は、結合変換相関演算を用いて表面粗さ、光沢などを高速で高精度に定量化するので、ロボットなどに利用可能である。 Since the present invention quantifies surface roughness, gloss, etc. at high speed with high accuracy using joint transformation correlation calculation, it can be used for robots and the like.
1,101…質感定量化装置
2,102…レーザ・ダイオード
3,103…対物レンズ
4,104…ピンホール部
5,105…コリメートレンズ
6…偏光子
7,107a、107b,107c,107d…ハーフミラー
8,108a…空間光変調器
9…偏光子
10,110a,110b…フーリエ変換レンズ
11,111a,111b…CMOSカメラ
12,112…光演算相関部
13,113…質感定量化部
DESCRIPTION OF SYMBOLS 1,101 ... Texture quantification apparatus 2,102 ... Laser diode 3,103 ... Objective lens 4,104 ... Pinhole part 5,105 ... Collimating lens 6 ... Polarizer 7, 107a, 107b, 107c, 107d ... Half mirror 8, 108a ... Spatial light modulator 9 ... Polarizers 10, 110a, 110b ... Fourier transform lenses 11, 111a, 111b ... CMOS cameras 12, 112 ... Optical calculation correlation units 13, 113 ... Texture quantification unit
Claims (4)
前記入力画像を、輝度ヒストグラムとして設定され検索対象となる検索ヒストグラムと、輝度ヒストグラムとして設定され照合のために予め作成される参照ヒストグラムとを並置したものとして設定し、前記入力画像を前記空間光変調器に出力し、前記結合変換相関演算によって得られた自己相関スポットと相互相関スポットを含む出力画像を前記カメラから取得し、前記相互相関スポットの強度に基づいて、前記検索ヒストグラムと前記参照ヒストグラムを照合し、質感の類似性を判断する質感定量化部と、
を備えたことを特徴とする質感定量化装置。 A spatial light modulator that modulates light from the light source, a Fourier transform lens that receives the modulated light from the spatial light modulator and performs Fourier transform, and a camera that captures an optical image from the Fourier transform lens, A light calculation correlation unit that performs a combined conversion correlation calculation of an input image input to the spatial light modulator and generates an output image;
The input image is set as a luminance histogram set as a search target to be searched and a reference histogram set as a luminance histogram and created in advance for collation, and the input image is set as the spatial light modulation. An output image including an autocorrelation spot and a cross-correlation spot obtained by the combined transformation correlation calculation is obtained from the camera, and the search histogram and the reference histogram are obtained based on the intensity of the cross-correlation spot. A texture quantification unit that collates and determines the similarity of textures;
A texture quantification device characterized by comprising:
前記第1相関演算ステップで撮像された一次変換画像を空間光変調器に入力し、前記空間光変調器からの光をフーリエ変換レンズでフーリエ変換し第2光像を形成し、前記第2光像を撮像し、自己相関スポットと相互相関スポットを含む出力画像とする第2相関演算ステップと、
前記出力画像の相互相関スポットの強度に基づいて、前記検索ヒストグラムと前記参照ヒストグラムを照合し、質感の類似性を判断する質感定量化ステップと、
を備えたことを特徴とする質感定量化方法。 An input image in which a search histogram that is set as a luminance histogram and is a target for quantifying the texture and a reference histogram that is set as a luminance histogram and is created in advance is input to the spatial light modulator, and the spatial light modulator A first correlation calculation step of Fourier-transforming the light from the image by a Fourier transform lens to form a first light image, capturing the first light image and generating a primary transformed image;
The primary conversion image captured in the first correlation calculation step is input to a spatial light modulator, the light from the spatial light modulator is Fourier transformed by a Fourier transform lens to form a second light image, and the second light A second correlation calculation step of capturing an image to produce an output image including an autocorrelation spot and a cross-correlation spot;
A texture quantification step of collating the search histogram with the reference histogram based on the intensity of the cross-correlation spot of the output image to determine the similarity of the texture,
A texture quantification method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010281004A JP2012127871A (en) | 2010-12-16 | 2010-12-16 | Texture quantification device and texture quantification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010281004A JP2012127871A (en) | 2010-12-16 | 2010-12-16 | Texture quantification device and texture quantification method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012127871A true JP2012127871A (en) | 2012-07-05 |
Family
ID=46645067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010281004A Withdrawn JP2012127871A (en) | 2010-12-16 | 2010-12-16 | Texture quantification device and texture quantification method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012127871A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018115877A (en) * | 2017-01-16 | 2018-07-26 | 株式会社パパラボ | Surface color and texture management system and management method |
JP2018128436A (en) * | 2017-02-10 | 2018-08-16 | 株式会社パパラボ | Surface roughness determination device and determination method |
-
2010
- 2010-12-16 JP JP2010281004A patent/JP2012127871A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018115877A (en) * | 2017-01-16 | 2018-07-26 | 株式会社パパラボ | Surface color and texture management system and management method |
JP2018128436A (en) * | 2017-02-10 | 2018-08-16 | 株式会社パパラボ | Surface roughness determination device and determination method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | A novel 3-D palmprint acquisition system | |
US12106471B2 (en) | Image processing method for imaging a cell aggregate and recording medium therefor | |
CN107203743B (en) | Face depth tracking device and implementation method | |
Priya et al. | The influence of component inclination on surface finish evaluation using digital image processing | |
WO2021184686A1 (en) | Single-frame stripe analysis method based on multi-scale generative adversarial neural network | |
Hua et al. | Impact of out-of-focus blur on face recognition performance based on modular transfer function | |
JP2014067193A (en) | Image processing apparatus and image processing method | |
JP2022000642A (en) | Wire wear inspection method | |
Zhang et al. | AMS-Net: Attention mechanism based multi-size dual light source network for surface roughness prediction | |
JP6992880B2 (en) | Image collation device | |
Liu et al. | A binocular reconstruction method fused with Laplacian image information for pavement texture evaluation | |
CN115053168B (en) | System and method for optical imaging and measurement of objects | |
JP2012127871A (en) | Texture quantification device and texture quantification method | |
Yu et al. | 3-D surface reconstruction and evaluation of wrinkled fabrics by stereo vision | |
JP2017012384A (en) | Wrinkle state analysis device and wrinkle state analysis method | |
Heizmann et al. | Imaging and analysis of forensic striation marks | |
Xiao et al. | Hard exudates detection method based on background-estimation | |
Burla et al. | Genetic programming applied to automatic algorithm design in multi-scale inspection systems | |
Tian et al. | Hybrid vision system for online measurement of surface roughness | |
JP3964220B2 (en) | Face image recognition system | |
Dhanotia et al. | A simple low cost latent fingerprint sensor based on deflectometry and WFT analysis | |
Rao et al. | Alpha trimmed correlation for touchless finger image mosaicing | |
Yao et al. | Evaluating fabric fuzziness using laser range sensing | |
Hassan et al. | Design of a Measurement Method for Surface Roughness Using a Vision System | |
KR102564448B1 (en) | Apparatus and method for detph estimation using structured light and holographic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140304 |