JP6016552B2 - Antireflection system - Google Patents
Antireflection system Download PDFInfo
- Publication number
- JP6016552B2 JP6016552B2 JP2012207879A JP2012207879A JP6016552B2 JP 6016552 B2 JP6016552 B2 JP 6016552B2 JP 2012207879 A JP2012207879 A JP 2012207879A JP 2012207879 A JP2012207879 A JP 2012207879A JP 6016552 B2 JP6016552 B2 JP 6016552B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- features
- frequency domain
- filtered
- modified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 61
- 238000012545 processing Methods 0.000 claims description 33
- 230000001131 transforming effect Effects 0.000 claims description 14
- 238000007689 inspection Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 description 40
- 230000006870 function Effects 0.000 description 32
- 238000004891 communication Methods 0.000 description 18
- 238000001228 spectrum Methods 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 230000002085 persistent effect Effects 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 238000010191 image analysis Methods 0.000 description 8
- 238000003491 array Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000005670 electromagnetic radiation Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
本発明は、概して画像処理に関し、具体的には、望ましくないフィーチャを画像から除去することに関するものである。さらに具体的には、本発明は、画像内の望ましくない輝点を除去するための方法及び装置に関する。 The present invention relates generally to image processing, and in particular to removing unwanted features from an image. More specifically, the present invention relates to a method and apparatus for removing unwanted bright spots in an image.
状況によって、センサシステムを用いて生成したシーンの画像内に望ましくないフィーチャが現れることがある。例えば、シーン内の表面からの光の反射が、センサシステムによって検出され、そのようなシーンについて生成された画像内に輝点として現れる場合がある。光線が表面に当たるとき、光は表面から反射しうる。このような光線は、入射光線とも呼ばれる。光は、シーン内の様々な種類のオブジェクトの表面から反射しうる。このようなオブジェクトには、例えば、限定されないが、人、建造物、航空機、自動車、葉、人工構造体、及び他の適切な種類のオブジェクトが含まれる。 Depending on the situation, undesired features may appear in the image of the scene generated using the sensor system. For example, light reflections from surfaces in the scene may be detected by the sensor system and appear as bright spots in the images generated for such scenes. When a light ray strikes a surface, the light can be reflected from the surface. Such a ray is also called an incident ray. Light can be reflected from the surface of various types of objects in the scene. Such objects include, for example, without limitation, people, buildings, aircraft, automobiles, leaves, artificial structures, and other suitable types of objects.
表面での光の反射は、拡散反射と鏡面反射とに分類される。拡散反射は、入射光線が表面から複数の方向に反射されるときに起こる。 The reflection of light on the surface is classified into diffuse reflection and specular reflection. Diffuse reflection occurs when incident light is reflected in multiple directions from the surface.
鏡面反射は、入射光線が表面から主に一方向に反射されるときに起こる。具体的には、鏡面反射は、入射光線と反射光線とが、表面に直行する軸に対して同じ角度を有するときに起こる。シーン内の鏡面反射は、センサシステムによって生成された画像内に輝点として現れることがある。輝点は、画像内において、その中に含まれるピクセルの強度の値が、輝度に関して選択された何らかの閾値より大きな一領域である。 Specular reflection occurs when incident light is reflected from the surface primarily in one direction. Specifically, specular reflection occurs when incident light and reflected light have the same angle with respect to an axis that is orthogonal to the surface. Specular reflections in the scene may appear as bright spots in the image generated by the sensor system. A bright spot is an area in an image where the intensity value of the pixels contained therein is greater than some threshold selected for luminance.
鏡面反射が、大きな表面積に反射された光によって生じるとき、この反射を「グレア」と呼ぶ。鏡面反射が、小さな表面積に反射された光であるとき、この反射を「グリント」と呼ぶ。グリントは、画像内において、周囲の画像部分と比較して大きな強度を有する小さなフィーチャとして現れる場合がある。換言すると、グリントは、画像内の小さな輝点として現れる場合がある。典型的には、グリントによって引き起こされた画像内の輝点は、画像内における望ましくないフィーチャである。 When specular reflection is caused by light reflected on a large surface area, this reflection is called “glare”. When specular reflection is light reflected on a small surface area, this reflection is called “glint”. Glints may appear as small features in the image that have greater intensity compared to the surrounding image portions. In other words, glint may appear as a small bright spot in the image. Typically, bright spots in an image caused by glint are undesirable features in the image.
この種の望ましくないフィーチャが画像内に生じるとき、シーンの画像内のオブジェクトの特徴を識別及び/又は解析することが必要以上に困難になる。例えば、オブジェクトの画像を生成するとき、画像内に望ましくないフィーチャが存在すると、オブジェクトの識別は、必要以上に困難であるか、又は必要以上に時間を要する。このような望ましくないフィーチャは、オブジェクト自体の識別に使用されるオブジェクトの特徴を識別することをさらに困難にしうる。 When this type of undesirable feature occurs in an image, it becomes unnecessarily difficult to identify and / or analyze object features in the image of the scene. For example, when generating an image of an object, if undesired features are present in the image, identification of the object is more difficult than necessary or takes more time than necessary. Such undesirable features can make it more difficult to identify object features that are used to identify the object itself.
別の一実施例として、時間をずらしてオブジェクトの連続画像を取得する場合、このような画像を互いに比較することにより、オブジェクト内に変化があるかどうかを決定することができる。画像を使用して、オブジェクトの後続の画像に不整合が生じているかどうかを決定することができる。これらの画像内に、グリントによって生じた輝点のような望ましくないフィーチャが存在すると、不整合の識別がさらに困難になり、且つ識別に必要以上に時間がかかる。 As another example, when acquiring successive images of an object at different times, such images can be compared with each other to determine if there is a change in the object. The image can be used to determine if there is an inconsistency in subsequent images of the object. The presence of undesirable features in these images, such as bright spots caused by glints, makes it more difficult to identify inconsistencies and takes more time to identify.
画像内のグリントを低減するための現在利用可能な幾つかのシステムは、撮像システムに取り付けられた高速光学機械を使用する。これらの光学機械には、例えば、偏光板及び光学フィルタが含まれる。これらの種類の光学機械は、撮像システムを通過する光の全体的透過率を低下させることができる。光の透過率を低下させることにより、撮像システムによって生成される画像内に供給される情報量が低減しうる。さらに、これらの種類の光学機械は、撮像システムシステムの重量及びコストを必要以上に増大させうる。 Some currently available systems for reducing glint in images use high speed optical machines attached to the imaging system. These optical machines include, for example, a polarizing plate and an optical filter. These types of optical machines can reduce the overall transmittance of light passing through the imaging system. By reducing the light transmittance, the amount of information supplied in the image generated by the imaging system can be reduced. In addition, these types of optical machines can unnecessarily increase the weight and cost of the imaging system.
したがって、上述した問題の少なくとも一部と、起こりうる他の問題とを考慮する方法と装置を有することが有利である。 Therefore, it would be advantageous to have a method and apparatus that takes into account at least some of the problems discussed above and other possible problems.
有利な一実施形態では、画像内の望ましくないフィーチャを除去する方法が提供される。画像を空間ドメインから周波数ドメインに変換することにより、変換済み画像を形成する。変換済み画像にフィルタを適用し、周波数ドメイン内にフィルタ済み画像を形成する。フィルタ済み画像を周波数ドメインから空間ドメインに戻すことにより、修正済み画像を形成する。修正済み画像における望ましくないフィーチャの強度は、元の画像内の望ましくないフィーチャの強度より増大している。修正済み画像を用いて画像から望ましくないフィーチャを除去することにより、処理済み画像を形成する。 In one advantageous embodiment, a method for removing unwanted features in an image is provided. A transformed image is formed by transforming the image from the spatial domain to the frequency domain. Apply a filter to the transformed image to form a filtered image in the frequency domain. A modified image is formed by returning the filtered image from the frequency domain to the spatial domain. The intensity of undesired features in the modified image is greater than the intensity of undesired features in the original image. A processed image is formed by removing unwanted features from the image using the modified image.
他の代替え的実施形態では、処理済み画像を使用して画像内の特徴及び/又はオブジェクトを識別することを考慮する。さらに、本方法では、処理済み画像を使用して、画像内のオブジェクト内に不整合が存在するかどうかを決定する。また、処理済み画像を使用してオブジェクト内に不整合が存在するかどうかを決定することは、さらに、処理済み画像をオブジェクトの別の画像と比較することにより、比較スペクトルを形成すること、並びに比較スペクトルを使用して不整合が存在するかどうかを決定することを含む。 Another alternative embodiment considers using the processed image to identify features and / or objects in the image. In addition, the method uses the processed image to determine if there is a mismatch in the objects in the image. Also, using the processed image to determine whether there is a mismatch in the object further comprises forming a comparison spectrum by comparing the processed image with another image of the object, and Using the comparison spectrum to determine if a mismatch exists.
別の有利な実施形態では、装置はコンピュータシステムを含む。コンピュータシステムは、画像を空間ドメインから周波数ドメインに変換することにより、変換済み画像を形成する。コンピュータシステムは、さらに、変換済み画像にフィルタを適用することにより、周波数ドメイン内にフィルタ済み画像を形成する。コンピュータシステムは、さらに、フィルタ済み画像を周波数ドメインから空間ドメインに変換により変換により戻すことにより、修正済み画像を形成する。修正済み画像内の望ましくないフィーチャの強度は、元の画像内の望ましくないフィーチャの強度より増大している。コンピュータシステムは、さらに、修正済み画像を用いて画像から望ましくないフィーチャを除去することにより、処理済み画像を形成する。 In another advantageous embodiment, the apparatus comprises a computer system. The computer system forms a transformed image by transforming the image from the spatial domain to the frequency domain. The computer system further forms a filtered image in the frequency domain by applying a filter to the transformed image. The computer system further forms a modified image by transforming the filtered image back from the frequency domain to the spatial domain. The intensity of undesired features in the modified image is greater than the intensity of undesired features in the original image. The computer system further forms a processed image by removing unwanted features from the image using the modified image.
本装置は、また、シーンの画像を生成するセンサシステムを随意で含むことができ、ここで画像内の望ましくないフィーチャは、シーン内のグリントにより生じた画像内の輝点である。さらに考慮されるのは、画像を空間ドメインから周波数ドメインに変換することにより変換済み画像を形成する装置に、画像を空間ドメインから周波数ドメイン内の変換済み画像に変換する画像のフーリエ変換を演算するように構成されたコンピュータシステムを含めることである。 The apparatus can also optionally include a sensor system that generates an image of the scene, where the undesirable features in the image are bright spots in the image caused by glint in the scene. Also considered is a device that forms a transformed image by transforming the image from the spatial domain to the frequency domain and computing the Fourier transform of the image that transforms the image from the spatial domain to the transformed image in the frequency domain. Is to include a computer system configured.
装置は、変換済み画像にフィルタを適用することにより周波数ドメイン内にフィルタ済み画像を形成するような構成において、フィルタ済み画像を形成するルートフィルタを使用することにより、フーリエ変換の位相成分の位相に影響を与えること無く、画像のフーリエ変換の振幅成分の振幅を拡大縮小するコンピュータシステムを有することもできる。この場合、ルートフィルタは、振幅を非線型的に拡大縮小する。 In a configuration that forms a filtered image in the frequency domain by applying a filter to the transformed image, the device uses the root filter to form the filtered image to the phase of the phase component of the Fourier transform. It is also possible to have a computer system that scales the amplitude of the amplitude component of the Fourier transform of the image without affecting it. In this case, the root filter scales the amplitude nonlinearly.
他の任意の機構の考慮によれば、修正済み画像を使用して望ましくないフィーチャを画像から除去することにより処理済み画像を形成する構成において、コンピュータシステムは、修正済み画像に閾値を適用して、閾値より大きな値を有する画像内のピクセルを保持することにより閾値適用画像を形成し;修正済み画像を、画像の点拡がり関数を用いて畳込むことにより、畳込み済み画像を形成し、ここで畳込み済み画像により、この畳込み済み画像内の望ましくないフィーチャの第1の位置が示され、この第1の位置は元の画像内の望ましくないフィーチャの第2の位置に対応しており;且つ、畳込み済み画像を元の画像から減算することにより処理済み画像を形成し、ここで元の画像内の望ましくないフィーチャの第2の位置の画像部分が元の画像から除去されることにより、望ましくないフィーチャが除去される。 According to other optional mechanism considerations, in a configuration that uses the modified image to form a processed image by removing undesirable features from the image, the computer system applies a threshold to the modified image. Form a thresholded image by retaining pixels in the image having a value greater than the threshold; convolve the modified image with a point spread function of the image to form a convolved image, where The convolved image indicates the first location of the undesired feature in the convolved image, which corresponds to the second location of the undesired feature in the original image. And forming a processed image by subtracting the convolved image from the original image, wherein the image portion of the second location of the undesired feature in the original image By being removed from the original image, unwanted features are removed.
また別の有利な実施形態では、ビークル検査システムは、センサシステム、画像処理プロセッサ、及び画像アナライザを備えている。センサシステムは、ビークルの画像を生成する。画像処理プロセッサは、センサシステムから画像を受け取る。画像処理プロセッサは、さらに、画像を空間ドメインから周波数ドメインに変換することにより、変換済み画像を形成する。画像処理プロセッサは、さらに、変換済み画像にフィルタを適用することにより、周波数ドメイン内にフィルタ済み画像を形成する。画像処理プロセッサは、さらに、フィルタ済み画像を周波数ドメインから空間ドメインに戻すことにより、修正済み画像を形成する。修正済み画像における望ましくないフィーチャの強度は、元の画像内の望ましくないフィーチャの強度より増大している。画像処理プロセッサは、さらに、修正済み画像を用いて画像から望ましくないフィーチャを除去することにより、処理済み画像を形成する。画像アナライザは、処理済み画像を解析して、ビークル内に不整合が存在するかどうかを決定する。 In another advantageous embodiment, the vehicle inspection system comprises a sensor system, an image processor, and an image analyzer. The sensor system generates an image of the vehicle. The image processor receives an image from the sensor system. The image processor further forms a transformed image by transforming the image from the spatial domain to the frequency domain. The image processor further forms a filtered image in the frequency domain by applying a filter to the transformed image. The image processor further forms a modified image by returning the filtered image from the frequency domain to the spatial domain. The intensity of undesired features in the modified image is greater than the intensity of undesired features in the original image. The image processor further forms a processed image by removing unwanted features from the image using the modified image. The image analyzer analyzes the processed image to determine if there is a mismatch in the vehicle.
考慮される他のビークル検査システムは表示システムを含むことができ、画像アナライザは、この表示システム上に、ビークル内に不整合が存在するかどうかを示す表示を提供することができる。別の好ましい画像アナライザは、さらに、ビークル内に不整合が存在するかどうかを示すレポートを生成することができる。 Other vehicle inspection systems considered may include a display system, and the image analyzer may provide a display on the display system that indicates whether there is a mismatch in the vehicle. Another preferred image analyzer can further generate a report that indicates whether there is a mismatch in the vehicle.
上記のフィーチャ、機能及び利点は、本発明の様々な実施形態で独立に実現することが可能であるか、他の実施形態において組み合わせることが可能である。これらの実施形態について、後述の説明及び添付図面を参照してさらに詳細に説明する。 The above features, functions and advantages can be implemented independently in various embodiments of the invention or may be combined in other embodiments. These embodiments will be described in more detail with reference to the following description and attached drawings.
新規のフィーチャと考えられる有利な実施形態の特徴は、特許請求の範囲に明記される。しかしながら、有利な実施形態と、好ましい使用モードと、さらにはその目的及び利点とは、添付図面を参照して本発明の有利な一実施形態の後述の詳細な説明を読むことにより最もよく理解されるであろう。 Advantageous embodiment features that are considered novel features are set forth in the appended claims. However, advantageous embodiments, preferred modes of use, and further objects and advantages thereof are best understood by reading the following detailed description of one advantageous embodiment of the invention with reference to the accompanying drawings. It will be.
種々の有利な実施形態は、一又は複数の検討事項を認識し、且つ考慮している。例えば、種々の有利な実施形態は、異なる波長を用いてシーンの画像を生成できることを認識し、且つ考慮している。換言すると、シーン内のオブジェクトに対して複数の波長測定を行うことができる。異なる波長を使用してシーンの画像を生成することにより、シーン内の反射(例えば、グリント)に応答して画像内に現れるフィーチャを識別し、画像から除去することができる。 Various advantageous embodiments recognize and take into account one or more considerations. For example, the various advantageous embodiments recognize and take into account that images of a scene can be generated using different wavelengths. In other words, multiple wavelength measurements can be performed on objects in the scene. By generating images of the scene using different wavelengths, features that appear in the image in response to reflections (eg, glint) in the scene can be identified and removed from the image.
しかしながら、種々の有利な実施形態は、幾つかのセンサはこの種の波長測定を行うことができないことを認識し、且つ考慮している。例えば、パンクロ画像センサはこの種の情報を提供しない。パンクロ画像センサは、画像がデータをグレイの網掛けで含む単一帯域を提供するに過ぎない。 However, the various advantageous embodiments recognize and take into account that some sensors cannot perform this type of wavelength measurement. For example, panchromatic image sensors do not provide this type of information. The panchromatic image sensor only provides a single band in which the image contains data in gray shades.
種々の有利な実施形態は、また、フィルタリングを実行して画像に関するデータ内の望ましくないフィーチャを抑えることができることを認識し、且つ考慮している。しかしながら、種々の有利な実施形態は、シーン内のオブジェクトの画像内において、グリントによって生じた望ましくないフィーチャを他のフィーチャから差別化することは、必要以上に困難であり、及び/又は時間がかかることを認識し、且つ考慮している。 Various advantageous embodiments also recognize and take into account that filtering can be performed to suppress undesirable features in the data related to the image. However, various advantageous embodiments can be more difficult and / or time consuming to differentiate unwanted features caused by glints from other features in an image of an object in a scene. Recognize and take this into account.
加えて、種々の有利な実施形態は、高速光学機械を使用する現在利用可能なグリント低減システムが、以前に生成された画像内のグリントを除去できないことを認識し、且つ考慮している。例えば、オブジェクトの試験及び評価に使用される履歴データには、数週間、数ヶ月、又は数年前の画像が含まれる。種々の有利な実施形態は、これらの以前に生成された画像内のグリントを低減することが望ましいことを認識し、且つ考慮している。 In addition, the various advantageous embodiments recognize and take into account that currently available glint reduction systems using high speed optical machines cannot remove glint in previously generated images. For example, historical data used for testing and evaluating objects includes images that are weeks, months, or years old. Various advantageous embodiments recognize and take into account that it is desirable to reduce glint in these previously generated images.
種々の有利な実施形態は、また、現在利用可能なグリント低減システムが、環境条件のような変動する条件に合わせて適合できないことを認識し、且つ考慮している。例えば、撮像システムによって生成された画像内のグリントを低減する偏光板を備えた現在利用可能な撮像システムでは、変化する気象条件、風の条件、及び/又は他の種類の環境条件を考慮するように偏光板を調整することは不可能である。その結果、撮像システムによって生成された画像の一部が、望ましくない数のグリントを有することがある。 The various advantageous embodiments also recognize and take into account that currently available glint reduction systems cannot be adapted to changing conditions such as environmental conditions. For example, currently available imaging systems with polarizing plates that reduce glint in images generated by the imaging system may take into account changing weather conditions, wind conditions, and / or other types of environmental conditions. It is impossible to adjust the polarizing plate. As a result, some of the images generated by the imaging system may have an undesirable number of glints.
さらに、現在利用可能な幾つかのグリント低減システムは、撮像システムのレンズの偏光を調整する電動式光学フィルタを使用することができる。種々の有利な実施形態は、これらの種類のシステムが、画像処理において、1秒当たりに生成されるフレーム数を増加させることができないことを認識し、且つ考慮している。その結果、画像処理において、ほぼ実時間でグリントを低減することが、現在利用可能なシステムでは不可能である。
したがって、種々の有利な実施形態により、グリントによって生じた望ましくないフィーチャを画像から除去するための方法と装置を提供する。種々の有利な実施形態では、望ましくないフィーチャとは、画像解析の困難性を増す、及び/又は画像解析にかかる時間を引き伸ばすフィーチャである。
In addition, some currently available glint reduction systems can use motorized optical filters that adjust the polarization of the lenses of the imaging system. Various advantageous embodiments recognize and take into account that these types of systems cannot increase the number of frames generated per second in image processing. As a result, it is not possible with currently available systems to reduce glint in image processing in near real time.
Accordingly, various advantageous embodiments provide a method and apparatus for removing undesirable features caused by glints from an image. In various advantageous embodiments, undesired features are features that increase the difficulty of image analysis and / or increase the time taken for image analysis.
有利な一実施形態では、画像内の望ましくないフィーチャを除去する方法が提供される。画像を空間ドメインから周波数ドメインに変換することにより、変換済み画像を形成する。変換済み画像にフィルタを適用することにより、周波数ドメイン内にフィルタ済み画像を形成する。フィルタ済み画像を周波数ドメインから空間ドメインに戻すことにより、修正済み画像を形成する。修正済み画像における望ましくないフィーチャの強度は、元の画像内の望ましくないフィーチャの強度より増大している。修正済み画像を用いて画像から望ましくないフィーチャを除去することにより、処理済み画像を形成する。 In one advantageous embodiment, a method for removing unwanted features in an image is provided. A transformed image is formed by transforming the image from the spatial domain to the frequency domain. A filtered image is formed in the frequency domain by applying a filter to the transformed image. A modified image is formed by returning the filtered image from the frequency domain to the spatial domain. The intensity of undesired features in the modified image is greater than the intensity of undesired features in the original image. A processed image is formed by removing unwanted features from the image using the modified image.
この情報は、この後、任意の数の異なる目的に使用することができる。例えば、処理済み画像を使用して、画像内に捕捉されたシーン内のオブジェクトを識別し、オブジェクト内の不整合を識別し、オブジェクトの特徴を識別し、及び/又は画像内のオブジェクトに関する他の適切な操作を実行することができる。 This information can then be used for any number of different purposes. For example, the processed image is used to identify objects in the scene captured in the image, identify inconsistencies in the object, identify object characteristics, and / or other objects related to objects in the image Appropriate operations can be performed.
ここで図1を参照する。図1は、有利な一実施形態による画像処理環境のブロック図である。このような実施例では、画像処理環境100は、シーン102、センサシステム104、及びコンピュータシステム105を含む。センサシステム104は、シーン102の画像106を生成する。 Reference is now made to FIG. FIG. 1 is a block diagram of an image processing environment in accordance with an advantageous embodiment. In such an embodiment, image processing environment 100 includes scene 102, sensor system 104, and computer system 105. The sensor system 104 generates an image 106 of the scene 102.
図示のように、センサシステム104は任意の数のセンサ108を含む。本明細書で使用する「任意の数のアイテム」は、一又は複数のアイテムを意味する。例えば、「任意の数のセンサ」は、一又は複数のコンピュータを意味する。このような実施例では、任意の数のセンサ108は、帯域112内の電磁放射を検出するように構成された任意の数の撮像センサ110の形態をとることができる。 As shown, sensor system 104 includes any number of sensors 108. As used herein, “any number of items” means one or more items. For example, “any number of sensors” means one or more computers. In such an embodiment, any number of sensors 108 may take the form of any number of imaging sensors 110 that are configured to detect electromagnetic radiation within band 112.
帯域112は、周波数又は波長の連続帯域である。帯域112が電磁放射の可視スペクトル内にあるとき、任意の数の撮像センサ110は、パンクロ画像114の形態でセンサ102の画像106を生成する。帯域112が電磁放射のスペクトルの他の部分内にあるとき、画像106は広帯域画像と呼ばれる。 The band 112 is a continuous band of frequency or wavelength. When the band 112 is in the visible spectrum of electromagnetic radiation, any number of imaging sensors 110 produce an image 106 of the sensor 102 in the form of a panchromatic image 114. When the band 112 is in another part of the spectrum of electromagnetic radiation, the image 106 is called a broadband image.
このような実施例において、画像106はパンクロ画像114の形態をとる。パンクロ画像114は、黒から白に亘るグレイシェードを含むのみである。具体的には、このような種類の画像内のピクセルの値は、強度情報のみを含んでいる。換言すると、パンクロ画像114内のピクセルの値は、強度を示しているのであって、色を示しているのではない。 In such an embodiment, image 106 takes the form of a panchromatic image 114. The panchromatic image 114 only includes a gray shade ranging from black to white. Specifically, the value of a pixel in such type of image contains only intensity information. In other words, the value of the pixel in the panchromatic image 114 indicates the intensity, not the color.
一実施例として、任意の数のオブジェクト116がシーン102内に存在している。シーン102内の任意の数のオブジェクト116には、例えば、限定されないが、ビークル、航空機、自動車、人、建造物、人工構造、道路、樹木、緑地、海面、湖面、及び他の適切な種類のオブジェクトが含まれる。 As an example, any number of objects 116 exist in the scene 102. Any number of objects 116 in the scene 102 may include, but are not limited to, vehicles, aircraft, automobiles, people, buildings, man-made structures, roads, trees, green spaces, sea levels, lake surfaces, and other suitable types. Contains objects.
任意の数の撮像センサ110は、シーン102内の任意の数のオブジェクト116の輝度を検出して、画像118を生成するように構成されている。画像118は、このような実施例では二次元画像である。具体的には、任意の数の撮像センサ110は、任意の数のセンサ110において検出される帯域112内の光の強度を測定し、画像118内の各ピクセルの値を生成する。例えば、値は約0〜255である。このように、画像118はパンクロ画像である。 Any number of imaging sensors 110 are configured to detect the brightness of any number of objects 116 in the scene 102 and generate an image 118. Image 118 is a two-dimensional image in such an embodiment. Specifically, any number of imaging sensors 110 measure the intensity of light in the band 112 detected by any number of sensors 110 and generate a value for each pixel in the image 118. For example, the value is about 0-255. Thus, the image 118 is a panchromatic image.
センサシステム104は、処理のために画像118をコンピュータシステム105に送る。このような実施例では、コンピュータシステム105は任意の数のコンピュータを含む。コンピュータシステム105内に複数のコンピュータが存在する場合、これらのコンピュータは相互に通信することができる。 The sensor system 104 sends the image 118 to the computer system 105 for processing. In such an embodiment, computer system 105 includes any number of computers. When there are a plurality of computers in the computer system 105, these computers can communicate with each other.
図示のように、コンピュータシステム105内には画像処理プロセッサ120及び画像アナライザ122が存在する。画像処理プロセッサ120及び画像アナライザ122は、コンピュータシステム105内で、ハードウェア、ソフトウェア、又はこの二つの組み合わせを使用して実装することができる。幾つかの実施形態では、これらのモジュールを、コンピュータシステム105内の他のコンポーネントから独立して使用することができる。 As shown, there is an image processor 120 and an image analyzer 122 in the computer system 105. Image processor 120 and image analyzer 122 may be implemented in computer system 105 using hardware, software, or a combination of the two. In some embodiments, these modules can be used independently of other components in computer system 105.
これらのモジュールは、ハードウェアとして実装されるとき、所望の機能及び/又はプロセスを実行するように構成された任意の数の回路を使用して実装することができる。このような任意の数の回路には、例えば、集積回路、特定用途向け集積回路、プログラマブルロジックアレイ、汎用ロジックアレイ、フィールドプログラマブルゲートアレイ、プログラマブルロジックデバイス、コンプレックスプログラマブルロジックデバイス(CPLD)、プログラマブルロジックコントローラ、マクロセルアレイ、及び他の適切な種類の回路のうちの少なくとも1つが含まれる。 These modules, when implemented as hardware, can be implemented using any number of circuits configured to perform the desired functions and / or processes. Any number of such circuits include, for example, integrated circuits, application specific integrated circuits, programmable logic arrays, general purpose logic arrays, field programmable gate arrays, programmable logic devices, complex programmable logic devices (CPLDs), programmable logic controllers. , Macro cell arrays, and other suitable types of circuits.
本明細書において、列挙されたアイテムと共に使用する「〜のうちの少なくとも1つの」という表現は、列挙されたアイテムのうちの一又は複数からなる様々な組み合わせが使用可能であり、且つ列挙された各アイテムが1つだけあればよいことを意味する。例えば、「アイテムA、アイテムB、及びアイテムCのうちの少なくとも1つ」は、例えば、限定しないが、「アイテムA」、又は「アイテムAとアイテムB」を含む。この例は、「アイテムAとアイテムBとアイテムC」、又は「アイテムBとアイテムC」も含む。他の例として、「〜のうちの少なくとも1つ」は、例えば、限定しないが、「2個のアイテムAと1個のアイテムBと10個のアイテムC」、「4個のアイテムBと7個のアイテムC」、並びに他の適切な組み合わせを含む。 As used herein, the expression “at least one of” used with the listed items can be used in various combinations of one or more of the listed items. This means that only one item is required. For example, “at least one of item A, item B, and item C” includes, for example, without limitation, “item A” or “item A and item B”. This example also includes “item A and item B and item C” or “item B and item C”. As another example, “at least one of” is, for example, without limitation, “two items A, one item B, and ten items C”, “four items B and 7”. Item C ”as well as other suitable combinations.
さらに、このような実施例では、コンピュータシステム105は表示システム124も含む。表示システム124は、一又は複数の表示デバイスを含みうる。このような実施例では、コンピュータシステム105内の様々なコンポーネントは、特定の実装態様に応じて同じ位置にあっても、異なる位置にあってもよい。 Further, in such an embodiment, computer system 105 also includes a display system 124. Display system 124 may include one or more display devices. In such examples, the various components within computer system 105 may be in the same location or different locations depending on the particular implementation.
幾つかの実施例では、コンピュータシステム105は、ネットワークデータ処理システムのような、分散コンピュータシステムでもよい。他の実施例では、コンピュータシステム105は、ソフトウェアでなくハードウェアにプロセスが実装されるハードウェア回路から全体が構成されてもよい。 In some embodiments, computer system 105 may be a distributed computer system, such as a network data processing system. In other embodiments, the computer system 105 may be entirely composed of hardware circuits in which processes are implemented in hardware rather than software.
このような実施例では、画像処理プロセッサ120は、画像118を受け取って処理する。具体的には、画像処理プロセッサ120は、画像118から望ましくないフィーチャ126を除去するために画像118を処理する。さらに詳細には、画像処理プロセッサ120は、シーン102内の望ましくない反射130により生じた望ましくないフィーチャ126を画像118から除去するために画像118を処理する。具体的には、望ましくない反射130はグリント131である。 In such an embodiment, image processor 120 receives and processes image 118. Specifically, the image processor 120 processes the image 118 to remove unwanted features 126 from the image 118. More particularly, the image processor 120 processes the image 118 to remove unwanted features 126 from the image 118 caused by unwanted reflections 130 in the scene 102. Specifically, the unwanted reflection 130 is a glint 131.
グリント131は、画像118に現れるシーン102内の任意の数のオブジェクト116の表面からの光の鏡面反射である。グリントは、画像118内において、画像118の、それを取り囲む部分より大きな強度を有する小さな輝点として現れる。このようにして、シーン102内においてグリント131により生じた望ましくないフィーチャ126は、画像118内において望ましくない輝点128の形態をとる。画像処理プロセッサ120は、現在の形態の画像118を使用して、画像内118のいずれの輝点がグリント131により生じたものなのかを識別することができない。 The glint 131 is a specular reflection of light from the surface of any number of objects 116 in the scene 102 that appear in the image 118. The glint appears in the image 118 as a small bright spot that has a greater intensity than the portion of the image 118 that surrounds it. In this way, undesirable features 126 caused by glint 131 in scene 102 take the form of undesirable bright spots 128 in image 118. The image processor 120 cannot use the current form of the image 118 to identify which bright spots in the image 118 are caused by the glint 131.
例えば、画像処理プロセッサ120は、画像118内の輝点132を検出することができる。輝点132は、1つのピクセル、2つのピクセル、又は他の何らかの適切な数のピクセルを含みうる。しかしながら、画像処理プロセッサ120は、輝点132がシーン102内のグリント134によって生じたもので、画像118内における望ましくない輝点128の1つであるかどうかを決定することができない。例えば、画像118内の輝点132の強度は、輝点132がシーン102内のグリント134によって生じたものかどうかを決定するために十分に高くない。その結果、画像処理プロセッサ120は、輝点132が望ましくない輝点128の1つであるか、又はシーン102内の任意の数のオブジェクト116の1つのフィーチャであるかを決定することができない。 For example, the image processor 120 can detect bright spots 132 in the image 118. The bright spot 132 may include one pixel, two pixels, or some other suitable number of pixels. However, the image processor 120 cannot determine whether the bright spot 132 is caused by a glint 134 in the scene 102 and is one of the unwanted bright spots 128 in the image 118. For example, the intensity of the bright spot 132 in the image 118 is not high enough to determine whether the bright spot 132 is caused by a glint 134 in the scene 102. As a result, the image processor 120 cannot determine whether the bright spot 132 is one of the unwanted bright spots 128 or a feature of any number of objects 116 in the scene 102.
このような実施例では、画像118の現在の形態は空間ドメイン136内にある。空間ドメイン136は、画像118の像空間である。具体的には、空間ドメイン136は、画像118のための二次元空間である。一実施例では、空間ドメイン136は、画像118のxy座標系を用いて画定される。画像118のx座標は、画像118の水平方向を表し、y座標は画像118の垂直方向を表わす。 In such an embodiment, the current form of image 118 is in spatial domain 136. Spatial domain 136 is the image space of image 118. Specifically, the spatial domain 136 is a two-dimensional space for the image 118. In one embodiment, the spatial domain 136 is defined using the xy coordinate system of the image 118. The x coordinate of the image 118 represents the horizontal direction of the image 118, and the y coordinate represents the vertical direction of the image 118.
画像処理プロセッサ120は、画像118を空間ドメイン136から周波数ドメイン138へ変換することにより、変換済み画像140を形成する。具体的には、画像処理プロセッサ120は、画像118のフーリエ変換(FT)142を演算して、画像118を空間ドメイン136から周波数ドメイン138へ変換することにより、変換済み画像140を形成する。このような実施例では、フーリエ変換142は、離散的フーリエ変換(DFT)及び高速フーリエ変換(FFT)から選択されたどちらか1つである。空間ドメイン136が2次元空間であるとき、フーリエ変換142も2次元フーリエ変換である。 Image processor 120 forms transformed image 140 by transforming image 118 from spatial domain 136 to frequency domain 138. Specifically, the image processor 120 computes the Fourier transform (FT) 142 of the image 118 and transforms the image 118 from the spatial domain 136 to the frequency domain 138 to form the transformed image 140. In such an embodiment, the Fourier transform 142 is either one selected from a discrete Fourier transform (DFT) and a fast Fourier transform (FFT). When the spatial domain 136 is a two-dimensional space, the Fourier transform 142 is also a two-dimensional Fourier transform.
このような実施例では、変換済み画像140は振幅成分144と位相成分146とを含む。振幅成分144は、画像118のフーリエ変換142の振幅を特定する。このような振幅はマグニチュードとも呼ばれる。位相成分146は、画像118のフーリエ変換142の位相を特定する。 In such an embodiment, transformed image 140 includes an amplitude component 144 and a phase component 146. The amplitude component 144 specifies the amplitude of the Fourier transform 142 of the image 118. Such amplitude is also called magnitude. Phase component 146 identifies the phase of Fourier transform 142 of image 118.
振幅成分144は、例えば、振幅スペクトルによって表される。位相成分146は、例えば、位相スペクトルによって表される。振幅スペクトル及び位相スペクトルは、周波数に関してフーリエ変換142の振幅及び位相をそれぞれ座標に示す。 The amplitude component 144 is represented by an amplitude spectrum, for example. The phase component 146 is represented by a phase spectrum, for example. The amplitude spectrum and the phase spectrum indicate the amplitude and phase of the Fourier transform 142 in terms of frequency, respectively.
このような実施例では、変換済み画像140は画像118と同数のピクセルを有している。具体的には、変換済み画像140は、画像118と同じピクセルの寸法を有している。 In such an embodiment, transformed image 140 has the same number of pixels as image 118. Specifically, the converted image 140 has the same pixel dimensions as the image 118.
変換済み画像140内の各ピクセルは、画像118内の異なる空間周波数148を表わす。画像118内の空間周波数148は、画像118内における隣接ピクセルに対するピクセルの値の変化率である。具体的には、空間周波数148は、画像118の特定の部分の、選択された距離150当たりのピクセルの強度の値に生じた変化の数と定義される。選択された距離150は、変換済み画像140に関する、例えば、ピクセル、ミリメートル、センチメートル、又は他の何らかの適切な距離の単位といった単位とすることができる。 Each pixel in the transformed image 140 represents a different spatial frequency 148 in the image 118. Spatial frequency 148 in image 118 is the rate of change of the value of a pixel relative to neighboring pixels in image 118. Specifically, spatial frequency 148 is defined as the number of changes that have occurred in the value of pixel intensity per selected distance 150 for a particular portion of image 118. The selected distance 150 may be in units of the transformed image 140, such as pixels, millimeters, centimeters, or some other suitable distance unit.
このように、変換済み画像内での位置の変化は空間周波数148の変化に対応している。さらに、変換済み画像140内のピクセルの値は、ピクセルが示す特定の空間周波数148における、選択された距離150内での最も明るいグレイレベルと最も暗いグレイレベルとの差異を示す。選択された距離150内における最も明るいグレイレベルから最も暗いグレイレベルまでのこのような変化は、一区間又は一周期と呼ばれる。 As described above, the change in position in the converted image corresponds to the change in the spatial frequency 148. Further, the value of the pixel in the transformed image 140 indicates the difference between the brightest and darkest gray level within the selected distance 150 at the particular spatial frequency 148 that the pixel represents. Such a change from the brightest gray level to the darkest gray level within the selected distance 150 is referred to as a section or period.
例えば、10ピクセル毎の一周期の空間周波数148を表わす変換済み画像140内のピクセルが20という値を有する場合、10ピクセル分の画像118内のピクセル強度の値は、最も明るいグレイレベルから最も暗いグレイレベルへと変化するか、又は最も暗いレベルから最も明るいグレイレベルへと変化する。さらに、最も明るいグレイレベルと最も暗いグレイレベルとのコントラストは、ピクセルの値の約2倍である。換言すると、このようなコントラストは、最も明るいグレイレベルと最も暗いグレイレベルとの間における約40のグレイレベルである。 For example, if a pixel in the transformed image 140 representing a period of spatial frequency 148 for every 10 pixels has a value of 20, the pixel intensity value in the image 118 for 10 pixels will be the darkest to the darkest gray level. Change to a gray level or change from the darkest level to the brightest gray level. Furthermore, the contrast between the brightest and darkest gray levels is approximately twice the pixel value. In other words, such contrast is about 40 gray levels between the brightest and darkest gray levels.
このような実施例では、画像118内の小さなフィーチャは、それよりも大きなフィーチャと比較して高い空間周波数を有する。その結果、画像118内の小さなフィーチャは、変換済み画像140において、画像118内のそれよりも大きなフィーチャと比較して高い周波数成分で表される。 In such an embodiment, small features in image 118 have a higher spatial frequency compared to larger features. As a result, small features in the image 118 are represented in the transformed image 140 with higher frequency components compared to larger features in the image 118.
換言すると、画像118内のこのような小さなフィーチャは、画像118内のそれよりも大きなフィーチャと比較したとき、変換済み画像140内の高い空間周波数に対応するピクセル内に現れ、画像118内の大きなフィーチャは、変換済み画像140内の低い空間周波数に対応するピクセル内に現れる。一実施例として、グリント131によって生じた画像118内の望ましくない輝点128は、画像118内において小さなフィーチャでありえ、変換済み画像140内において高い周波数成分内に現れる。 In other words, such small features in the image 118 appear in pixels corresponding to high spatial frequencies in the transformed image 140 when compared to features larger than that in the image 118 and are large in the image 118. Features appear in pixels that correspond to low spatial frequencies in the transformed image 140. As an example, undesirable bright spots 128 in image 118 caused by glint 131 may be small features in image 118 and appear in high frequency components in transformed image 140.
このような実施例では、画像処理プロセッサ120は、変換済み画像140にフィルタ152を適用することにより、周波数ドメイン138内にフィルタ済み画像154を形成する。フィルタ152は、例えば、限定しないが、非線型フィルタ、線形フィルタ、高周波通過フィルタ、及び/又は他の何らかの適切な種類のフィルタの形態をとることができる。 In such an embodiment, image processor 120 forms filtered image 154 in frequency domain 138 by applying filter 152 to transformed image 140. The filter 152 may take the form of, for example, without limitation, a non-linear filter, a linear filter, a high frequency pass filter, and / or any other suitable type of filter.
このような実施例では、フィルタ152は、画像118のフーリエ変換142の振幅成分144を、位相成分146を変化させることなく、変化させるように構成されている。具体的には、フィルタ152は、変換済み画像140の高周波成分の振幅を変化させる。 In such an embodiment, the filter 152 is configured to change the amplitude component 144 of the Fourier transform 142 of the image 118 without changing the phase component 146. Specifically, the filter 152 changes the amplitude of the high frequency component of the converted image 140.
さらに詳細には、フィルタ152が変換済み画像140に適用されると、変換済み画像140内の高周波成分の振幅が、変換済み画像140内の低周波成分の振幅に対して増加する。換言すると、フィルタ済み画像154における高周波成分の振幅と低周波成分の振幅との比は、変換済み画像140における高周波成分の振幅と低周波成分の振幅との比と比べて低下する。 More specifically, when the filter 152 is applied to the transformed image 140, the amplitude of the high frequency component in the transformed image 140 increases relative to the amplitude of the low frequency component in the transformed image 140. In other words, the ratio between the amplitude of the high frequency component and the amplitude of the low frequency component in the filtered image 154 is lower than the ratio of the amplitude of the high frequency component and the amplitude of the low frequency component in the converted image 140.
換言すると、変換済み画像140における高周波成分の振幅は、フィルタ済み画像154において増強されているので、このような高周波成分に対応する画像118内のフィーチャも増強される。具体的には、画像118内のグリント131によって生じる望ましくない輝点128に対応する高周波成分の振幅は、フィルタ済み画像154において増強される。 In other words, since the amplitude of the high frequency components in the transformed image 140 is enhanced in the filtered image 154, the features in the image 118 corresponding to such high frequency components are also enhanced. Specifically, the amplitude of the high frequency component corresponding to the undesired bright spot 128 caused by the glint 131 in the image 118 is enhanced in the filtered image 154.
その後、画像処理プロセッサ120は、変換済み画像140の逆フーリエ変換155を演算することにより、周波数ドメイン138内の変換済み画像140を空間ドメイン136に戻す。このような変換により、修正済み画像156が形成される。具体的には、修正済み画像156における小さなフィーチャ、例えば、グリント131によって生じた望ましくない輝点128の強度は、画像118におけるこのようなフィーチャの強度より増加している。このように、グリント131によって生じた望ましくない輝点128を他のフィーチャから区別することは、画像118より修正済み画像156においてずっと容易である。 The image processor 120 then returns the transformed image 140 in the frequency domain 138 to the spatial domain 136 by computing the inverse Fourier transform 155 of the transformed image 140. By such conversion, a corrected image 156 is formed. In particular, the intensity of undesirable bright spots 128 caused by small features in the modified image 156, such as glint 131, is greater than the intensity of such features in image 118. In this way, it is much easier in the modified image 156 than in the image 118 to distinguish unwanted bright spots 128 caused by glint 131 from other features.
次いで、画像処理プロセッサ120は、修正済み画像156を用いて、グリント131によって生じた望ましくない輝点128を修正済み画像156から除去する。具体的には、画像処理プロセッサ120は、修正済み画像156内の望ましくない輝点128の位置158を特定し、次いで画像118内の位置158にある望ましくない輝点128を減らす、及び/又は除去する。このような実施例では、修正済み画像156から望ましくない輝点128を低減及び/又は除去することにより、処理済み画像160が形成される。このようにして、グリント131によって生じる望ましくない輝点128は抑制される。 Image processor 120 then uses modified image 156 to remove undesirable bright spots 128 caused by glint 131 from modified image 156. Specifically, the image processor 120 identifies the location 158 of the unwanted bright spot 128 in the modified image 156 and then reduces and / or eliminates the unwanted bright spot 128 at the location 158 in the image 118. To do. In such an embodiment, processed image 160 is formed by reducing and / or removing unwanted bright spots 128 from modified image 156. In this way, undesirable bright spots 128 caused by glint 131 are suppressed.
画像処理プロセッサ120は、処理済み画像160を解析のために画像アナライザ122に送る。画像アナライザ122は、処理済み画像160を任意の数の異なる方法で解析することができる。例えば、画像アナライザ122は、処理済み画像160を使用して、任意の数のオブジェクト116の特徴162を識別することができる。任意の数のオブジェクト116の特徴162には、例えば、任意の数のオブネクト116のうちの1つのオブジェクトの、内部の不整合、縁の不整合、寸法の不整合、識別の不整合、及び/又は他の適切な種類の特徴の不整合が含まれる。 Image processor 120 sends processed image 160 to image analyzer 122 for analysis. The image analyzer 122 can analyze the processed image 160 in any number of different ways. For example, the image analyzer 122 can use the processed image 160 to identify any number of features 162 of the object 116. Features 162 of any number of objects 116 may include, for example, internal misalignment, edge misalignment, dimensional misalignment, identification misalignment, and / or identification of one object of any number of objects 116. Or any other suitable type of feature mismatch.
幾つかの実施例では、画像処理プロセッサ120及び画像アナライザ122は、ビークル検査システム164に実装される。ビークル検査システム164は、処理済み画像160を使用して、任意の数のオブジェクト116のうちのオブジェクト168に不整合166が存在するかどうかを決定するように構成されている。このような実施例では、オブジェクト168はビークルである。このような実施例では、オブジェクト168内の不整合は、オブジェクト168内において存在するはずのない、又は望ましくない、オブジェクト168内のフィーチャ又は特徴である。 In some embodiments, image processor 120 and image analyzer 122 are implemented in vehicle inspection system 164. Vehicle inspection system 164 is configured to use processed image 160 to determine whether inconsistency 166 exists in object 168 of any number of objects 116. In such an embodiment, object 168 is a vehicle. In such an embodiment, the mismatch in object 168 is a feature or feature in object 168 that should not exist or is undesirable in object 168.
不整合166を識別することは、任意の数の異なる方法で実行することができる。例えば、処理済み画像160を、データベース172に格納された画像170と比較することができる。画像170は、オブジェクト168の画像118の生成に先行して生成された、オブジェクト168の別の画像である。画像170との処理済み画像160のこのような比較を使用して、不整合166が存在するかどうかを決定することができる。 Identifying inconsistencies 166 can be performed in any number of different ways. For example, processed image 160 can be compared to image 170 stored in database 172. Image 170 is another image of object 168 that was generated prior to generation of image 118 of object 168. Such a comparison of the processed image 160 with the image 170 can be used to determine whether an inconsistency 166 exists.
他の実施例では、画像処理プロセッサ120及び画像アナライザ122は、オブジェクト識別システム174に実装される。この種の実装態様では、画像アナライザ122は、画像170と処理済み画像160とを比較することにより、オブジェクト168の識別176を生成することができる。幾つかの事例では、処理済み画像160をデータベース172内に存在する複数の画像と比較することにより、オブジェクト168を識別することができる。 In other embodiments, the image processor 120 and the image analyzer 122 are implemented in the object identification system 174. In this type of implementation, the image analyzer 122 can generate an identification 176 of the object 168 by comparing the image 170 and the processed image 160. In some cases, the object 168 can be identified by comparing the processed image 160 with multiple images present in the database 172.
このような実施例では、ビークル検査システム164及び/又はオブジェクト識別システム174は、画像アナライザ122によって実行された処理済み画像160の解析結果を使用して、表示システム124上に表示を生成することができる。幾つかの実施例では、画像アナライザ122は、表示システム124上にオブジェクト168内の不整合166の表示を提供することができる。 In such an embodiment, vehicle inspection system 164 and / or object identification system 174 may use the analysis results of processed image 160 performed by image analyzer 122 to generate a display on display system 124. it can. In some embodiments, the image analyzer 122 can provide a display of the mismatch 166 in the object 168 on the display system 124.
他の実施例では、画像アナライザ122は、オブジェクト168内に不整合166が存在するかどうかの表示、オブジェクト168の特徴162の識別176、オブジェクト168の識別、及び/又は他の適切な情報を含むレポートを生成する。このレポートは、例えば、表示システム124上に表示される、クライアントにeメールされる、データベースに格納される、及び/又は他の何らかの適切な方法で管理される。 In other embodiments, the image analyzer 122 includes an indication of whether there is a mismatch 166 in the object 168, an identification 176 of the feature 162 of the object 168, an identification of the object 168, and / or other suitable information. Generate a report. This report may be displayed on the display system 124, emailed to the client, stored in a database, and / or managed in some other suitable manner, for example.
さらに、実装態様に応じて、画像処理プロセッサ120及び/又は画像アナライザ122は、表示システム124上に画像を表示するように構成される。例えば、画像処理プロセッサ120及び/又は画像アナライザ122は、表示システム124上に、画像118及び/又は処理済み画像160のいずれかを表示することができる。 Further, depending on the implementation, the image processor 120 and / or the image analyzer 122 are configured to display an image on the display system 124. For example, the image processor 120 and / or the image analyzer 122 can display either the image 118 and / or the processed image 160 on the display system 124.
図1に示す画像処理環境100は、有利な実施形態を実施できる方法に対する物理的又はアーキテクチャ的な制限を示唆することを意図していない。図示されたコンポーネントに加えて及び/又は代えて、他のコンポーネントを使用することができる。幾つかのコンポーネントは不必要になることもある。また、ブロックは、幾つかの機能的なコンポーネントを示すために提示されている。有利な実施形態において実施される場合、これらのブロックの一又は複数を、異なるブロックに統合及び/又は分割することができる。 The image processing environment 100 shown in FIG. 1 is not intended to suggest physical or architectural limitations to the manner in which advantageous embodiments may be implemented. Other components can be used in addition to and / or instead of the components shown. Some components may be unnecessary. Blocks are also presented to show some functional components. When implemented in an advantageous embodiment, one or more of these blocks can be combined and / or divided into different blocks.
例えば、幾つかの実施例では、画像アナライザ122及び画像処理プロセッサ120は異なる位置に配置されてもよい。例えば、画像処理プロセッサ120は、センサシステム104と同じプラットフォームに位置してもよく、画像アナライザ122は、センサシステム104から離れた他の何らかのプラットフォームに位置してもよい。他の実施例では、画像処理プロセッサ120及び画像アナライザ122は、コンピュータシステム105内の同じモジュール内に実装することができ。 For example, in some embodiments, the image analyzer 122 and the image processor 120 may be located at different locations. For example, the image processor 120 may be located on the same platform as the sensor system 104 and the image analyzer 122 may be located on some other platform remote from the sensor system 104. In other embodiments, the image processor 120 and the image analyzer 122 can be implemented in the same module in the computer system 105.
さらに、ビークルとして説明されているが、オブジェクト168は、任意の数の異なる形態を取ることができる。例えば、オブジェクト168は、可動プラットフォーム、固定プラットフォーム、陸上ベース構造、水上ベース構造、宇宙ベース構造、航空機、水上艦、戦車、人員運搬車、列車、宇宙船、宇宙ステーション、衛星、潜水艦、自動車、発電所、橋、ダム、製造工場、建造物、外板パネル、エンジン、ガス配管系の一区間、及び他の適切なオブジェクトから選択された1つとすることができる。 Further, although described as a vehicle, the object 168 can take any number of different forms. For example, the object 168 may be a movable platform, a fixed platform, a land base structure, a water base structure, a space base structure, an aircraft, a watership, a tank, a personnel carrier, a train, a spacecraft, a space station, a satellite, a submarine, an automobile, a power generation One selected from a station, a bridge, a dam, a manufacturing plant, a building, a skin panel, an engine, a section of a gas piping system, and other suitable objects.
次に図2を参照する。図2は、有利な一実施形態による画像処理プロセッサのブロック図である。この実施例では、画像処理プロセッサ200は、図1の画像処理プロセッサ120の一実装態様の例である。図示のように、画像処理プロセッサ200は、変換ユニット202、フィルタユニット204、逆変換ユニット206、閾値ユニット208、点拡がり関数推定器210、畳込みユニット212、及びフィーチャ除去ユニット214を含む。 Reference is now made to FIG. FIG. 2 is a block diagram of an image processor according to an advantageous embodiment. In this embodiment, the image processor 200 is an example of one implementation of the image processor 120 of FIG. As shown, the image processor 200 includes a transform unit 202, a filter unit 204, an inverse transform unit 206, a threshold unit 208, a point spread function estimator 210, a convolution unit 212, and a feature removal unit 214.
この実施例では、変換ユニット202は、センサシステム(例えば、図1のセンサシステム104)から画像216を受け取る。この実施例では、画像216はパンクロ画像218の形態をとる。さらに、画像216は空間ドメイン200内にある。空間ドメイン220は、画像216の二次元の像空間である。この実施例では、空間ドメイン220内の画像216は、関数、H(x,y)で表される。 In this example, conversion unit 202 receives image 216 from a sensor system (eg, sensor system 104 of FIG. 1). In this example, image 216 takes the form of panchromatic image 218. Further, the image 216 is in the spatial domain 200. The spatial domain 220 is a two-dimensional image space of the image 216. In this example, the image 216 in the spatial domain 220 is represented by a function, H (x, y).
画像216の関数、H(x,y)は、画像216内のピクセルのx,y位置に対する同ピクセルの値を求めるための関数である。画像216内のピクセルは行と列とに構成されている。このような実施例では、ピクセルのx位置は特定の行を識別し、y位置は特定の列を識別する。 A function H (x, y) of the image 216 is a function for obtaining the value of the pixel with respect to the x, y position of the pixel in the image 216. The pixels in image 216 are organized in rows and columns. In such an embodiment, the x position of the pixel identifies a particular row and the y position identifies a particular column.
輝点221が画像216内に現れる。輝点221は、画像216の、輝点221を取り囲む部分と比較して大きな強度を有する画像216内の小さなフィーチャである。輝点221の少なくとも一部は、画像216によって捕捉されたシーン内のグリントによって生じた輝点と、シーン内のオブジェクトのフィーチャである輝点とを区別するために十分に大きな強度を有さないことがある。画像処理プロセッサ200は、このような区別を行うために画像216を処理する。 A bright spot 221 appears in the image 216. The bright spot 221 is a small feature in the image 216 that has a greater intensity than the portion of the image 216 surrounding the bright spot 221. At least some of the bright spots 221 do not have enough intensity to distinguish bright spots caused by glint in the scene captured by the image 216 from bright spots that are features of objects in the scene. Sometimes. The image processor 200 processes the image 216 to make such a distinction.
図示のように、変換ユニット202は、画像216を空間ドメイン220から周波数ドメイン222へ変換することにより、変換済み画像224を形成する。具体的には、変換ユニット202は、画像216のフーリエ変換(FT)226を演算することにより、変換済み画像224を形成する。画像216のフーリエ変換226は、関数、H(u,v)によって表される。画像216の関数、H(u,v)は、画像216の関数、H(x,y)を周波数ドメイン222に変換したものである。 As shown, transform unit 202 forms transformed image 224 by transforming image 216 from spatial domain 220 to frequency domain 222. Specifically, the transform unit 202 forms a transformed image 224 by computing a Fourier transform (FT) 226 of the image 216. The Fourier transform 226 of the image 216 is represented by a function, H (u, v). A function of the image 216, H (u, v), is obtained by converting the function of the image 216, H (x, y), into the frequency domain 222.
このような実施例では、フィルタユニット204は、変換ユニット202から周波数ドメイン222内の変換済み画像224を受け取る。フィルタユニット204は、変換済み画像224に対してルートフィルタ228を適用することにより、フィルタ済み画像230を生成する。この実施例では、ルートフィルタ228は、パラメータ232、αを使用して、画像216のフーリエ変換226の振幅成分を、フーリエ変換226の位相成分を変化させることなく変化させる非線型フィルタである。 In such an embodiment, filter unit 204 receives transformed image 224 in frequency domain 222 from transform unit 202. The filter unit 204 generates a filtered image 230 by applying a route filter 228 to the converted image 224. In this embodiment, the root filter 228 is a non-linear filter that uses the parameters 232 and α to change the amplitude component of the Fourier transform 226 of the image 216 without changing the phase component of the Fourier transform 226.
具体的には、パラメータ232、αは、0〜1の値を有する指数である。ルートフィルタ228は、フーリエ変換226の振幅成分をパラメータ232のパワーまで上昇させる。この操作は、フーリエ変換226の振幅成分のα番目のルートを取ることに相当する。換言すると、フィルタ済み画像230は、以下の等式によって表される。
F(u,v)=|H(u,v)|a ejθ(u,v) (1)
ここで、F(u,v)はフィルタ済み画像230を表しており、|H(u,v)|は画像216のフーリエ変換226の振幅成分であり、uは周波数ドメイン222内の周波数の水平成分であり、vは周波数ドメイン222内の周波数の垂直成分であり、αは0〜1のパラメータ232であり、eは指数関数であり、θは位相角であり、jは−1の平方根である。
Specifically, the parameters 232 and α are indices having values of 0 to 1. The root filter 228 increases the amplitude component of the Fourier transform 226 to the power of the parameter 232. This operation corresponds to taking the α th route of the amplitude component of the Fourier transform 226. In other words, the filtered image 230 is represented by the following equation:
F (u, v) = | H (u, v) | a e jθ (u, v) (1)
Where F (u, v) represents the filtered image 230, | H (u, v) | is the amplitude component of the Fourier transform 226 of the image 216, and u is the horizontal frequency in the frequency domain 222. Where v is the vertical component of the frequency in the frequency domain 222, α is a parameter 232 between 0 and 1, e is an exponential function, θ is the phase angle, and j is the square root of −1. is there.
パラメータ232の値αは、変換済み画像224の高周波成分の振幅が低周波成分の振幅より増加されるように選択される。具体的には、変換済み画像224の高周波成分の振幅を、変換済み画像224の低周波成分の振幅よりも大きな幅で増大させる。幾つかの事例では、変換済み画像224内において、高周波成分の振幅を低周波成分の振幅よりも小さな幅で低減させる。 The value α of the parameter 232 is selected so that the amplitude of the high frequency component of the transformed image 224 is increased above the amplitude of the low frequency component. Specifically, the amplitude of the high frequency component of the converted image 224 is increased with a larger width than the amplitude of the low frequency component of the converted image 224. In some cases, the amplitude of the high frequency component is reduced within the transformed image 224 by a smaller width than the amplitude of the low frequency component.
フィルタユニット204によって生成されたフィルタ済み画像230は、逆変換ユニット206に送られる。逆変換ユニット206は、周波数ドメイン222内のフィルタ済み画像230の逆フーリエ変換234を演算することにより、フィルタ済み画像230を周波数ドメイン222から空間ドメイン220に戻して修正済み画像236の形態にする。 The filtered image 230 generated by the filter unit 204 is sent to the inverse transform unit 206. The inverse transform unit 206 operates the inverse Fourier transform 234 of the filtered image 230 in the frequency domain 222 to return the filtered image 230 from the frequency domain 222 back to the spatial domain 220 in the form of a modified image 236.
この実施例では、輝点238が修正済み画像236に現れる。輝点238は、画像216内の輝点221とほぼ同じである。空間ドメイン220における修正済み画像236内の輝点238は、画像216内の輝点221より大きな強度を有している。具体的には、輝点238は、画像216によって捕捉されたシーン内のグリントによって生じた輝点を、シーン内のオブジェクトのフィーチャである輝点から区別することができるような強度を有する。 In this example, bright spots 238 appear in the corrected image 236. The bright spot 238 is substantially the same as the bright spot 221 in the image 216. The bright spot 238 in the modified image 236 in the spatial domain 220 has a greater intensity than the bright spot 221 in the image 216. Specifically, the bright spot 238 has such an intensity that the bright spot caused by the glint in the scene captured by the image 216 can be distinguished from the bright spot that is a feature of the object in the scene.
図示のように、閾値ユニット208は、逆変換ユニット206から修正済み画像236を受け取る。閾値ユニット208は、修正済み画像236に閾値240、KT を適用する。具体的には、閾値240を修正済み画像236に適用すると、修正済み画像236内の、閾値240、KT 以下の値を有するピクセルは、概ねゼロ又は何らかの最小値の振幅を有するように設定され、修正済み画像236内の、閾値240、KT を上回る値を有するピクセルはそのままとされて、空間ドメイン220内に閾値適用画像242が形成される。 As shown, threshold unit 208 receives modified image 236 from inverse transform unit 206. The threshold unit 208 applies the threshold values 240 and K T to the corrected image 236. Specifically, when threshold 240 is applied to modified image 236, pixels in modified image 236 that have a value less than or equal to threshold 240, K T are set to have approximately zero or some minimum amplitude. Pixels in the modified image 236 that have a value above the threshold 240, KT are left intact, and a threshold application image 242 is formed in the spatial domain 220.
閾値240は、画像216に補足されたシーン内のグリントにより生じたすべての輝点238が識別可能となるように選択される。例えば、修正済み画像236内の、閾値240、KT を上回る値を有するピクセルは、輝点238のうちの一組の輝点244のピクセルである。本明細書で使用する「一組のアイテム」は、ゼロ個以上のアイテムを意味する。例えば、一組のアイテムは、場合によってはヌル値又は空の組でありうる。具体的には、一組の輝点244には、画像216に補足されたシーン内の輝点により生じうる輝点238のうちの輝点が含まれる。幾つかの実施例では、一組の輝点244は、一組のグリント点とも呼ばれる。 The threshold 240 is selected so that all bright spots 238 caused by glints in the scene captured by the image 216 can be identified. For example, the pixels in the modified image 236 that have a value above the threshold 240, KT are the pixels of the set of bright spots 244 of the bright spots 238. As used herein, “a set of items” means zero or more items. For example, a set of items can possibly be a null value or an empty set. Specifically, the set of bright spots 244 includes the bright spots of the bright spots 238 that can be generated by the bright spots in the scene captured by the image 216. In some embodiments, the set of bright spots 244 is also referred to as a set of glint points.
一組の輝点244は、閾値適用画像242内の一組の位置245に位置している。この実施例では、パラメータ232は、一組の輝点244のうちの1つの輝点が約1ピクセルの幅を有するように選択される。具体的には、パラメータ232は、一組の輝点244の中で最小の輝点が約1ピクセル以下を占めるように選択される。さらに、幾つかの実施例では、閾値ユニット208は、修正済み画像236に対して2つ以上の閾値を適用するように構成することができる。 The set of bright spots 244 is located at a set of positions 245 in the threshold application image 242. In this example, parameter 232 is selected such that one of the set of bright spots 244 has a width of about 1 pixel. Specifically, the parameter 232 is selected such that the smallest bright spot in the set of bright spots 244 occupies about 1 pixel or less. Further, in some embodiments, the threshold unit 208 can be configured to apply more than one threshold to the modified image 236.
畳込みユニット212は、画像216の点拡がり関数246を用いて閾値適用画像242を畳み込むことにより、空間ドメイン220内に畳込み済み画像248を生成するように構成される。この実施例では、点拡がり関数246は、点拡がり関数推定器210によって生成される。点拡がり関数246は、画像216を生成したセンサシステムの、点源又は点オブジェクトに対する応答を表している。 The convolution unit 212 is configured to generate a convolved image 248 in the spatial domain 220 by convolving the threshold application image 242 with the point spread function 246 of the image 216. In this example, point spread function 246 is generated by point spread function estimator 210. Point spread function 246 represents the response of the sensor system that generated image 216 to a point source or point object.
例えば、図1のシーン102内の点のフィーチャは、例えば、センサシステムとオブジェクトとの間の距離に基づいて、画像216内において約1ピクセルを占めるシーン内のオブジェクトのフィーチャである。しかしながら、画像216を生成するセンサシステムでは、この点のフィーチャが画像216内でぼやけ、その結果点のフィーチャが1ピクセル以上を占めることがある。点拡がり関数246は、点のフィーチャのこのようなぼけを表現している。換言すると、点拡がり関数246は、画像216を生成したシステムによる点のフィーチャのぼけを表現している。このような実施例では、点拡がり関数246は、ガウス関数、p(x,y)の形態をとることができる。 For example, a point feature in the scene 102 of FIG. 1 is a feature of an object in the scene that occupies approximately one pixel in the image 216 based on, for example, the distance between the sensor system and the object. However, in a sensor system that produces image 216, this point feature may be blurred in image 216, resulting in a point feature occupying more than one pixel. The point spread function 246 represents such blurring of point features. In other words, the point spread function 246 represents the blurring of point features by the system that generated the image 216. In such an embodiment, the point spread function 246 can take the form of a Gaussian function, p (x, y).
一実施例では、点拡がり関数推定器210は、画像216を使用して点拡がり関数246を推定する。他の実施例では、点拡がり関数推定器210は、ユーザ入力、データベース、又は他の何らかの適切なソースから点拡がり関数246を取得することができる。例えば、画像216を生成したセンサシステムのパラメータは周知であり、センサシステムの点拡がり関数246は既に規定されている。 In one embodiment, the point spread function estimator 210 uses the image 216 to estimate the point spread function 246. In other embodiments, the point spread function estimator 210 may obtain the point spread function 246 from user input, a database, or some other suitable source. For example, the parameters of the sensor system that generated the image 216 are well known, and the sensor system point spread function 246 has already been defined.
このような実施例では、畳込みユニット212は、閾値適用画像242を用いて点拡がり関数246を畳み込むことにより畳込み済み画像248を生成し、これが一組の輝点244の一組の位置245を推定することにより、最終的な輝点の組250に対する最終的な位置の組252を形成する。最終的な位置の組252に位置する最終的な輝点の組250は、画像216に対するグリントの寄与を推定する。 In such an embodiment, the convolution unit 212 generates a convolved image 248 by convolving the point spread function 246 with the threshold application image 242, which produces a set of locations 245 of a set of bright spots 244. To form a final location set 252 for the final bright spot set 250. The final bright spot set 250 located in the final position set 252 estimates the glint contribution to the image 216.
具体的には、最終的な位置の組252は、センサシステムによるぼけの影響を考慮する。換言すると、最終的な位置の組252は、画像216内の輝点221のうちの対応する輝点の位置に相当する位置である。推定される点拡がり関数246と、空間ドメイン220内の閾値適用画像242の関数との畳込みは、一方を反転させてシフトした後で、これら2つの関数の積を積分することである。 Specifically, the final set of positions 252 takes into account the effects of blurring due to the sensor system. In other words, the final set of positions 252 is a position corresponding to the position of the corresponding bright spot among the bright spots 221 in the image 216. The convolution of the estimated point spread function 246 and the threshold application image 242 function in the spatial domain 220 is to integrate the product of these two functions after inverting one and shifting.
図示のように、フィーチャ除去ユニット214は、畳込み済み画像248を受け取るように構成されている。幾つかの実施例では、フィーチャ除去ユニット214が畳込み済み画像248を受け取る前に畳込み済み画像248に利得253を適用する。このような実施例では、利得253は、画像216を生成したセンサシステムの種類、画像216内の輝点に影響しうるシーン内のグリント、及び/又は他の適切な要因を説明するように選択される。 As shown, feature removal unit 214 is configured to receive convolved image 248. In some embodiments, feature removal unit 214 applies gain 253 to convolved image 248 before receiving convolved image 248. In such an embodiment, gain 253 is selected to account for the type of sensor system that generated image 216, the glint in the scene that may affect the bright spots in image 216, and / or other suitable factors. Is done.
フィーチャ除去ユニット214は、画像216から畳込み済み画像248を減算する。換言すると、畳込み済み画像248内の最終的な輝点の組250の最終的な位置の組252に対応する画像216内の位置に位置する画像216の部分が、画像216から除去されて、処理済み画像256が形成される。このような除去は、画像216からの、望ましくないフィーチャ254の除去である。具体的には、このような除去は、画像216に補足されたシーン内のグリントにより生じる望ましくないフィーチャ254の除去である。 Feature removal unit 214 subtracts convolved image 248 from image 216. In other words, the portion of image 216 located at a position in image 216 corresponding to final position set 252 of final bright spot set 250 in convolved image 248 is removed from image 216 and A processed image 256 is formed. Such removal is removal of unwanted features 254 from image 216. Specifically, such removal is removal of undesirable features 254 caused by glint in the scene captured by image 216.
この実施例では、望ましくないフィーチャ254の除去は、最終的な輝点の組250の最終的な位置の組252に対応する位置に位置する画像216の部分のピクセル値を、ゼロ又はゼロ以外の何らかの最小値に設定することにより実行される。ゼロ以外の最小値は、画像216内の輝点221のうちの1つ点が、グリント以外の他の反射によって生じている可能性を考慮するように選択される。例えば、輝点は拡散反射によっても生じうる。 In this example, the removal of undesired features 254 may result in the pixel values of the portion of the image 216 located at a location corresponding to the final location set 252 of the final bright spot set 250 being zero or non-zero. This is done by setting it to some minimum value. A minimum value other than zero is selected to take into account the possibility that one of the bright spots 221 in the image 216 is caused by a reflection other than glint. For example, bright spots can also occur due to diffuse reflection.
画像処理プロセッサ200は、画像アナライザ(例えば、図1の画像アナライザ122)に処理済み画像256を送る。このようにして、望ましくないフィーチャ254がまだ存在している画像216ではなく、望ましくないフィーチャ254が除去された処理済み画像256に対して解析を行うことができる。処理済み画像256の解析は、画像216の解析より正確である。 Image processor 200 sends processed image 256 to an image analyzer (eg, image analyzer 122 of FIG. 1). In this way, analysis can be performed on the processed image 256 from which the undesired features 254 have been removed, rather than the image 216 in which the undesired features 254 still exist. Analysis of processed image 256 is more accurate than analysis of image 216.
図2に示す画像処理プロセッサ200は、有利な実施形態を実施できる方法に対する物理的又はアーキテクチャ的な制限を示唆することを意図していない。このような実施例では、画像処理プロセッサ200は、図示されたコンポーネントに加えて、及び/又は代えて、他の種類のコンポーネントを使用して実装されうる。さらに、図示された幾つかのコンポーネントを他のコンポーネントと組み合わせることができるか、又は機能を追加のコンポーネントにさらに分離することができる。 The image processor 200 shown in FIG. 2 is not intended to suggest physical or architectural limitations to the manner in which advantageous embodiments may be implemented. In such embodiments, image processor 200 may be implemented using other types of components in addition to and / or instead of the illustrated components. In addition, some of the illustrated components can be combined with other components, or the functionality can be further separated into additional components.
例えば、閾値ユニット208は、フィーチャ除去ユニット214の一部として実装することができる。幾つかの実施例では、変換ユニット202と逆変換ユニット206の両方によって実施される機能を実施する、双方向変換ユニットを設けてもよい。 For example, the threshold unit 208 can be implemented as part of the feature removal unit 214. In some embodiments, a bidirectional conversion unit may be provided that performs the functions performed by both the conversion unit 202 and the inverse conversion unit 206.
図3は、有利な一実施形態によるパンクロ画像を示している。パンクロ画像300は、図1の画像106及び図2のパンクロ画像218のうちの1つの一例である。パンクロ画像300は、航空機の胴体の一区画の画像である。パンクロ画像300は、グレイスケールの画像である。図示のように、輝点302がパンクロ画像300内に存在する。輝点302の少なくとも一部は、パンクロ画像300に補足されたシーン内のグリントにより生じている。輝点304は、少なくとも部分的にグリントにより生じている輝点302の1つの例である。輝点304は、パンクロ画像300内の位置306に位置している。 FIG. 3 shows a panchromatic image according to an advantageous embodiment. The panchromatic image 300 is an example of one of the image 106 in FIG. 1 and the panchromatic image 218 in FIG. The panchromatic image 300 is an image of a section of the aircraft fuselage. The panchromatic image 300 is a gray scale image. As shown, a bright spot 302 exists in the panchromatic image 300. At least a part of the bright spot 302 is caused by a glint in the scene captured by the panchromatic image 300. A bright spot 304 is an example of a bright spot 302 that is at least partially caused by glint. The bright spot 304 is located at a position 306 in the panchromatic image 300.
図4は、有利な一実施形態による閾値適用画像を示している。閾値適用画像400は、図2の閾値適用画像242の一実装態様の一例である。具体的には、閾値適用画像400は、図2の画像処理プロセッサ200によって図3のパンクロ画像300を処理した後に図2の閾値ユニット208によって生成された画像の一例である。 FIG. 4 shows a threshold application image according to an advantageous embodiment. The threshold application image 400 is an example of one implementation of the threshold application image 242 of FIG. Specifically, the threshold application image 400 is an example of an image generated by the threshold unit 208 of FIG. 2 after the panchromatic image 300 of FIG. 3 is processed by the image processor 200 of FIG.
図示のように、閾値適用画像400は、ゼロ値を有するピクセル402と、非ゼロ値を有するピクセル404とを含む白黒画像である。非ゼロ値を有するピクセル404は、閾値適用画像400内における、グリントによって生じた図3のパンクロ画像300内の輝点302の部分の位置に対応する位置を特定する。 As shown, the threshold application image 400 is a black and white image that includes pixels 402 having zero values and pixels 404 having non-zero values. A pixel 404 having a non-zero value identifies a position in the threshold application image 400 that corresponds to the position of the bright spot 302 portion in the panchromatic image 300 of FIG.
図5は、有利な一実施形態による処理済み画像を示している。処理済み画像500は、図2の処理済み画像256の一実装態様の一例である。具体的には、処理済み画像500は、図3のパンクロ画像300を処理してパンクロ画像300から望ましくないフィーチャを除去した後で図2の画像処理プロセッサ200が生成した画像の一例である。このような望ましくないフィーチャは、グリントにより生じた図3のパンクロ画像300内の輝点302部分である。 FIG. 5 illustrates a processed image according to an advantageous embodiment. The processed image 500 is an example of one implementation of the processed image 256 of FIG. Specifically, processed image 500 is an example of an image generated by image processor 200 of FIG. 2 after processing panchromatic image 300 of FIG. 3 to remove unwanted features from panchromatic image 300. Such undesirable features are bright spot 302 portions in the panchromatic image 300 of FIG. 3 caused by glint.
具体的には、パンクロ画像300の点拡がり関数を用いて図4の閾値適用画像400を畳み込むことにより、畳込み済み画像が形成される。このような畳込みは、図2の画像処理プロセッサ200内の畳込みユニット212によって実行される。図2の画像処理プロセッサ200内のフィーチャ除去ユニット214は、パンクロ画像300から畳込み済み画像を減算する事により処理済み画像500を生成する。図示のように、処理済み画像500は、グレイスケールの画像である。 Specifically, a convolved image is formed by convolving the threshold application image 400 of FIG. 4 using a point spread function of the panchromatic image 300. Such convolution is performed by a convolution unit 212 in the image processor 200 of FIG. The feature removal unit 214 in the image processor 200 of FIG. 2 generates a processed image 500 by subtracting the convolved image from the panchromatic image 300. As shown, the processed image 500 is a grayscale image.
このような実施例では、処理済み画像500内の位置502は、パンクロ画像300内の位置306に対応している。処理済み画像500に示すように、処理済み画像500内における航空機の胴体区画からのグリントの影響は、位置502においてはぼほ除去されている。具体的には、パンクロ画像300内の位置306と比較した場合、位置502におけるグリントの影響はほぼ除去されている。位置502内に残る輝度は、航空機の胴体区画からの拡散反射の影響である。 In such an embodiment, position 502 in processed image 500 corresponds to position 306 in panchromatic image 300. As shown in the processed image 500, the glint effects from the fuselage section of the aircraft in the processed image 500 have been largely eliminated at location 502. Specifically, when compared with the position 306 in the panchromatic image 300, the influence of glint at the position 502 is substantially eliminated. The luminance remaining in location 502 is the effect of diffuse reflection from the aircraft fuselage compartment.
ここで図6を参照する。図6は、有利な一実施形態による振幅スペクトルを示している。この実施例では、プロット600は、水平軸602と垂直軸604を有する。水平軸602は、1サンプル当たりの周期で示す空間周波数である。垂直軸604は振幅である。図示のように、プロット600は振幅スペクトル606と振幅スペクトル608とを含む。 Reference is now made to FIG. FIG. 6 shows an amplitude spectrum according to an advantageous embodiment. In this example, plot 600 has a horizontal axis 602 and a vertical axis 604. The horizontal axis 602 is a spatial frequency indicated by a cycle per sample. The vertical axis 604 is the amplitude. As shown, plot 600 includes an amplitude spectrum 606 and an amplitude spectrum 608.
振幅スペクトル606は、変換済み画像224(例えば、図2の変換済み画像224)の振幅成分の表現の一例である。振幅スペクトル608は、フィルタ済み画像(例えば、図2のフィルタ済み画像230)の振幅成分の表現の一例である。フィルタ済み画像は、変換済み画像224に図2のルートフィルタ228を適用した結果である。 The amplitude spectrum 606 is an example of the expression of the amplitude component of the converted image 224 (for example, the converted image 224 in FIG. 2). The amplitude spectrum 608 is an example of a representation of the amplitude component of the filtered image (eg, filtered image 230 of FIG. 2). The filtered image is a result of applying the route filter 228 of FIG. 2 to the converted image 224.
図示のように、振幅スペクトル606と振幅スペクトル608により、フィルタ済み画像230における低周波成分の振幅に対する高周波成分の振幅の比が、変換済み画像224における低周波成分の振幅に対する高周波成分の振幅の比より小さいことが示されている。換言すると、変換済み画像224にルートフィルタ228が適用されると、高周波成分の振幅が低周波成分の振幅と比較して増大する。この実施例では、ルートフィルタ228が適用されると、変換済み画像224のすべての周波数の振幅が低減する。 As illustrated, the amplitude spectrum 606 and the amplitude spectrum 608 indicate that the ratio of the high frequency component amplitude to the low frequency component amplitude in the filtered image 230 is the ratio of the high frequency component amplitude to the low frequency component amplitude in the transformed image 224. It is shown to be smaller. In other words, when the root filter 228 is applied to the converted image 224, the amplitude of the high frequency component increases compared to the amplitude of the low frequency component. In this example, when the root filter 228 is applied, the amplitude of all frequencies of the transformed image 224 is reduced.
次に図7を参照する。図7は、有利な一実施形態による、画像から望ましくないフィーチャを除去するプロセスのフロー図である。図7に示されたプロセスは、図1の画像処理環境100で実施することができる。具体的には、種々の有利な実施形態の一又は複数を図1の画像処理プロセッサ120で実施することができる。加えて、特定の実装態様によっては、図1の画像アナライザ122を使用して幾つかの工程を実施することもできる。 Reference is now made to FIG. FIG. 7 is a flow diagram of a process for removing unwanted features from an image according to an advantageous embodiment. The process illustrated in FIG. 7 may be implemented in the image processing environment 100 of FIG. In particular, one or more of the various advantageous embodiments can be implemented in the image processor 120 of FIG. In addition, depending on the particular implementation, several steps may be performed using the image analyzer 122 of FIG.
このプロセスは、センサシステムによって生成されたシーンの画像を受け取ることにより開始される(工程700)。この実施例では、センサシステムは、パンクロ画像として画像を生成する任意の数のパンクロ画像センサを含む。この実施例では、シーンの画像は空間ドメインにおいて生成される。 The process begins by receiving an image of the scene generated by the sensor system (step 700). In this embodiment, the sensor system includes any number of panchromatic image sensors that generate images as panchromatic images. In this embodiment, the scene image is generated in the spatial domain.
次に、プロセスは、画像を空間ドメインから周波数ドメインに変換することにより、変換済み画像を形成する(工程702)。具体的には、工程702では、プロセスは、空間ドメイン内の画像を周波数ドメイン内の変換済み画像に変換する画像のフーリエ変換を演算する。画像のフーリエ変換は、振幅成分と位相成分とを含む。さらに、この実施例では、フーリエ変換は、離散的フーリエ変換(DFT)又は高速フーリエ変換(FFT)とすることができる。 Next, the process forms a transformed image by transforming the image from the spatial domain to the frequency domain (step 702). Specifically, in step 702, the process computes a Fourier transform of the image that transforms the image in the spatial domain into a transformed image in the frequency domain. The Fourier transform of an image includes an amplitude component and a phase component. Further, in this embodiment, the Fourier transform can be a discrete Fourier transform (DFT) or a fast Fourier transform (FFT).
次いで、プロセスは、変換済み画像にフィルタを適用することにより、周波数ドメイン内にフィルタ済み画像を形成する(工程704)。この実施例では、工程704のフィルタはルートフィルタである。具体的には、ルートフィルタは、フーリエ変換の位相成分の位相を変化させることなく、フーリエ変換の振幅成分の振幅を拡大縮小する。ルートフィルタは、フーリエ変換の振幅成分の振幅を非線形的に拡大縮小するように構成されている。 The process then forms a filtered image in the frequency domain by applying a filter to the transformed image (step 704). In this example, the filter in step 704 is a root filter. Specifically, the root filter scales the amplitude of the amplitude component of the Fourier transform without changing the phase of the phase component of the Fourier transform. The root filter is configured to scale the amplitude of the amplitude component of the Fourier transform nonlinearly.
その後、プロセスは、フィルタ済み画像を周波数ドメインから空間ドメインに戻すことにより、修正済み画像を形成する(工程706)。工程706では、フィルタ済み画像の逆フーリエ変換を演算することにより、周波数ドメイン内のフィルタ済み画像を空間ドメイン内の修正済み画像に変換する。シーン内のグリントにより生じた修正済み画像内のすべての望ましくないフィーチャの強度は、シーンの画像内の望ましくないフィーチャの強度より増大される。換言すると、修正済み画像内のすべての望ましくないフィーチャの強度は、センサシステムによって生成された画像内の望ましくないフィーチャの強度と比較した場合、画像の他の部分に対して増強される。 The process then forms a modified image by returning the filtered image from the frequency domain to the spatial domain (step 706). In step 706, the filtered image in the frequency domain is converted to a modified image in the spatial domain by computing an inverse Fourier transform of the filtered image. The intensity of all undesired features in the modified image caused by glint in the scene is increased over the intensity of undesired features in the image of the scene. In other words, the intensity of all undesired features in the modified image is enhanced relative to other parts of the image when compared to the intensity of undesired features in the image generated by the sensor system.
次いで、プロセスは、修正済み画像に閾値を適用することにより、閾値適用画像を形成する(工程708)。工程708では、閾値を上回る値を有する修正済み画像内のピクセルが保持されて閾値適用画像が形成される。保持されるすべてのピクセルは、センサシステムによって検出されたシーン内のグリントにより生じた望ましくないフィーチャを含んでいる。具体的には、修正済み画像は、一組の輝点を含む。この輝点の組は、シーン内のグリントにより、センサシステムが生成する画像内に現れる小さなフィーチャに対応している。 The process then forms a threshold application image by applying a threshold to the modified image (step 708). In step 708, pixels in the modified image having values above the threshold are retained to form a threshold application image. All pixels that are retained contain unwanted features caused by glint in the scene detected by the sensor system. Specifically, the corrected image includes a set of bright spots. This set of bright spots corresponds to small features that appear in the image generated by the sensor system due to glint in the scene.
次に、プロセスは、画像の点拡がり関数を用いて修正済み画像を畳込むことにより、畳込み済み画像を形成する(工程710)。畳込み済み画像は、修正済み画像において識別された輝点の組に対応する一組の位置を示す。一組の位置は、センサシステムによって生成されるぼけの影響を考慮している。 Next, the process forms a convolved image by convolving the modified image using a point spread function of the image (step 710). The convolved image shows a set of positions corresponding to the set of bright spots identified in the modified image. The set of positions takes into account the effects of blur generated by the sensor system.
次いで、プロセスは、センサシステムによって生成された画像から畳込み済み画像を減算することにより、グリントによって生じたすべての望ましくないフィーチャを除去して処理済み画像を形成し(工程712)、その後終了する。工程712では、センサシステムによって生成された画像から畳込み済み画像を減算することにより、修正済み画像内の一組の輝点の一組の位置に対応する位置に位置している画像の部分がすべて除去される。 The process then removes all undesired features caused by the glint to form a processed image by subtracting the convolved image from the image generated by the sensor system (step 712) and then ends. . In step 712, the portion of the image located at a position corresponding to a set of bright spots in the corrected image is subtracted from the image generated by the sensor system. Everything is removed.
次に図8を参照する。図8は、有利な実施形態による、画像解析プロセスのフロー図である。図8に示すプロセスは、図1の画像処理環境100で実施することができる。具体的には、このプロセスは、図1の画像アナライザ122で実施される。 Reference is now made to FIG. FIG. 8 is a flow diagram of an image analysis process according to an advantageous embodiment. The process illustrated in FIG. 8 may be implemented in the image processing environment 100 of FIG. Specifically, this process is performed by the image analyzer 122 of FIG.
プロセスは、処理済み画像を受け取ることにより開始される(工程800)。この処理済み画像は、図7に記載の工程を用いて図1の画像処理プロセッサ120によって生成された画像である。具体的には、この処理済み画像は、図7の工程712において形成された処理済み画像でありうる。 The process begins by receiving a processed image (step 800). This processed image is an image generated by the image processor 120 of FIG. 1 using the process described in FIG. Specifically, this processed image can be the processed image formed in step 712 of FIG.
プロセスは、処理済み画像を解析して結果を生成する(工程802)。結果により画像内のオブジェクトに不整合の存在が示唆されるかどうかを決定する(工程804)。オブジェクトに不整合が存在する場合、プロセスは、不整合の存在の表示を生成し(工程806)、その後終了する。この表示は、表示装置上に提供されるか、eメールで送信されるか、データベースに格納されるか、又は他の何らかの適切な方法で処理される。 The process analyzes the processed image and generates a result (step 802). It is determined whether the results indicate the presence of inconsistencies in the objects in the image (step 804). If an inconsistency exists in the object, the process generates an indication of the presence of the inconsistency (step 806) and then ends. This display may be provided on a display device, emailed, stored in a database, or processed in some other suitable manner.
工程804に戻り、オブジェクトに不整合が存在しない場合、プロセスは、この不整合の存在の表示を生成し(工程808)、その後終了する。 Returning to step 804, if there is no inconsistency in the object, the process generates an indication of the presence of this inconsistency (step 808) and then ends.
工程802において実行される解析は、任意の数の異なる方法で実行することができる。例えば、解析は、処理済み画像に対して直接実行することができる。処理済み画像内のデータは、以前に撮像されたオブジェクトの他の画像と比較されてもよい。このような比較を使用して、オブジェクトに変化が生じたかどうかを決定することができる。このような変化は、オブジェクトに不整合が存在するかどうかを決定するために使用可能である。このような実施例では、不整合はオブジェクト内の望ましくない変化でありうる。 The analysis performed in step 802 can be performed in any number of different ways. For example, the analysis can be performed directly on the processed image. The data in the processed image may be compared with other images of the previously imaged object. Such a comparison can be used to determine whether an object has changed. Such a change can be used to determine if an inconsistency exists in the object. In such an embodiment, the inconsistency can be an undesirable change in the object.
次に図9を参照する。図9は、有利な実施形態による、画像解析プロセスのフロー図である。図9に示すプロセスは、図1の画像処理環境100で実施することができる。具体的には、このプロセスは、図1の画像アナライザ122で実施される。 Reference is now made to FIG. FIG. 9 is a flow diagram of an image analysis process according to an advantageous embodiment. The process shown in FIG. 9 can be implemented in the image processing environment 100 of FIG. Specifically, this process is performed by the image analyzer 122 of FIG.
プロセスは、処理済み画像を受け取ることにより開始される(工程900)。この処理済み画像は、図7に記載の工程を用いて画像処理プロセッサ120によって生成された画像である。具体的には、この処理済み画像は、図7の工程712において形成された処理済み画像でありうる。 The process begins by receiving a processed image (step 900). This processed image is an image generated by the image processor 120 using the process described in FIG. Specifically, this processed image can be the processed image formed in step 712 of FIG.
プロセスは、次いで、処理済み画像を解析することにより画像内のオブジェクトを識別する(工程902)。この解析は、任意の数の異なる方法で実行することができる。例えば、以前の画像又は他のデータのデータベースを、処理済み画像内のデータとの比較として使用することができる。このような比較に基づいて、オブジェクトの識別を行うことができる。この識別により、特定のオブジェクトが識別されるか、又は画像内のオブジェクトが未知であることが示唆される。 The process then identifies the objects in the image by analyzing the processed image (step 902). This analysis can be performed in any number of different ways. For example, a database of previous images or other data can be used as a comparison with the data in the processed image. Based on such comparison, the object can be identified. This identification suggests that a particular object is identified or that the object in the image is unknown.
次いで、プロセスは、オブジェクトの識別の表示を生成し(工程904)、その後終了する。この表示は、例えば、オブジェクトを識別するレポートである。 The process then generates an indication of the object's identity (step 904) and then ends. This display is, for example, a report for identifying an object.
次に図10を参照する。図10は、有利な実施形態によるデータ処理システムを示している。このような実施例では、データ処理システム1000を使用して、図1のコンピュータシステム105に含まれる一又は複数のコンピュータを実施することができる。この例示的な実施例では、データ処理システム1000は通信フレームワーク1002を含み、これによりプロセッサユニット1004、メモリ1006、固定記憶域1008、通信ユニット1010、入出力(I/O)ユニット1012、及び表示ユニット1014の間の通信が行われる。 Reference is now made to FIG. FIG. 10 illustrates a data processing system according to an advantageous embodiment. In such an embodiment, data processing system 1000 may be used to implement one or more computers included in computer system 105 of FIG. In this illustrative example, data processing system 1000 includes a communication framework 1002 that enables processor unit 1004, memory 1006, persistent storage 1008, communication unit 1010, input / output (I / O) unit 1012, and display. Communication between the units 1014 is performed.
プロセッサユニット1004は、メモリ1006にローディングされるソフトウェアに対する命令を実行するように働く。プロセッサユニット1004は、特定の実装態様に応じて、任意の数のプロセッサ、マルチプロセッサコア、又は他の何らかの種類のプロセッサとすることができる。本明細書でアイテムに言及して「任意の数の」というとき、一又は複数のアイテムを意味する。さらに、プロセッサユニット1004は、単一チップ上にメインプロセッサと二次プロセッサとが共存する任意の数の異種プロセッサシステムを使用して実施されてもよい。別の実施例では、プロセッサユニット1004は同種のプロセッサを複数個含む対称型マルチプロセッサシステムであってもよい。 The processor unit 1004 serves to execute instructions for software loaded into the memory 1006. The processor unit 1004 may be any number of processors, multiprocessor cores, or some other type of processor, depending on the particular implementation. References herein to an item and “an arbitrary number” refer to one or more items. Further, the processor unit 1004 may be implemented using any number of heterogeneous processor systems in which a main processor and a secondary processor coexist on a single chip. In another embodiment, the processor unit 1004 may be a symmetric multiprocessor system including a plurality of processors of the same type.
メモリ1006及び固定記憶域1008は、記憶装置1016の例である。記憶装置は、情報を一時的に及び/又は恒久的に格納できる何らかのハードウェア部分であり、この情報には、例えば、限定されないが、データ、機能的形態のプログラムコード、及び/又はその他の適切な情報が含まれる。記憶装置1016は、このような実施例では、コンピュータで読込可能な記憶デバイスとも呼ばれる。このような実施例では、メモリ1006は、例えば、ランダムアクセスメモリ又は他の何らかの適切な揮発性又は不揮発性の記憶装置であってもよい。固定記憶域1008は、特定の実装態様に応じて様々な形態をとることができる。 The memory 1006 and the fixed storage area 1008 are examples of the storage device 1016. A storage device is any piece of hardware that can store information temporarily and / or permanently, such as, but not limited to, data, functional form program code, and / or other suitable Information. The storage device 1016 is also referred to as a computer-readable storage device in such embodiments. In such an embodiment, memory 1006 may be, for example, random access memory or some other suitable volatile or non-volatile storage device. The persistent storage 1008 can take a variety of forms depending on the particular implementation.
例えば、固定記憶域1008は、一又は複数のコンポーネント又はデバイスを含みうる。例えば、固定記憶域1008は、ハードドライブ、フラッシュメモリ、書換え形光ディスク、書換え可能磁気テープ、又はそれらの何らかの組み合わせである。固定記憶域1008によって使用される媒体は、取り外し可能なものでもよい。例えば、取り外し可能なハードドライブを固定記憶域1008に使用することができる。 For example, persistent storage 1008 may include one or more components or devices. For example, persistent storage 1008 is a hard drive, flash memory, rewritable optical disk, rewritable magnetic tape, or some combination thereof. The medium used by persistent storage 1008 may be removable. For example, a removable hard drive can be used for persistent storage 1008.
このような実施例では、通信ユニット1010は、他のデータ処理システム又はデバイスとの通信を行う。このような実施例では、通信ユニット1010はネットワークインターフェースカードである。通信ユニット1010は、物理的通信リンク及び無線の通信リンクのいずれか一方又は両方を使用することによって、通信を行うことができる。 In such an embodiment, the communication unit 1010 communicates with other data processing systems or devices. In such an embodiment, the communication unit 1010 is a network interface card. The communication unit 1010 can perform communication by using one or both of a physical communication link and a wireless communication link.
入出力ユニット1012により、データ処理システム1000に接続可能な他のデバイスによるデータの入力及び出力が可能になる。例えば、入出力ユニット1012は、キーボード、マウス、及び/又は他の何らかの適切な入力装置を介してユーザ入力のための接続を提供することができる。さらに、入出力ユニット1012は、プリンタに出力を送ることができる。ディスプレイ1014は、ユーザに対して情報を表示する機構を提供する。 The input / output unit 1012 allows data input and output by other devices that can be connected to the data processing system 1000. For example, input / output unit 1012 may provide a connection for user input via a keyboard, mouse, and / or any other suitable input device. Further, the input / output unit 1012 can send output to a printer. Display 1014 provides a mechanism for displaying information to the user.
オペレーティングシステム、アプリケーション、及び/又はプログラムに対する命令は、通信フレームワーク1002を介してプロセッサユニット1004と通信する記憶装置1016内に配置されうる。このような実施例では、命令は固定記憶域1008上において機能的な形態になっている。これらの命令は、メモリ1006にローディングされてプロセッサユニット1004によって実行される。種々の実施形態のプロセスは、メモリ(例えば、メモリ1006)に配置される、コンピュータで実施される命令を使用して、プロセッサユニット1004によって実行されうる。 Instructions for the operating system, applications, and / or programs may be located in the storage device 1016 that communicates with the processor unit 1004 via the communication framework 1002. In such an embodiment, the instructions are in functional form on persistent storage 1008. These instructions are loaded into the memory 1006 and executed by the processor unit 1004. The processes of various embodiments may be performed by processor unit 1004 using computer-implemented instructions located in memory (eg, memory 1006).
これらの命令は、プログラムコード、コンピュータで使用可能なプログラムコード、又はコンピュータで読込可能なプログラムコードと呼ばれ、プロセッサユニット1004内の1つのプロセッサによって読込まれて実行されうる。種々の実施形態のプログラムコードは、様々な物理的記憶媒体又はコンピュータで読込可能な記憶媒体(例えば、メモリ1006又は固定記憶域1008)上に具現化されうる。 These instructions are called program code, computer usable program code, or computer readable program code, and may be read and executed by one processor in processor unit 1004. The program code of the various embodiments may be embodied on various physical storage media or computer readable storage media (eg, memory 1006 or persistent storage 1008).
プログラムコード1018は、選択的に取り外し可能なコンピュータで読込可能な媒体1020上に機能的な形態で配置され、データ処理システム1000にローディング又は転送されて、プロセッサユニット1004によって実行される。プログラムコード1018及びコンピュータで読込可能な媒体1020は、このような実施例ではコンピュータプログラム製品1022を形成する。一実施例では、コンピュータで読込可能な媒体1020は、コンピュータで読込可能な記憶媒体1024又はコンピュータで読込可能な信号媒体1026である。 Program code 1018 is placed in a functional form on a selectively removable computer readable medium 1020, loaded or transferred to data processing system 1000 and executed by processor unit 1004. Program code 1018 and computer readable media 1020 form computer program product 1022 in these examples. In one embodiment, computer readable medium 1020 is a computer readable storage medium 1024 or a computer readable signal medium 1026.
コンピュータで読込可能な記憶媒体1024は、例えば、固定記憶域1008の一部であるドライブ又は他のデバイスに挿入又は配置されて、固定記憶域1008の一部である、ハードディスなどの記憶装置上に転送される光ディスク又は磁気ディスクなどを含みうる。コンピュータで読込可能な記憶媒体1024は、データ処理システム1000に接続されているハードドライブ、サムドライブ、又はフラッシュメモリなどの固定記憶域の形態もとりうる。幾つかの例では、コンピュータで読込可能な記憶媒体1024は、データ処理システム1000から着脱可能でなくともよい。 The computer-readable storage medium 1024 is inserted or arranged in a drive or other device that is a part of the fixed storage area 1008, for example, on a storage device such as a hard disk that is a part of the fixed storage area 1008. It may include an optical disk or a magnetic disk to be transferred. The computer readable storage medium 1024 may take the form of a fixed storage area such as a hard drive, a thumb drive, or a flash memory connected to the data processing system 1000. In some examples, computer readable storage media 1024 may not be removable from data processing system 1000.
このような実施例では、コンピュータで読込可能な記憶媒体1024は、プログラムコード1018を伝搬又は転送する媒体ではなくプログラムコード1018を保存するために使用される物理的な又は有形の記憶装置である。コンピュータで読込可能な記憶媒体1024は、コンピュータで読込可能な有形の記憶装置又はコンピュータで読込可能な物理的な記憶装置とも呼ばれる。換言すると、コンピュータで読込可能な記憶媒体1024は、人が触れることのできる媒体である。 In such embodiments, computer readable storage medium 1024 is a physical or tangible storage device that is used to store program code 1018 rather than a medium that propagates or transfers program code 1018. The computer-readable storage medium 1024 is also called a tangible storage device that can be read by a computer or a physical storage device that can be read by a computer. In other words, the computer-readable storage medium 1024 is a medium that can be touched by a person.
代替的に、プログラムコード1018は、コンピュータで読込可能な信号媒体1026を用いてデータ処理シスム1000に転送可能である。コンピュータで読込可能な信号媒体1026は、例えば、プログラムコード1018を含む伝播されたデータ信号であってもよい。例えば、コンピュータで読込可能な信号媒体1026は、電磁信号、光信号、及び/又は他のいずれかの適切な種類の信号であってもよい。これらの信号は、無線通信リンク、光ファイバケーブル、同軸ケーブル、有線、及び/又は他のいずれかの適切な種類の通信リンクといった通信リンクによって転送される。換言すると、本発明の実施例では、通信リンク及び/又は接続は物理的なもの又は無線によるものでありうる。 Alternatively, program code 1018 can be transferred to data processing system 1000 using a computer readable signal medium 1026. The computer readable signal medium 1026 may be, for example, a propagated data signal that includes program code 1018. For example, computer readable signal media 1026 may be an electromagnetic signal, an optical signal, and / or any other suitable type of signal. These signals are transferred over a communication link such as a wireless communication link, fiber optic cable, coaxial cable, wired, and / or any other suitable type of communication link. In other words, in an embodiment of the present invention, the communication link and / or connection may be physical or wireless.
幾つかの有利な実施形態では、プログラムコード1018は、コンピュータで読込可能な信号媒体1026により他のデバイス又はデータ処理システムからネットワークを介して固定記憶域1008にダウンロードされて、データ処理システム1000内で使用される。例えば、サーバーデータ処理システムのコンピュータで読込可能な記憶媒体に格納されたプログラムコードは、ネットワークを介してサーバーからデータ処理システム1000にダウンロードすることができる。プログラムコード1018を提供するデータ処理システムは、サーバーコンピュータ、クライアントコンピュータ、又はグラムコード1018を保存及び転送することができる他の何らかのデバイスであってもよい。 In some advantageous embodiments, the program code 1018 is downloaded from another device or data processing system over a network to the persistent storage 1008 via a computer readable signal medium 1026 and stored in the data processing system 1000. used. For example, program code stored in a storage medium readable by a computer of the server data processing system can be downloaded from the server to the data processing system 1000 via a network. The data processing system providing program code 1018 may be a server computer, a client computer, or some other device capable of storing and transferring gram code 1018.
データ処理システム1000に例示されている種々のコンポーネントは、種々の実施形態を実施できる方法をアーキテクチャ的に制限するものではない。種々の有利な実施形態を、データ処理システム1000に図解されているコンポーネントに追加の又はその代わりのコンポーネントを含むデータ処理システム内において実施することができる。図10に示す他のコンポーネントは、図示の実施例から変更することができる。種々の実施形態は、プログラムコードを実行できる任意のハードウェアデバイス又はシステムを使用して実施することができる。一実施例として、データ処理システムは、無機コンポーネントと一体化した有機コンポーネントを含むことができる、及び/又は全体を人間を除く有機コンポーネントで構成することができる。例えば、記憶装置は、有機半導体で構成することができる。 The various components illustrated in data processing system 1000 are not architecturally limited in how various embodiments can be implemented. Various advantageous embodiments may be implemented in a data processing system that includes components in addition to or in place of those illustrated in data processing system 1000. Other components shown in FIG. 10 can be modified from the illustrated embodiment. Various embodiments may be implemented using any hardware device or system capable of executing program code. As an example, the data processing system can include an organic component integrated with an inorganic component and / or can consist entirely of organic components excluding humans. For example, the storage device can be formed of an organic semiconductor.
別の実施例では、プロセッサユニット1004は、特定の用途のために製造又は構成された回路を有するハードウェアユニットの形態をとってもよい。この種のハードウェアは、工程を実行するように構成された記憶装置からメモリにプログラムコードをローディングする必要なく、工程を実施することができる。 In another embodiment, processor unit 1004 may take the form of a hardware unit having circuitry that is manufactured or configured for a particular application. This type of hardware can perform a process without having to load program code into memory from a storage device configured to perform the process.
例えば、プロセッサユニット1004がハードウェアユニットの形態をとる場合、プロセッサユニット1004は、回路システム、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス、又は任意の数の工程を実行する他の何らかの適切な種類のハードウェアであってもよい。プログラマブルロジックデバイスの場合、このデバイスは任意の数の工程を実行する。このデバイスは、その後再構成することも、又は任意の数の工程を実行するように恒久的に構成することもできる。プログラマブルロジックデバイスの例には、例えば、プログラマブルロジックアレイ、フィールドプログラマブルロジックアレイ、フィールドプログラマブルゲートアレイ、及び他の適切なハードウェアデバイスが含まれる。この種の実装態様では、種々の実施形態のプロセスがハードウェア装置で実施されるため、プログラムコード1018は省略されてもよい。 For example, if the processor unit 1004 takes the form of a hardware unit, the processor unit 1004 may be a circuit system, an application specific integrated circuit (ASIC), a programmable logic device, or some other suitable performing any number of steps. It may be a kind of hardware. In the case of a programmable logic device, the device performs any number of steps. The device can then be reconfigured or can be permanently configured to perform any number of steps. Examples of programmable logic devices include, for example, programmable logic arrays, field programmable logic arrays, field programmable gate arrays, and other suitable hardware devices. In this type of implementation, the program code 1018 may be omitted because the processes of the various embodiments are implemented on a hardware device.
さらに別の実施例では、プロセッサユニット1004は、コンピュータ及びハードウェアユニットの中に見出されるプロセッサの組み合わせを利用して実施することができる。プロセッサユニット1004は、プログラムコード1018を実行するように構成された任意の数のハードウェアユニット及び任意の数のプロセッサを有することができる。この実施例では、プロセスの幾つかは、任意の数のハードウェアユニットにおいて実施することができ、他のプロセスは任意の数のプロセッサで実施することができる。 In yet another embodiment, processor unit 1004 may be implemented utilizing a combination of processors found in computers and hardware units. The processor unit 1004 may have any number of hardware units and any number of processors configured to execute the program code 1018. In this example, some of the processes can be performed on any number of hardware units, and other processes can be performed on any number of processors.
別の実施例では、バスシステムは、通信フレームワーク1002を実施するために使用することができ、システムバス又は入出力バスといった一又は複数のバスから構成することができる。言うまでもなく、バスシステムは、バスシステムに取り付けられた種々のコンポーネント又はデバイスの間でのデータ伝送を行う任意の適切な種類のアーキテクチャを使用して実施することができる。 In another embodiment, the bus system can be used to implement the communication framework 1002 and can consist of one or more buses, such as a system bus or an input / output bus. Of course, the bus system may be implemented using any suitable type of architecture that provides data transmission between various components or devices attached to the bus system.
加えて、通信ユニットは、データの送信、データの受信、又はデータの送受信を行う任意の数のデバイスを含みうる。通信ユニットは、例えば、モデム又はネットワークアダプタ、2個のネットワークアダプタ、又はこれらの何らかの組み合わせであってもよい。さらに、メモリは、例えば、通信フレームワーク1002内に存在することがあるインターフェース及びメモリコントローラハブに見られるような、メモリ1006又はキャッシュであってもよい。 In addition, a communication unit may include any number of devices that transmit data, receive data, or transmit and receive data. The communication unit may be, for example, a modem or network adapter, two network adapters, or some combination thereof. Further, the memory may be, for example, memory 1006 or a cache, such as found in interfaces and memory controller hubs that may exist within the communication framework 1002.
したがって、種々の有利な実施形態により、グリントによって生じた望ましくないフィーチャを画像から除去するための方法と装置が提供される。種々の有利な実施形態では、望ましくないフィーチャとは、画像解析の困難性を増す、及び/又は画像解析にかかる時間を引き伸ばすフィーチャである。 Accordingly, various advantageous embodiments provide a method and apparatus for removing undesirable features caused by glints from an image. In various advantageous embodiments, undesired features are features that increase the difficulty of image analysis and / or increase the time taken for image analysis.
有利な一実施形態では、画像内の望ましくないフィーチャを除去する方法が提供される。画像を空間ドメインから周波数ドメインに変換することにより、変換済み画像を形成する。変換済み画像にフィルタを適用することにより、周波数ドメイン内にフィルタ済み画像を形成する。フィルタ済み画像を周波数ドメインから空間ドメインに戻すことにより、修正済み画像を形成する。修正済み画像における望ましくないフィーチャの強度は、元の画像内の望ましくないフィーチャの強度より増大している。修正済み画像を用いることにより、画像から望ましくないフィーチャを除去して処理済み画像を形成する。 In one advantageous embodiment, a method for removing unwanted features in an image is provided. A transformed image is formed by transforming the image from the spatial domain to the frequency domain. A filtered image is formed in the frequency domain by applying a filter to the transformed image. A modified image is formed by returning the filtered image from the frequency domain to the spatial domain. The intensity of undesired features in the modified image is greater than the intensity of undesired features in the original image. By using the modified image, unwanted features are removed from the image to form a processed image.
上述した種々の有利な実施形態の説明は、例示及び説明を目的とするものであり、完全な説明であること、又はこれらの実施形態を開示された形態に限定することを意図していない。当業者には、多数の修正例及び変形例が明らかであろう。さらに、種々の有利な実施形態は、他の有利な実施形態とは異なる利点を提供することができる。選択された一又は複数の実施形態は、実施形態の原理、実際の用途を最もよく説明するため、及び他の当業者に対し、様々な実施形態の開示内容と、考慮される特定の用途に適した様々な修正との理解を促すために選択及び記述されている。
また、本発明は以下に記載する態様を含む。
(態様1)
画像内の望ましくないフィーチャ126を除去する方法であって、
画像を空間ドメイン136から周波数ドメイン138に変換することにより、変換済み画像140を形成するステップ、
変換済み画像140にフィルタ152を適用することにより、周波数ドメイン138内にフィルタ済み画像154を形成するステップ、
フィルタ済み画像154を周波数ドメイン138から空間ドメイン136に戻すことにより、修正済み画像156を形成するステップであって、修正済み画像156内の望ましくないフィーチャ126の強度が、元の画像内の望ましくないフィーチャ126の強度と比較して増大しているステップ、並びに
修正済み画像156を用いて画像から望ましくないフィーチャ126を除去することにより、処理済み画像160を形成するステップ
を含む方法。
(態様2)
画像を空間ドメイン136から周波数ドメイン138に変換することにより、変換済み画像140を形成するステップが、
画像を空間ドメイン136から周波数ドメイン138内の変換済み画像140に変換する画像のフーリエ変換142を演算するステップ
を含む、態様1に記載の方法。
(態様3)
変換済み画像140にフィルタ152を適用することにより、周波数ドメイン138内にフィルタ済み画像154を形成するステップが、
画像のフーリエ変換142の位相成分146を変化させずに画像のフーリエ変換142の振幅成分144を変化させることにより、フィルタ済み画像154を形成するステップを含む、
態様2に記載の方法。
(態様4)
画像のフーリエ変換142の位相成分146を変化させずに画像のフーリエ変換142の振幅成分144を変化させることにより、フィルタ済み画像154を形成するステップが、
ルートフィルタ228を使用して、フーリエ変換142の位相成分146の位相に影響を与えることなく画像のフーリエ変換142の振幅成分144の振幅を拡大縮小することにより、フィルタ済み画像154を形成するステップであって、ルートフィルタ228が非線型的に振幅を拡大縮小するステップを含む、
態様3に記載の方法。
(態様5)
フィルタ済み画像154を周波数ドメイン138から空間ドメイン136に戻すことにより、修正済み画像156を形成するステップが、
フィルタ済み画像154を周波数ドメイン138から空間ドメイン136に変換するフィルタ済み画像154の逆フーリエ変換142を演算するステップであって、修正済み画像156内の望ましくないフィーチャ126の強度が、元の画像内の望ましくないフィーチャ126の強度と比較して増大するステップを含む、
態様1に記載の方法。
(態様6)
修正済み画像156を用いて画像から望ましくないフィーチャ126を除去することにより、処理済み画像160を形成するステップが、
修正済み画像156に閾値240を適用して、閾値240を上回る値を有する修正済み画像156内のピクセルを保持することにより、閾値適用画像242を形成するステップ、
修正済み画像156を、画像の点拡がり関数246を用いて畳込むことにより、畳込み済み画像を形成するステップであって、畳込み済み画像により、元の画像内の望ましくないフィーチャ126の第2の位置158に対応する畳込み画像内の望ましくないフィーチャ126の第1の位置158が示されるステップ、並びに
画像から畳込み済み画像248を減算することにより、処理済み画像160を形成するステップであって、画像内の望ましくないフィーチャ126の第2の位置158における画像部分が画像から除去されることにより、望ましくないフィーチャ126が除去されるステップ
を含む、態様1に記載の方法。
(態様7)
ビークル検査システムであって、
ビークルの画像106を生成するように構成されたセンサシステム104、
センサシステム104から画像を受け取り;画像を空間ドメイン136から周波数ドメイン138に変換することにより変換済み画像140を形成し;変換済み画像140にフィルタ152を適用することにより周波数ドメイン138内にフィルタ済み画像154を形成し;フィルタ済み画像154を周波数ドメイン138から空間ドメイン136に戻すことにより修正済み画像156を形成し、このとき修正済み画像156内の望ましくないフィーチャ126の強度が元の画像内の望ましくないフィーチャ126の強度と比較して増大しており;且つ処理済み画像156を用いて画像から望ましくないフィーチャ126を除去することにより処理済み画像160を形成するように構成された画像処理プロセッサ120、並びに
処理済み画像160を解析してビークル内に不整合が存在するかどうかを決定するように構成された画像アナライザ122
を備えるビークル検査システム。
(態様8)
処理済み画像160を解析して不整合が存在するかどうかを決定するうえで、画像アナライザ122は、処理済み画像160をビークルの別の画像と比較することにより比較スペクトルを形成し;比較スペクトルを用いて不整合が存在するかどうかを決定する、態様7に記載のビークル検査システム。
The descriptions of the various advantageous embodiments described above are for purposes of illustration and description, and are not intended to be exhaustive or limited to the embodiments disclosed. Many modifications and variations will be apparent to practitioners skilled in this art. Furthermore, the various advantageous embodiments may provide different advantages than the other advantageous embodiments. The selected embodiment (s) are intended to best explain the principles of the embodiments, practical applications, and to others skilled in the art in terms of the disclosure of the various embodiments and the specific applications considered. Selected and described to facilitate understanding of various suitable modifications.
Moreover, this invention includes the aspect described below.
(Aspect 1)
A method of removing undesirable features 126 in an image comprising:
Forming a transformed image 140 by transforming the image from the spatial domain 136 to the frequency domain 138;
Forming a filtered image 154 in the frequency domain 138 by applying a filter 152 to the transformed image 140;
Returning the filtered image 154 from the frequency domain 138 to the spatial domain 136 to form a modified image 156 where the intensity of the unwanted feature 126 in the modified image 156 is undesirable in the original image. Increasing steps compared to the strength of the feature 126; and
Forming processed image 160 by removing unwanted features 126 from the image using modified image 156
Including methods.
(Aspect 2)
Forming the transformed image 140 by transforming the image from the spatial domain 136 to the frequency domain 138;
Computing a Fourier transform 142 of the image that transforms the image from the spatial domain 136 to the transformed image 140 in the frequency domain 138;
A method according to aspect 1, comprising:
(Aspect 3)
Forming a filtered image 154 in the frequency domain 138 by applying a filter 152 to the transformed image 140;
Forming a filtered image 154 by changing the amplitude component 144 of the image Fourier transform 142 without changing the phase component 146 of the image Fourier transform 142;
A method according to embodiment 2.
(Aspect 4)
Forming the filtered image 154 by changing the amplitude component 144 of the image Fourier transform 142 without changing the phase component 146 of the image Fourier transform 142;
In the step of forming a filtered image 154 by using the root filter 228 to scale the amplitude of the amplitude component 144 of the Fourier transform 142 of the image without affecting the phase of the phase component 146 of the Fourier transform 142. The route filter 228 includes scaling the amplitude nonlinearly;
A method according to aspect 3.
(Aspect 5)
Forming the modified image 156 by returning the filtered image 154 from the frequency domain 138 to the spatial domain 136;
Computing an inverse Fourier transform 142 of the filtered image 154 that transforms the filtered image 154 from the frequency domain 138 to the spatial domain 136, wherein the intensity of the undesired features 126 in the modified image 156 Increasing compared to the intensity of the undesired feature 126 of
A method according to aspect 1.
(Aspect 6)
Forming processed image 160 by removing undesirable features 126 from the image using modified image 156 includes the steps of:
Forming a threshold application image 242 by applying a threshold 240 to the modified image 156 and retaining pixels in the modified image 156 having a value above the threshold 240;
Convolution of the modified image 156 with the image point spread function 246 to form a convolved image, wherein the convolved image causes the second of the undesired features 126 in the original image to be The first position 158 of the undesired feature 126 in the convolved image corresponding to the position 158 is indicated, and
Subtracting the convolved image 248 from the image to form a processed image 160, wherein the image portion at the second position 158 of the undesired feature 126 in the image is removed from the image, Step of removing unwanted features 126
A method according to aspect 1, comprising:
(Aspect 7)
A vehicle inspection system,
A sensor system 104 configured to generate an image 106 of the vehicle;
Receiving an image from the sensor system 104; forming a transformed image 140 by transforming the image from the spatial domain 136 to the frequency domain 138; applying a filter 152 to the transformed image 140 to filter the image in the frequency domain 138 A modified image 156 is formed by returning the filtered image 154 from the frequency domain 138 back to the spatial domain 136, where the intensity of the undesired feature 126 in the modified image 156 is desirable in the original image. An image processor 120 configured to form a processed image 160 by removing the undesired features 126 from the image using the processed image 156; And
An image analyzer 122 configured to analyze the processed image 160 to determine if a mismatch exists in the vehicle.
Vehicle inspection system with
(Aspect 8)
In analyzing the processed image 160 to determine if a mismatch exists, the image analyzer 122 forms a comparison spectrum by comparing the processed image 160 with another image of the vehicle; 8. The vehicle inspection system of aspect 7, wherein the vehicle inspection system is used to determine whether a mismatch exists.
Claims (7)
前記画像を空間ドメイン(136)から周波数ドメイン(138)に変換することにより、変換済み画像(140)を形成するステップ、
変換済み画像(140)にフィルタ(152)を適用することにより、周波数ドメイン(138)のフィルタ済み画像(154)を形成するステップ、
フィルタ済み画像(154)を周波数ドメイン(138)から空間ドメイン(136)に再変換して、修正済み画像(156)を形成するステップであって、修正済み画像(156)内の望ましくないフィーチャ(126)の強度が、前記画像内の望ましくないフィーチャ(126)の強度と比較して増大している、ステップ、並びに
前記画像から望ましくないフィーチャ(126)を除去するステップ、
を含み、
望ましくないフィーチャ(126)を除去するステップが、
修正済み画像(156)に閾値(240)を適用して、閾値(240)を上回る値を有する修正済み画像(156)内のピクセルを保持することにより、閾値適用画像(242)を形成するステップ、
閾値適用画像(242)を、画像の点拡がり関数(246)を用いて畳込むことにより、畳込み済み画像(248)を形成するステップであって、畳込み済み画像(248)が、前記画像内の望ましくないフィーチャ(126)の第2の位置に対応する、畳込み済み画像(248)内の望ましくないフィーチャ(126)の第1の位置を示す、ステップ、並びに
前記画像から畳込み済み画像(248)を減算することにより、処理済み画像(160)を形成するステップであって、前記画像内の望ましくないフィーチャ(126)の前記第2の位置における画像部分が前記画像から除去されることにより、望ましくないフィーチャ(126)が除去されるステップ
を含む、方法。 A method for removing undesirable features ( 126 ) in an image comprising:
By converting the image into the frequency domain (138) from the spatial domain (136), forming a transformed image (140),
Forming a filtered image ( 154 ) in the frequency domain ( 138 ) by applying a filter ( 152 ) to the transformed image ( 140 ) ;
The filtered image (154) and then re-converted to the spatial domain (136) from the frequency domain (138), comprising the steps of forming a modified image (156), undesirable features of the modified image (156) in ( strength of 126), is increased compared with the strength of undesirable features in the image (126), the step, and
Step of removing the feature (126) undesired from the image,
Only including,
Removing unwanted features (126) comprises:
Applying a threshold (240) to the modified image (156) to form a threshold application image (242) by retaining pixels in the modified image (156) having a value above the threshold (240). ,
A step of forming a convolved image (248) by convolving the threshold application image (242) using a point spread function (246) of the image, wherein the convolved image (248) is the image Indicating a first position of the undesired feature (126) in the convolved image (248) corresponding to a second position of the undesired feature (126) in, and
Subtracting the convolved image (248) from the image to form a processed image (160), wherein the image portion at the second location of the undesired features (126) in the image is Removing undesired features (126) by removal from the image
Including a method.
前記画像を空間ドメイン(136)から周波数ドメイン(138)内の変換済み画像(140)に変換する前記画像のフーリエ変換(142)を演算するステップ
を含む、請求項1に記載の方法。 By converting the image into the frequency domain (138) from the spatial domain (136), the step of forming a transformed image (140),
Comprising the step of calculating a Fourier transform (142) of the image to convert the image from the spatial domain (136) to the transformed image (140) in the frequency domain (138), The method of claim 1.
前記画像のフーリエ変換(142)の位相成分(146)を変化させずに前記画像のフーリエ変換(142)の振幅成分(144)を変化させることにより、フィルタ済み画像(154)を形成するステップを含む、
請求項2に記載の方法。 Forming a filtered image ( 154 ) in the frequency domain ( 138 ) by applying a filter ( 152 ) to the transformed image ( 140 ) ;
By changing the amplitude component (144) of the Fourier transform of the image without changing the phase component (146) (142) of the Fourier transform of the image (142), forming a filtered image (154) Including,
The method of claim 2.
ルートフィルタ(228)を使用して、フーリエ変換(142)の位相成分(146)の位相に影響を与えることなく前記画像のフーリエ変換(142)の振幅成分(144)の振幅を拡大縮小することにより、フィルタ済み画像(154)を形成するステップであって、ルートフィルタ(228)が非線型的に振幅を拡大縮小するステップを含む、
請求項3に記載の方法。 By changing the amplitude component (144) of the Fourier transform of the image without changing the phase component (146) (142) of the Fourier transform of the image (142), the step of forming the filtered image (154) ,
With root filter (228), to scale the amplitude of the amplitude component (144) of the Fourier transform of the image without affecting the phase of the phase component (146) (142) of the Fourier transform (142) To form a filtered image ( 154 ) , the root filter ( 228 ) non-linearly scaling the amplitude,
The method of claim 3.
フィルタ済み画像(154)を周波数ドメイン(138)から空間ドメイン(136)に変換するフィルタ済み画像(154)の逆フーリエ変換(142)を演算するステップであって、修正済み画像(156)内の望ましくないフィーチャ(126)の強度が、前記画像内の望ましくないフィーチャ(126)の強度と比較して増大するステップを含む、
請求項1に記載の方法。 Forming the modified image ( 156 ) by re-transforming the filtered image ( 154 ) from the frequency domain ( 138 ) to the spatial domain ( 136 ) ,
Computing an inverse Fourier transform ( 142 ) of the filtered image ( 154 ) that transforms the filtered image ( 154 ) from the frequency domain ( 138 ) to the spatial domain ( 136 ) , in the modified image ( 156 ) intensity of undesirable features (126) comprises a step of increase compared to the intensity of the undesirable features (126) in said image,
The method of claim 1.
ビークルの画像(106)を生成するように構成されたセンサシステム(104)、
センサシステム(104)から画像を受け取り;画像を空間ドメイン(136)から周波数ドメイン(138)に変換することにより変換済み画像(140)を形成し;変換済み画像(140)にフィルタ(152)を適用することにより周波数ドメイン(138)内にフィルタ済み画像(154)を形成し;フィルタ済み画像(154)を周波数ドメイン(138)から空間ドメイン(136)に再変換することにより修正済み画像(156)を形成し、このとき修正済み画像(156)内の望ましくないフィーチャ(126)の強度が前記画像内の望ましくないフィーチャ(126)の強度と比較して増大しており;且つ前記画像から望ましくないフィーチャ(126)を除去するように構成された画像処理プロセッサ(120)であって、修正済み画像(156)を用いて前記画像から望ましくないフィーチャ(126)を除去して処理済み画像(160)を形成するように構成された画像処理プロセッサ(120)、
コンピュータシステム(105)であって、
修正済み画像(156)に閾値(240)を適用して、閾値(240)を上回る値を有する修正済み画像(156)内のピクセルを保持することにより、閾値適用画像(242)を形成し、
閾値適用画像(242)を、前記画像の点拡がり関数(246)を用いて畳込むことにより、畳込み済み画像(248)を形成し、畳込み済み画像(248)が、前記画像内の望ましくないフィーチャ(126)の第2の位置に対応する、畳込み済み画像(248)内の望ましくないフィーチャ(126)の第1の位置を示し、並びに
前記画像から畳込み済み画像(248)を減算することにより、処理済み画像(160)を形成し、前記画像内の望ましくないフィーチャ(126)の前記第2の位置における画像部分が前記画像から除去されることにより、望ましくないフィーチャ(126)が除去されるように構成されたコンピュータシステム(105)、並びに
処理済み画像(160)を解析してビークル内に不整合が存在するかどうかを決定するように構成された画像アナライザ(122)
を備えるビークル検査システム。 A vehicle inspection system,
Configured sensor system to generate a vehicle image (106) (104),
Receiving an image from the sensor system ( 104 ) ; forming the transformed image ( 140 ) by transforming the image from the spatial domain ( 136 ) to the frequency domain ( 138 ); and applying a filter ( 152 ) to the transformed image ( 140 ) to form a filtered image (154) in the frequency domain (138) within by application to; corrected image by re-converting the filtered image (154) in the spatial domain (136) from the frequency domain (138) (156 preferably from and said image;) is formed, the strength is increased compared with the unwanted feature intensity in the image of the undesirable features in this case modified image (156) (126) (126) is by Uni configured to remove free features (126) image processing pro A Tsu service (120), corrected image (156) image processor (120 configured to form a removed to the processed image (160) features (126) undesired from the image by using the ),
A computer system (105) comprising:
Forming a threshold application image (242) by applying a threshold (240) to the modified image (156) and retaining pixels in the modified image (156) having a value above the threshold (240);
The threshold application image (242) is convolved with the image point spread function (246) to form a convolved image (248), wherein the convolved image (248) is preferably within the image. Indicating a first location of the undesired feature (126) in the convolved image (248) corresponding to a second location of the missing feature (126), and
Subtracting the convolved image (248) from the image forms a processed image (160), and image portions at the second location of undesirable features (126) in the image are removed from the image. The computer system (105) configured to remove undesirable features (126), as well as the processed image ( 160 ) to determine if a mismatch exists in the vehicle. Image analyzer configured as ( 122 )
Vehicle inspection system with
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/243,053 US8559753B2 (en) | 2011-09-23 | 2011-09-23 | Reflection removal system |
US13/243,053 | 2011-09-23 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013069288A JP2013069288A (en) | 2013-04-18 |
JP2013069288A5 JP2013069288A5 (en) | 2015-11-12 |
JP6016552B2 true JP6016552B2 (en) | 2016-10-26 |
Family
ID=46875689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012207879A Active JP6016552B2 (en) | 2011-09-23 | 2012-09-21 | Antireflection system |
Country Status (6)
Country | Link |
---|---|
US (1) | US8559753B2 (en) |
EP (1) | EP2573732B1 (en) |
JP (1) | JP6016552B2 (en) |
CN (1) | CN103020904B (en) |
AU (1) | AU2012211359B8 (en) |
CA (1) | CA2783900C (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012209514A1 (en) * | 2011-06-17 | 2013-01-03 | Robert Bosch Gmbh | Method and device for detecting a visual impairment of a disc |
US9536345B2 (en) * | 2012-12-26 | 2017-01-03 | Intel Corporation | Apparatus for enhancement of 3-D images using depth mapping and light source synthesis |
US9679522B2 (en) * | 2015-01-23 | 2017-06-13 | Abl Ip Holdings Llc | Frequency domain processing of image used to drive multi-pixel lighting device output |
JP7181202B2 (en) | 2016-12-20 | 2022-11-30 | フォルシア イリステック インコーポレイテッド | System and method for correction of reflections on display devices |
EP3427664A1 (en) * | 2017-07-13 | 2019-01-16 | Koninklijke Philips N.V. | A device for scatter correction in an x-ray image and a method for scatter correction in an xray image |
US10825157B2 (en) * | 2017-09-29 | 2020-11-03 | Apple Inc. | Glare reduction in captured images |
CN108052957B (en) * | 2017-11-07 | 2021-09-14 | 聊城大学 | Spacecraft target rapid identification method |
CN107818552A (en) * | 2017-11-17 | 2018-03-20 | 电子科技大学 | A kind of binocular image goes reflective method |
US10643329B2 (en) * | 2018-04-09 | 2020-05-05 | The Boeing Company | Automated paint quality control for aircraft |
JP2022509034A (en) * | 2018-11-07 | 2022-01-20 | スペクトル オプティックス インコーポレイテッド | Bright spot removal using a neural network |
JP7259676B2 (en) * | 2019-09-20 | 2023-04-18 | 株式会社デンソーテン | Attached matter detection device and attached matter detection method |
CN111882495B (en) * | 2020-07-05 | 2022-08-02 | 东北林业大学 | Image highlight processing method based on user-defined fuzzy logic and GAN |
US12039789B2 (en) * | 2021-06-09 | 2024-07-16 | Magna Electronics, Llc | System and method to detect proper seatbelt usage and distance |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4863268A (en) * | 1984-02-14 | 1989-09-05 | Diffracto Ltd. | Diffractosight improvements |
JP2976869B2 (en) * | 1995-12-28 | 1999-11-10 | 日産自動車株式会社 | Surface defect inspection equipment |
US5686987A (en) * | 1995-12-29 | 1997-11-11 | Orfield Associates, Inc. | Methods for assessing visual tasks to establish desirable lighting and viewing conditions for performance of tasks; apparatus; and, applications |
AU2001253785A1 (en) * | 2000-04-25 | 2001-11-07 | Snap-On Technologies, Inc. | Measurement of wheel and axle alignment of motor vehicles |
US6532066B1 (en) * | 2000-08-05 | 2003-03-11 | Ford Global Technologies, Inc. | Vision system for identification of defects in wet polymeric coatings |
CN100533481C (en) * | 2005-05-18 | 2009-08-26 | 光宝科技股份有限公司 | Method and apparatus for clearing image noise |
US7508994B2 (en) * | 2005-12-05 | 2009-03-24 | Eastman Kodak Company | Method for detecting streaks in digital images |
JP2007303830A (en) * | 2006-05-08 | 2007-11-22 | Toyota Motor Corp | Painted face quality evaluation method |
JP4763525B2 (en) * | 2006-06-21 | 2011-08-31 | 日本電信電話株式会社 | Video alignment method |
JP2009034413A (en) * | 2007-08-03 | 2009-02-19 | Toshiba Corp | Radiation image processor |
EP2082863A1 (en) * | 2008-01-22 | 2009-07-29 | Inergy Automotive Systems Research (SA) | Method for detecting defects in a plastic fuel tank by radiography |
JP5210091B2 (en) * | 2008-08-29 | 2013-06-12 | キヤノン株式会社 | Image processing apparatus, control method therefor, imaging apparatus, and program |
JP4719284B2 (en) * | 2008-10-10 | 2011-07-06 | トヨタ自動車株式会社 | Surface inspection device |
-
2011
- 2011-09-23 US US13/243,053 patent/US8559753B2/en active Active
-
2012
- 2012-07-26 CA CA2783900A patent/CA2783900C/en active Active
- 2012-08-03 AU AU2012211359A patent/AU2012211359B8/en active Active
- 2012-09-20 EP EP12185287.5A patent/EP2573732B1/en active Active
- 2012-09-21 JP JP2012207879A patent/JP6016552B2/en active Active
- 2012-09-24 CN CN201210358599.7A patent/CN103020904B/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2573732B1 (en) | 2017-11-08 |
JP2013069288A (en) | 2013-04-18 |
AU2012211359A1 (en) | 2013-04-11 |
EP2573732A3 (en) | 2013-11-06 |
EP2573732A2 (en) | 2013-03-27 |
CN103020904A (en) | 2013-04-03 |
US20130077829A1 (en) | 2013-03-28 |
AU2012211359B2 (en) | 2016-12-01 |
US8559753B2 (en) | 2013-10-15 |
CN103020904B (en) | 2017-10-03 |
CA2783900A1 (en) | 2013-03-23 |
AU2012211359A8 (en) | 2016-12-15 |
AU2012211359B8 (en) | 2016-12-15 |
CA2783900C (en) | 2015-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6016552B2 (en) | Antireflection system | |
CN108431938B (en) | System and method for defect detection using image reconstruction | |
Heredia Conde | Compressive sensing for the photonic mixer device | |
Lebouteiller et al. | Advanced optimal extraction for the Spitzer/IRS | |
CN109087325B (en) | Direct method point cloud three-dimensional reconstruction and scale determination method based on monocular vision | |
CN103778621A (en) | Identification of foreign object debris | |
EP3499201B1 (en) | Electromagnetic wave phase/amplitude generation device, electromagnetic wave phase/amplitude generation method, and electromagnetic wave phase/amplitude generation program | |
Karel et al. | Modelling and compensating internal light scattering in time of flight range cameras | |
US20130044213A1 (en) | System and method for diffuse imaging with time-varying illumination intensity | |
Haefner et al. | Noise estimation of an MTF measurement | |
CN114037609B (en) | Terahertz image super-resolution algorithm based on learning terahertz imaging inverse process | |
van Eekeren et al. | Performance evaluation of super-resolution reconstruction methods on real-world data | |
US9129185B1 (en) | System and method for reducing image clutter | |
Malik et al. | An integrated computer vision based approach for driving assistance to enhance visibility in all weather conditions | |
Oh et al. | A modulation transfer function compensation for the Geostationary Ocean Color Imager (GOCI) based on the wiener filter | |
Han | Crack detection of UAV concrete surface images | |
Arbel et al. | Landsat TM satellite image restoration using Kalman filters | |
JP4405407B2 (en) | Defect inspection equipment | |
Miao | Underwater image adaptive restoration and analysis by turbulence model | |
CN110460756A (en) | A kind of scene removes rain image processing method and device automatically in real time | |
Venkatachalam et al. | Comprehensive investigation of subpixel edge detection schemes in metrology | |
Turrisi et al. | Image deconvolution techniques for motion blur compensation in DIC measurements | |
KR102686707B1 (en) | Ghost Image Acquisition Method and Electronic Device Using The Same | |
Jacques et al. | Refractive index map reconstruction in optical deflectometry using total-variation regularization | |
Li et al. | Reflection-mode diffraction tomography of multiple-scattering samples on a reflective substrate from intensity images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150924 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160818 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160927 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6016552 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |