JP2012014628A - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP2012014628A
JP2012014628A JP2010153093A JP2010153093A JP2012014628A JP 2012014628 A JP2012014628 A JP 2012014628A JP 2010153093 A JP2010153093 A JP 2010153093A JP 2010153093 A JP2010153093 A JP 2010153093A JP 2012014628 A JP2012014628 A JP 2012014628A
Authority
JP
Japan
Prior art keywords
luminance
luminance conversion
pixels
conversion target
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010153093A
Other languages
Japanese (ja)
Inventor
Satoshi Hisanaga
聡 久永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010153093A priority Critical patent/JP2012014628A/en
Publication of JP2012014628A publication Critical patent/JP2012014628A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable each observation target object to be clearly displayed even when high luminance noises are included in an HDR image or when various observation target objects are mixed in the HDR image.SOLUTION: An image display device comprises: a luminance conversion target area setting unit 3 for classifying pixels each having luminance similar to luminance of adjacent pixels among pixels constituting an HDR image into the same group, and setting areas where the pixels belonging to the same group exist to luminance conversion target areas (1)-(N); and a luminance conversion unit 4 for removing noises existing in the luminance conversion target areas (1)-(N) and then converting the luminance of pixels existing in the luminance conversion target areas (1)-(N) into luminance in a visible range.

Description

この発明は、輝度が幅広い値をとるハイダイナミックレンジ画像(以下、「HDR画像」と称する)を、人間が視認可能な輝度範囲でかつ表示可能な階調数の画像に変換して表示する画像表示装置に関するものである。   The present invention converts a high dynamic range image (hereinafter referred to as an “HDR image”) having a wide range of luminance into an image having a luminance range that can be visually recognized by a human and can be displayed and displayed. The present invention relates to a display device.

HDR画像としては、例えば、合成開口レーダを用いて取得された電波画像であるSAR(synthetic aperture radar)画像(この画像には狭い範囲の高輝度ノイズも加算されている)や、ハイダイナミックレンジカメラを用いて撮影された画像などがある。
合成開口レーダを航空機や人工衛星に搭載し、合成開口レーダを用いて、地上を観測したデータを画像として表現する場合、画素の輝度が数万階調になることがある。
しかし、人間が輝度の差違を識別することが可能な輝度階調は数百階調であることから、合成開口レーダを用いて観測されたデータであるHDR画像を表示するためには、そのHDR画像を構成している画素の輝度を人間の可視範囲内の輝度(かつ数百の輝度階調)に変換する必要がある。
As an HDR image, for example, a SAR (synthetic aperture radar) image which is a radio wave image acquired using a synthetic aperture radar (a high-intensity noise in a narrow range is added to this image), a high dynamic range camera, or the like There are images taken using.
When a synthetic aperture radar is mounted on an aircraft or an artificial satellite and the data obtained by observing the ground is expressed as an image using the synthetic aperture radar, the luminance of a pixel may be tens of thousands of gradations.
However, since there are hundreds of luminance gradations that allow humans to identify differences in luminance, in order to display an HDR image that is data observed using a synthetic aperture radar, the HDR gradation is displayed. It is necessary to convert the luminance of the pixels constituting the image into luminance within the human visible range (and hundreds of luminance gradations).

ここで、HDR画像を構成している画素の輝度を人間の可視範囲内の輝度に変換する方式として、トーンマッピング(Tone Mapping)と呼ばれる方式(以下、「TMO方式」と称する)が知られている。
合成開口レーダを用いて観測されたデータのうち、金属のように電波を反射し易い観測対象物に係るデータは輝度が高くなり、水面のように電波を反射し難い観測対象物に係るデータは輝度が低くなる傾向がある。
このため、合成開口レーダを用いて観測されたデータをHDR画像として利用する場合において、例えば、車両のように高輝度で表現される部分を表示すると同時に、水田のように低輝度で表現される部分を表示しようとすると、輝度の差違が大き過ぎるため、同時に両方の輝度範囲を工夫しなければ、不鮮明な画像を表示することになる。
Here, a method called tone mapping (hereinafter referred to as “TMO method”) is known as a method for converting the luminance of pixels constituting an HDR image into luminance within a human visible range. Yes.
Of the data observed using synthetic aperture radar, the data related to observation objects that easily reflect radio waves such as metal has high brightness, and the data related to observation objects that are difficult to reflect radio waves such as the water surface The brightness tends to be low.
For this reason, when data observed using a synthetic aperture radar is used as an HDR image, for example, a portion expressed with high luminance like a vehicle is displayed and at the same time expressed with low luminance like a paddy field. If an attempt is made to display a portion, the difference in luminance is too large, and if both luminance ranges are not devised at the same time, an unclear image is displayed.

具体的には、以下の通りである。
合成開口レーダを用いて、上空から観測されたデータが、例えば、図15に示すように、建物周辺の構造物が写っているHDR画像であるものとする。
また、この場合のHDR画像における観測対象物の輝度分布が、図16に示すような輝度分布であるものとする。
このとき、TMO方式を用いて、HDR画像における観測対象物の輝度を線形に可視範囲内の輝度に変換すると、図17に示すように、殆どの観測対象物の輝度が小さな値となる。
この結果、図18に示すように、ほぼ真っ暗な画像に変換されてしまい、視認可能なものが、極めて輝度が高いノイズだけになってしまうので、不鮮明な画像を表示することになる。
Specifically, it is as follows.
It is assumed that the data observed from above using the synthetic aperture radar is an HDR image in which structures around the building are shown, for example, as shown in FIG.
In this case, it is assumed that the luminance distribution of the observation target in the HDR image is a luminance distribution as shown in FIG.
At this time, if the luminance of the observation object in the HDR image is linearly converted into the luminance within the visible range using the TMO method, the luminance of most of the observation objects becomes a small value as shown in FIG.
As a result, as shown in FIG. 18, the image is converted into a substantially dark image, and what is visible becomes only noise with extremely high luminance, so that an unclear image is displayed.

以下の非特許文献1には、光学写真を対象とする従来のTMO方式を適用しても、合成開口レーダを用いて観測されたデータのように、観測対象が様々な輝度範囲に分離して記録されているHDR画像の可視化には適さない旨が記載されている。
即ち、以下の非特許文献1には、光学写真向けTMO方式を適用する場合、画面全体が白く見えるように変換されてしまうことや、人が試行錯誤して適用パラメータを決定する必要があることが記載されている。
また、合成開口レーダを用いて観測されたデータには、HDR画像の狭い領域において、高輝度のノイズが不規則に現れており、このノイズを除去することが課題であるとされている。
In Non-Patent Document 1 below, even when a conventional TMO method for optical photography is applied, the observation target is separated into various luminance ranges, as in data observed using a synthetic aperture radar. It describes that it is not suitable for visualization of recorded HDR images.
That is, in the following Non-Patent Document 1, when the TMO method for optical photography is applied, the entire screen is converted to appear white, or it is necessary for a person to determine an application parameter through trial and error. Is described.
Further, in data observed using a synthetic aperture radar, high luminance noise appears irregularly in a narrow region of the HDR image, and it is considered that it is a problem to remove this noise.

以下の特許文献1には、HDR画像の輝度変換を実施する際、HDR画像を比較的明るい領域と、比較的暗い領域とに分割し、それぞれの領域に最適と思われるTMO変換を実施して、変換後の領域を合成する方式が開示されている。
この方式の場合、HDR画像が、高輝度の領域と低輝度の領域がはっきり分離していれば、適度な輝度変換が可能である。
しかし、合成開口レーダを用いて、上空から観測されたデータの場合、例えば、平らな地面の上に建物があり、その建物の屋上が平らになっていると、地面が低輝度に表現され、建物の縁が高輝度に表現され、建物の屋上の平らな部分が高輝度で表現される。
即ち、高輝度の領域と低輝度の領域が混在して表現されるため、高輝度の領域と低輝度の領域を適切に分離することができず、TMO方式を適用することが困難である。
In Patent Document 1 below, when performing luminance conversion of an HDR image, the HDR image is divided into a relatively bright region and a relatively dark region, and TMO conversion that seems to be optimal for each region is performed. A method of synthesizing the converted areas is disclosed.
In the case of this method, moderate brightness conversion is possible if the HDR image clearly separates the high brightness area and the low brightness area.
However, in the case of data observed from the sky using synthetic aperture radar, for example, if there is a building on a flat ground and the roof of the building is flat, the ground is expressed with low brightness, The edge of the building is expressed with high brightness, and the flat part of the roof of the building is expressed with high brightness.
That is, since the high luminance region and the low luminance region are expressed in a mixed manner, the high luminance region and the low luminance region cannot be appropriately separated, and it is difficult to apply the TMO method.

特開2006−345509号公報(段落番号[0006])JP 2006-345509 A (paragraph number [0006])

Lambers, M. Nies, H. Kolb, A.:”Interactive Dynamic Range Reduction for SAR Images”,Geoscience and Remote Sensing Letters, Vol.5 Issue3 pp. 507-511, 2008Lambers, M. Nies, H. Kolb, A .: “Interactive Dynamic Range Reduction for SAR Images”, Geoscience and Remote Sensing Letters, Vol.5 Issue3 pp. 507-511, 2008

従来の画像表示装置は以上のように構成されているので、観測対象物の近くに高輝度のノイズが現れると、そのノイズの影響で、観測対象物を分かり易く表示することができなくなる課題があった。
また、HDR画像の中に様々な観測対象物が混在している場合、高輝度の領域と低輝度の領域を適切に分離することができず、それぞれの観測対象物を分かり易く表示することができなくなる課題があった。
Since the conventional image display apparatus is configured as described above, when high-intensity noise appears near the observation object, there is a problem that the observation object cannot be displayed in an easy-to-understand manner due to the noise. there were.
In addition, when various observation objects are mixed in the HDR image, the high-luminance area and the low-luminance area cannot be appropriately separated, and each observation object can be displayed in an easy-to-understand manner. There was a problem that could not be done.

また、HDR画像の中に混在している複数の観測対象物の輝度の差異が、複数の観測対象物の形状や状態の差異を表しているとき、その輝度の差異が小さい場合には、人間が見ても、輝度の差異を認識することが困難であるため、複数の観測対象物の形状や状態の差異を正確に把握することができなくなる課題があった。
さらに、人間が試行錯誤して適用パラメータを決定するのではなく、自動的にTMO方式の適用パラメータを決定する方式を採用する場合には、HDR画像の中の可視化が必要な領域だけでなく、可視化が不必要な領域も考慮されて、適用パラメータが決定されることが想定される。
このため、可視化が必要な領域の輝度変換に最適な適用パラメータが決定されるとは限らず、可視化が必要な領域を分かり易く表示することができなくなることがある課題があった。
In addition, when the difference in luminance of a plurality of observation objects mixed in the HDR image represents a difference in shape or state of the plurality of observation objects, if the difference in luminance is small, However, since it is difficult to recognize the difference in luminance, there is a problem that it is impossible to accurately grasp the difference in shape and state of a plurality of observation objects.
Furthermore, when a method of automatically determining the application parameter of the TMO method is adopted instead of a human being trial and error to determine the application parameter, not only the region in the HDR image that needs to be visualized, It is assumed that an application parameter is determined in consideration of an area where visualization is unnecessary.
For this reason, there is a problem that an optimum application parameter for luminance conversion of an area that needs to be visualized is not always determined, and an area that needs to be visualized cannot be displayed in an easily understandable manner.

この発明は上記のような課題を解決するためになされたもので、高輝度のノイズがHDR画像に含まれている場合や、様々な観測対象物がHDR画像の中に混在している場合でも、それぞれの観測対象物を分かり易く表示することができる画像表示装置を得ることを目的とする。
また、この発明は、HDR画像の中に混在している複数の観測対象物の輝度の差異が僅かであっても、複数の観測対象物の形状や状態の差異を容易に視認することができる画像表示装置を得ることを目的とする。
さらに、この発明は、可視化が必要な領域の輝度変換を最適化して、可視化が必要な領域を分かり易く表示することができる画像表示装置を得ることを目的とする。
The present invention has been made to solve the above-described problems, and even when high brightness noise is included in an HDR image or when various observation objects are mixed in the HDR image. An object of the present invention is to obtain an image display device capable of displaying each observation object in an easy-to-understand manner.
Further, according to the present invention, even if the difference in luminance between the plurality of observation objects mixed in the HDR image is slight, the difference in the shape and state of the plurality of observation objects can be easily visually confirmed. An object is to obtain an image display device.
Furthermore, an object of the present invention is to obtain an image display device that can optimize the luminance conversion of a region that needs to be visualized and can easily display the region that needs to be visualized.

この発明に係る画像表示装置は、可視範囲を超える輝度階調を有する画像を構成している画素のうち、隣り合う画素と輝度が近似している画素同士を同一のグループに分類し、同一のグループに属する画素が存在している領域を輝度変換対象領域に設定する輝度変換対象領域設定手段と、その輝度変換対象領域設定手段により設定された輝度変換対象領域毎に、当該輝度変換対象領域内に存在しているノイズを除去してから、当該輝度変換対象領域内に存在している画素の輝度を可視範囲内の輝度に変換する輝度変換手段とを設け、領域合成手段が輝度変換手段により画素の輝度が変換された1以上の輝度変換対象領域内の画像を合成して、合成画像を生成するようにしたものである。   The image display device according to the present invention classifies pixels having luminance similar to that of adjacent pixels among pixels constituting an image having a luminance gradation exceeding the visible range into the same group. The brightness conversion target area setting means for setting the area where the pixels belonging to the group exist as the brightness conversion target area, and the brightness conversion target area for each brightness conversion target area set by the brightness conversion target area setting means And a luminance conversion means for converting the luminance of the pixels existing in the luminance conversion target area to the luminance in the visible range after removing the noise existing in the luminance conversion target area, and the area synthesis means by the luminance conversion means A synthesized image is generated by synthesizing images in one or more luminance conversion target areas in which the luminance of pixels is converted.

この発明によれば、可視範囲を超える輝度階調を有する画像を構成している画素のうち、隣り合う画素と輝度が近似している画素同士を同一のグループに分類し、同一のグループに属する画素が存在している領域を輝度変換対象領域に設定する輝度変換対象領域設定手段と、その輝度変換対象領域設定手段により設定された輝度変換対象領域毎に、当該輝度変換対象領域内に存在しているノイズを除去してから、当該輝度変換対象領域内に存在している画素の輝度を可視範囲内の輝度に変換する輝度変換手段とを設け、領域合成手段が輝度変換手段により画素の輝度が変換された1以上の輝度変換対象領域内の画像を合成して、合成画像を生成するように構成したので、様々な観測対象物が画像の中に混在している場合でも、それぞれの観測対象物を分かり易く表示することができる効果がある。   According to the present invention, among pixels constituting an image having a luminance gradation exceeding the visible range, pixels whose luminance approximates that of adjacent pixels are classified into the same group and belong to the same group. The brightness conversion target area setting means for setting the area where the pixel exists as the brightness conversion target area and the brightness conversion target area set by the brightness conversion target area setting means are present in the brightness conversion target area. Luminance conversion means for converting the luminance of the pixels existing in the luminance conversion target area to luminance in the visible range after the noise is removed, and the area synthesis means uses the luminance conversion means to Since the image in one or more luminance conversion target areas converted from is synthesized and a composite image is generated, each observation is performed even when various observation objects are mixed in the image. There is an effect that can be displayed facilitate understanding of the elephant products.

この発明の実施の形態1による画像表示装置を示す構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the image display apparatus by Embodiment 1 of this invention. この発明の実施の形態1による画像表示装置の輝度変換対象領域設定部3の内部を示す構成図である。It is a block diagram which shows the inside of the brightness | luminance conversion object area | region setting part 3 of the image display apparatus by Embodiment 1 of this invention. 輝度変換対象領域設定部3により設定される輝度変換対象領域を示す説明図である。It is explanatory drawing which shows the brightness | luminance conversion object area | region set by the brightness | luminance conversion object area | region setting part 3. FIG. クラスタリングの閾値とクラスタに含まれる画素の個数との対応関係を示す説明図である。It is explanatory drawing which shows the correspondence of the threshold value of clustering, and the number of pixels contained in a cluster. 輝度変換対象領域の設定例を示す説明図である。It is explanatory drawing which shows the example of a setting of a brightness | luminance conversion object area | region. 輝度変換対象領域における画素値のヒストグラムの一例を示す説明図である。It is explanatory drawing which shows an example of the histogram of the pixel value in a brightness | luminance conversion object area | region. 輝度変換部4の輝度変換結果の一例を示す説明図である。It is explanatory drawing which shows an example of the brightness | luminance conversion result of the brightness | luminance conversion part. 領域合成部5により生成された合成画像の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of the synthesized image produced | generated by the area | region synthetic | combination part. この発明の実施の形態2による画像表示装置の輝度変換対象領域設定部3の内部を示す構成図である。It is a block diagram which shows the inside of the brightness | luminance conversion object area | region setting part 3 of the image display apparatus by Embodiment 2 of this invention. 図9の注目範囲における画素の輝度を示す説明図である。It is explanatory drawing which shows the brightness | luminance of the pixel in the attention range of FIG. 輝度変換対象領域の設定例を示す説明図である。It is explanatory drawing which shows the example of a setting of a brightness | luminance conversion object area | region. この発明の実施の形態3による画像表示装置の輝度変換対象領域設定部3の内部を示す構成図である。It is a block diagram which shows the inside of the brightness | luminance conversion object area | region setting part 3 of the image display apparatus by Embodiment 3 of this invention. クラスタリング部3iによるヒストグラム評価例を示す説明図である。It is explanatory drawing which shows the example of histogram evaluation by the clustering part 3i. 輝度変換部4による輝度変換処理を示す説明図である。It is explanatory drawing which shows the luminance conversion process by the luminance conversion part. 観測対象物の配置例を示す説明図である。It is explanatory drawing which shows the example of arrangement | positioning of an observation target object. HDR画像における輝度分布を示す説明図である。It is explanatory drawing which shows the luminance distribution in a HDR image. TMO方式を用いて、輝度変換を実施した後の輝度分布を示す説明図である。It is explanatory drawing which shows the luminance distribution after implementing luminance conversion using a TMO system. 線形変換結果イメージを示す説明図である。It is explanatory drawing which shows a linear transformation result image.

実施の形態1.
図1はこの発明の実施の形態1による画像表示装置を示す構成図である。
図1において、HDR画像格納部1は人間の可視範囲を超え、かつ視認可能な階調数を超える輝度階調を有する画像であるハイダイナミックレンジ画像(HDR画像)として、例えば、合成開口レーダを用いて取得された電波画像であるSAR画像や、ハイダイナミックレンジカメラを用いて撮影された画像を格納しているメモリなどの記録媒体である。
なお、HDR画像は、縦の画素数がM、横の画素数がNである場合、M×N個の輝度情報を保持しており、1画素の輝度情報は、例えば8バイトで表現可能な整数で表現されている。輝度情報は、整数の値が大きい程、輝度が高いことを示している。
Embodiment 1 FIG.
1 is a block diagram showing an image display apparatus according to Embodiment 1 of the present invention.
In FIG. 1, the HDR image storage unit 1 is, for example, a synthetic aperture radar as a high dynamic range image (HDR image) that is an image having a luminance gradation that exceeds the human visible range and exceeds the number of visible gradations. It is a recording medium such as a memory that stores a SAR image that is a radio wave image acquired by using a high dynamic range camera.
Note that when the number of vertical pixels is M and the number of horizontal pixels is N, the HDR image holds M × N pieces of luminance information, and the luminance information of one pixel can be expressed by, for example, 8 bytes. Expressed as an integer. The luminance information indicates that the larger the integer value, the higher the luminance.

変換領域範囲指定部2はHDR画像格納部1により格納されているHDR画像の中で輝度変換を行う領域の範囲の指定を受け付けて、その変換領域内のHDR画像を輝度変換対象領域設定部3に出力する処理を実施する。なお、変換領域範囲指定部2は変換領域範囲指定手段を構成している。
図1では、変換領域範囲指定部2の具体的な構成例を示していないが、例えば、以下に示すようなハードウェアで構成されている。
・HDR画像格納部1からHDR画像を読み込むメモリインタフェース
・輝度変換を行う領域の範囲の指定を受け付けるマンマシンインタフェース(例えば、キーボード、マウス)
・HDR画像から変換領域内の画像を切り出して輝度変換対象領域設定部3に出力する画像処理部(例えば、CPUを実装している半導体集積回路)
ここでは、メモリインタフェース、マンマシンインタフェース及び画像処理部から変換領域範囲指定部2が構成されている例を示したが、これは一例に過ぎず、例えば、変換領域範囲指定部2がワンチップマイコンなどで構成されていてもよい。
The conversion area range designating unit 2 accepts designation of the range of the area to be subjected to luminance conversion in the HDR image stored by the HDR image storage unit 1, and converts the HDR image in the conversion area to the luminance conversion target area setting unit 3. Execute the process to output to. The conversion area range designation unit 2 constitutes a conversion area range designation unit.
Although FIG. 1 does not show a specific configuration example of the conversion area range designation unit 2, the conversion region range designation unit 2 is configured by, for example, hardware as described below.
A memory interface that reads an HDR image from the HDR image storage unit 1 A man-machine interface that accepts specification of a range of areas for luminance conversion (for example, a keyboard and a mouse)
An image processing unit that cuts out an image in the conversion region from the HDR image and outputs the image to the luminance conversion target region setting unit 3 (for example, a semiconductor integrated circuit in which a CPU is mounted)
Here, an example is shown in which the conversion area range designation unit 2 is configured from a memory interface, a man-machine interface, and an image processing unit, but this is only an example. For example, the conversion area range designation unit 2 is a one-chip microcomputer. Etc. may be comprised.

輝度変換対象領域設定部3は変換領域範囲指定部2から出力された変換領域内のHDR画像を構成している画素のうち、隣り合う画素と輝度が近似している画素同士を同一のグループに分類し、同一のグループに属する画素が存在している領域を輝度変換対象領域に設定する処理を実施する。なお、輝度変換対象領域設定部3は輝度変換対象領域設定手段を構成している。
図1では、輝度変換対象領域設定部3がN個の輝度変換対象領域(1)〜(N)を設定して、N個の輝度変換対象領域(1)〜(N)を輝度変換部4に出力している例を示している。
輝度変換対象領域設定部3の具体的な構成例については後述する。
The luminance conversion target area setting unit 3 sets adjacent pixels and pixels whose luminance is approximated to the same group among the pixels constituting the HDR image in the conversion area output from the conversion area range specifying unit 2. A process of classifying and setting a region where pixels belonging to the same group exist as a luminance conversion target region is performed. The luminance conversion target area setting unit 3 constitutes luminance conversion target area setting means.
In FIG. 1, the luminance conversion target area setting unit 3 sets N luminance conversion target areas (1) to (N), and sets the N luminance conversion target areas (1) to (N) as the luminance conversion unit 4. Shows an output example.
A specific configuration example of the luminance conversion target area setting unit 3 will be described later.

輝度変換部4は輝度変換対象領域設定部3により設定された輝度変換対象領域(1)〜(N)毎に、輝度変換対象領域(n)内に存在しているノイズを除去してから、その輝度変換対象領域(n)内に存在している画素の輝度を線形輝度圧縮によって、可視範囲(例えば、255階調)内の輝度に変換する処理を実施する。ただし、n=1,2,・・・,Nである。   The luminance conversion unit 4 removes noise existing in the luminance conversion target region (n) for each of the luminance conversion target regions (1) to (N) set by the luminance conversion target region setting unit 3, A process of converting the luminance of the pixels existing in the luminance conversion target region (n) into luminance in the visible range (for example, 255 gradations) is performed by linear luminance compression. However, n = 1, 2,..., N.

あるいは、輝度変換部4は輝度変換対象領域設定部3により設定された輝度変換対象領域(1)〜(N)毎に、輝度変換対象領域(n)内に存在しているノイズを除去してから、その輝度変換対象領域(n)内に存在している画素の輝度の平均値μ及び分散値σを算出して、その平均値μ及び分散値σから、可視範囲内に於いて輝度変換範囲S(n)(例えば、平均値μを中心にして、平均値μの上下にそれぞれ分散値σの3倍の範囲)を決定し、その平均値μ及び分散値σを用いて、輝度変換対象領域(n)内に存在している画素の輝度を輝度変換範囲S(n)内の輝度に変換する処理を実施する。
なお、輝度変換部4は輝度変換手段を構成している。
Alternatively, the luminance conversion unit 4 removes noise existing in the luminance conversion target region (n) for each of the luminance conversion target regions (1) to (N) set by the luminance conversion target region setting unit 3. From the average value μ and the variance value σ of the pixels existing in the luminance conversion target area (n), the luminance conversion is performed in the visible range from the average value μ and the variance value σ. A range S (n) (for example, a range that is three times the variance value σ above and below the average value μ centered on the average value μ) is determined, and brightness conversion is performed using the average value μ and the variance value σ. A process of converting the luminance of the pixels existing in the target area (n) into luminance within the luminance conversion range S (n) is performed.
In addition, the brightness | luminance conversion part 4 comprises the brightness | luminance conversion means.

メモリ4a−1は輝度変換対象領域設定部3により設定された輝度変換対象領域(1)の画像を一時的に格納する記録媒体である。
メモリ4a−2は輝度変換対象領域設定部3により設定された輝度変換対象領域(2)の画像を一時的に格納する記録媒体である。
メモリ4a−Nは輝度変換対象領域設定部3により設定された輝度変換対象領域(N)の画像を一時的に格納する記録媒体である。
The memory 4 a-1 is a recording medium that temporarily stores an image of the brightness conversion target area (1) set by the brightness conversion target area setting unit 3.
The memory 4a-2 is a recording medium that temporarily stores an image of the luminance conversion target area (2) set by the luminance conversion target area setting unit 3.
The memories 4a-N are recording media that temporarily store an image of the luminance conversion target area (N) set by the luminance conversion target area setting unit 3.

輝度変換処理部4b−1は例えばCPUを実装している半導体集積回路から構成されており、輝度変換対象領域(1)内に存在しているノイズを除去してから、輝度変換対象領域(1)内に存在している画素の輝度を線形輝度圧縮によって、輝度変換範囲S(1)内の輝度に変換する処理を実施する。あるいは、輝度変換対象領域(1)内に存在しているノイズを除去してから、輝度変換対象領域(1)内に存在している画素の輝度の平均値μ及び分散値σを算出して、その平均値μ及び分散値σから輝度変換範囲S(1)を決定し、その平均値μ及び分散値σを用いて、輝度変換対象領域(1)内に存在している画素の輝度を輝度変換範囲S(1)内の輝度に変換する処理を実施する。   The luminance conversion processing unit 4b-1 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, and after removing noise existing in the luminance conversion target region (1), the luminance conversion target region (1 ) Is performed to convert the luminance of the pixels existing in the parenthesis into luminance within the luminance conversion range S (1) by linear luminance compression. Alternatively, after removing the noise existing in the luminance conversion target area (1), the average value μ and the variance value σ of the luminance of the pixels existing in the luminance conversion target area (1) are calculated. The luminance conversion range S (1) is determined from the average value μ and the variance value σ, and the luminance of the pixels existing in the luminance conversion target region (1) is determined using the average value μ and the variance value σ. A process of converting to the luminance within the luminance conversion range S (1) is performed.

輝度変換処理部4b−2は例えばCPUを実装している半導体集積回路から構成されており、輝度変換対象領域(2)内に存在しているノイズを除去してから、輝度変換対象領域(2)内に存在している画素の輝度を線形輝度圧縮によって、輝度変換範囲S(2)内の輝度に変換する処理を実施する。あるいは、輝度変換対象領域(2)内に存在しているノイズを除去してから、輝度変換対象領域(2)内に存在している画素の輝度の平均値μ及び分散値σを算出して、その平均値μ及び分散値σから輝度変換範囲S(2)を決定し、その平均値μ及び分散値σを用いて、輝度変換対象領域(2)内に存在している画素の輝度を輝度変換範囲S(2)内の輝度に変換する処理を実施する。   The luminance conversion processing unit 4b-2 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted. After removing noise existing in the luminance conversion target region (2), the luminance conversion target region (2 ) Is performed to convert the luminance of the pixels existing in () into luminance within the luminance conversion range S (2) by linear luminance compression. Alternatively, after removing noise existing in the luminance conversion target area (2), the average value μ and the variance value σ of the luminance of the pixels existing in the luminance conversion target area (2) are calculated. The luminance conversion range S (2) is determined from the average value μ and the variance value σ, and the luminance of the pixels existing in the luminance conversion target region (2) is determined using the average value μ and the variance value σ. A process of converting to luminance within the luminance conversion range S (2) is performed.

輝度変換処理部4b−Nは例えばCPUを実装している半導体集積回路から構成されており、輝度変換対象領域(N)内に存在しているノイズを除去してから、輝度変換対象領域(N)内に存在している画素の輝度を線形輝度圧縮によって、輝度変換範囲S(N)内の輝度に変換する処理を実施する。あるいは、輝度変換対象領域(N)内に存在しているノイズを除去してから、輝度変換対象領域(N)内に存在している画素の輝度の平均値μ及び分散値σを算出して、その平均値μ及び分散値σから輝度変換範囲S(N)を決定し、その平均値μ及び分散値σを用いて、輝度変換対象領域(N)内に存在している画素の輝度を輝度変換範囲S(N)内の輝度に変換する処理を実施する。   The luminance conversion processing unit 4b-N is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted. After removing noise existing in the luminance conversion target region (N), the luminance conversion target region (N ) Is performed to convert the luminance of the pixels existing in () into luminance within the luminance conversion range S (N) by linear luminance compression. Alternatively, after removing noise existing in the luminance conversion target region (N), the average value μ and the variance value σ of the luminance of the pixels existing in the luminance conversion target region (N) are calculated. The luminance conversion range S (N) is determined from the average value μ and the variance value σ, and the luminance of the pixels existing in the luminance conversion target region (N) is determined using the average value μ and the variance value σ. A process of converting to luminance within the luminance conversion range S (N) is performed.

メモリ4c−1は輝度変換対象領域(1)の輝度変換後の画像を一時的に格納する記録媒体である。
メモリ4c−2は輝度変換対象領域(2)の輝度変換後の画像を一時的に格納する記録媒体である。
メモリ4c−Nは輝度変換対象領域(N)の輝度変換後の画像を一時的に格納する記録媒体である。
図1では、輝度変換部4がメモリ4a−1〜4a−N、輝度変換処理部4b−1〜4b−N及びメモリ4c−1〜4c−Nから構成されている例を示したが、これは一例に過ぎず、例えば、輝度変換部4がワンチップマイコンで構成されていてもよい。
The memory 4c-1 is a recording medium that temporarily stores an image after luminance conversion of the luminance conversion target area (1).
The memory 4c-2 is a recording medium that temporarily stores an image after luminance conversion of the luminance conversion target area (2).
The memory 4c-N is a recording medium that temporarily stores an image after luminance conversion in the luminance conversion target area (N).
FIG. 1 shows an example in which the luminance conversion unit 4 includes the memories 4a-1 to 4a-N, the luminance conversion processing units 4b-1 to 4b-N, and the memories 4c-1 to 4c-N. Is merely an example. For example, the luminance conversion unit 4 may be configured by a one-chip microcomputer.

領域合成部5は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンから構成されており、メモリ4c−1〜4c−Nにより格納されている輝度変換対象領域(1)〜(N)の輝度変換後の画像を合成して、合成画像を生成する処理を実施する。
即ち、領域合成部5はHDR画像を構成している画素(変換領域範囲指定部2から出力された変換領域内のHDR画像を構成している画素)の輝度のうち、輝度変換処理部4b−1〜4b−Nにより輝度が変換される前の輝度変換対象領域(1)〜(N)内に存在している画素の輝度を、輝度変換処理部4b−1〜4b−Nにより変換された輝度に置き換える処理を実施する。なお、領域合成部5は領域合成手段を構成している。
The area synthesizing unit 5 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer, and the luminance conversion target areas (1) to (N) stored in the memories 4c-1 to 4c-N. The image after the luminance conversion of () is synthesized to generate a synthesized image.
That is, the region composition unit 5 includes the luminance conversion processing unit 4b− out of the luminances of the pixels constituting the HDR image (the pixels constituting the HDR image in the conversion region output from the conversion region range specifying unit 2). The luminance of the pixels existing in the luminance conversion target areas (1) to (N) before the luminance is converted by 1-4b-N are converted by the luminance conversion processing units 4b-1 to 4b-N. A process of replacing with luminance is performed. The region composition unit 5 constitutes region composition means.

合成画像格納部6は領域合成部5により生成された合成画像を一時的に格納するメモリなどの記録媒体である。
立体表示部7は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンから構成されており、合成画像格納部6により格納されている合成画像を構成している画素の輝度を図示せぬディスプレイに立体的に表示する処理を実施する。なお、立体表示部7は立体表示手段を構成している。
The composite image storage unit 6 is a recording medium such as a memory that temporarily stores the composite image generated by the region composition unit 5.
The stereoscopic display unit 7 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer, and illustrates the luminance of the pixels constituting the composite image stored in the composite image storage unit 6. The processing to display in three dimensions on the display. The stereoscopic display unit 7 constitutes stereoscopic display means.

図1では、画像表示装置の構成要素であるHDR画像格納部1、変換領域範囲指定部2、輝度変換対象領域設定部3、輝度変換部4、領域合成部5、合成画像格納部6及び立体表示部7がそれぞれ専用のハードウェアで構成されている例を示したが、画像表示装置がコンピュータで構成されている場合には、変換領域範囲指定部2、輝度変換対象領域設定部3、輝度変換部4、領域合成部5及び立体表示部7の処理内容を示すプログラムをコンピュータのメモリに格納し、コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。   In FIG. 1, the HDR image storage unit 1, the conversion region range specification unit 2, the luminance conversion target region setting unit 3, the luminance conversion unit 4, the region composition unit 5, the composite image storage unit 6, and the three-dimensional structure that are components of the image display device. Although the example in which the display unit 7 is configured by dedicated hardware has been shown, when the image display device is configured by a computer, the conversion area range specifying unit 2, the luminance conversion target area setting unit 3, the luminance A program indicating the processing contents of the conversion unit 4, the region composition unit 5, and the stereoscopic display unit 7 may be stored in a memory of a computer, and the CPU of the computer may execute the program stored in the memory.

図2は輝度変換対象領域設定部3の内部を示す構成図である。
図2において、平滑化処理部3aは変換領域範囲指定部2から出力された変換領域内のHDR画像を構成している画素の輝度を平滑化する処理を実施する。
接峰面処理部3bは平滑化処理部3aにより輝度が平滑化された画素に対する接峰面処理を実施する。
微分オペレータ処理部3cは接峰面処理部3bにより接峰面処理が実施された画素に対する微分オペレータ処理を実施することで、接峰面処理後のHDR画像における画素値の勾配を算出する。
FIG. 2 is a configuration diagram showing the inside of the luminance conversion target area setting unit 3.
In FIG. 2, the smoothing processing unit 3 a performs a process of smoothing the luminance of the pixels constituting the HDR image in the conversion area output from the conversion area range specifying unit 2.
The tangential surface processing unit 3b performs tangential surface processing on the pixels whose luminance has been smoothed by the smoothing processing unit 3a.
The differential operator processing unit 3c calculates the gradient of the pixel value in the HDR image after the ridge surface processing by performing the differential operator processing on the pixel on which the ridge surface processing is performed by the ridge surface processing unit 3b.

グループ分類処理部3dは接峰面処理後のHDR画像を構成している画素のうち、微分オペレータ処理部3cにより算出された画素値の勾配が閾値以下である画素が集まっている画素群を一つのグループに分類する処理を実施する。
ただし、グループ分類処理部3dは一つのグループに分類する処理を実施する前に、閾値を最適化する処理を実施する。
即ち、グループ分類処理部3dは微分オペレータ処理部3cにより算出された画素値の勾配と比較する閾値を仮設定して、その閾値を順次減少させながら、一つのグループに属する画素の個数が急増する直前の閾値(最適な閾値)を探索する処理を実施する。
The group classification processing unit 3d selects one pixel group in which pixels whose gradient of the pixel value calculated by the differential operator processing unit 3c is equal to or less than a threshold among the pixels constituting the HDR image after the ridge face processing are collected. Implement the process of classifying into one group.
However, the group classification processing unit 3d performs the process of optimizing the threshold before performing the process of classifying into one group.
That is, the group classification processing unit 3d temporarily sets a threshold value to be compared with the gradient of the pixel value calculated by the differential operator processing unit 3c, and the number of pixels belonging to one group increases rapidly while sequentially decreasing the threshold value. A process of searching for the immediately preceding threshold (optimum threshold) is performed.

輝度変換対象領域設定処理部3eはグループ分類処理部3dにより分類されたグループに属する画素を含む外接の領域(例えば、外接長方形、外接矩形、外接円)を輝度変換対象領域に設定する処理を実施する。
図2では、輝度変換対象領域設定部3が平滑化処理部3a、接峰面処理部3b、微分オペレータ処理部3c、グループ分類処理部3d及び輝度変換対象領域設定処理部3eから構成されている例を示したが、これは一例に過ぎず、例えば、輝度変換対象領域設定部3がワンチップマイコンで構成されていてもよい。
The luminance conversion target area setting processing unit 3e performs processing for setting a circumscribed area (for example, circumscribed rectangle, circumscribed rectangle, circumscribed circle) including pixels belonging to the group classified by the group classification processing unit 3d as the luminance conversion target area. To do.
In FIG. 2, the luminance conversion target area setting unit 3 includes a smoothing processing unit 3a, a ridge surface processing unit 3b, a differential operator processing unit 3c, a group classification processing unit 3d, and a luminance conversion target region setting processing unit 3e. Although an example is shown, this is only an example, and for example, the luminance conversion target area setting unit 3 may be configured by a one-chip microcomputer.

次に動作について説明する。
変換領域範囲指定部2は、人間の可視範囲(例えば、255階調)を超える輝度階調を有する画像として、HDR画像格納部1からHDR画像を読み込むと、そのHDR画像を図示せぬディスプレイに表示する。
このとき、HDR画像を構成する画素の最大輝度がLMAX、最小輝度がLMINであるとする。
また、HDR画像の左上を原点として、原点から下方向にi画素、右方向にj画素進んだ位置(i,j)に存在する画素の輝度をL(i,j)とする。
この場合、変換領域範囲指定部2がディスプレイに表示する画素の輝度を例えば255階調とすると、ディスプレイに表示する画素の輝度を下記のL’(i,j)(ただし、小数点以下を切り捨てた整数値)とする。
L’(i,j)=L(i,j)×(LMAX−LMIN)/255
Next, the operation will be described.
When the conversion area range specifying unit 2 reads an HDR image from the HDR image storage unit 1 as an image having a luminance gradation exceeding the human visible range (for example, 255 gradations), the conversion area range specifying unit 2 displays the HDR image on a display (not shown). indicate.
At this time, it is assumed that the maximum luminance of the pixels constituting the HDR image is L MAX and the minimum luminance is L MIN .
Also, let L (i, j) be the luminance of a pixel existing at a position (i, j) advanced i pixels downward from the origin and j pixels rightward with the upper left of the HDR image as the origin.
In this case, assuming that the luminance of the pixel displayed on the display by the conversion area range specifying unit 2 is, for example, 255 gradations, the luminance of the pixel displayed on the display is represented by the following L ′ (i, j) (however, the decimal part is rounded down) Integer value).
L ′ (i, j) = L (i, j) × (L MAX −L MIN ) / 255

変換領域範囲指定部2は、HDR画像をディスプレイに表示すると、輝度変換を行う領域の範囲の指定を受け付ける処理を行う。
即ち、ユーザがディスプレイに表示されているHDR画像を確認すると、変換領域範囲指定部2におけるキーボードやマウスなどを操作して、輝度変換を行う領域の範囲を指定する。
これにより、変換領域範囲指定部2が、ユーザの指定を受け付けて、輝度変換を行う領域の範囲を設定する。
図1では、点線で囲まれている領域が、輝度変換を行う領域の範囲として指定されている例を示している。
なお、指定する範囲の形状は、矩形形状であっても、円形形状であってもよい。また、折れ線による領域の指定であってもよい。
When the HDR image is displayed on the display, the conversion area range designation unit 2 performs a process of accepting designation of the area range for luminance conversion.
That is, when the user confirms the HDR image displayed on the display, the range of the area for luminance conversion is designated by operating the keyboard or mouse in the conversion area range designation unit 2.
Thereby, the conversion area range designation | designated part 2 receives a user's designation | designated, and sets the range of the area | region which performs luminance conversion.
FIG. 1 shows an example in which an area surrounded by a dotted line is designated as a range of an area for performing luminance conversion.
Note that the shape of the range to be specified may be a rectangular shape or a circular shape. Alternatively, the area may be specified by a broken line.

変換領域範囲指定部2は、輝度変換を行う領域の範囲を設定すると、その変換領域内のHDR画像を輝度変換対象領域設定部3に出力する。
このとき、輝度変換対象領域設定部3に出力されるHDR画像の輝度情報は、ディスプレイに表示している255階調の整数ではなく、HDR画像格納部1により格納されている元のHDR画像における輝度L(i,j)の情報である。
また、この輝度情報は、元のHDR画像を構成している画素の位置(i,j)の情報も併せ持っている。
When the conversion area range specifying unit 2 sets the range of the area for luminance conversion, the conversion area range specifying unit 2 outputs the HDR image in the conversion area to the luminance conversion target area setting unit 3.
At this time, the luminance information of the HDR image output to the luminance conversion target region setting unit 3 is not an integer of 255 gradations displayed on the display, but in the original HDR image stored by the HDR image storage unit 1. Information on luminance L (i, j).
The luminance information also includes information on the position (i, j) of the pixels constituting the original HDR image.

輝度変換対象領域設定部3は、変換領域範囲指定部2から変換領域内のHDR画像(例えば、図1の点線で囲まれている領域の画像)を受けると、変換領域内のHDR画像を構成している画素のうち、隣り合う画素と輝度が近似している画素同士を同一のグループに分類し、同一のグループに属する画素が存在している領域を輝度変換対象領域に設定する。
即ち、輝度変換対象領域設定部3は、図3に示すように、変換領域内のHDR画像(例えば、図1の点線で囲まれている領域の画像)の中から、輝度が同程度の画素を含む近傍の領域(点線で囲まれている領域)を別々の輝度変換対象領域に設定している。
When the luminance conversion target region setting unit 3 receives the HDR image in the conversion region (for example, the image of the region surrounded by the dotted line in FIG. 1) from the conversion region range specifying unit 2, the luminance conversion target region setting unit 3 configures the HDR image in the conversion region. Among pixels that are adjacent to each other, pixels that are similar in luminance to those of adjacent pixels are classified into the same group, and a region where pixels belonging to the same group exist is set as a luminance conversion target region.
That is, the luminance conversion target area setting unit 3, as shown in FIG. 3, pixels having the same luminance from the HDR image in the conversion area (for example, the image of the area surrounded by the dotted line in FIG. 1). The neighboring area (area surrounded by a dotted line) including “” is set as a separate luminance conversion target area.

以下、輝度変換対象領域設定部3の処理内容を具体的に説明する。
まず、輝度変換対象領域設定部3の平滑化処理部3aは、変換領域範囲指定部2から変換領域内のHDR画像を受けると、変換領域内のHDR画像を構成している画素の輝度を平滑化する。
即ち、平滑化処理部3aは、HDR画像に含まれているノイズ(小さな領域に現れている輝度が高い部分)を低減するために、移動平均と呼ばれるフィルタ処理を実施するものである。
具体的には、変換対象の画素を中心とする縦横3×3の9画素の輝度の値に“1/9”をそれぞれ乗算し、乗算後の各輝度の値の和を、当該画素の変換後の輝度の値とするものである。
これにより、図2に示すように、細かい数画素の高輝度(白い点)が消えるため、ノイズが低減される。
Hereinafter, the processing content of the brightness conversion target area setting unit 3 will be described in detail.
First, when the smoothing processing unit 3a of the luminance conversion target region setting unit 3 receives the HDR image in the conversion region from the conversion region range specifying unit 2, the smoothing processing unit 3a smoothes the luminance of the pixels constituting the HDR image in the conversion region. Turn into.
That is, the smoothing processing unit 3a performs a filter process called moving average in order to reduce noise (a portion with high luminance appearing in a small area) included in the HDR image.
Specifically, the luminance values of 9 pixels of 3 × 3 pixels in the vertical and horizontal directions centering on the pixel to be converted are respectively multiplied by “1/9”, and the sum of the luminance values after the multiplication is converted to the pixel. This is the value of the later luminance.
As a result, as shown in FIG. 2, the high luminance (white dots) of several fine pixels disappears, so that noise is reduced.

ここでは、平滑化処理部3aが移動平均と呼ばれるフィルタ処理を実施するものについて示したが、変換領域内のHDR画像を構成している画素のうち、事前に設定されている閾値(基準の輝度レベル)より輝度が高い画素を探索し、その画素の輝度を当該閾値に変換するようにしてもよい。
なお、変換後の画素の最大輝度をLMAX、最小輝度をLMIN、各画素の表示輝度をL(i,j)×(LMAX−LMIN)/255として、各画素を再表示すれば、図2の平滑化表示例のように、ノイズが低減している画像の表示が可能となる。
In this example, the smoothing processing unit 3a performs a filtering process called moving average. However, among the pixels constituting the HDR image in the transform area, a preset threshold (reference luminance) is shown. It is also possible to search for a pixel having higher luminance than (level) and convert the luminance of the pixel to the threshold value.
If each pixel is redisplayed, the maximum luminance of the converted pixel is L MAX , the minimum luminance is L MIN , and the display luminance of each pixel is L (i, j) × (L MAX −L MIN ) / 255. As shown in the smoothed display example of FIG. 2, an image with reduced noise can be displayed.

次に、輝度変換対象領域設定部3の接峰面処理部3bは、平滑化処理部3aにより輝度が平滑化された画素(注意:255階調にしたものではない)に対する接峰面処理を実施する。
合成開口レーダを用いて取得された電波画像であるHDR画像は、地上の均一な状態部分に関しても、輝度強弱が縞模様のように現れることがある。
接峰面処理は、縞の黒くなっている部分(輝度を表示した場合の凹みや縞などの溝)を埋める処理であり、接峰面処理では、変換対象の画素の周囲に位置している8画素の輝度のうち、最大の輝度を変換対象の画素の輝度に変換する。
なお、変換後の画素の最大輝度をLMAX、最小輝度をLMIN、各画素の表示輝度をL(i,j)×(LMAX−LMIN)/255として、各画素を再表示すれば、図2の接峰面処理表示例のように、それぞれの観測対象物が白く塗りつぶされたように表示することが可能となる。
Next, the climax surface processing unit 3b of the luminance conversion target area setting unit 3 performs tangential surface processing on a pixel (note: not 255 gradation) whose luminance has been smoothed by the smoothing processing unit 3a. carry out.
An HDR image, which is a radio wave image acquired using a synthetic aperture radar, may appear as a striped pattern with respect to a uniform state portion on the ground.
The tangential surface process is a process of filling a black portion of a stripe (a groove such as a dent or stripe when displaying luminance), and in the tangential surface process, it is located around the pixel to be converted. Among the 8 pixel luminances, the maximum luminance is converted into the luminance of the pixel to be converted.
If each pixel is redisplayed, the maximum luminance of the converted pixel is L MAX , the minimum luminance is L MIN , and the display luminance of each pixel is L (i, j) × (L MAX −L MIN ) / 255. As shown in the tangential surface processing display example of FIG. 2, it is possible to display each observation object as if it was painted white.

次に、輝度変換対象領域設定部3の微分オペレータ処理部3cは、接峰面処理部3bにより接峰面処理が実施された画素に対する微分オペレータ処理を実施する。
即ち、微分オペレータ処理部3cは、接峰面処理後のHDR画像における画素値の勾配を算出するために、8方向のラプラシアンフィルタを用いて、フィルタ処理を実施するものである。
画素値の勾配を使用することで、HDR画像における画素値の大小にかかわらず、周辺と比較して、画素値に変化がある領域の検出が可能になる。このため、混在している高輝度の領域と低輝度の領域を同時に検出することが可能になる。
なお、変換後の画素の最大輝度をLMAX、最小輝度をLMIN、各画素の表示輝度をL(i,j)×(LMAX−LMIN)/255として、各画素を再表示すれば、図2の微分オペレータ表示例のように、輝度の濃淡の変化があるエッジ部分を浮き上がらせることが可能となる。
Next, the differential operator processing unit 3c of the luminance conversion target area setting unit 3 performs differential operator processing on the pixels that have been subjected to the ridge surface processing by the ridge surface processing unit 3b.
That is, the differential operator processing unit 3c performs filter processing using an 8-direction Laplacian filter in order to calculate the gradient of the pixel value in the HDR image after the ridge surface processing.
By using the gradient of the pixel value, it is possible to detect a region where the pixel value is changed compared to the surroundings, regardless of the magnitude of the pixel value in the HDR image. For this reason, it is possible to simultaneously detect a high luminance region and a low luminance region which are mixed.
If each pixel is redisplayed, the maximum luminance of the converted pixel is L MAX , the minimum luminance is L MIN , and the display luminance of each pixel is L (i, j) × (L MAX −L MIN ) / 255. As shown in the differential operator display example of FIG. 2, it becomes possible to raise the edge portion where the brightness changes.

次に、輝度変換対象領域設定部3のグループ分類処理部3dは、接峰面処理後のHDR画像を構成している画素のうち、微分オペレータ処理部3cにより算出された画素値の勾配が閾値以下である画素が集まっている画素群を一つのグループに分類する処理を実施する。
以下、グループ分類処理部3dの処理内容を具体的に説明する。
Next, the group classification processing unit 3d of the luminance conversion target region setting unit 3 uses the gradient of the pixel value calculated by the differential operator processing unit 3c among the pixels constituting the HDR image after the ridge face processing as a threshold value. Processing for classifying the pixel group in which the following pixels are gathered into one group is performed.
Hereinafter, the processing content of the group classification | category process part 3d is demonstrated concretely.

まず、グループ分類処理部3dは、観測対象物が存在している領域を推定する領域拡張法の開始点を設定するため、微分オペレータ処理部3cにより算出された勾配の絶対値を画素値とする画像中の変化領域をクラスタリングすることで、HDR画像において、画素値の変化が大きい領域(観測対象物が存在している領域)を検出する。
ただし、観測対象物が存在している領域においても、勾配が大きい点が連続しない場合もあり、離散点のクラスタリングが必要なことから、k平均法によってクラスタリングを行って、大きな勾配が集中する領域を求める。
グループ分類処理部3dは、領域拡張法の開始点をクラスタ(同一グループ)に含まれる点の重心に最も近い点に設定する。
First, the group classification processing unit 3d sets the absolute value of the gradient calculated by the differential operator processing unit 3c as the pixel value in order to set the starting point of the region expansion method for estimating the region where the observation target exists. By clustering the change areas in the image, an area in which the change in the pixel value is large (area where the observation target exists) is detected in the HDR image.
However, even in the region where the observation object exists, points with large gradients may not be continuous, and clustering of discrete points is necessary. Ask for.
The group classification processing unit 3d sets the starting point of the region expansion method to the point closest to the center of gravity of the points included in the cluster (same group).

画素値勾配のクラスタリング結果には、画素値の高低が混在しているので、領域拡張法によって、観測対象物が存在している領域を推定する。
HDR画像は、接峰面処理によって、画素値を高さ方向に表現すると、観測対象物が存在している領域が凸包形状となるので、開始点から隣接する画素の値を比較し、画素値が設定している閾値以上であれば、当該画素をクラスタに含める処理により、観測対象物が存在している領域を推定する。
しかし、観測対象物が存在している領域の推定においては、クラスタリングの閾値によって、クラスタに含まれる画素の個数が変化する。
クラスタリングの閾値は、観測対象物を示す画素以外の画素と、観測対象物を示す画素との境界値を指すが、地表面の状態により、観測対象物が無い領域の画素値が一定値を示さないため、閾値を決定することができない。
Since the pixel value gradient clustering result includes both high and low pixel values, the region where the observation target is present is estimated by the region expansion method.
In the HDR image, when the pixel value is expressed in the height direction by the ridge surface processing, the region where the observation target object exists has a convex hull shape. If the value is equal to or greater than the set threshold value, the region where the observation target object exists is estimated by the process of including the pixel in the cluster.
However, in the estimation of the region where the observation object exists, the number of pixels included in the cluster varies depending on the clustering threshold.
The threshold value for clustering refers to the boundary value between a pixel other than the pixel indicating the observation object and the pixel indicating the observation object. Depending on the state of the ground surface, the pixel value of the area where there is no observation object indicates a constant value. As a result, the threshold cannot be determined.

そこで、グループ分類処理部3dは、次のようにして、クラスタリングの閾値を最適化する。
図4はクラスタリングの閾値とクラスタに含まれる画素の個数との対応関係を示す説明図である。
図4において、縦軸はクラスタに含まれる画素の個数を示し、横軸はクラスタリングの閾値を示しており、閾値は図中左から右にいくほど減少している。
Therefore, the group classification processing unit 3d optimizes the clustering threshold as follows.
FIG. 4 is an explanatory diagram showing the correspondence between the threshold value for clustering and the number of pixels included in the cluster.
In FIG. 4, the vertical axis indicates the number of pixels included in the cluster, the horizontal axis indicates the threshold value for clustering, and the threshold value decreases from left to right in the figure.

周辺の画素と比較して輝度が高い画素が、観測対象物を示す画素であると推定するため、図4に示すように、閾値を減少させると、クラスタに含まれる画素の個数が増加する。
さらに、閾値を減少させると、観測対象物を示す画素以外の画素も、観測対象物を示す画素とみなされてしまうため、クラスタに含まれる画素の個数が急増する。
グループ分類処理部3dは、クラスタに含まれる画素の個数が急増する直前の閾値を領域拡張法におけるクラスタリングの閾値に設定する。
図4の例では、Aの閾値を用いる場合、観測対象物が存在している領域をクラスタリングできず、Cの閾値を用いる場合、観測対象物以外の範囲をクラスタリングしてしまって、クラスタに含まれる画素の個数が急増しているので、Cの閾値の直前の閾値であるBの閾値をクラスタリングの閾値に設定している。
ここで、閾値Bをクラスタリングすべき閾値として自動的に決定する方式を述べる。
閾値の値を変数(例えばx)とし、閾値xを用いてクラスタリングした結果求まるクラスタの画素数をu(x)とする。差分法からx1,x2の差分商を(u(x2)−u(x1))/(x2−x1)とする。
x1とx2の値の差分をΔxとし、2階差分商を{u(x+2Δx)−2u(x+Δx)+u(x)}/Δx^2とする。
Δxの値を予め一定の値に決め、xの値を変化させて、xに対応した2階差分商を計算して記録する。図4に示す閾値と画素数の場合、x=Bの値において、2階差分商が最小(マイナス値)となる。マイナス値をとる理由は、閾値の値の減少に対して画素数の増加が最大になるためである。このようにして、変曲点Bを求める。
Since it is estimated that a pixel having a higher luminance than the surrounding pixels is a pixel indicating the observation target, as shown in FIG. 4, when the threshold value is decreased, the number of pixels included in the cluster increases.
Further, when the threshold value is decreased, pixels other than the pixels indicating the observation target are also regarded as pixels indicating the observation target, and the number of pixels included in the cluster increases rapidly.
The group classification processing unit 3d sets the threshold immediately before the number of pixels included in the cluster rapidly increases as the clustering threshold in the region expansion method.
In the example of FIG. 4, when the threshold value A is used, the region where the observation target object exists cannot be clustered. When the threshold value C is used, the range other than the observation target object is clustered and included in the cluster. Since the number of pixels to be increased has increased rapidly, the threshold value B immediately before the C threshold value is set as the clustering threshold value.
Here, a method for automatically determining the threshold B as a threshold to be clustered will be described.
The threshold value is a variable (for example, x), and the number of pixels of the cluster obtained as a result of clustering using the threshold value x is u (x). Based on the difference method, the difference quotient of x1 and x2 is (u (x2) -u (x1)) / (x2-x1).
The difference between the values of x1 and x2 is Δx, and the second-order difference quotient is {u (x + 2Δx) -2u (x + Δx) + u (x)} / Δx ^ 2.
The value of Δx is determined in advance as a constant value, the value of x is changed, and the second-order difference quotient corresponding to x is calculated and recorded. In the case of the threshold value and the number of pixels shown in FIG. 4, the second-order difference quotient is the minimum (minus value) when x = B. The reason for taking a negative value is that the increase in the number of pixels is maximized as the threshold value decreases. In this way, the inflection point B is obtained.

グループ分類処理部3dは、クラスタリングの閾値を最適化すると、接峰面処理後のHDR画像を構成している画素の中で、微分オペレータ処理部3cにより算出された画素値の勾配が、最適化している閾値以下である画素が集まっている画素群を一つのグループに分類する。   When the threshold value for clustering is optimized, the group classification processing unit 3d optimizes the gradient of the pixel value calculated by the differential operator processing unit 3c among the pixels constituting the HDR image after the ridge face processing. A pixel group in which pixels that are equal to or less than a certain threshold are gathered is classified into one group.

次に、輝度変換対象領域設定部3の輝度変換対象領域設定処理部3eは、グループ分類処理部3dにより分類されたグループに属する画素を含む外接の領域を輝度変換対象領域に設定する処理を実施する。
図5は輝度変換対象領域の設定例を示す説明図である。
図5の例では、点線の部分が輝度変換対象領域に設定されている。
即ち、1つのグループに属する黒の輝度の画素を含む点線の部分(外接長方形)が輝度変換対象領域に設定されている。
ここでは、外接の領域が外接長方形である例を示しているが、外接の領域が外接矩形であっても、外接円であってもよい。また、グループに属する黒の輝度の画素から一定距離にある画素範囲であってもよい。
Next, the luminance conversion target region setting processing unit 3e of the luminance conversion target region setting unit 3 performs processing for setting a circumscribed region including pixels belonging to the group classified by the group classification processing unit 3d as the luminance conversion target region. To do.
FIG. 5 is an explanatory diagram showing an example of setting the luminance conversion target area.
In the example of FIG. 5, the dotted line portion is set as the luminance conversion target area.
That is, a dotted line portion (a circumscribed rectangle) including black luminance pixels belonging to one group is set as a luminance conversion target region.
In this example, the circumscribed area is a circumscribed rectangle, but the circumscribed area may be a circumscribed rectangle or a circumscribed circle. Further, the pixel range may be a certain distance from the black luminance pixels belonging to the group.

図5において、点線に付加している番号は、説明のために付与したグループの番号である。グループ番号8のグループは、グループ番号2のグループをくりぬいたドーナツ型となる。
図5では、10個のグループに分類しているが、グループ同士の結合処理を行うようにしてもよい。
グループの結合処理は、グループに属する画素の距離が一定値以下であり、かつ、HDR画像から読み込んだグループに属する画素の輝度の平均値と分散値が、一定の差違に収まるグループ同士を同じグループとする処理である。
図5の例では、グループ番号3、グループ番号4、グループ番号5、グループ番号6及びグループ番号7のグループが同一のグループとなることが想定される。
In FIG. 5, the number added to the dotted line is the number of the group assigned for the purpose of explanation. The group of group number 8 becomes a donut shape in which the group of group number 2 is hollowed out.
In FIG. 5, the groups are classified into 10 groups. However, the joining process between the groups may be performed.
In the group combining process, a group in which the distance between pixels belonging to a group is equal to or smaller than a certain value and the average value and the variance value of the pixels belonging to the group read from the HDR image fall within a certain difference is the same group. It is processing to.
In the example of FIG. 5, it is assumed that the group of group number 3, group number 4, group number 5, group number 6, and group number 7 is the same group.

輝度変換対象領域設定処理部3eは、上記のようにして、N個の輝度変換対象領域(1)〜(N)を設定すると、その輝度変換対象領域(1)〜(N)内に存在している画素の輝度L(i,j)を輝度変換部4のメモリ4a−1〜4a−Nに格納する。
なお、メモリ4a−1〜4a−Nに格納される画素の輝度L(i,j)は、言うまでもないが、当該画素の輝度を示す情報だけでなく、当該画素が存在している元のHDR画像中の位置(i,j)を示す情報も含まれている。
When the luminance conversion target region setting processing unit 3e sets N luminance conversion target regions (1) to (N) as described above, the luminance conversion target region setting processing unit 3e exists in the luminance conversion target regions (1) to (N). The luminance L (i, j) of the pixel being stored is stored in the memories 4a-1 to 4a-N of the luminance conversion unit 4.
Needless to say, the luminance L (i, j) of the pixel stored in the memories 4a-1 to 4a-N is not only information indicating the luminance of the pixel, but also the original HDR in which the pixel exists. Information indicating the position (i, j) in the image is also included.

輝度変換部4は、輝度変換対象領域設定部3から輝度変換対象領域(1)〜(N)内に存在している画素の輝度L(i,j)を受けると、輝度変換対象領域設定部3により設定された輝度変換対象領域(1)〜(N)毎に、輝度変換対象領域(n)内に存在しているノイズを除去する。
即ち、輝度変換部4は、輝度変換対象領域(n)内に存在している画素のうち、周辺の画素の輝度と比べて、輝度が所定の閾値より高い画素が集まっている小さな領域をノイズが重畳されている領域であると判定する。
When the luminance conversion unit 4 receives the luminance L (i, j) of the pixels existing in the luminance conversion target regions (1) to (N) from the luminance conversion target region setting unit 3, the luminance conversion target region setting unit For each of the luminance conversion target areas (1) to (N) set in step 3, noise existing in the luminance conversion target area (n) is removed.
That is, the luminance conversion unit 4 performs noise reduction on a small region in which pixels whose luminance is higher than a predetermined threshold as compared to the luminance of surrounding pixels among the pixels existing in the luminance conversion target region (n). Is determined to be an overlapping region.

ここで、図6は輝度変換対象領域における画素値のヒストグラムの一例を示す説明図である。
輝度変換部4は、画素値の増大に伴って頻度が低下した先で、頻度勾配が平坦となる変曲点を求め、その変曲点における画素値より輝度が高い画素をノイズと推定している。
図6の例では、画素をノイズと推定する閾値を“1935”としている。
以下、このノイズを推定するための閾値を自動的に求める方式を示す。
図6において、横軸は画素値のとりうる範囲を示している。
図6の横軸1目盛りの値が5である場合、画素値が目盛りの値から5以内である画素の個数を縦軸で示し、グラフ上では縦棒(ビンと呼ぶ)で示す。
図4における変曲点の求め方と同様に、図6においても変曲点を求める。
一つのビンの画素値の値を変数(例えばx)とする。図中、横軸メモリ幅が例えば5である場合、画素値x〜x+5の画素数をg(x)とする。
差分法からx1,x2の差分商を(g(x2)−g(x1))/(x2−x1)とする。
x1とx2の値の差分をΔxとすると、差分商は{g(x+Δx)−g(x)}/Δxとなる。
Δxの値を予め一定の値に決め、xの値を変化させて、xに対応した2階差分商を計算して記録する。
Δxの値および、xの値を変化させる差分量をビン幅の整数倍とすると、図6のグラフに示した値のみで、ノイズを推定するための閾値が求められる。Δxの値または、xの値を変化させる差分量をビン幅の整数倍としない場合には、ヒストグラムの再計算が必要となる。
差分商の値が以下の条件を全て満たす画素値x1を境として、高い画素値の画素をノイズとみなす。
条件1 x1<xとなるxに対してg(x)の値が別途定める閾値以下
条件2 x<x1となる画素値を示す画素数が、画像の画素数合計×別途定める割合(閾
値)以上。
条件3 予め定めた差分量Δx2に対して、
x−Δx2 < x < x1 である x における差分商の値が
x1 < x < x+Δx2 である x における差分商の値より小 さくなる区間の中で、差分商が予め定めた閾値以上となるx1の値
Here, FIG. 6 is an explanatory diagram illustrating an example of a histogram of pixel values in the luminance conversion target region.
The luminance conversion unit 4 obtains an inflection point at which the frequency gradient becomes flat before the frequency decreases as the pixel value increases, and estimates a pixel whose luminance is higher than the pixel value at the inflection point as noise. Yes.
In the example of FIG. 6, the threshold for estimating a pixel as noise is “1935”.
Hereinafter, a method for automatically obtaining a threshold for estimating the noise will be described.
In FIG. 6, the horizontal axis indicates the range of pixel values.
When the value of one scale on the horizontal axis in FIG. 6 is 5, the number of pixels whose pixel values are within 5 from the scale value is indicated on the vertical axis, and is indicated by a vertical bar (referred to as a bin) on the graph.
Similar to the method of obtaining the inflection point in FIG. 4, the inflection point is also obtained in FIG.
Let the value of the pixel value of one bin be a variable (for example, x). In the figure, when the horizontal axis memory width is 5, for example, the number of pixels of pixel values x to x + 5 is g (x).
Based on the difference method, the difference quotient of x1 and x2 is (g (x2) −g (x1)) / (x2−x1).
If the difference between the values of x1 and x2 is Δx, the difference quotient is {g (x + Δx) −g (x)} / Δx.
The value of Δx is determined in advance as a constant value, the value of x is changed, and the second-order difference quotient corresponding to x is calculated and recorded.
Assuming that the value of Δx and the amount of difference that changes the value of x are integer multiples of the bin width, a threshold for estimating noise can be obtained using only the values shown in the graph of FIG. If the value of Δx or the amount of difference that changes the value of x is not an integral multiple of the bin width, the histogram needs to be recalculated.
A pixel having a high pixel value is regarded as noise with a pixel value x1 where the difference quotient value satisfies all of the following conditions as a boundary.
Condition 1 The value of g (x) is less than or equal to a threshold value separately defined for x where x1 <x Condition 2 The number of pixels indicating the pixel value satisfying x <x1 is the total number of pixels x separately determined ratio (threshold value) more than.
Condition 3 For a predetermined difference amount Δx2,
In the interval where the difference quotient value at x where x−Δx2 <x <x1 is smaller than the difference quotient value at x where x1 <x <x + Δx2, the difference quotient is greater than or equal to a predetermined threshold. value

輝度変換部4は、ノイズが重畳されている領域を推定すると、ローパスフィルタを用いて、そのノイズを除去することで、ノイズと推定する閾値に満たない画素値の変化を視認できるようにする。
輝度変換部4は、ノイズを除去すると、輝度変換対象領域(n)内に存在している画素の輝度を線形輝度圧縮によって、可視範囲(例えば、255階調)内の輝度に変換する処理を実施する。
ここでは、輝度変換部4が線形輝度圧縮によって、画素の輝度を変換するものを示したが、以下のようにして、画素の輝度を変換するようにしてもよい。
When the luminance conversion unit 4 estimates a region where noise is superimposed, the luminance conversion unit 4 uses a low-pass filter to remove the noise so that a change in pixel value that is less than a threshold to be estimated as noise can be visually recognized.
The luminance conversion unit 4 performs processing for converting the luminance of the pixels existing in the luminance conversion target region (n) into luminance in the visible range (for example, 255 gradations) by linear luminance compression after removing the noise. carry out.
In this example, the luminance conversion unit 4 converts the luminance of the pixel by linear luminance compression. However, the luminance of the pixel may be converted as follows.

輝度変換部4の輝度変換処理部4b−1は、メモリ4a−1から輝度変換対象領域設定部3により設定された輝度変換対象領域(1)の画像を読み込み、輝度変換対象領域(1)内に存在している画素の輝度の平均値μ及び分散値σを算出する。
次に、輝度変換処理部4b−1は、その平均値μ及び分散値σから輝度変換範囲S(1)を決定する。
例えば、平均値μを中心にして、平均値μの上下にそれぞれ分散値σの3倍の範囲を輝度変換範囲S(1)に決定する。
S(1)の下限値=μ−3×σ
S(1)の上限値=μ+3×σ
The luminance conversion processing unit 4b-1 of the luminance conversion unit 4 reads the image of the luminance conversion target region (1) set by the luminance conversion target region setting unit 3 from the memory 4a-1, and stores the image in the luminance conversion target region (1). The average value μ and the variance value σ of the luminance of the pixels existing in the are calculated.
Next, the luminance conversion processing unit 4b-1 determines the luminance conversion range S (1) from the average value μ and the variance value σ.
For example, a range that is three times the variance value σ above and below the average value μ with the average value μ as the center is determined as the luminance conversion range S (1).
Lower limit value of S (1) = μ−3 × σ
Upper limit value of S (1) = μ + 3 × σ

次に、輝度変換処理部4b−1は、その輝度変換範囲S(1)を255階調で表現し、輝度変換対象領域(1)内に存在している画素の輝度L(i,j)を輝度変換範囲S(1)内の輝度cL(i,j)に変換する。
cL(i,j)=(L(i,j)−(μ−3×σ))/(6×σ/255)
ただし、輝度cL(i,j)は、上式の右辺の値から小数点を取り除いた値である。
なお、輝度変換対象領域(1)内に存在している画素の輝度が、その輝度変換範囲S(1)の下限値より低い場合、その画素の輝度を“0”に変換し、その輝度変換範囲S(1)の上限値より高い場合、その画素の輝度を“255”に変換する。
Next, the luminance conversion processing unit 4b-1 expresses the luminance conversion range S (1) with 255 gradations, and the luminance L (i, j) of the pixels existing in the luminance conversion target region (1). Is converted to the luminance cL (i, j) within the luminance conversion range S (1).
cL (i, j) = (L (i, j) − (μ−3 × σ)) / (6 × σ / 255)
However, the luminance cL (i, j) is a value obtained by removing the decimal point from the value on the right side of the above equation.
When the luminance of the pixel existing in the luminance conversion target area (1) is lower than the lower limit value of the luminance conversion range S (1), the luminance of the pixel is converted to “0” and the luminance conversion is performed. If it is higher than the upper limit value of the range S (1), the luminance of the pixel is converted to “255”.

輝度変換処理部4b−2は、メモリ4a−2から輝度変換対象領域設定部3により設定された輝度変換対象領域(2)の画像を読み込み、輝度変換対象領域(2)内に存在している画素の輝度の平均値μ及び分散値σを算出する。
次に、輝度変換処理部4b−2は、輝度変換処理部4b−1と同様に、その平均値μ及び分散値σから輝度変換範囲S(2)を決定して、その輝度変換範囲S(2)を255階調で表現し、輝度変換対象領域(2)内に存在している画素の輝度L(i,j)を輝度変換範囲S(2)内の輝度cL(i,j)に変換する。
The luminance conversion processing unit 4b-2 reads the image of the luminance conversion target region (2) set by the luminance conversion target region setting unit 3 from the memory 4a-2, and exists in the luminance conversion target region (2). An average value μ and a variance value σ of the luminance of the pixels are calculated.
Next, similarly to the luminance conversion processing unit 4b-1, the luminance conversion processing unit 4b-2 determines the luminance conversion range S (2) from the average value μ and the variance value σ, and the luminance conversion range S ( 2) is expressed by 255 gradations, and the luminance L (i, j) of the pixel existing in the luminance conversion target region (2) is changed to the luminance cL (i, j) in the luminance conversion range S (2). Convert.

輝度変換処理部4b−Nは、メモリ4a−Nから輝度変換対象領域設定部3により設定された輝度変換対象領域(N)の画像を読み込み、輝度変換対象領域(N)内に存在している画素の輝度の平均値μ及び分散値σを算出する。
次に、輝度変換処理部4b−Nは、輝度変換処理部4b−1と同様に、その平均値μ及び分散値σから輝度変換範囲S(N)を決定して、その輝度変換範囲S(N)を255階調で表現し、輝度変換対象領域(N)内に存在している画素の輝度L(i,j)を輝度変換範囲S(N)内の輝度cL(i,j)に変換する。
The luminance conversion processing unit 4b-N reads an image of the luminance conversion target region (N) set by the luminance conversion target region setting unit 3 from the memory 4a-N, and exists in the luminance conversion target region (N). An average value μ and a variance value σ of the luminance of the pixels are calculated.
Next, similarly to the luminance conversion processing unit 4b-1, the luminance conversion processing unit 4b-N determines the luminance conversion range S (N) from the average value μ and the variance value σ, and the luminance conversion range S ( N) is expressed by 255 gradations, and the luminance L (i, j) of the pixel existing in the luminance conversion target region (N) is changed to the luminance cL (i, j) in the luminance conversion range S (N). Convert.

上記のように、輝度変換処理部4b−1〜4b−Nが同様の方法で輝度変換範囲S(1)〜S(N)を決定して、輝度変換対象領域(1)〜(N)内に存在している画素の輝度L(i,j)を輝度変換範囲S(1)〜S(N)内の輝度cL(i,j)に変換しているが、輝度変換対象領域(1)〜(N)における輝度の平均値μ及び分散値σは、輝度変換対象領域毎に異なるので、輝度変換対象領域毎に異なる輝度変換範囲S(1)〜S(N)が決定され、輝度変換範囲S(1)〜S(N)は、当該輝度変換対象領域に適する変換範囲となる。
したがって、輝度変換対象領域(1)〜(N)毎に最適な輝度変換を実現することができる。
As described above, the luminance conversion processing units 4b-1 to 4b-N determine the luminance conversion ranges S (1) to S (N) by the same method, and are within the luminance conversion target regions (1) to (N). Is converted into luminance cL (i, j) within the luminance conversion range S (1) to S (N), but the luminance conversion target region (1) Since the average value μ and the variance value σ of the luminance in (N) are different for each luminance conversion target region, different luminance conversion ranges S (1) to S (N) are determined for each luminance conversion target region. The ranges S (1) to S (N) are conversion ranges suitable for the luminance conversion target region.
Therefore, optimal brightness conversion can be realized for each of the brightness conversion target areas (1) to (N).

図7は輝度変換部4の輝度変換結果の一例を示す説明図である。
輝度変換結果は、図7に示すように、それぞれ本来の観測データの詳細ディテールを表現していることがわかる。
輝度変換対象領域(1)の輝度変換後の画像の輝度cL(i,j)は、メモリ4c−1に格納され、輝度変換対象領域(2)の輝度変換後の画像の輝度cL(i,j)は、メモリ4c−2に格納される。
また、輝度変換対象領域(N)の輝度変換後の画像の輝度cL(i,j)は、メモリ4c−Nに格納される。
FIG. 7 is an explanatory diagram illustrating an example of the luminance conversion result of the luminance conversion unit 4.
As shown in FIG. 7, it can be seen that the luminance conversion results represent the detailed details of the original observation data.
The luminance cL (i, j) of the image after luminance conversion of the luminance conversion target region (1) is stored in the memory 4c-1, and the luminance cL (i, j of the image after luminance conversion of the luminance conversion target region (2) is stored. j) is stored in the memory 4c-2.
Further, the luminance cL (i, j) of the image after the luminance conversion of the luminance conversion target region (N) is stored in the memory 4c-N.

領域合成部5は、メモリ4c−1〜4c−Nにより格納されている輝度変換対象領域(1)〜(N)の輝度変換後の画像を合成して、合成画像を生成する。
即ち、領域合成部5は、変換領域範囲指定部2から変換領域内のHDR画像(例えば、図1の点線で囲まれている領域の画像)を受けると、そのHDR画像を構成している画素の最大輝度をLMAX、最小輝度をLMIN、各画素の表示輝度をL(i,j)×(LMAX−LMIN)/255として、各画素を図示せぬディスプレイに表示する。
次に、領域合成部5は、輝度変換部4のメモリ4c−1〜4c−Nに格納されている輝度変換対象領域(1)〜(N)の輝度変換後の画像を読み込み、ディスプレイに表示している輝度変換対象領域(1)〜(N)の画素の輝度L(i,j)を、輝度変換後の画像の輝度cL(i,j)に置き換える処理を行う。
領域合成部5による輝度変換後の画像は、合成画像として、合成画像格納部6に格納される。
図8は領域合成部5により生成された合成画像の表示例を示す説明図であり、この合成画像は、図示せぬディスプレイに表示される。
The area synthesizing unit 5 synthesizes the luminance converted images of the luminance conversion target areas (1) to (N) stored in the memories 4c-1 to 4c-N to generate a synthesized image.
That is, when the region composition unit 5 receives an HDR image (for example, an image of a region surrounded by a dotted line in FIG. 1) in the conversion region from the conversion region range specifying unit 2, the pixels constituting the HDR image Each pixel is displayed on a display (not shown) where L MAX is the maximum luminance, L MIN is the minimum luminance, and L (i, j) × (L MAX −L MIN ) / 255 is the display luminance of each pixel.
Next, the region composition unit 5 reads the luminance-converted images of the luminance conversion target regions (1) to (N) stored in the memories 4c-1 to 4c-N of the luminance conversion unit 4 and displays them on the display. A process of replacing the luminance L (i, j) of the pixels in the luminance conversion target areas (1) to (N) with the luminance cL (i, j) of the image after the luminance conversion is performed.
The image after the luminance conversion by the region synthesis unit 5 is stored in the synthesized image storage unit 6 as a synthesized image.
FIG. 8 is an explanatory diagram showing a display example of a composite image generated by the region composition unit 5, and this composite image is displayed on a display (not shown).

ここでは、領域合成部5が、変換領域範囲指定部2により設定された変換領域内のHDR画像の中で、輝度変換対象領域(1)〜(N)以外の画像も合成画像に含められているが、輝度変換対象領域(1)〜(N)以外の画像を合成画像に含めずに、輝度変換対象領域(1)〜(N)の画像だけを合成して、合成画像を生成するようにしてもよい。   Here, the region composition unit 5 includes images other than the luminance conversion target regions (1) to (N) in the composite image among the HDR images in the transform region set by the transform region range designating unit 2. However, an image other than the luminance conversion target areas (1) to (N) is not included in the composite image, and only the images of the luminance conversion target areas (1) to (N) are combined to generate a composite image. It may be.

立体表示部7は、領域合成部5が合成画像を合成画像格納部6に格納すると、合成画像格納部6から合成画像を読み込み、図1に示すように、その合成画像を構成している画素の輝度を図示せぬディスプレイに立体的に表示する。
即ち、立体表示部7は、合成画像の画素位置(i,j)における輝度(輝度変換対象領域(1)〜(N)の画像を構成している画素の輝度はcL(i,j)、輝度変換対象領域(1)〜(N)以外の画像を構成している画素の輝度はL(i,j)であるが、ここでは、説明の便宜上、合成画像を構成している全ての画素の輝度をcL(i,j)で表記する)から、3次元座標(a×i,a×j,cL(i,j))となる点を生成する。
ただし、aはユーザにより設定可能な任意の実数である。
When the region composition unit 5 stores the composite image in the composite image storage unit 6, the stereoscopic display unit 7 reads the composite image from the composite image storage unit 6 and, as shown in FIG. 1, the pixels constituting the composite image Is displayed three-dimensionally on a display (not shown).
That is, the stereoscopic display unit 7 has the luminance at the pixel position (i, j) of the synthesized image (the luminance of the pixels constituting the luminance conversion target areas (1) to (N) is cL (i, j), The luminance of the pixels constituting the image other than the luminance conversion target areas (1) to (N) is L (i, j), but here, for convenience of explanation, all the pixels constituting the composite image Is represented by cL (i, j)), and a point having three-dimensional coordinates (a × i, a × j, cL (i, j)) is generated.
However, a is an arbitrary real number that can be set by the user.

立体表示部7は、3次元座標(a×i,a×j,cL(i,j))となる点を生成すると、図1に示すように、その点を図示せぬディスプレイに表示する。
図1では、中心の輝度が高い部分を表示している例を示している。ただし、3次元の視点位置は自由に変えられることとする。
なお、立体表示部7による3次元の合成画像と、領域合成部5による2次元の合成画像とを重畳して表示するようにしてもよいし、並べて表示するようにしてもよい。
When the three-dimensional display unit 7 generates a point having three-dimensional coordinates (a × i, a × j, cL (i, j)), the point is displayed on a display (not shown) as shown in FIG.
FIG. 1 shows an example in which a portion having a high central luminance is displayed. However, the three-dimensional viewpoint position can be freely changed.
Note that the three-dimensional synthesized image by the stereoscopic display unit 7 and the two-dimensional synthesized image by the region synthesizing unit 5 may be superimposed and displayed side by side.

以上で明らかなように、この実施の形態1によれば、HDR画像を構成している画素のうち、隣り合う画素と輝度が近似している画素同士を同一のグループに分類し、同一のグループに属する画素が存在している領域を輝度変換対象領域(1)〜(N)に設定する輝度変換対象領域設定部3と、輝度変換対象領域設定部3により設定された輝度変換対象領域(1)〜(N)毎に、輝度変換対象領域(n)内に存在しているノイズを除去してから、その輝度変換対象領域(n)内に存在している画素の輝度を可視範囲内の輝度cL(i,j)に変換する輝度変換部4とを設け、領域合成部5が輝度変換部4により画素の輝度が変換された輝度変換対象領域(1)〜(N)内の画像を合成して、合成画像を生成するように構成したので、高輝度のノイズがHDR画像に含まれている場合や、様々な観測対象物がHDR画像の中に混在している場合でも、それぞれの観測対象物を分かり易く表示することができる効果を奏する。   As apparent from the above, according to the first embodiment, among the pixels constituting the HDR image, the pixels whose luminance is similar to that of the adjacent pixels are classified into the same group, and the same group. A luminance conversion target area setting unit 3 that sets areas where pixels belonging to the luminance conversion target areas (1) to (N) exist, and a luminance conversion target area (1) set by the luminance conversion target area setting unit 3 ) To (N), the noise existing in the luminance conversion target area (n) is removed, and the luminance of the pixel existing in the luminance conversion target area (n) is set within the visible range. A luminance conversion unit 4 that converts the luminance into a luminance cL (i, j), and the region synthesis unit 5 converts the images in the luminance conversion target regions (1) to (N), in which the luminance of the pixels is converted by the luminance conversion unit 4 Since it is composed to generate a composite image, It is is an effect which can be displayed or when, even if a different observation target object is mixed in the HDR image, clarity of each observation object contained in the HDR image.

また、この実施の形態1によれば、変換領域範囲指定部2がHDR画像の中で輝度変換を行う領域の範囲を指定し、その領域内の画像を輝度変換対象領域設定部3に出力するように構成したので、HDR画像の中の可視化が必要な領域(例えば、ユーザが表示を希望する領域)の範囲だけ輝度変換を行うことができるようになり、その結果、HDR画像に含まれる様々なノイズの影響を受けずに、可視化が必要な領域内の観測対象物を分かり易く表示することができる効果を奏する。   Further, according to the first embodiment, the conversion area range designation unit 2 designates a range of an area to be subjected to luminance conversion in the HDR image, and outputs an image in the area to the luminance conversion target area setting unit 3. With this configuration, it is possible to perform luminance conversion only in the range of an area in the HDR image that needs to be visualized (for example, an area that the user desires to display). It is possible to display an observation object in an area that needs to be visualized in an easy-to-understand manner without being affected by noise.

この実施の形態1によれば、立体表示部7が領域合成部5により生成された合成画像を構成している画素の輝度を立体表示するように構成したので、HDR画像の中に混在している複数の観測対象物の輝度の差異が僅かであっても、複数の観測対象物の形状や状態の差異を容易に視認することができる効果を奏する。   According to the first embodiment, the stereoscopic display unit 7 is configured to stereoscopically display the luminance of the pixels constituting the synthesized image generated by the region synthesizing unit 5, so that it is mixed in the HDR image. Even if the difference in brightness between the plurality of observation objects is small, there is an effect that the difference in shape and state of the plurality of observation objects can be easily visually recognized.

また、この実施の形態1によれば、輝度変換対象領域設定部3が、HDR画像を構成している画素の輝度を平滑化する平滑化処理部3aと、平滑化処理部3aにより輝度が平滑化された画素に対する接峰面処理を実施する接峰面処理部3bと、接峰面処理部3bにより接峰面処理が実施された画素に対する微分オペレータ処理を実施することで、接峰面処理後のHDR画像における画素値の勾配を算出する微分オペレータ処理部3cと、接峰面処理後のHDR画像を構成している画素のうち、微分オペレータ処理部3cにより算出された画素値の勾配が閾値以下である画素が集まっている画素群を一つのグループに分類するグループ分類処理部3dと、グループ分類処理部3dにより分類されたグループに属する画素を含む外接の領域を輝度変換対象領域に設定する輝度変換対象領域設定処理部3eとから構成されているので、輝度の特徴が似ている領域毎に、輝度変換を実施することが可能になり、各領域内の観測対象物を分かり易く表示することができる効果を奏する。   Further, according to the first embodiment, the luminance conversion target region setting unit 3 smoothes the luminance by the smoothing processing unit 3a that smoothes the luminance of the pixels constituting the HDR image, and the smoothing processing unit 3a. The ridge surface processing unit 3b that performs the tangential surface processing on the converted pixels and the differential operator processing for the pixels that have been subjected to the ridge surface processing by the ridge surface processing unit 3b The differential operator processing unit 3c for calculating the gradient of the pixel value in the subsequent HDR image and the gradient of the pixel value calculated by the differential operator processing unit 3c among the pixels constituting the HDR image after the ridge peak processing. A group classification processing unit 3d that classifies a pixel group in which pixels that are less than or equal to the threshold value are grouped into one group, and a circumscribed area that includes pixels belonging to the group classified by the group classification processing unit 3d. Since it is composed of the luminance conversion target region setting processing unit 3e that is set as the replacement target region, it is possible to perform luminance conversion for each region having similar luminance characteristics, and the observation target in each region There is an effect that objects can be displayed in an easy-to-understand manner.

この実施の形態1によれば、グループ分類処理部3dが一つのグループに分類する処理を実施する前に、微分オペレータ処理部3cにより算出された画素値の勾配と比較する閾値を仮設定して、その閾値を順次減少させながら、一つのグループに属する画素の個数が急増する直前の閾値(最適な閾値)を探索するように構成したので、観測対象物に係る画素群を正確に一つのグループに分類することができる効果を奏する。   According to the first embodiment, the threshold value to be compared with the gradient of the pixel value calculated by the differential operator processing unit 3c is temporarily set before the group classification processing unit 3d performs the processing of classifying into one group. Since the threshold value (optimal threshold value) immediately before the number of pixels belonging to one group rapidly increases is searched while the threshold value is sequentially decreased, the pixel group related to the observation object is accurately set to one group. There is an effect that can be classified into.

この実施の形態1によれば、輝度変換部4が、輝度変換対象領域設定部3により設定された輝度変換対象領域(1)〜(N)毎に、当該輝度変換対象領域(n)内に存在しているノイズを除去してから、輝度変換対象領域(n)内に存在している画素の輝度L(i,j)を線形輝度圧縮によって、可視範囲内の輝度cL(i,j)に変換するように構成したので、ノイズと推定する閾値に満たない画素値の変化を視認することができるとともに、輝度変換対象領域(1)〜(N)毎に最適な輝度変換を実現することができる。その結果、輝度変換対象領域(1)〜(N)内の観測対象物を分かり易く表示することができる効果を奏する。   According to the first embodiment, the luminance conversion unit 4 is included in the luminance conversion target region (n) for each of the luminance conversion target regions (1) to (N) set by the luminance conversion target region setting unit 3. After removing the existing noise, the luminance cL (i, j) within the visible range is obtained by linear luminance compression of the luminance L (i, j) of the pixel existing in the luminance conversion target region (n). Therefore, it is possible to visually recognize changes in pixel values that are less than the threshold value estimated as noise, and to realize optimal luminance conversion for each of the luminance conversion target areas (1) to (N). Can do. As a result, there is an effect that the observation objects in the luminance conversion target areas (1) to (N) can be displayed in an easily understandable manner.

この実施の形態1によれば、輝度変換部4が、輝度変換対象領域設定部3により設定された輝度変換対象領域(1)〜(N)毎に、当該輝度変換対象領域(n)内に存在しているノイズを除去してから、当該輝度変換対象領域(n)内に存在している画素の輝度L(i,j)の平均値μ及び分散値σを算出して、その平均値μ及び分散値σから、可視範囲内に於いて輝度変換範囲S(1)〜S(N)を決定し、その平均値μ及び分散値σを用いて、当該輝度変換対象領域(n)内に存在している画素の輝度L(i,j)を輝度変換範囲S(n)内の輝度cL(i,j)に変換するように構成したので、ノイズと推定する閾値に満たない画素値の変化を視認することができるとともに、輝度変換対象領域(1)〜(N)毎に最適な輝度変換を実現することができる。その結果、輝度変換対象領域(1)〜(N)内の観測対象物を分かり易く表示することができる効果を奏する。   According to the first embodiment, the luminance conversion unit 4 is included in the luminance conversion target region (n) for each of the luminance conversion target regions (1) to (N) set by the luminance conversion target region setting unit 3. After removing the existing noise, the average value μ and the variance value σ of the luminance L (i, j) of the pixels existing in the luminance conversion target region (n) are calculated, and the average value is calculated. Luminance conversion ranges S (1) to S (N) are determined within the visible range from μ and the variance value σ, and the average value μ and the variance value σ are used to determine the luminance conversion range (n). Is converted to the luminance cL (i, j) in the luminance conversion range S (n), so that the pixel value that does not satisfy the threshold value for estimating noise The change in brightness can be visually recognized, and the optimum brightness conversion is realized for each of the brightness conversion target areas (1) to (N). It is possible. As a result, there is an effect that the observation objects in the luminance conversion target areas (1) to (N) can be displayed in an easily understandable manner.

実施の形態2.
図9はこの発明の実施の形態2による画像表示装置の輝度変換対象領域設定部3の内部を示す構成図である。
図9において、高輝度小領域除去部3fは変換領域範囲指定部2から出力された変換領域内のHDR画像を構成している画素の輝度と予め設定された閾値を比較することで、その閾値より輝度が高い画素が集まっている小領域(画素数が数個の領域)を検出し、その小領域内の画素の輝度を他の輝度(例えば、小領域以外の画素であって、その小領域から最も近い位置に存在している画素の輝度)に置き換える処理を実施する。
Embodiment 2. FIG.
FIG. 9 is a block diagram showing the inside of the luminance conversion target area setting unit 3 of the image display apparatus according to Embodiment 2 of the present invention.
In FIG. 9, the high-luminance small region removal unit 3 f compares the luminance of the pixels constituting the HDR image in the conversion region output from the conversion region range specification unit 2 with a preset threshold value, thereby obtaining the threshold value. A small area (a few pixels) in which pixels with higher luminance are gathered is detected, and the luminance of the pixels in the small area is changed to other luminance (for example, a pixel other than the small area and its small size). To replace the brightness of the pixel closest to the area).

クラスタリング部3gは高輝度小領域除去部3fによる置換処理後のHDR画像を構成している画素の輝度を順次走査して、隣り合う画素と輝度が近似している画素同士を同一のグループに分類する処理を実施する。
輝度変換対象領域設定処理部3hはクラスタリング部3gにより分類されたグループに属する画素を含む外接の領域(例えば、外接長方形、外接矩形、外接円)を輝度変換対象領域に設定する処理を実施する。
The clustering unit 3g sequentially scans the luminance of the pixels constituting the HDR image after the replacement processing by the high luminance small region removing unit 3f, and classifies the pixels whose luminance is similar to the adjacent pixels into the same group. Perform the process.
The luminance conversion target region setting processing unit 3h performs processing for setting a circumscribed region (for example, circumscribed rectangle, circumscribed rectangle, circumscribed circle) including pixels belonging to the group classified by the clustering unit 3g as the luminance conversion target region.

上記実施の形態1では、輝度変換対象領域設定部3が平滑化処理部3a、接峰面処理部3b、微分オペレータ処理部3c、グループ分類処理部3d及び輝度変換対象領域設定処理部3eから構成されている例を示したが、これは一例に過ぎず、例えば、図9に示すように、輝度変換対象領域設定部3が高輝度小領域除去部3f、クラスタリング部3g及び輝度変換対象領域設定処理部3hから構成されていてもよい。
以下、輝度変換対象領域設定部3の処理内容を具体的に説明する。
In the first embodiment, the luminance conversion target region setting unit 3 includes the smoothing processing unit 3a, the ridge surface processing unit 3b, the differential operator processing unit 3c, the group classification processing unit 3d, and the luminance conversion target region setting processing unit 3e. However, this is merely an example. For example, as illustrated in FIG. 9, the luminance conversion target region setting unit 3 includes a high luminance small region removing unit 3 f, a clustering unit 3 g, and a luminance conversion target region setting. You may be comprised from the process part 3h.
Hereinafter, the processing content of the brightness conversion target area setting unit 3 will be described in detail.

輝度変換対象領域設定部3の高輝度小領域除去部3fは、変換領域範囲指定部2から変換領域内のHDR画像を受けると、そのHDR画像を構成している画素の輝度と予め設定された輝度閾値を比較する。
高輝度小領域除去部3fは、輝度閾値より輝度が高い画素を1以上検出すると、それらの画素の距離が予め設定された距離閾値より短ければ、それらの画素をグループ化する。
ここでは、HDR画像を構成している画素の輝度と輝度閾値を比較するものについて示したが、比較対象の画素を中心に含む周辺3×3の画素のうち、比較対象の画素以外の8画素の輝度平均値と中心の画素の輝度を比較するようにしてもよい。
When the high luminance small region removing unit 3f of the luminance conversion target region setting unit 3 receives the HDR image in the conversion region from the conversion region range specifying unit 2, the luminance of the pixels constituting the HDR image is set in advance. Compare brightness thresholds.
When detecting one or more pixels whose luminance is higher than the luminance threshold, the high luminance small area removing unit 3f groups those pixels if the distance between the pixels is shorter than a preset distance threshold.
Here, the comparison is made between the luminance of the pixels constituting the HDR image and the luminance threshold value, but 8 pixels other than the comparison target pixel among the peripheral 3 × 3 pixels including the comparison target pixel at the center. The average luminance value of the pixel may be compared with the luminance of the center pixel.

次に、高輝度小領域除去部3fは、1つのグループに属している画素の個数が予め設定された個数閾値より少なければ、このグループ(画素数が数個の小領域)をノイズが重畳されている領域(以下、「ノイズグループ」と称する)であると認定する。
高輝度小領域除去部3fは、ノイズグループを認定すると、そのノイズグループに属している画素の輝度を他の輝度に置き換えることで、HDR画像に重畳されているノイズを除去する。
例えば、ノイズグループに属している画素の輝度を、そのノイズグループに属していない画素であって、そのノイズグループから最も近い位置に存在している画素の輝度に置き換える。
Next, if the number of pixels belonging to one group is less than a preset number threshold, the high luminance small area removing unit 3f superimposes noise on this group (small area having several pixels). Is recognized as a region (hereinafter referred to as “noise group”).
When the noise group is recognized, the high-luminance small area removing unit 3f removes noise superimposed on the HDR image by replacing the luminance of the pixels belonging to the noise group with other luminance.
For example, the luminance of a pixel belonging to a noise group is replaced with the luminance of a pixel that does not belong to the noise group and is located closest to the noise group.

これにより、変換後の画素の最大輝度をLMAX、最小輝度をLMIN、各画素の表示輝度をL(i,j)×(LMAX−LMIN)/255として、各画素を再表示すれば、図9の高輝度小領域除去結果表示例のように、ノイズが無い画像の表示が可能となる。
ただし、変換後の画素の輝度幅も大きいので、この段階では、全体的に暗い画像になり、視認が困難な部分が現れることがある。
As a result, the maximum luminance of the converted pixel is L MAX , the minimum luminance is L MIN , and the display luminance of each pixel is L (i, j) × (L MAX −L MIN ) / 255. For example, an image without noise can be displayed as in the display example of the high luminance small area removal result in FIG.
However, since the luminance width of the pixel after conversion is also large, an overall dark image may appear at this stage, and a portion that is difficult to view may appear.

クラスタリング部3gは、高輝度小領域除去部3fから置換処理後のHDR画像を受けると、そのHDR画像を構成している画素の輝度を順次走査して、隣り合う画素と輝度が近似している画素同士を同一のグループに分類する処理を実施する。
以下、クラスタリング部3gの処理内容を具体的に説明する。
When the clustering unit 3g receives the HDR image after the replacement process from the high luminance small region removing unit 3f, the clustering unit 3g sequentially scans the luminance of the pixels constituting the HDR image, and the luminance is approximated to the adjacent pixels. A process of classifying the pixels into the same group is performed.
Hereinafter, the processing content of the clustering unit 3g will be specifically described.

まず、クラスタリング部3gは、図9に示すように、A,B,C,D,Eの位置で、HDR画像を構成している画素の輝度の高低を1次元的で取り出す処理を行う。
図9の例では、A〜Eの順番に走査線を移動しながら、輝度の高低を取り出す際、A〜Eにおける走査線の方向を縦方向にしているが、走査線の方向は縦方向に限るものではなく、横方向であっても、斜め方向であってもよい。
また、走査線の方向は、ユーザが任意に指定するようにしてもよいし、自動的に走査線の方向が決定されるようにしてもよい。
なお、A〜Eの順番に走査線を移動するが、図9のように、一部分だけではなく、変換領域範囲指定部2から出力された変換領域内のHDR画像の全域に亘って移動するようにしてもよい。
First, as shown in FIG. 9, the clustering unit 3g performs a one-dimensional process of extracting the brightness level of the pixels constituting the HDR image at positions A, B, C, D, and E.
In the example of FIG. 9, when moving the scanning lines in the order of A to E and taking out the level of luminance, the scanning line direction in A to E is set to the vertical direction, but the scanning line direction is set to the vertical direction. It is not limited, and it may be a lateral direction or an oblique direction.
The direction of the scanning line may be arbitrarily designated by the user, or the direction of the scanning line may be automatically determined.
The scanning lines are moved in the order of A to E. However, as shown in FIG. 9, the scanning lines are moved not only in a part but also in the entire HDR image in the conversion area output from the conversion area range specifying unit 2. It may be.

ここで、図10は図9の注目範囲における画素の輝度を示す説明図である。
図10に示すように、Aの走査線では、画素の輝度が一様に低く、注目範囲における画素の輝度も低い値になっている。
B,C,Dの走査線では、注目範囲における画素の輝度が高い値になっており、Eの走査線では、注目範囲における画素の輝度が低い値になっている。
Here, FIG. 10 is an explanatory diagram showing the luminance of the pixels in the attention range of FIG.
As shown in FIG. 10, in the scanning line A, the luminance of the pixels is uniformly low, and the luminance of the pixels in the attention range is also low.
In the B, C, and D scanning lines, the luminance of the pixels in the attention range is high, and in the E scanning line, the luminance of the pixels in the attention range is low.

クラスタリング部3gは、B,C,Dの走査線における注目範囲の高輝度部分をグループ化する。
即ち、クラスタリング部3gは、注目範囲において、低輝度となるAの走査線とEの走査線に囲まれている範囲を抽出し、その範囲を1つのグループに設定する。
高輝度、低輝度の判定は、予め一定の閾値を設定することで判断する。または、走査線上の画素の輝度値の平均値と分散値を求めて、平均値から分散値の一定倍数以上の輝度を高輝度と判断し、分散値の一定倍数以下の輝度を低輝度と判断するようにしてもよい。
または、走査方向及び走査方向と直交する方向に隣接している画素同士の輝度差異が、予め定めている閾値以下の場合に同じグループとする方式でもよい。この場合、クラスタリング部3gにおいて、上下左右に隣り合う画素と輝度が近似していない画素は、どこのグループにも属さないと判定する。グループに属さない画素の連結成分の外周にあたる画素位置を境界点として設定する。
The clustering unit 3g groups the high-luminance portions of the target range in the B, C, and D scanning lines.
That is, the clustering unit 3g extracts a range surrounded by the A scanning line and the E scanning line, which have low luminance, in the target range, and sets the range as one group.
The determination of high luminance or low luminance is made by setting a predetermined threshold value in advance. Alternatively, the average value and variance value of the luminance values of the pixels on the scanning line are obtained, and the luminance that is equal to or higher than a certain multiple of the variance value is determined as high luminance from the average value, and the luminance that is equal to or lower than the certain multiple of the variance value is determined as low luminance You may make it do.
Alternatively, the same group may be used when the luminance difference between pixels adjacent to each other in the scanning direction and the direction orthogonal to the scanning direction is equal to or less than a predetermined threshold. In this case, in the clustering unit 3g, it is determined that a pixel whose luminance is not close to that of pixels adjacent vertically and horizontally does not belong to any group. A pixel position corresponding to the outer periphery of a connected component of pixels not belonging to a group is set as a boundary point.

または、走査方向及び走査方向と直交する方向に隣接している画素同士の輝度差異が、予め定めている閾値(以下、「kido」と表現する)以下の場合に同じグループとする方式において、グループに属する画素の数が、予め定めた閾値(以下、この閾値を「gasonum」と表現することとし、ノイズ領域と判定する閾値より多い個数とする)に満たない場合は、そのグループへの分類を止めるものとする。このとき、kidoとgasonumの値を予め定めた範囲内で変化させて、各kido値、gasonum値におけるクラスタリング処理を実施する。これにより得られる各グループに属する画素数と、グループに属さない画素の固まりの画素数を求める。
kidoの変化により、電波の反射特性の変化が一定範囲内の領域をグループ化することができる。
gasonum値を固定し、kido値を増加させるクラスタリングを実施し、グループ数と各グループに属する画素数の増減の変化量が小さくなるgasonum値及びkido値を用いてクラスタリングすると、反射強度の強弱による過度なグループ分けがなされない。
Alternatively, in a method in which the same group is used when the luminance difference between pixels adjacent to each other in the scanning direction and the direction orthogonal to the scanning direction is equal to or less than a predetermined threshold value (hereinafter referred to as “kido”), If the number of pixels belonging to is less than a predetermined threshold value (hereinafter, this threshold value is expressed as “gasonum” and is larger than the threshold value for determining a noise region), the classification into the group is performed. Shall stop. At this time, the values of kids and gasonum are changed within a predetermined range, and clustering processing is performed for each of the kidso and gasonum values. Thus, the number of pixels belonging to each group and the number of pixels of a group of pixels not belonging to the group are obtained.
Due to the change of kido, it is possible to group regions where the change in the reflection characteristics of radio waves is within a certain range.
When clustering is performed by fixing the gasonum value and increasing the kido value, and using the gasonum value and the kido value that reduce the amount of change in the number of groups and the number of pixels belonging to each group, it is excessive due to the strength of the reflection intensity. Grouping is not done.

輝度変換対象領域設定処理部3hは、クラスタリング部3gにより分類されたグループに属する画素を含む外接の領域(例えば、外接長方形、外接矩形、外接円)を輝度変換対象領域に設定する。
図11は輝度変換対象領域の設定例を示す説明図である。
図11の例では、点線の部分が輝度変換対象領域に設定されている。
即ち、1つのグループに属する画素を含む点線の部分(外接長方形)が輝度変換対象領域に設定されている。
グループ番号2のグループは、外側の枠の中のパイプ状の線が含まれているが、輝度を取り出す直線は、外側の枠を通過するまでは平らとならず、内包した形状でグループ化されている。
The luminance conversion target area setting processing unit 3h sets a circumscribed area (for example, circumscribed rectangle, circumscribed rectangle, circumscribed circle) including pixels belonging to the group classified by the clustering unit 3g as the luminance conversion target area.
FIG. 11 is an explanatory diagram showing an example of setting the luminance conversion target area.
In the example of FIG. 11, the dotted line portion is set as the luminance conversion target area.
That is, a dotted line portion (a circumscribed rectangle) including pixels belonging to one group is set as a luminance conversion target region.
The group of group number 2 includes a pipe-like line in the outer frame, but the straight line for extracting the brightness does not become flat until it passes through the outer frame, and is grouped in an enclosed shape. ing.

輝度変換対象領域設定処理部3hは、N個の輝度変換対象領域(1)〜(N)を設定すると、その輝度変換対象領域(1)〜(N)内に存在している画素の輝度L(i,j)を輝度変換部4のメモリ4a−1〜4a−Nに格納する。
なお、メモリ4a−1〜4a−Nに格納される画素の輝度L(i,j)は、言うまでもないが、当該画素の輝度を示す情報だけでなく、当該画素が存在している元のHDR画像中の位置(i,j)を示す情報も含まれている。
さらに、輝度変換部4の処理として、境界点の画素を予め定めた色に設定する処理を行う。
When the luminance conversion target area setting processing unit 3h sets N luminance conversion target areas (1) to (N), the luminance L of the pixels existing in the luminance conversion target areas (1) to (N) is set. (I, j) is stored in the memories 4 a-1 to 4 a -N of the luminance conversion unit 4.
Needless to say, the luminance L (i, j) of the pixel stored in the memories 4a-1 to 4a-N is not only information indicating the luminance of the pixel, but also the original HDR in which the pixel exists. Information indicating the position (i, j) in the image is also included.
Further, as a process of the luminance conversion unit 4, a process of setting the pixel at the boundary point to a predetermined color is performed.

以上で明らかなように、輝度変換対象領域設定部3が高輝度小領域除去部3f、クラスタリング部3g及び輝度変換対象領域設定処理部3hから構成されている場合でも、上記実施の形態1と同様に、輝度の特徴が似ている領域毎に、輝度変換を実施することが可能になり、各領域内の観測対象物を分かり易く表示することができる効果を奏する。
この実施の形態2によれば、高輝度小領域除去部3fが、ノイズ領域を判定して、ノイズに相当する画素を周辺の画素と同じ色に置き換え、クラスタリング部3gが、隣り合う画素で輝度変化の増減の多い部分を非グループとして、その周辺の境界点を検出し、輝度変換部4において、境界点の画素を特定の色に設定する。これにより、例えば、草原の中に、電波をよく反射する小さな鉄骨構造物がある場合に、この部分だけ画素の輝度変化が大きいので、この部分の周辺だけ特定色で分かり易く表示することができる効果を奏する。
また、クラスタリング部3gが、クラスタリングに必要な変数を自動的に決定することができるので、操作員のスキルに関係なく、輝度変換を行うことが可能である。
As is apparent from the above, even when the luminance conversion target region setting unit 3 includes the high luminance small region removing unit 3f, the clustering unit 3g, and the luminance conversion target region setting processing unit 3h, the same as in the first embodiment. In addition, it is possible to perform luminance conversion for each region having similar luminance characteristics, so that the observation target object in each region can be displayed in an easily understandable manner.
According to the second embodiment, the high-luminance small area removing unit 3f determines the noise area, replaces the pixel corresponding to the noise with the same color as the surrounding pixels, and the clustering unit 3g uses the adjacent pixels to determine the luminance. A part having a large change increase / decrease is set as a non-group, and a boundary point around it is detected, and the luminance conversion unit 4 sets the pixel at the boundary point to a specific color. Thereby, for example, when there is a small steel structure that reflects radio waves well in the grassland, the luminance change of the pixel is large only in this part, so that only the periphery of this part can be easily displayed in a specific color. There is an effect.
Further, since the clustering unit 3g can automatically determine the variables necessary for clustering, it is possible to perform luminance conversion regardless of the skill of the operator.

実施の形態3.
図12はこの発明の実施の形態3による画像表示装置の輝度変換対象領域設定部3の内部を示す構成図であり、図において、図9と同一符号は同一又は相当部分を示すので説明を省略する。
クラスタリング部3iは高輝度小領域除去部3fによる置換処理後のHDR画像における指定点を中心にしてヒストグラムを描き、そのヒストグラムの勾配がフラットになる点で囲まれる区間(指定点を中心に含む区間)を1つのグループに設定する処理を実施する。
Embodiment 3 FIG.
FIG. 12 is a block diagram showing the inside of the luminance conversion target area setting unit 3 of the image display device according to Embodiment 3 of the present invention. In the figure, the same reference numerals as those in FIG. To do.
The clustering unit 3i draws a histogram around the designated point in the HDR image after the replacement processing by the high-intensity small region removing unit 3f, and is surrounded by a point where the gradient of the histogram becomes flat (a region including the designated point as the center). ) Is set to one group.

上記実施の形態1では、輝度変換対象領域設定部3が平滑化処理部3a、接峰面処理部3b、微分オペレータ処理部3c、グループ分類処理部3d及び輝度変換対象領域設定処理部3eから構成されている例を示したが、これは一例に過ぎず、例えば、図12に示すように、輝度変換対象領域設定部3が高輝度小領域除去部3f、クラスタリング部3i及び輝度変換対象領域設定処理部3hから構成されていてもよい。
以下、輝度変換対象領域設定部3の処理内容を具体的に説明する。
In the first embodiment, the luminance conversion target region setting unit 3 includes the smoothing processing unit 3a, the ridge surface processing unit 3b, the differential operator processing unit 3c, the group classification processing unit 3d, and the luminance conversion target region setting processing unit 3e. However, this is merely an example. For example, as shown in FIG. 12, the luminance conversion target region setting unit 3 has a high luminance small region removing unit 3f, a clustering unit 3i, and a luminance conversion target region setting. You may be comprised from the process part 3h.
Hereinafter, the processing content of the brightness conversion target area setting unit 3 will be described in detail.

輝度変換対象領域設定部3の高輝度小領域除去部3fは、上記実施の形態2と同様に、ノイズグループを認定し、そのノイズグループに属している画素の輝度を他の輝度に置き換えることで、HDR画像に重畳されているノイズを除去する。   The high luminance small region removing unit 3f of the luminance conversion target region setting unit 3 recognizes the noise group and replaces the luminance of the pixels belonging to the noise group with other luminance, as in the second embodiment. , Noise superimposed on the HDR image is removed.

クラスタリング部3iは、高輝度小領域除去部3fから置換処理後のHDR画像を受けると、そのHDR画像における指定点を中心にしてヒストグラムを描画する。
図12の例では、指定点として、点Aと点Bが指定されている。
指定点は、ユーザが任意に指定するようにしてもよいし、一定間隔で決定するようにしてもよいし、乱数で位置を決めてもよい。
ヒストグラムは、図13に示すように、HDR画像における指定点を中心にして、横軸に指定点の画素からの距離、縦軸に輝度をとることで描画する。ヒストグラムは、指定点から遠ざかるにしたがって勾配が低くなる。
図13の例では、方向Sと方向Tの距離を示している。方向Sと方向Tは直交する方向である。
また、図13の例では、方向Sと方向Tの2方向の距離を示しているが、3方向以上の距離を示すようにしてもよい。
When the clustering unit 3i receives the HDR image after the replacement process from the high-luminance small region removing unit 3f, the clustering unit 3i draws a histogram around the designated point in the HDR image.
In the example of FIG. 12, point A and point B are designated as designated points.
The designated point may be arbitrarily designated by the user, may be determined at regular intervals, or the position may be determined by a random number.
As shown in FIG. 13, the histogram is drawn by taking the designated point in the HDR image as the center, taking the distance from the pixel of the designated point on the horizontal axis and the luminance on the vertical axis. The gradient of the histogram decreases as the distance from the designated point increases.
In the example of FIG. 13, the distance between the direction S and the direction T is shown. The direction S and the direction T are orthogonal directions.
In addition, in the example of FIG. 13, the distance in the two directions of the direction S and the direction T is shown, but a distance in three or more directions may be shown.

クラスタリング部3iは、ヒストグラムを描画すると、そのヒストグラムの勾配がフラットになる方向Sの点と方向Tの点とを特定し、方向Sの点と方向Tの点に囲まれる区間(指定点を中心に含む区間)を1つのグループに設定する。
ただし、同じ点を含むグループが複数設定される場合には、なるべく包含する方のグループを残して、包含される方のグループを消すようにする。
When the clustering unit 3i draws the histogram, the clustering unit 3i specifies the point in the direction S and the point in the direction T in which the gradient of the histogram becomes flat, and the section surrounded by the point in the direction S and the point in the direction T (centering on the specified point). Are set as one group.
However, when a plurality of groups including the same point are set, the group that is included is deleted while leaving the group that includes it as much as possible.

輝度変換対象領域設定処理部3hは、クラスタリング部3iがグループを設定すると、上記実施の形態2と同様に、そのグループに属する画素を含む外接の領域(例えば、外接長方形、外接矩形、外接円)を輝度変換対象領域に設定する。
輝度変換対象領域設定処理部3hは、N個の輝度変換対象領域(1)〜(N)を設定すると、その輝度変換対象領域(1)〜(N)内に存在している画素の輝度L(i,j)を輝度変換部4のメモリ4a−1〜4a−Nに格納する。
なお、メモリ4a−1〜4a−Nに格納される画素の輝度L(i,j)は、言うまでもないが、当該画素の輝度を示す情報だけでなく、当該画素が存在している元のHDR画像中の位置(i,j)を示す情報も含まれている。
When the clustering unit 3i sets a group, the luminance conversion target region setting processing unit 3h sets a circumscribed region including pixels belonging to the group (for example, circumscribed rectangle, circumscribed rectangle, circumscribed circle), as in the second embodiment. Is set as the luminance conversion target area.
When the luminance conversion target area setting processing unit 3h sets N luminance conversion target areas (1) to (N), the luminance L of the pixels existing in the luminance conversion target areas (1) to (N) is set. (I, j) is stored in the memories 4 a-1 to 4 a -N of the luminance conversion unit 4.
Needless to say, the luminance L (i, j) of the pixel stored in the memories 4a-1 to 4a-N is not only information indicating the luminance of the pixel, but also the original HDR in which the pixel exists. Information indicating the position (i, j) in the image is also included.

以上で明らかなように、輝度変換対象領域設定部3が高輝度小領域除去部3f、クラスタリング部3i及び輝度変換対象領域設定処理部3hから構成されている場合でも、上記実施の形態1と同様に、輝度の特徴が似ている領域毎に、輝度変換を実施することが可能になり、各領域内の観測対象物を分かり易く表示することができる効果を奏する。   As is apparent from the above, even when the luminance conversion target area setting unit 3 includes the high luminance small area removing unit 3f, the clustering unit 3i, and the luminance conversion target area setting processing unit 3h, the same as in the first embodiment. In addition, it is possible to perform luminance conversion for each region having similar luminance characteristics, so that the observation target object in each region can be displayed in an easily understandable manner.

実施の形態4.
上記実施の形態1では、輝度変換部4が、輝度変換対象領域設定部3により設定された輝度変換対象領域(1)〜(N)毎に、輝度変換対象領域(n)内に存在しているノイズを除去してから、輝度変換対象領域(n)内に存在している画素の輝度L(i,j)を線形輝度圧縮によって、輝度変換範囲S(n)内の輝度cL(i,j)に変換するものについて示したが、輝度変換対象領域(n)内に存在している画素の輝度L(i,j)の偏りを考慮して、画素の輝度L(i,j)を変換するようにしてもよい。
具体的には、以下の通りである。
Embodiment 4 FIG.
In the first embodiment, the luminance conversion unit 4 exists in the luminance conversion target region (n) for each of the luminance conversion target regions (1) to (N) set by the luminance conversion target region setting unit 3. The luminance L (i, j) of the pixel existing in the luminance conversion target region (n) is removed by linear luminance compression after the noise is removed, and the luminance cL (i, j, in the luminance conversion range S (n) is removed. j), the pixel luminance L (i, j) is determined in consideration of the bias of the luminance L (i, j) of the pixel existing in the luminance conversion target area (n). You may make it convert.
Specifically, it is as follows.

図14は輝度変換部4による輝度変換処理を示す説明図である。
図14では、点線範囲内のヒストグラムの輝度に対する点数を示しており、輝度変換部4が表示範囲と注目輝度範囲を決定する。
例えば、注目輝度範囲は、図14に示すように、ピーク(極大)の極大点を含み、ヒストグラムの勾配がなだらかになるまでの左右の範囲に決定する。
FIG. 14 is an explanatory diagram showing the luminance conversion processing by the luminance conversion unit 4.
FIG. 14 shows the score for the luminance of the histogram in the dotted line range, and the luminance conversion unit 4 determines the display range and the target luminance range.
For example, as shown in FIG. 14, the luminance range of interest includes a peak (maximum) maximum point and is determined as a left and right range until the gradient of the histogram becomes gentle.

表示範囲の決定方法としては、下記の4通りが考えられ、輝度変換部4がいずれかの決定方法にしたがって表示範囲を決定する。
(1)表示範囲を一定閾値以下に設定する方法
(2)輝度が低い画素から全体の画素数の90パーセントまでの範囲の画素を表示範囲に
設定する方法
(3)高輝度小領域除去部3fによる置換処理後のHDR画像の全域の画素を表示範囲に
設定する方法
(4)図14の左側のヒストグラムのように極大点を含み、左右に等画素数となるような
輝度範囲であり、かつ、輝度範囲の中の画素数が輝度変換対象領域の画素数の1/
3となる範囲を表示範囲に設定する方法
There are four possible methods for determining the display range, and the luminance conversion unit 4 determines the display range according to one of the determination methods.
(1) A method for setting the display range below a certain threshold value (2) A method for setting a pixel in the range from low luminance pixels to 90% of the total number of pixels as a display range (3) High luminance small region removal unit 3f (4) A luminance range that includes a maximum point as in the histogram on the left side of FIG. 14 and has an equal number of pixels on the left and right, and , The number of pixels in the luminance range is 1 / number of pixels in the luminance conversion target area.
How to set the range of 3 as the display range

輝度変換部4は、表示範囲と注目輝度範囲を決定すると、図14の右側のヒストグラムのように、255階調のうち、注目輝度範囲を中心の85階調(85〜169までの階調)に変換し、注目輝度範囲より小さい輝度を0〜84までの階調に変換する。また、注目輝度範囲より大きい輝度を170〜254までの階調に変換する。   When the luminance conversion unit 4 determines the display range and the attention luminance range, 85 gradations (grayscales from 85 to 169) centering on the attention luminance range among 255 gradations as shown in the histogram on the right side of FIG. The luminance smaller than the luminance range of interest is converted into gradations from 0 to 84. In addition, luminance that is larger than the luminance range of interest is converted to a gradation of 170 to 254.

以上で明らかなように、輝度変換部4が輝度変換対象領域(n)内に存在している画素の輝度L(i,j)の偏りを考慮して、画素の輝度L(i,j)を変換するようにしても、上記実施の形態1と同様に、輝度変換対象領域(1)〜(N)毎に最適な輝度変換を実現することができるようになり、輝度変換対象領域(1)〜(N)内の観測対象物を分かり易く表示することができる効果を奏する。   As apparent from the above, the luminance conversion unit 4 considers the bias of the luminance L (i, j) of the pixel existing in the luminance conversion target region (n), and the luminance L (i, j) of the pixel. However, as in the first embodiment, optimum luminance conversion can be realized for each of the luminance conversion target areas (1) to (N), and the luminance conversion target area (1 ) To (N), the observation object can be displayed in an easily understandable manner.

実施の形態5.
上記実施の形態1では、領域合成部5が、輝度変換部4のメモリ4c−1〜4c−Nに格納されている輝度変換対象領域(1)〜(N)の輝度変換後の画像を読み込み、ディスプレイに表示している輝度変換対象領域(1)〜(N)の画素の輝度L(i,j)を、輝度変換後の画像の輝度cL(i,j)に置き換えるものについて示したが、領域合成部5が輝度変換後の画像の輝度cL(i,j)に置き換える際、N個の輝度変換対象領域(1)〜(N)内の平均輝度Laveを算出し、その平均輝度Laveに応じて輝度変換部4により変換された輝度cL(i,j)の階調をシフトするようにしてもよい。
具体的には、以下の通りである。
Embodiment 5 FIG.
In the first embodiment, the area synthesis unit 5 reads the luminance-converted images in the luminance conversion target areas (1) to (N) stored in the memories 4c-1 to 4c-N of the luminance conversion unit 4. In the above description, the luminance L (i, j) of the pixels in the luminance conversion target areas (1) to (N) displayed on the display is replaced with the luminance cL (i, j) of the image after luminance conversion. When the region composition unit 5 replaces the luminance cL (i, j) of the image after luminance conversion, the average luminance L ave in the N luminance conversion target regions (1) to (N) is calculated, and the average luminance is calculated. luminance cL (i, j) which has been converted by the brightness conversion portion 4 in response to the L ave may be shifted gradations.
Specifically, it is as follows.

ここでは、説明の便宜上、3個の輝度変換対象領域(1)〜(3)が設定されているものとする。
領域合成部5は、輝度変換対象領域(1)の画像を読み込み、その画像を構成している画素の平均輝度Lave1を算出する。
また、同様にして、領域合成部5は、輝度変換対象領域(2),(3)の画像を構成している画素の平均輝度Lave2,Lave3を算出する。
Here, for convenience of explanation, it is assumed that three luminance conversion target areas (1) to (3) are set.
The region synthesis unit 5 reads an image of the luminance conversion target region (1) and calculates an average luminance L ave1 of the pixels constituting the image.
Similarly, the region synthesis unit 5 calculates average luminances L ave2 and L ave3 of the pixels constituting the images of the luminance conversion target regions (2) and (3).

領域合成部5は、輝度変換対象領域(1)〜(3)内の平均輝度Lave1,Lave2,Lave3を算出すると、これらの平均輝度を相互に比較して、明るさの順位を判別する。
ここでは、説明の便宜上、輝度変換対象領域(2)内の平均輝度Lave2が最も明るく、次に輝度変換対象領域(1)内の平均輝度Lave1が明るく、輝度変換対象領域(3)内の平均輝度Lave3が最も暗いものとする。
ave2>Lave1>Lave3
After calculating the average luminances L ave1 , L ave2 , and L ave3 in the luminance conversion target regions (1) to (3), the region synthesis unit 5 compares these average luminances with each other to determine the brightness order. To do.
Here, for convenience of explanation, the brightest average luminance L ave2 of luminance conversion target area (2), second brightest, the average luminance L ave1 of luminance transformation target area (1) in the luminance transformation target area (3) in It is assumed that the average luminance Lave3 is the darkest.
L ave2 > L ave1 > L ave3

領域合成部5は、明るさの順位を判別すると、3個の輝度変換対象領域(1)〜(3)内の輝度変換後の画像(255階調の画像)を80%の階調(ただし、整数)にシフトする。
即ち、最も明るい輝度変換対象領域(2)内の輝度変換後の画像については、0.2×255〜1.0×255階調にシフトする。
次に明るい輝度変換対象領域(1)内の輝度変換後の画像については、0.1×255〜0.9×255階調にシフトする。
最も暗い輝度変換対象領域(3)内の輝度変換後の画像については、0×255〜0.8階調にシフトする。
ただし、輝度は、整数になるように値を丸めるものとする。
When the region composition unit 5 determines the order of brightness, the region-converted images (255 gradation images) in the three luminance conversion target regions (1) to (3) are converted to 80% gradation (however, , Integer).
That is, the brightness-converted image in the brightest brightness conversion target area (2) is shifted to 0.2 × 255 to 1.0 × 255 gradations.
Next, the brightness-converted image in the bright brightness conversion target area (1) is shifted to the gradation of 0.1 × 255 to 0.9 × 255.
The brightness-converted image in the darkest brightness conversion target area (3) is shifted to 0 × 255 to 0.8 gradation.
However, the value is rounded so that the luminance becomes an integer.

領域合成部5は、輝度変換対象領域(1)〜(3)内の平均輝度Laveに応じて輝度変換部4により変換された輝度cL(i,j)の階調をシフトすると、ディスプレイに表示している輝度変換対象領域(1)〜(N)の画素の輝度L(i,j)を、階調シフト後の輝度cL(i,j)に置き換える。 When the gradation of the luminance cL (i, j) converted by the luminance conversion unit 4 is shifted according to the average luminance L ave in the luminance conversion target regions (1) to (3), the region synthesis unit 5 shifts to the display. The luminance L (i, j) of the displayed pixels in the luminance conversion target areas (1) to (N) is replaced with the luminance cL (i, j) after the gradation shift.

以上で明らかなように、この実施の形態5によれば、輝度変換対象領域設定部3により設定された輝度変換対象領域が複数存在する場合、複数の輝度変換対象領域内の平均輝度Laveを算出し、その平均輝度Laveに応じて輝度変換部4により変換された輝度cL(i,j)の階調をシフトするように構成したので、複数の輝度変換対象領域内の観測対象物を容易に見分けることができる効果を奏する。 As apparent from the above, according to the fifth embodiment, when there are a plurality of luminance conversion target areas set by the luminance conversion target area setting unit 3, the average luminance L ave in the plurality of luminance conversion target areas is calculated. Since the gradation of the luminance cL (i, j) calculated and converted by the luminance conversion unit 4 is shifted according to the average luminance L ave , the observation objects in the plurality of luminance conversion target regions are displayed. There is an effect that can be easily distinguished.

1 HDR画像格納部、2 変換領域範囲指定部(変換領域範囲指定手段)、3 輝度変換対象領域設定部(輝度変換対象領域設定手段)、3a 平滑化処理部、3b 接峰面処理部、3c 微分オペレータ処理部、3d グループ分類処理部、3e 輝度変換対象領域設定処理部、3f 高輝度小領域除去部、3g クラスタリング部、3h 輝度変換対象領域設定処理部、3i クラスタリング部、4 輝度変換部(輝度変換手段)、4a−1〜4a−N メモリ、4b−1〜4b−N 輝度変換処理部、4c−1〜4c−N メモリ、5 領域合成部(領域合成手段)、6 合成画像格納部、7 立体表示部(立体表示手段)。   DESCRIPTION OF SYMBOLS 1 HDR image storage part, 2 conversion area range designation | designated part (conversion area range designation | designated means), 3 brightness | luminance conversion object area | region setting part (brightness conversion object area | region setting means), 3a smoothing process part, 3b climax surface process part, 3c Differential operator processing unit, 3d group classification processing unit, 3e luminance conversion target region setting processing unit, 3f high luminance small region removing unit, 3g clustering unit, 3h luminance conversion target region setting processing unit, 3i clustering unit, 4 luminance conversion unit ( (Brightness conversion means), 4a-1 to 4a-N memory, 4b-1 to 4b-N, luminance conversion processing section, 4c-1 to 4c-N memory, 5 area composition section (area composition means), 6 composite image storage section , 7 Stereoscopic display unit (stereoscopic display means).

Claims (10)

可視範囲を超える輝度階調を有する画像を構成している画素のうち、隣り合う画素と輝度が近似している画素同士を同一のグループに分類し、同一のグループに属する画素が存在している領域を輝度変換対象領域に設定する輝度変換対象領域設定手段と、上記輝度変換対象領域設定手段により設定された輝度変換対象領域毎に、当該輝度変換対象領域内に存在しているノイズを除去してから、当該輝度変換対象領域内に存在している画素の輝度を可視範囲内の輝度に変換する輝度変換手段と、上記輝度変換手段により画素の輝度が変換された1以上の輝度変換対象領域の画像を合成して、合成画像を生成する領域合成手段とを備えた画像表示装置。   Among pixels constituting an image having a luminance gradation exceeding the visible range, pixels whose luminance is close to that of adjacent pixels are classified into the same group, and pixels belonging to the same group exist. For each luminance conversion target area set by the luminance conversion target area setting means for setting the area as the luminance conversion target area and the luminance conversion target area setting means, noise existing in the luminance conversion target area is removed. A luminance conversion means for converting the luminance of a pixel existing in the luminance conversion target area into a luminance within a visible range, and one or more luminance conversion target areas in which the luminance of the pixel is converted by the luminance conversion means An image display device comprising: a region synthesizing unit that synthesizes the images and generates a synthesized image. 可視範囲を超える輝度階調を有する画像の中で輝度変換を行う領域の範囲を指定し、上記領域内の画像を輝度変換対象領域設定手段に出力する変換領域範囲指定手段を設けたことを特徴とする請求項1記載の画像表示装置。   A conversion area range specifying unit is provided that specifies a range of a region to be subjected to luminance conversion in an image having a luminance gradation exceeding the visible range and outputs the image in the region to a luminance conversion target region setting unit. The image display device according to claim 1. 領域合成手段により生成された合成画像を構成している画素の輝度を立体表示する立体表示手段を設けたことを特徴とする請求項1または請求項2記載の画像表示装置。   3. The image display device according to claim 1, further comprising a stereoscopic display means for stereoscopically displaying the luminance of the pixels constituting the synthesized image generated by the area synthesizing means. 輝度変換対象領域設定手段は、可視範囲を超える輝度階調を有する画像を構成している画素に対する接峰面処理を実施する接峰面処理部と、
上記接峰面処理部により接峰面処理が実施された画素に対する微分オペレータ処理を実施することで、接峰面処理後の画像における画素値の勾配を算出する微分オペレータ処理部と、
上記画像を構成している画素のうち、上記微分オペレータ処理部により算出された画素値の勾配が閾値以下である画素が集まっている画素群を一つのグループに分類するグループ分類処理部と、
上記グループ分類処理部により分類されたグループに属する画素を含む外接の領域を輝度変換対象領域に設定する輝度変換対象領域設定処理部と
から構成されていることを特徴とする請求項1から請求項3のうちのいずれか1項記載の画像表示装置。
The luminance conversion target region setting means includes a ridge surface processing unit that performs a tangential surface processing on pixels constituting an image having a luminance gradation exceeding the visible range;
A differential operator processing unit that calculates the gradient of the pixel value in the image after the tangential surface processing by performing differential operator processing on the pixels that have been subjected to the tangential surface processing by the tangential surface processing unit;
A group classification processing unit that classifies a pixel group in which pixels having a gradient of a pixel value calculated by the differential operator processing unit below a threshold among the pixels constituting the image into one group; and
The luminance conversion target region setting processing unit configured to set a circumscribed region including pixels belonging to the group classified by the group classification processing unit as a luminance conversion target region. 4. The image display device according to claim 1.
グループ分類処理部は、微分オペレータ処理部により算出された画素値の勾配と比較する閾値を仮設定して、上記閾値を順次減少させながら、一つのグループに属する画素の個数が急増する直前の閾値を探索し、上記微分オペレータ処理部により算出された画素値の勾配が上記閾値以下である画素が集まっている画素群を一つのグループに分類することを特徴とする請求項4記載の画像表示装置。   The group classification processing unit temporarily sets a threshold value to be compared with the gradient of the pixel value calculated by the differential operator processing unit, and immediately before the number of pixels belonging to one group rapidly increases while sequentially decreasing the threshold value. 5. The image display apparatus according to claim 4, wherein a pixel group in which pixels having a gradient of pixel values calculated by the differential operator processing unit is equal to or less than the threshold value is grouped into one group. . 輝度変換手段は、輝度変換対象領域内に存在している画素のうち、周辺の画素の輝度と比べて、輝度が所定値以上高い画素をノイズと判定し、ローパスフィルタを用いて、上記ノイズを除去することを特徴とする請求項1から請求項5のうちのいずれか1項記載の画像表示装置。   The luminance conversion means determines a pixel whose luminance is a predetermined value or more higher than the luminance of surrounding pixels among the pixels existing in the luminance conversion target region as noise, and uses a low-pass filter to reduce the noise. The image display device according to claim 1, wherein the image display device is removed. 輝度変換手段は、輝度変換対象領域内に存在しているノイズを除去したのち、当該輝度変換対象領域内に存在している画素の輝度を線形輝度圧縮によって上記輝度変換範囲内の輝度に変換することを特徴とする請求項6記載の画像表示装置。   The luminance conversion means removes noise existing in the luminance conversion target region, and then converts the luminance of the pixels existing in the luminance conversion target region into luminance within the luminance conversion range by linear luminance compression. The image display device according to claim 6. 輝度変換手段は、輝度変換対象領域内に存在しているノイズを除去したのち、当該輝度変換対象領域内に存在している画素の輝度の平均値及び分散値を算出して、上記平均値及び分散値から、可視範囲内に於いて輝度変換範囲を決定し、上記平均値及び分散値を用いて、当該輝度変換対象領域内に存在している画素の輝度を上記輝度変換範囲内の輝度に変換することを特徴とする請求項6記載の画像表示装置。   The luminance conversion means, after removing the noise present in the luminance conversion target region, calculates the average value and the variance value of the luminance of the pixels existing in the luminance conversion target region, the above average value and The luminance conversion range is determined from the variance value within the visible range, and the luminance of the pixels existing in the luminance conversion target region is changed to the luminance within the luminance conversion range using the average value and the variance value. 7. The image display device according to claim 6, wherein the image display device performs conversion. 領域合成手段は、可視範囲を超える輝度階調を有する画像を構成している画素の輝度のうち、輝度変換対象領域設定手段により設定された輝度変換対象領域内に存在している画素の輝度を、輝度変換手段により変換された輝度に置き換えることを特徴とする請求項1から請求項8のうちのいずれか1項記載の画像表示装置。   The area synthesis means calculates the brightness of the pixels existing in the brightness conversion target area set by the brightness conversion target area setting means among the brightness of the pixels constituting the image having the brightness gradation exceeding the visible range. 9. The image display device according to claim 1, wherein the image display device is replaced with the luminance converted by the luminance conversion means. 領域合成手段は、輝度変換対象領域設定手段により設定された輝度変換対象領域が複数存在する場合、複数の輝度変換対象領域内の平均輝度をそれぞれ算出し、上記平均輝度に応じて輝度変換手段により変換された輝度の階調をシフトすることを特徴とする請求項9記載の画像表示装置。   When there are a plurality of brightness conversion target areas set by the brightness conversion target area setting means, the area synthesis means calculates the average brightness in each of the plurality of brightness conversion target areas, and the brightness conversion means according to the average brightness. The image display apparatus according to claim 9, wherein the gradation of the converted luminance is shifted.
JP2010153093A 2010-07-05 2010-07-05 Image display device Pending JP2012014628A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010153093A JP2012014628A (en) 2010-07-05 2010-07-05 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010153093A JP2012014628A (en) 2010-07-05 2010-07-05 Image display device

Publications (1)

Publication Number Publication Date
JP2012014628A true JP2012014628A (en) 2012-01-19

Family

ID=45600943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010153093A Pending JP2012014628A (en) 2010-07-05 2010-07-05 Image display device

Country Status (1)

Country Link
JP (1) JP2012014628A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014174817A (en) * 2013-03-11 2014-09-22 Aero Asahi Corp Information acquisition method
JP2016091189A (en) * 2014-10-31 2016-05-23 オムロン株式会社 Image processor, character recognizer, image processing method and program
JP2016522976A (en) * 2013-05-30 2016-08-04 ケーエムダブリュ・インコーポレーテッド Luminance control device for lighting device
JP2017049210A (en) * 2015-09-04 2017-03-09 株式会社東芝 Radar signal processing device and radar signal processing program
WO2018123748A1 (en) * 2016-12-27 2018-07-05 日本電気株式会社 Image analysis device, image analysis method, and computer-readable recording medium
WO2019138758A1 (en) * 2018-01-11 2019-07-18 古野電気株式会社 Radar device
RU2696216C2 (en) * 2014-06-13 2019-07-31 Сони Корпорейшн Transmitting device, transmission method, receiving device and reception method
WO2020202259A1 (en) * 2019-03-29 2020-10-08 日本電気株式会社 Synthetic-aperture-radar image processing device and image processing method
CN114666497A (en) * 2022-02-28 2022-06-24 青岛海信移动通信技术股份有限公司 Imaging method, terminal device, storage medium, and program product

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005114589A (en) * 2003-10-09 2005-04-28 Mitsubishi Electric Corp Radar image processing system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005114589A (en) * 2003-10-09 2005-04-28 Mitsubishi Electric Corp Radar image processing system

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014174817A (en) * 2013-03-11 2014-09-22 Aero Asahi Corp Information acquisition method
JP2016522976A (en) * 2013-05-30 2016-08-04 ケーエムダブリュ・インコーポレーテッド Luminance control device for lighting device
RU2696216C2 (en) * 2014-06-13 2019-07-31 Сони Корпорейшн Transmitting device, transmission method, receiving device and reception method
JP2016091189A (en) * 2014-10-31 2016-05-23 オムロン株式会社 Image processor, character recognizer, image processing method and program
CN106537416A (en) * 2014-10-31 2017-03-22 欧姆龙株式会社 Image processing device, character recognition device, image processing method, and program
JP2017049210A (en) * 2015-09-04 2017-03-09 株式会社東芝 Radar signal processing device and radar signal processing program
JPWO2018123748A1 (en) * 2016-12-27 2019-10-31 日本電気株式会社 Image analysis apparatus, image analysis method, and program
WO2018123748A1 (en) * 2016-12-27 2018-07-05 日本電気株式会社 Image analysis device, image analysis method, and computer-readable recording medium
JP7077961B2 (en) 2016-12-27 2022-05-31 日本電気株式会社 Image analysis device, image analysis method and program
US11487001B2 (en) 2016-12-27 2022-11-01 Nec Corporation Image analysis device, image analysis method, and computer-readable recording medium
WO2019138758A1 (en) * 2018-01-11 2019-07-18 古野電気株式会社 Radar device
JPWO2019138758A1 (en) * 2018-01-11 2020-12-24 古野電気株式会社 Radar device
JP7039621B2 (en) 2018-01-11 2022-03-22 古野電気株式会社 Radar device
WO2020202259A1 (en) * 2019-03-29 2020-10-08 日本電気株式会社 Synthetic-aperture-radar image processing device and image processing method
JPWO2020202259A1 (en) * 2019-03-29 2020-10-08
JP7151876B2 (en) 2019-03-29 2022-10-12 日本電気株式会社 Image processing device and image processing method for synthetic aperture radar
US11754704B2 (en) 2019-03-29 2023-09-12 Nec Corporation Synthetic-aperture-radar image processing device and image processing method
CN114666497A (en) * 2022-02-28 2022-06-24 青岛海信移动通信技术股份有限公司 Imaging method, terminal device, storage medium, and program product
CN114666497B (en) * 2022-02-28 2024-03-15 青岛海信移动通信技术有限公司 Imaging method, terminal device and storage medium

Similar Documents

Publication Publication Date Title
JP2012014628A (en) Image display device
JP5411706B2 (en) Apparatus and method for enhancing the dynamic range of digital images
Neubert et al. Evaluation of remote sensing image segmentation quality–further results and concepts
US6674905B1 (en) Image processing method, image processing apparatus, and storage medium
JP2016115331A (en) Identifier generator, identifier generation method, quality determination apparatus, quality determination method and program
JP2006285310A (en) Evaluation method of canopy of forest, and its canopy evaluation program
CN108186051B (en) Image processing method and system for automatically measuring double-apical-diameter length of fetus from ultrasonic image
JP6385318B2 (en) Transform 3D objects to segment objects in 3D medical images
CN106919257B (en) Haptic interactive texture force reproduction method based on image brightness information force
CN103325118A (en) Method and device for acquiring characteristic parameters of core hole of carbonatite
CN115908269A (en) Visual defect detection method and device, storage medium and computer equipment
JP2013105245A (en) Image processing method, device and program
Sert A new modified neutrosophic set segmentation approach
JP2006244119A (en) Retrieval device for texture image, retrieval method, retrieval program and recording medium with its program recorded
WO2010079700A1 (en) Image processing method and computer program
Saranyaraj Image de-noising and edge segmentation using bilateral filtering and gabor-cut for edge representation of a breast tumor
JP6546385B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP2011040998A (en) Image display device
CN106651807B (en) Image processing system, display device and image processing method
JP2019164450A (en) Image processing method, computer program and recording medium
JP2015023858A (en) Forest phase analyzer, forest phase analysis method and program
US9307948B2 (en) Image processing apparatus, method, and program
Ullah et al. Experimental and numerical research of paved microcrack using histogram equalization for detection and segmentation
JP5924408B2 (en) Image processing device
KR101108491B1 (en) An apparatus for object segmentation given a region of interest in an image and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140114