JP2011139158A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2011139158A
JP2011139158A JP2009296368A JP2009296368A JP2011139158A JP 2011139158 A JP2011139158 A JP 2011139158A JP 2009296368 A JP2009296368 A JP 2009296368A JP 2009296368 A JP2009296368 A JP 2009296368A JP 2011139158 A JP2011139158 A JP 2011139158A
Authority
JP
Japan
Prior art keywords
pixel
image
interpolation
thin line
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009296368A
Other languages
Japanese (ja)
Other versions
JP5241698B2 (en
JP2011139158A5 (en
Inventor
Takuya Tsujimoto
卓哉 辻本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009296368A priority Critical patent/JP5241698B2/en
Publication of JP2011139158A publication Critical patent/JP2011139158A/en
Publication of JP2011139158A5 publication Critical patent/JP2011139158A5/ja
Application granted granted Critical
Publication of JP5241698B2 publication Critical patent/JP5241698B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To suppress generation of a false color even when a white thin line is contained in an image when making aberration correction of the displayed image. <P>SOLUTION: An image processor is provided with: a means (702) to discriminate whether or not interest pixels at the time of processing the image are white thin line pixels composing high-luminance thin lines included in the image; a means (702) to perform smoothing processing for the interest pixels when they are discriminated to be the white thin line pixels; a means (706) to convert the positions of the interest pixels subjected to smoothing processing based on information which shows a shift amount of the focusing position resulting from color aberration; and a means (707) to perform interpolation processing of the converted interest pixels, and to reconstruct color information in the predetermined display position. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、表示光学系において生じる色収差を補正するための画像処理技術に関するものである。   The present invention relates to an image processing technique for correcting chromatic aberration generated in a display optical system.

従来より、現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。更に、当該MR技術の1つとして、ビデオシースルー型HMD(Head Mounted Display、以下HMD)を利用する技術が知られている。HMDの場合、その装着者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像し、当該撮像画像にCG(Computer Graphics)を重畳表示する。これにより、HMD装着者は、複合現実画像を観察することが可能となる。   Conventionally, a mixed reality, so-called MR (Mixed Reality) technique is known as a technique for seamlessly combining the real world and the virtual world in real time. Furthermore, as one of the MR techniques, a technique using a video see-through HMD (Head Mounted Display, hereinafter referred to as HMD) is known. In the case of the HMD, a subject that substantially matches the subject observed from the pupil position of the wearer is captured by a video camera or the like, and CG (Computer Graphics) is superimposed and displayed on the captured image. Thereby, the HMD wearer can observe the mixed reality image.

このようにHMDでは、CCD等の電荷結合素子により被写体を撮像して該被写体のデジタル画像データを得るとともに、CG画像を重畳したMR画像(複合現実画像)を液晶等の表示デバイスを介して装着者に表示する構成となっている。このため、撮像及び表示のための光学系(撮像光学系及び表示光学系)において生じる収差を補正することが重要となってくる。レンズの歪曲収差に起因して、表示される画像が樽型の画像や糸巻き型の画像となったり、レンズの倍率色収差に起因して、被写体の境界部分に赤や青や緑の色にじみが生じたりするなど、画像の品質に影響を与えるおそれがあるからである。   As described above, in the HMD, a subject is imaged by a charge coupled device such as a CCD to obtain digital image data of the subject, and an MR image (mixed reality image) on which a CG image is superimposed is mounted via a display device such as a liquid crystal. Display to the person. For this reason, it is important to correct aberrations that occur in an optical system for imaging and display (imaging optical system and display optical system). Due to distortion of the lens, the displayed image will be a barrel-shaped image or a pincushion-type image, or due to the chromatic aberration of magnification of the lens, red, blue or green color blur will occur at the boundary of the subject. This is because the quality of the image may be affected.

一般に、撮像光学系及び表示光学系において生じる収差に対する補正については、光学的補正によるアプローチと、信号処理を用いた電子的補正によるアプローチとが挙げられる。このうち、HMDのように頭部に装着する装置では、小型化・軽量化することが不可欠であるため、サイズや重量の増大が不可避な光学的補正によるアプローチよりも、信号処理を用いた電子的補正によるアプローチが選択される。電子的補正によるアプローチを選択した場合、更に、廉価なレンズの採用やレンズ枚数の削減によるコスト低減効果が得られるという利点もあるからである。   In general, correction for aberrations occurring in an imaging optical system and a display optical system includes an optical correction approach and an electronic correction approach using signal processing. Of these, devices that are worn on the head, such as HMDs, are indispensable to reduce size and weight. Therefore, electronic devices that use signal processing rather than optical correction approaches that inevitably increase in size and weight. The corrective approach is selected. This is because when an approach based on electronic correction is selected, there is an advantage that a cost reduction effect can be obtained by adopting an inexpensive lens or reducing the number of lenses.

このような信号処理を用いた電子的補正では、通常、2つのプロセスにより収差補正が実現される。第1のプロセスは、理想的な光学系で得られる結像位置と実際の収差の影響を受けた結像位置との対応関係に基づいて、歪んだ画像の各画素を理想的な位置へと座標変換する座標変換プロセスである。また、第2のプロセスは、座標変換された各画素に基づいて格子上に各画素の色情報を再構成する補間プロセスである。   In electronic correction using such signal processing, aberration correction is usually realized by two processes. The first process is to convert each pixel of the distorted image to the ideal position based on the correspondence between the image position obtained by the ideal optical system and the image position affected by the actual aberration. This is a coordinate conversion process for converting coordinates. The second process is an interpolation process in which the color information of each pixel is reconstructed on the lattice based on each pixel subjected to coordinate conversion.

このうち、座標変換プロセスでは、画素毎に座標変換処理を行うことで、画像の歪みである歪曲収差の補正を実現し、画素を構成する色毎に座標変換処理を行うことで、色ずれである倍率色収差の補正を実現する。   Among these, in the coordinate conversion process, by performing coordinate conversion processing for each pixel, it is possible to correct distortion, which is image distortion, and by performing coordinate conversion processing for each color constituting the pixel, A certain chromatic aberration of magnification is corrected.

ここで、座標変換プロセスにより収差が補正された各画素は、撮像系であるか表示系であるかによらず、最終的に、規定する格子点上に存在していなければならない。このため、画素補間プロセスでは、座標変換プロセスによって格子点上にない画素が生じた場合に、当該画素の色情報を格子点上に再構成する処理を行う。具体的には、一般的な解像度変換手法で用いられる線形補間や高次の双三次補間(バイキュービック)を使用し、当該画素と近傍の格子点との位置関係(距離)によって重み付けを行い、各格子点上の色情報を算出する。   Here, each pixel whose aberration has been corrected by the coordinate conversion process must finally exist on a specified lattice point regardless of whether it is an imaging system or a display system. For this reason, in the pixel interpolation process, when a pixel that is not on the grid point is generated by the coordinate conversion process, the color information of the pixel is reconstructed on the grid point. Specifically, using linear interpolation and high-order bicubic interpolation (bicubic) used in general resolution conversion methods, weighting is performed according to the positional relationship (distance) between the pixel and neighboring grid points, Color information on each grid point is calculated.

このような信号処理を用いた収差補正については、従来より、種々の提案がなされている。例えば、下記特許文献1では、画素補間プロセスに対して、キュービック・コンボリューション(BiCubic)を使用することで、より高画質な収差補正を実現する構成が提案されている。   Various proposals have been made for aberration correction using such signal processing. For example, Patent Document 1 below proposes a configuration that realizes aberration correction with higher image quality by using cubic convolution (BiCubic) for the pixel interpolation process.

特開2005−11269号公報JP 2005-11269 A 特開平5−328106号号公報JP-A-5-328106 特開2003−102025号公報JP 2003-102025 A

しかしながら、信号処理を用いた従来の収差補正には、以下のような問題点がある。すなわち、表示光学系の収差補正では、原画像に高輝度の白色細線が含まれていた場合、補間プロセスを実行することによって、偽色が発生する。当該偽色は、自然画像では目立たない一方が、ワイヤーフレーム等のCG(Computer Graphics)やOSD(On Screen Display)機能によって人為的に作られた画像では、その発生が顕著になるという特性がある。また、本来画素が存在しない位置にある画素を、格子点との位置関係に合わせて再構成することで発生することから、偽色は収差補正の量によらず発生し、また、画像の周辺部のみならず中央部においても発生する。このようなことから、収差補正における偽色の発生を抑制することは、HMD等における表示において特に重要な課題であるといえる。   However, conventional aberration correction using signal processing has the following problems. That is, in the aberration correction of the display optical system, when the original image includes a high-luminance white thin line, a false color is generated by executing the interpolation process. The false color is not conspicuous in a natural image, but has a characteristic that the generation of the false color becomes remarkable in an image artificially created by a computer graphics (CG) such as a wire frame or an OSD (On Screen Display) function. . In addition, since a pixel at a position where no pixel originally exists is reconstructed according to the positional relationship with the grid point, false color occurs regardless of the amount of aberration correction, and the periphery of the image It occurs not only at the center but also at the center. For this reason, it can be said that suppressing the generation of false colors in aberration correction is a particularly important issue in display in HMD or the like.

なお、偽色の発生を抑制するための技術としては、例えば、上記特許文献2や特許文献3に、モアレ除去や撮像系で発生する偽色の発生をローパスフィルタを用いて抑制する構成が開示されている。しかしながら、上記特許文献2及び3に開示された当該構成は、いずれも、エッジ部の保存を目的として処理する技術であるため、上記補間プロセスに適用した場合、白色細線において発生する偽色をかえって助長させてしまう結果となる。   As a technique for suppressing the occurrence of false colors, for example, the above-mentioned Patent Document 2 and Patent Document 3 disclose a configuration that suppresses the generation of false colors generated in moire removal or an imaging system using a low-pass filter. Has been. However, since both of the configurations disclosed in Patent Documents 2 and 3 are techniques for processing for the purpose of preserving the edge portion, when applied to the interpolation process, the false color generated in the white thin line is changed. The result will be encouraging.

本発明は上記課題に鑑みなされたものであり、表示される画像を収差補正するにあたり、当該画像に白色細線が含まれていた場合でも、偽色の発生を抑制できるようにすることを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to suppress the occurrence of false colors even when a white thin line is included in the image when the displayed image is corrected for aberration. To do.

上記の目的を達成するために本発明に係る画像処理装置は以下のような構成を備える。即ち、
表示される画像を処理する画像処理装置であって、
前記画像を処理する際の注目画素が、前記画像に含まれる、所定の輝度値より高く所定の幅よりも細い白色細線を構成する白色細線画素であるか否かを判断する判断手段と、
前記判断手段において白色細線画素であると判断された場合には、前記注目画素に対して平滑化処理を行うよう動作し、前記判断手段において白色細線画素でないと判断された場合には、前記注目画素に対して平滑化処理を行わないよう動作することで、該注目画素の色情報を算出する算出手段と、
前記画像を表示するための表示光学系において生じる色収差に起因する結像位置のずれ量を示す情報に基づいて、前記算出手段により色情報が算出された前記注目画素の位置を変換する変換手段と、
前記変換手段により変換された前記注目画素の色情報を、該注目画素の近傍の画素であって、前記表示光学系において画像を表示する際の表示位置に対応する画素の色情報により再現することで、該注目画素の補間処理を行う補間手段とを備える。
In order to achieve the above object, an image processing apparatus according to the present invention comprises the following arrangement. That is,
An image processing apparatus for processing an image to be displayed,
Determining means for determining whether or not the pixel of interest when processing the image is a white thin line pixel that is included in the image and that forms a white thin line that is higher than a predetermined luminance value and thinner than a predetermined width;
When the determination means determines that the pixel is a white thin line pixel, it operates to perform a smoothing process on the pixel of interest, and when the determination unit determines that the pixel is not a white thin line pixel, A calculation means for calculating color information of the target pixel by operating so as not to perform the smoothing process on the pixel;
Conversion means for converting the position of the pixel of interest for which color information has been calculated by the calculation means, based on information indicating a shift amount of an imaging position caused by chromatic aberration occurring in a display optical system for displaying the image; ,
The color information of the target pixel converted by the conversion unit is reproduced by the color information of the pixel that is in the vicinity of the target pixel and that corresponds to the display position when displaying an image in the display optical system. And interpolation means for performing interpolation processing of the target pixel.

本発明によれば、表示される画像を収差補正するにあたり、当該画像に白色細線が含まれていた場合でも、偽色の発生を抑制することができるようになる。   According to the present invention, in correcting aberrations in an image to be displayed, generation of false colors can be suppressed even when white thin lines are included in the image.

第1の実施形態に画像処理方法が実行されるMRシステムのシステム構成を示す図である。It is a figure which shows the system configuration | structure of MR system with which the image processing method is performed by 1st Embodiment. MRシステムの機能構成を示す図である。It is a figure which shows the function structure of MR system. MRシステムを構成する画像合成装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the image composition apparatus which comprises MR system. MRシステムを構成するHMDのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of HMD which comprises MR system. 歪曲収差並びに倍率色収差を説明する図である。It is a figure explaining a distortion aberration and magnification chromatic aberration. 表示光学系の一構成例を示す図である。It is a figure which shows the example of 1 structure of a display optical system. HMDの表示系収差補正部の機能構成を示す図である。It is a figure which shows the function structure of the display system aberration correction part of HMD. 表示系収差補正部における収差補正処理の流れを示す図である。It is a figure which shows the flow of the aberration correction process in a display system aberration correction part. 表示系収差補正部を構成する適応的平滑化処理部の機能ブロック図である。It is a functional block diagram of the adaptive smoothing process part which comprises a display system aberration correction part. 表示系収差補正部において用いられる各種マトリックスを示す図である。It is a figure which shows the various matrices used in a display system aberration correction part. 適応的平滑化処理における白色細線検出処理の流れを示す。A flow of white thin line detection processing in adaptive smoothing processing is shown. 適応的平滑化処理における平滑化処理の流れを示す図である。It is a figure which shows the flow of the smoothing process in an adaptive smoothing process. 表示系収差補正部において座標変換処理を実行する際に用いられる収差補正テーブルの一例を示す図である。It is a figure which shows an example of the aberration correction table used when performing a coordinate transformation process in a display system aberration correction part. 座標変換処理の流れを示す図である。It is a figure which shows the flow of a coordinate transformation process. 座標変換処理の一例である三次補間の概念を示す模式図である。It is a schematic diagram which shows the concept of the cubic interpolation which is an example of a coordinate transformation process. 表示系収差補正部における補間処理の流れを示す図である。It is a figure which shows the flow of the interpolation process in a display system aberration correction part. 偽色発生のメカニズムと表示系収差補正部における収差補正処理による偽色抑制の効果を説明するための模式図である。It is a schematic diagram for explaining the effect of false color suppression by the false color generation mechanism and the aberration correction processing in the display system aberration correction unit. 偽色発生のメカニズムと表示系収差補正部における収差補正処理による偽色抑制の効果を説明するための模式図である。It is a schematic diagram for explaining the effect of false color suppression by the false color generation mechanism and the aberration correction processing in the display system aberration correction unit. 第2の実施形態に係る画像処理方法が実行される表示系収差補正部による適応的平滑化処理における白色細線検出処理の流れを示す図である。It is a figure which shows the flow of the white thin line detection process in the adaptive smoothing process by the display system aberration correction part by which the image processing method which concerns on 2nd Embodiment is performed. 適応的平滑化処理における平滑化処理の流れを示す図である。It is a figure which shows the flow of the smoothing process in an adaptive smoothing process. 第3の実施形態に係る画像処理方法が実行される表示系収差補正部の機能構成を示す図である。It is a figure which shows the function structure of the display system aberration correction part by which the image processing method which concerns on 3rd Embodiment is performed. 表示系収差補正部における収差補正処理の流れを示す図である。It is a figure which shows the flow of the aberration correction process in a display system aberration correction part. 表示系収差補正部による適応的補間処理において用いられる補間曲線の例を示す図である。It is a figure which shows the example of the interpolation curve used in the adaptive interpolation process by a display system aberration correction part. 表示系収差補正部における適応的補間処理の流れを示す図である。It is a figure which shows the flow of the adaptive interpolation process in a display system aberration correction part. 第4の実施形態に係る画像処理方法が実行される表示系収差補正部の機能構成を示す図である。It is a figure which shows the function structure of the display system aberration correction part by which the image processing method which concerns on 4th Embodiment is performed. 表示系収差補正部における収差補正処理の流れを示す図である。It is a figure which shows the flow of the aberration correction process in a display system aberration correction part. 表示系収差補正部による適応的補間処理において用いられる補間曲線の例を示す図である。It is a figure which shows the example of the interpolation curve used in the adaptive interpolation process by a display system aberration correction part. 表示系収差補正部における適応的補間処理の流れを示す図である。It is a figure which shows the flow of the adaptive interpolation process in a display system aberration correction part.

以下、図面を参照しながら、本発明の各実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施形態]
<1.MRシステムのシステム構成>
図1は、本発明の第1の実施形態にかかる画像処理方法が実行されるMRシステム100のシステム構成を示す図である。
[First Embodiment]
<1. System configuration of MR system>
FIG. 1 is a diagram showing a system configuration of an MR system 100 in which the image processing method according to the first embodiment of the present invention is executed.

現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術である複合現実感、いわゆるMR技術では、撮像機能付表示装置が利用される。なお、以下では、撮像機能付表示装置をHMDと略すこととする。ただし、撮像機能付表示装置は、双眼鏡のような手持ちタイプのものでもよく、頭部装着型のものに限られるものではない。   In mixed reality, which is a technology that seamlessly fuses the real world and the virtual world in real time, so-called MR technology, a display device with an imaging function is used. Hereinafter, the display device with an imaging function is abbreviated as HMD. However, the display device with an imaging function may be a hand-held type such as binoculars, and is not limited to a head-mounted type.

HMDでは、撮像ユニットにおいて取得した装着者の視点による現実空間の撮像画像に、装着者の位置、方向などの三次元位置姿勢情報に基づいて生成したCG画像を重畳し、表示ユニットに表示するよう構成されている。当該構成により、HMD装着者は、観察している現実空間内に、CGで描画されたオブジェクトがあたかも存在しているかのような複合現実感を体感することができる。   In the HMD, a CG image generated based on three-dimensional position and orientation information such as the position and direction of the wearer is superimposed on the captured image of the real space obtained from the wearer's viewpoint acquired by the imaging unit, and displayed on the display unit. It is configured. With this configuration, the HMD wearer can experience a mixed reality feeling as if an object drawn with CG exists in the observed real space.

図1に示すように、当該HMDを利用したMRシステム100は、通常、HMD101のほか、コントローラ102と、画像合成装置103とにより構成することができる。   As shown in FIG. 1, the MR system 100 using the HMD can generally be configured by a controller 102 and an image composition device 103 in addition to the HMD 101.

このうち、HMD101は、上述したように装着者の観察している現実空間の画像を取得するための撮像ユニットを備える。また、撮像ユニットにおいて撮像した現実空間の撮像画像や、画像合成装置103からの出力画像、または画像合成装置103で生成したCG画像を現実空間の撮像画像に重畳した合成画像などを、表示画像として装着者に提供するための表示ユニットを有する。更に、HMD101は、コントローラ102と通信を行う機能を備える。なお、HMD101は、コントローラ102からの電源供給を受けて駆動するように構成してもよいし、バッテリーで駆動するように構成してもよい。   Among these, the HMD 101 includes an imaging unit for acquiring an image of the real space observed by the wearer as described above. In addition, a captured image in the real space captured by the imaging unit, an output image from the image composition device 103, or a composite image in which a CG image generated by the image composition device 103 is superimposed on the captured image in the real space is displayed as a display image. A display unit for providing to the wearer; Further, the HMD 101 has a function of communicating with the controller 102. The HMD 101 may be configured to be driven by receiving power supply from the controller 102 or may be configured to be driven by a battery.

一方、コントローラ102と接続された画像合成装置103は、CG画像を生成するCG描画部と、現実空間の撮像画像とCG画像とを合成する画像合成部とを備える。   On the other hand, the image composition device 103 connected to the controller 102 includes a CG rendering unit that generates a CG image, and an image composition unit that synthesizes the captured image of the real space and the CG image.

画像合成装置103はコントローラ102を介して、HMD101と通信を行うよう構成され、画像合成部において合成された合成画像は、コントローラ102を介してHMD101に送信され、表示ユニットにおいて表示される。   The image composition device 103 is configured to communicate with the HMD 101 via the controller 102, and the composite image synthesized by the image composition unit is transmitted to the HMD 101 via the controller 102 and displayed on the display unit.

一方、コントローラ102(画像処理装置)には、画像の解像度を変換する機能や色空間を変換する機能に加え、本実施形態にかかる画像処理方法による表示光学系の収差補正処理機能を含む各種画像処理機能ならびに伝送フォーマット変換機能が配されている。   On the other hand, the controller 102 (image processing apparatus) includes various functions including a function of converting the resolution of the image and a function of converting the color space, and an aberration correction processing function of the display optical system according to the image processing method according to the present embodiment. A processing function and a transmission format conversion function are provided.

なお、図1のMRシステムでは、画像合成装置103とコントローラ102とを別々のハードウェアとして構成しているが、本発明はこのような構成に限定されるものではない。例えば、コントローラ102が有する機能と画像合成装置103が有する機能とを統合し、専用の画像合成装置を構成するようにしてもよい。   In the MR system of FIG. 1, the image composition device 103 and the controller 102 are configured as separate hardware, but the present invention is not limited to such a configuration. For example, the function possessed by the controller 102 and the function possessed by the image composition device 103 may be integrated to constitute a dedicated image composition device.

また、図1のMRシステムでは、各々の装置を有線で接続することとしているが、本発明はこれに限定されず、これらの一部またはすべてを無線で接続するように構成してもよい。   In the MR system of FIG. 1, each device is connected by wire, but the present invention is not limited to this, and a part or all of them may be connected wirelessly.

あるいは、コントローラ102の機能の一部または全部をHMD101側に取り込むように構成してもよい。なお、以下のMRシステムでは、コントローラ102とHMD101がそれぞれ有する機能を組み合わせたものを改めてHMD101(画像処理装置)と表記して説明を行うこととする。   Or you may comprise so that a part or all of the function of the controller 102 may be taken in into the HMD101 side. In the following MR system, the combination of the functions of the controller 102 and the HMD 101 will be described as the HMD 101 (image processing apparatus).

<2.MRシステムの機能構成>
図2は、第1の実施形態にかかる画像処理方法が実行されるMRシステム200の機能構成を示す図である。
<2. MR System Functional Configuration>
FIG. 2 is a diagram illustrating a functional configuration of the MR system 200 in which the image processing method according to the first embodiment is executed.

図2において、201は、ビデオシースルー型のHMDである。HMD201は、現実空間を撮像する撮像ユニット203と、CG画像が重畳されたMR画像を表示する表示ユニット208と備える。また、CG画像の生成、合成を行う画像合成装置211との間で通信を行うためのI/F206と、HMD201の位置姿勢情報を出力する三次元位置姿勢センサ205と、撮像系収差補正部204と表示系収差補正部207とを備える。以下、HMD201の各部について説明する。   In FIG. 2, reference numeral 201 denotes a video see-through type HMD. The HMD 201 includes an imaging unit 203 that images a real space, and a display unit 208 that displays an MR image on which a CG image is superimposed. In addition, an I / F 206 for performing communication with an image composition device 211 that performs generation and composition of CG images, a three-dimensional position and orientation sensor 205 that outputs position and orientation information of the HMD 201, and an imaging system aberration correction unit 204 And a display system aberration correction unit 207. Hereinafter, each part of the HMD 201 will be described.

撮像ユニット203は、HMD装着者の視線位置と略一致する現実空間を撮像する。撮像ユニット203は、ステレオ画像の生成が可能な右目用、左目用の二組の撮像素子と撮像光学系および信号処理回路とから構成される。   The imaging unit 203 images a real space that is substantially coincident with the line-of-sight position of the HMD wearer. The imaging unit 203 includes two sets of right-eye and left-eye imaging devices capable of generating a stereo image, an imaging optical system, and a signal processing circuit.

撮像系収差補正部204は、撮像光学系で生じる収差を補正する。なお、収差補正の処理の内容は撮像系、表示系ともに基本的には同じである。   The imaging system aberration correction unit 204 corrects aberrations that occur in the imaging optical system. The content of the aberration correction process is basically the same for both the imaging system and the display system.

三次元位置姿勢センサ205は、HMD装着者の位置姿勢情報を得るためのセンサであり、後述する位置姿勢情報生成部213で用いられる情報を生成する。三次元位置姿勢センサ205としては、例えば、磁気センサやジャイロセンサ(加速度、角速度)が使用される。なお、三次元位置姿勢センサ205は、撮像画像のみから位置姿勢情報を取得するMRシステムの場合にあっては、必ずしも搭載が必須のデバイスではない。   The three-dimensional position / orientation sensor 205 is a sensor for obtaining the position / orientation information of the HMD wearer, and generates information used by a position / orientation information generation unit 213 described later. As the three-dimensional position and orientation sensor 205, for example, a magnetic sensor or a gyro sensor (acceleration, angular velocity) is used. Note that the three-dimensional position / orientation sensor 205 is not necessarily an indispensable device in the case of an MR system that acquires position / orientation information only from a captured image.

206は、撮像ユニット203で撮像された撮像画像を画像合成装置211に伝送し、また合成されたMR画像をHMD201へ伝送するためのI/Fである。I/F206は、HMD201と画像合成装置211との間のデータ通信を行う際に、インターフェースとして機能するものである。なお、これについては、画像合成装置211側に設けられているI/F212についても同様である。ただし、I/F206、212のいずれも、リアルタイム性が求められるため、大容量の伝送が可能な通信規格が採用されることが望ましい。有線系であれば、USBやIEEE1394のメタル線、GigabitEthernet(登録商標)等の光ファイバを使用するのが望ましい。また、無線系であれば、IEEE802.11のワイヤレスLAN、IEEE802.15のワイヤレスPAN規格等に準拠した高速無線通信を使用するのが望ましい。なお、本実施形態では、有線系であれば光ファイバを、無線系であればUWB(Ultra Wide Band)を使用することとする。光ファイバの伝送帯域は数Gbps、UWBは数百Mbpsである。   Reference numeral 206 denotes an I / F for transmitting a captured image captured by the imaging unit 203 to the image synthesis apparatus 211 and transmitting a synthesized MR image to the HMD 201. The I / F 206 functions as an interface when performing data communication between the HMD 201 and the image composition device 211. The same applies to the I / F 212 provided on the image composition device 211 side. However, since both of the I / Fs 206 and 212 are required to have real-time properties, it is desirable to adopt a communication standard that enables large-capacity transmission. In the case of a wired system, it is desirable to use an optical fiber such as a USB or IEEE 1394 metal wire or Gigabit Ethernet (registered trademark). In the case of a wireless system, it is desirable to use high-speed wireless communication conforming to IEEE 802.11 wireless LAN, IEEE 802.15 wireless PAN standard, or the like. In the present embodiment, an optical fiber is used for a wired system, and an UWB (Ultra Wide Band) is used for a wireless system. The transmission band of the optical fiber is several Gbps, and UWB is several hundred Mbps.

表示系収差補正部207は、表示光学系で生じる収差を補正する。なお、表示系収差補正部207の詳細は後述する。   The display system aberration correction unit 207 corrects aberrations that occur in the display optical system. Details of the display system aberration correction unit 207 will be described later.

表示ユニット208は、合成されたMR画像を表示する。撮像ユニット203と同様に、右目用、左目用の二組の表示デバイスと表示光学系とから構成される。表示デバイスとしては、例えば、小型の液晶ディスプレイやMEMS(Micro Electro Mechanical System)による網膜スキャンタイプのデバイスが使用可能である。なお、表示光学系の構成については後述する。   The display unit 208 displays the synthesized MR image. Similar to the imaging unit 203, it is composed of two sets of display devices for right eye and left eye and a display optical system. As a display device, for example, a small liquid crystal display or a retinal scan type device using MEMS (Micro Electro Mechanical System) can be used. The configuration of the display optical system will be described later.

一方、画像合成装置211は、HMD201から受け取った撮像画像に基づいて位置姿勢情報を生成したり、位置姿勢情報に基づいてCG画像を生成し、撮像画像と合成を行ったりする。画像合成装置211は、パソコンやワークステーション等の高性能な演算処理機能やグラフィック表示機能を有する装置により構成される。以下、画像合成装置211の各部について説明する。   On the other hand, the image composition device 211 generates position / orientation information based on the captured image received from the HMD 201, or generates a CG image based on the position / orientation information, and performs synthesis with the captured image. The image composition device 211 is configured by a device having a high-performance arithmetic processing function or a graphic display function such as a personal computer or a workstation. Hereinafter, each unit of the image composition device 211 will be described.

212は、画像処理装置側のI/Fである。I/F212の機能は、HMD201内のI/F206と同じであるため、ここでは説明は省略する。   Reference numeral 212 denotes an I / F on the image processing apparatus side. Since the function of the I / F 212 is the same as that of the I / F 206 in the HMD 201, the description thereof is omitted here.

213は、受け取った撮像画像から、HMD装着者の位置姿勢を示す位置姿勢情報を生成する位置姿勢情報生成部である。撮像画像からマーカやマーカの代わりとなる特徴点を抽出することにより位置姿勢情報を生成する。なお、位置姿勢情報生成部213は、不図示の客観視点による撮像画像や、HMD201に取り付けられた三次元位置姿勢センサ205による情報を補足的に使用する構成となっており、撮像画像中にマーカや特徴点がない場合にも対応することが可能である。   A position and orientation information generation unit 213 generates position and orientation information indicating the position and orientation of the HMD wearer from the received captured image. Position / orientation information is generated by extracting a marker or a feature point instead of the marker from the captured image. Note that the position / orientation information generation unit 213 is configured to supplementarily use a captured image from an objective viewpoint (not shown) and information from the three-dimensional position / orientation sensor 205 attached to the HMD 201, and a marker is included in the captured image. It is possible to cope with the case where there is no feature point.

214は、コンテンツDB215に保持されているそれぞれの仮想物体に係るデータを用いて、それぞれの仮想物体を仮想空間中に配置した仮想空間を形成するCG画像描画部である。CG画像描画部214では、形成した仮想空間においてHMD装着者の視点から見た場合の仮想画像(CG画像)を生成する。なお、所定の位置姿勢のHMD装着者の視点から見た場合の仮想空間の画像を生成する処理については周知であるので、ここでは詳細な説明は省略する。   Reference numeral 214 denotes a CG image rendering unit that forms a virtual space in which each virtual object is arranged in the virtual space, using data related to each virtual object stored in the content DB 215. The CG image drawing unit 214 generates a virtual image (CG image) when viewed from the viewpoint of the HMD wearer in the formed virtual space. In addition, since the process which produces | generates the image of the virtual space at the time of seeing from the viewpoint of the HMD wearing person of a predetermined position and orientation is known, detailed description is abbreviate | omitted here.

215は、仮想画像のコンテンツを納めたコンテンツDBであり、仮想空間を構成する各仮想物体に係るデータを保持するDB(データベース)である。仮想物体に係るデータには、例えば、仮想物体の配置・位置姿勢や、その動作則を示すデータが含まれる。また、仮想物体がポリゴンにより構成されている場合には、各ポリゴンの法線ベクトルデータやその色データ、ポリゴンを構成する各頂点の位置データ等が含まれる。また、仮想物体にテクスチャマッピングを施す場合には、テクスチャデータも含まれる。   A content DB 215 stores virtual image content, and is a DB (database) that holds data related to each virtual object constituting the virtual space. The data related to the virtual object includes, for example, data indicating the arrangement / position / attitude of the virtual object and its operation rule. If the virtual object is composed of polygons, normal vector data of each polygon, its color data, position data of each vertex constituting the polygon, and the like are included. In addition, when texture mapping is performed on a virtual object, texture data is also included.

216は、撮像画像とCG画像とを合成し、MR画像を生成するMR画像合成部である。ここで生成したMR画像は、I/F212を介してHMD201に送られ、HMD201の表示ユニット208にて表示される。   Reference numeral 216 denotes an MR image synthesis unit that synthesizes a captured image and a CG image to generate an MR image. The MR image generated here is sent to the HMD 201 via the I / F 212 and displayed on the display unit 208 of the HMD 201.

以上のような機能構成のもと、撮像ユニット203で撮像された撮像画像は、以下のような流れにより処理される。すなわち、撮像系収差補正部204において撮像光学系の収差が補正され、画像処理装置202へと送信される。そして、画像処理装置202において、受け取った撮像画像中のマーカや特徴量に基づいて、HMD201の位置姿勢情報が算出される。その後、算出された位置姿勢情報に基づいて生成されたCG画像が、撮像画像に重畳され、合成画像であるMR画像が生成される。生成されたMR画像は、I/F212を介してHMD201へと送られる。   Under the functional configuration as described above, the captured image captured by the imaging unit 203 is processed according to the following flow. That is, the imaging system aberration correction unit 204 corrects the aberration of the imaging optical system and transmits the corrected optical system to the image processing apparatus 202. Then, the image processing apparatus 202 calculates the position and orientation information of the HMD 201 based on the marker and the feature amount in the received captured image. Thereafter, a CG image generated based on the calculated position and orientation information is superimposed on the captured image, and an MR image that is a composite image is generated. The generated MR image is sent to the HMD 201 via the I / F 212.

HMD201では、撮像光学系と同様に、表示系収差補正部207において表示光学系の収差が補正された後、表示ユニット208に表示される。このような処理の流れにより、収差の補正されたMR画像がHMD装着者の瞳に導かれることとなる。   In the HMD 201, similarly to the imaging optical system, the display system aberration correction unit 207 corrects the aberration of the display optical system and then displays it on the display unit 208. Through such a processing flow, the MR image whose aberration has been corrected is guided to the pupil of the HMD wearer.

<3.画像合成装置のハードウェア構成>
次に、画像合成装置211のハードウェア構成について説明する。図3は、画像合成装置211のハードウェア構成を示すブロック図である。図3において、301はCPUであり、RAM302やROM303に格納されているプログラムやデータに基づいて処理を実行することにより、コンピュータ全体の制御を行うと共に、画像合成装置211が有する各種機能を実現する。
<3. Hardware configuration of image synthesizer>
Next, the hardware configuration of the image composition device 211 will be described. FIG. 3 is a block diagram illustrating a hardware configuration of the image composition device 211. In FIG. 3, reference numeral 301 denotes a CPU, which executes processing based on programs and data stored in a RAM 302 and a ROM 303, thereby controlling the entire computer and realizing various functions of the image composition apparatus 211. .

RAM302は、外部記憶装置306からロードされたプログラムやデータ、I/F307を介して外部(本実施形態の場合、HMD201)から受信したデータ等を一時的に記憶するエリアを提供する。また、CPU301が各種の処理を実行する際に用いるワークエリアも提供する。なお、RAM302は、これらのエリアを適宜提供することができる。ROM303は、コンピュータの設定データやブートプログラム(BIOS)等を格納する。   The RAM 302 provides an area for temporarily storing programs and data loaded from the external storage device 306, data received from the outside (the HMD 201 in this embodiment) via the I / F 307, and the like. A work area used when the CPU 301 executes various processes is also provided. Note that the RAM 302 can provide these areas as appropriate. The ROM 303 stores computer setting data, a boot program (BIOS), and the like.

304は操作部であり、キーボードやマウスなどにより構成されている。コンピュータの使用者は、操作部304を操作することにより、CPU301に対して各種の指示を入力する。305は表示部であり、CRTや液晶画面等により構成される。CPU301や不図示のグラフィックスボードによる処理結果は、画像や文字として、表示部305に表示される。   An operation unit 304 includes a keyboard and a mouse. A user of the computer inputs various instructions to the CPU 301 by operating the operation unit 304. A display unit 305 includes a CRT, a liquid crystal screen, and the like. A processing result by the CPU 301 or a graphics board (not shown) is displayed on the display unit 305 as an image or a character.

306は外部記憶装置であり、ハードディスクドライブ装置に代表される大容量情報記憶装置により構成される。外部記憶装置306には、OS(オペレーティングシステム)や、各種処理をCPU301に実行させるためのプログラムやデータが保存されている。これらのプログラムやデータは、CPU301による制御に従って適宜RAM302にロードされ、CPU301によって実行される。   Reference numeral 306 denotes an external storage device, which includes a large-capacity information storage device represented by a hard disk drive device. The external storage device 306 stores an OS (operating system) and programs and data for causing the CPU 301 to execute various processes. These programs and data are appropriately loaded into the RAM 302 under the control of the CPU 301 and executed by the CPU 301.

307はI/Fであり、図2に示したI/F212に対応する。I/F307は、HMD201とのデータ通信を行うためのインターフェースとして機能する。308は上記各部を繋ぐバスである。   Reference numeral 307 denotes an I / F, which corresponds to the I / F 212 shown in FIG. The I / F 307 functions as an interface for performing data communication with the HMD 201. A bus 308 connects the above-described units.

<4.HMDのハードウェア構成>
次に、HMD201のハードウェア構成について説明する。図4は、HMD201のハードウェア構成を示すブロック図である。図4において、401は撮像ユニットであり、図2の撮像ユニット203に対応する。402は表示ユニットであり、図2の表示ユニット208に対応する。403はRAMであり、CPU406が各種処理を行うために用いるワークエリアや、I/F206を介して外部(ここでは画像処理装置202)から受信したデータを一時的に記憶するためのエリアを提供する。
<4. HMD hardware configuration>
Next, the hardware configuration of the HMD 201 will be described. FIG. 4 is a block diagram showing a hardware configuration of the HMD 201. As shown in FIG. In FIG. 4, 401 is an imaging unit, which corresponds to the imaging unit 203 of FIG. Reference numeral 402 denotes a display unit, which corresponds to the display unit 208 in FIG. Reference numeral 403 denotes a RAM, which provides a work area used by the CPU 406 for performing various processes and an area for temporarily storing data received from the outside (here, the image processing apparatus 202) via the I / F 206. .

404はROMであり、HMD201が行う後述の各種処理をCPU406に実行させるためのプログラムやデータが格納されている。405は三次元位置姿勢センサであり、図2の三次元位置姿勢センサ205に対応する。406はCPUであり、HMD201の初期設定を行ったり、各種デバイスの制御を行うプログラムを実行する。407はI/Fであり、図2のI/F206に対応する。   Reference numeral 404 denotes a ROM which stores programs and data for causing the CPU 406 to execute various processes to be described later performed by the HMD 201. Reference numeral 405 denotes a three-dimensional position / orientation sensor, which corresponds to the three-dimensional position / orientation sensor 205 shown in FIG. Reference numeral 406 denotes a CPU which executes a program for performing initial settings of the HMD 201 and controlling various devices. Reference numeral 407 denotes an I / F, which corresponds to the I / F 206 in FIG.

408は収差補正LSIであり、図2の撮像系収差補正部204および表示系収差補正部207に対応する。ここでは専用集積回路であるASICを想定しているが、信号処理プロセッサであるDSPによってソフト的に機能を記述することで実現してもよい。409は上記各部を繋ぐバスである。   Reference numeral 408 denotes an aberration correction LSI, which corresponds to the imaging system aberration correction unit 204 and the display system aberration correction unit 207 of FIG. Although an ASIC that is a dedicated integrated circuit is assumed here, it may be realized by describing functions in a software manner using a DSP that is a signal processor. Reference numeral 409 denotes a bus connecting the above-described units.

<5.歪曲収差及び倍率色収差についての説明>
次に、歪曲収差及び倍率色収差について説明する。図5は、歪曲収差及び倍率色収差を説明するための図である。図5(A)は歪曲のない状態を、図5(B)は歪曲した状態を、図5(C)は歪曲に加えて倍率色収差が生じた状態をそれぞれ示している。
<5. Explanation of distortion and lateral chromatic aberration>
Next, distortion and lateral chromatic aberration will be described. FIG. 5 is a diagram for explaining distortion and lateral chromatic aberration. 5A shows a state without distortion, FIG. 5B shows a state in which distortion has occurred, and FIG. 5C shows a state in which lateral chromatic aberration has occurred in addition to the distortion.

図5(C)では、RGB三原色のうち、Greenを実線で、Redを破線で、Blueを一点鎖線で表している。このように、色毎に収差が生じるのは、Red、Green、Blueの各波長によってレンズでの屈折率が異なるためである。撮像光学系ではGreenの像に対して、Redの像は外側に、Blueの像は内側に結ばれる現象が起こり、白黒の被写体であってもその像のエッジには色にじみ(色ずれ)が生じる。また、カラー画像の被写体の場合も境界領域等の色味が変わるエッジ部分においては同様の色にじみが生じる。   In FIG. 5C, among the three primary colors of RGB, Green is represented by a solid line, Red is represented by a broken line, and Blue is represented by a one-dot chain line. As described above, the aberration occurs for each color because the refractive index of the lens differs depending on each wavelength of Red, Green, and Blue. In the imaging optical system, a phenomenon occurs in which the red image is connected to the outside and the blue image is connected to the inside with respect to the green image, and even in the case of a black-and-white subject, color blur (color shift) occurs at the edge of the image. Arise. In the case of a color image subject, a similar color blur occurs at an edge portion where the color changes such as a boundary region.

実レンズにおける結像においては、図5(A)のような図形を撮像した場合に、図5(C)のように画像が歪み、また、色によって結像位置(倍率)が異なる現象が生じる。一般に、単色における画像の歪みは「歪曲収差」と呼ばれ、色の違いによる倍率の差は「倍率色収差」と呼ばれている。   In imaging with a real lens, when a figure as shown in FIG. 5A is captured, the image is distorted as shown in FIG. 5C, and the imaging position (magnification) varies depending on the color. . In general, image distortion in a single color is called “distortion aberration”, and a magnification difference due to a color difference is called “magnification chromatic aberration”.

光の屈折は波長が短いほど顕著で、凸レンズをイメージした撮像光学系では外側に赤色がずれるが、拡大光学系である表示光学系では、逆に青色が外側にずれることになる。電子的な収差補正処理では、ずれる方向と逆方向にずらすように補正を行うこととなる。例えば、表示光学系の収差補正であれば、青色を内側に、赤色を外側に配置するように画像を形成することで表示光学系の収差と相殺され、各色の色ずれが生じることのない好ましい画像が、瞳位置において提供されることとなる。   The refraction of light becomes more conspicuous as the wavelength is shorter, and in the imaging optical system that images a convex lens, the red color shifts outward, but in the display optical system that is an enlargement optical system, the blue color shifts outward. In the electronic aberration correction processing, correction is performed so as to shift in the direction opposite to the direction of deviation. For example, in the case of correcting aberrations of the display optical system, it is preferable that an image is formed so that blue is arranged on the inner side and red is arranged on the outer side, so that the aberration of the display optical system is offset and color misregistration of each color does not occur. An image will be provided at the pupil position.

<6.表示ユニットの光学系の説明>
次に、HMD201の表示ユニット402の光学系について説明する。図6は表示光学系の一例を示す図である。図6において、601は表示パネルである。表示パネル601は、TFT液晶や有機ELのデバイスにより構成されており、TFT液晶の場合にあっては、不図示のバックライトを光源とした光が各色のフィルタを経由して照射されることとなる。一方、有機ELデバイスの場合には、自発光であるためバックライトは不要となる。HMD装着者に提示されるカラー画像は、表示パネル601上に形成される。
<6. Explanation of optical system of display unit>
Next, the optical system of the display unit 402 of the HMD 201 will be described. FIG. 6 is a diagram showing an example of the display optical system. In FIG. 6, reference numeral 601 denotes a display panel. The display panel 601 is composed of a TFT liquid crystal or an organic EL device. In the case of the TFT liquid crystal, light using a backlight (not shown) as a light source is irradiated through a filter of each color. Become. On the other hand, in the case of an organic EL device, since it is self-luminous, a backlight is not necessary. A color image presented to the HMD wearer is formed on the display panel 601.

602は、小型の表示パネル601からの光線を拡大し瞳に導くための自由曲面プリズムである。自由曲面プリズムの場合、単なるレンズを用いた場合と比べて、表示パネル601の薄型、小型化を実現することができる。   Reference numeral 602 denotes a free-form surface prism for enlarging the light from the small display panel 601 and guiding it to the pupil. In the case of a free-form surface prism, the display panel 601 can be made thinner and smaller than when a simple lens is used.

603は、表示パネルで形成した画像の結像点である。この結像位置に瞳を配置させることで、HMD装着者は、表示パネル601の画像を、拡大された大画面の表示画像として観察することができる。   Reference numeral 603 denotes an image formation point of an image formed on the display panel. By placing the pupil at this imaging position, the HMD wearer can observe the image on the display panel 601 as an enlarged display image on a large screen.

一般に表示光学系で生じる各種収差は複数のレンズ群によってその影響を抑えることができるが、小型のHMDの実現には表示光学系の簡略化および小型・軽量化が欠かせない。そのため、上述したように、HMD201では、各種収差を電子的に補正することとしている。   In general, various aberrations generated in the display optical system can be suppressed by a plurality of lens groups, but in order to realize a small HMD, it is indispensable to simplify the display optical system and to reduce the size and weight. Therefore, as described above, in the HMD 201, various aberrations are corrected electronically.

<7.表示系収差補正部の機能構成>
次に、HMD201の表示系収差補正部207の機能構成について説明する。図7は、表示系収差補正部207の機能構成を示すブロック図である。図7において、701は、RGBの色成分を持つ画素からなる画像データを格納するバッファである。702は、バッファ701に格納された画像を読み出し、平滑化対象となる画素を検出し、検出された画素に対して平滑化処理を行う適応的平滑化処理部である。なお、適応的平滑化処理部702の詳細については後述する。
<7. Functional configuration of display system aberration correction unit>
Next, a functional configuration of the display system aberration correction unit 207 of the HMD 201 will be described. FIG. 7 is a block diagram illustrating a functional configuration of the display system aberration correction unit 207. In FIG. 7, reference numeral 701 denotes a buffer for storing image data composed of pixels having RGB color components. Reference numeral 702 denotes an adaptive smoothing processing unit that reads an image stored in the buffer 701, detects a pixel to be smoothed, and performs smoothing processing on the detected pixel. Details of the adaptive smoothing processing unit 702 will be described later.

703は、適応的平滑化処理部702より出力された画像について、RGBの色成分に分離する色分離部である。704は収差補正テーブルであり、「注目画素」(処理を実行しようとしている画素)についての変換後の座標値を算出するための補正値を格納する。収差補正テーブル704には、容量削減のため、特定色の変換後の座標値と、特定色を除く他色についての、当該特定色を基準とした場合の差分値とが格納されているものとする。なお、収差補正テーブル704のテーブル構成および格納されている値についての詳細は後述する。   A color separation unit 703 separates the image output from the adaptive smoothing processing unit 702 into RGB color components. Reference numeral 704 denotes an aberration correction table, which stores a correction value for calculating a coordinate value after conversion for a “target pixel” (pixel to be processed). The aberration correction table 704 stores coordinate values after conversion of a specific color and difference values with respect to other colors other than the specific color when the specific color is used as a reference for capacity reduction. To do. Details of the table configuration and stored values of the aberration correction table 704 will be described later.

705は、各色の補正値を選択する補正値選択部であり、注目画素の座標値に対応する変換座標を算出するための補正値を収差補正テーブル704から読み出す。   A correction value selection unit 705 selects a correction value for each color, and reads a correction value for calculating conversion coordinates corresponding to the coordinate value of the target pixel from the aberration correction table 704.

706は、補正値選択部705で選択された補正値に基づいて、注目画素の各色成分の変換後の座標値を算出する座標算出部である。座標算出部706では、各種補間式を用いた補間演算によって変換後の座標値を算出する。なお、座標算出部706における処理の詳細は後述する。   Reference numeral 706 denotes a coordinate calculation unit that calculates coordinate values after conversion of each color component of the target pixel based on the correction value selected by the correction value selection unit 705. The coordinate calculation unit 706 calculates the converted coordinate value by interpolation calculation using various interpolation equations. Details of processing in the coordinate calculation unit 706 will be described later.

707は、変換後の注目画素の色情報を、該注目画素の近傍の補間位置に再構成する補間処理を行う補間処理部である。ここでは、それぞれGreen、Red、Blueの各色について補間位置における輝度値を算出する。なお、ここでいう「補間位置」とは表示パネル上の表示画素(格子点上)の位置を指すものとする。入力画像と出力画像の画像サイズの変換、すなわち解像度変換を行う場合には、補間処理部707において併せて当該処理を実施するものとする。なお、補間処理部707における処理の詳細は後述する。   Reference numeral 707 denotes an interpolation processing unit that performs an interpolation process for reconstructing the color information of the pixel of interest after conversion into an interpolation position near the pixel of interest. Here, the luminance value at the interpolation position is calculated for each color of Green, Red, and Blue. The “interpolation position” here refers to the position of a display pixel (on a grid point) on the display panel. When converting the image size of the input image and the output image, that is, resolution conversion, the interpolation processing unit 707 performs the processing together. Details of the processing in the interpolation processing unit 707 will be described later.

708は、補間処理後の各色の画像に対して、適応的平滑化処理部702における平滑化処理によって鈍った白色細線を先鋭化する適応的先鋭化処理部である。適応的先鋭化処理部708では、平滑化対象となった画素か否かの判断を行い、平滑化対象となった画素であると判断された画素に対して、先鋭化処理を行う。なお、適応的先鋭化処理部708における先鋭化処理の概要については後述する。   Reference numeral 708 denotes an adaptive sharpening processing unit that sharpens white thin lines dulled by the smoothing processing in the adaptive smoothing processing unit 702 for each color image after interpolation processing. The adaptive sharpening processing unit 708 determines whether or not the pixel is a smoothing target pixel, and performs sharpening processing on the pixel that is determined to be the smoothing target pixel. The outline of the sharpening process in the adaptive sharpening processing unit 708 will be described later.

709は、それぞれの色成分毎に求められた新たな輝度値をもとに、表示画素における各色成分の輝度値を結合する色結合部である。色結合部709では、例えば、各色8ビットの入力データが存在する場合、変換後の画素を結合することにより、各色8ビットの入力に対して、合計24ビットの画素データを出力する。   Reference numeral 709 denotes a color combining unit that combines the luminance values of the respective color components in the display pixel based on the new luminance values obtained for the respective color components. For example, when there is 8-bit input data for each color, the color combination unit 709 outputs pixel data of a total of 24 bits for each 8-bit input by combining the converted pixels.

なお、図7では不図示であるが、表示系収差補正部207には、入力された画像データを、収差補正処理が可能な画像フォーマットに変換する前処理部が備えられていてもよい。画像フォーマット変換としては、例えば、入力画像の各画素の画素情報が、座標値と輝度値と色差値とで構成される場合にあっては、当該画素情報を座標値と輝度値と各色成分(例えばRGBの各色)とに構成し直す処理を行う。また、画像の色味の補正や輝度値の調整、および、その後の画像フォーマットへの変換等を行う後処理部が、必要に応じて表示系収差補正部207に追加されてもよい。   Although not shown in FIG. 7, the display system aberration correction unit 207 may include a preprocessing unit that converts input image data into an image format that can be subjected to aberration correction processing. As the image format conversion, for example, when the pixel information of each pixel of the input image is composed of a coordinate value, a luminance value, and a color difference value, the pixel information is converted into the coordinate value, the luminance value, and each color component ( For example, a process of reconfiguring each color of RGB) is performed. Further, a post-processing unit that performs image color correction, brightness value adjustment, and subsequent conversion to an image format may be added to the display system aberration correction unit 207 as necessary.

以上の機能構成のもと、表示系収差補正部207では、入力されたRGBの各プレーン画像に対して、適応的平滑化処理部702で検出された白色細線への平滑化処理を実施する。そして、平滑化処理された画像に対して、座標変換処理と補間処理とを施すことによって表示光学系の収差を打ち消す補正を行う。更に、収差補正された画像に対して、必要に応じてエッジの先鋭化を実現する先鋭化処理を施し、白色細線のエッジが鈍りを解消する。更に、先鋭化処理された各色画像プレーンを結合し、カラー画像として表示する。   Based on the functional configuration described above, the display system aberration correction unit 207 performs smoothing processing on the white thin lines detected by the adaptive smoothing processing unit 702 on each input RGB plane image. Then, correction for canceling out aberrations of the display optical system is performed by performing coordinate conversion processing and interpolation processing on the smoothed image. Furthermore, sharpening processing for realizing sharpening of the edge is performed on the aberration-corrected image as necessary, so that the edge of the white fine line is eliminated. Further, the respective color image planes subjected to the sharpening process are combined and displayed as a color image.

表示系収差補正部207ではこのような流れにより処理を行うことで、白色細線に生じる偽色を抑制した画像を表示することが可能となる。なお、偽色抑制の実現において、適応的先鋭化処理部708による先鋭化処理は必須の処理ではなく、よりメリハリの効いた好ましい画像の提供を目的とした処理である。   The display system aberration correction unit 207 performs processing according to such a flow, so that it is possible to display an image in which the false color generated in the white thin line is suppressed. In realizing false color suppression, the sharpening process by the adaptive sharpening processing unit 708 is not an essential process, but a process aimed at providing a more crisp and preferable image.

<8.表示系収差補正部による収差補正処理の流れ>
次に、表示系収差補正部207における収差補正処理の流れについて説明する。図8は、表示系収差補正部207における収差補正処理の流れを示すフローチャートである。ステップS801では、収差補正を行うにあたり前処理を行うか否かを判断する。ここでいう前処理とは、例えば、色収差補正が適用できる画像フォーマットへの変換処理などである。前処理を行う場合にはステップS802へ進み、行わない場合にはステップS803へ進む。ステップS802では、前処理として、色収差補正が適用できる画像フォーマットへの変換処理等を実施する。
<8. Flow of aberration correction processing by display system aberration correction unit>
Next, the flow of aberration correction processing in the display system aberration correction unit 207 will be described. FIG. 8 is a flowchart showing the flow of aberration correction processing in the display system aberration correction unit 207. In step S801, it is determined whether or not pre-processing is to be performed for aberration correction. The preprocessing here is, for example, conversion processing to an image format to which chromatic aberration correction can be applied. If pre-processing is to be performed, the process proceeds to step S802. If not, the process proceeds to step S803. In step S802, as preprocessing, conversion processing to an image format to which chromatic aberration correction can be applied is performed.

ステップS803では、平滑化対象となる白色細線を検出し、検出された白色細線に対する平滑化処理を実施する。なお、適応的平滑化処理の詳細については別フローを用いて後述する。   In step S803, a white thin line to be smoothed is detected, and a smoothing process is performed on the detected white thin line. The details of the adaptive smoothing process will be described later using another flow.

ステップS804では、平滑化処理された画像について、RGBの三原色で構成される各画素の色情報を各色プレーン(色成分)ごとに分離する。なお、ここではRGBの三原色により分離することとしているが、収差補正テーブル自体が他の色成分の位置ずれ量を示す補正値からなる場合には、RGB以外の色により分離するように構成してもよい(例えば補色系のCMYK等)。   In step S804, the color information of each pixel composed of the three primary colors RGB is separated for each color plane (color component) in the smoothed image. Here, the separation is performed based on the three primary colors of RGB. However, when the aberration correction table itself is composed of correction values indicating the amount of misregistration of other color components, the separation is performed using colors other than RGB. (For example, complementary colors such as CMYK).

ステップS805では、各画素の色ごとにどの位置に結像点がずれるのか、あるいは、理想的な結像点へ導くためには、どこに画素を配置すれば良いのか、を示す変換後の座標値を算出する。なお、座標変換処理の詳細については別フローを用いて後述する。   In step S805, the converted coordinate value indicates where the image formation point is shifted for each color of each pixel, or where the pixel should be arranged to lead to an ideal image formation point. Is calculated. Details of the coordinate conversion process will be described later using another flow.

ステップS806では、ステップS805で得られた座標変換された注目画素の画素情報と参照画素の画素情報とに基づいて、新たな構成位置(「補間位置」)において、各色成分の輝度値を再構成する補間処理を行う。なお、「参照画素」とは、座標変換された注目画素が、表示パネル上の表示位置(格子点上)にない画素(つまり、補間処理が必要な「補間画素」)であった場合に、当該補間画素の近傍にある画素であって、表示パネル上の表示位置にある画素を指すものとする。つまり、補間画素の各色成分の輝度値は、参照画素の位置において(補間位置において)、再構成されることとなる。なお、補間処理の詳細についても別フローを用いて後述する。   In step S806, the luminance value of each color component is reconstructed at the new configuration position (“interpolation position”) based on the pixel information of the pixel of interest and the pixel information of the reference pixel obtained in step S805. Perform interpolation processing. It should be noted that the “reference pixel” is a pixel in which the coordinate-converted target pixel is not located at the display position (on the grid point) on the display panel (that is, “interpolation pixel” that requires interpolation processing) It is assumed that the pixel is in the vicinity of the interpolation pixel and is in the display position on the display panel. That is, the luminance value of each color component of the interpolation pixel is reconstructed at the position of the reference pixel (at the interpolation position). Details of the interpolation processing will be described later using another flow.

ステップS807では、補間処理が行われた画像のうち、平滑化処理によって鈍った白色細線を先鋭化すべく、平滑化対象となった画素を対象として先鋭化処理を実施する。具体的には、平滑化対象となった画素を対象として、後述するラプラシアンフィルタなどのフィルタによるマトリクス演算を行う。なお、白色細線の検出処理は、座標変換処理前の画像に対して行われているため、座標変換処理後の画像における平滑化対象となった画素か否かの判断は、白色細線の検出処理結果と座標変換処理に用いた補正値とに基づいて行われるものとする。   In step S807, sharpening processing is performed on the pixels that have been subjected to smoothing, in order to sharpen white thin lines that have been blunted by the smoothing processing in the image that has undergone the interpolation processing. Specifically, matrix calculation using a filter such as a Laplacian filter, which will be described later, is performed on the pixels that are to be smoothed. Since the white thin line detection process is performed on the image before the coordinate conversion process, it is determined whether or not the pixel is a pixel to be smoothed in the image after the coordinate conversion process. It is assumed that the determination is made based on the result and the correction value used in the coordinate conversion process.

ステップS808では、色成分毎に座標変換処理、補間処理を行った各画素の色情報に基づいて、新たな画素の色情報を再結合する色結合処理を実施する。   In step S808, color combination processing for recombining color information of a new pixel is performed based on the color information of each pixel that has undergone coordinate conversion processing and interpolation processing for each color component.

ステップS807では、収差補正処理後に、色補正や画像フォーマット変換等の後処理を行うか否かを判断する。後処理を行うと判断した場合にはステップS810へ進み、行わないと判断した場合には収差補正処理を終了する。ステップS810では、収差補正処理された画像に対して後処理を実施する。   In step S807, it is determined whether post-processing such as color correction or image format conversion is performed after the aberration correction processing. If it is determined that post-processing is to be performed, the process proceeds to step S810. If it is determined that post-processing is not to be performed, the aberration correction processing is terminated. In step S810, post-processing is performed on the aberration-corrected image.

<9.適応的平滑化処理及び適応的先鋭化処理についての説明>
次に、表示系収差補正部207において実行される適応的平滑化処理(ステップS803)及び適応的先鋭化処理(ステップS807)の詳細について説明する。
<9. Explanation of Adaptive Smoothing Processing and Adaptive Sharpening Processing>
Next, details of the adaptive smoothing process (step S803) and the adaptive sharpening process (step S807) executed in the display system aberration correction unit 207 will be described.

<9.1 適応的平滑化処理部及び適応的先鋭化処理部の機能構成>
はじめに、適応的平滑化処理を実行する適応的平滑化処理部702及び適応的先鋭化処理を実行する適応的先鋭化処理部708の機能構成について説明する。図9は、適応的平滑化処理部702の機能ブロック図である。
<9.1 Functional Configuration of Adaptive Smoothing Processing Unit and Adaptive Sharpening Processing Unit>
First, functional configurations of the adaptive smoothing processing unit 702 that executes adaptive smoothing processing and the adaptive sharpening processing unit 708 that executes adaptive sharpening processing will be described. FIG. 9 is a functional block diagram of the adaptive smoothing processing unit 702.

図9において、901は、表示される画像中に含まれる白色細線を検出する白色細線検出部である。表示画像を格納しているバッファ701から白色細線検出に必要な領域を読みだし、後述する参照マトリクスを用いて、注目画素が白色細線を形成する画素の一部であるか否かを判断する白色細線検出処理を実施する。検出結果は後段の適応的先鋭化処理(ステップS803)において使用される。なお、白色細線検出処理の詳細は後述する。   In FIG. 9, reference numeral 901 denotes a white thin line detection unit that detects a white thin line included in a displayed image. A white area for reading a region necessary for white thin line detection from the buffer 701 storing the display image and determining whether or not the target pixel is a part of a pixel forming the white thin line using a reference matrix described later. Perform thin line detection processing. The detection result is used in the subsequent adaptive sharpening process (step S803). Details of the white thin line detection process will be described later.

902は、タイミング調整用のバッファである。903は平滑化を実施する平滑化フィルタである。平滑化フィルタ903は、M行×N列のマトリクスにより構成されており、当該平滑化フィルタ903により、注目画素に対して指定された係数による重み付けが行われることにより、平滑化処理が実現される。   Reference numeral 902 denotes a timing adjustment buffer. Reference numeral 903 denotes a smoothing filter that performs smoothing. The smoothing filter 903 is configured by a matrix of M rows × N columns. The smoothing filter 903 weights the target pixel with a specified coefficient, thereby realizing a smoothing process. .

904は、平滑化処理を制御する制御部である。平滑化の度合いを平滑化フィルタの形状、サイズ、係数を変更することによって制御する。   A control unit 904 controls the smoothing process. The degree of smoothing is controlled by changing the shape, size, and coefficient of the smoothing filter.

905は、白色細線の検出結果に基づき、平滑化フィルタ903からの出力(平滑化処理された画素)とタイミング調整用バッファ902からの出力(平滑化処理がされていない画素)とを選択するセレクタである。   A selector 905 selects an output from the smoothing filter 903 (pixels subjected to the smoothing process) and an output from the timing adjustment buffer 902 (pixels not subjected to the smoothing process) based on the detection result of the white thin line. It is.

一方、適応的先鋭化処理部708も、適応的平滑化処理部702と基本的に同様の機能構成を有する。ただし、適応的先鋭化処理部708では、平滑化フィルタ903の代わりに、先鋭化フィルタが用いられる。また、先鋭化フィルタによる先鋭化対象となる画素は、適応的平滑化処理部702より送信された白色細線の検出結果と座標変換処理に用いた補正値とにより導き出される画素である。   On the other hand, the adaptive sharpening processing unit 708 also has basically the same functional configuration as the adaptive smoothing processing unit 702. However, the adaptive sharpening processing unit 708 uses a sharpening filter instead of the smoothing filter 903. Further, the pixel to be sharpened by the sharpening filter is a pixel derived from the detection result of the white thin line transmitted from the adaptive smoothing processing unit 702 and the correction value used in the coordinate conversion process.

<9.2 適応的平滑化処理及び適応的先鋭化処理において用いられるマトリックス>
次に、適応的平滑化処理及び適応的先鋭化処理において用いられるマトリックスについて説明する。図10は、適応的平滑化処理で使用される参照マトリクス及び平滑化フィルタ、及び、適応的先鋭化処理で使用される先鋭化フィルタの構成を示した図である。
<9.2 Matrix Used in Adaptive Smoothing and Adaptive Sharpening>
Next, the matrix used in the adaptive smoothing process and the adaptive sharpening process will be described. FIG. 10 is a diagram illustrating a configuration of a reference matrix and a smoothing filter used in the adaptive smoothing process, and a sharpening filter used in the adaptive sharpening process.

図10(a)は、白色細線検出用の参照マトリクスの一例を示している。ここでは参照マトリクスを3行×5列のマトリクスとして示しているが、参照マトリクスは、このサイズに限られるものではない。白色細線検出部901では、参照マトリクス中央の注目画素が白色細線の一部を構成する白色細線画素であるのか、白色細線を構成しない非該当画素であるのかを、当該参照マトリクス内の画素の値に基づいて判断する。つまり、「白色細線画素」とは、平滑化処理の対象となる画素(及び先鋭化処理の対象となる画素)を指す。   FIG. 10A shows an example of a reference matrix for detecting a white thin line. Although the reference matrix is shown here as a 3 × 5 matrix, the reference matrix is not limited to this size. The white thin line detection unit 901 determines whether the pixel of interest at the center of the reference matrix is a white thin line pixel that forms part of the white thin line or a non-applicable pixel that does not form a white thin line. Judgment based on. That is, the “white thin line pixel” refers to a pixel to be smoothed (and a pixel to be sharpened).

なお、白色細線が3画素の幅で構成されている場合、白色細線の外側の画素が白色画素ではないことを判断するためには、3画素より広い領域を参照する必要がある。つまり、上記参照マトリクスの場合、縦線では3画素の幅まで、横線では1画素の幅まで検出することが可能である。参照マトリクスのサイズ及び形状は検出したい白色細線の線幅によって、制御部904によって任意に変更されるものとする。   When the white thin line is configured with a width of 3 pixels, it is necessary to refer to an area wider than 3 pixels in order to determine that the pixel outside the white thin line is not a white pixel. That is, in the case of the reference matrix, it is possible to detect up to a width of 3 pixels in the vertical line and up to a width of 1 pixel in the horizontal line. The size and shape of the reference matrix are arbitrarily changed by the control unit 904 according to the line width of the white thin line to be detected.

図10(b)は、平滑化フィルタ903のマトリクスの一例を示している。図10(b)に示すマトリクスによれば、注目画素の輝度値を2倍した値とその周囲8画素の輝度値との和を10で割った値を新たに注目画素の輝度値とする平滑化処理が行われる。なお、ここで示したフィルタ係数(重み付け係数)は一例であり、この値に限られるものではない。より平滑化の効果を強めたい場合には、注目画素の重み付け係数の値を周囲の係数と比べて相対的に小さくすればよい。逆に平滑化の効果を弱めたい場合には、注目画素の重み付け係数の値を周囲の係数と比べて相対的に大きくすればよい。また、参照マトリクスのサイズを大きくすることで平滑化の度合いを強めることも可能である。さらには、新たに算出された平滑化処理後の輝度値が元の輝度値と比べてある閾値以上の差がない場合には、元の輝度値を採用するといった処理が加えられてもよい。   FIG. 10B shows an example of a matrix of the smoothing filter 903. According to the matrix shown in FIG. 10 (b), smoothing is performed using a value obtained by dividing the sum of the luminance value of the pixel of interest by two and the luminance value of the surrounding eight pixels by 10 as the luminance value of the pixel of interest. Processing is performed. The filter coefficient (weighting coefficient) shown here is an example and is not limited to this value. In order to further enhance the smoothing effect, the value of the weighting coefficient of the pixel of interest may be made relatively smaller than the surrounding coefficients. Conversely, when it is desired to weaken the smoothing effect, the value of the weighting coefficient of the pixel of interest may be made relatively larger than the surrounding coefficients. In addition, the degree of smoothing can be increased by increasing the size of the reference matrix. Further, if the newly calculated luminance value after the smoothing process is not different from the original luminance value by a certain threshold or more, a process of adopting the original luminance value may be added.

図10(c)は、先鋭化フィルタのマトリクスの一例を示している。図10(c)に示すマトリクスによれば、注目画素の輝度値を10倍した値からその周囲8画素の輝度値の和を引いた値を2で割った値を、新たに注目画素の輝度値とする先鋭化処理が行われる。なお、ここで示したフィルタ係数(重み付け係数)は一例であり、この値に限られるものではない。例えば、ラプラシアンフィルタのように、注目画素の対角画素のみを参照するようにしてもよい。   FIG. 10C shows an example of a sharpening filter matrix. According to the matrix shown in FIG. 10C, a value obtained by subtracting the sum of the luminance values of the surrounding eight pixels from the value obtained by multiplying the luminance value of the target pixel by 10 is divided by 2, and a new luminance value of the target pixel is obtained. A sharpening process is performed to obtain a value. The filter coefficient (weighting coefficient) shown here is an example and is not limited to this value. For example, only the diagonal pixel of the target pixel may be referred to like a Laplacian filter.

<9.3 適応的平滑化処理における白色細線検出処理の流れ>
次に、適応的平滑化処理(ステップS803)における白色細線検出処理の流れについて説明する。図11は、白色細線検出処理の流れを示すフローチャートである。上述した参照マトリクスを利用して、注目画素が白色細線の一部を構成する白色細線画素であるか否かを判断する。
<9.3 White Thin Line Detection Processing Flow in Adaptive Smoothing Processing>
Next, the flow of the white thin line detection process in the adaptive smoothing process (step S803) will be described. FIG. 11 is a flowchart showing the flow of white thin line detection processing. Using the above-described reference matrix, it is determined whether or not the pixel of interest is a white thin line pixel constituting a part of the white thin line.

ステップS1101では、参照マトリクス内の各画素の輝度値を取得する。ステップS1102では、参照マトリクス内の注目画素が白色であるのか否かを判断する。白色であるか否かの判断は、RGBの各輝度値がそれぞれ任意の閾値以上であるか否かを判断することによって行う。例えば、各色8ビットデータの場合、192以上の値を各色成分が持っていれば白色と判断する。注目画素が白色であると判断された場合には、ステップS1103へ進み、注目画素が白色でないと判断された場合にはステップS1106へ進む。   In step S1101, the luminance value of each pixel in the reference matrix is acquired. In step S1102, it is determined whether the pixel of interest in the reference matrix is white. Whether the color is white is determined by determining whether each luminance value of RGB is equal to or greater than an arbitrary threshold value. For example, in the case of 8-bit data for each color, if each color component has a value of 192 or more, it is determined as white. If it is determined that the target pixel is white, the process proceeds to step S1103. If it is determined that the target pixel is not white, the process proceeds to step S1106.

ステップS1103では、参照マトリクス内の注目画素以外の画素に、注目画素と同一の輝度値を持つ画素が存在するか否かを判断する。これは、注目画素が白色細線の一部を構成する画素であるなら、マトリクス内に同一またはほぼ同一の輝度値を持つ画素が存在するはずだからである。同一輝度値を持つ画素が存在すると判断された場合にはステップS1104へ、存在しない、すなわち注目画素が白色の孤立画素であると判断された場合にはステップS1106へ進む。   In step S1103, it is determined whether a pixel having the same luminance value as the target pixel exists in the pixels other than the target pixel in the reference matrix. This is because if the pixel of interest is a pixel that forms part of a white thin line, there should be pixels with the same or substantially the same luminance value in the matrix. If it is determined that there is a pixel having the same luminance value, the process proceeds to step S1104. If it is determined that no pixel exists, that is, the target pixel is a white isolated pixel, the process proceeds to step S1106.

ステップS1104では、参照マトリクス内に任意の閾値以下の値を持つ輝度値の低い画素が存在するか否かを判断する。例えば、各色8ビットデータの場合、各色成分が96より小さい輝度値を持っているのであれば、白色細線とその周辺とでコントラストの差が大きいと判断することができる。コントラストが大きい場合、収差補正による補間処理時に偽色が目立ちやすくなることから、平滑化処理が必要であると判断することができる。逆に白色細線の外周(背景部分)の輝度値が相対的に大きい場合には、補間処理時の偽色が目立ちにくい。このため、平滑化処理が不要と判断することができる。そこで、任意の閾値以下の輝度値を持つ画素が存在する場合にはステップS1105へ進み、存在しない場合にはステップS1106へ進む。   In step S1104, it is determined whether there is a pixel with a low luminance value having a value equal to or less than an arbitrary threshold value in the reference matrix. For example, in the case of 8-bit data for each color, if each color component has a luminance value smaller than 96, it can be determined that the difference in contrast between the white thin line and its periphery is large. If the contrast is large, false colors are likely to be noticeable during the interpolation processing by aberration correction, so that it can be determined that smoothing processing is necessary. On the other hand, when the luminance value of the outer periphery (background portion) of the white thin line is relatively large, the false color at the time of interpolation processing is not noticeable. For this reason, it can be judged that smoothing processing is unnecessary. Therefore, if there is a pixel having a luminance value equal to or less than an arbitrary threshold, the process proceeds to step S1105, and if not, the process proceeds to step S1106.

ステップS1105では、ステップS1102からステップS1104までの条件を満たしていることを受けて、注目画素が白色細線の一部を構成する白色細線画素(平滑化対象となる画素)であると判断し、白色細線検出処理を終了する。   In step S1105, in response to satisfying the conditions from step S1102 to step S1104, it is determined that the target pixel is a white thin line pixel (a pixel to be smoothed) that forms part of the white thin line, and white The thin line detection process ends.

一方、ステップS1106では、ステップS1102からステップS1104までの条件の何れかを満たしていないことを受けて、平滑化対象とならない非該当画素であると判断し、白色細線検出処理を終了する。   On the other hand, in step S1106, in response to not satisfying any of the conditions from step S1102 to step S1104, it is determined that the pixel is a non-corresponding pixel that is not to be smoothed, and the white thin line detection process ends.

<9.4 適応的平滑化処理における平滑化処理の流れ>
次に、適応的平滑化処理(ステップS803)における平滑化処理の流れについて説明する。図12は、平滑化処理の流れを示すフローチャートである。ステップS1201では、平滑化処理におけるフィルタ演算の際の平滑化フィルタ903のマトリクス内の各画素の輝度値を取得する。
<9.4 Flow of Smoothing Processing in Adaptive Smoothing Processing>
Next, the flow of the smoothing process in the adaptive smoothing process (step S803) will be described. FIG. 12 is a flowchart showing the flow of the smoothing process. In step S1201, the luminance value of each pixel in the matrix of the smoothing filter 903 at the time of the filter operation in the smoothing process is acquired.

ステップS1202では、図11のフローチャートで説明した白色細線検出処理の検出結果を把握する。ステップS1203では、平滑化フィルタ903のマトリクス内に白色細線の一部を構成する白色細線画素が存在するか否かを判断する。存在する場合にはステップS1204へ進み、存在しない場合には平滑化処理を終了する。   In step S1202, the detection result of the white thin line detection process described in the flowchart of FIG. 11 is grasped. In step S <b> 1203, it is determined whether or not a white thin line pixel constituting a part of the white thin line exists in the matrix of the smoothing filter 903. When it exists, it progresses to step S1204, and when it does not exist, smoothing processing is complete | finished.

ステップS1204では、平滑化フィルタ903のマトリクス内に白色細線の一部を構成する白色細線画素が含まれることを受けて、フィルタ演算を実施する。   In step S1204, in response to the fact that the smoothing filter 903 matrix includes white thin line pixels that constitute a part of the white thin line, a filter operation is performed.

<10.座標変換処理及び補間処理についての説明>
次に、表示系収差補正部207において実行される座標変換処理(ステップS805)及び補間処理(ステップS806)について説明する。
<10. Explanation of coordinate conversion processing and interpolation processing>
Next, coordinate conversion processing (step S805) and interpolation processing (step S806) executed in the display system aberration correction unit 207 will be described.

<10.1 収差補正テーブルの説明>
はじめに、座標変換処理に用いられる収差補正テーブル704について説明する。図13は、収差補正テーブル704の一例を示す図である。図13に示すように、収差補正テーブル704には、特定の画素の変換前座標と、変換後座標(または変換後座標との差分値)とが格納されている。注目画素に基づいて特定の画素のX−Y座標を指定することで、基準色(本実施形態ではG)は変換後座標を、基準色以外の他色(RとB)については基準色についての変換後座標との差分値を得ることができる。つまり、Rの変換後座標は、格納されている差分値1301(Gx―Rx)とGの変換後座標Gxとから求めることができる。また、Bの変換後座標は、格納されている差分値1302(Bx―Gx)と、Gの変換後座標Gxとから求めることができる。
<10.1 Explanation of Aberration Correction Table>
First, the aberration correction table 704 used for the coordinate conversion process will be described. FIG. 13 is a diagram illustrating an example of the aberration correction table 704. As illustrated in FIG. 13, the aberration correction table 704 stores coordinates before conversion of a specific pixel and coordinates after conversion (or a difference value between the coordinates after conversion). By specifying the XY coordinates of a specific pixel based on the pixel of interest, the reference color (G in this embodiment) is the coordinate after conversion, and the colors other than the reference color (R and B) are the reference colors A difference value from the converted coordinates can be obtained. That is, the R converted coordinates can be obtained from the stored difference value 1301 (Gx−Rx) and the G converted coordinates Gx. Further, the converted coordinates of B can be obtained from the stored difference value 1302 (Bx−Gx) and the converted coordinates Gx of G.

なお、本実施形態では座標変換前の座標についても収差補正テーブルとして構成することとしたが、本発明はこれに限定されず、座標変換前の座標をメモリアクセス時のアドレスと対応づけるようにしてもよい。このように構成することにより、変換前座標をメモリ領域内に確保する必要がなくなり、メモリサイズをさらに削減することが可能となる。   In this embodiment, coordinates before coordinate conversion are also configured as an aberration correction table. However, the present invention is not limited to this, and coordinates before coordinate conversion are associated with addresses at the time of memory access. Also good. With this configuration, it is not necessary to secure the pre-conversion coordinates in the memory area, and the memory size can be further reduced.

<10.2 座標変換処理の流れ>
図14は、座標変換処理の流れを示すフローチャートである。二次元の座標系における表示中心座標(x0,y0)を原点としてレンズの歪曲収差情報、色収差情報および解像度情報に基づいて、二次元座標系における各画素における位置ずれ量を求める。そして、該位置ずれ量に基づいてx軸方向、y軸方向に各画素を座標変換する。
<10.2 Coordinate transformation process flow>
FIG. 14 is a flowchart showing the flow of coordinate conversion processing. Based on the distortion aberration information, chromatic aberration information, and resolution information of the lens with the display center coordinates (x0, y0) in the two-dimensional coordinate system as the origin, the amount of displacement in each pixel in the two-dimensional coordinate system is obtained. Then, each pixel is coordinate-converted in the x-axis direction and the y-axis direction based on the positional deviation amount.

なお、本実施形態では収差補正テーブルのサイズを削減するため、変換前座標と変換後座標との関係は、画像内の画素すべてに対して保持するのではなく、サンプリングされた代表点のみを持ち、間の画素については補間演算によって求めるものとする。   In this embodiment, in order to reduce the size of the aberration correction table, the relationship between the pre-conversion coordinates and the post-conversion coordinates does not hold for all the pixels in the image, but has only sampled representative points. The pixels between and are obtained by interpolation calculation.

ステップS1401では、注目画素の座標を指定する。ステップS1402では、注目画素に対応する収差補正テーブル内の特定の画素の座標を指定する。ここでは注目画素に対応する収差補正テーブル内の特定の画素の座標の指定を、ステップS1401の後に行うこととしているが、本発明はこれに限定されない。例えば、ステップS1401の前に行うよう、ステップS1401とS1402の順番を入れ替えるようにしてもよい。   In step S1401, the coordinates of the target pixel are designated. In step S1402, the coordinates of a specific pixel in the aberration correction table corresponding to the target pixel are designated. Here, the coordinates of a specific pixel in the aberration correction table corresponding to the pixel of interest are designated after step S1401, but the present invention is not limited to this. For example, the order of steps S1401 and S1402 may be switched so as to be performed before step S1401.

ステップS1403では、注目画素の座標変換後の座標値を得るために必要な補正値を収差補正テーブルから取得する。ステップS1404では、ステップS1403において収差補正テーブルより取得された補正値を用いて、注目画素についての変換後の座標値を取得する。具体的には、歪曲収差であれば画素の位置ずれ量、また、色収差であれば各色成分の変換後の座標を算出するための色成分ごとの位置ずれ量を用いて、注目画素についての変換後の座標値を取得する。なお、格納されている収差補正テーブルで示される変換前座標はサンプリングされた代表値のため、その間の値は補間演算によって求めることとする。この補間演算には、線形補間の他、三次の補間曲線や補間曲面およびスプライン曲線や近似多項式などを用いるものとするが、特にそのような補間式に限定されるものではない。   In step S1403, a correction value necessary for obtaining a coordinate value after coordinate conversion of the target pixel is acquired from the aberration correction table. In step S1404, using the correction value acquired from the aberration correction table in step S1403, the coordinate value after conversion for the target pixel is acquired. Specifically, if the distortion is a distortion, the amount of displacement of the pixel, and if it is chromatic aberration, the amount of displacement for each color component is used to calculate the coordinates after conversion of each color component. Get the later coordinate value. Note that the pre-conversion coordinates indicated in the stored aberration correction table are sampled representative values, and values between them are obtained by interpolation calculation. In this interpolation calculation, in addition to linear interpolation, a cubic interpolation curve, an interpolation curved surface, a spline curve, an approximate polynomial, or the like is used. However, the interpolation calculation is not particularly limited to such an interpolation expression.

ステップS1405では、全画素に対して上記座標変換処理を実行したかどうかを判断する。全画素に対して処理が終了したと判断された場合には、座標変換処理を終了する。一方、全画素に対して上記座標変換処理を実行していないと判断された場合には、ステップS1401に戻り、対応する画素の収差を補正するための座標変換処理を継続する。   In step S1405, it is determined whether the coordinate conversion process has been executed for all pixels. If it is determined that the process has been completed for all pixels, the coordinate conversion process is terminated. On the other hand, if it is determined that the coordinate conversion process has not been performed on all the pixels, the process returns to step S1401 to continue the coordinate conversion process for correcting the aberration of the corresponding pixel.

<10.3 補間処理の概要>
次に補間処理について説明する。はじめに補間処理の概要について説明する。図15は、三次補間処理の概念を示す模式図である。収差補正における補間処理では、座標変換後の注目画素の色情報を補間位置に再構成する補間処理として、三次補間式を使用することで画像の高画質化を実現している。ここでは一般的な三次補間処理の概念について説明する。なお、補間処理は線形補間を用いても、あるいは、より高次の補間式を用いてもよい。
<10.3 Outline of interpolation processing>
Next, the interpolation process will be described. First, an outline of the interpolation process will be described. FIG. 15 is a schematic diagram showing the concept of cubic interpolation processing. In the interpolation processing in aberration correction, the image quality is improved by using a cubic interpolation formula as interpolation processing for reconstructing the color information of the pixel of interest after coordinate conversion into the interpolation position. Here, the concept of general cubic interpolation processing will be described. The interpolation processing may use linear interpolation or may use a higher-order interpolation formula.

座標変換した注目画素の画素位置と各色成分の輝度値とに基づいて、二次元座標系における補間位置の画素情報(RGBの各輝度値)を補間演算によって求めるのが補間処理である。図15の例では、補間演算において補間画素1501のx座標sxとy座標syとを指定し、まず参照画素と補間画素との間の正規化された距離pxとpyを求める。そして、求めた距離pxとpyを用いて、xとyの各座標について重み係数を求める。求める際に使用する三次関数が上記各三次式による補間曲線となり、バイキュービックであれば式(1)および式(2)が、ラグランジュであれば(3)および(4)が該当する三次補間式となる。   Interpolation processing is to obtain pixel information (RGB luminance values) of an interpolation position in the two-dimensional coordinate system based on the pixel position of the pixel of interest subjected to coordinate conversion and the luminance value of each color component by interpolation calculation. In the example of FIG. 15, the x coordinate sx and the y coordinate sy of the interpolation pixel 1501 are specified in the interpolation calculation, and first, normalized distances px and py between the reference pixel and the interpolation pixel are obtained. Then, using the obtained distances px and py, a weighting coefficient is obtained for each coordinate of x and y. The cubic function used for the calculation is an interpolation curve based on the above-mentioned cubic equations. If bicubic, equations (1) and (2) are Lagrange, and (3) and (4) are applicable cubic interpolation equations. It becomes.

バイキュービック補間曲線(周囲16点から双三次補間)   Bicubic interpolation curve (bicubic interpolation from surrounding 16 points)

ラグランジュ補間曲線(周囲16点から双三次補間)   Lagrange interpolation curve (bicubic interpolation from surrounding 16 points)

x、yそれぞれの座標に対して上記三次補間式にpxとpyの値を代入することで、参照画素の重み係数を算出する。なお、pxとpyは正規化されているものとする。通常の解像度変換であれば格子が正方形で一定の値となるが、座標変換によって変換された各補間画素は正方形を構成しないため、ここでは参照画素の間隔を1として正規化を行っている。以後は説明を簡略化するため、参照画素は正規化された軸上に存在するものとする。   The weighting coefficient of the reference pixel is calculated by substituting the values of px and py into the cubic interpolation formula for the coordinates of x and y. Note that px and py are normalized. In normal resolution conversion, the grid is square and has a constant value. However, since each interpolation pixel converted by coordinate conversion does not form a square, normalization is performed with the interval between reference pixels set to 1. Hereinafter, in order to simplify the explanation, it is assumed that the reference pixel exists on the normalized axis.

図15では補間画素1501の周囲の点線で囲まれた部分が正規化された1の領域となる。すなわちyとy+1の軸およびxとx+1の軸上に存在する4つの参照画素と補間画素との距離px、pyはともに1よりも小さくなる。逆にその周りの12画素は1と2との間の値をとる。最近傍4画素の重み係数の演算の際に使用する三次補間式は、バイキュービックであれば(1)に、ラグランジュであれば(3)となる。外周12画素の重み係数の演算の際に使用する三次補間式は、バイキュービックであれば(2)に、ラグランジュであれば(4)となる。これらの重み係数をx方向、y方向それぞれに求めた後、参照画素の輝度値とこれらxとyの重み係数とを掛け合わせ、周辺16画素の輝度値に加算した値が補間位置における新たな輝度値となる。   In FIG. 15, a portion surrounded by a dotted line around the interpolation pixel 1501 is a normalized one region. That is, the distances px and py between the four reference pixels and the interpolation pixels existing on the y and y + 1 axes and the x and x + 1 axes are both smaller than 1. Conversely, the 12 pixels around it take a value between 1 and 2. The cubic interpolation formula used when calculating the weight coefficients of the nearest four pixels is (1) for bicubic and (3) for Lagrange. The cubic interpolation formula used for calculating the weighting coefficients of the outer 12 pixels is (2) for bicubic and (4) for Lagrange. After obtaining these weighting factors in the x and y directions, the luminance value of the reference pixel is multiplied by the x and y weighting factors, and the value added to the luminance values of the surrounding 16 pixels is a new value at the interpolation position. It becomes a luminance value.

なお、実際の処理では、最近傍4画素すべてが正規化された格子内または格子上に存在するわけではなく、逆に周辺12画素が正規化された1以上の値をとるとは限られず、いずれも収差補正量によって変化する。   In actual processing, not all the nearest four pixels are present in or on the normalized grid, and conversely, the neighboring 12 pixels are not limited to taking a normalized value of 1 or more. In either case, it varies depending on the aberration correction amount.

<10.4 補間処理の流れ>
次に補間処理の流れについて説明する。図16は、補間処理の流れを示すフローチャートである。ここでは上記三次補間式を使用した補間処理について説明する。
<10.4 Flow of interpolation processing>
Next, the flow of interpolation processing will be described. FIG. 16 is a flowchart showing the flow of interpolation processing. Here, an interpolation process using the cubic interpolation formula will be described.

ステップS1601では、新たに補間を行う補間画素の位置について、座標の指定を行う。ステップ1602では、補間画素の近傍16点の参照画素を指定する。   In step S1601, coordinates are designated for the position of the interpolation pixel to be newly interpolated. In step 1602, 16 reference pixels in the vicinity of the interpolation pixel are designated.

ステップS1603では、参照画素である近傍16画素のそれぞれの座標を取得する。この座標は正規化された値である。ステップS1604では、補間画素と各参照画素との距離を算出する。なお、当該距離は代表点の間隔で正規化された値として準備する。なお、本実施形態では、二次元空間を対象としているため、x座標、y座標それぞれの値を求める。   In step S1603, the coordinates of 16 neighboring pixels that are reference pixels are acquired. This coordinate is a normalized value. In step S1604, the distance between the interpolation pixel and each reference pixel is calculated. The distance is prepared as a value normalized by the interval between representative points. In the present embodiment, since the target is a two-dimensional space, the values of the x coordinate and the y coordinate are obtained.

ステップS1605では、補間曲線または補間直線にステップS1604で算出した距離を代入することで各参照画素の重み係数を求める。ここでは三次補間式の採用を想定しているが、線形補間(バイリニア)アルゴリズムを採用しても構わない。ステップS1606では、各参照画素の値とx、y座標における重み係数の積とを加算し、補間位置の輝度値を演算する。   In step S1605, the weighting coefficient of each reference pixel is obtained by substituting the distance calculated in step S1604 into an interpolation curve or an interpolation line. Here, it is assumed that a cubic interpolation formula is adopted, but a linear interpolation (bilinear) algorithm may be adopted. In step S1606, the value of each reference pixel and the product of the weighting coefficients in the x and y coordinates are added to calculate the luminance value at the interpolation position.

ステップS1607では、全画素に対して上記処理を実行したか否かを判断する。全画素に対して上記処理を実行したと判断された場合には補間処理を終了する。一方、上記処理を実行していない画素があると判断された場合には、ステップS1601に戻り、当該画素について上記処理を実行する。   In step S1607, it is determined whether the above processing has been executed for all pixels. If it is determined that the above process has been executed for all pixels, the interpolation process is terminated. On the other hand, if it is determined that there is a pixel that has not been subjected to the above process, the process returns to step S1601 to execute the above process for the pixel.

<11.表示系収差補間部による収差補正処理の効果>
次に、表示系収差補正部207における収差補正処理による偽色発生抑制の効果について説明する。なお、説明に際しては、はじめに、画像に含まれる白色細線を収差補正処理した場合の、偽色発生のメカニズムについて説明する。
<11. Effect of aberration correction processing by display system aberration interpolation unit>
Next, the effect of suppressing false color generation by the aberration correction processing in the display system aberration correction unit 207 will be described. In the description, first, a false color generation mechanism when aberration correction processing is performed on a white thin line included in an image will be described.

図17A、図17Bは、偽色発生のメカニズムと表示系収差補正部207における収差補正処理による偽色発生抑制の効果を説明するための模式図である。ここでは、説明を簡略化するため、線幅が一画素で構成される白色細線について説明する。なお、線幅が複数画素で構成される場合においても同様のメカニズムに従って偽色が発生するため、表示系収差補正部207における収差補正処理による偽色発生抑制の効果についての説明は同様である。   17A and 17B are schematic diagrams for explaining the mechanism of false color generation and the effect of suppressing false color generation by the aberration correction processing in the display system aberration correction unit 207. Here, in order to simplify the description, a white thin line having a line width of one pixel will be described. Even when the line width is composed of a plurality of pixels, false colors are generated according to the same mechanism. Therefore, the description of the effect of suppressing false color generation by the aberration correction processing in the display system aberration correction unit 207 is the same.

図17Aの(a)は、収差補正前の白色細線の例を、図17Aの(b)は、収差補正を実現する補間処理によって再現された白色細線の例を示している。図17Aの(b)は単色(R、G、Bの何れか)の線を示している。図17Aの(c)は、図17Aの(b)で示される単色の白色細線が各色重なることで発生する偽色のパターンの例を示している。   17A shows an example of a white thin line before aberration correction, and FIG. 17A shows an example of a white thin line reproduced by interpolation processing that realizes aberration correction. FIG. 17A (b) shows a line of a single color (R, G, or B). FIG. 17A (c) shows an example of a false color pattern generated by overlapping the single-color white thin lines shown in FIG. 17A (b).

図17Bの(d)は、表示系収差補正部207において、平滑化処理を適用した収差補正前の白色細線の例を、図17Bの(e)は、平滑化処理が適用された後の補間処理によって再現された白色細線の例を示している。また、図17Bの(f)は、図17Bの(e)で示される単色の白色細線が各色重なっても偽色の発生が抑制されるパターンを示している。更に、図17Bの(g)は、図17Bの(e)に対して先鋭化処理を適用した場合の単色の白色細線の例を示している。   FIG. 17B (d) shows an example of a white thin line before aberration correction to which the smoothing process is applied in the display system aberration correction unit 207, and FIG. 17B (e) shows an interpolation after the smoothing process is applied. An example of a white thin line reproduced by processing is shown. Further, (f) of FIG. 17B shows a pattern in which the generation of false colors is suppressed even when the single-color white thin lines shown in (e) of FIG. 17B overlap each other. Further, (g) of FIG. 17B shows an example of a monochromatic white thin line when the sharpening process is applied to (e) of FIG. 17B.

色収差の補正においては、画像を構成するRGB各色の単色画像プレーン毎に、座標変換処理と補間処理とを行っている。偽色は、補間処理された画素が複数の画素で表現される場合と単画素で表現される場合とで、局所的な輝度差が生じることに起因して発生する。   In correcting chromatic aberration, coordinate conversion processing and interpolation processing are performed for each monochrome image plane of each RGB color constituting the image. The false color is generated due to a local luminance difference between the case where the interpolated pixel is expressed by a plurality of pixels and the case where it is expressed by a single pixel.

図17Aの(a)は、収差補正前の原画像中の白色細線の例である。ここでは、単一の輝度でかつ、単画素によって白色細線が構成されているものとする。   (A) of FIG. 17A is an example of the white thin line in the original image before aberration correction. Here, it is assumed that a white thin line is configured by a single pixel and a single pixel.

図17Aの(b)は、図17Aの(a)で示される白色細線に対して、座標変換処理及び補間処理を行うことにより再現された白色細線を示している。収差の影響をキャンセルする逆補正を適用したため、直線が曲線や斜め線として再構成される。補間処理により再構成された線は、(b)に示すように単一画素で構成される箇所と複数画素で構成される箇所とが交互に繰り返されることとなる。   FIG. 17A (b) shows a white thin line reproduced by performing coordinate conversion processing and interpolation processing on the white thin line shown in FIG. 17A (a). Since reverse correction that cancels the influence of aberration is applied, the straight line is reconstructed as a curved line or an oblique line. In the line reconstructed by the interpolation processing, as shown in (b), a place constituted by a single pixel and a place constituted by a plurality of pixels are alternately repeated.

ここで、単一画素で構成される場合と、複数画素で構成される場合とでは、全体的な輝度値は保存されるものの、局所的には画素毎に輝度値が異なることとなる。つまり、原画像では一様な白色細線を表現していても、補間処理後の画像では、輝度値の強弱が生じ、ユーザが視認する表示画像上では輝度ムラとなってあらわれることになる。収差補正時の画素の構成に一般的な補間処理を適用した場合、このような輝度ムラが発生する。   Here, in the case of being configured with a single pixel and the case of being configured with a plurality of pixels, although the overall luminance value is preserved, the luminance value locally differs for each pixel. That is, even if a uniform white thin line is expressed in the original image, the luminance value is increased or decreased in the image after the interpolation processing, and luminance unevenness appears on the display image visually recognized by the user. When general interpolation processing is applied to the pixel configuration at the time of aberration correction, such luminance unevenness occurs.

補間処理を適用した画像では、単一画素で表現されることは稀であるが、複数の画素によって構成される際にも、一つの画素の値が大きく、表示される複数の輝度値に対して支配的な場合には、その画素を単一画素と見なすことができる。   In an image to which interpolation processing is applied, it is rare to be represented by a single pixel, but even when it is composed of multiple pixels, the value of one pixel is large, The pixel can be regarded as a single pixel.

図17Aの(c)は、収差補正を適用して表示光学系により白色細線を再構成した場合に生じる偽色パターンの例を示しており、白色細線上にRGBの各色が周期的に現れることを示している。   FIG. 17A (c) shows an example of a false color pattern generated when the white thin line is reconstructed by the display optical system by applying aberration correction, and each color of RGB periodically appears on the white thin line. Is shown.

更に、図17Aの(a)の白色細線に対して収差補正を行った場合、RGBの色成分毎に座標変換処理と補間処理とによって画素を生成するため、図17Aの(b)で示したようにRGB各色の白色細線がそれぞれに固有の輝度ムラを持つこととなる。これらの各色細線を結合・合成して白色細線を再構成すると、更に、色毎の強弱(輝度ムラ)がずれることで、周期的な偽色が白色細線上に現れることとなる。例えば、白色細線上のある一点において、RとGが複数の画素で構成され、Bが単画素で構成されていた場合、輝度値を比較すると、Bの輝度がRとGと比べて高いため、合成された画素には、白色細線上にBの色が強く現れることになる。   Furthermore, when aberration correction is performed on the white thin line in FIG. 17A (a), pixels are generated by coordinate conversion processing and interpolation processing for each RGB color component, and therefore, as shown in FIG. 17A (b). As described above, the white thin lines of each color of RGB have their own luminance unevenness. When the white thin lines are reconstructed by combining and synthesizing these color thin lines, the intensity of each color (unevenness in luminance) is further shifted, so that a periodic false color appears on the white thin lines. For example, when R and G are composed of a plurality of pixels and B is composed of a single pixel at a certain point on the white thin line, the luminance value of B is higher than that of R and G when compared with the luminance value. In the synthesized pixel, the B color appears strongly on the white thin line.

このような偽色の発生は、補間処理を行った画像において生じるものであり、表示光学系の収差補正の量には関係なく発生し、また、画像の外周部のみならず中央部においても発生する。   Such false colors occur in an image that has undergone interpolation processing, and occur regardless of the amount of aberration correction of the display optical system, and also occur in the central portion as well as the outer peripheral portion of the image. To do.

一方、図17Bの(d)は、収差補正前の原画像中の白色細線に平滑化処理を適用した例を示している。単一の輝度でかつ、単画素によって線が構成されている白色細線が、平滑化処理によって元の白色細線部分の輝度値が低下し、白色細線に隣接する画素にも輝度値が振り分けられることとなる。   On the other hand, (d) of FIG. 17B shows an example in which smoothing processing is applied to a white thin line in an original image before aberration correction. A white thin line with a single luminance and a line composed of a single pixel, the luminance value of the original white thin line portion is reduced by the smoothing process, and the luminance value is also distributed to the pixels adjacent to the white thin line. It becomes.

図17Bの(e)は、補間処理された単色の白色細線の例を示している。偽色は、補間処理によって再構成された白色細線上の局所的な画素の値の強弱に起因して発生するため、この画素値の強弱を低減させることにより、偽色の発生を目立たなくすることが可能である。   (E) of FIG. 17B has shown the example of the monochrome white thin line by which the interpolation process was carried out. The false color is generated due to the strength of the local pixel value on the white thin line reconstructed by the interpolation process. Therefore, the generation of the false color is made inconspicuous by reducing the strength of the pixel value. It is possible.

つまり、平滑化フィルタによる平滑化処理を適用し、単一画素で表現される画素の輝度値を下げると共に、白色細線の周辺画素へも輝度値を分配することで、全体的な輝度値を保存しつつ、各色の輝度ムラを低減させることが可能となる。この結果、結合・合成された白色細線においても偽色の発生が抑制されることとなる。なお、本実施形態における平滑化処理は、色毎に独立して適用されるものとする。   In other words, smoothing processing by a smoothing filter is applied to reduce the luminance value of a pixel represented by a single pixel, and at the same time, distribute the luminance value to the peripheral pixels of the white thin line to preserve the overall luminance value However, it is possible to reduce the luminance unevenness of each color. As a result, the generation of false colors is suppressed even in the combined and synthesized white thin line. In addition, the smoothing process in this embodiment shall be applied independently for every color.

図17Bの(f)は、単色の白色細線が各色成分が重なっても偽色の発生が抑制されるパターンを示している。色成分毎に平滑化処理を適用して白色細線を再構成した場合、白色細線の最高輝度値は多少低下するものの、輝度ムラの発生が抑えられた偽色の少ない白色細線を表示画像として生成することが可能となる。   FIG. 17B (f) shows a pattern in which the occurrence of false colors is suppressed even if the single color white thin lines overlap each color component. When white smooth lines are reconfigured by applying smoothing processing to each color component, the maximum brightness value of the white thin lines is slightly reduced, but white thin lines with few false colors with reduced brightness unevenness are generated as display images. It becomes possible to do.

なお、平滑化対象となる白色細線画素の検出に際しては、注目画素が白色であって、かつ、当該白色である画素に隣接する画素が低輝度の画素のみを白色細線画素とした。つまり、注目画素が白色であっても、隣接する画素の輝度値が比較的大きな値の場合には、非該当画素とした。これは、注目画素に隣接する画素の輝度値が比較的大きな値の場合、偽色の発生が目立たないからである。   When detecting the white thin line pixel to be smoothed, only the pixel whose target pixel is white and the pixel adjacent to the white pixel has low luminance is defined as a white thin line pixel. That is, even if the target pixel is white, if the luminance value of the adjacent pixel is a relatively large value, it is determined as a non-relevant pixel. This is because the occurrence of false colors is not noticeable when the luminance value of the pixel adjacent to the target pixel is relatively large.

このような平滑化対象となる白色細線画素は、一般的には自然画像に存在しない画像要素であって、MRやVR用途で人為的に生成されたCG画像やアノテーション目的に挿入された文字やアイコンを表示した画像に含まれる。また、細線が白色ではない場合、例えば緑色や赤色の線であれば周期的な輝度ムラは生じるものの偽色は発生しないため、非該当画素とした。   Such white thin line pixels to be smoothed are generally image elements that do not exist in a natural image, such as CG images artificially generated for MR or VR use, characters inserted for annotation purposes, Included in the image displaying the icon. Further, when the thin line is not white, for example, if the line is green or red, periodic luminance unevenness occurs but false color does not occur.

図17Bの(g)は、平滑化処理が適用された白色細線に対して、先鋭化処理を施した例を示している。平滑化処理の適用のみでは全体的な輝度はほぼ保存されるものの、人間の目にはエッジ部分が鈍った線として見える。そこで、白色細線を構成する画素に対して、先鋭化処理を適用し、下がった輝度値を上げることで、線自体は太く視認されるものの、白色が白色として視認される先鋭度の高い白色細線を表示画像として提供することが可能となる。   (G) of FIG. 17B has shown the example which performed the sharpening process with respect to the white thin line to which the smoothing process was applied. Although the overall luminance is almost preserved only by applying the smoothing process, the edge portion is seen as a dull line by human eyes. Therefore, by applying sharpening processing to the pixels that make up the white thin line and increasing the lowered luminance value, the line itself is visually recognized as thick, but the white thin line with high sharpness that is visually recognized as white is white. Can be provided as a display image.

以上説明してきたように、本実施形態では、表示光学系によって生じる色収差を信号処理によって補正する際に、注目画素が、表示画像に含まれる白色細線画素であるか否かを判断する構成とした。そして、白色細線画素と判断された注目画素について、補間処理前に平滑化処理を行う構成とした。これにより、補間処理時に生じる偽色の発生を抑制することが可能となった。   As described above, in this embodiment, when correcting chromatic aberration caused by the display optical system by signal processing, it is determined whether or not the target pixel is a white thin line pixel included in the display image. . Then, a smoothing process is performed on the target pixel determined to be a white thin line pixel before the interpolation process. This makes it possible to suppress the occurrence of false colors that occur during interpolation processing.

更に、本実施形態では、平滑化対象となった画素に対して、先鋭化処理を適用し、白色細線の先鋭度を上げる構成とした。これにより、エッジの保存された視認性の高い白色細線を表示させることが可能となった。   Further, in the present embodiment, a sharpening process is applied to the pixels to be smoothed to increase the sharpness of the white thin lines. This makes it possible to display white lines with high visibility and preserved edges.

このように、本実施形態では、白色細線検出処理、平滑化処理および先鋭化処理という比較的処理負荷の小さな処理を組み合わせによって表示画質の向上を実現した。このため高画質化と処理の高速化および装置の小型化が実現されうるバランスの取れた色収差補正機能を提供することが可能となる。   As described above, in the present embodiment, the display image quality is improved by combining the processing with a relatively small processing load such as the white thin line detection processing, the smoothing processing, and the sharpening processing. For this reason, it is possible to provide a balanced chromatic aberration correction function capable of realizing high image quality, high processing speed, and downsizing of the apparatus.

[第2の実施形態]
本発明の第2の実施形態について説明する。本実施形態にかかる画像処理方法は、第1の実施形態に係る画像処理方法が、白色細線画素と判断されたすべての画素に対して平滑化処理を適用していたのに対して、白色細線画素の中央部を除く外周画素に対してのみ、平滑化処理を適用する点に特徴がある。当該画像処理方法の場合、白色細線の線幅が2画素以内であれば効果は変わらないが、3画素以上の線幅を持つ場合、白色細線の中央部の輝度値が低下することを抑制することができるという効果がある。以下、当該点を中心に本実施形態に係る画像処理方法について説明する。
[Second Embodiment]
A second embodiment of the present invention will be described. In the image processing method according to the present embodiment, the image processing method according to the first embodiment applies the smoothing process to all the pixels determined to be white thin line pixels, whereas the white thin line It is characterized in that the smoothing process is applied only to the outer peripheral pixels excluding the central part of the pixels. In the case of the image processing method, the effect does not change if the line width of the white thin line is within 2 pixels, but if the line width is 3 pixels or more, the luminance value at the center of the white thin line is prevented from decreasing. There is an effect that can be. Hereinafter, the image processing method according to the present embodiment will be described focusing on this point.

<1.適応的平滑化処理における白色細線検出処理の流れ>
図18は、適応的平滑化処理における白色細線検出処理の流れを示すフローチャートである。ステップS1801では、参照マトリクス内の各画素の輝度値を取得する。ステップS1802では、注目画素が白色であるか否かを判断する。なお、当該処理内容は図11のステップS1102と同様である。注目画素が白色である場合には、ステップS1803へ進み、注目画素が白色でない場合にはステップS1808へ進む。
<1. Flow of white thin line detection process in adaptive smoothing process>
FIG. 18 is a flowchart showing a flow of white thin line detection processing in adaptive smoothing processing. In step S1801, the luminance value of each pixel in the reference matrix is acquired. In step S1802, it is determined whether the target pixel is white. The processing content is the same as that in step S1102 of FIG. If the target pixel is white, the process proceeds to step S1803. If the target pixel is not white, the process proceeds to step S1808.

ステップS1803では、参照マトリクス内の注目画素以外の画素に、注目画素と同一の輝度値を持つ画素が存在するか否かを判断する。なお、当該処理内容は、図11のステップS1103と同様である。同一輝度値を持つ画素が存在すると判断された場合にはステップS1804へ進み、存在しない、すなわち注目画素が孤立画素であると判断された場合はステップS1808へ進む。   In step S1803, it is determined whether a pixel having the same luminance value as the target pixel exists in the pixels other than the target pixel in the reference matrix. The processing content is the same as that in step S1103 in FIG. If it is determined that there is a pixel having the same luminance value, the process proceeds to step S1804. If it is determined that there is no pixel, that is, the target pixel is an isolated pixel, the process proceeds to step S1808.

ステップS1804では、参照マトリクス内に任意の閾値以下の輝度値の低い画素が存在するか否かを判断する。この処理内容は、図11のステップS1104と同様である。任意の閾値以下の輝度値を持つ画素が存在する場合には、ステップS1805へ進み、存在しない場合にはステップS1808へ進む。   In step S1804, it is determined whether or not there is a pixel with a low luminance value equal to or less than an arbitrary threshold in the reference matrix. The contents of this process are the same as in step S1104 in FIG. If there is a pixel having a luminance value equal to or less than an arbitrary threshold, the process proceeds to step S1805, and if not, the process proceeds to step S1808.

ステップS1805では、注目画素の外周画素も白色であるか否かを判断する。注目画素のみならず、その外周画素も白色である場合には、該注目画素が白色細線の中央部に位置する画素であると判断することができる。外周画素も白色であると判断された場合には、ステップS1806へ進み、一部でも白色でない画素が含まれる場合には、ステップS1807へ進む。   In step S1805, it is determined whether the outer peripheral pixel of the target pixel is also white. When not only the pixel of interest but also its peripheral pixels are white, it can be determined that the pixel of interest is a pixel located at the center of the white thin line. If it is determined that the outer peripheral pixels are also white, the process proceeds to step S1806, and if any of the pixels is not white, the process proceeds to step S1807.

ステップS1806では、注目画素が白色細線の一部を構成する画素であって、かつ、白色細線の外周部に位置しない中央部の画素(平滑化対象とならない「白色細線中央画素」)であると判断し、処理を終了する。   In step S1806, the target pixel is a pixel that constitutes a part of the white thin line, and is a central pixel that is not located on the outer periphery of the white thin line (a “white thin line central pixel that is not subject to smoothing”). Judge and end the process.

ステップS1807では、注目画素が白色細線の外周部にあたる画素(平滑化処理の対象となる「白色細線外周画素」)であると判断し処理を終了する。   In step S1807, it is determined that the pixel of interest is a pixel corresponding to the outer peripheral portion of the white thin line (“white thin line outer peripheral pixel” to be smoothed), and the process ends.

ステップS1808では、ステップS1802からステップS1804までの条件の何れかを満たしていないことから、平滑化対象とならない非該当画素であると判断し処理を終了する。   In step S1808, since any of the conditions from step S1802 to step S1804 is not satisfied, it is determined that the pixel does not become a smoothing target, and the process ends.

<2.適応的平滑化処理における平滑化処理の流れ>
次に、適応的平滑化処理における平滑化処理の流れについて説明する。図19は、適応的平滑化処理における平滑化処理の流れを示すフローチャートである。ステップS1901及びステップS1902における処理内容は、図12のステップS1201及びステップS1202における処理内容と同様であるため、ここでは説明を省略する。
<2. Flow of smoothing process in adaptive smoothing process>
Next, the flow of the smoothing process in the adaptive smoothing process will be described. FIG. 19 is a flowchart showing the flow of the smoothing process in the adaptive smoothing process. The processing contents in step S1901 and step S1902 are the same as the processing contents in step S1201 and step S1202 of FIG.

ステップS1903では、注目画素が白色細線を構成する画素の一部で、かつ、非該当画素と隣接する白色細線の外周画素であるか(つまり、平滑化処理の対象となる白色細線外周画素であるか)否かを判断する。白色細線外周画素であると判断された場合には、ステップS1904へ進み、白色細線外周画素でないと判断された場合(つまり、白色細線中央画素または非該当画素であると判断された場合)には処理を終了する。   In step S1903, whether the target pixel is a part of pixels constituting the white thin line and is an outer peripheral pixel of the white thin line adjacent to the non-corresponding pixel (that is, the outer peripheral pixel of the white thin line to be subjected to the smoothing process). ) Determine whether or not. If it is determined that the pixel is a white thin line peripheral pixel, the process proceeds to step S1904, and if it is determined that the pixel is not a white thin line peripheral pixel (that is, if it is determined that the pixel is a white thin line central pixel or a non-applicable pixel). The process ends.

ステップS1904では、上述したフィルタ演算を実施することで、注目画素を平滑化し、処理を終了する。   In step S1904, the pixel of interest is smoothed by performing the filter operation described above, and the process ends.

このように、第1の実施形態では平滑化処理と先鋭化処理とを組み合わせて白色細線を再構成していたのに対して、本実施形態によれば、白色細線外周画素のみに平滑化処理を適用することで、先鋭化処理を行わない構成とすることが可能となる。この場合、先鋭度は多少落ちるものの、上記第1の実施形態と同様、白色細線の輝度値(白色細線の中央部のピークの輝度値)を保持したまま、偽色発生を抑制することが可能となる。   As described above, in the first embodiment, the white thin line is reconfigured by combining the smoothing process and the sharpening process. However, according to the present embodiment, the smoothing process is performed only on the peripheral pixel of the white thin line. By applying, it becomes possible to have a configuration in which sharpening processing is not performed. In this case, although the sharpness is somewhat reduced, it is possible to suppress the occurrence of false color while maintaining the brightness value of the white fine line (the brightness value of the peak at the center of the white fine line) as in the first embodiment. It becomes.

なお、本実施形態の場合、適用可能な白色細線の幅は限られるが、適応的先鋭化処理を省くことができるため、第1の実施形態に比べ、処理負荷を低減させることが可能となる。なお、線幅に合わせて第1の実施形態で説明した画像処理方法と本実施形態で説明した画像処理方法とを組み合わせるように構成してもよい。   In the case of this embodiment, the width of the applicable white thin line is limited, but the adaptive sharpening process can be omitted, so that the processing load can be reduced compared to the first embodiment. . Note that the image processing method described in the first embodiment and the image processing method described in this embodiment may be combined in accordance with the line width.

[第3の実施形態]
本発明の第3の実施形態について説明する。上記第1の実施形態では平滑化処理とその後の補間処理とを別プロセスとして実現していた。これに対して、本実施形態に係る画像処理方法では、平滑化対象となる白色細線画素について補間処理を行う際に、平滑化効果の高い補間曲線を採用する構成とし、同一プロセス上で画素の平滑化と補間とを実現している点に特徴がある。以下、この点を中心に本実施形態に係る画像処理方法について詳細に説明する。
[Third Embodiment]
A third embodiment of the present invention will be described. In the first embodiment, the smoothing process and the subsequent interpolation process are realized as separate processes. On the other hand, in the image processing method according to the present embodiment, when performing interpolation processing on white thin line pixels to be smoothed, an interpolation curve having a high smoothing effect is adopted, and the pixels are processed in the same process. It is characterized in that smoothing and interpolation are realized. Hereinafter, the image processing method according to the present embodiment will be described in detail focusing on this point.

<1.表示系収差補正部の機能構成>
はじめに、本実施形態に係る画像処理方法を実現する表示系収差補正部について説明する。図20は、本実施形態に係る画像処理方法を実現する表示系収差補正部2000の機能構成を示すブロック図である。図20に示す、バッファ2001、色分離部2003、収差補正テーブル2004、補正値選択部2005は、上記第1の実施形態において図7を用いて説明した対応する各機能ブロックと同じである。また、図20に示す、座標算出部2006、適応的先鋭化処理部2008、および色結合部2009の各機能ブロックについても、上記第1の実施形態において図7を用いて説明した対応する各機能ブロックと同じである。このため、ここではこれらの機能ブロックについての説明は省略する。
<1. Functional configuration of display system aberration correction unit>
First, a display system aberration correction unit that realizes the image processing method according to the present embodiment will be described. FIG. 20 is a block diagram illustrating a functional configuration of the display system aberration correction unit 2000 that realizes the image processing method according to the present embodiment. A buffer 2001, a color separation unit 2003, an aberration correction table 2004, and a correction value selection unit 2005 illustrated in FIG. 20 are the same as the corresponding functional blocks described with reference to FIG. 7 in the first embodiment. In addition, for each functional block of the coordinate calculation unit 2006, the adaptive sharpening processing unit 2008, and the color combining unit 2009 shown in FIG. 20, the corresponding functions described with reference to FIG. 7 in the first embodiment. Same as block. For this reason, description of these functional blocks is omitted here.

2002は、表示画像中に含まれる白色細線を検出する白色細線検出部である。白色細線検出部2002では、表示画像を格納しているバッファ2001から白色細線検出に必要な領域を読みだし、前述した参照マトリクスを用いて、注目画素が白色細線の一部を構成する白色細線画素であるか否かを判断する。   Reference numeral 2002 denotes a white thin line detection unit that detects white thin lines included in a display image. The white thin line detection unit 2002 reads an area necessary for white thin line detection from the buffer 2001 that stores the display image, and uses the reference matrix described above to form a white thin line pixel in which the target pixel forms part of the white thin line. It is determined whether or not.

2007は、変換後の注目画素の色情報を注目画素近傍の補間位置に再構成する補間処理を行う適応的補間処理部である。適応的補間処理部2007では、白色細線検出部2002における検出結果に基づき、注目画素が白色細線画素である場合には、補間式として平滑化効果の高いものを選択したうえで、補間処理を実施する。なお、補間処理の詳細については後述する。   Reference numeral 2007 denotes an adaptive interpolation processing unit that performs an interpolation process to reconstruct the color information of the pixel of interest after conversion into an interpolation position near the pixel of interest. In the adaptive interpolation processing unit 2007, when the target pixel is a white thin line pixel based on the detection result in the white thin line detection unit 2002, the interpolation process is performed after selecting a high smoothing effect as an interpolation formula. To do. Details of the interpolation processing will be described later.

以上の構成により、偽色の発生を抑制する平滑化の効果が、補間処理の段階で実現されることとなり、表示系収差補正部2000を実現するための処理回路の規模を縮小することが可能となる。   With the above configuration, the effect of smoothing that suppresses the generation of false colors is realized at the stage of interpolation processing, and the scale of the processing circuit for realizing the display system aberration correction unit 2000 can be reduced. It becomes.

<2.表示系収差補正部による収差補正処理の流れ>
次に、表示系収差補正部2000による収差補正処理の流れについて説明する。図21は、表示系収差補正部2000による収差補正処理の流れを示すフローチャートである。ステップS2101、2102、2104、2105、および2107から2110までの処理内容は、上記第1の実施形態において図8を用いて説明した対応するステップの処理内容と同じであるため、ここでは説明は省略する。
<2. Flow of aberration correction processing by display system aberration correction unit>
Next, the flow of aberration correction processing by the display system aberration correction unit 2000 will be described. FIG. 21 is a flowchart showing the flow of aberration correction processing by the display system aberration correction unit 2000. The processing contents of steps S2101, 2102, 2104, 2105, and 2107 to 2110 are the same as the processing contents of the corresponding steps described with reference to FIG. 8 in the first embodiment, and thus description thereof is omitted here. To do.

ステップS2103では、平滑化効果のある補間処理を行う対象となる画素として、白色細線の一部を構成する白色細線画素を検出する。処理の内容は第1の実施形態において図11を用いて説明した処理内容とほぼ同じである。なお、上記第1の実施形態における白色細線検出処理では、白色細線を構成する画素の一部であるか、非該当画素であるかを判断していたが、ここでは、当該判断に加えて白色細線に隣接する非該当画素(「白色細線隣接画素」)であるか否かについても判断する。   In step S2103, a white thin line pixel constituting a part of the white thin line is detected as a pixel to be subjected to an interpolation process having a smoothing effect. The content of the processing is almost the same as the processing content described with reference to FIG. 11 in the first embodiment. In the white thin line detection process in the first embodiment, it is determined whether the pixel is a part of a pixel constituting the white thin line or a non-corresponding pixel. It is also determined whether or not the pixel is a non-corresponding pixel adjacent to the fine line (“white fine line adjacent pixel”).

ステップS2106では、ステップS2105で得られた座標変換された注目画素の画素情報と参照画素の画素情報とに基づいて、新たな構成位置(補間位置)において、各色成分の輝度値を再構成する補間処理を行う。その際、注目画素がステップS2103で白色細線画素であると判断されていた場合には、平滑化効果を有する補間曲線を適用する。なお、適応的補間処理の詳細については以下に説明する。   In step S2106, interpolation is performed to reconstruct the luminance value of each color component at a new configuration position (interpolation position) based on the pixel information of the pixel of interest and the pixel information of the reference pixel obtained in step S2105. Process. At this time, if it is determined in step S2103 that the pixel of interest is a white thin line pixel, an interpolation curve having a smoothing effect is applied. Details of the adaptive interpolation processing will be described below.

<3.適応的補間処理についての説明>
次に、表示系収差補正部2000において実行される適応的補間処理(ステップS2106)について説明する。
<3. Explanation of adaptive interpolation processing>
Next, the adaptive interpolation process (step S2106) executed in the display system aberration correction unit 2000 will be described.

<3.1 補間曲線の説明>
はじめに、適応的補間処理(ステップS2106)において用いられる補間曲線について説明する。図22は、適応的補間処理(ステップS2106)において用いられる補間曲線の一例を示す図である。図22において、2201(一点鎖線)は、バイキュービックのフィルタ形状を示す補間曲線である。同様に、2202(細い実線)はラグランジェ補間曲線を、2203(点線)はバイリニア直線を、2204(実線)はB−SPLINE曲線(実線)をそれぞれ示している。軸上の数値は画素間隔で正規化した値である。なお、周囲の参照画素と補間画素との関係式であるバイキュービックとラグランジェに関しては上述したとおりである。
<3.1 Interpolation curve explanation>
First, the interpolation curve used in the adaptive interpolation process (step S2106) will be described. FIG. 22 is a diagram illustrating an example of an interpolation curve used in the adaptive interpolation process (step S2106). In FIG. 22, 2201 (dashed line) is an interpolation curve indicating the bicubic filter shape. Similarly, 2202 (thin solid line) indicates a Lagrangian interpolation curve, 2203 (dotted line) indicates a bilinear straight line, and 2204 (solid line) indicates a B-SPLINE curve (solid line). The numerical value on the axis is a value normalized by the pixel interval. Note that bicubic and Lagrange, which are relational expressions between surrounding reference pixels and interpolation pixels, are as described above.

補間処理を実現するフィルタ形状として、線形補間(一次補間)であるバイリニアよりも0と1の間においてより大きな値となる(上側に曲線が位置する)曲線は、先鋭化の効果が高い。一般に線形補間であるバイリニアを使用すると補間画素は周辺4画素の加算平均となるため、エッジ成分が失われた鈍い画像になることが知られている。逆にバイキュービックでは、周辺16画素に重み付けを行った3次の演算を行い、エッジ成分を残した高画質な画像を得ることができる。   As a filter shape for realizing the interpolation processing, a curve having a larger value between 0 and 1 (a curve is located on the upper side) than bilinear which is linear interpolation (primary interpolation) has a high sharpening effect. In general, when bilinear which is linear interpolation is used, it is known that an interpolated pixel is an average of four surrounding pixels, resulting in a dull image in which edge components are lost. On the other hand, bicubic can perform a third-order calculation in which the surrounding 16 pixels are weighted to obtain a high-quality image that leaves the edge component.

つまり、先鋭化の効果でいえば、バイキュービック2201が最も高く、次いでラグランジェ2202、バイリニア2203、B−SPLINE曲線2204の順番となる。反対に平滑化の効果でいえば、その順番は逆となる。   That is, in terms of the sharpening effect, bicubic 2201 is the highest, followed by Lagrange 2202, bilinear 2203, and B-SPLINE curve 2204. On the other hand, in terms of the smoothing effect, the order is reversed.

通常の補間処理では高画質化を実現するためバイキュービック2201を使用し、平滑化の効果を得たい場合には、平滑化の度合いに応じて図に示した他の補間式、補間曲線・直線を採用する。なお、白色細線を構成する画素の一部と判断された白色細線画素についての補間処理においては、その参照マトリクス内に含まれる白色の画素の数によって平滑化の効果の異なる補間曲線を選択し、補間画素を生成する。   In normal interpolation processing, bicubic 2201 is used to achieve high image quality, and when it is desired to obtain a smoothing effect, other interpolation formulas, interpolation curves / straight lines shown in the figure depending on the degree of smoothing. Is adopted. In the interpolation process for white thin line pixels determined to be part of the pixels constituting the white thin line, an interpolation curve having different smoothing effects is selected depending on the number of white pixels included in the reference matrix, Generate interpolated pixels.

例えば、参照マトリクス内の補間位置の近傍4画素すべてが白色細線画素である場合には、当該補間画素は白色細線中央画素であることが想定されるため、平滑化効果を有するラグランジェ曲線を選択する。   For example, if all four pixels near the interpolation position in the reference matrix are white thin line pixels, it is assumed that the interpolation pixel is a white thin line center pixel, so a Lagrangian curve having a smoothing effect is selected. To do.

<3.2 適応的補間処理の流れ>
次に、適応的補間処理(ステップS2106)の詳細な処理の流れについて説明する。図23は、適応的補間処理の詳細な処理の流れを示すフローチャートである。なお、ここでは通常使用の補間曲線としてバイキュービックを用いるものとする。
<3.2 Flow of adaptive interpolation processing>
Next, a detailed process flow of the adaptive interpolation process (step S2106) will be described. FIG. 23 is a flowchart showing a detailed process flow of the adaptive interpolation process. Here, it is assumed that bicubic is used as a commonly used interpolation curve.

ステップS2301から2304までの処理内容は、上記第1の実施形態において図17を用いて説明した対応するステップの処理内容と同じであるため、ここでは説明は省略する。   Since the processing contents of steps S2301 to 2304 are the same as the processing contents of the corresponding steps described with reference to FIG. 17 in the first embodiment, description thereof is omitted here.

ステップS2305では、参照マトリクス内に含まれる注目画素が白色細線の一部を構成する白色細線画素であるかどうかを判断し、白色細線検出処理の検出結果を把握する。   In step S2305, it is determined whether or not the target pixel included in the reference matrix is a white thin line pixel constituting a part of the white thin line, and the detection result of the white thin line detection process is grasped.

ステップS2306では、補間位置の近傍4画素に白色細線を構成する白色細線画素が含まれるか否かを判断する。含まれると判断された場合にはステップS2307に進み、含まれないと判断された場合にはステップS2310に進む。   In step S2306, it is determined whether or not white pixels forming a white thin line are included in the four pixels near the interpolation position. If it is determined that it is included, the process proceeds to step S2307, and if it is determined that it is not included, the process proceeds to step S2310.

ステップS2307では、さらに当該近傍4画素内に白色細線隣接画素が含まれるか否かを判断する。含まれると判断された場合にはステップS2309に進み、含まれないと判断された場合にはステップS2308に進む。   In step S2307, it is further determined whether or not white four-line adjacent pixels are included in the four neighboring pixels. If it is determined that it is included, the process proceeds to step S2309. If it is determined that it is not included, the process proceeds to step S2308.

ステップS2308では、平滑化効果を有する補間処理を行う。通常の補間処理が前述したバイキュービックで行われるのに対して、ここでは、例えばラグランジェや線形補間による補間処理を行う。   In step S2308, an interpolation process having a smoothing effect is performed. While normal interpolation processing is performed by the bicubic described above, here, for example, interpolation processing by Lagrange or linear interpolation is performed.

ステップS2309では、強度の平滑化効果を有する補間処理を行う。例えば、前述したB−SPLINE曲線による補間処理を行う。   In step S2309, an interpolation process having an intensity smoothing effect is performed. For example, the interpolation process using the B-SPLINE curve described above is performed.

ステップS2310では、通常の補間処理を行う。ここでは、バイキュービックによる補間処理を行う。   In step S2310, normal interpolation processing is performed. Here, interpolation processing by bicubic is performed.

ステップS2311では、全画素に対して上記処理を実行したか否かを判断する。全画素に対して上記処理を実行したと判断された場合には、処理を終了する。上記処理を実行していない画素があると判断された場合には、ステップS2301に戻り、対応する画素について上記処理を実行する。   In step S2311, it is determined whether the above process has been executed for all pixels. If it is determined that the above process has been executed for all pixels, the process ends. If it is determined that there is a pixel that has not been subjected to the above process, the process returns to step S2301, and the above process is performed for the corresponding pixel.

以上の説明から明らかなように、本実施形態では、補間処理時に平滑化効果の高い補間曲線に選択的に切り替える構成とした。これにより、平滑化と補間処理とを同一プロセス上で実現することが可能となった。また、本実施形態のように同一プロセス上で実現する構成とすることで、同じ三次補間式を採用した場合に、係数の変更のみで切り替えが可能となるため、比較的容易に収差補正機能を実現することが可能となる。このため、上記第1及び第2の実施形態と比較して、ハードウェア構成の回路規模を低減させることが可能となる。   As is apparent from the above description, the present embodiment is configured to selectively switch to an interpolation curve having a high smoothing effect during interpolation processing. As a result, smoothing and interpolation processing can be realized on the same process. In addition, by adopting a configuration realized on the same process as in this embodiment, when the same cubic interpolation formula is adopted, switching can be performed only by changing the coefficient, so that the aberration correction function can be performed relatively easily. It can be realized. For this reason, compared with the said 1st and 2nd embodiment, it becomes possible to reduce the circuit scale of a hardware structure.

[第4の実施形態]
本発明の第4の実施形態について説明する。上記第3の実施形態では、平滑化処理とその後の補間処理とを同一プロセスで実現する構成とした。これに対して、本実施形態に係る画像処理方法では、白色細線画素に対する補間処理時に、先鋭化効果の高い補間曲線を採用することで、同一プロセス上で先鋭化処理と補間処理とを実現している点に特徴がある。以下、この点を中心に本実施形態に係る画像処理方法について詳細を説明する。
[Fourth Embodiment]
A fourth embodiment of the present invention will be described. In the third embodiment, the smoothing process and the subsequent interpolation process are realized by the same process. On the other hand, in the image processing method according to the present embodiment, the sharpening process and the interpolation process are realized on the same process by adopting an interpolation curve having a high sharpening effect when the white thin line pixel is interpolated. There is a feature in that. Hereinafter, the image processing method according to the present embodiment will be described in detail with a focus on this point.

<1.表示系収差補正部の機能構成>
はじめに、本実施形態に係る画像処理方法を実現する表示系収差補正部について説明する。図24は、本実施形態に係る画像処理方法を実現する表示系収差補正部2400の機能構成を示すブロック図である。なお、図24に示す、バッファ2401、適応的平滑化処理部2402、色分離部2403、収差補正テーブル2404の処理内容は、上記第1の実施形態において図7を用いて説明した対応する各機能ブロックの処理内容と同じである。また、補正値選択部2405、座標算出部2406、および色結合部2408の各機能ブロックの処理内容についても、上記第1の実施形態において図7を用いて説明した対応する各機能ブロックの処理内容と同じである。したがって、ここでは、これらの機能ブロックについての説明は省略する。
<1. Functional configuration of display system aberration correction unit>
First, a display system aberration correction unit that realizes the image processing method according to the present embodiment will be described. FIG. 24 is a block diagram illustrating a functional configuration of a display system aberration correction unit 2400 that realizes the image processing method according to the present embodiment. Note that the processing contents of the buffer 2401, the adaptive smoothing processing unit 2402, the color separation unit 2403, and the aberration correction table 2404 shown in FIG. 24 are the corresponding functions described with reference to FIG. 7 in the first embodiment. The processing contents of the block are the same. The processing contents of each functional block of the correction value selection unit 2405, the coordinate calculation unit 2406, and the color combination unit 2408 are also the processing contents of the corresponding functional blocks described with reference to FIG. 7 in the first embodiment. Is the same. Therefore, description of these functional blocks is omitted here.

2407は、変換後の注目画素の色情報を注目画素近傍の補間位置に再構成する補間処理を行う適応的補間処理部である。適応的補間処理部2407では、白色細線検出部の検出結果に基づき、注目画素が白色細線画素である場合には、補間処理時に採用する補間式として先鋭化効果の高いものを選択したうえで、補間処理を実施する。   Reference numeral 2407 denotes an adaptive interpolation processing unit that performs an interpolation process for reconstructing the color information of the pixel of interest after conversion into an interpolation position near the pixel of interest. In the adaptive interpolation processing unit 2407, based on the detection result of the white thin line detection unit, when the target pixel is a white thin line pixel, after selecting a high sharpening effect as an interpolation formula to be used during the interpolation process, Perform interpolation processing.

このような構成とすることにより、偽色の発生を抑制する平滑化処理を行ったあとに実現されるべき先鋭化処理が、補間処理の段階で実現されることとなり、表示系収差補正部2400を実現するための処理回路の規模を縮小することが可能となる。   By adopting such a configuration, the sharpening process that should be realized after performing the smoothing process that suppresses the occurrence of false colors is realized at the stage of the interpolation process, and the display system aberration correction unit 2400. It is possible to reduce the scale of the processing circuit for realizing the above.

<2.表示系収差補正部による収差補正処理の流れ>
次に、表示系収差補正部2400による収差補正処理の流れについて説明する。図25は、表示系収差補正部2400による収差補正処理の流れを示すフローチャートである。ステップS2501から2505、および2507から2509までの処理内容は、上記第1の実施形態において図8を用いて説明した対応するステップの処理内容と同じであるため、ここでは説明は省略する。なお、ステップS2503における適応的平滑化処理では、上記第3の実施形態の白色細線検出処理で説明した白色細線隣接画素であるか否かの判断も行うものとする。
<2. Flow of aberration correction processing by display system aberration correction unit>
Next, the flow of aberration correction processing by the display system aberration correction unit 2400 will be described. FIG. 25 is a flowchart showing the flow of aberration correction processing by the display system aberration correction unit 2400. Since the processing contents of steps S2501 to 2505 and 2507 to 2509 are the same as the processing contents of the corresponding steps described with reference to FIG. 8 in the first embodiment, description thereof is omitted here. Note that in the adaptive smoothing process in step S2503, it is also determined whether or not the pixel is adjacent to the white fine line described in the white thin line detection process of the third embodiment.

ステップS2506では、ステップS2505で得られた座標変換された注目画素の画素情報と参照画素の画素情報とに基づいて、新たな構成位置(補間位置)において、各色成分の輝度値を再構成する補間処理を行う。その際、注目画素がステップS2503で白色細線画素であると判断されていた場合には、先鋭化効果の高い補間曲線を適用する。   In step S2506, interpolation is performed to reconstruct the luminance value of each color component at a new configuration position (interpolation position) based on the pixel information of the pixel of interest and the pixel information of the reference pixel obtained in step S2505. Process. At this time, if it is determined in step S2503 that the pixel of interest is a white thin line pixel, an interpolation curve having a high sharpening effect is applied.

<3.適応的補間処理についての説明>
次に、表示系収差補正部2400において実行される適応的補間処理(ステップS2506)について説明する。
<3. Explanation of adaptive interpolation processing>
Next, the adaptive interpolation process (step S2506) executed in the display system aberration correction unit 2400 will be described.

<3.1 補間曲線の説明>
はじめに、適応的補間処理(ステップS2506)において用いられる補間曲線について説明する。図26は、適応的補間処理(ステップS2506)において用いられる補間曲線の一例を示す図である。図26において、2601(一点鎖線)は、バイキュービックのフィルタ形状を示す補間曲線である。同様に、2602(点線)はバイリニア直線を、2603と2604(共に実線)は先鋭化効果の高い曲線をそれぞれ示している。軸上の数値は画素間隔で正規化した値であるのは、上記第3の実施形態と同様である。周囲の参照画素と補間画素との関係式であるバイキュービックとラグランジェに関しては上述したとおりである。ここでは先鋭化効果の高い曲線の式を示す。
<3.1 Interpolation curve explanation>
First, the interpolation curve used in the adaptive interpolation process (step S2506) will be described. FIG. 26 is a diagram illustrating an example of an interpolation curve used in the adaptive interpolation process (step S2506). In FIG. 26, reference numeral 2601 (dashed line) denotes an interpolation curve indicating a bicubic filter shape. Similarly, 2602 (dotted line) indicates a bilinear straight line, and 2603 and 2604 (both solid lines) indicate curves having a high sharpening effect. The numerical value on the axis is a value normalized by the pixel interval, as in the third embodiment. Bicubic and Lagrange, which are relational expressions between surrounding reference pixels and interpolation pixels, are as described above. Here, an equation of a curve having a high sharpening effect is shown.

中程度の先鋭度を示す先鋭化曲線2603   Sharpening curve 2603 showing medium sharpness

強度の先鋭度を示す先鋭化曲線2604   Sharpening curve 2604 showing the sharpness of the intensity

なお、ここで示した先鋭化効果の高い補間曲線は、バイキュービックよりも先鋭化効果が高くなるように計算した独自の曲線である。ここで示した曲線以外でも、先に説明したように、バイキュービックと比較して、0と1の間においてより大きな値となる(上側に曲線が位置する)曲線であれば、いかなる曲線であっても構わない。   Note that the interpolation curve having a high sharpening effect shown here is a unique curve calculated so that the sharpening effect is higher than that of bicubic. Other than the curves shown here, as described above, any curve can be used as long as it is a larger value between 0 and 1 (the curve is located on the upper side) than bicubic. It doesn't matter.

先鋭化効果は、強度の先鋭化曲線2604が最も高く、次いで中程度の先鋭化曲線2603、バイキュービック2601、バイリニア2602の順番となる。   The sharpening effect has the highest intensity sharpening curve 2604, followed by the medium sharpening curve 2603, bicubic 2601, and bilinear 2602 in this order.

通常の補間処理では高画質化を実現するため、バイキュービック2601を使用し、先鋭化の効果を得たい場合には、平滑化処理の度合いに応じて図26に示した他の補間式、補間曲線を採用する。   In order to achieve high image quality in normal interpolation processing, when using bicubic 2601 to obtain a sharpening effect, other interpolation formulas and interpolations shown in FIG. 26 according to the degree of smoothing processing are used. Adopt a curve.

白色細線の一部を構成する画素と判断された白色細線画素についての補間処理においては、その参照マトリクス内に含まれる白色の画素の数に応じて、先鋭化の効果の異なる補間曲線を選択し、補間処理を実施する。例えば、参照マトリクス内の補間画素の近傍4画素すべてが白色細線画素である場合には、当該補間画素は白色細線中央画素であることが想定されるため、先鋭化効果を有する先鋭化曲線2603を選択する。   In interpolation processing for white thin line pixels that are determined to be pixels that form part of the white thin line, an interpolation curve with a different sharpening effect is selected according to the number of white pixels included in the reference matrix. Perform interpolation processing. For example, when all four pixels in the vicinity of the interpolation pixel in the reference matrix are white thin line pixels, it is assumed that the interpolation pixel is a white thin line center pixel. Therefore, a sharpening curve 2603 having a sharpening effect is obtained. select.

<3.2 適応的補間処理の流れ>
次に、適応的補間処理(ステップS2506)の詳細な処理の流れについて説明する。図27は、適応的補間処理の流れを示すフローチャートである。なお、ここでは通常の補間曲線としてバイキュービックを用いるものとする。
<3.2 Flow of adaptive interpolation processing>
Next, a detailed process flow of the adaptive interpolation process (step S2506) will be described. FIG. 27 is a flowchart showing the flow of adaptive interpolation processing. Here, bicubic is used as a normal interpolation curve.

ステップS2701からS2707までの処理内容は、上記第3の実施形態において図23を用いて説明した各ステップの処理内容と同じであるため、ここでは説明は省略する。   Since the processing contents from step S2701 to S2707 are the same as the processing contents of each step described with reference to FIG. 23 in the third embodiment, description thereof is omitted here.

ステップS2708では、先鋭化効果を有する補間処理を行う。通常の補間処理としてバイキュービックが用いられていた場合には、ここでは、例えば、先鋭化曲線2603を用いた補間処理を行う。   In step S2708, an interpolation process having a sharpening effect is performed. When bicubic is used as normal interpolation processing, for example, interpolation processing using a sharpened curve 2603 is performed here.

ステップS2309では、強度の先鋭化効果を有する補間処理を行う。具体的には、先鋭化曲線2604を用いた補間処理を行う。ステップS2310では、通常の補間処理を行う。ここではバイキュービックを用いて補間処理を行う。   In step S2309, an interpolation process having an intensity sharpening effect is performed. Specifically, an interpolation process using a sharpening curve 2604 is performed. In step S2310, normal interpolation processing is performed. Here, interpolation processing is performed using bicubic.

ステップS2711では、全画素に対して上記処理を実行したか否かを判断する。全画素に対して上記処理を実行したと判断された場合には、処理を終了する。一方、上記処理を実行していない画素があると判断された場合には、ステップS2701に戻り、対応する画素に対して上記処理を実行する。   In step S2711, it is determined whether the above processing has been executed for all pixels. If it is determined that the above process has been executed for all pixels, the process ends. On the other hand, if it is determined that there is a pixel that has not been subjected to the above process, the process returns to step S2701 to execute the above process on the corresponding pixel.

以上の説明から明らかなように、本実施形態では、補間処理時に先鋭化効果の高い補間曲線に選択的に切り替える構成とした。これにより、先鋭化処理と補間処理とを同一プロセス上で実現することが可能となった。また、本実施形態のように、同一プロセスで実現する構成とすることで、同じ三次補間式を採用した場合に、係数の変更のみで実現できるため、上記第3の実施形態と同様、ハードウェア構成の回路規模を低減することが可能となる。   As is apparent from the above description, the present embodiment is configured to selectively switch to an interpolation curve having a high sharpening effect during interpolation processing. As a result, the sharpening process and the interpolation process can be realized on the same process. Further, as in the present embodiment, by adopting a configuration realized by the same process, when the same cubic interpolation formula is adopted, it can be realized only by changing the coefficient. The circuit scale of the configuration can be reduced.

[第5の実施形態]
上記第1から第4の実施形態では、本発明に係る画像処理方法を、MRシステムにおいてHMDに表示される全ての画像に対して適用する場合について説明した。
[Fifth Embodiment]
In the first to fourth embodiments, the case where the image processing method according to the present invention is applied to all images displayed on the HMD in the MR system has been described.

しかしながら、画像処理装置202が生成した表示画像中に、CG画像により構成されたワイヤーフレームや文字等が含まれるかどうかは、予め白色細線を生成する画像処理装置202側で把握することができる。そこで、白色細線およびそれに類する白色画素を含む画像が生成されたか否かについての情報を、画像処理装置202からHMD201へと送信し、適応的平滑化処理の適用を切り換えるように構成してもよい。   However, whether or not the display image generated by the image processing apparatus 202 includes a wire frame or a character configured by a CG image can be grasped in advance by the image processing apparatus 202 that generates a white thin line. Therefore, information regarding whether or not an image including a white thin line and a similar white pixel has been generated may be transmitted from the image processing apparatus 202 to the HMD 201 to switch application of adaptive smoothing processing. .

また、HMD201内部でOSD等によって警告表示や情報表示のための文字を表示することが可能である場合、それらの表示の有無をHMD201で判断し、適応的平滑化処理の適用を切り換えるように構成してもよい。   Further, when characters for warning display and information display can be displayed by OSD or the like inside the HMD 201, the HMD 201 determines the presence or absence of such display and switches the application of adaptive smoothing processing. May be.

また、上記第1から第4まで実施形態では、表示光学系のバリエーションについては特に言及しなかった。しかしながら、レンズ、プリズムなどの光学部材として、上下または左右非対称系のものを採用した表示光学系であってもよいし、また、複数レンズの組み合わせや結像面を複数回生成する表示光学系であってもよい。   Further, in the first to fourth embodiments, no particular mention was made of variations of the display optical system. However, the optical member such as a lens or prism may be a display optical system that employs an up / down or left / right asymmetric system, or may be a display optical system that generates a combination of a plurality of lenses or an image plane multiple times. There may be.

また、上記第1から第4の実施形態では、座標変換処理としてアドレス変換を例に説明を行ったが、従来技術で説明した解像度変換手法や近似多項式を用いた数値演算による座標変換処理を採用してもよい。   In the first to fourth embodiments, the address conversion is described as an example of the coordinate conversion process. However, the coordinate conversion process based on the numerical conversion using the resolution conversion method and the approximate polynomial described in the prior art is adopted. May be.

また、上記第1から第4の実施形態では、接眼の拡大光学系を採用するHMDにおいて収差補正を行う場合について説明を行った。しかしながら、収差補正の適用先は、HMDに限定されるものではなく、表示光学系を有しその収差の補正が必要な、デジタルカメラやカメラ付きの携帯電話およびデジタルビデオカメラ、背面投射型のテレビやカメラ等に搭載されるEVF等であってもよい。   In the first to fourth embodiments, the case where the aberration correction is performed in the HMD that employs the magnifying optical system of the eyepiece has been described. However, the application destination of the aberration correction is not limited to the HMD, but a digital camera, a mobile phone with a camera and a digital video camera, and a rear projection type television that have a display optical system and need to correct the aberration. Or EVF mounted on a camera or the like.

また、上記第1から第4の実施形態で説明した構成は、互いに組み合わせて使用してもよいことは言うまでもない。さらには、上記各実施形態における様々な技術を適宜組み合わせて新たなシステムを構成することは当業者であれば容易に相当し得るものである。したがって、このような様々な組み合わせによるシステムもまた、本発明の範疇に属するものである。   Needless to say, the configurations described in the first to fourth embodiments may be used in combination with each other. Furthermore, it is easy for those skilled in the art to configure a new system by appropriately combining various techniques in the above embodiments. Therefore, a system based on such various combinations also belongs to the category of the present invention.

[他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (13)

表示される画像を処理する画像処理装置であって、
前記画像を処理する際の注目画素が、前記画像に含まれる、所定の輝度値より高く所定の幅よりも細い白色細線を構成する白色細線画素であるか否かを判断する判断手段と、
前記判断手段において白色細線画素であると判断された場合には、前記注目画素に対して平滑化処理を行うよう動作し、前記判断手段において白色細線画素でないと判断された場合には、前記注目画素に対して平滑化処理を行わないよう動作することで、該注目画素の色情報を算出する算出手段と、
前記画像を表示するための表示光学系において生じる色収差に起因する結像位置のずれ量を示す情報に基づいて、前記算出手段により色情報が算出された前記注目画素の位置を変換する変換手段と、
前記変換手段により変換された前記注目画素の色情報を、該注目画素の近傍の画素であって、前記表示光学系において画像を表示する際の表示位置に対応する画素の色情報により再現することで、該注目画素の補間処理を行う補間手段と
を備えることを特徴とする画像処理装置。
An image processing apparatus for processing an image to be displayed,
Determining means for determining whether or not the pixel of interest when processing the image is a white thin line pixel that is included in the image and that forms a white thin line that is higher than a predetermined luminance value and thinner than a predetermined width;
When the determination means determines that the pixel is a white thin line pixel, it operates to perform a smoothing process on the pixel of interest, and when the determination unit determines that the pixel is not a white thin line pixel, A calculation means for calculating color information of the target pixel by operating so as not to perform the smoothing process on the pixel;
Conversion means for converting the position of the pixel of interest for which color information has been calculated by the calculation means, based on information indicating a shift amount of an imaging position caused by chromatic aberration occurring in a display optical system for displaying the image; ,
The color information of the target pixel converted by the conversion unit is reproduced by the color information of the pixel that is in the vicinity of the target pixel and that corresponds to the display position when displaying an image in the display optical system. An image processing apparatus comprising: interpolation means for performing interpolation processing on the target pixel.
前記補間手段により補間処理された前記注目画素のうち、前記判断手段において白色細線画素であると判断された注目画素に対して、先鋭化処理を行う先鋭化処理手段を更に備えることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus further includes sharpening processing means for performing sharpening processing on a target pixel determined to be a white thin line pixel by the determination means among the target pixels interpolated by the interpolation means. The image processing apparatus according to claim 1. 前記補間手段は、前記判断手段において白色細線画素であると判断された注目画素と、白色細線画素でないと判断された注目画素とで、先鋭化効果の異なる補間曲線を用いて、前記補間処理を行うことを特徴とする請求項1に記載の画像処理装置。   The interpolation unit performs the interpolation process using interpolation curves having different sharpening effects between a target pixel determined to be a white thin line pixel by the determination unit and a target pixel determined not to be a white thin line pixel. The image processing apparatus according to claim 1, wherein the image processing apparatus performs the processing. 前記判断手段において白色細線画素であると判断された場合に前記補間処理において用いられる補間曲線は、前記判断手段において白色細線画素でないと判断された場合に前記補間処理において用いられる補間曲線と比べて、先鋭化効果の高い補間曲線であることを特徴とする請求項3に記載の画像処理装置。   The interpolation curve used in the interpolation process when the determination unit determines that the pixel is a white thin line pixel is compared with the interpolation curve used in the interpolation process when the determination unit determines that the pixel is not a white thin line pixel. The image processing apparatus according to claim 3, wherein the interpolation processing curve has a high sharpening effect. 前記算出手段は、前記判断手段において白色細線画素であると判断された場合であって、前記注目画素が、前記白色細線の外周部を構成する画素である白色細線外周画素である場合に、前記平滑化処理を行うことを特徴とする請求項1に記載の画像処理装置。   In the case where the calculating unit determines that the pixel is a white thin line pixel in the determining unit, and the target pixel is a white thin line outer peripheral pixel that is a pixel constituting the outer peripheral portion of the white thin line, The image processing apparatus according to claim 1, wherein smoothing processing is performed. 表示される画像を処理する画像処理装置であって、
前記画像を処理する際の注目画素が、前記画像に含まれる、所定の輝度値より高く所定の幅より細い白色細線を構成する白色細線画素であるか否かを判断する判断手段と、
前記画像を表示するための表示光学系において生じる色収差に起因する結像位置のずれ量を示す情報に基づいて、前記注目画素の位置を変換する変換手段と、
前記変換手段により変換された前記注目画素の色情報を、該注目画素の近傍の画素であって、前記表示光学系において画像を表示する際の表示位置に対応する画素の色情報により再現することで、該注目画素の補間処理を行う補間手段と、を備え、
前記補間手段は、前記注目画素が、前記判断手段において白色細線画素であると判断された場合と、白色細線画素でないと判断された場合とで、平滑化効果の異なる補間曲線を用いて前記補間処理を行うことを特徴とする画像処理装置。
An image processing apparatus for processing an image to be displayed,
Determining means for determining whether or not the pixel of interest when processing the image is a white thin line pixel included in the image and constituting a white thin line higher than a predetermined luminance value and thinner than a predetermined width;
Conversion means for converting the position of the pixel of interest based on information indicating a shift amount of an imaging position caused by chromatic aberration generated in a display optical system for displaying the image;
The color information of the target pixel converted by the conversion unit is reproduced by the color information of the pixel that is in the vicinity of the target pixel and that corresponds to the display position when displaying an image in the display optical system. And interpolation means for performing interpolation processing of the target pixel,
The interpolation means uses the interpolation curves having different smoothing effects when the pixel of interest is determined to be a white thin line pixel by the determination means and when it is determined not to be a white thin line pixel. An image processing apparatus that performs processing.
前記判断手段において白色細線画素であると判断された場合に前記補間処理において用いられる補間曲線は、前記判断手段において白色細線画素でないと判断された場合に前記補間処理において用いられる補間曲線と比べて、平滑化効果の高い補間曲線であることを特徴とする請求項6に記載の画像処理装置。   The interpolation curve used in the interpolation process when the determination unit determines that the pixel is a white thin line pixel is compared with the interpolation curve used in the interpolation process when the determination unit determines that the pixel is not a white thin line pixel. The image processing apparatus according to claim 6, wherein the interpolation processing curve has a high smoothing effect. 前記補間手段により補間処理された前記注目画素のうち、前記判断手段において白色細線画素であると判断された注目画素に対して、先鋭化処理を行う先鋭化処理手段を更に備えることを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus further includes sharpening processing means for performing sharpening processing on a target pixel determined to be a white thin line pixel by the determination means among the target pixels interpolated by the interpolation means. The image processing apparatus according to claim 7. 前記判断手段は、前記注目画素が所定の輝度値より高い画素であって、該注目画素の周辺に、該注目画素と同一の輝度値を有する画素が存在し、かつ、該注目画素の周辺に所定の閾値以下の輝度値を有する画素が存在する場合に、前記白色細線画素であると判断することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。   The determination unit is a pixel in which the pixel of interest is higher than a predetermined luminance value, a pixel having the same luminance value as the pixel of interest exists around the pixel of interest, and is around the pixel of interest. The image processing apparatus according to claim 1, wherein when there is a pixel having a luminance value equal to or less than a predetermined threshold, the image processing apparatus determines that the pixel is a white thin line pixel. 表示される画像を処理する画像処理装置における画像処理方法であって、
判断手段が、前記画像を処理する際の注目画素が、前記画像に含まれる、所定の輝度値より高く所定の幅よりも細い白色細線を構成する白色細線画素であるか否かを判断する判断工程と、
算出手段が、前記判断工程において白色細線画素であると判断された場合には、前記注目画素に対して平滑化処理を行うよう動作し、前記判断工程において白色細線画素でないと判断された場合には、前記注目画素に対して平滑化処理を行わないよう動作することで、該注目画素の色情報を算出する算出工程と、
変換手段が、前記画像を表示するための表示光学系において生じる色収差に起因する結像位置のずれ量を示す情報に基づいて、前記算出工程において色情報が算出された前記注目画素の位置を変換する変換工程と、
補間手段が、前記変換工程において変換された前記注目画素の色情報を、該注目画素の近傍の画素であって、前記表示光学系において画像を表示する際の表示位置に対応する画素の色情報により再現することで、該注目画素の補間処理を行う補間工程と
を備えることを特徴とする画像処理方法。
An image processing method in an image processing apparatus for processing an image to be displayed,
Judgment means for judging whether or not the pixel of interest when processing the image is a white fine line pixel constituting a white fine line included in the image that is higher than a predetermined luminance value and thinner than a predetermined width. Process,
When it is determined that the calculation unit is a white thin line pixel in the determination step, the calculation unit operates to perform a smoothing process on the target pixel, and when it is determined that the calculation unit is not a white thin line pixel in the determination step. Calculating a color information of the target pixel by operating so as not to perform a smoothing process on the target pixel;
The conversion means converts the position of the target pixel for which color information has been calculated in the calculation step based on information indicating a shift amount of an imaging position caused by chromatic aberration occurring in a display optical system for displaying the image. Conversion process to
The color information of the pixel of interest converted in the conversion step by the interpolation means is the pixel color information corresponding to the display position when the display optical system displays an image in the vicinity of the pixel of interest. An image processing method comprising: an interpolation step of performing interpolation processing of the target pixel by reproducing by the above.
表示される画像を処理する画像処理装置における画像処理方法であって、
判断手段が、前記画像を処理する際の注目画素が、前記画像に含まれる、所定の輝度値より高く所定の幅よりも細い白色細線を構成する白色細線画素であるか否かを判断する判断工程と、
変換手段が、前記画像を表示するための表示光学系において生じる色収差に起因する結像位置のずれ量を示す情報に基づいて、前記注目画素の位置を変換する変換工程と、
補間手段が、前記変換工程において変換された前記注目画素の色情報を、該注目画素の近傍の画素であって、前記表示光学系において画像を表示する際の表示位置に対応する画素の色情報により再現することで、該注目画素の補間処理を行う補間工程と、を備え、
前記補間工程は、前記注目画素が、前記判断工程において白色細線画素であると判断された場合と、白色細線画素でないと判断された場合とで、平滑化効果の異なる補間曲線を用いて前記補間処理を行うことを特徴とする画像処理方法。
An image processing method in an image processing apparatus for processing an image to be displayed,
Judgment means for judging whether or not the pixel of interest when processing the image is a white fine line pixel constituting a white fine line included in the image that is higher than a predetermined luminance value and thinner than a predetermined width. Process,
A converting step for converting the position of the pixel of interest based on information indicating a shift amount of an imaging position caused by chromatic aberration generated in a display optical system for displaying the image;
The color information of the pixel of interest converted in the conversion step by the interpolation means is the pixel color information corresponding to the display position when the display optical system displays an image in the vicinity of the pixel of interest. And an interpolation step for performing interpolation processing of the target pixel by reproducing by
The interpolation step uses the interpolation curves having different smoothing effects depending on whether the target pixel is determined to be a white thin line pixel or not to be a white thin line pixel in the determination step. An image processing method characterized by performing processing.
請求項10または11に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the image processing method of Claim 10 or 11. 請求項10または11に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラムを記憶した記憶媒体。   The storage medium which memorize | stored the program for making a computer perform each process of the image processing method of Claim 10 or 11.
JP2009296368A 2009-12-25 2009-12-25 Image processing apparatus and image processing method Active JP5241698B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009296368A JP5241698B2 (en) 2009-12-25 2009-12-25 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009296368A JP5241698B2 (en) 2009-12-25 2009-12-25 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2011139158A true JP2011139158A (en) 2011-07-14
JP2011139158A5 JP2011139158A5 (en) 2013-02-14
JP5241698B2 JP5241698B2 (en) 2013-07-17

Family

ID=44350176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009296368A Active JP5241698B2 (en) 2009-12-25 2009-12-25 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5241698B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103313079A (en) * 2012-03-15 2013-09-18 索尼公司 Display device, image processing device, image processing method, and computer program
JP2015220666A (en) * 2014-05-20 2015-12-07 株式会社東芝 Display device
WO2017043125A1 (en) * 2015-09-07 2017-03-16 株式会社ソニー・インタラクティブエンタテインメント Information processing system, information processing device, output device, program and recording medium
JP2017524278A (en) * 2014-06-26 2017-08-24 インテル・コーポレーション Distorted mesh for chromatic aberration
WO2017163281A1 (en) * 2016-03-24 2017-09-28 パナソニックIpマネジメント株式会社 Display device
US10672110B2 (en) 2015-09-07 2020-06-02 Sony Interactive Entertainment Inc. Information processing system, information processing apparatus, output apparatus, program, and recording medium
US10726814B2 (en) 2017-01-27 2020-07-28 Canon Kabushiki Kaisha Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium
WO2020170456A1 (en) * 2019-02-22 2020-08-27 株式会社ソニー・インタラクティブエンタテインメント Display device and image display method
EP3654084A4 (en) * 2017-07-14 2021-04-28 Huizhou TCL Mobile Communication Co., Ltd. Method of using rgb superposition to prevent chromatic dispersion of vr device, and electronic device
EP3965054A4 (en) * 2019-06-24 2022-07-13 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image distortion correction method and apparatus
CN117649394A (en) * 2023-12-14 2024-03-05 广州欣贝医疗科技有限公司 Thulium-doped fiber laser therapeutic machine precision adjusting method and system
US11960086B2 (en) 2019-02-22 2024-04-16 Sony Interactive Entertainment Inc. Image generation device, head-mounted display, and image generation method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108600641A (en) * 2018-07-05 2018-09-28 维沃移动通信有限公司 Photographic method and mobile terminal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11298924A (en) * 1998-04-14 1999-10-29 Sharp Corp Head mounted type display device
JP2004236191A (en) * 2003-01-31 2004-08-19 Nikon Corp Image display device
JP2008058703A (en) * 2006-08-31 2008-03-13 Canon Inc Image display device
JP2008203550A (en) * 2007-02-20 2008-09-04 Canon Inc Head-mounted display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11298924A (en) * 1998-04-14 1999-10-29 Sharp Corp Head mounted type display device
JP2004236191A (en) * 2003-01-31 2004-08-19 Nikon Corp Image display device
JP2008058703A (en) * 2006-08-31 2008-03-13 Canon Inc Image display device
JP2008203550A (en) * 2007-02-20 2008-09-04 Canon Inc Head-mounted display device

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103313079A (en) * 2012-03-15 2013-09-18 索尼公司 Display device, image processing device, image processing method, and computer program
JP2013192193A (en) * 2012-03-15 2013-09-26 Sony Corp Display device, image processing device, image processing method, and computer program
JP2015220666A (en) * 2014-05-20 2015-12-07 株式会社東芝 Display device
CN111861898A (en) * 2014-06-26 2020-10-30 英特尔公司 Distortion mesh against chromatic aberration
US10438331B2 (en) 2014-06-26 2019-10-08 Intel Corporation Distortion meshes against chromatic aberrations
US11423519B2 (en) 2014-06-26 2022-08-23 Intel Corporation Distortion meshes against chromatic aberrations
CN111861898B (en) * 2014-06-26 2024-02-02 英特尔公司 Distortion reduction method and device and head-mounted display system
US12106457B2 (en) 2014-06-26 2024-10-01 Intel Corporation Distortion meshes against chromatic aberrations
JP2017524278A (en) * 2014-06-26 2017-08-24 インテル・コーポレーション Distorted mesh for chromatic aberration
US11748857B2 (en) 2014-06-26 2023-09-05 Intel Corporation Distortion meshes against chromatic aberrations
US10930185B2 (en) 2015-09-07 2021-02-23 Sony Interactive Entertainment Inc. Information processing system, information processing apparatus, output apparatus, program, and recording medium
US10672110B2 (en) 2015-09-07 2020-06-02 Sony Interactive Entertainment Inc. Information processing system, information processing apparatus, output apparatus, program, and recording medium
WO2017043125A1 (en) * 2015-09-07 2017-03-16 株式会社ソニー・インタラクティブエンタテインメント Information processing system, information processing device, output device, program and recording medium
EP3349475A4 (en) * 2015-09-07 2019-01-09 Sony Interactive Entertainment Inc. Information processing system, information processing device, output device, program and recording medium
CN107925792A (en) * 2015-09-07 2018-04-17 索尼互动娱乐股份有限公司 Information processing system, information processor, output device, program and recording medium
JPWO2017043125A1 (en) * 2015-09-07 2018-02-22 株式会社ソニー・インタラクティブエンタテインメント Information processing system, information processing apparatus, output apparatus, program, and recording medium
US10692181B2 (en) 2016-03-24 2020-06-23 Panasonic Intellectual Property Management Co., Ltd. Display device that reduces an image while performing filter processing on the image
JPWO2017163281A1 (en) * 2016-03-24 2019-01-24 パナソニックIpマネジメント株式会社 Display device
WO2017163281A1 (en) * 2016-03-24 2017-09-28 パナソニックIpマネジメント株式会社 Display device
US10726814B2 (en) 2017-01-27 2020-07-28 Canon Kabushiki Kaisha Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium
EP3654084A4 (en) * 2017-07-14 2021-04-28 Huizhou TCL Mobile Communication Co., Ltd. Method of using rgb superposition to prevent chromatic dispersion of vr device, and electronic device
WO2020170456A1 (en) * 2019-02-22 2020-08-27 株式会社ソニー・インタラクティブエンタテインメント Display device and image display method
JP7142762B2 (en) 2019-02-22 2022-09-27 株式会社ソニー・インタラクティブエンタテインメント Display device and image display method
US11960086B2 (en) 2019-02-22 2024-04-16 Sony Interactive Entertainment Inc. Image generation device, head-mounted display, and image generation method
US12099649B2 (en) 2019-02-22 2024-09-24 Sony Interactive Entertainment Inc. Display device and image display method
JPWO2020170456A1 (en) * 2019-02-22 2021-12-16 株式会社ソニー・インタラクティブエンタテインメント Display device and image display method
US11861813B2 (en) 2019-06-24 2024-01-02 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image distortion correction method and apparatus
EP3965054A4 (en) * 2019-06-24 2022-07-13 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image distortion correction method and apparatus
CN117649394A (en) * 2023-12-14 2024-03-05 广州欣贝医疗科技有限公司 Thulium-doped fiber laser therapeutic machine precision adjusting method and system

Also Published As

Publication number Publication date
JP5241698B2 (en) 2013-07-17

Similar Documents

Publication Publication Date Title
JP5241698B2 (en) Image processing apparatus and image processing method
US8373619B2 (en) Image processing system, image processing apparatus, aberration correction method, and computer-readable storage medium
JP5388534B2 (en) Image processing apparatus and method, head-mounted display, program, and recording medium
JP5094430B2 (en) Image processing method, image processing apparatus, and system
EP2177941B1 (en) Image processing apparatus and image processing method
JP4847192B2 (en) Image processing system, image processing apparatus, imaging apparatus, and control method thereof
KR101870865B1 (en) Apparatus and method for 3d augmented information video see-through display, rectification apparatus
WO2014083949A1 (en) Stereoscopic image processing device, stereoscopic image processing method, and program
JP7358448B2 (en) Image generation device, head mounted display, and image generation method
JP7150134B2 (en) Head-mounted display and image display method
JP7365184B2 (en) Image processing device, head-mounted display, and image display method
JP6971590B2 (en) Image processing equipment, image processing methods and programs
JP7142762B2 (en) Display device and image display method
JP6862210B2 (en) Image processing equipment, image processing system, image processing method and program
JP6137910B2 (en) Information processing apparatus, information processing method, and program
JP2017212720A (en) Image processing apparatus, image processing method, and program
JP7365185B2 (en) Image data transmission method, content processing device, head mounted display, relay device, and content processing system
JP7429515B2 (en) Image processing device, head-mounted display, and image display method
WO2022158221A1 (en) Image display system, display device, and image display method
JP2024084218A (en) Image processing apparatus, and image processing method
JP2016082528A (en) System, program, display device, image processing device, control method for system, control method for display device, and control method for image processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3