JP4163709B2 - Image correction apparatus, image correction method, and image correction program - Google Patents

Image correction apparatus, image correction method, and image correction program Download PDF

Info

Publication number
JP4163709B2
JP4163709B2 JP2005297798A JP2005297798A JP4163709B2 JP 4163709 B2 JP4163709 B2 JP 4163709B2 JP 2005297798 A JP2005297798 A JP 2005297798A JP 2005297798 A JP2005297798 A JP 2005297798A JP 4163709 B2 JP4163709 B2 JP 4163709B2
Authority
JP
Japan
Prior art keywords
image
correction
missing
pixels
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005297798A
Other languages
Japanese (ja)
Other versions
JP2007110329A (en
Inventor
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2005297798A priority Critical patent/JP4163709B2/en
Publication of JP2007110329A publication Critical patent/JP2007110329A/en
Application granted granted Critical
Publication of JP4163709B2 publication Critical patent/JP4163709B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Picture Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Description

本発明は、画像を補正する技術に関する。   The present invention relates to a technique for correcting an image.

インターネット、地上波デジタル放送、無線LANなどの普及にともない、近年では多くの画像(映像)がネットワークを介して伝送されている。また、無線LANによる映像通信では、有線のネットワークと比較して、高い比率でパケットロスが発生している。   With the spread of the Internet, terrestrial digital broadcasting, wireless LAN, and the like, in recent years, many images (videos) have been transmitted via a network. In video communication using a wireless LAN, packet loss occurs at a higher rate compared to a wired network.

映像通信において、パケットロスなどのエラーが発生した場合、例えば、エラー訂正技術(エラーコンシールメント)を適用することにより、画像の補正(修復)を行っている。なお、エラー訂正技術については、非特許文献1および非特許文献2に記載されている。
Y.Wang and Q-F.Zhu,”Error control and concealment for video communication: a review”, Proc. The IEEE, vol.86, no.5, 1998.5. “Information technology − coding of audio-visual objects-part 2: visual”, ISO/IEC 14496-2, 2004.
When an error such as packet loss occurs in video communication, for example, an image correction (restoration) is performed by applying an error correction technique (error concealment). The error correction technique is described in Non-Patent Document 1 and Non-Patent Document 2.
Y. Wang and QF. Zhu, “Error control and concealment for video communication: a review”, Proc. The IEEE, vol.86, no.5, 1998.5. “Information technology − coding of audio-visual objects-part 2: visual”, ISO / IEC 14496-2, 2004.

エラー訂正技術では、例えば、パケットロスが発生した画像フレームを、過去に受信した画像フレームにフレーム単位で置き換える、または、パケットロスの発生により欠落した画素を過去の画像フレームの同一箇所の画素に画素単位で置き換えることにより画像を修正する。   In error correction technology, for example, an image frame in which a packet loss has occurred is replaced with a previously received image frame in units of frames, or a pixel that has been lost due to the occurrence of a packet loss is replaced with a pixel at the same location in the past image frame. Modify the image by replacing it in units.

しかしながら、時系列に伝送される画像フレーム間での動きが大きい場合、あるいは、画像の模様が複雑な場合、修正した部分は、他の部分と違和感や不整合が生じ、視覚的に見にくい画像となるおそれがある。すなわち、過去の画像フレームを用いて欠落画素を補正した場合、画質が劣化してしまう場合がある。   However, when the movement between image frames transmitted in time series is large, or when the pattern of the image is complicated, the corrected part is uncomfortable or inconsistent with other parts, and the image is difficult to see visually. There is a risk. That is, when missing pixels are corrected using a past image frame, the image quality may deteriorate.

本発明は上記事情に鑑みてなされたものであり、本発明の目的は、過去の画像フレームを用いることなく画像の中で欠落した画素を補正し、補正後の画像品質の劣化を回避することある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to correct a missing pixel in an image without using a past image frame, and to avoid deterioration in image quality after correction. is there.

上記課題を解決するために、本願発明は、例えば、画像補正装置であって、ネットワークを介して受信した複数の画像データの中から、エラーデータを検出する検出手段と、画像の中で前記エラーデータの表示部分である欠落領域を特定する特定手段と、前記欠落領域の周辺に表示される周辺画素を特定し、当該周辺画素に基づいて、前記欠落領域の画素を当該欠落領域の外側から内側へと生成し、前記欠落領域を画素単位に補正する第1の補正手段と、を備え、前記第1の補正手段は、前記周辺画素に対して偏微分方程式を適用し、前記欠落領域の画素を当該欠落領域の外側から内側へと生成して前記欠落領域を画素単位に補正し、前記偏微分方程式は、等方的に拡散させる等方拡散方程式にもとづいており、前記第1の補正手段は、前記欠落領域を囲む円を特定し、当該円の中心から前記欠落領域外周までの平均補正距離を算出し、前記平均補正距離に比例した前記等方拡散方程式の拡散係数を決定する。 In order to solve the above-described problem, the present invention provides, for example, an image correction apparatus, a detection unit that detects error data from a plurality of image data received via a network, and the error in an image. A specifying means for specifying a missing area which is a display part of data, and a peripheral pixel displayed around the missing area are specified, and based on the peripheral pixel, the pixel of the missing area is arranged from the outside to the inside of the missing area. And a first correction unit that corrects the missing area in units of pixels, wherein the first correction unit applies a partial differential equation to the peripheral pixels, and the pixels in the missing area Is generated from the outside to the inside of the missing region to correct the missing region in units of pixels, and the partial differential equation is based on an isotropic diffusion equation for isotropic diffusion, and the first correction unit Said Identify the circle surrounding the落領region, calculates an average correction distance to the missing region periphery from the center of the circle, to determine the diffusion coefficient of the anisotropic diffusion equation is proportional to the average correction distance.

また、本発明は、情報処理装置が行う画像補正方法であって、前記情報処理装置は、ネットワークを介して受信した複数の画像データの中から、エラーデータを検出する検出ステップと、画像の中で前記エラーデータの表示部分である欠落領域を特定する特定ステップと、前記欠落領域の周辺に表示される周辺画素を特定し、当該周辺画素に基づいて、前記欠落領域の画素を当該欠落領域の外側から内側へと生成し、前記欠落領域を画素単位に補正する補正ステップと、を行い、前記補正ステップは、前記周辺画素に対して偏微分方程式を適用し、前記欠落領域の画素を当該欠落領域の外側から内側へと生成して前記欠落領域を画素単位に補正し、前記偏微分方程式は、等方的に拡散させる等方拡散方程式にもとづいており、前記補正ステップは、前記欠落領域を囲む円を特定し、当該円の中心から前記欠落領域外周までの平均補正距離を算出し、前記平均補正距離に比例した前記等方拡散方程式の拡散係数を決定する。 The present invention is also an image correction method performed by an information processing apparatus, wherein the information processing apparatus includes a detection step of detecting error data from a plurality of image data received via a network, The step of identifying a missing area which is a display part of the error data in the step of identifying a peripheral pixel displayed around the missing area and, based on the peripheral pixel, determining the pixel of the missing area of the missing area. generated from the outside to the inside, have rows and correcting step, the correcting the missing region in pixel units, wherein the correction step, the applied partial differential equations with respect to the peripheral pixels, the pixels of the missing region The missing area is generated from the outside to the inside to correct the missing area in units of pixels, and the partial differential equation is based on an isotropic diffusion equation that isotropically diffuses. Identifies a circle surrounding the missing area, it calculates the average correction distance to the missing region periphery from the center of the circle, to determine the diffusion coefficient of the anisotropic diffusion equation is proportional to the average correction distance.

また、本発明は、情報処理装置が実行する画像補正プログラムであって、前記情報処理装置に、ネットワークを介して受信した複数の画像データの中から、エラーデータを検出する検出ステップと、画像の中で前記エラーデータの表示部分である欠落領域を特定する特定ステップと、前記欠落領域の周辺に表示される周辺画素を特定し、当該周辺画素に基づいて、前記欠落領域の画素を当該欠落領域の外側から内側へと生成し、前記欠落領域を画素単位に補正する補正ステップと、を実行させ、前記補正ステップは、前記周辺画素に対して偏微分方程式を適用し、前記欠落領域の画素を当該欠落領域の外側から内側へと生成して前記欠落領域を画素単位に補正し、前記偏微分方程式は、等方的に拡散させる等方拡散方程式にもとづいており、前記補正ステップは、前記欠落領域を囲む円を特定し、当該円の中心から前記欠落領域外周までの平均補正距離を算出し、前記平均補正距離に比例した前記等方拡散方程式の拡散係数を決定する。 The present invention is also an image correction program executed by the information processing apparatus, wherein the information processing apparatus includes a detection step of detecting error data from a plurality of image data received via a network; A step of identifying a missing area which is a display part of the error data, and identifying peripheral pixels displayed around the missing area, and determining the pixels of the missing area based on the neighboring pixels And generating a correction step of correcting the missing area in units of pixels, and the correction step applies a partial differential equation to the peripheral pixels, and sets the pixels in the missing area. The missing area is generated from the outside to the inside to correct the missing area in units of pixels, and the partial differential equation is based on an isotropic diffusion equation that diffuses isotropically, The correction step specifies a circle surrounding the missing area, calculates an average correction distance from the center of the circle to the outer periphery of the missing area, and determines a diffusion coefficient of the isotropic diffusion equation proportional to the average correction distance. To do.

本発明により、過去の画像フレームを用いることなく画像の中で欠落した画素を補正し、補正後の画像品質の劣化を回避することができる。   According to the present invention, it is possible to correct a missing pixel in an image without using a past image frame, and to avoid deterioration in image quality after correction.

以下、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below.

図1は、本発明の一実施形態が適用された画像補正装置1の概略構成図である。図示する画像補正装置1は、当該画像補正装置1とネットワークにより接続された画像送信装置(不図示)から画像データ(パケット)を受信し、受信した画像データにエラーがある場合は補正する装置である。なお、画像データには、動画像データおよび静止画像データが含まれるものとする。また、画像送信装置では、画像データをエンコード(一定の規則に基づいて符号化・圧縮化)し、エンコードした画像データのパケットを画像補正装置1に送信するものとする。   FIG. 1 is a schematic configuration diagram of an image correction apparatus 1 to which an embodiment of the present invention is applied. An image correction apparatus 1 shown in the figure is an apparatus that receives image data (packets) from an image transmission apparatus (not shown) connected to the image correction apparatus 1 via a network and corrects the received image data if there is an error. is there. The image data includes moving image data and still image data. The image transmission apparatus encodes image data (encodes / compresses based on a certain rule), and transmits the encoded image data packet to the image correction apparatus 1.

画像補正装置1は、画像入力部11と、画像蓄積部12と、デコード部13と、パケットロス検出部14と、欠落画素特定部15と、バッファリング部16と、画像細かさ検出部17と、画像補正部18と、表示部19と、を備える。   The image correction apparatus 1 includes an image input unit 11, an image storage unit 12, a decoding unit 13, a packet loss detection unit 14, a missing pixel specification unit 15, a buffering unit 16, and an image fineness detection unit 17. The image correction unit 18 and the display unit 19 are provided.

画像入力部11は、画像送信装置から送信される画像データのパケットを受信(入力)し、受信したパケットを1次元の状態で画像蓄積部12に記憶する。なお、画像入力部11が受信したパケットは、符号化(圧縮)されているものとする。   The image input unit 11 receives (inputs) a packet of image data transmitted from the image transmission device, and stores the received packet in the image storage unit 12 in a one-dimensional state. It is assumed that the packet received by the image input unit 11 is encoded (compressed).

デコード部13は、画像蓄積部12に記憶された各パケットのデータをデコード(復号)し、元の画像データを取り出す。パケットロス検出部14は、ネットワーク上で発生したパケットロスを検出する。欠落画素特定部15は、パケットロスにより欠落した画素の表示位置(欠落画素領域)を特定する。バッファリング部16は、復号した画像データを、2次元にバッファに記憶する。   The decoding unit 13 decodes (decodes) the data of each packet stored in the image storage unit 12 and extracts the original image data. The packet loss detection unit 14 detects a packet loss that has occurred on the network. The missing pixel specifying unit 15 specifies the display position (missing pixel region) of the pixel that is lost due to packet loss. The buffering unit 16 stores the decoded image data in a two-dimensional buffer.

画像細かさ検出部17は、欠落画素特定部15が特定した欠落画素領域の近傍の画像の細かさを検出し、ミクロ・テクスチャ(細かな模様)かマクロ・テクスチャ(粗い模様)かを判別する。画像補正部18は、後述するミクロ・テクスチャ生成補正法、または、マクロ・テクスチャ生成補正法により、欠落画素領域を補正する。表示部19は、欠落画素領域を補正した補正画像を出力装置に表示する。   The image fineness detection unit 17 detects the fineness of the image in the vicinity of the missing pixel area specified by the missing pixel specifying unit 15 and determines whether the texture is a micro texture (fine pattern) or a macro texture (coarse pattern). . The image correction unit 18 corrects the missing pixel region by a micro-texture generation correction method or a macro-texture generation correction method described later. The display unit 19 displays a corrected image obtained by correcting the missing pixel area on the output device.

上記説明した、画像補正装置1は、CPUと、メモリと、外部記憶装置と、キーボードやマウスなどの入力装置と、ディスプレイなどの出力装置と、他の装置と接続するための通信制御装置と、これらの各装置を接続するバスと、を備えた汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた画像補正装置1用のプログラムを実行することにより、画像補正装置の各機能が実現される。なお、画像補正装置1の画像蓄積部12およびバッファリング部16が画像データを記憶するバッファには、メモリまたは外部記憶装置が用いられる。   The image correction apparatus 1 described above includes a CPU, a memory, an external storage device, an input device such as a keyboard and a mouse, an output device such as a display, and a communication control device for connecting to other devices. A general-purpose computer system including a bus connecting these devices can be used. In this computer system, each function of the image correction device is realized by the CPU executing a program for the image correction device 1 loaded on the memory. Note that a memory or an external storage device is used as a buffer in which the image storage unit 12 and the buffering unit 16 of the image correction apparatus 1 store image data.

また、画像補正装置1用のプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MOなどのコンピュータ読み取り可能な記録媒体に記憶すること、または、ネットワークを介して配信することも可能である。   The program for the image correction apparatus 1 can be stored in a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, or an MO, or can be distributed via a network.

ここで、従来のエラー訂正技術により欠落画素領域を補正した例を図2に、また、本実施形態の画像補正装置1により欠落画素領域を補正した例を図3に示す。   Here, FIG. 2 shows an example in which the missing pixel region is corrected by a conventional error correction technique, and FIG. 3 shows an example in which the missing pixel region is corrected by the image correction apparatus 1 of the present embodiment.

図2は、過去に受信した画像フレーム(映像フレーム)のパケットロスが発生した箇所と同一の箇所の画素を埋め込んだ場合の例である。図2では、複雑な模様の画像200中に、パケットロスによる欠落画素領域210が黒く表示されている。そして、この欠落画素領域210が、過去の画像フレームから切り出した画像220で置換(補正)されている。時系列に伝送される画像フレーム間での動きが大きい場合、あるいは、画像の模様が複雑な場合には、置換後の欠落画素領域220は、当該欠落画素領域220以外の他の部分との違和感や不整合が生じ、視覚的に見にくい画像となっている。   FIG. 2 shows an example in which pixels at the same location as where a packet loss has occurred in an image frame (video frame) received in the past are embedded. In FIG. 2, a missing pixel region 210 due to packet loss is displayed in black in an image 200 having a complicated pattern. The missing pixel area 210 is replaced (corrected) with an image 220 cut out from a past image frame. When the movement between image frames transmitted in time series is large, or when the pattern of the image is complicated, the missing pixel area 220 after replacement is uncomfortable with other parts other than the missing pixel area 220. And inconsistencies occur, making the image visually difficult to see.

これに対して、図3に示す本実施形態では、画像300に複雑な模様があり、また、時系列に伝送される画像フレーム間での動きが大きい場合であっても、欠落画素領域320を他の部分との違和感や不整合のない、高品質が画像に補正することができる。   On the other hand, in the present embodiment shown in FIG. 3, even if the image 300 has a complicated pattern and the movement between image frames transmitted in time series is large, the missing pixel region 320 is reduced. High quality without any discomfort or inconsistency with other parts can be corrected to an image.

次に、本実施形態の画像補正装置1を用いた画像補正処理について説明する。   Next, image correction processing using the image correction apparatus 1 of the present embodiment will be described.

まず、画像入力部11は、ネットワークを介して画像送信装置(不図示)が送信した画像データのパケットを順次受信する。そして、画像入力部11は、受信した各パケットを1次元の状態で(例えば、パケットの送信順で)、画像蓄積部12に蓄積する。なお、本実施形態では、画像入力部11が受信したパケットの画像データは、符号化されでいるものとする。そして、デコード部13は、画像蓄積部12に蓄積された各パケットの画像データを復号する。   First, the image input unit 11 sequentially receives packets of image data transmitted by an image transmission device (not shown) via a network. Then, the image input unit 11 stores the received packets in the image storage unit 12 in a one-dimensional state (for example, in the order of packet transmission). In this embodiment, it is assumed that the image data of the packet received by the image input unit 11 is encoded. Then, the decoding unit 13 decodes the image data of each packet stored in the image storage unit 12.

そして、パケットロス検出部14は、パケットロスを検出する。パケットロスは、パケットの伝送中に、パケットが損失してしまうことである。パケットロスが発生する原因としては、例えば、バースト性またはノイズ性によるものが考えられる。バースト性によるパケットロスは、例えば、移動中のモバイル端末において建物等の障害により発生する。バースト性によるパケットロスでは、一度パケットロスが発生するとパケットロスが連続して起こるため、比較的多くのパケットが集中して損失する。また、ノイズ性によるパケットロスは、通信ノイズにより発生し、比較的少ない数のパケットが損失する。   The packet loss detection unit 14 detects packet loss. Packet loss is the loss of a packet during packet transmission. As a cause of packet loss, for example, it may be due to burstiness or noise. Packet loss due to burstiness occurs, for example, due to a failure of a building or the like in a moving mobile terminal. In packet loss due to burstiness, once packet loss occurs, packet loss occurs continuously, so a relatively large number of packets are concentrated and lost. Packet loss due to noise is caused by communication noise, and a relatively small number of packets are lost.

図4は、パケットロスの検出方法を説明するための図である。   FIG. 4 is a diagram for explaining a packet loss detection method.

図4(a)は、パケットの送信側である画像送信装置が画像補正装置1に送信するパケットを模式的に示したものである。個々のパケット800〜803には、タイムスタンプ情報、少なくとも1つの画素情報、誤り判定用の冗長コードなどが含まれている。タイムスタンプ情報としては、パケットの連続性を確認することができる所定の時刻、または、パケットの通し番号などを用いることが考えられる。   FIG. 4A schematically shows a packet transmitted from the image transmission apparatus on the packet transmission side to the image correction apparatus 1. Each packet 800 to 803 includes time stamp information, at least one piece of pixel information, a redundancy code for error determination, and the like. As the time stamp information, it is conceivable to use a predetermined time at which packet continuity can be confirmed, or a packet serial number.

図4(b)は、画像補正装置1が受信したパケットを模式的に示したものである。図示する例では、タイムスタンプ情報が「T=n+2」のパケット802が損失している。パケットロス検出部14は、画像蓄積部12にパケットの送信順序で1次元に記憶されたパケット各々810、811、813のタイムスタンプ情報を参照し、「T=n+2」のパケット802のパケットロスが発生したことを検出する。   FIG. 4B schematically shows a packet received by the image correction apparatus 1. In the illustrated example, a packet 802 with time stamp information “T = n + 2” is lost. The packet loss detection unit 14 refers to the time stamp information of each of the packets 810, 811 and 813 stored one-dimensionally in the packet transmission order in the image storage unit 12, and the packet loss of the packet 802 of “T = n + 2” is detected. Detect what happened.

そして、欠落画素特定部15は、パケットロス検出部14がパケットロスを検出した場合、損失したパケットに含まれる画素の位置を特定する。なお、各パケットには、少なくとも1つの画素情報が含まれているものとする。また、画素情報としては、例えば、画像の中での画素の位置を示すアドレス(画像番号)、RGB属性、画像濃淡値などがあげられる。   Then, when the packet loss detection unit 14 detects a packet loss, the missing pixel specification unit 15 specifies the position of the pixel included in the lost packet. Each packet includes at least one piece of pixel information. The pixel information includes, for example, an address (image number) indicating the position of the pixel in the image, an RGB attribute, an image gray value, and the like.

欠落画素特定部15は、パケットロスが発生した前後のパケット(図3(b)の場合、パケット811、813)を特定し、特定した前後のパケットの各画素情報をそれぞれ読み出す。そして、欠落画素特定部15は、パケットロス発生直前のパケット811に含まれる画素から、パケットロス発生直後のパケット813に含まれる画素までの差分の欠落画素の位置を、前後のパケット811、813の画素情報(アドレス、画像番号など)に基づいて特定する。   The missing pixel specifying unit 15 specifies the packets before and after the occurrence of the packet loss (packets 811 and 813 in the case of FIG. 3B), and reads each pixel information of the specified packets before and after. Then, the missing pixel specifying unit 15 determines the position of the missing pixel in the difference from the pixel included in the packet 811 immediately before the occurrence of the packet loss to the pixel included in the packet 813 immediately after the occurrence of the packet loss of the preceding and subsequent packets 811 and 813. Specify based on pixel information (address, image number, etc.).

そして、バッファリング部16は、この時点において1次元配列のパケット群を、2次元の画面イメージで、バッファリングする。すなわち、バッファリング部16は、1次元に伝送され、画像蓄積部12に蓄積されたパケット群(デコード後のパケット群)を、メモリなどのバッファに2次元配列で記憶する。   Then, the buffering unit 16 buffers the one-dimensional array packet group at this time point with a two-dimensional screen image. That is, the buffering unit 16 stores a packet group (decoded packet group) transmitted in one dimension and accumulated in the image accumulation unit 12 in a two-dimensional array in a buffer such as a memory.

図5は、バッファリング処理を模式的に示した図である。バッファリング部16は、1次元的に伝送された各パケット910を、当該パケット910の画素情報(アドレス、画像番号など)基づいて、バッファ920の所定の位置(領域)にバッファリングする。ここで、パケットロスが発生している場合、バッファリング部16は、損失したパケットをバッファ920に配置することができない。このため、パケットロスによる欠落画素領域930は、一般的に黒く表示される。   FIG. 5 is a diagram schematically illustrating the buffering process. The buffering unit 16 buffers each packet 910 transmitted one-dimensionally at a predetermined position (area) in the buffer 920 based on pixel information (address, image number, etc.) of the packet 910. Here, if a packet loss has occurred, the buffering unit 16 cannot place the lost packet in the buffer 920. For this reason, the missing pixel region 930 due to packet loss is generally displayed in black.

次に、画像細かさ検出部17の判別処理について説明する。   Next, the discrimination process of the image fineness detection unit 17 will be described.

図6は、2次元配列でバッファに記憶された画像の一例である。図示する画像600では、パケットロスによる複数の欠落画素(欠落画素領域)610が表示されている。画像細かさ検出部17は、欠落画素領域610の近傍のパケットロスが発生していない領域(図示する例では、欠落画素領域610を囲む周辺領域620)を抽出する。そして、画像細かさ検出部17は、抽出した領域のパケットロスが発生していない画像の細かさを検出し、ミクロ・テクスチャ(細かな模様・図柄)であるか、マクロ・テクスチャ(粗い模様・図柄)であるかを判別する。   FIG. 6 is an example of an image stored in a buffer in a two-dimensional array. In the illustrated image 600, a plurality of missing pixels (missing pixel areas) 610 due to packet loss are displayed. The image fineness detection unit 17 extracts a region where no packet loss occurs in the vicinity of the missing pixel region 610 (in the illustrated example, a peripheral region 620 surrounding the missing pixel region 610). Then, the image fineness detection unit 17 detects the fineness of the image in which no packet loss has occurred in the extracted region, and the image fineness detection unit 17 determines whether the texture is a micro-texture (fine pattern / pattern) or a macro-texture (coarse pattern / pattern). It is determined whether it is a symbol).

なお、マクロ・テクスチャであると判別した場合、画像補正部18は、欠落画素領域610の近傍にマクロ・テクスチャ生成補間方法におけるL字型オペレーター630を設定する。マクロ・テクスチャ生成補間方法については後述する。   If it is determined that the texture is a macro texture, the image correction unit 18 sets an L-shaped operator 630 in the macro / texture generation interpolation method in the vicinity of the missing pixel region 610. The macro / texture generation interpolation method will be described later.

図7は、画像細かさ検出処理のフローチャートである。   FIG. 7 is a flowchart of the image fineness detection process.

上述したように、画像細かさ検出部17は、ミクロ・テクスチャ生成補間方法とマクロ・テクスチャ生成補間方法のいずれを適用するかを判別する。なお、ミクロ・テクスチャ生成補間方法またはマクロ・テクスチャ生成補間方法のいずれか一方を用いて、パケットロスによる欠落画素領域を修復補正することは可能である。しかしながら、実際の画像は複雑なものがあり、また、画像全体の複雑さと欠落画素領域の位置との相対的な複雑さもある。そのため、本実施形態においては、より精巧に欠落画素を復元するために、画像細かさ検出部17が欠落画素領域近傍の画像の細かさを検出し、ミクロ・テクスチャ生成補間方法を適用するか、マクロ・テクスチャ生成補間方法を適用するかを判別する。   As described above, the image fineness detection unit 17 determines which of the micro-texture generation interpolation method and the macro-texture generation interpolation method is applied. Note that it is possible to repair and correct a missing pixel region due to packet loss using either the micro-texture generation interpolation method or the macro-texture generation interpolation method. However, an actual image is complex, and there is also a relative complexity between the complexity of the entire image and the position of the missing pixel region. Therefore, in the present embodiment, in order to restore the missing pixels more elaborately, the image fineness detection unit 17 detects the fineness of the image in the vicinity of the missing pixel region and applies the micro-texture generation interpolation method. It is determined whether to apply the macro / texture generation interpolation method.

画像細かさ検出部17は、図7に示すように、欠落画素領域の近傍の画像を入力する(S10)。そして、画像細かさ検出部17は、入力した画像の画像特徴量を算出する(S20)。すなわち、画像細かさ検出部17は、単位領域(1画素を単位としてもよいし、複数画素を単位としてもよい)当りのテクスチャの複雑さを画像濃淡値の空間的な1次勾配値(1次微分値)および2次勾配値(2次微分値)を算出する。   As shown in FIG. 7, the image fineness detection unit 17 inputs an image in the vicinity of the missing pixel region (S10). Then, the image fineness detection unit 17 calculates the image feature amount of the input image (S20). That is, the image fineness detection unit 17 determines the texture complexity per unit area (one pixel or a plurality of pixels) as the spatial primary gradient value (1 The second derivative value) and the second gradient value (second derivative value) are calculated.

そして、画像細かさ検出部17は、算出した画像特徴量と予め定められた閾値とを比較し、単位領域の画像が細かいか(閾値より小さいか)、または粗いか(閾値より大きいか)を判別する(S30)。粗い構造のテクスチャと判別した場合、画像細かさ検出部17は、マクロ・テクスチャ生成補間方法を選択する(S40)。一方、細かい構造のテクスチャと判定した場合、画像細かさ検出部17は、ミクロ・テクスチャ生成補間方法を選択する。   Then, the image fineness detection unit 17 compares the calculated image feature amount with a predetermined threshold value, and determines whether the image of the unit area is fine (smaller than the threshold value) or coarse (larger than the threshold value). It discriminate | determines (S30). When it is determined that the texture has a rough structure, the image fineness detection unit 17 selects a macro / texture generation interpolation method (S40). On the other hand, when it is determined that the texture has a fine structure, the image fineness detection unit 17 selects a micro-texture generation interpolation method.

なお、S30の細かさ判定では、例えば、1次勾配値及び2次勾配値のいずれか一方だけを用いて判定することとしてもよい。すなわち、画像細かさ検出部17は、1次勾配値または2次勾配値において、値が大きいほど画像は粗い、小さいほど画像は細かいと判定することとしてもよい。   In the fineness determination in S30, for example, determination may be made using only one of the primary gradient value and the secondary gradient value. In other words, the image fineness detection unit 17 may determine that, in the primary gradient value or the secondary gradient value, the larger the value, the coarser the image, and the smaller, the finer the image.

また、S30の細かさ判定では、1次勾配値および2次勾配値の双方を用いて判定することとしてもよい。この場合、画像細かさ検出部17は、例えば、単位領域ごとに、1次勾配値及び2次勾配値それぞれの平均値を算出(単位領域における1次勾配値および2次勾配値それぞれの値の合計を単位領域の画素数で割る)する。そして、画像細かさ検出部17は、1次勾配値の平均値が小さく、かつ、2次勾配値の平均値が大きい場合は粗いと判定し、1次勾配値の平均値が大きく、かつ、2次勾配値の平均値が小さい場合は細かいと判定するようにしてもよい。なお、平均値の大小を判定する閾値は予めメモリまたは外部記憶装置に記憶されているものとする。   Moreover, in the fineness determination of S30, it is good also as determining using both a primary gradient value and a secondary gradient value. In this case, for example, the image fineness detection unit 17 calculates an average value of each of the primary gradient value and the secondary gradient value for each unit region (the value of each of the primary gradient value and the secondary gradient value in the unit region). Divide the total by the number of pixels in the unit area). The image fineness detection unit 17 determines that the average value of the primary gradient values is small and the average value of the primary gradient values is large when the average value of the primary gradient values is small and the average value of the secondary gradient values is large. When the average value of the secondary gradient value is small, it may be determined that the value is fine. It is assumed that the threshold value for determining the average value is stored in advance in a memory or an external storage device.

次に、画像補正部18が行う欠落画素領域の補正処理について説明する。   Next, the correction process of the missing pixel area performed by the image correction unit 18 will be described.

画像補正部18は、画像細かさ検出部17の判別結果に応じて、ミクロ・テクスチャ生成補完方法(第1の補正方法)、または、マクロ・テクスチャ生成補完方法(第2の補正方法)を用いて欠落画素領域の補正を行う。   The image correction unit 18 uses the micro / texture generation / complementation method (first correction method) or the macro / texture generation / complementation method (second correction method) according to the determination result of the image fineness detection unit 17. To correct the missing pixel area.

図8は、ミクロ・テクスチャ生成補間方法を説明する図である。画像修復技術については古い絵画での専門家による手作業によるものがよく知られており、inpaintingと呼ばれる。新しい絵画や写真でも傷がついたものを本来あったと推定される絵や画像に局所的に置き換えることで違和感のない元の絵や画像に限りなく近いものを復元する技術であり、保存性の観点から重要な手法である。修復される領域の周りの近傍の図柄を手がかりに置き換えが行われているものである。近年、コンピュータグラフィックスの分野では、異方拡散(Anti-Diffusion:AD)方程式を用いた方法で計算機による自動修復が試みられている。なお、異方拡散方程式については、下記の参考文献に記載されている。   FIG. 8 is a diagram for explaining a micro-texture generation interpolation method. The image restoration technique is well known by manual work by experts in old paintings and is called inpainting. It is a technology that restores the original paintings and images as close as possible without any sense of incongruity by locally replacing the scratches in new paintings and photos with the presumed original paintings and images. This is an important method from the viewpoint. The replacement is performed using the nearby symbols around the area to be repaired as a clue. In recent years, in the field of computer graphics, automatic restoration by a computer has been attempted by a method using an anisotropic diffusion (Anti-Diffusion: AD) equation. The anisotropic diffusion equation is described in the following references.

M.Beralmio, G.Sapiro, C.Ballester, and V.Caselles, Computer Graphics, “Image inpainting”, Proceeding of SIGGRAPH 2000, pp.417-424, July 2000
図8はこの原理と考え方を示しており、本来の図柄の画像400に基づいて、その内側の画像が欠落した領域410を補間するものである。欠落した領域410をマスク画像とした場合、その外側は境界条件として含める。そして、マスク画像の法線ベクトルに沿って、周辺の画像400を境界条件として既知(初期値)とする。AD方程式の変数は画像領域の画素とする。初期値をAD方程式に入力して、時間積分を繰り返すことで、境界の図柄が法線ベクトルに沿って内側のマスク画像へ伝播する。その結果、内側のマスク画像に相当する領域420が補間(修復)される。これを繰り返すことで、中心部まですべての領域が周辺の画像情報により修復される。勿論、対象となる図柄に関しても、モノクロからカラーの図柄まで適用可能である。
M.Beralmio, G.Sapiro, C.Ballester, and V.Caselles, Computer Graphics, “Image inpainting”, Proceeding of SIGGRAPH 2000, pp.417-424, July 2000
FIG. 8 shows this principle and concept. Based on the original image 400, the region 410 where the inner image is missing is interpolated. When the missing area 410 is used as a mask image, the outside is included as a boundary condition. Then, along the normal vector of the mask image, the peripheral image 400 is set as a known (initial value) as a boundary condition. The variable of the AD equation is a pixel in the image area. By inputting the initial value into the AD equation and repeating the time integration, the boundary pattern propagates to the inner mask image along the normal vector. As a result, an area 420 corresponding to the inner mask image is interpolated (repaired). By repeating this, all the areas up to the center are restored with the peripheral image information. Of course, it is possible to apply from monochrome to color designs for the target designs.

なお、図6に示す画像においては、ミクロ・テクスチャ生成補間方法におけるマスク画像410は、欠落画素特定部15により自動的に検出される欠落画素領域610である。また、図4の周辺の画像400は、図6では欠落画素領域610を囲む領域620である。また、欠落画素領域610を初期のマスク画像として復元処理(補正)を行うが、ミクロ・テクスチャ生成補間方法を繰り返すと、マスク画像が徐々に外側から内側に復元されていくので、計算に際してマスク画像の領域及びその外側近傍の元となる画像は変動していくものである。   In the image shown in FIG. 6, the mask image 410 in the micro-texture generation interpolation method is a missing pixel region 610 that is automatically detected by the missing pixel specifying unit 15. 4 is a region 620 surrounding the missing pixel region 610 in FIG. Further, the restoration process (correction) is performed with the missing pixel region 610 as an initial mask image. However, when the micro-texture generation interpolation method is repeated, the mask image is gradually restored from the outside to the inside. The original image of the region and the vicinity of the outside of the region changes.

上述したミクロ・テクスチャ生成補間方法は、その名称の通り、細かいテクスチャの表現が得意であり、修復対象領域を任意形状とすることができ、繰り返しのない非周期パターンの画像であっても対応可能であるという特長を有する。   As the name suggests, the micro-texture generation interpolation method described above is good at expressing fine textures, allows the restoration target area to have any shape, and can handle non-repetitive non-periodic pattern images. It has the feature of being.

次に、ミクロ・テクスチャ生成補間方法で用いられる偏微分方程式について説明する。なお、偏微分方程式については、例えば、池田俊介著「流体の非線形現象−数理解析とその応用−」朝倉書店に記載されている。   Next, a partial differential equation used in the micro-texture generation interpolation method will be described. The partial differential equations are described in, for example, Akira Shoten, “Nonlinear phenomena of fluids—Mathematical analysis and its application” by Shunsuke Ikeda.

上述した参考文献の偏微分方程式では、以下に示す式1をメイン方程式とし、所定の時間積分回数ごとに、後述する異方拡散方程式である式8(または式9)を併用する。一方、本実施形態の偏微分方程式では、式1をメイン方程式とし、所定の時間積分回数ごとに、後述する等方拡散方程式10(または式11)を併用する。
In the partial differential equation of the reference document described above, the following equation 1 is used as a main equation, and an anisotropic diffusion equation, which will be described later, equation 8 (or equation 9) is used in combination for each predetermined number of time integrations. On the other hand, in the partial differential equation of the present embodiment, Equation 1 is used as a main equation, and an isotropic diffusion equation 10 (or Equation 11) described later is used in combination for each predetermined number of time integrations.

式1において、画像を構成する画素の画像濃淡値をI、画素を(i,j)、離散化された時間(または時刻)をnとする。これにより、I(i,j)は、画素(i,j)の離散化された時間のn番目における画像濃淡値である。なお、i、j、nは整数である。また、δtは時間幅、Ωは画像補正を行う領域である。画素の縦横の幅は、それぞれΔx、Δyとする。また、式1では、以下に示す式2から式7が用いられる。
In Equation 1, an image gray value of a pixel constituting an image is I, a pixel is (i, j), and a discretized time (or time) is n. Thus, I n (i, j) is an image gray value at the n-th discretized time of the pixel (i, j). Note that i, j, and n are integers. Further, Δt is a time width, and Ω is an area where image correction is performed. The vertical and horizontal widths of the pixels are Δx and Δy, respectively. Further, in Expression 1, Expressions 2 to 7 shown below are used.

「→」はベクトルである。Lは画像に関する情報であるが、式3または式4からわかるように、画像濃淡値の2次の空間微分値である。式5は、単位ベクトルを表す式であって、画像濃淡値の等高線(等濃度線)の法線ベクトルである。すなわち、式5は、既知の画像400から補正する画像410内へ、どちらの方向へ計算を進めるか(補正を行うか)を決定する量である。   “→” is a vector. L is information about the image, but as can be seen from Equation 3 or Equation 4, it is a secondary spatial differential value of the image gray value. Expression 5 is an expression representing a unit vector, and is a normal vector of contour lines (concentration lines) of image gradation values. That is, Expression 5 is an amount for determining which direction the calculation proceeds (correction is performed) from the known image 400 into the image 410 to be corrected.

式7は、画像濃淡値のエッジの大きさを表す式である。式7の右辺の添え字であるf、bについては、fは差分法における前進差分を、bは差分法における後退差分を表す。Minは0と微分値を比べて小さい方を選択し、Maxは0と微分値を比べて大きい方を選択する。なお、これまでの収束判定条件としては、式1における画像濃淡値Iの時間変化がほとんどなくなった場合、もしくは、式2が微小値以下になったときとしていた。   Expression 7 is an expression representing the edge size of the image gray value. For f and b, which are subscripts on the right side of Equation 7, f represents a forward difference in the difference method, and b represents a backward difference in the difference method. Min selects a smaller value comparing 0 and the differential value, and Max selects a larger value comparing 0 and the differential value. Note that the convergence determination condition so far has been that when the temporal change of the image gray value I in Equation 1 has almost disappeared, or when Equation 2 has become a minute value or less.

以下に示す式8は、上述の参考文献で用いられる異方拡散方程式である。
Equation 8 shown below is an anisotropic diffusion equation used in the above-mentioned reference.

また、式8の異方拡散方程式を離散化表現すると以下の式9となる。
Further, when the anisotropic diffusion equation of Expression 8 is expressed in a discrete manner, the following Expression 9 is obtained.

式9では、画像中、エッジ形状を保存しながら拡散させるという2つの効果をあわせもっているのが特徴である。Kは拡散係数相当であって、λは拡散係数である。   Expression 9 is characterized in that it has two effects of diffusing while preserving the edge shape in the image. K is a diffusion coefficient, and λ is a diffusion coefficient.

参考文献においては、式1と式8(または式9)を交互に併用する。その際に、式8は既知画像400の画像濃淡値を境界条件として拾う。その後、式8(または式9)だけで時間積分して補正領域内410に境界条件から拾った画像濃淡値を伝播、拡散させる。しかしながら、エッジ情報を取り出す計算過程と拡散効果が弱いため、所定の距離を伝播させるために、時間積分は等方拡散方程式の場合の数十倍以上と長くかかるという問題がある。また、画質についても、逆にエッジが不自然に残ってしまうため、既知画像400との不連続さが目立つという問題がある。また、異方拡散方程式を用いた場合、補正領域内410において時間積分回数を収束条件から決定することは困難である。   In the reference, Equation 1 and Equation 8 (or Equation 9) are used alternately. At that time, Expression 8 picks up the image gray value of the known image 400 as a boundary condition. After that, the image grayscale value picked up from the boundary condition is propagated and diffused in the correction area 410 by time integration only using Expression 8 (or Expression 9). However, since the calculation process for extracting edge information and the diffusion effect are weak, there is a problem that the time integration takes a long time of several tens of times or more in the case of the isotropic diffusion equation in order to propagate a predetermined distance. Also, the image quality has a problem that the discontinuity with the known image 400 is conspicuous because the edges remain unnatural. When the anisotropic diffusion equation is used, it is difficult to determine the number of time integrations from the convergence condition in the correction region 410.

以下に示す式10は、本実施形態で用いられる等方拡散方程式である。
Equation 10 shown below is an isotropic diffusion equation used in this embodiment.

また、式10の等方拡散方程式を離散化表現すると以下の式11となる。
Further, when the isotropic diffusion equation of Expression 10 is expressed in a discrete manner, the following Expression 11 is obtained.

Kは拡散係数相当であって、λは拡散係数である。また、式10の左辺は画像濃淡値Iに関しての時間変化項、右辺は空間2次微分項である。等方拡散は、拡散係数λの大きさと、単位時間当りの初期の画像濃淡値とを薄めながら、その面積を広げていく効果がある。   K is a diffusion coefficient, and λ is a diffusion coefficient. Further, the left side of Expression 10 is a time change term with respect to the image gray value I, and the right side is a spatial second derivative term. Isotropic diffusion has the effect of expanding the area while diminishing the size of the diffusion coefficient λ and the initial image gray level per unit time.

ここで、式11の等方拡散方程式を適用する際に、拡散係数λと時間積分回数とを、決定(設定)する必要がある。拡散係数λおよび時間積分回数は、経験などにもとづいて、所定の値をそれぞれ固定的に設定することが考えられるが、補正される画像の画質に不均一さが目立つ危険性がある。そこで、本実施形態では、補正を行う補正領域(欠落画素領域)の平均補正距離基づいて、拡散係数λおよび時間積分回数を決定する。まず、画像補正部18は、拡散係数を決定するために、平均補正距離を算出する。   Here, when applying the isotropic diffusion equation of Equation 11, it is necessary to determine (set) the diffusion coefficient λ and the number of time integrations. It is conceivable that the diffusion coefficient λ and the number of time integrations are fixedly set to predetermined values based on experience or the like, but there is a risk that non-uniformity is noticeable in the image quality of the corrected image. Therefore, in the present embodiment, the diffusion coefficient λ and the number of time integrations are determined based on the average correction distance of the correction area (missing pixel area) to be corrected. First, the image correction unit 18 calculates an average correction distance in order to determine a diffusion coefficient.

図9は、平均補正距離の算出方法を説明するための図である。まず、画像補正部18は、補正領域91を囲む、最大円92を特定する。そして、画像補正部18は、円の中心点93から補正領域91外周までの距離(補正距離)94を、複数サンプリングする。そして、画像補正部18は、サンプリングした複数の補正距離の平均値を算出し、平均補正距離とする。   FIG. 9 is a diagram for explaining a method of calculating the average correction distance. First, the image correction unit 18 specifies the maximum circle 92 that surrounds the correction area 91. Then, the image correction unit 18 samples a plurality of distances (correction distances) 94 from the center point 93 of the circle to the outer periphery of the correction area 91. Then, the image correction unit 18 calculates an average value of the plurality of sampled correction distances and sets it as the average correction distance.

図10は、拡散係数と平均補正距離との関係を示す拡散係数決定グラフの一例である。拡散方程式は線形であるため、画像を伝播する距離(平均補正距離)と拡散係数の大きさとの間も比例関係にある。そのため、事前に画像を用いて予備実験を行うことにより、図10に示すような拡散係数と平均補正距離との関係を示すグラフを容易に作成することができる。なお、画像補正装置1のメモリまたは外部記憶装置には、拡散係数決定グラフ(または当該グラフから作成される拡散係数と平均画像距離の対応表)が記憶されているものとする。画像補正部18は、メモリ等に記憶された拡散係数決定グラフを参照し、平均補正距離に対応する拡散係数を決定する。   FIG. 10 is an example of a diffusion coefficient determination graph showing the relationship between the diffusion coefficient and the average correction distance. Since the diffusion equation is linear, the distance through which an image propagates (average correction distance) and the magnitude of the diffusion coefficient are also proportional. Therefore, by performing a preliminary experiment using an image in advance, a graph showing the relationship between the diffusion coefficient and the average correction distance as shown in FIG. 10 can be easily created. It is assumed that a diffusion coefficient determination graph (or a correspondence table of diffusion coefficients and average image distance created from the graph) is stored in the memory or the external storage device of the image correction apparatus 1. The image correction unit 18 refers to a diffusion coefficient determination graph stored in a memory or the like, and determines a diffusion coefficient corresponding to the average correction distance.

図11は、拡散係数と時間積分回数との関係を示す時間積分数回数決定グラフの一例である。平均補正距離が大きくなると、それに比例して時間積分回数も多くする必要がある。逆にいえば、拡散係数と時間積分回数とは反比例の関係にあり、拡散係数が大きい場合は、時間積分回数は少なくて済む。そのため、事前に画像を用いて予備実験を行うことにより、図11に示すような拡散係数と時間積分回数との関係を示すグラフを容易に作成することができる。なお、画像補正装置1のメモリ等には、時間積分回数決定グラフ(または当該グラフから作成される拡散係数と時間積分回数の対応表)が記憶されているものとする。画像補正部18は、メモリ等に記憶された時間積分回数決定グラフを参照し、図10で決定した拡散係数に対応する時間積分回数を決定する。   FIG. 11 is an example of a time integration count determination graph showing the relationship between the diffusion coefficient and the time integration count. As the average correction distance increases, the number of time integrations needs to be increased in proportion thereto. In other words, the diffusion coefficient and the number of time integrations are inversely proportional, and when the diffusion coefficient is large, the number of time integrations is small. Therefore, by performing a preliminary experiment using an image in advance, a graph showing the relationship between the diffusion coefficient and the number of time integrations as shown in FIG. 11 can be easily created. It is assumed that a time integration number determination graph (or a correspondence table of the diffusion coefficient and the time integration number created from the graph) is stored in the memory or the like of the image correction apparatus 1. The image correction unit 18 refers to a time integration number determination graph stored in a memory or the like, and determines a time integration number corresponding to the diffusion coefficient determined in FIG.

本実施形態では、等方拡散方程式を用いることにより、計算速度が向上するとともに、補正を均質化し画質を向上することができる。また、拡散係数および時間積分回数を平均補正距離に応じて決定することにより、高品質の画質を確保し、収束条件(時間積分回数)を与えることができる。   In the present embodiment, by using the isotropic diffusion equation, the calculation speed can be improved, the correction can be made uniform, and the image quality can be improved. Further, by determining the diffusion coefficient and the number of time integrations according to the average correction distance, it is possible to ensure high quality image quality and to give a convergence condition (time integration number).

次に、マクロ・テクスチャ生成補間方法について説明する。   Next, a macro / texture generation interpolation method will be described.

図12は、マクロ・テクスチャ生成補間方法を説明する図である。本実施形態のマクロ・テクスチャ生成補間方法(Li-Yi Wei and M.Levoy,“Texture systhesis over arbitrary manifold surfaces”, Proceeding of SIGGRAPH 2001, pp.355-360, Aug.2001を参照)によれば、元となる小さい面積のテクスチャ構造に富んだ画像500があるとすると、大きい面積の画像510を小さい面積の画像500からテクスチャの模様の自然な連続性を保ちながら生成補間することができる。生成方法は、画像500の中から複数画素で構成されたL字型オペレーター520を取得し、このL字型オペレーター520を画像510の所定の場所にコピーするものである。元となる小さい画像500を反復的に使用することにより(取得されるL字型オペレーター520は、毎回異なる複数画素で構成される)、画像510を生成するものである。   FIG. 12 is a diagram for explaining a macro / texture generation interpolation method. According to the macro-texture generation interpolation method of this embodiment (see Li-Yi Wei and M. Levoy, “Texture systhesis over arbitrary manifold surfaces”, Proceeding of SIGGRAPH 2001, pp.355-360, Aug. 2001) Assuming that there is an image 500 rich in the texture structure of a small area as a base, an image 510 of a large area can be generated and interpolated from the image 500 of a small area while maintaining the natural continuity of the texture pattern. In the generation method, an L-shaped operator 520 composed of a plurality of pixels is acquired from the image 500, and the L-shaped operator 520 is copied to a predetermined location in the image 510. By repeatedly using the original small image 500 (the acquired L-shaped operator 520 is composed of a plurality of different pixels each time), an image 510 is generated.

マクロ・テクスチャ生成補間方法は、その名称の通り、粗いテクスチャの表現が得意であり、揺らぎのある有機的な繰り返しパターンに有効であるとともに、処理時間が速いという特長を有する。   As its name suggests, the macro-texture generation interpolation method is good at expressing rough textures, is effective for organic repetitive patterns with fluctuations, and has a feature of fast processing time.

画像補正部18は、画像細かさ検出部17が図7のS30(画像の細かさ判定)において、粗い画像と判別した場合、上述のマクロ・テクスチャ生成補間方法を用いて欠落画素領域の補正を行う。なお、図6に示す画像においては、画像補正部18は、欠落画素領域610の近傍に、L字型オペレーター630を設定する。   When the image fineness detection unit 17 determines that the image is a coarse image in S30 (image fineness determination) in FIG. 7, the image correction unit 18 corrects the missing pixel region using the macro / texture generation interpolation method described above. Do. In the image shown in FIG. 6, the image correction unit 18 sets an L-shaped operator 630 near the missing pixel region 610.

上述した画像補正処理の後、表示部19は、欠落画素領域が画素単位に補正された画像を、バッファから読み出して出力装置に表示する。すなわち、表示部19は、図3に示すように、パケットロスの発生により画像の中に穴があいたような不自然な画質の欠落画素領域310が補正された後の画像320を表示する。これにより、違和感のない高品質の画像を表示することができる。   After the image correction process described above, the display unit 19 reads out an image in which the missing pixel region is corrected in units of pixels from the buffer and displays the image on the output device. That is, as shown in FIG. 3, the display unit 19 displays the image 320 after correcting the unnatural image quality missing pixel region 310 such that the image has a hole due to the occurrence of packet loss. Thereby, a high quality image without a sense of incongruity can be displayed.

図13および図14は、画質評価実験の結果をグラフ化したものである。   13 and 14 are graphs showing the results of image quality evaluation experiments.

図13は、画像の動き速度を、遅いものから速いものへと変化させて実験したグラフである。縦軸はMOS(Mean Opinion Score)であって、横軸は画像の動き速度である。MOSは、主観評価であって、図示する例では「5(画質上問題なし)」から「1(非常に気になる)」までの5段階で評価している。実験は、被験者5人各々が、動き速度の異なる各動画像を3回ずつみて評価したものである。   FIG. 13 is a graph obtained by experimenting by changing the moving speed of an image from a slow one to a fast one. The vertical axis represents MOS (Mean Opinion Score), and the horizontal axis represents the motion speed of the image. The MOS is a subjective evaluation, and in the illustrated example, the evaluation is made in five stages from “5 (no problem in image quality)” to “1 (very worrisome)”. In the experiment, each of five test subjects evaluated each moving image with different motion speeds by three times.

図13では、本実施形態の画像補正装置1を用いて欠落画素領域を補正した場合131、動き速度が速い画像であっても、急激にMOSが低下することなく、高いMOSを確保できる(すなわち画質の劣化を極力抑制できる)ことを示している。一方、誤り訂正技術を用いて欠落画素領域を補正した場合132、動き速度が速い画像では、急激にMOSが低下してしまうことを示している。なお、誤り訂正技術では、欠落画素を、過去の画像フレームの対応する画素に単純に置き換えて補正したものである。   In FIG. 13, when the missing pixel region is corrected 131 using the image correction apparatus 1 of the present embodiment 131, a high MOS can be ensured even if the image has a fast motion speed without a sudden decrease in MOS (that is, Image quality deterioration can be suppressed as much as possible). On the other hand, when the missing pixel region is corrected 132 using the error correction technique, it is indicated that the MOS is rapidly decreased in the image having a high motion speed. In the error correction technique, the missing pixel is corrected by simply replacing it with the corresponding pixel in the past image frame.

図14は、画像模様(テクスチャ)の細かさを、粗いものから細かいものへと変化させて実験したグラフである。縦軸は図13と同様のMOSであって、横軸は画像模様の細かさである。図14では、本実施形態の画像補正装置1を用いて欠落画素領域を補正した場合141、画像模様が細かい画像であっても、急激にMOSが低下することなく、高いMOSを確保できる(すなわち画質の劣化を極力抑制できる)ことを示している。一方、誤り訂正技術を用いて欠落画素領域を補正した場合142、画像模様が細かい画像では、急激にMOSが低下してしまうことを示している。   FIG. 14 is a graph obtained by experimenting by changing the fineness of the image pattern (texture) from coarse to fine. The vertical axis is the same MOS as in FIG. 13, and the horizontal axis is the fineness of the image pattern. In FIG. 14, when the missing pixel region is corrected using the image correction apparatus 1 of the present embodiment 141, even if the image pattern is a fine image, a high MOS can be ensured without a sudden decrease in MOS (that is, Image quality deterioration can be suppressed as much as possible). On the other hand, when the missing pixel region is corrected 142 using the error correction technique 142, it is indicated that the MOS sharply decreases in an image with a fine image pattern.

以上説明した本実施形態では、過去の画像フレームを用いることなく、パケットロスによる欠落画素領域を、当該領域近傍の画像に基づいて画素単位に補正する。これにより、動きが速い動画像や画像模様が細かい画像であっても、画像の劣化を極力抑制し、視覚的に違和感のない高品質の画像を表示することができる。   In the present embodiment described above, a missing pixel region due to packet loss is corrected on a pixel basis based on an image in the vicinity of the region without using a past image frame. Thereby, even if it is a moving image with a quick motion, or an image with a fine image pattern, degradation of an image can be suppressed as much as possible, and a high quality image without a visually uncomfortable feeling can be displayed.

また、本実施形態では、パケットロスを検出して欠落画素位置を特定した後、受信したパケットを2次元配列でバッファリングする。これにより、欠落画素領域の近傍の画像を特定し、偏微分方程式の既知の画像400および補正画像410を取得することができる。   In this embodiment, after detecting a packet loss and specifying a missing pixel position, the received packet is buffered in a two-dimensional array. Thereby, an image in the vicinity of the missing pixel region can be specified, and the known image 400 and the corrected image 410 of the partial differential equation can be acquired.

また、本実施形態の偏微分方程式では、等方拡散方程式を用いる。これにより、計算速度が向上するとともに、補正を均質化し画質を向上することができる。また、拡散係数および時間積分回数を平均補正距離に応じて決定することにより、高品質の画質を確保し、収束条件(時間積分回数)を与えることができる。   In the partial differential equation of this embodiment, an isotropic diffusion equation is used. As a result, the calculation speed can be improved, the correction can be made uniform, and the image quality can be improved. Further, by determining the diffusion coefficient and the number of time integrations according to the average correction distance, it is possible to ensure high quality image quality and to give a convergence condition (time integration number).

この結果、本発明は、ブロードバンド時代の新しい映像通信技術および画像変換技術の中核となるものであり、デジタルカメラ、デジタルビデオ、デジタルテレビをはじめとするデジタル画像機器において、家庭からプロ仕様まで幅広く利用されることが考えられる。   As a result, the present invention is the core of new video communication technology and image conversion technology in the broadband age, and is widely used from home to professional specifications in digital image equipment such as digital cameras, digital video, and digital television. It is thought that it is done.

なお、本発明は上記の実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。例えば、上記実施形態では、1つの画像に1つの欠落画素領域が存在する場合を例に説明した(図3参照)。しかしながら、本発明はこれに限定されず、1つの画像に複数の欠落画素領域が点在する場合であってもよい。この場合、各欠落画素領域の近傍の画像の細かさに応じて、ミクロ・テクスチャ生成補間方法およびマクロ・テクスチャ生成補間方法を混在させて画像を補正することが考えられる。   In addition, this invention is not limited to said embodiment, Many deformation | transformation are possible within the range of the summary. For example, in the above-described embodiment, a case where one missing pixel region exists in one image has been described as an example (see FIG. 3). However, the present invention is not limited to this, and may be a case where a plurality of missing pixel regions are scattered in one image. In this case, it is conceivable to correct the image by mixing the micro-texture generation interpolation method and the macro-texture generation interpolation method in accordance with the fineness of the image in the vicinity of each missing pixel region.

本発明の一実施形態が適用された画像補正装置の全体構成を示す図である。1 is a diagram illustrating an overall configuration of an image correction apparatus to which an embodiment of the present invention is applied. 誤り訂正技術により、欠落画素領域を補正した例である。This is an example in which a missing pixel region is corrected by an error correction technique. 画像補正装置により、欠落画素領域を補正した例である。This is an example in which a missing pixel region is corrected by an image correction device. パケットロスの検出方法を説明するための図である。It is a figure for demonstrating the detection method of a packet loss. バッファリング処理を説明するための図である。It is a figure for demonstrating a buffering process. 2次元配列でバッファに記憶された画像の一例である。It is an example of the image memorize | stored in the buffer by the two-dimensional arrangement | sequence. 画像細かさ検出部のフローチャートである。It is a flowchart of an image fineness detection part. ミクロ・テクスチャ生成補間方法を説明する図である。It is a figure explaining the micro texture generation interpolation method. 等方拡散方程式の平均補正距離を説明するための図である。It is a figure for demonstrating the average correction distance of an isotropic diffusion equation. 等方拡散方程式の拡散係数を決定するグラフである。It is a graph which determines the diffusion coefficient of an isotropic diffusion equation. 等方拡散方程式の時間積分回数を決定するグラフである。It is a graph which determines the number of time integrations of an isotropic diffusion equation. マクロ・テクスチャ生成補間方法を説明する図である。It is a figure explaining a macrotexture production | generation interpolation method. 画像の動き速度を変化させた画質評価実験結果をグラフ化した図である。It is the figure which graphed the image quality evaluation experiment result which changed the motion speed of the image. 画像の細かさを変化させた画質評価実験結果をグラフ化した図である。It is the figure which graphed the image quality evaluation experiment result which changed the fineness of the image.

符号の説明Explanation of symbols

1:画像補正装置、11:画像入力部、12:画像蓄積部、13:デコード部、14:パケットロス検出部、15:欠落画素特定領域、16:バッファリング部、17:画像細かさ検出部、18:画像補正部、19:表示部   DESCRIPTION OF SYMBOLS 1: Image correction apparatus, 11: Image input part, 12: Image storage part, 13: Decoding part, 14: Packet loss detection part, 15: Missing pixel specific area | region, 16: Buffering part, 17: Image fineness detection part , 18: Image correction unit, 19: Display unit

Claims (8)

画像補正装置であって、
ネットワークを介して受信した複数の画像データの中から、エラーデータを検出する検出手段と、
画像の中で前記エラーデータの表示部分である欠落領域を特定する特定手段と、
前記欠落領域の周辺に表示される周辺画素を特定し、当該周辺画素に基づいて、前記欠落領域の画素を当該欠落領域の外側から内側へと生成し、前記欠落領域を画素単位に補正する第1の補正手段と、を備え、
前記第1の補正手段は、前記周辺画素に対して偏微分方程式を適用し、前記欠落領域の画素を当該欠落領域の外側から内側へと生成して前記欠落領域を画素単位に補正し、前記偏微分方程式は、等方的に拡散させる等方拡散方程式にもとづいており、
前記第1の補正手段は、前記欠落領域を囲む円を特定し、当該円の中心から前記欠落領域外周までの平均補正距離を算出し、前記平均補正距離に比例した前記等方拡散方程式の拡散係数を決定すること、
を特徴とする画像補正装置。
An image correction device,
Detecting means for detecting error data from a plurality of image data received via a network;
A specifying means for specifying a missing area which is a display part of the error data in the image;
A peripheral pixel to be displayed around the missing region is identified, and based on the neighboring pixel, a pixel in the missing region is generated from the outside to the inside of the missing region, and the missing region is corrected in pixel units. 1 correction means,
The first correction unit applies a partial differential equation to the surrounding pixels, generates pixels in the missing region from the outside to the inside of the missing region, corrects the missing region in units of pixels, and The partial differential equation is based on the isotropic diffusion equation that isotropically diffuses,
The first correction means identifies a circle surrounding the missing region, calculates an average correction distance from the center of the circle to the outer periphery of the missing region, and diffuses the isotropic diffusion equation proportional to the average correction distance. Determining the coefficient,
An image correction apparatus characterized by the above.
請求項1記載の画像補正装置であって、
前記受信した複数の画像データを、2次元に記憶するバッファ記憶手段と、
前記画像データ各々を、当該画像データのアドレス情報に基づいて、前記バッファ記憶手段の所定の位置に記憶するバッファリング手段と、をさらに有し、
前記第1の補正手段は、前記画像データが2次元に記憶されたバッファ記憶手段を読み出して、前記欠落領域の周辺に表示される周辺画素を特定すること
を特徴とする画像補正装置。
The image correction apparatus according to claim 1,
Buffer storage means for storing the received plurality of image data in two dimensions;
Buffering means for storing each of the image data in a predetermined position of the buffer storage means based on address information of the image data;
The image correction apparatus according to claim 1, wherein the first correction unit reads a buffer storage unit in which the image data is two-dimensionally stored, and specifies peripheral pixels displayed around the missing region.
請求項1記載の画像補正装置であって、
前記偏微分方程式は、前記等方拡散方程式にもとづいており、計算格子面で離散化して適用されること
を特徴とする画像補正装置。
The image correction apparatus according to claim 1,
The partial correction equation is based on the isotropic diffusion equation, and is applied by being discretized on a calculation lattice plane.
請求項1記載の画像補正装置であって、
前記欠落領域の周辺に表示される周辺領域の画像の細かさを検出し、当該周辺領域がミクロテクスチャかマクロテクスチャかを判別する判別手段と、
マクロテクスチャと判別された場合、前記欠落領域の近傍の複数画素で構成された各パターンを反復的に使用して生成補間するマクロテクスチャ補間方法を用いて、前記欠落領域を補正する第2の補正手段と、をさらに有すること
を特徴とする画像補正装置。
The image correction apparatus according to claim 1,
Detecting means for detecting the fineness of the image of the peripheral area displayed around the missing area, and determining whether the peripheral area is a micro texture or a macro texture;
A second correction that corrects the missing region using a macro texture interpolation method that generates and interpolates each pattern composed of a plurality of pixels in the vicinity of the missing region when it is determined as a macro texture. And an image correction apparatus.
請求項4記載の画像補正装置であって、
前記マクロテクスチャ補間方法で反復的に使用される各パターンは、L字型を有すること
を特徴とする画像補正装置。
The image correction apparatus according to claim 4 ,
Each pattern used repeatedly in the macro texture interpolation method has an L shape.
請求項4または請求項5記載の画像補正装置であって、
前記判別手段は、周辺領域の画像の細かさを、当該周辺領域の画像濃淡値の空間1次微分値および空間2次微分値のうち、少なくともいずれか一方に基づいて判別すること
を特徴とする画像補正装置。
The image correction apparatus according to claim 4 or 5 , wherein
The discriminating unit discriminates the fineness of the image of the peripheral region based on at least one of the spatial first derivative value and the spatial second derivative value of the image gray value of the peripheral region. Image correction device.
情報処理装置が行う画像補正方法であって、
前記情報処理装置は、
ネットワークを介して受信した複数の画像データの中から、エラーデータを検出する検出ステップと、
画像の中で前記エラーデータの表示部分である欠落領域を特定する特定ステップと、
前記欠落領域の周辺に表示される周辺画素を特定し、当該周辺画素に基づいて、前記欠落領域の画素を当該欠落領域の外側から内側へと生成し、前記欠落領域を画素単位に補正する補正ステップと、を行い、
前記補正ステップは、前記周辺画素に対して偏微分方程式を適用し、前記欠落領域の画素を当該欠落領域の外側から内側へと生成して前記欠落領域を画素単位に補正し、前記偏微分方程式は、等方的に拡散させる等方拡散方程式にもとづいており、
前記補正ステップは、前記欠落領域を囲む円を特定し、当該円の中心から前記欠落領域外周までの平均補正距離を算出し、前記平均補正距離に比例した前記等方拡散方程式の拡散係数を決定すること
を特徴とする画像補正方法。
An image correction method performed by an information processing apparatus,
The information processing apparatus includes:
A detection step of detecting error data from a plurality of image data received via the network;
A specific step of identifying a missing area that is a display part of the error data in the image;
Correction that identifies peripheral pixels displayed around the missing area, generates pixels of the missing area from the outside to the inside of the missing area based on the surrounding pixels, and corrects the missing area in units of pixels and step, stomach line,
The correction step applies a partial differential equation to the surrounding pixels, generates pixels of the missing region from the outside to the inside of the missing region, corrects the missing region in units of pixels, and the partial differential equation Is based on the isotropic diffusion equation for isotropic diffusion,
The correction step specifies a circle surrounding the missing area, calculates an average correction distance from the center of the circle to the outer periphery of the missing area, and determines a diffusion coefficient of the isotropic diffusion equation proportional to the average correction distance. An image correction method characterized by:
情報処理装置が実行する画像補正プログラムであって、
前記情報処理装置に、
ネットワークを介して受信した複数の画像データの中から、エラーデータを検出する検出ステップと、
画像の中で前記エラーデータの表示部分である欠落領域を特定する特定ステップと、
前記欠落領域の周辺に表示される周辺画素を特定し、当該周辺画素に基づいて、前記欠落領域の画素を当該欠落領域の外側から内側へと生成し、前記欠落領域を画素単位に補正する補正ステップと、を実行させ、
前記補正ステップは、前記周辺画素に対して偏微分方程式を適用し、前記欠落領域の画素を当該欠落領域の外側から内側へと生成して前記欠落領域を画素単位に補正し、前記偏微分方程式は、等方的に拡散させる等方拡散方程式にもとづいており、
前記補正ステップは、前記欠落領域を囲む円を特定し、当該円の中心から前記欠落領域外周までの平均補正距離を算出し、前記平均補正距離に比例した前記等方拡散方程式の拡散係数を決定すること
を特徴とする画像補正プログラム。
An image correction program executed by the information processing apparatus,
In the information processing apparatus,
A detection step of detecting error data from a plurality of image data received via the network;
A specific step of identifying a missing area that is a display part of the error data in the image;
Correction that identifies peripheral pixels displayed around the missing area, generates pixels of the missing area from the outside to the inside of the missing area based on the surrounding pixels, and corrects the missing area in units of pixels and step, to the execution,
The correction step applies a partial differential equation to the surrounding pixels, generates pixels of the missing region from the outside to the inside of the missing region, corrects the missing region in units of pixels, and the partial differential equation Is based on the isotropic diffusion equation for isotropic diffusion,
The correction step specifies a circle surrounding the missing area, calculates an average correction distance from the center of the circle to the outer periphery of the missing area, and determines a diffusion coefficient of the isotropic diffusion equation proportional to the average correction distance. An image correction program characterized by:
JP2005297798A 2005-10-12 2005-10-12 Image correction apparatus, image correction method, and image correction program Active JP4163709B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005297798A JP4163709B2 (en) 2005-10-12 2005-10-12 Image correction apparatus, image correction method, and image correction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005297798A JP4163709B2 (en) 2005-10-12 2005-10-12 Image correction apparatus, image correction method, and image correction program

Publications (2)

Publication Number Publication Date
JP2007110329A JP2007110329A (en) 2007-04-26
JP4163709B2 true JP4163709B2 (en) 2008-10-08

Family

ID=38035841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005297798A Active JP4163709B2 (en) 2005-10-12 2005-10-12 Image correction apparatus, image correction method, and image correction program

Country Status (1)

Country Link
JP (1) JP4163709B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8731324B1 (en) 2012-11-02 2014-05-20 Cyberlink Corp. Systems and methods for performing image inpainting
JP5834253B2 (en) 2013-03-27 2015-12-16 パナソニックIpマネジメント株式会社 Image processing apparatus, image processing method, and image processing program
JP5849206B2 (en) 2013-03-27 2016-01-27 パナソニックIpマネジメント株式会社 Image processing apparatus, image processing method, and image processing program
JP5899475B2 (en) 2013-04-05 2016-04-06 パナソニックIpマネジメント株式会社 Image processing apparatus, image processing method, and image processing program
WO2023224078A1 (en) * 2022-05-18 2023-11-23 株式会社小糸製作所 Automotive sensing system and method for detecting curb

Also Published As

Publication number Publication date
JP2007110329A (en) 2007-04-26

Similar Documents

Publication Publication Date Title
US10529066B2 (en) Assessing quality of images or videos using a two-stage quality assessment
KR101108435B1 (en) False contour correction method and display apparatus to be applied to the same
Jung et al. A new histogram modification based reversible data hiding algorithm considering the human visual system
US9092855B2 (en) Method and apparatus for reducing noise introduced into a digital image by a video compression encoder
US20060233456A1 (en) Apparatus for removing false contour and method thereof
JP4163709B2 (en) Image correction apparatus, image correction method, and image correction program
JP4173897B2 (en) Image correction apparatus and image correction method
WO2007063771A1 (en) Image processing device, display device, image processing method, and program
US20100128181A1 (en) Seam Based Scaling of Video Content
JP5824155B2 (en) Anisotropic gradient regularization for image denoising, compression and interpolation
JPWO2018225133A1 (en) Image processing apparatus, image processing method, and image processing program
JP6402088B2 (en) Video quality estimation apparatus, video quality estimation method, and program
KR102401783B1 (en) Image displaying apparatus and method of controlling the same
JP2008147880A (en) Image compression apparatus and method, and its program
JPWO2019026263A1 (en) Image processing apparatus, image processing method, and image processing program
JP5377649B2 (en) Image processing apparatus and video reproduction apparatus
JP2014112790A (en) Image processing apparatus, image processing method, and image processing program
US8811766B2 (en) Perceptual block masking estimation system
JP2009521168A (en) Reduction of compression artifacts in displayed images
JP4328780B2 (en) Unnecessary area image erasing apparatus and unnecessary area image erasing method
JP2017097397A (en) Image processing method, image processing apparatus and image processing program
JPH09252400A (en) Image processor and its method
JP3889629B2 (en) Image processing apparatus, image processing method, and image processing program
US8842184B2 (en) Method for determining a quality measure for a video image and apparatus for determining a quality measure for a video image
JP2006060286A (en) Method and device for block noise reduction

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080724

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110801

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4163709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120801

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130801

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140801

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250