JP2010288092A - Device and method for processing video - Google Patents

Device and method for processing video Download PDF

Info

Publication number
JP2010288092A
JP2010288092A JP2009140547A JP2009140547A JP2010288092A JP 2010288092 A JP2010288092 A JP 2010288092A JP 2009140547 A JP2009140547 A JP 2009140547A JP 2009140547 A JP2009140547 A JP 2009140547A JP 2010288092 A JP2010288092 A JP 2010288092A
Authority
JP
Japan
Prior art keywords
accompanying information
image
pixel
video
flicker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009140547A
Other languages
Japanese (ja)
Inventor
Kazunori Inoue
和紀 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009140547A priority Critical patent/JP2010288092A/en
Publication of JP2010288092A publication Critical patent/JP2010288092A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and method for processing video which increases an information transmission amount of an accompanying information image. <P>SOLUTION: The device (200) for processing video includes: a frame image obtaining part (210) for obtaining a series of frame images constituting the video; an accompanying information insertion part (230) for inserting an accompanying information image changing in terms of a frame image in each of the frame images; a flicker pixel insertion part (240) for inserting a flicker pixels having a pixel value repeatedly changed in each of the accompanying information images inserted on a frame image basis; and a moving image encoding part (250) for executing an encoding process associated with an inter-frame compression process to the series of frame images with the accompanying information images including the flicker pixels inserted therein. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、映像に付随情報を挿入する映像処理装置および映像処理方法に関する。   The present invention relates to a video processing apparatus and a video processing method for inserting accompanying information into a video.

映像にパターンを重畳することによって、映像に付随情報を挿入することが、従来行われている。具体的には、例えば、位置、形状、輝度、色情報等に関して所定の規則で形成される図形やパターンを、予め映像の送信側と受信側との間で定義しておく。そして、送信側の映像処理装置は、定義に従って付随情報を画像に変換し、生成した画像(以下「付随情報画像」という)を映像に重畳する。一方、受信側の映像処理装置は、定義に従って映像から付随情報画像を抽出し、抽出した付随情報画像から付随情報を復元する。これにより、映像を媒体として付随情報を伝達することができる。   Conventionally, accompanying information is inserted into a video by superimposing a pattern on the video. Specifically, for example, figures and patterns formed according to predetermined rules with respect to position, shape, brightness, color information, etc. are defined in advance between the video transmission side and the video reception side. Then, the video processing apparatus on the transmission side converts the accompanying information into an image according to the definition, and superimposes the generated image (hereinafter referred to as “accompanying information image”) on the video. On the other hand, the video processing apparatus on the receiving side extracts the accompanying information image from the video according to the definition, and restores the accompanying information from the extracted accompanying information image. Thereby, accompanying information can be transmitted using video as a medium.

具体的には、例えば、表示の目的とする映像(以下「メイン映像」という)の表示領域以外の映像領域に、時刻情報等の付随情報画像を重畳する技術が、特許文献1に記載されている。また、物流分野等で広く用いられているバーコードのような多値コードのパターン画像を、付随情報画像として採用する技術が、特許文献2に記載されている。   Specifically, for example, Patent Document 1 discloses a technique for superimposing an accompanying information image such as time information on a video area other than a display area of a video to be displayed (hereinafter referred to as “main video”). Yes. Patent Document 2 discloses a technique that employs a pattern image of a multi-value code such as a barcode that is widely used in the physical distribution field or the like as an accompanying information image.

ところで、映像の保存や送信に際して、フレーム間圧縮を伴うエンコード処理を映像に対して行うことが、一般的に行われている。このようなフレーム間圧縮は、例えば、MPEG(motion picture expert group)で規定されるデジタル映像フォーマットにおいて用いられている。   By the way, when storing or transmitting a video, it is common to perform an encoding process with inter-frame compression on the video. Such interframe compression is used, for example, in a digital video format defined by MPEG (motion picture expert group).

フレーム間圧縮では、映像の劣化を抑えながら情報を切り捨てるための1つの手法として、動き補償と呼ばれるデータ圧縮処理が行われる。動き補償は、フレーム画像を区分した画素ブロックのうち、フレーム間の画素値の変化が大きい画素ブロックの情報量を高く保持し、他の画素ブロックの情報量を削減する処理である。言い換えると、動き補償は、フレーム間の画素値の変化が視認し難く微小であるほど、高い圧縮率で圧縮する処理である。   In inter-frame compression, a data compression process called motion compensation is performed as one method for truncating information while suppressing deterioration of video. Motion compensation is a process of keeping the information amount of a pixel block having a large change in pixel value between frames among pixel blocks obtained by dividing a frame image high and reducing the information amount of other pixel blocks. In other words, motion compensation is a process of compressing at a higher compression rate as the change in pixel value between frames is less visible and minute.

このように映像は、フレーム間圧縮を行うことにより、映像の劣化を抑えた状態でデータ量を大幅に削減することができ、映像のストリーミング配信等の各種用途への適用が容易となる。   In this way, by performing inter-frame compression, the amount of data of the video can be greatly reduced while suppressing the deterioration of the video, and application to various applications such as video streaming distribution becomes easy.

ところが、上述の付随情報画像を映像に挿入する場合、付随情報画像は、フレーム間圧縮によって、情報量の削減の影響を大きく受けるおそれがある。付随情報画像は、情報量の削減の影響で欠落が生じると、受信側で付随情報を正しく復元することができない。   However, when the above-described accompanying information image is inserted into a video, the accompanying information image may be greatly affected by the reduction in the amount of information due to inter-frame compression. If the accompanying information image is lost due to the reduction in the amount of information, the receiving side cannot correctly restore the accompanying information.

そこで、フレーム間圧縮を考慮して付随情報画像の重畳状態を制御する技術が、例えば特許文献3に記載されている。   Therefore, for example, Patent Literature 3 describes a technique for controlling the superimposed state of the accompanying information image in consideration of inter-frame compression.

図1は、特許文献3記載の情報付加装置の概略を示すブロック図である。情報付加装置10は、ばらつき度演算部20、付随情報生成部30、付随情報挿入部40、およびエンコード部50を有する。   FIG. 1 is a block diagram showing an outline of an information adding device described in Patent Document 3. As shown in FIG. The information adding device 10 includes a variation degree calculation unit 20, an accompanying information generation unit 30, an accompanying information insertion unit 40, and an encoding unit 50.

付随情報挿入部40は、入力されたフレーム画像毎に、付随情報生成部30が生成した付随情報を重畳する。このとき、ばらつき度演算部20は、入力したフレーム毎、および画素ブロック毎に、画素ブロック内の画像信号のばらつき度を求める。そして、付随情報挿入部40は、求めたばらつき度に応じて付加情報の重畳の仕方を変える。エンコード部50は、付随情報画像が重畳された一連のフレーム画像に対して、動画データを得るためのエンコード処理を行う。これにより、映像処理装置10は、外乱に対する付随情報画像のロバスト性(堅牢性)を向上させ、付随情報の伝達精度を向上させることができる。   The accompanying information inserting unit 40 superimposes the accompanying information generated by the accompanying information generating unit 30 for each input frame image. At this time, the variation degree calculation unit 20 obtains the variation degree of the image signal in the pixel block for each input frame and each pixel block. Then, the accompanying information insertion unit 40 changes the method of superimposing the additional information according to the obtained degree of variation. The encoding unit 50 performs an encoding process for obtaining moving image data on a series of frame images on which the accompanying information images are superimposed. Thereby, the video processing apparatus 10 can improve the robustness (robustness) of the accompanying information image with respect to disturbance, and can improve the transmission accuracy of the accompanying information.

特開2002−271759号公報JP 2002-271759 A 特開平8−44809号公報JP-A-8-44809 特開平11−98475号公報JP 11-98475 A

しかしながら、特許文献3記載の技術では、付随情報画像の情報伝達量を増大させることが難しいという課題がある。   However, the technique described in Patent Document 3 has a problem that it is difficult to increase the information transmission amount of the accompanying information image.

理由は以下の通りである。メイン映像の表示領域を確保した状態で付随情報のある時間長さにおける情報伝達量を増やすためには、複数の付随情報を切り替えて表示することが有効である。この場合、付随情報画像は、映像の時間軸に対応して変化する。ところが、上述の通り、フレーム間圧縮処理においては、通常、フレーム間の画素値の変化が微小な画素ブロックは、時間周波数におけるDCT(離散コサイン変換)係数値等の量子化により、情報量が削減されてしまう。したがって、付随情報画像の画素値の変化が小さいほど、情報の削減が発生する可能性が高くなる。   The reason is as follows. In order to increase the amount of information transmitted in a certain length of time with accompanying information while securing the display area of the main video, it is effective to switch and display a plurality of accompanying information. In this case, the accompanying information image changes corresponding to the video time axis. However, as described above, in the inter-frame compression processing, the amount of information is usually reduced by quantizing a DCT (discrete cosine transform) coefficient value or the like at a time frequency in a pixel block in which a change in pixel value between frames is minute. Will be. Therefore, the smaller the change in the pixel value of the accompanying information image, the higher the possibility that information will be reduced.

このようなDCT係数の量子化による情報の削減は、付随情報画像の画素値の変化を大きくすることによって回避することができる。ところが、画素値の変化を大きくするためには、1つの情報に対応する画素値の幅を大きくしなければならない。すると、付随情報画像の多値分解能が低くなり、1つの付随情報によって伝達することが可能な情報量が小さくなる。   Such reduction of information by quantization of DCT coefficients can be avoided by increasing the change in the pixel value of the accompanying information image. However, in order to increase the change in pixel value, the width of the pixel value corresponding to one piece of information must be increased. Then, the multi-value resolution of the accompanying information image is lowered, and the amount of information that can be transmitted by one accompanying information is reduced.

本発明は、かかる点に鑑みてなされたものであり、付随情報画像の情報伝達量を増大させることができる映像処理装置および映像処理方法を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a video processing apparatus and a video processing method capable of increasing an information transmission amount of an accompanying information image.

本発明の映像処理装置は、映像を構成する一連のフレーム画像を取得するフレーム画像取得部と、前記フレーム画像を単位として変化する付随情報画像を、前記フレーム画像のそれぞれに挿入する付随情報挿入部と、画素値が繰り返し変化するフリッカピクセルを、前記フレーム画像毎に挿入される前記付随情報画像のそれぞれに挿入するフリッカピクセル挿入部と、前記フリッカピクセルを含む前記付随情報画像が挿入された一連の前記フレーム画像に対して、フレーム間圧縮処理を伴うエンコード処理を行う動画エンコード部とを有する。   A video processing apparatus according to the present invention includes a frame image acquisition unit that acquires a series of frame images constituting a video, and an accompanying information insertion unit that inserts an accompanying information image that changes in units of the frame image into each of the frame images. A flicker pixel insertion unit that inserts flicker pixels whose pixel values repeatedly change into each of the accompanying information images inserted for each frame image, and a series of the inserted information images including the flicker pixels. A moving image encoding unit that performs encoding processing with inter-frame compression processing on the frame image;

本発明の映像処理方法は、映像を構成する一連のフレーム画像を取得するステップと、前記フレーム画像を単位として変化する付随情報画像を生成するステップと、生成された付随情報画像のそれぞれに、画素値が繰り返し変化するフリッカピクセルを挿入するステップと、前記フリッカピクセルを含む前記付随情報画像が挿入された一連の前記フレーム画像に対して、フレーム間圧縮処理を伴うエンコード処理を行うステップとを有する。   The video processing method of the present invention includes a step of acquiring a series of frame images constituting a video, a step of generating an accompanying information image that changes in units of the frame image, and a pixel associated with each of the generated accompanying information images. Inserting a flicker pixel whose value changes repeatedly, and performing an encoding process including an inter-frame compression process on a series of the frame images into which the accompanying information image including the flicker pixel is inserted.

本発明によれば、フリッカピクセルを付随情報画像に挿入することにより、符号化処理により付随情報画像の情報が削減されるのを防ぐことができ、付随情報画像の情報伝達量を増大させることができる。   According to the present invention, by inserting the flicker pixel into the accompanying information image, it is possible to prevent the information of the accompanying information image from being reduced by the encoding process, and to increase the information transmission amount of the accompanying information image. it can.

従来の情報付加装置の概略を示すブロック図The block diagram which shows the outline of the conventional information adding device 本発明の実施の形態1に係る映像処理装置を含む映像配信システムの構成を示すシステム構成図1 is a system configuration diagram showing the configuration of a video distribution system including a video processing device according to Embodiment 1 of the present invention. 実施の形態1における映像処理装置の構成を示すブロック図FIG. 2 is a block diagram illustrating a configuration of a video processing device according to the first embodiment. 実施の形態1における映像受信装置の構成を示すブロック図FIG. 3 is a block diagram illustrating a configuration of a video reception device in the first embodiment. 実施の形態1における映像処理装置の全体動作を示すフローチャートFlowchart showing the overall operation of the video processing apparatus in the first embodiment 実施の形態1におけるフレーム画像の一例を示す図FIG. 10 is a diagram illustrating an example of a frame image in the first embodiment 実施の形態1における付随情報画像の生成の様子を模式的に示す図The figure which shows typically the mode of the production | generation of the accompanying information image in Embodiment 1. 実施の形態1における拡張フレーム画像の一例を示す図FIG. 10 is a diagram illustrating an example of an extended frame image in the first embodiment 実施の形態1における符号図形の構成の一例を示す図The figure which shows an example of a structure of the code | symbol figure in Embodiment 1 実施の形態1における符号図形でのフリッカピクセルの挿入位置および変化の様子の一例を示す図FIG. 11 is a diagram illustrating an example of flicker pixel insertion positions and changes in a code figure according to the first embodiment 実施の形態1におけるフリッカピクセルが挿入された符号図形の一例を示す図FIG. 10 is a diagram illustrating an example of a code figure into which flicker pixels are inserted according to Embodiment 1 実施の形態1におけるある拡張フレーム画像の一例を示す図The figure which shows an example of the certain extended frame image in Embodiment 1. 図12に示す拡張フレーム画像の次の拡張フレーム画像の一例を示す図The figure which shows an example of the extended frame image next to the extended frame image shown in FIG. 実施の形態1における映像受信装置の全体動作を示すフローチャートFlowchart showing the overall operation of the video receiving apparatus in the first embodiment 実施の形態1における複数のフリッカピクセルが挿入された符号図形の第1の例を示す図The figure which shows the 1st example of the code | symbol figure in which the some flicker pixel in Embodiment 1 was inserted 実施の形態1における複数のフリッカピクセルが挿入された符号図形の第2の例を示す図The figure which shows the 2nd example of the code | symbol figure in which the some flicker pixel in Embodiment 1 was inserted 実施の形態1における複数のフリッカピクセルが挿入された符号図形の第3の例を示す図The figure which shows the 3rd example of the code | symbol figure in which the some flicker pixel in Embodiment 1 was inserted 本発明の実施の形態2に係る映像処理装置の構成を示すブロック図The block diagram which shows the structure of the video processing apparatus which concerns on Embodiment 2 of this invention. 実施の形態2における平均化された複数のフリッカピクセルが挿入された符号図形の第1の例を示す図The figure which shows the 1st example of the code figure in which the some flicker pixel averaged in Embodiment 2 was inserted 実施の形態2における平均化された複数のフリッカピクセルが挿入された符号図形の第2の例を示す図The figure which shows the 2nd example of the code | symbol figure in which the some flicker pixel averaged in Embodiment 2 was inserted 実施の形態2における平均化された複数のフリッカピクセルが挿入された符号図形の第3の例を示す図The figure which shows the 3rd example of the code | symbol figure in which the some flicker pixel averaged in Embodiment 2 was inserted

以下、本発明の各実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
図2は、本発明の実施の形態1に係る映像処理装置を含む映像配信システムの構成を示すシステム構成図である。
(Embodiment 1)
FIG. 2 is a system configuration diagram showing the configuration of the video distribution system including the video processing device according to Embodiment 1 of the present invention.

図2において、映像配信システム100は、映像の配信を行う側の装置である映像処理装置200と、映像の配信を受ける側の装置である映像受信装置300とを有する。映像処理装置200および映像受信装置300は、有線または無線によるデジタル通信ネットワークであるネットワーク400に接続されている。ネットワーク400には、例えば、同一の構成を有する多数の映像受信装置300が接続される。なお、映像処理装置200および映像受信装置300は、放送網で接続されても良い。   2, the video distribution system 100 includes a video processing device 200 that is a device that distributes video, and a video receiving device 300 that is a device that receives video distribution. The video processing apparatus 200 and the video receiving apparatus 300 are connected to a network 400 that is a wired or wireless digital communication network. For example, a large number of video receiving apparatuses 300 having the same configuration are connected to the network 400. Note that the video processing device 200 and the video receiving device 300 may be connected via a broadcast network.

映像処理装置200は、ビデオカメラ500によって撮影されたデジタル映像を一連のフレーム画像として取得し、取得したフレーム画像に対して所定のフレーム間圧縮処理を伴う所定のエンコード処理を行って、圧縮映像データを生成する。このとき、映像処理装置200は、例えば、時計600によって計測される現在時刻を付随情報として取得し、取得した付随情報を多値データ化した付随情報画像を生成する。そして、映像処理装置200は、生成した付随情報画像を、フレーム画像のそれぞれに挿入する。さらにこのとき、映像処理装置200は、画素値が繰り返し変化するフリッカピクセルを、フレーム画像毎に挿入される付随情報画像のそれぞれに挿入する。そして、映像処理装置200は、生成した圧縮映像データを、ネットワーク400を介して映像受信装置300に配信する。   The video processing apparatus 200 acquires digital video captured by the video camera 500 as a series of frame images, performs predetermined encoding processing with predetermined inter-frame compression processing on the acquired frame images, and generates compressed video data Is generated. At this time, for example, the video processing apparatus 200 acquires the current time measured by the clock 600 as accompanying information, and generates an accompanying information image in which the acquired accompanying information is converted into multi-value data. Then, the video processing device 200 inserts the generated accompanying information image into each of the frame images. Further, at this time, the video processing apparatus 200 inserts flicker pixels whose pixel values change repeatedly into each of the accompanying information images inserted for each frame image. Then, the video processing device 200 distributes the generated compressed video data to the video receiving device 300 via the network 400.

映像受信装置300は、映像処理装置200から受信した圧縮映像データに対して、上述の所定のエンコード処理に対応する所定のデコード処理を行い、元の映像を復元する。映像受信装置300は、復元した映像からメイン映像と付随情報画像とをそれぞれ抽出し、抽出した付随情報画像から元の付随情報を復元する。そして、映像受信装置300は、復元した映像および付随情報を、出力装置700へ出力する。   The video receiving apparatus 300 performs a predetermined decoding process corresponding to the predetermined encoding process on the compressed video data received from the video processing apparatus 200 to restore the original video. The video receiver 300 extracts the main video and the accompanying information image from the restored video, and restores the original accompanying information from the extracted accompanying information image. Then, the video reception device 300 outputs the restored video and accompanying information to the output device 700.

出力装置700は、例えば、入力される映像を画面表示するとともに、再生中の映像の撮影時刻を示す情報として、テキスト化された付随情報を画面表示する。   For example, the output device 700 displays the input video on the screen and displays the accompanying information in the form of text as information indicating the shooting time of the video being played back.

このような映像配信システム100は、配信される映像に付随情報を映像の一部として付加することができるので、付随情報の送受信のための特別な通信処理を行うことなく、付随情報を配信することができる。また、映像配信システム100は、フレーム画像単位で、付随情報を映像に同期した状態で配信することができる。また、変化するフリッカピクセルを付随情報画像に挿入するので、付随情報画像の画素値の変化を大きくすることができ、フレーム間圧縮処理によって付随情報画像の情報の削減されるのを防ぐことができる。これにより、付随情報画像の多値分解能を高くすることができ、情報伝達量を増大させることができる。   Such a video distribution system 100 can add incidental information to a distributed video as part of the video, and therefore distributes the incidental information without performing a special communication process for transmission / reception of the incidental information. be able to. In addition, the video distribution system 100 can distribute the accompanying information in a state of being synchronized with the video in units of frame images. Further, since the flicker pixels that change are inserted into the accompanying information image, the change in the pixel value of the accompanying information image can be increased, and the information of the accompanying information image can be prevented from being reduced by the inter-frame compression processing. . As a result, the multi-value resolution of the accompanying information image can be increased, and the amount of information transmission can be increased.

次に、映像処理装置200の構成および映像受信装置300の構成について説明する。   Next, the configuration of the video processing device 200 and the configuration of the video reception device 300 will be described.

図3は、映像処理装置200の構成を示すブロック図である。   FIG. 3 is a block diagram illustrating a configuration of the video processing device 200.

図3に示すように、映像処理装置200は、フレーム画像取得部210、付随情報取得部220、付随情報挿入部230、フリッカピクセル挿入部240、およびエンコード部250を有する。   As illustrated in FIG. 3, the video processing apparatus 200 includes a frame image acquisition unit 210, an accompanying information acquisition unit 220, an accompanying information insertion unit 230, a flicker pixel insertion unit 240, and an encoding unit 250.

フレーム画像取得部210は、ビデオカメラ500によって撮影された映像を、一連のフレーム画像として取得し、取得したフレーム画像を、付随情報挿入部230へ出力する。   The frame image acquisition unit 210 acquires videos captured by the video camera 500 as a series of frame images, and outputs the acquired frame images to the accompanying information insertion unit 230.

付随情報取得部220は、時計600によって計測された時刻情報を、ビデオカメラ500の撮影映像の付随情報として取得し、取得した付随情報を、付随情報挿入部230へ出力する。   The accompanying information acquisition unit 220 acquires the time information measured by the clock 600 as the accompanying information of the video captured by the video camera 500, and outputs the acquired accompanying information to the accompanying information insertion unit 230.

付随情報挿入部230は、入力された付随情報を、予め定義された所定の変換規則に従って付随情報画像に変換する。付随情報挿入部230は、生成した付随情報画像を、入力されたフレーム画像に対して、所定の位置および大きさで挿入する。そして、付随情報挿入部230は、付随情報画像を挿入したフレーム画像(以下「拡張フレーム画像」という)を、フリッカピクセル挿入部240へ出力する。   The accompanying information insertion unit 230 converts the input accompanying information into an accompanying information image according to a predetermined conversion rule defined in advance. The accompanying information insertion unit 230 inserts the generated accompanying information image into the input frame image at a predetermined position and size. Then, the accompanying information inserting unit 230 outputs a frame image (hereinafter referred to as “extended frame image”) into which the accompanying information image is inserted to the flicker pixel inserting unit 240.

ここで、付随情報挿入部230における、各フレーム画像の入力と、そのフレーム画像が撮影された時刻に対応する付随情報の入力とは、同期して行われる。したがって、付随情報挿入部230によって各フレーム画像に挿入される付随情報は、そのフレーム画像の撮影時刻を示す情報である。また、付随情報は、映像の時間軸上で変化する情報である。付随情報画像および付随情報画像への変換手法の詳細については後述する。   Here, the input of each frame image and the input of the accompanying information corresponding to the time when the frame image was taken in the accompanying information inserting unit 230 are performed in synchronization. Therefore, the accompanying information inserted into each frame image by the accompanying information inserting unit 230 is information indicating the shooting time of the frame image. The accompanying information is information that changes on the time axis of the video. Details of the accompanying information image and the method of converting to the accompanying information image will be described later.

フリッカピクセル挿入部240は、入力された拡張フレーム画像の付随情報画像に映像の時間軸上で変化するフリッカピクセルを挿入し、フリッカピクセルが挿入された拡張フレーム画像を、エンコード部250へ出力する。より具体的には、フリッカピクセル挿入部240は、繰り返し反転するフリッカピクセルを、付随情報画像に挿入する。フリッカピクセルおよびフリッカピクセルの生成手法の詳細については後述する。   The flicker pixel insertion unit 240 inserts flicker pixels that change on the time axis of the video into the accompanying information image of the input extended frame image, and outputs the extended frame image with the flicker pixels inserted to the encoding unit 250. More specifically, the flicker pixel insertion unit 240 inserts flicker pixels that are repeatedly inverted into the accompanying information image. Details of the flicker pixel and the flicker pixel generation method will be described later.

エンコード部250は、入力された拡張フレーム画像に対して、例えば、MPEG4に準拠したエンコード処理を行って圧縮映像データを生成し、生成した圧縮映像データを、図2に示す映像受信装置300に送信する。MPEG4(H.264)は、MPEGで規定されるデジタル映像フォーマットであり、エンコード処理において、画素ブロック毎の動き補償を伴うフレーム間圧縮処理を行うことが規定された映像フォーマットである。すなわち、エンコード部250は、フレーム間処理によるDCT係数の量子化において、DCT係数の値が小さい部分の情報を捨て、画素ブロックのフレーム間での画素値の変化がより小さい情報は削減され、より高い圧縮率で圧縮する。   The encoding unit 250 generates compressed video data by performing, for example, an MPEG4 compliant encoding process on the input extended frame image, and transmits the generated compressed video data to the video receiving device 300 shown in FIG. To do. MPEG4 (H.264) is a digital video format specified by MPEG, and is a video format specified to perform inter-frame compression processing with motion compensation for each pixel block in the encoding process. That is, in the quantization of the DCT coefficient by the inter-frame processing, the encoding unit 250 discards information of a portion where the DCT coefficient value is small, and information whose pixel value change between frames of the pixel block is smaller is reduced. Compress with high compression ratio.

なお、映像処理装置200は、図示しないが、各部間のデータ送受、制御、および電源供給のための回路と、外部機器との通信およびデータ入出力のための機器インタフェースと、ユーザ操作を受け付けるための操作インタフェースとを有する。更に、映像処理装置200は、図示しないが、例えば、CPU(central processing unit)、制御プログラムを格納したROM(read only memory)等の記憶媒体、およびRAM(random access memory)等の作業用メモリを有し、CPUにおける制御プログラムの実行によって上述した各部の機能を実現する。または、映像処理装置200は、上述した各部の機能を有する電子回路を備えることにより、上述した各部の機能を実現する。   Although not shown, the video processing apparatus 200 receives a circuit for data transmission / reception, control, and power supply between the units, a device interface for communication with external devices and data input / output, and a user operation. Operation interface. Furthermore, although not shown, the video processing apparatus 200 includes, for example, a CPU (central processing unit), a storage medium such as a ROM (read only memory) storing a control program, and a working memory such as a RAM (random access memory). The function of each unit described above is realized by executing a control program in the CPU. Alternatively, the video processing device 200 includes the electronic circuit having the functions of the respective units described above, thereby realizing the functions of the respective units described above.

このような構成を有する映像処理装置200は、フリッカピクセルの挿入によって付随情報画像の画素ブロック毎の画素値に大きな変化を与えることができる。したがって、付随情報画像の部分のデータの圧縮率を低く抑え、付随情報画像のDCT係数の量子化による情報の削減を回避することができるので、輝度分解能を高くし付随情報の情報量を増やすことできる。   The video processing apparatus 200 having such a configuration can greatly change the pixel value for each pixel block of the accompanying information image by inserting the flicker pixel. Therefore, the compression rate of the data of the accompanying information image can be kept low, and information reduction due to quantization of the DCT coefficient of the accompanying information image can be avoided, so that the luminance resolution is increased and the amount of accompanying information is increased. it can.

図4は、映像受信装置300の構成を示すブロック図である。   FIG. 4 is a block diagram illustrating a configuration of the video reception device 300.

図4に示すように、映像受信装置300は、デコード部310、フレーム画像抽出部320、およびフレーム付随情報抽出部330を有する。   As illustrated in FIG. 4, the video reception device 300 includes a decoding unit 310, a frame image extraction unit 320, and a frame associated information extraction unit 330.

デコード部310は、図2および図3に示す映像処理装置200から送られてきた圧縮映像データを受信し、受信した圧縮映像データに対して、MPEG4に準拠したデコード処理を行って拡張フレーム画像を復号する。そして、デコード部310は、復号した拡張フレーム画像を、フレーム画像抽出部320およびフレーム付随情報抽出部330へ出力する。   The decoding unit 310 receives the compressed video data sent from the video processing device 200 shown in FIGS. 2 and 3, performs a decoding process based on MPEG4 on the received compressed video data, and generates an extended frame image. Decrypt. Then, the decoding unit 310 outputs the decoded extended frame image to the frame image extraction unit 320 and the frame associated information extraction unit 330.

ここで復号される拡張フレーム画像は、上述のフレーム間圧縮処理により、映像処理装置200で生成された元の拡張フレーム画像に比べて、情報が削減された画像となっている。特に、フレーム間での画素値の変化が小さい画素ブロックは、DCT係数の量子化による情報の削減されるため、人が視認することができない範囲内で、元の画素ブロックの画素値とは大きく異なる値となることがある。   The extended frame image decoded here is an image in which information is reduced compared to the original extended frame image generated by the video processing device 200 by the above-described interframe compression processing. In particular, a pixel block having a small change in pixel value between frames reduces information by quantization of the DCT coefficient, and therefore is not as large as the pixel value of the original pixel block within a range that cannot be visually recognized by humans. May have different values.

フレーム画像抽出部320は、入力された拡張フレーム画像から、付随情報画像を除去した画像をフレーム画像として抽出し、抽出したフレーム画像を、図2に示す出力装置700へ送信する。このフレーム画像は、映像処理装置200がビデオカメラ500から取得したフレーム画像に対応するものである。   The frame image extraction unit 320 extracts an image obtained by removing the accompanying information image from the input extended frame image as a frame image, and transmits the extracted frame image to the output device 700 illustrated in FIG. This frame image corresponds to the frame image acquired from the video camera 500 by the video processing apparatus 200.

フレーム付随情報抽出部330は、入力された拡張フレーム画像から、付随情報画像を抽出し、抽出した付随情報画像のうちフリッカピクセルを除いた残りの部分から、付随情報を復元する。そして、フレーム付随情報抽出部330は、復元した付随情報を、出力装置700へ送信する。   The frame accompanying information extraction unit 330 extracts the accompanying information image from the input extended frame image, and restores the accompanying information from the remaining part of the extracted accompanying information image excluding the flicker pixels. Then, the frame accompanying information extraction unit 330 transmits the restored accompanying information to the output device 700.

フリッカピクセルの位置に関する情報は、例えば、予めフレーム付随情報抽出部330に設定されていても良いし、圧縮映像データと共にその都度映像処理装置200から取得するようにしても良い。   Information regarding the position of the flicker pixel may be set in advance in the frame-accompanying information extraction unit 330, for example, or may be acquired from the video processing apparatus 200 each time together with the compressed video data.

なお、映像受信装置300は、図示しないが、各部間のデータ送受、制御、および電源供給のための回路と、外部機器との通信とデータ入出力のための機器インタフェースと、ユーザ操作を受け付けるための操作インタフェースとを有する。更に、映像受信装置300は、図示しないが、例えば、CPU、制御プログラムを格納したROM等の記憶媒体、およびRAM等の作業用メモリを有し、CPUにおける制御プログラムの実行によって上述した各部の機能を実現する。または、映像処理装置200は、上述した各部の機能を有する電子回路を備えることにより、上述した各部の機能を実現する。   Although not shown, the video receiving apparatus 300 receives a circuit for data transmission / reception, control, and power supply between the units, a device interface for communication with external devices and data input / output, and a user operation. Operation interface. Further, although not shown, the video receiving apparatus 300 includes, for example, a CPU, a storage medium such as a ROM storing a control program, and a working memory such as a RAM, and the functions of the above-described units by executing the control program in the CPU. Is realized. Alternatively, the video processing device 200 includes the electronic circuit having the functions of the respective units described above, thereby realizing the functions of the respective units described above.

このような構成を有する映像受信装置300は、フリッカピクセルを含む圧縮映像データから、フレーム画像、および付随情報を復元し、これらを個別に出力装置700に出力することができる。   The video receiving apparatus 300 having such a configuration can restore the frame image and the accompanying information from the compressed video data including the flicker pixels, and can output them individually to the output apparatus 700.

以下、映像処理装置200の動作および映像受信装置300の動作について説明する。   Hereinafter, the operation of the video processing device 200 and the operation of the video reception device 300 will be described.

図5は、映像処理装置200の全体動作を示すフローチャートである。   FIG. 5 is a flowchart showing the overall operation of the video processing apparatus 200.

まず、ステップS1100において、フレーム画像取得部210は、ビデオカメラ500から出力可能な状態になった最新のフレーム画像を入力し、入力したフレーム画像を付随情報挿入部230へ出力する。すなわち、付随情報挿入部230には、現在撮影中の映像の各フレーム画像が、ほぼリアルタイムで入力される。   First, in step S <b> 1100, the frame image acquisition unit 210 inputs the latest frame image ready for output from the video camera 500, and outputs the input frame image to the accompanying information insertion unit 230. That is, each frame image of the video currently being shot is input to the accompanying information insertion unit 230 in substantially real time.

図6は、フレーム画像取得部210が入力するフレーム画像の一例を示す図である。ここでは、ビデオカメラ500が監視カメラである場合のフレーム画像の一例を図示する。図6に示すように、フレーム画像810には、例えば、被写体として複数の人物811が映し出された画像である。   FIG. 6 is a diagram illustrating an example of a frame image input by the frame image acquisition unit 210. Here, an example of a frame image when the video camera 500 is a surveillance camera is illustrated. As shown in FIG. 6, the frame image 810 is an image in which a plurality of persons 811 are projected as subjects, for example.

そして、図5のステップS1200において、付随情報取得部220は、時計600から最新の時刻情報を付随情報として取得し、取得した付随情報を、付随情報挿入部230へ出力する。すなわち、付随情報挿入部230には、現在時刻を示す付随情報が、ほぼリアルタイムで入力される。   Then, in step S1200 of FIG. 5, the accompanying information acquisition unit 220 acquires the latest time information as the accompanying information from the clock 600, and outputs the acquired accompanying information to the accompanying information insertion unit 230. That is, accompanying information indicating the current time is input to the accompanying information inserting unit 230 in substantially real time.

そして、ステップS1300において、付随情報挿入部230は、入力された付随情報を、予め定義された所定の変換規則に従って付随情報画像に変換する。   In step S1300, the accompanying information insertion unit 230 converts the input accompanying information into an accompanying information image according to a predetermined conversion rule defined in advance.

ここで、付随情報画像への変換規則の一例について説明する。また、以下、付随情報画像は、輝度値によって情報を表現するものとする。   Here, an example of the conversion rule for the accompanying information image will be described. Hereinafter, the accompanying information image represents information by luminance values.

図7は、付随情報が付随情報画像に変換される様子を模式的に示す図である。   FIG. 7 is a diagram schematically illustrating how incidental information is converted into an incidental information image.

図7に示すように、付随情報挿入部230は、例えば、年、月、日、時、分、秒、ミリ秒を示す数値から成る時刻情報である付随情報820を取得する。付随情報挿入部230は、複数の画素ブロックを一列に並べた形状の図形を、付随情報画像用の図形(以下、この図形を「コード図形」といい、画素ブロックに対応する部分を「画素ブロック領域」という)830として予め定義する。付随情報挿入部230は、付随情報820をバイナリデータとして扱い、このバイナリデータの各ビットを、コード図形830を構成する画素ブロック領域831に予め対応付けている。また、付随情報挿入部230は、付随情報画像の輝度解像度をn段階として予め決定している。一例として、ここでは、輝度解像度を16値として説明する。   As illustrated in FIG. 7, the accompanying information insertion unit 230 acquires accompanying information 820 that is time information including numerical values indicating, for example, year, month, day, hour, minute, second, and millisecond. The accompanying information insertion unit 230 refers to a figure having a shape in which a plurality of pixel blocks are arranged in a line as a figure for an accompanying information image (hereinafter, this figure is referred to as a “code figure”, and a portion corresponding to the pixel block is referred to as “pixel block” It is defined in advance as 830). The accompanying information insertion unit 230 treats the accompanying information 820 as binary data, and associates each bit of the binary data with the pixel block region 831 constituting the code figure 830 in advance. Further, the accompanying information insertion unit 230 determines in advance the luminance resolution of the accompanying information image as n stages. As an example, here, the luminance resolution is described as 16 values.

付随情報挿入部230は、付随情報820が文字列である場合、文字列の先頭から1文字ずつをASCII(American Standard Code for Information Interchange)コードとして数値化することにより、バイナリデータを生成する。そして、付随情報挿入部230は、生成したバイナリデータの各ビットの値を、対応する画素ブロック領域831の輝度値に反映させる。より具体的には、付随情報挿入部230は、付随情報820のバイナリデータから4ビットずつデータ部分を取り出し、取り出したデータ部分を、16段階の輝度値(0〜15)に変換する。これにより、付随情報挿入部230は、付随情報820の内容に対応して多値コード化されたコード図形を、付随情報画像として生成する。   When the accompanying information 820 is a character string, the accompanying information insertion unit 230 generates binary data by digitizing each character from the beginning of the character string as an ASCII (American Standard Code for Information Interchange) code. Then, the accompanying information insertion unit 230 reflects the value of each bit of the generated binary data in the luminance value of the corresponding pixel block region 831. More specifically, the incidental information insertion unit 230 extracts a data part by 4 bits from the binary data of the incidental information 820, and converts the extracted data part into 16-level luminance values (0 to 15). Thereby, the accompanying information insertion unit 230 generates a code figure converted into a multi-value code corresponding to the contents of the accompanying information 820 as an accompanying information image.

例えば、付随情報820が、「2009/05/01 12:00:00.000」という文字列である場合を考える。ASCIIコードにおいて、先頭の文字「2」は、10進数化すると「50」であり、2進数化すると「00110010」である。したがって、付随情報挿入部230は、例えば、2進数化したバイナリデータを上位4ビットの値「0011」と、下位4ビットの値「0010」とに分離し、それぞれの値を4倍した値を、輝度値として採用する。これにより、付随情報挿入部230は、付随情報820を、10進数「12」に対応する輝度値を持つ画素ブロック領域831と、10進数「8」に対応する輝度値を持つ画素ブロック領域831とを含む付随情報画像に、多値コード化する。   For example, consider a case where the accompanying information 820 is a character string “2009/05/01 12: 00: 00.000”. In the ASCII code, the leading character “2” is “50” when converted to a decimal number and “00110010” when converted to a binary number. Therefore, for example, the accompanying information insertion unit 230 separates the binary data that has been binarized into a high-order 4-bit value “0011” and a low-order 4-bit value “0010”. Adopted as a luminance value. As a result, the incidental information inserting unit 230 converts the incidental information 820 into a pixel block area 831 having a luminance value corresponding to the decimal number “12” and a pixel block area 831 having a luminance value corresponding to the decimal number “8”. Multi-value coding is performed on the accompanying information image including.

そして、図5のステップS1400において、付随情報挿入部230は、生成した付随情報画像を入力されたフレーム画像に挿入して拡張フレーム画像を生成し、生成した拡張フレーム画像を、フリッカピクセル挿入部240へ出力する。   In step S1400 of FIG. 5, the accompanying information insertion unit 230 inserts the generated accompanying information image into the input frame image to generate an extended frame image, and the generated extended frame image is used as the flicker pixel insertion unit 240. Output to.

図8は、フリッカピクセル挿入部240へ入力される拡張フレーム画像の一例を示す図である。   FIG. 8 is a diagram illustrating an example of an extended frame image input to the flicker pixel insertion unit 240.

図8に示すように、付随情報挿入部230は、入力されたフレーム画像810の外側に領域812を拡張した範囲を、新たなフレーム画像813として扱う。そして、付随情報挿入部230は、このフレーム画像813のうち、拡張部分に当たる領域812に、付随情報画像840を重畳して、拡張フレーム画像841を生成する。   As illustrated in FIG. 8, the accompanying information insertion unit 230 handles a range obtained by extending the area 812 outside the input frame image 810 as a new frame image 813. Then, the accompanying information insertion unit 230 generates an extended frame image 841 by superimposing the accompanying information image 840 on the area 812 corresponding to the extended portion of the frame image 813.

このとき、付随情報挿入部230は、フレーム画像813における付随情報画像840の位置および大きさを予め設定している。この位置および大きさは、付随情報画像840のうち、画素ブロック領域に対応する符号図形850が、フレーム間処理において画素ブロックとして扱われる領域と一致するような位置および大きさである。   At this time, the incidental information insertion unit 230 presets the position and size of the incidental information image 840 in the frame image 813. This position and size are positions and sizes such that the code figure 850 corresponding to the pixel block region in the accompanying information image 840 matches the region treated as a pixel block in the inter-frame processing.

図9は、符号図形の構成の一例を示す図である。   FIG. 9 is a diagram illustrating an example of the configuration of a code figure.

図9に示すように、符号図形850は、例えば、4×4のマトリクス状に配置された画素851から成り、正方矩形形状を有する。1つの符号図形850内において、16個全ての画素851は、同じ輝度値を持つ。すなわち、符号図形850は、設定された輝度値を、冗長性を持ちながら保持する。複数の画素に同じ値を持たせて冗長化することによってデータのロバスト性を確保する手法は一般的なものであるため、ここでの詳細な説明は省略する。   As shown in FIG. 9, the code | symbol figure 850 consists of the pixel 851 arrange | positioned at 4x4 matrix shape, for example, and has square square shape. In one code figure 850, all 16 pixels 851 have the same luminance value. That is, the code figure 850 holds the set luminance value while having redundancy. Since a technique for ensuring data robustness by providing a plurality of pixels with the same value and making them redundant is common, detailed description thereof is omitted here.

そして、図5のステップS1500において、フリッカピクセル挿入部240は、入力された拡張フレーム画像の付随情報画像に対して、符号図形毎に、フリッカピクセルを挿入する。そして、フリッカピクセル挿入部240は、フリッカピクセルを挿入した拡張フレーム画像を、エンコード部250へ出力する。ここでは、フリッカピクセル挿入部240は、フレーム毎に輝度の極大値と極小値とを交互に取るピクセルを、フリッカピクセルとして、各符号図形に挿入する。   In step S1500 of FIG. 5, the flicker pixel insertion unit 240 inserts a flicker pixel for each code figure into the accompanying information image of the input extended frame image. Then, the flicker pixel inserting unit 240 outputs the extended frame image into which the flicker pixel is inserted to the encoding unit 250. Here, the flicker pixel insertion unit 240 inserts pixels that alternately take the maximum value and the minimum value of luminance for each frame as flicker pixels into each code figure.

図10は、符号図形におけるフリッカピクセルの挿入位置および変化の様子の一例を示す図である。   FIG. 10 is a diagram showing an example of flicker pixel insertion positions and changes in the code figure.

図10(A)および図10(B)に示すように、フリッカピクセル挿入部240は、例えば、符号図形850の左上隅に、フリッカピクセル852を挿入する。フリッカピクセル挿入部240は、ある拡張フレーム画像(nフレーム)ではフリッカピクセル852を黒(輝度値が最小)とし、次の拡張フレーム画像(n+1フレーム)では、同一のフリッカピクセル852を白(輝度値が最大)とする。   As shown in FIGS. 10A and 10B, the flicker pixel insertion unit 240 inserts a flicker pixel 852 in the upper left corner of the code figure 850, for example. The flicker pixel insertion unit 240 sets the flicker pixel 852 to black (luminance value is minimum) in a certain extended frame image (n frame), and sets the same flicker pixel 852 to white (luminance value) in the next extended frame image (n + 1 frame). Is the maximum).

図11は、フリッカピクセルが挿入された状態の符号図形の変化の様子の一例を示す図である。フリッカピクセル挿入部240は、フリッカピクセル852以外の画素(以下「非フリッカピクセル」という)853の輝度の変化とは独立して、フリッカピクセル852の輝度を反転させる。   FIG. 11 is a diagram illustrating an example of a change in the code figure in a state where the flicker pixel is inserted. The flicker pixel insertion unit 240 inverts the luminance of the flicker pixel 852 independently of the change in luminance of pixels other than the flicker pixel 852 (hereinafter referred to as “non-flicker pixel”) 853.

フリッカピクセル挿入部240は、このようなフリッカピクセル852の輝度の反転を、拡張フレーム画像が切り替わる毎に繰り返す。例えば、拡張フレーム画像に、整数の通し番号が割り当てられている場合には、フリッカピクセル挿入部240は、偶数フレームに黒のフリッカピクセル852を挿入し、奇数フレームに白のフリッカピクセル852を挿入する。   The flicker pixel insertion unit 240 repeats such inversion of the luminance of the flicker pixel 852 every time the extended frame image is switched. For example, when an integer serial number is assigned to the extended frame image, the flicker pixel inserting unit 240 inserts the black flicker pixel 852 in the even frame and inserts the white flicker pixel 852 in the odd frame.

このようなフリッカピクセル852が挿入されることにより、各符号図形の一部の輝度は、拡張フレーム画像間で大きく変化することになる。   By inserting such a flicker pixel 852, the luminance of a part of each code figure changes greatly between extended frame images.

図12は、エンコード部250へ入力されるある拡張フレーム画像の一例を示す図である。図13は、エンコード部250へ入力される次の拡張フレーム画像の一例を示す図である。   FIG. 12 is a diagram illustrating an example of an extended frame image input to the encoding unit 250. FIG. 13 is a diagram illustrating an example of the next extended frame image input to the encoding unit 250.

図12に示すように、ある拡張フレーム画像841の付随情報画像840に挿入されたフリッカピクセル852は、黒となる。一方、図13に示すように、その次の拡張フレーム画像841では、付随情報画像840の非フリッカピクセル853は変化していないが、付随情報画像840に挿入されたフリッカピクセル852は、白となる。   As shown in FIG. 12, the flicker pixel 852 inserted into the accompanying information image 840 of a certain extended frame image 841 is black. On the other hand, as shown in FIG. 13, in the next extended frame image 841, the non-flicker pixel 853 of the accompanying information image 840 is not changed, but the flicker pixel 852 inserted in the accompanying information image 840 is white. .

そして、ステップS1600において、エンコード部250は、入力された拡張フレーム画像に対して、エンコード処理を行って圧縮映像データを生成し、生成した圧縮映像データを、図2に示す映像受信装置300に送信する。   In step S1600, the encoding unit 250 generates compressed video data by performing an encoding process on the input extended frame image, and transmits the generated compressed video data to the video receiving device 300 illustrated in FIG. To do.

このとき、エンコード部250は、上述の通り、輝度値の変化が大きい画素ブロックに対しては、圧縮率を抑える。したがって、フレーム間圧縮処理における付随情報画像の圧縮率は、反転するフリッカピクセルの挿入によって、抑えられることになる。すなわち、フリッカピクセルが挿入されていない状態では圧縮映像データに反映されないような付随情報画像の変化が、より確実に圧縮映像データに反映される。   At this time, as described above, the encoding unit 250 suppresses the compression rate for a pixel block having a large change in luminance value. Therefore, the compression rate of the accompanying information image in the inter-frame compression process can be suppressed by inserting the flicker pixel to be inverted. That is, a change in the accompanying information image that is not reflected in the compressed video data when the flicker pixel is not inserted is more reliably reflected in the compressed video data.

そして、ステップS1700において、フレーム画像取得部210は、映像に対する処理の終了を指示されたか否かを判断し、終了を指示されていない場合には(S1700:NO)、ステップS1100に戻る。この結果、映像処理装置200は、次のフレーム画像および次の時刻情報に対する処理に移る。一方、フレーム画像取得部210は、映像に対する処理の終了を指示された場合には(S1700:YES)、一連の処理を終了する。映像に対する処理の終了の指示は、例えば、ユーザ操作による指示、フレーム画像の取得が不能であることを示す信号、および映像配信の停止を示す信号を含む。   Then, in step S1700, the frame image acquisition unit 210 determines whether or not an instruction to end the processing for the video has been given, and if the end has not been instructed (S1700: NO), the process returns to step S1100. As a result, the video processing apparatus 200 proceeds to processing for the next frame image and the next time information. On the other hand, when instructed to end the processing for the video (S1700: YES), the frame image acquisition unit 210 ends the series of processing. The instruction to end the processing for the video includes, for example, an instruction by a user operation, a signal indicating that acquisition of a frame image is impossible, and a signal indicating stop of video distribution.

このような動作により、映像処理装置200は、撮影時刻を示す付加情報画像を挿入した映像を、映像受信装置300に配信することができる。また、映像処理装置200は、フリッカピクセルの挿入によって、フレーム間圧縮処理のDCT係数の量子化に伴う付随情報の削減を、より確実に防ぐことができる。   With such an operation, the video processing apparatus 200 can distribute a video in which an additional information image indicating a shooting time is inserted to the video receiving apparatus 300. Further, the video processing apparatus 200 can more reliably prevent the reduction of accompanying information due to the quantization of the DCT coefficient in the inter-frame compression process by inserting the flicker pixel.

図14は、映像受信装置300の全体動作を示すフローチャートである。   FIG. 14 is a flowchart showing the overall operation of the video reception device 300.

まず、ステップS2100において、デコード部310は、映像処理装置200から、1つの拡張フレーム画像の復号に対応する圧縮映像データを受信する。   First, in step S2100, the decoding unit 310 receives compressed video data corresponding to decoding of one extended frame image from the video processing device 200.

そして、ステップS2200において、デコード部310は、受信した圧縮映像データに対してデコード処理を行って拡張フレーム画像を復号する。更に、デコード部310は、復号した拡張フレーム画像を、フレーム画像抽出部320およびフレーム付随情報抽出部330へ出力する。   In step S2200, decoding unit 310 decodes the received compressed video data to decode the extended frame image. Further, the decoding unit 310 outputs the decoded extended frame image to the frame image extraction unit 320 and the frame associated information extraction unit 330.

ここで、拡張フレーム画像に含まれる付随情報画像には、上述の通りフリッカピクセルが挿入されているため、付加情報画像の変化がより確実に再現される。   Here, since the flicker pixels are inserted in the accompanying information image included in the extended frame image as described above, the change in the additional information image is more reliably reproduced.

そして、ステップS2300において、フレーム画像抽出部320は、入力された拡張フレーム画像からフレーム画像を抽出し、抽出したフレーム画像を、出力装置700へ送信する。   In step S <b> 2300, frame image extraction section 320 extracts a frame image from the input extended frame image, and transmits the extracted frame image to output device 700.

そして、ステップS2400において、フレーム付随情報抽出部330は、入力された拡張フレーム画像から付随情報画像を抽出する。   In step S2400, the frame-accompanying information extraction unit 330 extracts the accompanying information image from the input extended frame image.

そして、ステップS2500において、フレーム付随情報抽出部330は、抽出した付随情報画像から付随情報を復元し、復元した付随情報を、出力装置700へ送信する。   In step S <b> 2500, the frame accompanying information extraction unit 330 restores the accompanying information from the extracted accompanying information image, and transmits the restored accompanying information to the output device 700.

より具体的には、フレーム付随情報抽出部330は、例えば、付随情報画像を画素ブロック領域毎に区分する。次に、フレーム付随情報抽出部330は、区分した領域の非フリッカピクセルの平均輝度値を、画素ブロック領域の輝度値として取得する。   More specifically, the frame associated information extraction unit 330 divides the associated information image for each pixel block region, for example. Next, the frame-accompanying information extraction unit 330 acquires the average luminance value of the non-flicker pixels in the divided area as the luminance value of the pixel block area.

なお、フレーム間圧縮処理において、フリッカピクセルの近傍に位置する非フリッカピクセルの輝度値は、フリッカピクセルの輝度変化に影響を受け易い。したがって、フレーム付随情報抽出部330は、フリッカピクセルから離れて位置する複数の非フリッカピクセルの平均輝度値を、画素ブロック領域の輝度値として取得しても良い。また、フレーム付随情報抽出部330は、フリッカピクセルから離れて位置する非フリッカピクセルを1つ選択し、選択した非フリッカピクセルの輝度値を、画素ブロック領域の輝度値として取得しても良い。   In the inter-frame compression process, the luminance value of the non-flicker pixel located in the vicinity of the flicker pixel is easily affected by the luminance change of the flicker pixel. Accordingly, the frame-accompanying information extraction unit 330 may acquire the average luminance value of a plurality of non-flicker pixels located away from the flicker pixel as the luminance value of the pixel block area. Further, the frame-accompanying information extraction unit 330 may select one non-flicker pixel located away from the flicker pixel, and acquire the luminance value of the selected non-flicker pixel as the luminance value of the pixel block region.

そして、フレーム付随情報抽出部330は、取得した画素ブロック領域毎の輝度値を対応するビット値に変換し、変換したビット値を並べることにより、バイナリデータを生成する。更に、フレーム付随情報抽出部330は、生成したバイナリデータを、ASCIIコードとして扱うことにより文字列に変換し、変換結果を、付随情報として出力する。   Then, the frame-associated information extraction unit 330 converts the acquired luminance value for each pixel block region into a corresponding bit value, and generates binary data by arranging the converted bit values. Further, the frame accompanying information extraction unit 330 converts the generated binary data into a character string by treating it as an ASCII code, and outputs the conversion result as accompanying information.

すなわち、フレーム付随情報抽出部330は、映像処理装置200の付随情報挿入部230が行った付随情報に対する変換処理と逆の処理を、付随情報画像データに対して行う。   That is, the frame-accompanying information extraction unit 330 performs a process opposite to the conversion process on the accompanying information performed by the accompanying information insertion unit 230 of the video processing device 200 on the accompanying information image data.

そして、ステップS2600において、デコード部310は、圧縮映像データに対する処理の終了を指示されたか否かを判断し、終了を指示されていない場合には(S2600:NO)、ステップS2100に戻る。この結果、映像受信装置300は、次の拡張フレーム画像に対する処理に移る。一方、デコード部310は、圧縮映像データに対する処理の終了を指示された場合には(S2600:YES)、一連の処理を終了する。   In step S2600, the decoding unit 310 determines whether or not an instruction to end the process on the compressed video data is given. If no instruction is given (S2600: NO), the decoding unit 310 returns to step S2100. As a result, the video reception device 300 proceeds to processing for the next extended frame image. On the other hand, when the decoding unit 310 is instructed to end the processing on the compressed video data (S2600: YES), the decoding unit 310 ends the series of processing.

このような動作により映像受信装置300は、圧縮映像データから、映像と付随情報とを復元して出力することができる。出力装置700に入力された映像と付随情報は、例えば、出力装置700で画面表示されたり、記録媒体に蓄積されたりする。   By such an operation, the video receiving apparatus 300 can restore and output the video and the accompanying information from the compressed video data. For example, the video and accompanying information input to the output device 700 are displayed on the screen of the output device 700 or accumulated in a recording medium.

以上説明したように、本実施の形態に係る映像処理装置200は、フレーム画像に重畳される付随情報画像に、輝度値が繰り返し変化するフリッカピクセルを挿入するようにした。これにより、映像処理装置200は、付随情報画像に対して、より大きな輝度変化を持たせることができる。   As described above, the video processing apparatus 200 according to the present embodiment inserts flicker pixels whose luminance values repeatedly change into the accompanying information image superimposed on the frame image. Thereby, the video processing apparatus 200 can give a larger luminance change to the accompanying information image.

これにより、映像処理装置200は、フレーム間圧縮における動き補償による変化量の喪失を画素ブロック単位で防止もしくは軽減できるため、付随情報画像の微細な輝度変化にも追従させて、付随情報を復元することができる。これにより、映像処理装置200は、付随情報画像の多値化による符号化効率を向上させることができる。言い換えると、映像処理装置200は、付随情報が含まれる画素ブロックに対して、フレーム間圧縮によるエンコード処理においてもより多くの情報量が割り当てることができる。   As a result, the video processing apparatus 200 can prevent or reduce the amount of change due to motion compensation in inter-frame compression in units of pixel blocks, so that the accompanying information is restored by following a minute luminance change of the accompanying information image. be able to. Thereby, the video processing apparatus 200 can improve the encoding efficiency by multi-leveling of an accompanying information image. In other words, the video processing apparatus 200 can allocate a larger amount of information to the pixel block including the accompanying information even in the encoding process by inter-frame compression.

この結果、映像処理装置200は、フリッカピクセルを挿入することにより、付随情報に対応する値の変化量が少ない場合であっても、付随情報画像の多値分解能を向上させることができる。   As a result, the video processing apparatus 200 can improve the multi-value resolution of the accompanying information image by inserting flicker pixels even when the amount of change in the value corresponding to the accompanying information is small.

なお、フリッカピクセルの輝度値は、必ずしも極大および極小である必要はなく、エンコード処理が行われても、復元結果に付随情報の変化が反映されるような値であれば良い。   Note that the luminance value of the flicker pixel does not necessarily have to be a maximum and a minimum, and may be a value that reflects a change in accompanying information in the restoration result even if the encoding process is performed.

また、フリッカピクセルの反転の周期は、フレーム画像毎ではなく、任意の周期としても良い。この周期は、付随情報画像の変化の単位よりも長くない周期等、付属情報画像が変化しない区間のそれぞれにおいて少なくとも1回反転するような周期であることが望ましい。   The flicker pixel inversion period may be an arbitrary period instead of each frame image. This period is desirably a period that is reversed at least once in each section in which the attached information image does not change, such as a period that is not longer than the unit of change of the accompanying information image.

また、付随情報のバイナリデータに対するビット数の分離規則は、4ビット以外の任意のビット数毎の分離を採用しても良い。また、付随情報画像の輝度解像度は、16以外の任意の数値としても良い。更に、付随情報画像は、輝度値以外の各種の画素値、例えば色相を用いて、情報を表しても良い。更に、付随情報画像の形態は、上述の例に限定されるものではない。   Further, the separation rule for the number of bits with respect to the binary data of the accompanying information may employ separation for any number of bits other than 4 bits. In addition, the luminance resolution of the accompanying information image may be an arbitrary numerical value other than 16. Further, the accompanying information image may represent information using various pixel values other than the luminance value, for example, hue. Furthermore, the form of the accompanying information image is not limited to the above example.

また、画素ブロック領域のサイズは、1つの画素ブロックではなく、複数の画素ブロックに対応していても良い。画素ブロックのサイズは4×4に限られないため、画素ブロック領域のサイズも、4×4の倍数に限られない。   In addition, the size of the pixel block area may correspond to a plurality of pixel blocks instead of one pixel block. Since the size of the pixel block is not limited to 4 × 4, the size of the pixel block region is not limited to a multiple of 4 × 4.

また、ビデオカメラ500から取得される映像は、例えば、ビデオカメラ500内部の、フレームメモリ、RAM(random access memory)、HDD(hard disk drive)等の記録媒体に一時的に保持された映像でも良い。この場合、映像処理装置は、ビデオカメラ500が映像に付加したタイムコードを、付随情報として取得しても良い。   The video acquired from the video camera 500 may be, for example, a video temporarily stored in a recording medium such as a frame memory, a random access memory (RAM), or a hard disk drive (HDD) in the video camera 500. . In this case, the video processing apparatus may acquire the time code added to the video by the video camera 500 as accompanying information.

また、映像処理装置200が処理の対象とするフレーム画像および付随情報は、映像レコーダやネットワーク400等、他の場所から取得しても良い。また、フレーム画像の内容および被写体、付随情報の種類も、上述の例に限定されるものではない。   Further, the frame image and accompanying information to be processed by the video processing apparatus 200 may be acquired from other places such as the video recorder and the network 400. Further, the content of the frame image, the subject, and the type of the accompanying information are not limited to the above example.

また、付随情報の内容は、時刻情報以外の各種情報とすることができる。例えば、映像がテレビジョン番組である場合の付随情報は、番組情報や、映像に映し出される被写体に関する情報(例えば、種別、状態、および座標)である。   The contents of the accompanying information can be various information other than the time information. For example, the accompanying information when the video is a television program is program information and information (for example, type, state, and coordinates) related to the subject displayed on the video.

また、付随情報画像は、フレーム画像を拡張した領域に挿入されるのではなく、フレーム画像の一部に上書きされても良い。   In addition, the accompanying information image may be overwritten on a part of the frame image instead of being inserted into the expanded area of the frame image.

また、映像処理装置200は、符号図形(画素ブロック)の左上以外の位置にフリッカピクセルを挿入しても良い。更に、映像処理装置200は、符号図形毎に複数のフリッカピクセルを挿入しても良い。   The video processing apparatus 200 may insert flicker pixels at positions other than the upper left of the code figure (pixel block). Further, the video processing apparatus 200 may insert a plurality of flicker pixels for each code figure.

次に、フリッカピクセルの拡張例について説明する。図15〜図17は、符号図形毎に複数のフリッカピクセルを挿入した場合の符号図形の例を示す図であり、図11に対応するものである。図15は、左端の縦一列の画素をフリッカピクセルとした場合の符号図形である。図16は、上端の横一列の画素をフリッカピクセルとした場合の符号図形である。図17は、上端の横一列と左端の縦一列とをフリッカピクセルとした場合の符号図形である。   Next, an example of extension of flicker pixels will be described. FIGS. 15 to 17 are diagrams showing examples of code figures when a plurality of flicker pixels are inserted for each code figure, and correspond to FIG. FIG. 15 is a code figure in a case where the leftmost vertical row of pixels is a flicker pixel. FIG. 16 is a code diagram in the case where the pixels in the upper horizontal row are flicker pixels. FIG. 17 is a code diagram in the case where the horizontal row at the upper end and the vertical row at the left end are flicker pixels.

このようにフリッカピクセルを複数にすることは、1つのフリッカピクセルの変化では復元結果に付随情報の変化が反映されないような場合に有効である。なお、複数のフリッカピクセルの配置は、上述の例に限定されるものではない。例えば、図15〜図17に示すフリッカピクセルの配置は、上下左右に反転、回転、または平行移動させた配置を採用しても良い。   The use of a plurality of flicker pixels in this way is effective when a change in one flicker pixel does not reflect a change in accompanying information in a restoration result. Note that the arrangement of the plurality of flicker pixels is not limited to the above example. For example, the flicker pixel arrangements shown in FIGS. 15 to 17 may be reversed, rotated, or translated in the vertical and horizontal directions.

(実施の形態2)
本発明の実施の形態2は、対象のブロック毎にフリッカピクセルの輝度値を平均化するようにした映像処理装置について説明する。
(Embodiment 2)
The second embodiment of the present invention will be described with reference to a video processing apparatus in which the luminance values of flicker pixels are averaged for each target block.

図18は、本発明の実施の形態2に係る映像処理装置の構成を示すブロック図であり、実施の形態1の図3に対応するものである。図3と同一部分には同一符号を付し、これについての説明を省略する。   FIG. 18 is a block diagram showing the configuration of the video processing apparatus according to the second embodiment of the present invention, and corresponds to FIG. 3 of the first embodiment. The same parts as those in FIG. 3 are denoted by the same reference numerals, and description thereof will be omitted.

図18において、映像処理装置200aは、実施の形態1の映像処理装置200の構成に加えて、フリッカピクセル平均化部260aを有する。   In FIG. 18, the video processing device 200a includes a flicker pixel averaging unit 260a in addition to the configuration of the video processing device 200 of the first embodiment.

フリッカピクセル平均化部260aは、フリッカピクセル挿入部240が付随情報画像に挿入するフリッカピクセルの輝度値を制御する。より具体的には、フリッカピクセル平均化部260aは、各画素ブロックに設けられた複数のフリッカピクセルの平均輝度が画素ブロック内で一定となるように、各フリッカピクセルの輝度値を制御する。   The flicker pixel averaging unit 260a controls the luminance value of the flicker pixel that the flicker pixel insertion unit 240 inserts into the accompanying information image. More specifically, the flicker pixel averaging unit 260a controls the luminance value of each flicker pixel so that the average luminance of a plurality of flicker pixels provided in each pixel block is constant within the pixel block.

一般的なMPEGエンコーダによるエンコード処理では、画素ブロック内に他の画素と輝度が大きく異なる画素が含まれるときに、他の画素の輝度が影響を受けて大きく変化することがある。これは、エンコード処理が、フレーム間圧縮だけでなくフレーム内圧縮を伴うこと、つまり、フレーム内の輝度変化を喪失させる方向に処理が働くことに起因している。   In a general MPEG encoder encoding process, when a pixel block includes a pixel whose luminance is significantly different from that of another pixel, the luminance of the other pixel may be greatly changed due to the influence. This is because the encoding process involves not only the inter-frame compression but also the intra-frame compression, that is, the process works in the direction of losing the luminance change in the frame.

そこで、フリッカピクセル平均化部260aは、平均輝度が常時一定になるように複数のフリッカピクセルの輝度値を制御することにより、このような現象を防止または緩和する。すなわち、フリッカピクセル平均化部260aの機能により、画素ブロックに対応する符号図形の非フリッカピクセルの輝度が、フリッカピクセルの影響を受けて変動してしまう現象を抑えることができる。   Therefore, the flicker pixel averaging unit 260a prevents or reduces such a phenomenon by controlling the luminance values of the plurality of flicker pixels so that the average luminance is always constant. That is, the function of the flicker pixel averaging unit 260a can suppress a phenomenon in which the luminance of the non-flicker pixel of the code figure corresponding to the pixel block varies due to the influence of the flicker pixel.

図19〜図21は、符号図形毎に平均化された複数のフリッカピクセルを挿入した場合の符号図形の例を示す図であり、実施の形態1の図11、図15〜図17に対応するものである。図19は、左端の縦一列および上端の左側の3つの画素からなるL字型の領域をフリッカピクセルとした場合の符号図形である。図20は、上端の横一列の画素をフリッカピクセルとした場合の符号図形である。図21は、上端の横一列と左端の縦一列とをフリッカピクセルとした場合の符号図形である。   19 to 21 are diagrams showing examples of code figures when a plurality of flicker pixels averaged for each code figure are inserted, and correspond to FIGS. 11 and 15 to 17 of the first embodiment. Is. FIG. 19 is a code diagram in the case where an L-shaped region composed of three pixels on the left side in the vertical column and on the left side in the upper end is a flicker pixel. FIG. 20 is a code diagram in the case where the pixels on the top horizontal row are flicker pixels. FIG. 21 is a code diagram in the case where the horizontal row at the top and the vertical row at the left are flicker pixels.

ここで、フリッカピクセルは、図19〜図21に示すように、符号図形毎に偶数であり、半数に分けられたフリッカピクセルのグループの間で、変化が逆になる(半周期ずれて反転する)ことが望ましい。これにより、複数のフリッカピクセル全体の平均輝度を容易に一定とすることができる。   Here, as shown in FIGS. 19 to 21, the flicker pixel is an even number for each code figure, and the change is reversed between the groups of flicker pixels divided into half (inverted with a half-cycle shift). Is desirable. As a result, the average luminance of the entire plurality of flicker pixels can be easily made constant.

また、図19、図21に示すように、隣接するフリッカピクセル間で変化が逆になることが望ましい。これにより、非フリッカピクセル853に対するフリッカピクセルの変化の影響を、更に小さく抑えることができる。   Also, as shown in FIGS. 19 and 21, it is desirable that the change be reversed between adjacent flicker pixels. Thereby, the influence of the flicker pixel change on the non-flicker pixel 853 can be further reduced.

なお、複数のフリッカピクセルの配置は、上述の例に限定されるものではない。例えば、図19〜図21に示すフリッカピクセルの配置は、上下左右に反転、回転、または平行移動させた配置を採用しても良い。   Note that the arrangement of the plurality of flicker pixels is not limited to the above example. For example, the flicker pixel arrangement shown in FIGS. 19 to 21 may be an arrangement that is inverted, rotated, or translated in the vertical and horizontal directions.

このように、本実施の形態に係る映像処理装置200aは、フリッカピクセルの変化に対して、非フリッカピクセルへの影響を抑えることができ、より情報量の多い付随情報をより正しく伝達することができる。言い換えると、映像処理装置200aは、付随情報が含まれる画素ブロックに対するフリッカピクセルの影響を抑えることができるので、再現性が高くより情報量の多い付随情報を、動画データ内に含めることができる。すなわち、映像処理装置200aは、フリッカピクセルの挿入により新たに不具合が発生するのを防ぐことができる。また、これにより、映像処理装置200aは、付随情報画像の多値分解能を、更に向上させることができる。   As described above, the video processing apparatus 200a according to the present embodiment can suppress the influence on the non-flicker pixel with respect to the change of the flicker pixel, and can transmit the accompanying information with a larger amount of information more correctly. it can. In other words, since the video processing device 200a can suppress the influence of flicker pixels on the pixel block including the accompanying information, the accompanying information with high reproducibility and a larger amount of information can be included in the moving image data. That is, the video processing apparatus 200a can prevent a new problem from occurring due to the insertion of the flicker pixel. Thereby, the video processing apparatus 200a can further improve the multi-value resolution of the accompanying information image.

本発明に係る映像処理装置および映像処理方法は、付随情報画像の情報伝達量を増大させることができる映像処理装置および映像処理方法として有用である。   INDUSTRIAL APPLICABILITY The video processing apparatus and video processing method according to the present invention are useful as a video processing apparatus and a video processing method that can increase the information transmission amount of the accompanying information image.

100 映像配信システム
200、200a 映像処理装置
210 フレーム画像取得部
220 付随情報取得部
230 付随情報挿入部
240 フリッカピクセル挿入部
250 エンコード部
260a フリッカピクセル平均化部
300 映像受信装置
310 デコード部
320 フレーム画像抽出部
330 フレーム付随情報抽出部
400 ネットワーク
500 ビデオカメラ
600 時計
700 出力装置
DESCRIPTION OF SYMBOLS 100 Video delivery system 200, 200a Video processing apparatus 210 Frame image acquisition part 220 Attached information acquisition part 230 Attached information insertion part 240 Flicker pixel insertion part 250 Encoding part 260a Flicker pixel averaging part 300 Video receiving apparatus 310 Decoding part 320 Frame image extraction Unit 330 frame-associated information extraction unit 400 network 500 video camera 600 clock 700 output device

Claims (8)

映像を構成する一連のフレーム画像を取得するフレーム画像取得部と、
前記フレーム画像を単位として変化する付随情報画像を、前記フレーム画像のそれぞれに挿入する付随情報挿入部と、
画素値が繰り返し変化するフリッカピクセルを、前記フレーム画像毎に挿入される前記付随情報画像のそれぞれに挿入するフリッカピクセル挿入部と、
前記フリッカピクセルを含む前記付随情報画像が挿入された一連の前記フレーム画像に対して、フレーム間圧縮処理を伴うエンコード処理を行う動画エンコード部と、
を有する映像処理装置。
A frame image acquisition unit for acquiring a series of frame images constituting the video;
An accompanying information insertion unit that inserts an accompanying information image that changes in units of the frame image into each of the frame images;
A flicker pixel insertion unit that inserts flicker pixels whose pixel values change repeatedly into each of the accompanying information images inserted for each frame image;
A video encoding unit that performs an encoding process with inter-frame compression processing on a series of the frame images in which the accompanying information image including the flicker pixels is inserted;
A video processing apparatus.
付随情報を取得し、取得した付随情報を多値データに変換する付随情報取得部、を更に有し、
前記付随情報挿入部は、
前記多値データを構成する値を、前記フレーム画像を単位として、前記フレーム間圧縮における動き補償の単位となる画素ブロックに割り振り、当該画素ブロックの画像に変換した画像を前記付随情報画像として取得する、
請求項1記載の映像処理装置。
It further includes an accompanying information acquisition unit that acquires the accompanying information and converts the acquired accompanying information into multi-value data.
The accompanying information insertion unit is
The values constituting the multi-value data are allocated to the pixel block which is a unit of motion compensation in the inter-frame compression in units of the frame image, and an image converted into the image of the pixel block is acquired as the accompanying information image. ,
The video processing apparatus according to claim 1.
前記付随情報は、前記映像の時間軸に対応して変化する情報であり、
前記付随情報取得部は、
前記付随情報を、前記映像の時間軸上で対応する前記フレーム画像に対応付けて、前記多値データに変換し、
前記付随情報挿入部は、
前記多値データを、その多値データが対応付けられた前記フレーム画像に挿入される前記付随情報画像に変換する、
請求項2記載の映像処理装置。
The accompanying information is information that changes corresponding to the time axis of the video,
The accompanying information acquisition unit
The accompanying information is associated with the frame image corresponding on the time axis of the video, and converted into the multi-value data,
The accompanying information insertion unit is
Converting the multi-value data into the accompanying information image to be inserted into the frame image associated with the multi-value data;
The video processing apparatus according to claim 2.
前記フレーム間圧縮処理は、静的特性の変化がより小さい前記画素ブロックに対して、より高い圧縮率で画像情報を圧縮する処理である、
請求項3記載の映像処理装置。
The inter-frame compression process is a process of compressing image information at a higher compression rate for the pixel block having a smaller change in static characteristics.
The video processing apparatus according to claim 3.
前記静的特性は、前記画素ブロックの画素値の平均を含む、
請求項4記載の映像処理装置。
The static characteristic includes an average of pixel values of the pixel block,
The video processing apparatus according to claim 4.
画素ブロック毎の前記フリッカピクセルの画素値の平均値が一定となるように、前記フリッカピクセルの画素値を制御するフリッカピクセル平均化部、を更に有する、
請求項5記載の映像処理装置。
A flicker pixel averaging unit that controls a pixel value of the flicker pixel so that an average value of pixel values of the flicker pixel for each pixel block is constant;
The video processing apparatus according to claim 5.
前記フリッカピクセル平均化部は、同一の多値データに対応する区間において、前記画素ブロック毎の画素値の平均値が一定となるように、前記フリッカピクセルの画素値および位置の少なくとも1つを制御する、
請求項6記載の映像処理装置。
The flicker pixel averaging unit controls at least one of the pixel value and the position of the flicker pixel so that an average value of pixel values for each pixel block is constant in a section corresponding to the same multi-value data. To
The video processing apparatus according to claim 6.
映像を構成する一連のフレーム画像を取得するステップと、
前記フレーム画像を単位として変化する付随情報画像を生成するステップと、
生成された付随情報画像のそれぞれに、画素値が繰り返し変化するフリッカピクセルを挿入するステップと、
前記フリッカピクセルを含む前記付随情報画像が挿入された一連の前記フレーム画像に対して、フレーム間圧縮処理を伴うエンコード処理を行うステップと、
を有する映像処理方法。
Obtaining a series of frame images constituting the video;
Generating an accompanying information image that changes in units of the frame image;
Inserting flicker pixels whose pixel values repeatedly change in each of the generated accompanying information images;
Performing an encoding process with inter-frame compression processing on a series of the frame images in which the accompanying information image including the flicker pixels is inserted;
A video processing method.
JP2009140547A 2009-06-11 2009-06-11 Device and method for processing video Pending JP2010288092A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009140547A JP2010288092A (en) 2009-06-11 2009-06-11 Device and method for processing video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009140547A JP2010288092A (en) 2009-06-11 2009-06-11 Device and method for processing video

Publications (1)

Publication Number Publication Date
JP2010288092A true JP2010288092A (en) 2010-12-24

Family

ID=43543473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009140547A Pending JP2010288092A (en) 2009-06-11 2009-06-11 Device and method for processing video

Country Status (1)

Country Link
JP (1) JP2010288092A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112616030A (en) * 2020-11-27 2021-04-06 西安诺瓦星云科技股份有限公司 Image frame data processing method, device and system and display control system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112616030A (en) * 2020-11-27 2021-04-06 西安诺瓦星云科技股份有限公司 Image frame data processing method, device and system and display control system

Similar Documents

Publication Publication Date Title
CN102204242B (en) Method and system for increasing frame-display rate
JP2020025251A (en) Method and system for encoding video with overlay
TWI323613B (en) Digital image encoding
EP2067120B1 (en) Creation and handling of a bitstream comprising video frames and auxiliary data
US8908982B2 (en) Image encoding device and image encoding method
US20180332305A1 (en) Video encoding method and apparatus with syntax element signaling of employed projection layout and associated video decoding method and apparatus
CN105144729A (en) Transmitting display management metadata over HDMI
US8254700B1 (en) Optimized method and system for entropy coding
JP2009010954A (en) Method and system for processing image at high speed
CN101350929A (en) Enhanced compression in representing non-frame-edge blocks of image frames
CN104429066A (en) Method for encoding a digital video image
JP2010098352A (en) Image information encoder
CN110087082B (en) Image processing apparatus and method for operating the same
EP2019552A2 (en) Image processing apparatus and method
US20130028528A1 (en) Image processing method, encoding device, decoding device, and image processing apparatus
JP2010288092A (en) Device and method for processing video
CN106537912A (en) Method and apparatus for processing image data
KR20070111111A (en) Method of compressing and decompressing image and equipment thereof
KR20190091179A (en) Image processing device and method for operating image processing device
JP2007036468A (en) Moving picture coding apparatus
JP5929530B2 (en) Image data compression coding apparatus, image data compression coding method, and image data compression coding program
JP5141334B2 (en) Picture encryption / decryption device
JP6606660B2 (en) Image data encoding device
Ulacha Method of Lossless and Near-Lossless Color Image Compression.
JP2011193357A (en) Server device, client terminal, communication system, control method and program