JP2016219973A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2016219973A
JP2016219973A JP2015101647A JP2015101647A JP2016219973A JP 2016219973 A JP2016219973 A JP 2016219973A JP 2015101647 A JP2015101647 A JP 2015101647A JP 2015101647 A JP2015101647 A JP 2015101647A JP 2016219973 A JP2016219973 A JP 2016219973A
Authority
JP
Japan
Prior art keywords
frame
thinning
unit
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015101647A
Other languages
Japanese (ja)
Inventor
清水 晃
Akira Shimizu
清水  晃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015101647A priority Critical patent/JP2016219973A/en
Priority to PCT/JP2016/061701 priority patent/WO2016185831A1/en
Publication of JP2016219973A publication Critical patent/JP2016219973A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform compression and expansion with simple processing during storing a frame composed of image signals in a storage device.SOLUTION: In an image processor, a storage part supplies a compressed frame being a frame subjected to compression by thinning-out for eliminating a portion of a plurality of image signals in a frame composed of a plurality of image signals. An expansion part expands the compressed frame by restoring the thinned image signals in the supplied compressed frame on the basis of thinning-out information being thinning-out information of each frame.SELECTED DRAWING: Figure 2

Description

本技術は、画像処理装置および画像処理方法に関する。詳しくは、画像処理の過程で一時的に記憶装置に画像信号を記憶させる画像処理装置および画像処理方法に関する。   The present technology relates to an image processing device and an image processing method. Specifically, the present invention relates to an image processing apparatus and an image processing method for temporarily storing an image signal in a storage device in the course of image processing.

従来、インターネット等を経由して供給されるストリームを処理して表示用の画像信号に変換する画像処理システムが使用されている。このストリームから表示用の画像信号を生成する際、各種の画像処理、例えば、画像の解像度を表示装置に合わせて変換する解像度変換処理等が行われる。これらの処理のたびに、1画面分の画像信号であるフレームを単位として処理された画像信号がメモリに記憶される。このフレームは、比較的容量が大きいため、大容量のDRAM(Dynamic Random Access Memory)に記憶される。また、動画を表示する際には時系列のフレームを逐次処理する必要があり、DRAMに対するアクセスが増加する。この結果、DRAMアクセスのための消費電力が増加するという問題がある。そこで、フレームを圧縮してDRAMに記憶させ、読み出した後に伸張して上述の画像処理に使用するシステムが提案されている(例えば、特許文献1参照。)。   Conventionally, an image processing system that processes a stream supplied via the Internet or the like and converts it into an image signal for display is used. When an image signal for display is generated from this stream, various image processing, for example, resolution conversion processing for converting the resolution of the image in accordance with the display device is performed. For each of these processes, an image signal processed in units of frames, which are image signals for one screen, is stored in the memory. Since this frame has a relatively large capacity, it is stored in a large capacity DRAM (Dynamic Random Access Memory). Further, when displaying a moving image, it is necessary to sequentially process time-series frames, and access to the DRAM increases. As a result, there is a problem that power consumption for DRAM access increases. In view of this, a system has been proposed in which a frame is compressed and stored in a DRAM, read out, decompressed and used for the above-described image processing (see, for example, Patent Document 1).

特開2010−251882号公報JP 2010-251882 A

上述の従来技術は、DRAMに記憶させる前に圧縮することによりフレームの容量を減らし、DRAMアクセスのための消費電力を削減するものである。この圧縮は画像信号を間引くことにより行われ、異なる間引き方法により生成された2つのフレームがDRAMに記憶される。これらを伸張する際には、2つのフレームから超解像処理を行って元のフレームを復元する。ここで、超解像処理とは、複数の低解像度フレームから1つの高解像度フレームを生成する処理である。演算を繰返し行って低解像度フレームから高解像度フレームを推定する方式が使用される。このように、上述の従来技術では、圧縮した2つフレームの復元を超解像処理により行うため、処理が複雑になるという問題がある。   The above-described conventional technique reduces the capacity of the frame by compressing the data before storing it in the DRAM, thereby reducing the power consumption for accessing the DRAM. This compression is performed by thinning the image signal, and two frames generated by different thinning methods are stored in the DRAM. When these are expanded, the original frame is restored by performing super-resolution processing from the two frames. Here, the super-resolution processing is processing for generating one high-resolution frame from a plurality of low-resolution frames. A method is used in which a high-resolution frame is estimated from a low-resolution frame by repeatedly performing an operation. As described above, the above-described conventional technology has a problem that the processing becomes complicated because the two compressed frames are restored by the super-resolution processing.

本技術はこのような状況に鑑みて生み出されたものであり、フレームを記憶装置に記憶させる際の圧縮および伸張を簡便な処理により行うことを目的とする。   The present technology has been created in view of such a situation, and an object thereof is to perform compression and expansion when a frame is stored in a storage device by simple processing.

本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、複数の画像信号により構成されるフレームにおいて上記複数の画像信号の一部を除去する間引きにより圧縮が行われた上記フレームである圧縮フレームを供給する記憶部と、上記供給された上記圧縮フレームにおける上記間引きされた上記画像信号を上記フレーム毎の上記間引きの情報である間引き情報に基づいて復元することにより上記圧縮フレームの伸張を行う伸張部とを具備する画像処理装置である。これにより、上記圧縮フレームが記憶部から供給されて伸張されるという作用をもたらす。   The present technology has been made to solve the above-described problems, and a first aspect of the present technology is compression by thinning out a part of the plurality of image signals in a frame composed of the plurality of image signals. The storage unit that supplies the compressed frame that is the frame that has been subjected to the restoration, and the thinned image signal in the supplied compressed frame is restored based on the thinning information that is the thinning information for each frame Accordingly, the image processing apparatus includes a decompression unit that decompresses the compressed frame. As a result, the compressed frame is supplied from the storage unit and expanded.

また、この第1の側面において、上記間引き情報を生成する間引き情報生成部と、上記間引き情報に基づく上記間引きにより上記フレームの上記圧縮を行って上記記憶部に記憶させる圧縮部とをさらに具備してもよい。これにより、上記間引きによりフレームの圧縮が行われるという作用をもたらす。   The first aspect further includes a thinning information generation unit that generates the thinning information, and a compression unit that performs the compression of the frame by the thinning based on the thinning information and stores the compressed frame in the storage unit. May be. This brings about the effect that the frame is compressed by the thinning-out.

また、この第1の側面において、上記間引き情報生成部は、上記フレームに含まれる上記画像信号数に対する上記間引きの対象となる上記画像信号数の比率である間引き率を上記間引き情報として生成し、上記圧縮部は、上記間引き率に基づいて上記間引きの対象となる上記画像信号数を決定して上記間引きを行ってもよい。これにより、上記間引き率に基づいて間引きが行われるという作用をもたらす。   Further, in this first aspect, the thinning information generation unit generates a thinning rate that is a ratio of the number of image signals to be thinned out with respect to the number of image signals included in the frame as the thinning information, The compression unit may perform the thinning by determining the number of image signals to be thinned based on the thinning rate. This brings about the effect that thinning is performed based on the thinning rate.

また、この第1の側面において、上記圧縮部は、上記フレームを水平方向に分割したラインにおける上記間引き対象の上記画像信号の配置の情報である複数の配置パターンを所定の順序により上記ライン毎の上記間引きに適用して上記圧縮を行い、上記伸張部は、上記配置パターンを上記所定の順序により上記ライン毎の上記復元に適用して上記伸張を行ってもよい。これにより、予め設定された順序により上記配置パターンが上記間引きおよび上記復元に適用されるという作用をもたらす。   In the first aspect, the compression unit may generate a plurality of arrangement patterns, which are information on the arrangement of the image signals to be thinned out, on a line obtained by dividing the frame in the horizontal direction for each line in a predetermined order. The compression may be performed by applying to the thinning, and the decompression unit may perform the decompression by applying the arrangement pattern to the restoration for each line in the predetermined order. This brings about the effect that the arrangement pattern is applied to the thinning and the restoration in a preset order.

また、この第1の側面において、上記間引き情報生成部は、上記間引き率と上記所定の順序の情報である間引き位置情報とを上記間引き情報として生成してもよい。これにより、上記間引き率および上記間引き位置情報が間引き情報として生成されるという作用をもたらす。   In the first aspect, the thinning information generation unit may generate the thinning rate and thinning position information that is information in the predetermined order as the thinning information. As a result, the thinning rate and the thinning position information are generated as thinning information.

また、この第1の側面において、上記間引き情報生成部は、上記間引き率と連続する複数の上記フレーム毎に異なる上記間引き位置情報とを上記間引き情報として生成してもよい。これにより、連続する複数の上記フレーム毎に異なる上記間引き位置情報が生成されるという作用をもたらす。   In the first aspect, the thinning information generation unit may generate, as the thinning information, the thinning position information that is different for each of the plurality of frames that are continuous with the thinning rate. This brings about the effect | action that the said thinning | decimation position information different for every said continuous several said flame | frame is produced | generated.

また、この第1の側面において、上記圧縮部は、上記間引きの対象となる上記画像信号が水平方向に隣接しない配置となる上記配置パターンに基づいて上記圧縮を行ってもよい。これにより、上記間引きの対象となる上記画像信号が水平方向に隣接しない配置になるという作用をもたらす。   In the first aspect, the compression unit may perform the compression based on the arrangement pattern in which the image signals to be thinned are arranged not adjacent to each other in the horizontal direction. This brings about the effect | action that the said image signal used as the said thinning-out object becomes the arrangement | positioning which is not adjacent in a horizontal direction.

また、この第1の側面において、上記フレームとは異なるフレームである第2のフレームと上記フレームとを所定の混合比率に基づいて混合して新たなフレームを生成するフレーム混合部をさらに具備し、上記間引き情報生成部は、上記混合比率に基づいて上記フレームおよび上記第2のフレームの上記間引き率を上記間引き情報として生成してもよい。これにより、上記混合比率に基づく上記フレームおよび上記第2のフレームの上記間引き率が上記間引き情報として生成されるという作用をもたらす。   The first aspect further includes a frame mixing unit that generates a new frame by mixing the second frame, which is a frame different from the frame, and the frame based on a predetermined mixing ratio, The thinning information generation unit may generate the thinning rate of the frame and the second frame as the thinning information based on the mixing ratio. This brings about the effect that the thinning rate of the frame and the second frame based on the mixing ratio is generated as the thinning information.

また、この第1の側面において、上記間引き情報を生成する間引き情報生成部をさらに具備し、上記記憶部は、上記フレームを記憶し、上記間引き情報に基づく上記間引きにより上記記憶した上記フレームの上記圧縮を行って上記伸張部に供給してもよい。これにより、上記フレームが記憶部において圧縮されるという作用をもたらす。   In the first aspect, the information processing apparatus further includes a thinning information generation unit that generates the thinning information. The storage unit stores the frame, and the frame is stored by the thinning based on the thinning information. You may compress and supply to the said expansion | extension part. This brings about the effect | action that the said flame | frame is compressed in a memory | storage part.

また、本技術の第2の側面は、複数の画像信号により構成されるフレームにおいて上記複数の画像信号の一部を除去する間引きにより圧縮が行われた上記フレームである圧縮フレームにおける上記間引きされた上記画像信号を上記フレーム毎の上記間引きの情報である間引き情報に基づいて復元することにより上記圧縮フレームの伸張を行う伸張手順を具備する画像処理方法である。これにより、上記圧縮フレームが記憶部から供給されて伸張されるという作用をもたらす。   In addition, according to a second aspect of the present technology, the thinning is performed on the compressed frame, which is the frame that is compressed by thinning to remove a part of the plurality of image signals in a frame including a plurality of image signals. The image processing method includes a decompression procedure for decompressing the compressed frame by restoring the image signal based on the thinning information which is the thinning information for each frame. As a result, the compressed frame is supplied from the storage unit and expanded.

本技術によれば、フレームを記憶装置に記憶させる際の圧縮および伸張を簡便な処理により行うという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。   According to the present technology, it is possible to achieve an excellent effect of performing compression and expansion when storing a frame in a storage device by a simple process. Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

本技術の第1の実施の形態における画像処理装置の構成例を示す図である。It is a figure showing an example of composition of an image processing device in a 1st embodiment of this art. 本技術の第1の実施の形態における画像処理装置の機能構成例を示す図である。It is a figure showing an example of functional composition of an image processing device in a 1st embodiment of this art. 本技術の第1の実施の形態における画像処理部100の処理の一例を示す図である。It is a figure showing an example of processing of image processing part 100 in a 1st embodiment of this art. 本技術の実施の形態における圧縮方法の一例を示す図である。It is a figure which shows an example of the compression method in embodiment of this technique. 本技術の第1の実施の形態における間引き情報例を示す図である。It is a figure showing an example of thinning information in a 1st embodiment of this art. 本技術の実施の形態における配置パターン(間引き率1/8)例を示す図である。It is a figure which shows the example of the arrangement | positioning pattern (thinning-out rate 1/8) in embodiment of this technique. 本技術の実施の形態における配置パターン(間引き率2/8)例を示す図である。It is a figure which shows the example of the arrangement pattern (thinning-out rate 2/8) in embodiment of this technique. 本技術の実施の形態における配置パターン(間引き率3/8)例を示す図である。It is a figure showing an example of arrangement pattern (thinning rate of 3/8) in an embodiment of the present technology. 本技術の実施の形態における配置パターン(間引き率4/8)例を示す図である。It is a figure showing an example of arrangement pattern (thinning rate of 4/8) in an embodiment of this art. 本技術の第1の実施の形態における圧縮部130の構成例を示す図である。It is a figure showing an example of composition of compression part 130 in a 1st embodiment of this art. 本技術の実施の形態における伸張方法の一例を示す図である。It is a figure which shows an example of the expansion | extension method in embodiment of this technique. 本技術の実施の形態における画像信号の復元方法の一例を示す図である。It is a figure showing an example of a restoration method of an image signal in an embodiment of this art. 本技術の第1の実施の形態における伸張部140の構成例を示す図である。It is a figure showing an example of composition of decompression part 140 in a 1st embodiment of this art. 本技術の第1の実施の形態における圧縮処理の一例を示す図である。It is a figure showing an example of compression processing in a 1st embodiment of this art. 本技術の第1の実施の形態における伸張処理の一例を示す図である。It is a figure showing an example of decompression processing in a 1st embodiment of this art. 本技術の第2の実施の形態における圧縮方法の一例を示す図である。It is a figure showing an example of the compression method in a 2nd embodiment of this art. 本技術の第2の実施の形態における間引き情報例を示す図である。It is a figure showing an example of thinning information in a 2nd embodiment of this art. 本技術の第3の実施の形態における画像処理装置の構成例を示す図である。It is a figure showing an example of composition of an image processing device in a 3rd embodiment of this art. 本技術の第3の実施の形態におけるフレーム処理部150の構成例を示す図である。It is a figure showing an example of composition of frame processing part 150 in a 3rd embodiment of this art. 本技術の第3の実施の形態における解像度変換部160の構成例を示す図である。It is a figure showing an example of composition of resolution conversion part 160 in a 3rd embodiment of this art. 本技術の第3の実施の形態におけるOSDイメージ生成部170の構成例を示す図である。It is a figure showing an example of composition of OSD image generation part 170 in a 3rd embodiment of this art. 本技術の第3の実施の形態におけるOSDイメージ表示部180の構成例を示す図である。It is a figure showing an example of composition of OSD image display part 180 in a 3rd embodiment of this art. 本技術の第4の実施の形態における画像処理部100の機能構成例を示す図である。It is a figure which shows the function structural example of the image process part 100 in 4th Embodiment of this technique. 本技術の第5の実施の形態における記憶部200の構成例を示す図である。It is a figure showing an example of composition of storage part 200 in a 5th embodiment of this art. 本技術の第5の実施の形態における画像処理部100の処理の一例を示す図である。It is a figure showing an example of processing of image processor 100 in a 5th embodiment of this art.

以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(間引き情報として間引き率を使用する場合の例)
2.第2の実施の形態(間引き情報として間引き率および間引き位置情報を使用する場合の例)
3.第3の実施の形態(複数の圧縮部および伸張部を使用する場合の例)
4.第4の実施の形態(2つのフレームを混合して表示する場合の例)
5.第5の実施の形態(記憶部が圧縮部を備える場合の例)
Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be made in the following order.
1. First embodiment (example when using a thinning rate as thinning information)
2. Second embodiment (example in which thinning rate and thinning position information are used as thinning information)
3. Third embodiment (example in the case of using a plurality of compression units and expansion units)
4). Fourth embodiment (example in which two frames are mixed and displayed)
5. Fifth embodiment (example when the storage unit includes a compression unit)

<1.第1の実施の形態>
[画像処理装置の構成]
図1は、本技術の第1の実施の形態における画像処理装置の構成例を示す図である。この画像処理装置は、画像処理部100と、記憶部200とを備える。
<1. First Embodiment>
[Configuration of image processing apparatus]
FIG. 1 is a diagram illustrating a configuration example of an image processing device according to the first embodiment of the present technology. This image processing apparatus includes an image processing unit 100 and a storage unit 200.

画像処理部100は、入力されたストリームを処理して1画面分の画像信号であるフレームを生成し、表示装置300に適合する形式に変換した表示用フレームを出力するものである。出力された表示用フレームは、表示装置300にて表示される。   The image processing unit 100 processes an input stream to generate a frame which is an image signal for one screen, and outputs a display frame converted into a format suitable for the display device 300. The output display frame is displayed on the display device 300.

記憶部200は、画像処理部100における処理の過程で生成されたフレーム等のデータを記憶するものである。この記憶部200は、後述するように圧縮されたフレームを画像処理部100に供給する。また、この記憶部200には、SDRAM(Synchronous DRAM)等の高速にアクセス可能なDRAMを使用することができる。
[画像処理部の構成]
The storage unit 200 stores data such as frames generated in the course of processing in the image processing unit 100. The storage unit 200 supplies the compressed frame to the image processing unit 100 as will be described later. The storage unit 200 can be a DRAM that can be accessed at high speed, such as SDRAM (Synchronous DRAM).
[Configuration of image processing unit]

同図の画像処理部100は、デマルチプレクサ102と、プロセッサ103と、記憶部インターフェース104と、ビデオデコーダ120と、圧縮部130と、伸張部140と、フレーム処理部150と、解像度変換部160とを備える。また、画像処理部100は、オンスクリーンディスプレイ(OSD:On Screen Display)イメージ生成部170と、OSDイメージ表示部180と、混合部190とをさらに備える。これらは、バス101により相互に接続される。   The image processing unit 100 in FIG. 1 includes a demultiplexer 102, a processor 103, a storage unit interface 104, a video decoder 120, a compression unit 130, a decompression unit 140, a frame processing unit 150, and a resolution conversion unit 160. Is provided. The image processing unit 100 further includes an on-screen display (OSD) image generation unit 170, an OSD image display unit 180, and a mixing unit 190. These are connected to each other by a bus 101.

デマルチプレクサ102は、デマルチプレクスを行うものである。このデマルチプレクスは、多重化された画像データ、音声データおよび字幕データをストリームから分離する処理である。   The demultiplexer 102 performs demultiplexing. This demultiplexing is a process of separating multiplexed image data, audio data, and caption data from a stream.

プロセッサ103は、画像処理部100の全体を制御するものである。このプロセッサ103は、ファームウェアに基づいて画像処理部100の各部を制御する。なお、このファームウェアは図示しないROM(Read Only Memory)に記憶される。   The processor 103 controls the entire image processing unit 100. The processor 103 controls each unit of the image processing unit 100 based on the firmware. The firmware is stored in a ROM (Read Only Memory) (not shown).

記憶部インターフェース104は、記憶部200とのやり取りを行うインターフェースである。   The storage unit interface 104 is an interface for exchanging with the storage unit 200.

ビデオデコーダ120は、デマルチプレクサ102により分離された画像データを連続する複数のフレームに変換するものである。このビデオデコーダ120は、符号化された画像データの復号を行うことにより、画像データをフレームに変換する。   The video decoder 120 converts the image data separated by the demultiplexer 102 into a plurality of continuous frames. The video decoder 120 converts the image data into frames by decoding the encoded image data.

圧縮部130は、後述する間引き情報に基づいてフレームの圧縮を行うものである。ここで、フレームのデータ量を削減することを圧縮と称する。圧縮されたフレーム(以下、圧縮フレームと称する)は、記憶部200に記憶される。圧縮部130における圧縮の詳細については、後述する。   The compression unit 130 compresses frames based on thinning information described later. Here, reducing the data amount of the frame is referred to as compression. The compressed frame (hereinafter referred to as a compressed frame) is stored in the storage unit 200. Details of compression in the compression unit 130 will be described later.

伸張部140は、間引き情報に基づいて記憶部200に保持された圧縮フレームの伸張を行うものである。ここで、圧縮フレームを元のフレームに戻すことを伸張と称する。伸張部140における伸張の詳細については、後述する。   The decompression unit 140 decompresses the compressed frame held in the storage unit 200 based on the thinning information. Here, returning the compressed frame to the original frame is referred to as decompression. Details of expansion in the expansion unit 140 will be described later.

フレーム処理部150は、フレームを処理するものである。このフレームの処理には、例えば、フレームの走査方式をインターレースおよびプログレッシブ相互に変更するインターレース・プログレッシブ変換処理やフレームに含まれるノイズを除去するノイズリダクション処理等が該当する。   The frame processing unit 150 processes a frame. This frame processing includes, for example, interlace / progressive conversion processing for changing the frame scanning method between interlace and progressive, noise reduction processing for removing noise contained in the frame, and the like.

解像度変換部160は、フレームの解像度を変換するものである。この解像度変換部160は、フレームの解像度と表示装置300の解像度とが異なる場合に、フレームの解像度を表示装置300の解像度に変換する。   The resolution converter 160 converts the resolution of the frame. The resolution conversion unit 160 converts the frame resolution to the display device 300 resolution when the frame resolution and the display device 300 resolution are different.

OSDイメージ生成部170は、オンスクリーンディスプレイ(OSD)イメージを生成するものである。ここで、OSDイメージとは、字幕部分やアイコン、メニュー等のユーザインターフェースであり、ストリーム等により供給された画像等に重畳されて表示される画像である。このOSDイメージもフレームの一種であり、圧縮部130による圧縮および伸張部140による伸張の対象として処理される。   The OSD image generation unit 170 generates an on-screen display (OSD) image. Here, the OSD image is a user interface such as a subtitle portion, an icon, and a menu, and is an image that is displayed by being superimposed on an image supplied by a stream or the like. This OSD image is also a kind of frame, and is processed as a target of compression by the compression unit 130 and expansion by the expansion unit 140.

OSDイメージ表示部180は、OSDイメージ生成部170により生成されたOSDイメージの解像度を表示装置300の解像度に変換するものである。   The OSD image display unit 180 converts the resolution of the OSD image generated by the OSD image generation unit 170 into the resolution of the display device 300.

混合部190は、解像度変換部160およびOSDイメージ表示部180によりそれぞれ解像度が変換されたフレームおよびOSDイメージを混合して1つのフレームを生成するものである。生成されたフレームは、表示用フレームとして表示装置300に対して出力される。混合部190における混合方法としてフレームおよびOSDイメージを所定の混合比率に基づいて混合するアルファブレンドを使用することができる。この混合比率は、フレームの画像等に基づいてプロセッサ103により決定される。   The mixing unit 190 generates a single frame by mixing the frame and the OSD image whose resolution has been converted by the resolution conversion unit 160 and the OSD image display unit 180, respectively. The generated frame is output to the display device 300 as a display frame. As a mixing method in the mixing unit 190, alpha blend that mixes a frame and an OSD image based on a predetermined mixing ratio can be used. The mixing ratio is determined by the processor 103 based on the frame image and the like.

なお、同図のデマルチプレクサ102等は専用ハードウェアにより実現されているが、プロセッサ103が実行するソフトウェアによる処理として実現することもできる。   Note that the demultiplexer 102 and the like in the figure are realized by dedicated hardware, but can also be realized as processing by software executed by the processor 103.

次に、画像処理部100と記憶部200との間のデータのやり取りについて説明する。フレーム等を記憶部200に記憶させる際には、プロセッサ103が書込みを指示するコマンド(書込みコマンド)を生成し、記憶部200に対して出力する。このコマンドに付随して、書込み先のアドレスおよび書込み対象のデータが記憶部200に対して出力される。記憶部200は、書込みコマンドを解釈して書き込み先のアドレスに書き込み対象のデータを記憶させる。一方、記憶部200からフレーム等を読み出す場合には、プロセッサ103が読出しを指示するコマンド(読出しコマンド)を生成し、記憶部200に対して出力する。このコマンドに付随して、読出し先のアドレスが記憶部200に対して出力される。記憶部200は、読出しコマンドを解釈して読出し先のアドレスに記憶されたデータを画像処理部100に対して出力する。このように、画像処理部100と記憶部200との間のデータのやり取りが行われる。   Next, data exchange between the image processing unit 100 and the storage unit 200 will be described. When storing a frame or the like in the storage unit 200, the processor 103 generates a command for instructing writing (write command) and outputs the command to the storage unit 200. Along with this command, a write destination address and write target data are output to the storage unit 200. The storage unit 200 interprets the write command and stores the write target data at the write destination address. On the other hand, when a frame or the like is read from the storage unit 200, the processor 103 generates a command (read command) that instructs reading, and outputs the command to the storage unit 200. Along with this command, a read destination address is output to the storage unit 200. The storage unit 200 interprets the read command and outputs the data stored at the read destination address to the image processing unit 100. In this manner, data is exchanged between the image processing unit 100 and the storage unit 200.

図2は、本技術の第1の実施の形態における画像処理装置の機能構成例を示す図である。同図は、画像処理部100の各部および記憶部200の機能構成とフレーム等のデータの流れを表したものである。同図の画像処理部100は、間引き情報生成部110を備える点で図1において説明した画像処理部100と異なっている。この間引き情報生成部110は、後述する間引き情報をフレームに基づいて生成し、圧縮部130および伸張部140に供給するものである。間引き情報生成部110の処理は、例えば、図1において説明したプロセッサ103によりソフトウェアにより実行される。   FIG. 2 is a diagram illustrating a functional configuration example of the image processing apparatus according to the first embodiment of the present technology. This figure shows the functional configuration of each unit of the image processing unit 100 and the storage unit 200 and the flow of data such as frames. The image processing unit 100 shown in the figure is different from the image processing unit 100 described in FIG. 1 in that a thinning information generation unit 110 is provided. The thinning information generation unit 110 generates thinning information, which will be described later, based on a frame, and supplies the thinning information to the compression unit 130 and the decompression unit 140. The processing of the thinning information generation unit 110 is executed by software, for example, by the processor 103 described with reference to FIG.

画像処理装置に入力されたストリームは、デマルチプレクサ102により画像データ、音声データおよび字幕データに分離され、それぞれ記憶部200に記憶される。このうち音声データは、スピーカ等(不図示)により音声に変換されて出力される。   The stream input to the image processing apparatus is separated into image data, audio data, and caption data by the demultiplexer 102 and stored in the storage unit 200. Of these, the audio data is converted into audio and output by a speaker or the like (not shown).

一方、画像データは、記憶部200から読み出されて、ビデオデコーダ120に入力される。このビデオデコーダ120により、画像データはフレームに変換されて、記憶部200に記憶される。次に、このフレームは、記憶部200から読み出されて、フレーム処理部150に入力される。フレーム処理部150により、処理されたフレーム(以下、処理済みフレームと称する)は、圧縮部130により圧縮されて記憶部200に記憶される。この際、間引き情報生成部110が後述する間引き情報をフレームに基づいて生成し、この生成された間引き情報に基づいて圧縮部130による圧縮が行われる。次に、圧縮された処理済みフレーム(以下、処理済み圧縮フレームと称する)は、記憶部200から読み出されて、伸張部140により伸張され、再度処理済みフレームに変換される。この処理済み変換フレームは、解像度変換部160により解像度が変換されて、混合部190に入力される。   On the other hand, the image data is read from the storage unit 200 and input to the video decoder 120. The video decoder 120 converts the image data into frames and stores them in the storage unit 200. Next, this frame is read from the storage unit 200 and input to the frame processing unit 150. Frames processed by the frame processing unit 150 (hereinafter referred to as processed frames) are compressed by the compression unit 130 and stored in the storage unit 200. At this time, the thinning information generation unit 110 generates thinning information to be described later based on the frame, and the compression unit 130 performs compression based on the generated thinning information. Next, the compressed processed frame (hereinafter referred to as a processed compressed frame) is read from the storage unit 200, decompressed by the decompressing unit 140, and converted into a processed frame again. The resolution of the processed converted frame is converted by the resolution conversion unit 160 and input to the mixing unit 190.

また、字幕データは、記憶部200から読み出されてOSDイメージ生成部170に入力される。この字幕データに基づいてOSDイメージが生成される。また、アイコンやメニューを表示させる際にもOSDイメージ生成部170によりOSDイメージが生成される。これら生成されたOSDイメージは、圧縮部130により圧縮されて記憶部200に記憶される。この際にも、間引き情報生成部110が生成する間引き情報に基づいて圧縮部130による圧縮が行われる。次に、圧縮されたOSDイメージは、記憶部200から読み出され、伸張部140により伸張されて、OSDイメージ表示部180に入力される。OSDイメージ表示部180により、OSDイメージの解像度が変換されて混合部190に入力される。   The caption data is read from the storage unit 200 and input to the OSD image generation unit 170. An OSD image is generated based on the caption data. The OSD image generation unit 170 also generates an OSD image when displaying icons and menus. These generated OSD images are compressed by the compression unit 130 and stored in the storage unit 200. Also at this time, compression by the compression unit 130 is performed based on the thinning information generated by the thinning information generation unit 110. Next, the compressed OSD image is read from the storage unit 200, decompressed by the decompression unit 140, and input to the OSD image display unit 180. The OSD image display unit 180 converts the resolution of the OSD image and inputs it to the mixing unit 190.

解像度が変更された処理済みフレームおよびOSDイメージが混合部190により混合され、表示用フレームとして出力される。   The processed frame whose resolution has been changed and the OSD image are mixed by the mixing unit 190 and output as a display frame.

このように、処理済みフレームおよびOSDイメージが圧縮部130により圧縮されて記憶部200に記憶される。また、圧縮されたこれらのフレームが記憶部200から読み出された後に伸張部140により伸張される。これらにより、記憶部200との間で転送されるデータ量が削減され、消費電力を低減することができる。   As described above, the processed frame and the OSD image are compressed by the compression unit 130 and stored in the storage unit 200. The compressed frames are read from the storage unit 200 and then expanded by the expansion unit 140. As a result, the amount of data transferred to and from the storage unit 200 can be reduced, and power consumption can be reduced.

図3は、本技術の第1の実施の形態における画像処理部100の処理の一例を示す図である。同図は、図2において説明した機能構成図の各部における処理の流れを表したものである。同図において「DRAM」と表記された部分の処理は、フレーム等が記憶部200に記憶される処理または記憶部200からフレーム等を読み出す処理を表している。   FIG. 3 is a diagram illustrating an example of processing of the image processing unit 100 according to the first embodiment of the present technology. This figure shows the flow of processing in each part of the functional configuration diagram described in FIG. In the drawing, the processing of the portion denoted as “DRAM” represents processing for storing a frame or the like in the storage unit 200 or processing for reading a frame or the like from the storage unit 200.

まず、画像処理部100に入力されたストリームはデマルチプレクサ102によりデマルチプレクス処理が行われ、ストリームから分離された画像データが記憶部200に記憶される。次に、記憶部200に記憶された画像テータが読み出されて、ビデオデコーダ120により復号されてフレームが生成されて、記憶部200に記憶される。次に、記憶部200に記憶されたフレームが読み出され、間引き情報生成部110が読み出されたフレームに基づいて間引き情報を生成する。生成された間引き情報は、以降の圧縮部130における圧縮処理および伸張部140における伸張処理に使用される。また、記憶部200から読み出されたフレームは、フレーム処理部150により処理されて処理済みフレームが生成され、圧縮部130により圧縮されて記憶部200に記憶される。次に、記憶部200から読み出された処理済み圧縮フレームが伸張部140により伸張され、解像度変換部160により解像度が変換される。   First, the stream input to the image processing unit 100 is demultiplexed by the demultiplexer 102, and the image data separated from the stream is stored in the storage unit 200. Next, the image data stored in the storage unit 200 is read out, decoded by the video decoder 120 to generate a frame, and stored in the storage unit 200. Next, the frame stored in the storage unit 200 is read, and the thinning information generation unit 110 generates thinning information based on the read frame. The generated thinning information is used for subsequent compression processing in the compression unit 130 and expansion processing in the expansion unit 140. The frame read from the storage unit 200 is processed by the frame processing unit 150 to generate a processed frame, and is compressed by the compression unit 130 and stored in the storage unit 200. Next, the processed compressed frame read from the storage unit 200 is expanded by the expansion unit 140 and the resolution is converted by the resolution conversion unit 160.

一方、OSDイメージは、OSDイメージ生成部170により生成され、圧縮部130により圧縮されて、記憶部200に記憶される。次に、記憶部200から読み出された圧縮されたOSDイメージが伸張部140により伸張されて、OSDイメージ表示部180により解像度が変換される。   On the other hand, the OSD image is generated by the OSD image generation unit 170, compressed by the compression unit 130, and stored in the storage unit 200. Next, the compressed OSD image read from the storage unit 200 is expanded by the expansion unit 140, and the resolution is converted by the OSD image display unit 180.

最後に、解像度が変更された処理済みフレームおよびOSDイメージが混合部190により混合される。   Finally, the processed frame and the OSD image whose resolution has been changed are mixed by the mixing unit 190.

[圧縮方法]
図4は、本技術の実施の形態における圧縮方法の一例を示す図である。同図に記載された円は、フレームにおける画像信号を表している。このように、フレームは、画像信号が2次元に配置されて構成されている。フレームを水平方向に分割した際の複数の画像信号がラインに該当する。同図のフレームは、n本のラインを有している。同図の画像信号に付された番号は、各ラインの先頭からの位置を表している。
[Compression method]
FIG. 4 is a diagram illustrating an example of a compression method according to the embodiment of the present technology. Circles shown in the figure represent image signals in a frame. Thus, the frame is configured by arranging image signals in two dimensions. A plurality of image signals when a frame is divided in the horizontal direction corresponds to a line. The frame shown in the figure has n lines. The numbers assigned to the image signals in the figure represent the positions from the beginning of each line.

本技術の実施の形態における圧縮は、画像信号の間引きにより行われる。ここで、間引きとは、フレームを構成する複数の画像信号の一部を除去することである。同図の画像信号のうち点線により記載された画像信号501が間引き対象の画像信号に該当する。この間引き対象の画像信号を除去し、他の画像信号502のみにより構成されたフレームに変換することにより圧縮を行うことができる。間引きは、フレームに含まれる画像信号数に対する間引き対象となる画像信号数の比率である間引き率に基づいて行うことができる。同図では、8個の画像信号毎に1個の画像信号を間引きしており、間引き率は1/8になる。間引き率が高いほど圧縮後のフレームの画像信号数が少なくなり、高い圧縮率にすることができる。また、間引き率は、フレームを構成する全てのラインに対して同じ値にすることができる。   The compression in the embodiment of the present technology is performed by thinning out image signals. Here, the thinning is to remove a part of a plurality of image signals constituting a frame. An image signal 501 indicated by a dotted line in the image signal in FIG. Compression can be performed by removing the image signal to be thinned out and converting the image signal into a frame composed of only another image signal 502. The thinning can be performed based on a thinning rate that is a ratio of the number of image signals to be thinned out to the number of image signals included in the frame. In the figure, one image signal is thinned out for every eight image signals, and the thinning rate becomes 1/8. The higher the thinning rate, the smaller the number of image signals in the compressed frame, and the higher the compression rate. Further, the thinning rate can be set to the same value for all the lines constituting the frame.

この間引き率は、前述した間引き情報に該当し、図2において説明した間引き情報生成部110によりフレーム毎に生成される。この際、間引き情報生成部110は、フレームの解像度等に基づいて間引き情報を生成することができる。例えば、解像度が高いフレームの場合やマルチ画面のように複数の画像を表示する場合には高い間引き率とし、解像度が低いフレームの場合には低い間引き率とした間引き情報を生成することができる。   This thinning rate corresponds to the thinning information described above, and is generated for each frame by the thinning information generation unit 110 described with reference to FIG. At this time, the thinning information generation unit 110 can generate thinning information based on the resolution of the frame and the like. For example, it is possible to generate thinning information with a high thinning rate when a frame has a high resolution or when a plurality of images are displayed like a multi-screen, and with a low thinning rate when the frame has a low resolution.

同図では、ライン内の間引き対象の画像信号501が水平方向に隣接しない配置となっている。これにより、ラインにおいて間引き対象の画像信号501が集中することを防ぐことができる。後述するように、圧縮フレームを元のフレーム変換する際、間引かれた画像信号を復元する処理が行われる。この復元された画像信号がライン内の特定の位置に集中すると画像の劣化が目立ち、画質が低下するためである。また、同図では、ライン毎に間引き対象の画像信号501の位置をずらしている。これにより、フレームの特定の列に間引き対象の画像信号が集中することを防ぐことができる。特定の列への復元された画像信号の集中を防ぐためである。同図のように間引き率が1/8の場合、間引き対象の画像信号および他の画像信号の配置の組合せは、8通り存在する。ここで、この組合せを配置パターンと称する。この8通りの配置パターンをフレームにおける第1のラインから順に適用して間引きを行うことにより、間引き対象の画像信号501の位置をライン毎にずらすことができる。   In the figure, the image signals 501 to be thinned out in the line are arranged so as not to be adjacent in the horizontal direction. Thereby, it is possible to prevent the image signals 501 to be thinned out from being concentrated on the line. As will be described later, when the compressed frame is converted into the original frame, a process of restoring the thinned image signal is performed. This is because when the restored image signal is concentrated at a specific position in the line, the image is noticeably deteriorated and the image quality is lowered. In the figure, the position of the image signal 501 to be thinned is shifted for each line. Thereby, it is possible to prevent the image signals to be thinned out from concentrating on a specific column of the frame. This is to prevent the restored image signal from being concentrated on a specific column. As shown in the figure, when the thinning rate is 1/8, there are eight combinations of the arrangement of image signals to be thinned and other image signals. Here, this combination is referred to as an arrangement pattern. By thinning out the eight arrangement patterns in order from the first line in the frame, the position of the image signal 501 to be thinned can be shifted for each line.

[間引き情報]
図5は、本技術の第1の実施の形態における間引き情報例を示す図である。同図に表したように、フレーム毎の間引き率が間引き情報として記録される。この間引き情報は、圧縮部130による圧縮の後に、記憶部200に記憶させてもよい。伸張部140において圧縮フレームの伸張を行う際には、圧縮フレームに対応した間引き情報を記憶部200から読み出して使用することができる。なお、この間引き情報は、フレーム毎の画像の情報、例えば表示位置やカラーフォーマット等の画像パラメータとともに保持する方式を使用することもできる。また、間引き情報を圧縮フレームに付加して記憶部200に記憶させることもできる。この場合、圧縮部130が圧縮フレームに間引き情報を付加し、伸張部140が間引き情報を圧縮フレームから取り出して伸張を行う。さらに、間引き情報をフレームのライン毎に付加する構成を採ることもできる。この場合には、ライン単位で間引情報が生成される。これにより、間引き率をライン毎に変更することが可能となる。
[Thinning information]
FIG. 5 is a diagram illustrating an example of thinning information according to the first embodiment of the present technology. As shown in the figure, the thinning rate for each frame is recorded as thinning information. This thinning information may be stored in the storage unit 200 after being compressed by the compression unit 130. When the decompression unit 140 decompresses the compressed frame, the thinning information corresponding to the compressed frame can be read from the storage unit 200 and used. It should be noted that this thinning-out information can use a method of holding together with image information for each frame, for example, image parameters such as display position and color format. Further, the thinning information can be added to the compressed frame and stored in the storage unit 200. In this case, the compression unit 130 adds thinning information to the compressed frame, and the decompression unit 140 extracts the thinning information from the compressed frame and performs decompression. Furthermore, it is possible to adopt a configuration in which thinning information is added for each line of the frame. In this case, thinning information is generated for each line. As a result, the thinning rate can be changed for each line.

[配置パターン]
図6は、本技術の実施の形態における配置パターン(間引き率1/8)例を示す図である。同図におけるaは、間引き率1/8の場合の配置パターンの例を表したものである。これは、図5と同様に、8個の画像信号に対して1個の間引き対象の画像信号501が配置された場合の例である。同図におけるbは、間引き率1/8の場合の配置パターンの例を表したものである。前述のように、間引き率1/8の場合には、8通りの配置パターンが存在する。この8通りの配置パターンがライン毎に順に適用されて間引きが行われる。
[Placement pattern]
FIG. 6 is a diagram illustrating an example of an arrangement pattern (thinning rate 1/8) according to the embodiment of the present technology. In the figure, a represents an example of an arrangement pattern when the thinning rate is 1/8. This is an example in which one thinning target image signal 501 is arranged for eight image signals as in FIG. In the figure, b represents an example of an arrangement pattern when the thinning rate is 1/8. As described above, when the thinning rate is 1/8, there are eight arrangement patterns. These eight arrangement patterns are sequentially applied to each line, and thinning is performed.

同図におけるbは、間引き対象の画像信号501がライン毎に右方向にシフトする順に配置パターンが適用されて間引きが行われる例を表している。配置パターンは、間引き位置情報により識別することができる。同図におけるbでは、8通りの配置パターンのそれぞれに間引き位置情報として1乃至8を付している。これらの配置パターンのフレームにおける各ラインへの適用順序を予め定めておき、この順序に基づいてフレームの圧縮および伸張を行うことができる。例えば、間引き位置情報1乃至8に対応する配置パターンがこの順に各ラインに適用されるものと定めることができる。この場合、フレームの第1のラインから順に間引き位置情報1乃至8に対応する配置パターンが適用されて、圧縮および伸張の際に使用される。   In the figure, b represents an example in which thinning is performed by applying an arrangement pattern in the order in which the image signal 501 to be thinned is shifted to the right for each line. The arrangement pattern can be identified by the thinning position information. In FIG. 6B, 1 to 8 are assigned as thinning position information to each of the eight arrangement patterns. The order of application of these arrangement patterns to each line in the frame can be determined in advance, and the compression and decompression of the frame can be performed based on this order. For example, it can be determined that the arrangement pattern corresponding to the thinning position information 1 to 8 is applied to each line in this order. In this case, an arrangement pattern corresponding to the thinning position information 1 to 8 is applied in order from the first line of the frame, and is used for compression and expansion.

各ラインにおける間引き対象の画像信号の位置は、次式により算出することができる。
N=((a+b−2)%8+1)+8×n ・・・(式1)
ただし、Nは、間引き対象の画像信号の各ラインにおける先頭からの位置を表す。aは、間引き率に応じた間引き対象の画像信号の位置を表す。同図の例では、a=1となる。nは、0および正の整数を表す。すなわち、n=0、1、2・・・である。なお、%は、剰余演算を表す演算子である。
The position of the image signal to be thinned out in each line can be calculated by the following equation.
N = ((a + b−2)% 8 + 1) + 8 × n (Expression 1)
However, N represents the position from the head in each line of the image signal to be thinned. a represents the position of the image signal to be thinned out according to the thinning rate. In the example of the figure, a = 1. n represents 0 and a positive integer. That is, n = 0, 1, 2,. Note that% is an operator representing a remainder operation.

図7は、本技術の実施の形態における配置パターン(間引き率2/8)例を示す図である。同図におけるaは、間引き率2/8の場合の配置パターンの例を表したものであり、8個の画像信号に対して2個の間引き対象の画像信号が配置される。同図におけるbは、間引き率2/8の場合の配置パターンの例を表したものである。同図におけるbの間引き位置情報は図6と同様であるため、説明を省略する。同図においても、各ラインにおける間引き対象の画像信号の位置は、式1により算出することができる。ただし、a=1、5となる。   FIG. 7 is a diagram illustrating an example of an arrangement pattern (thinning rate 2/8) according to the embodiment of the present technology. In the figure, “a” represents an example of an arrangement pattern when the thinning rate is 2/8, and two image signals to be thinned are arranged for eight image signals. B in the figure represents an example of an arrangement pattern when the thinning rate is 2/8. The thinning-out position information b in FIG. 10 is the same as that in FIG. Also in the figure, the position of the image signal to be thinned out in each line can be calculated by Equation 1. However, a = 1 and 5.

図8は、本技術の実施の形態における配置パターン(間引き率3/8)例を示す図である。同図におけるaは、間引き率3/8の場合の配置パターンの例を表したものであり、8個の画像信号に対して3個の間引き対象の画像信号が配置される。同図におけるbは、間引き率3/8の場合の配置パターンの例を表したものである。各ラインにおける間引き対象の画像信号の位置は、式1においてa=1、3、5とすることにより算出することができる。   FIG. 8 is a diagram illustrating an example of an arrangement pattern (thinning rate 3/8) according to the embodiment of the present technology. In the figure, “a” represents an example of an arrangement pattern when the thinning rate is 3/8, and three image signals to be thinned are arranged for eight image signals. B in the figure represents an example of an arrangement pattern when the thinning rate is 3/8. The position of the image signal to be thinned out in each line can be calculated by setting a = 1, 3, 5 in Equation 1.

図9は、本技術の実施の形態における配置パターン(間引き率4/8)例を示す図である。同図におけるaは、間引き率4/8の場合の配置パターンの例を表したものであり、8個の画像信号に対して4個の間引き対象の画像信号が配置される。同図におけるbは、間引き率4/8の場合の配置パターンの例を表したものである。各ラインにおける間引き対象の画像信号の位置は、式1においてa=1、3、5、7とすることにより算出することができる。   FIG. 9 is a diagram illustrating an example of an arrangement pattern (thinning rate 4/8) according to the embodiment of the present technology. In the figure, “a” represents an example of an arrangement pattern when the thinning rate is 4/8, and four image signals to be thinned are arranged for eight image signals. B in the figure represents an example of an arrangement pattern when the thinning rate is 4/8. The position of the image signal to be thinned out in each line can be calculated by setting a = 1, 3, 5, 7 in Equation 1.

前述のように、ライン内の間引き対象の画像信号501を水平方向に隣接しない配置にするため、間引き率は最大でも4/8すなわち1/2にする必要がある。このため、同図の配置パターンが本技術の実施の形態における最大の間引き率となる。同図におけるbにおいて、画像信号は斜め方向の1ライン毎に間引きされており、斜め方向の解像度は1/2になる。一方、画像信号の垂直および水平方向については、間引き前と同じ解像度が維持されており、後述する伸張処理を容易に行うことができる。多くの自然画では、斜め方向の解像度より垂直および水平方向の解像度の方が高いため、本技術の実施の形態の圧縮および伸張方式は、自然画を処理するシステムに適合する方式である。   As described above, in order to arrange the image signals 501 to be thinned out in the line so as not to be adjacent in the horizontal direction, the thinning rate needs to be 4/8, that is, ½ at the maximum. For this reason, the arrangement pattern of the figure becomes the maximum thinning-out rate in the embodiment of the present technology. In FIG. 6B, the image signal is thinned out for each line in the oblique direction, and the resolution in the oblique direction is halved. On the other hand, in the vertical and horizontal directions of the image signal, the same resolution as before the thinning is maintained, and the expansion processing described later can be easily performed. In many natural images, the resolution in the vertical and horizontal directions is higher than the resolution in the oblique direction. Therefore, the compression and expansion method according to the embodiment of the present technology is a method suitable for a system that processes natural images.

[圧縮部の構成]
図10は、本技術の第1の実施の形態における圧縮部130の構成例を示す図である。この圧縮部130は、画像信号除去部131と、画像信号並べ替え部132とを備える。
[Configuration of compression unit]
FIG. 10 is a diagram illustrating a configuration example of the compression unit 130 according to the first embodiment of the present technology. The compression unit 130 includes an image signal removal unit 131 and an image signal rearrangement unit 132.

画像信号除去部131は、入力された間引き情報のうちの間引き率に基づいて、入力されたフレームから間引き対象の画像信号を除去するものである。この画像信号除去部131は、間引き率に対応する配置パターンを予め定められた順序によりライン毎の間引きに適用する。この際、画像信号除去部131は、入力されたフレームをラインメモリ等に保持し、間引き対象の画像信号に対応するアドレスのデータを削除する方式を採ることができる。   The image signal removal unit 131 removes the image signal to be thinned out from the input frame based on the thinning rate in the input thinning information. The image signal removing unit 131 applies the arrangement pattern corresponding to the thinning rate to thinning for each line in a predetermined order. At this time, the image signal removal unit 131 can employ a method of holding the input frame in a line memory or the like and deleting data at an address corresponding to the image signal to be thinned out.

画像信号並べ替え部132は、画像信号除去部131により除去された画像信号の位置に除去対象でない画像信号を配置する並べ替えを行い、フレームのサイズを縮小するものである。この並べ替え部132は、上述のラインメモリにおいて、間引き対象の画像信号に対応するアドレスのデータを埋めるように除去対象でない画像信号のデータをラインメモリ上で移動させる処理を行うことができる。   The image signal rearrangement unit 132 rearranges the image signals not to be removed at the position of the image signal removed by the image signal removal unit 131 to reduce the frame size. The rearrangement unit 132 can perform processing of moving the image signal data that is not the removal target on the line memory so as to fill the address data corresponding to the thinning target image signal in the line memory.

なお、ラインメモリに保持されたフレームの間引き対象の画像信号に対応するアドレスのデータに間引き対象でない画像信号のデータを上書きして並べ替えを行うことにより圧縮することもできる。   It is also possible to compress the data by overwriting the data of the address corresponding to the image signal to be thinned out in the line memory with the data of the image signal not to be thinned out and rearranging the data.

[伸張方法]
図11は、本技術の実施の形態における伸張方法の一例を示す図である。まず、配置パターンに基づいて空きの画像信号503を間引き対象の画像信号の位置に挿入する。次に、挿入した画像信号503の周囲の画像信号に基づいて間引きされた画像信号を復元する。この復元された画像信号504を画像信号503の位置に上書きする。これにより、フレームの伸張を行うことができる。
[Extension method]
FIG. 11 is a diagram illustrating an example of the decompression method according to the embodiment of the present technology. First, an empty image signal 503 is inserted at the position of the image signal to be thinned based on the arrangement pattern. Next, the image signal thinned out based on the image signal around the inserted image signal 503 is restored. The restored image signal 504 is overwritten at the position of the image signal 503. As a result, the frame can be expanded.

[画像信号の復元]
図12は、本技術の実施の形態における画像信号の復元方法の一例を示す図である。同図は、空きの画像信号503の位置の画像信号を復元する場合の例を表したものであり、空きの画像信号503の上下左右に配置された画像信号(画像信号505乃至508)から画像信号504を補間することにより復元する場合の例である。この方式として、画像信号505乃至508の平均値を算出して画像信号504を補間する方式を使用することができる。また、上下の画像信号(画像信号505および506)および左右の画像信号(画像信号507および508)の相関関係に基づく重み付けを行った加重平均を算出して画像信号504を補間する方式を使用することもできる。具体的には、上下の画像信号および左右の画像信号のそれぞれの差分を算出し、差分が小さい方の画像信号(上下の画像信号または左右の画像信号)に大きな重み付けを行って加重平均を算出することができる。これにより、相関関係に基づいた補間を行うことができる。また、図9において説明した、間引き率4/8の場合においても、復元の対象となる画像信号の上下左右の画像信号を使用し、相関関係に基づく補間を行うことができる。
[Restore image signal]
FIG. 12 is a diagram illustrating an example of the image signal restoration method according to the embodiment of the present technology. The figure shows an example in the case of restoring the image signal at the position of the empty image signal 503, and images are obtained from the image signals (image signals 505 to 508) arranged on the upper, lower, left and right sides of the empty image signal 503. In this example, the signal 504 is restored by interpolation. As this method, a method of calculating an average value of the image signals 505 to 508 and interpolating the image signal 504 can be used. Further, a method is used in which a weighted average obtained by weighting based on the correlation between the upper and lower image signals (image signals 505 and 506) and the left and right image signals (image signals 507 and 508) is calculated and the image signal 504 is interpolated. You can also. Specifically, the difference between the upper and lower image signals and the left and right image signals is calculated, and the weighted average is calculated by weighting the image signal with the smaller difference (upper and lower image signals or left and right image signals). can do. Thereby, interpolation based on the correlation can be performed. Further, even in the case of the thinning-out rate 4/8 described in FIG. 9, interpolation based on the correlation can be performed using the upper, lower, left, and right image signals of the image signal to be restored.

[伸張部の構成]
図13は、本技術の第1の実施の形態における伸張部140の構成例を示す図である。この伸張部140は、画像信号挿入部141と、復元部142とを備える。
[Configuration of the extension unit]
FIG. 13 is a diagram illustrating a configuration example of the decompression unit 140 according to the first embodiment of the present technology. The decompression unit 140 includes an image signal insertion unit 141 and a restoration unit 142.

画像信号挿入部141は、入力された間引き情報に基づいて、入力された圧縮フレームの間引きされた画像信号の位置に空きの画像信号を挿入するものである。この画像信号挿入部141は、前述した圧縮部130における間引きに適用された順序と同じ順序に基づいて配置パターンをライン毎に適用し、間引きされた画像信号の位置を把握する。そして、この位置に空きの画像信号503を挿入する。この際、画像信号挿入部141は、入力された圧縮フレームをラインメモリ等に保持し、間引きされた画像信号の位置に空きデータを挿入する方式を採ることができる。   The image signal insertion unit 141 inserts an empty image signal at the position of the input image signal that is thinned out based on the input thinning information. The image signal insertion unit 141 applies the arrangement pattern for each line based on the same order as that applied to the thinning in the compression unit 130 described above, and grasps the position of the thinned image signal. Then, an empty image signal 503 is inserted at this position. At this time, the image signal insertion unit 141 can take a method of holding the input compressed frame in a line memory or the like and inserting empty data at the position of the thinned image signal.

復元部142は、間引きされた画像信号の復元を行うものである。この復元部142は、上述したように、空きの画像信号503の上下左右の画像信号を用いた演算を行うことにより、画像信号504の値を補間し、空きの画像信号503に対応するアドレスのデータとして保持させて、復元を行うことができる。   The restoration unit 142 restores the thinned image signal. As described above, the restoration unit 142 interpolates the value of the image signal 504 by performing calculation using the upper, lower, left, and right image signals of the empty image signal 503, and sets the address corresponding to the empty image signal 503. It can be restored as data.

[圧縮処理]
図14は、本技術の第1の実施の形態における圧縮処理の一例を示す図である。同図の圧縮処理は、圧縮部130においてフレームの圧縮を行う際に実行される。まず、間引き情報生成部110により圧縮の対象となるフレームに基づいた間引き情報が生成される(ステップS901)。次に、間引き情報に基づいて、圧縮部130がフレームの第1ラインにおける間引き対象の画像信号の除去を行う(ステップS902)。この際、間引き情報の間引き率に応じた配置パターンが予め定められた順に適用される。次に、圧縮部130により画像信号の並べ替えが行われる(ステップS903)。次に、フレームの全てのラインについて処理が行われたか否かが判断される(ステップS904)。次の処理対象のラインが存在する場合には(ステップS904:Yes)、配置パターンを変更し(ステップS905)、再度ステップS902からの処理を実行する。一方、全てのラインについて処理が終了した場合には(ステップS904:No)、圧縮部130は、圧縮処理を終了する。
[Compression processing]
FIG. 14 is a diagram illustrating an example of the compression processing according to the first embodiment of the present technology. The compression process of FIG. 9 is executed when the compression unit 130 compresses a frame. First, the thinning information generation unit 110 generates thinning information based on a frame to be compressed (step S901). Next, based on the thinning information, the compression unit 130 removes the image signal to be thinned in the first line of the frame (step S902). At this time, the arrangement pattern corresponding to the thinning rate of the thinning information is applied in a predetermined order. Next, the image signal is rearranged by the compression unit 130 (step S903). Next, it is determined whether or not processing has been performed for all the lines of the frame (step S904). If the next processing target line exists (step S904: Yes), the arrangement pattern is changed (step S905), and the processing from step S902 is executed again. On the other hand, when the process is completed for all lines (step S904: No), the compression unit 130 ends the compression process.

[伸張処理]
図15は、本技術の第1の実施の形態における伸張処理の一例を示す図である。同図の伸張処理は、伸張部140においてフレームの伸張を行う際に実行される。まず、伸張の対象となる圧縮フレームの間引き情報を取得する(ステップS951)。これは、圧縮フレームに対応する間引き情報が記憶部200から読み出されることにより行われる。次に、間引き情報に基づいて、伸張部140がフレームの第1ラインにおける間引きされた画像信号の位置に空きの画像信号を挿入する(ステップS952)。この際、間引き情報の間引き率に応じた配置パターンが予め定められた順に適用される。次に、伸張部140により間引きされた画像信号の復元が行われる(ステップS953)。次に、フレームの全てのラインについて処理が行われたか否かが判断される(ステップS954)。次の処理対象のラインが存在する場合には(ステップS954:Yes)、配置パターンを変更し(ステップS955)、再度ステップS952からの処理を実行する。一方全てのラインについて処理が終了した場合には(ステップS954:No)、伸張部140は、伸張処理を終了する。
[Extension processing]
FIG. 15 is a diagram illustrating an example of the decompression process according to the first embodiment of the present technology. The decompression process in FIG. 10 is executed when the decompression unit 140 decompresses a frame. First, thinning information of a compressed frame to be decompressed is acquired (step S951). This is performed by reading out the thinning information corresponding to the compressed frame from the storage unit 200. Next, based on the thinning information, the decompression unit 140 inserts an empty image signal at the position of the thinned image signal in the first line of the frame (step S952). At this time, the arrangement pattern corresponding to the thinning rate of the thinning information is applied in a predetermined order. Next, the image signal thinned out by the decompression unit 140 is restored (step S953). Next, it is determined whether or not processing has been performed for all lines of the frame (step S954). If the next processing target line exists (step S954: Yes), the arrangement pattern is changed (step S955), and the processing from step S952 is executed again. On the other hand, when the processing is completed for all lines (step S954: No), the decompression unit 140 terminates the decompression processing.

このように、本技術の第1の実施の形態では、比較的簡便な処理である画像信号の間引きおよび補間によりフレームの圧縮および伸張を行うことができる。   As described above, in the first embodiment of the present technology, it is possible to compress and expand a frame by thinning and interpolation of image signals, which are relatively simple processes.

<2.第2の実施の形態>
上述の実施の形態では、同一の間引き率が適用されたフレームにおいて同一の配置パターンの適用順序により圧縮および伸張が行われていた。これに対し、本技術の第2の実施の形態では、連続する複数のフレーム毎に配置パターンの適用順序を変更する。これにより、画質の低下を防止する。
<2. Second Embodiment>
In the above-described embodiment, compression and decompression are performed in the application order of the same arrangement pattern in a frame to which the same thinning rate is applied. On the other hand, in the second embodiment of the present technology, the arrangement pattern application order is changed for each of a plurality of consecutive frames. As a result, deterioration of image quality is prevented.

[圧縮方法]
図16は、本技術の第2の実施の形態における圧縮方法の一例を示す図である。同図は、間引き率1/8の場合に対応し、連続するフレームである第1乃至第4のフレームにおける配置パターンの適用順序を表したものである。同図の第1のフレームでは、図6と同様に、配置パターンの適用順序は間引き位置情報1から8の順であり、これらが第1のラインから順に適用される。続く第2のフレームでは、配置パターンの適用順序は間引き位置情報1から8の順で変わらないものの、間引き位置情報2の配置パターンが第1のラインに適用される。同様に第3のフレームでは、間引き位置情報3の配置パターンが第1のラインに適用される。このように、間引き位置情報1乃至8の配置パターンが循環してフレームの各ラインに適用される一方、フレーム毎に始まりとなる配置パターンがずらされて各ラインに適用される。このように、本技術の第2の実施の形態では、配置パターンの適用順序をフレーム毎に変更する。これにより、間引き対象画像信号を連続するフレームにおける異なる位置に分散することができ、画質の低下を防止することができる。
[Compression method]
FIG. 16 is a diagram illustrating an example of a compression method according to the second embodiment of the present technology. This figure corresponds to the case where the thinning rate is 1/8 and shows the application order of the arrangement pattern in the first to fourth frames which are continuous frames. In the first frame in the figure, as in FIG. 6, the arrangement pattern is applied in the order of the thinning position information 1 to 8, and these are applied in order from the first line. In the subsequent second frame, although the arrangement pattern application order does not change in the order of the thinning position information 1 to 8, the arrangement pattern of the thinning position information 2 is applied to the first line. Similarly, in the third frame, the arrangement pattern of the thinning position information 3 is applied to the first line. As described above, the arrangement pattern of the thinning position information 1 to 8 is circulated and applied to each line of the frame, while the arrangement pattern starting from each frame is shifted and applied to each line. As described above, in the second embodiment of the present technology, the application order of the arrangement pattern is changed for each frame. Thereby, the thinning-out target image signal can be distributed to different positions in consecutive frames, and deterioration in image quality can be prevented.

配置パターンの適用順序については、例えば、第1のラインに適用される配置パターンに対応する間引き位置情報により識別することができる。同図の例では、第1乃至第4のフレームに対してそれぞれ間引き位置情報1乃至4を対応させることにより配置パターンの適用順序を識別することができる。   The application order of the arrangement pattern can be identified by, for example, thinning position information corresponding to the arrangement pattern applied to the first line. In the example shown in the figure, the application order of the arrangement pattern can be identified by corresponding the thinning position information 1 to 4 to the first to fourth frames, respectively.

[間引き情報]
図17は、本技術の第2の実施の形態における間引き情報例を示す図である。同図に表したように、フレーム毎の間引き率および間引き位置情報が間引き情報として記録される。
[Thinning information]
FIG. 17 is a diagram illustrating an example of thinning information according to the second embodiment of the present technology. As shown in the figure, the thinning rate and the thinning position information for each frame are recorded as the thinning information.

これ以外の画像処理装置の構成は本技術の第1の実施の形態と同様であるため、説明を省略する。   Since the other configuration of the image processing apparatus is the same as that of the first embodiment of the present technology, the description thereof is omitted.

このように、本技術の第2の実施の形態によれば、連続する複数のフレームにおいて間引きされた画像信号の位置が分散されるため、画質を向上させることができる。   As described above, according to the second embodiment of the present technology, the positions of the thinned image signals in a plurality of consecutive frames are dispersed, so that the image quality can be improved.

<3.第3の実施の形態>
上述の第1の実施の形態では、圧縮部130および伸張部140により圧縮および伸張を行っていた。これに対し、本技術の第3の実施の形態では、それぞれ複数の圧縮部および伸張部により処理を行う。これにより、画像処理部100の処理を高速に行うことができる。
<3. Third Embodiment>
In the first embodiment described above, compression and decompression are performed by the compression unit 130 and the decompression unit 140. On the other hand, in the third embodiment of the present technology, processing is performed by a plurality of compression units and decompression units, respectively. Thereby, the processing of the image processing unit 100 can be performed at high speed.

[画像処理装置の構成]
図18は、本技術の第3の実施の形態における画像処理装置の構成例を示す図である。この画像処理装置は、図1において説明した画像処理装置と比較して、圧縮部130および伸張部140を備える必要はない。後述するように、フレーム処理部150、OSDイメージ生成部170、解像度変換部160およびOSDイメージ表示部180が圧縮または伸張の機能を備えるためである。
[Configuration of image processing apparatus]
FIG. 18 is a diagram illustrating a configuration example of an image processing device according to the third embodiment of the present technology. This image processing apparatus does not need to include the compression unit 130 and the expansion unit 140 as compared with the image processing apparatus described with reference to FIG. This is because the frame processing unit 150, the OSD image generation unit 170, the resolution conversion unit 160, and the OSD image display unit 180 have a compression or expansion function, as will be described later.

[フレーム処理部の構成]
図19は、本技術の第3の実施の形態におけるフレーム処理部150の構成例を示す図である。本技術の第3の実施の形態におけるフレーム処理部150は、フレームの処理としてインターレース・プログレッシブ変換およびノイズリダクションを行う場合を想定する。このフレーム処理部150は、インターレース・プログレッシブ変換(IPC:Interlace Progressive Converter)部152と、ノイズリダクション部153と、圧縮部154と、ラインメモリ155とを備える。
[Configuration of frame processing unit]
FIG. 19 is a diagram illustrating a configuration example of the frame processing unit 150 according to the third embodiment of the present technology. It is assumed that the frame processing unit 150 according to the third embodiment of the present technology performs interlace / progressive conversion and noise reduction as frame processing. The frame processing unit 150 includes an interlace progressive conversion (IPC) unit 152, a noise reduction unit 153, a compression unit 154, and a line memory 155.

ラインメモリ155は、フレームを一時的に保持するメモリである。IPC部152は、フレームの走査方式をインターレースおよびプログレッシブ相互に変更するものである。このIPC部152は、フレームをラインメモリ上に保持させて処理を行う。例えば、フレームの走査方法をインターレースからプログレッシブに変換する際には、連続する2フレームをラインメモリ155に保持させる。次に、これらのフレームの各ラインを順に取り出して1つのフレームに合成することにより変換を行う。   The line memory 155 is a memory that temporarily holds a frame. The IPC unit 152 changes the frame scanning method between interlaced and progressive. The IPC unit 152 performs processing by holding the frame on the line memory. For example, when the frame scanning method is converted from interlaced to progressive, two consecutive frames are held in the line memory 155. Next, conversion is performed by taking out each line of these frames in order and combining them into one frame.

ノイズリダクション部153は、フレームに含まれるノイズを除去するものである。このノイズリダクション部153は、例えば、同一フレームに属する画像信号の高周波成分を減衰させる2次元ノイズリダクション処理を行うことができる。この2次元ノイズリダクション処理では、フレームをラインメモリ155に保持させ、隣接する画像信号の平均値を算出して新たな画像信号を生成することにより、フレーム内で画像信号を平準化してノイズの除去を行う。主に動画部分のノイズ除去に使用される方式である。また、例えば、連続するフレームの画像信号を用いてノイズを除去する3次元ノイズリダクション処理を行うこともできる。この3次元ノイズリダクション処理では、複数のフレームをラインメモリ155に保持させ、各画像信号のフレーム間の平均値を算出して新たなフレームを生成する。これにより、連続するフレームにおいて画像信号の平準化を行いノイズの除去を行う。主に静止画部分のノイズ除去に使用される方式である。   The noise reduction unit 153 removes noise included in the frame. The noise reduction unit 153 can perform, for example, a two-dimensional noise reduction process that attenuates high-frequency components of image signals belonging to the same frame. In this two-dimensional noise reduction process, a frame is held in the line memory 155, and an average value of adjacent image signals is calculated to generate a new image signal, thereby leveling the image signal within the frame and removing noise. I do. This method is mainly used for removing noise from the moving image part. In addition, for example, it is possible to perform a three-dimensional noise reduction process that removes noise using image signals of successive frames. In this three-dimensional noise reduction process, a plurality of frames are held in the line memory 155, and an average value between frames of each image signal is calculated to generate a new frame. As a result, the image signal is leveled in successive frames to remove noise. This method is mainly used to remove noise from still image portions.

圧縮部154は、間引き情報に基づいてフレームの圧縮を行うものである。この圧縮部154は、図4において説明した画像信号の間引き等の処理を行う。この際、ラインメモリ155にフレームを保持させ、ラインメモリ155上で画像信号の除去および並べ替えを行う。   The compression unit 154 performs frame compression based on the thinning information. The compression unit 154 performs processing such as thinning of the image signal described with reference to FIG. At this time, the frame is held in the line memory 155, and image signals are removed and rearranged on the line memory 155.

[解像度変換部の構成]
図20は、本技術の第3の実施の形態における解像度変換部160の構成例を示す図である。この解像度変換部160は、伸張部161と、解像度変換処理部162と、ラインメモリ165とを備える。
[Configuration of resolution converter]
FIG. 20 is a diagram illustrating a configuration example of the resolution conversion unit 160 according to the third embodiment of the present technology. The resolution conversion unit 160 includes an expansion unit 161, a resolution conversion processing unit 162, and a line memory 165.

ラインメモリ165は、フレームを一時的に保持するメモリである。伸張部161は、間引き情報に基づいて圧縮フレームの伸張を行うものである。この伸張部161は、図11において説明した画像信号の挿入等の処理を行う。この際、ラインメモリ165に圧縮フレームを保持させ、ラインメモリ165上で画像信号の挿入および復元を行う。   The line memory 165 is a memory that temporarily holds a frame. The decompression unit 161 decompresses the compressed frame based on the thinning information. The decompression unit 161 performs processing such as insertion of an image signal described in FIG. At this time, the compressed frame is held in the line memory 165, and an image signal is inserted and restored on the line memory 165.

解像度変換処理部162は、図1において説明した解像度変換部160と同様に解像度を変換する処理を行う。例えば、高解像度のストリームの画像(例えば、4K画像)を2K画像対応の表示装置に表示する場合に、解像度変換処理部162が解像度の変換を行う。この場合には、フレームの画像信号数を半減させて変換を行う。この変換処理として、例えば、元のフレーム(高解像度の画像)の水平および垂直方向に隣接する2個の画像信号の平均値を算出し、この値を新たなフレームの画像信号にする処理を行うことができる。この際、解像度変換処理部162は、元のフレームをラインメモリ165に保持させ、ラインメモリ165上で上述の処理を行う。このような処理を行うため、ラインメモリ165はフレームを保持可能な記憶容量に構成される。このラインメモリ165を上述の伸張部161と共用することにより、図12において説明した補間処理を高精度に行うことができる。具体的に説明すると、図12においては、相関関係に基づく重み付けを行った加重平均の算出の際に、画像信号503に隣接する画像信号(画像信号505乃至508)を使用していた。これに対し、本技術の第3の実施の形態の伸張部161では、記憶容量の大きなラインメモリ165を使用可能なため、相関関係の検出範囲を広げることができる。このため、より正確な相関関係の検出を行うことができ、高精度の補間処理を行うことができる。   The resolution conversion processing unit 162 performs processing for converting the resolution in the same manner as the resolution conversion unit 160 described with reference to FIG. For example, when a high-resolution stream image (for example, a 4K image) is displayed on a display device that supports 2K images, the resolution conversion processing unit 162 performs resolution conversion. In this case, the conversion is performed by halving the number of frame image signals. As this conversion processing, for example, an average value of two image signals adjacent in the horizontal and vertical directions of the original frame (high-resolution image) is calculated, and this value is converted into a new frame image signal. be able to. At this time, the resolution conversion processing unit 162 stores the original frame in the line memory 165 and performs the above-described processing on the line memory 165. In order to perform such processing, the line memory 165 is configured with a storage capacity capable of holding a frame. By using the line memory 165 in common with the above-described decompression unit 161, the interpolation processing described in FIG. 12 can be performed with high accuracy. More specifically, in FIG. 12, the image signals adjacent to the image signal 503 (image signals 505 to 508) are used when calculating the weighted average obtained by performing weighting based on the correlation. On the other hand, in the decompression unit 161 according to the third embodiment of the present technology, the line memory 165 having a large storage capacity can be used, so that the correlation detection range can be expanded. For this reason, more accurate correlation can be detected, and highly accurate interpolation processing can be performed.

[OSDイメージ生成部の構成]
図21は、本技術の第3の実施の形態におけるOSDイメージ生成部170の構成例を示す図である。このOSDイメージ生成部170は、OSDイメージ生成処理部171と、圧縮部174と、ラインメモリ175とを備える。
[Configuration of OSD image generation unit]
FIG. 21 is a diagram illustrating a configuration example of the OSD image generation unit 170 according to the third embodiment of the present technology. The OSD image generation unit 170 includes an OSD image generation processing unit 171, a compression unit 174, and a line memory 175.

ラインメモリ175は、OSDイメージを一時的に保持するメモリである。OSDイメージ生成処理部171は、図1において説明したOSDイメージ生成部170と同様の処理を行うものである。このOSDイメージ生成処理部171は、入力された字幕データをOSDイメージ生成部170が内蔵する字幕表示領域のイメージに結合させてOSDイメージ(字幕)を生成する。この際、字幕表示領域の画像をラインメモリ175上に保持させ、ラインメモリ175上で字幕データの結合を行う。   The line memory 175 is a memory that temporarily holds an OSD image. The OSD image generation processing unit 171 performs the same processing as the OSD image generation unit 170 described with reference to FIG. The OSD image generation processing unit 171 generates the OSD image (caption) by combining the input caption data with the image of the caption display area built in the OSD image generation unit 170. At this time, the image of the caption display area is held on the line memory 175, and the caption data is combined on the line memory 175.

圧縮部174は、フレーム(OSDイメージ)の圧縮を行うものである。圧縮部174の動作は図19において説明した圧縮部154と同様であるため、説明を省略する。   The compression unit 174 compresses a frame (OSD image). The operation of the compression unit 174 is the same as that of the compression unit 154 described in FIG.

[OSDイメージ表示部の構成]
図22は、本技術の第3の実施の形態におけるOSDイメージ表示部180の構成例を示す図である。このOSDイメージ表示部180は、伸張部181と、OSDイメージ解像度変換部182と、ラインメモリ185とを備える。
[Configuration of OSD image display unit]
FIG. 22 is a diagram illustrating a configuration example of the OSD image display unit 180 according to the third embodiment of the present technology. The OSD image display unit 180 includes an expansion unit 181, an OSD image resolution conversion unit 182, and a line memory 185.

ラインメモリ185は、OSDイメージを一時的に保持するメモリである。伸張部181は、間引き情報に基づいて圧縮されたフレーム(OSDイメージ)の伸張を行うものである。伸張部181の動作は、図20において説明した伸張部161と同様であるため、説明を省略する。   The line memory 185 is a memory that temporarily holds an OSD image. The decompression unit 181 decompresses a frame (OSD image) compressed based on the thinning information. The operation of the expansion unit 181 is the same as that of the expansion unit 161 described in FIG.

OSDイメージ解像度変換部182は、図1において説明したOSDイメージ表示部180と同様の処理を行うものである。このOSDイメージ解像度変換部182は、OSDイメージ生成部170により生成されたOSDイメージに対して画像信号の削除等を行うことにより、表示装置に適合する解像度のOSDイメージに変換する。この際、OSDイメージ解像度変換部182は、OSDイメージをラインメモリ185に保持させ、ラインメモリ185上で解像度を変換する処理を行う。   The OSD image resolution conversion unit 182 performs the same processing as the OSD image display unit 180 described with reference to FIG. The OSD image resolution conversion unit 182 converts the OSD image generated by the OSD image generation unit 170 into an OSD image having a resolution suitable for the display device by deleting an image signal. At this time, the OSD image resolution conversion unit 182 stores the OSD image in the line memory 185 and performs processing for converting the resolution on the line memory 185.

これ以外の画像処理装置の構成は本技術の第1の実施の形態と同様であるため、説明を省略する。   Since the other configuration of the image processing apparatus is the same as that of the first embodiment of the present technology, the description thereof is omitted.

このように、本技術の第3の実施の形態におけるフレーム処理部150およびOSDイメージ生成部170はそれぞれ圧縮部154および174を内蔵し、解像度変換部160およびOSDイメージ表示部180はそれぞれ伸張部161および181を内蔵している。また、これら圧縮部および伸張部は、フレーム処理部150等が有するラインメモリを使用して処理を行っている。このため、圧縮および伸張の処理に必要となるラインメモリ数を増加させることなく、フレーム処理部150等において個別に圧縮および伸張の処理を行うことができる。動画を表示する場合には、連続するフレームを順次処理する必要がある。フレーム処理部150等が個別に圧縮および伸張の処理を行って記憶部200に対して記憶および読出しを行うことにより、画像処理部100における各部の処理をパイプライン的な処理にすることができ、処理を高速に行うことができる。   As described above, the frame processing unit 150 and the OSD image generation unit 170 according to the third embodiment of the present technology each include the compression units 154 and 174, and the resolution conversion unit 160 and the OSD image display unit 180 each include the decompression unit 161. And 181 are incorporated. The compression unit and decompression unit perform processing using a line memory included in the frame processing unit 150 and the like. Therefore, it is possible to individually perform compression and expansion processing in the frame processing unit 150 and the like without increasing the number of line memories necessary for compression and expansion processing. When displaying a moving image, it is necessary to sequentially process consecutive frames. When the frame processing unit 150 or the like individually performs compression and decompression processing and performs storage and reading with respect to the storage unit 200, processing of each unit in the image processing unit 100 can be made into pipeline processing, Processing can be performed at high speed.

<4.第4の実施の形態>
上述の第1の実施の形態では、1つのフレームについて処理を行っていた。これに対し本技術の第4の実施の形態では、2つのフレームを混合して表示する場合について提案する。
<4. Fourth Embodiment>
In the above-described first embodiment, processing is performed for one frame. On the other hand, the fourth embodiment of the present technology proposes a case where two frames are mixed and displayed.

図23は、本技術の第4の実施の形態における画像処理部100の機能構成例を示す図である。同図は、画像処理部100のうち間引き情報生成部110、圧縮部130、伸張部140、フレーム処理部150、解像度変換部160、OSDイメージ表示部180および混合部190の部分について記載したものである。本技術の第4の実施の形態の画像処理部100は、2つの画像データを同時に処理して2つのフレームを生成し、これらを1つのフレームに混合して表示装置300に出力する。この混合は、後述する混合比率に基づいて混合部190により行われる。この混合比率は、プロセッサ103により供給される。   FIG. 23 is a diagram illustrating a functional configuration example of the image processing unit 100 according to the fourth embodiment of the present technology. This figure describes the thinning information generation unit 110, compression unit 130, decompression unit 140, frame processing unit 150, resolution conversion unit 160, OSD image display unit 180, and mixing unit 190 in the image processing unit 100. is there. The image processing unit 100 according to the fourth embodiment of the present technology simultaneously processes two pieces of image data to generate two frames, mixes these into one frame, and outputs the mixed frame to the display device 300. This mixing is performed by the mixing unit 190 based on a mixing ratio described later. This mixing ratio is supplied by the processor 103.

間引き情報生成部110は、後述する混合比率と2つのフレーム(フレーレム1およびフレーム2)とに基づいてそれぞれのフレームの間引き情報を生成し、圧縮部130および伸張部140に供給する。   The thinning information generation unit 110 generates thinning information of each frame based on a mixture ratio and two frames (frame 1 and frame 2), which will be described later, and supplies them to the compression unit 130 and the expansion unit 140.

フレーム処理部150は、2つのフレームについて処理を行う。圧縮部130は、2つの処理済みフレームおよびOSDイメージの圧縮を行い、記憶部200に記憶させる。伸張部140は、記憶部200から2つの処理済み圧縮フレームおよび圧縮されたOSDイメージを読み出して伸張を行う。解像度変換部160は、2つの処理済みフレームの解像度を変換する。   The frame processing unit 150 performs processing for two frames. The compression unit 130 compresses the two processed frames and the OSD image, and stores them in the storage unit 200. The decompression unit 140 reads out the two processed compressed frames and the compressed OSD image from the storage unit 200 and performs decompression. The resolution converter 160 converts the resolution of the two processed frames.

混合部190は、2つの解像度変換済みフレームおよび解像度変換済みOSDイメージを混合して表示用のフレームを生成する。この混合部190は、フレーム混合部191と、フレームOSDイメージ混合部192とを備える。   The mixing unit 190 mixes the two resolution-converted frames and the resolution-converted OSD image to generate a display frame. The mixing unit 190 includes a frame mixing unit 191 and a frame OSD image mixing unit 192.

フレームOSDイメージ混合部192は、図1において説明した混合部190と同様に、フレームおよびOSDイメージを混合して表示用フレームを生成するものである。   The frame OSD image mixing unit 192 generates a display frame by mixing the frame and the OSD image, similarly to the mixing unit 190 described in FIG.

フレーム混合部191は、2つのフレームの混合を行うものである。このフレーム混合部191は、2つの解像度変換済みフレームを所定の混合比率に基づいて混合する。この混合は、次のように行うことができる。
Q=α×P1+(1−α)×P2
ただし、P1およびP2は混合前のフレームの画像信号、Qは混合後のフレームの画像信号、αは混合比率を表している。このようにフレーム混合部191は、αまたは1−αをそれぞれのフレームに乗算し、これらを加算することにより、2つのフレームを半透明状態にして混合する。このような混合は、アルファブレンドと称される。混合比率が0.5の場合には、混合する2つのフレームの比率は等しくなる。しかし、一方のフレームを他方のフレームよりも薄い表示にする場合には、当該フレームの比率を低下させて混合を行う。この薄く表示されるフレームについては、間引き率を高くすることができる。薄く表示されるため、間引きされる画像信号数が大きい場合でも表示品質の低下が目立たないためである。
The frame mixing unit 191 performs mixing of two frames. The frame mixing unit 191 mixes two resolution converted frames based on a predetermined mixing ratio. This mixing can be performed as follows.
Q = α × P1 + (1−α) × P2
However, P1 and P2 are the image signals of the frame before mixing, Q is the image signal of the frame after mixing, and α is the mixing ratio. In this way, the frame mixing unit 191 multiplies each frame by α or 1-α, and adds these to mix the two frames in a translucent state. Such mixing is referred to as alpha blending. When the mixing ratio is 0.5, the ratio of the two frames to be mixed is equal. However, when one frame is displayed thinner than the other frame, mixing is performed by reducing the ratio of the frame. The thinning rate can be increased for the thinly displayed frame. This is because the display quality is not noticeable even when the number of image signals to be thinned is large because the display is thin.

そこで、間引き情報生成部110が混合比率に基づいて2つのフレームの間引き率を生成する。具体的には、低い混合比率が設定されたフレームの間引き率を他方のフレームの間引き率より高い値にして圧縮部130等に供給する。これにより、薄く表示されるフレームの間引き率を高めて、フレームの容量を削減することができる。   Therefore, the thinning information generation unit 110 generates a thinning rate for two frames based on the mixing ratio. Specifically, the thinning rate of a frame in which a low mixing ratio is set is set to a value higher than the thinning rate of the other frame and is supplied to the compression unit 130 and the like. As a result, the thinning-out frame thinning rate can be increased and the frame capacity can be reduced.

なお、上述の画像処理部100では、圧縮部130、伸張部140、フレーム処理部150および解像度変換部160が2つのフレームを同時に処理しているが、図1において説明した画像処理部100等を2組配置する構成にしてもよい。これらにより、2つのフレームの処理を同時に行うことができるためである。これ以外の画像処理部100の構成は図1において説明した画像処理部の構成と同様であるため、説明を省略する。   In the image processing unit 100 described above, the compression unit 130, the decompression unit 140, the frame processing unit 150, and the resolution conversion unit 160 process two frames at the same time. However, the image processing unit 100 described with reference to FIG. Two sets may be arranged. This is because two frames can be processed simultaneously. The other configuration of the image processing unit 100 is the same as the configuration of the image processing unit described with reference to FIG.

このように、本技術の第4の実施の形態によれば、2つのフレームに対してアルファブレンドを行う際に、薄く表示されるフレームの間引き率を高めて記憶部200に記憶させることにより、アクセスの際の消費電力をさらに低減することができる。   As described above, according to the fourth embodiment of the present technology, when alpha blending is performed on two frames, by increasing the thinning rate of thinly displayed frames and storing them in the storage unit 200, The power consumption during access can be further reduced.

<5.第5の実施の形態>
上述の第1の実施の形態では、画像処理部100が圧縮部130および伸張部140を有し、記憶部200に圧縮フレームを記憶させていた。これに対し本技術の第5の実施の形態では、記憶部200が圧縮部を有し、フレームを画像処理部100に出力する際に圧縮を行う。これにより、圧縮処理の頻度を低減する。
<5. Fifth embodiment>
In the first embodiment described above, the image processing unit 100 includes the compression unit 130 and the expansion unit 140, and the storage unit 200 stores the compressed frame. On the other hand, in the fifth embodiment of the present technology, the storage unit 200 includes a compression unit, and performs compression when outputting a frame to the image processing unit 100. This reduces the frequency of compression processing.

図24は、本技術の第5の実施の形態における記憶部200の構成例を示す図である。この記憶部200は、画像処理部インターフェース210と、制御部220と、カラムアドレスデコーダ240と、ローアドレスデコーダ250と、メモリセルアレイ260と、圧縮部230とを備える。   FIG. 24 is a diagram illustrating a configuration example of the storage unit 200 according to the fifth embodiment of the present technology. The storage unit 200 includes an image processing unit interface 210, a control unit 220, a column address decoder 240, a row address decoder 250, a memory cell array 260, and a compression unit 230.

画像処理部インターフェース210は、画像処理部100とのやり取りを行うインターフェースである。この画像処理部インターフェース210は、画像処理部100が出力したコマンドを解釈するとともに、これに基づくアドレス、データおよび間引き情報を出力する。   The image processing unit interface 210 is an interface for exchanging with the image processing unit 100. The image processing unit interface 210 interprets the command output from the image processing unit 100 and outputs an address, data, and thinning information based on the command.

メモリセルアレイ260は、データを記憶するメモリセルが2次元に配置されて構成されたものである。データの書込みおよび読出しの際には、所望のメモリセルが選択されて、データの記憶および記憶されたデータの読出しが行われる。2次元に配置されたメモリセルには、XYマトリクス状にローおよびカラムの配線が接続されており、これらの配線を選択することにより、各メモリセルを選択することができる。   The memory cell array 260 is configured by two-dimensionally arranging memory cells that store data. In writing and reading data, a desired memory cell is selected, and data is stored and stored data is read. The memory cells arranged in two dimensions are connected to row and column wirings in an XY matrix, and each memory cell can be selected by selecting these wirings.

制御部220は、画像処理部インターフェース210が出力したアドレスをローアドレスおよびカラムアドレスに分離して出力するものである。   The control unit 220 outputs the address output from the image processing unit interface 210 by separating it into a row address and a column address.

カラムアドレスデコーダは、カラムアドレスに基づいてメモリセルアレイ260のカラムの配線を選択するものである。   The column address decoder selects a column wiring of the memory cell array 260 based on the column address.

ローアドレスデコーダは、ローアドレスに基づいてメモリセルアレイ260のローの配線を選択するものである。   The row address decoder selects a row wiring of the memory cell array 260 based on the row address.

圧縮部230は、メモリセルアレイ260から読み出されたデータ(出力データ)を間引き情報に基づいて圧縮するものである。圧縮部230の構成は、図1において説明した圧縮部130と同様であるため、説明を省略する。   The compression unit 230 compresses data (output data) read from the memory cell array 260 based on the thinning information. The configuration of the compression unit 230 is the same as that of the compression unit 130 described in FIG.

本技術の第5の実施の形態における画像処理部100は、図1において説明した圧縮部130を備える必要はない。これ以外の画像処理装置の構成は図1において説明した画像処理装置と同様であるため、説明を省略する。   The image processing unit 100 according to the fifth embodiment of the present technology does not need to include the compression unit 130 described in FIG. Since the other configuration of the image processing apparatus is the same as that of the image processing apparatus described with reference to FIG.

同図の記憶部200と画像処理部100との間のフレームのやりとりについて説明する。画像処理部100がフレームを記憶部200に記憶させる際には、画像処理部100から書込みコマンドが出力され、これに付随して書込みデータであるフレームが出力される。記憶部200は、書込みコマンドを解釈し、書込み先アドレスに対応するメモリセルアレイ260のメモリセルにフレームのデータを書き込む。これによりフレームが記憶される。   The exchange of frames between the storage unit 200 and the image processing unit 100 in FIG. When the image processing unit 100 stores a frame in the storage unit 200, a write command is output from the image processing unit 100, and a frame that is write data is output along with this. The storage unit 200 interprets the write command and writes the frame data to the memory cell of the memory cell array 260 corresponding to the write destination address. As a result, the frame is stored.

画像処理部100が記憶部200からフレームを読み出す際には、画像処理部100が読出しコマンドを出力する。記憶部200は、読出しコマンドを解釈し、読出し先アドレスに対応するメモリセルアレイ260のメモリセルからフレームを読み出した後、圧縮部230による圧縮を行って圧縮フレームを生成する。この圧縮フレームを画像処理部100に出力する。記憶部200から出力された圧縮フレームは、画像処理部100の伸張部140により伸張される。このように、本技術の第5の実施の形態の画像処理装置は、フレーム等を記憶部200から読み出す際に圧縮を行う。   When the image processing unit 100 reads a frame from the storage unit 200, the image processing unit 100 outputs a read command. The storage unit 200 interprets the read command, reads a frame from the memory cell of the memory cell array 260 corresponding to the read destination address, and then performs compression by the compression unit 230 to generate a compressed frame. The compressed frame is output to the image processing unit 100. The compressed frame output from the storage unit 200 is decompressed by the decompression unit 140 of the image processing unit 100. As described above, the image processing apparatus according to the fifth embodiment of the present technology performs compression when a frame or the like is read from the storage unit 200.

OSDイメージは、一旦生成された後は、ほとんど変更されることはない。このため、システムの起動時等にOSDイメージを生成して記憶部200に記憶させておき、必要に応じて読み出してフレームと混合し、表示用フレームを生成する方式を使用することができる。OSDイメージの生成処理を削減するためである。そこで、このような場合に、本技術の第5の実施の形態の画像処理装置を使用し、非圧縮のOSDイメージを記憶部200に記憶させておき、表示するストリームに応じた間引き率に基づいて記憶部200において圧縮を行って画像処理部100に転送する。これにより、表示するフレームに合わせた適切な間引き率を選択して圧縮することができる。   Once an OSD image is generated, it is rarely changed. For this reason, it is possible to use a method in which an OSD image is generated and stored in the storage unit 200 when the system is started, and is read out and mixed with a frame as necessary to generate a display frame. This is to reduce the OSD image generation process. Therefore, in such a case, the image processing apparatus according to the fifth embodiment of the present technology is used, an uncompressed OSD image is stored in the storage unit 200, and based on a thinning rate according to a stream to be displayed. Then, the data is compressed in the storage unit 200 and transferred to the image processing unit 100. Thereby, it is possible to select and compress an appropriate thinning rate according to the frame to be displayed.

図25は、本技術の第5の実施の形態における画像処理部100の処理の一例を示す図である。同図は、図3と同様に画像処理部100の各部における処理の流れを表したものである。入力されたストリームに対してデマルチプレクス処理および復号が行われてフレームが生成され、記憶部200に記憶される。このフレームが読み出され、これに基づいて間引き情報生成部110が間引き情報を生成する。また、記憶部200から読み出されたフレームは、フレーム処理部150により処理されて処理済みフレームが生成されて、記憶部200に記憶される。次に、記憶部200から読み出された処理済みフレームは、解像度変換部160により解像度が変換される。   FIG. 25 is a diagram illustrating an example of processing of the image processing unit 100 according to the fifth embodiment of the present technology. This figure shows the flow of processing in each part of the image processing unit 100 as in FIG. Demultiplex processing and decoding are performed on the input stream to generate a frame, which is stored in the storage unit 200. This frame is read out, and based on this, the thinning information generation unit 110 generates thinning information. The frame read from the storage unit 200 is processed by the frame processing unit 150 to generate a processed frame and stored in the storage unit 200. Next, the resolution of the processed frame read from the storage unit 200 is converted by the resolution conversion unit 160.

一方、OSDイメージは、予めOSDイメージ生成部170により生成されて記憶部200に記憶される。記憶されたOSDイメージは、上述の間引き情報生成部110により生成された間引き情報に基づいて、記憶部200の圧縮部230により圧縮されて読み出され、伸張部140により伸張される。伸張されたOSDイメージは、OSDイメージ表示部180により解像度が変換される。   On the other hand, the OSD image is generated in advance by the OSD image generation unit 170 and stored in the storage unit 200. The stored OSD image is compressed and read by the compression unit 230 of the storage unit 200 based on the thinning information generated by the thinning information generation unit 110 described above, and is expanded by the expansion unit 140. The OSD image display unit 180 converts the resolution of the expanded OSD image.

最後に、解像度が変更された処理済みフレームおよびOSDイメージが混合部190により混合される。   Finally, the processed frame and the OSD image whose resolution has been changed are mixed by the mixing unit 190.

このように、本技術の第5の実施の形態によれば、非圧縮の状態で記憶部200に記憶させたフレームに対して必要に応じた間引き率に基づいて圧縮して記憶部200から出力させることができ、フレームの表示品質の低下を防止することができる。   As described above, according to the fifth embodiment of the present technology, a frame stored in the storage unit 200 in an uncompressed state is compressed based on a thinning rate as necessary and output from the storage unit 200. It is possible to prevent the display quality of the frame from being deteriorated.

上述のように、本技術の実施の形態によれば、フレームを記憶部200に記憶させる際の圧縮および伸張の処理を簡便な処理である画像信号の間引きおよび補間により行うことができる。   As described above, according to the embodiment of the present technology, the compression and decompression processing when the frame is stored in the storage unit 200 can be performed by thinning and interpolation of the image signal, which are simple processing.

なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。   The above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the invention-specific matters in the claims have a corresponding relationship. Similarly, the invention specific matter in the claims and the matter in the embodiment of the present technology having the same name as this have a corresponding relationship. However, the present technology is not limited to the embodiment, and can be embodied by making various modifications to the embodiment without departing from the gist thereof.

また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。   Further, the processing procedure described in the above embodiment may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program. You may catch it. As this recording medium, for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disc), a memory card, a Blu-ray disc (Blu-ray (registered trademark) Disc), or the like can be used.

なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。   In addition, the effect described in this specification is an illustration to the last, Comprising: It does not limit and there may exist another effect.

なお、本技術は以下のような構成もとることができる。
(1)複数の画像信号により構成されるフレームにおいて前記複数の画像信号の一部を除去する間引きにより圧縮が行われた前記フレームである圧縮フレームを供給する記憶部と、
前記供給された前記圧縮フレームにおける前記間引きされた前記画像信号を前記フレーム毎の前記間引きの情報である間引き情報に基づいて復元することにより前記圧縮フレームの伸張を行う伸張部と
を具備する画像処理装置。
(2)前記間引き情報を生成する間引き情報生成部と、
前記間引き情報に基づく前記間引きにより前記フレームの前記圧縮を行って前記記憶部に記憶させる圧縮部と
をさらに具備する
前記(1)に記載の画像処理装置。
(3)前記間引き情報生成部は、前記フレームに含まれる前記画像信号数に対する前記間引きの対象となる前記画像信号数の比率である間引き率を前記間引き情報として生成し、
前記圧縮部は、前記間引き率に基づいて前記間引きの対象となる前記画像信号数を決定して前記間引きを行う
前記(2)に記載の画像処理装置。
(4)前記圧縮部は、前記フレームを水平方向に分割したラインにおける前記間引き対象の前記画像信号の配置の情報である複数の配置パターンを所定の順序により前記ライン毎の前記間引きに適用して前記圧縮を行い、
前記伸張部は、前記配置パターンを前記所定の順序により前記ライン毎の前記復元に適用して前記伸張を行う
前記(3)に記載の画像処理装置。
(5)前記間引き情報生成部は、前記間引き率と前記所定の順序の情報である間引き位置情報とを前記間引き情報として生成する前記(4)に記載の画像処理装置。
(6)前記間引き情報生成部は、前記間引き率と連続する複数の前記フレーム毎に異なる前記間引き位置情報とを前記間引き情報として生成する前記(5)に記載の画像処理装置。
(7)前記圧縮部は、前記間引きの対象となる前記画像信号が水平方向に隣接しない配置となる前記配置パターンに基づいて前記圧縮を行う前記(4)または(5)に記載の画像処理装置。
(8)前記フレームとは異なるフレームである第2のフレームと前記フレームとを所定の混合比率に基づいて混合して新たなフレームを生成するフレーム混合部をさらに具備し、
前記間引き情報生成部は、前記混合比率に基づいて前記フレームおよび前記第2のフレームの前記間引き率を前記間引き情報として生成する
前記(3)から(7)のいずれかに記載の画像処理装置。
(9)前記間引き情報を生成する間引き情報生成部をさらに具備し、
前記記憶部は、前記フレームを記憶し、前記間引き情報に基づく前記間引きにより前記記憶した前記フレームの前記圧縮を行って前記伸張部に供給する
前記(1)に記載の画像処理装置。
(10)複数の画像信号により構成されるフレームにおいて前記複数の画像信号の一部を除去する間引きにより圧縮が行われた前記フレームである圧縮フレームにおける前記間引きされた前記画像信号を前記フレーム毎の前記間引きの情報である間引き情報に基づいて復元することにより前記圧縮フレームの伸張を行う伸張手順を具備する画像処理方法。
In addition, this technique can also take the following structures.
(1) A storage unit that supplies a compressed frame, which is the frame that has been compressed by thinning to remove a part of the plurality of image signals in a frame configured by a plurality of image signals;
An image processing unit comprising: a decompression unit that decompresses the compressed frame by restoring the thinned image signal in the supplied compressed frame based on the thinning information that is the thinning information for each frame. apparatus.
(2) a thinning information generation unit for generating the thinning information;
The image processing apparatus according to (1), further comprising: a compression unit that performs the compression of the frame by the decimation based on the decimation information and stores the compression in the storage unit.
(3) The thinning information generation unit generates, as the thinning information, a thinning rate that is a ratio of the number of image signals to be thinned with respect to the number of image signals included in the frame.
The image processing device according to (2), wherein the compression unit performs the thinning by determining the number of image signals to be thinned based on the thinning rate.
(4) The compression unit applies a plurality of arrangement patterns, which are information on the arrangement of the image signals to be thinned, on the line obtained by dividing the frame in the horizontal direction to the thinning for each line in a predetermined order. Perform the compression,
The image processing apparatus according to (3), wherein the expansion unit performs the expansion by applying the arrangement pattern to the restoration for each line in the predetermined order.
(5) The image processing device according to (4), wherein the thinning information generation unit generates the thinning rate and thinning position information that is information in the predetermined order as the thinning information.
(6) The image processing device according to (5), wherein the thinning information generation unit generates the thinning position information that is different for each of the plurality of frames that are continuous with the thinning rate as the thinning information.
(7) The image processing device according to (4) or (5), wherein the compression unit performs the compression based on the arrangement pattern in which the image signals to be thinned are arranged not adjacent to each other in the horizontal direction. .
(8) a frame mixing unit that generates a new frame by mixing the second frame, which is a frame different from the frame, and the frame based on a predetermined mixing ratio;
The image processing device according to any one of (3) to (7), wherein the thinning information generation unit generates the thinning rate of the frame and the second frame as the thinning information based on the mixing ratio.
(9) further comprising a thinning information generation unit for generating the thinning information;
The image processing apparatus according to (1), wherein the storage unit stores the frame, performs the compression of the stored frame by the thinning based on the thinning information, and supplies the compressed frame to the expansion unit.
(10) The thinned image signal in the compressed frame, which is the frame that has been compressed by thinning to remove a part of the plurality of image signals in a frame composed of a plurality of image signals, for each frame An image processing method comprising a decompression procedure for decompressing the compressed frame by restoring based on the thinning information that is the thinning information.

100 画像処理部
102 デマルチプレクサ
103 プロセッサ
104 記憶部インターフェース
110 間引き情報生成部
120 ビデオデコーダ
130、154、174、230 圧縮部
131 画像信号除去部
132 画像信号並べ替え部
140、161、181 伸張部
141 画像信号挿入部
142 復元部
150 フレーム処理部
152 IPC部
153 ノイズリダクション部
155、165、175、185 ラインメモリ
160 解像度変換部
162 解像度変換処理部
170 OSDイメージ生成部
171 OSDイメージ生成処理部
180 OSDイメージ表示部
182 OSDイメージ解像度変換部
190 混合部
191 フレーム混合部
192 フレームOSDイメージ混合部
200 記憶部
210 画像処理部インターフェース
220 制御部
240 カラムアドレスデコーダ
250 ローアドレスデコーダ
260 メモリセルアレイ
300 表示装置
DESCRIPTION OF SYMBOLS 100 Image processing part 102 Demultiplexer 103 Processor 104 Storage part interface 110 Decimation information generation part 120 Video decoder 130,154,174,230 Compression part 131 Image signal removal part 132 Image signal rearrangement part 140,161,181 Expansion part 141 Image Signal insertion unit 142 Restoration unit 150 Frame processing unit 152 IPC unit 153 Noise reduction unit 155, 165, 175, 185 Line memory 160 Resolution conversion unit 162 Resolution conversion processing unit 170 OSD image generation unit 171 OSD image generation processing unit 180 OSD image display Unit 182 OSD image resolution conversion unit 190 mixing unit 191 frame mixing unit 192 frame OSD image mixing unit 200 storage unit 210 image processing unit interface 20 control unit 240 a column address decoder 250 row address decoder 260 memory cell array 300 display

Claims (10)

複数の画像信号により構成されるフレームにおいて前記複数の画像信号の一部を除去する間引きにより圧縮が行われた前記フレームである圧縮フレームを供給する記憶部と、
前記供給された前記圧縮フレームにおける前記間引きされた前記画像信号を前記フレーム毎の前記間引きの情報である間引き情報に基づいて復元することにより前記圧縮フレームの伸張を行う伸張部と
を具備する画像処理装置。
A storage unit that supplies a compressed frame that is the frame that has been compressed by thinning to remove a part of the plurality of image signals in a frame constituted by a plurality of image signals;
An image processing unit comprising: a decompression unit that decompresses the compressed frame by restoring the thinned image signal in the supplied compressed frame based on the thinning information that is the thinning information for each frame. apparatus.
前記間引き情報を生成する間引き情報生成部と、
前記間引き情報に基づく前記間引きにより前記フレームの前記圧縮を行って前記記憶部に記憶させる圧縮部と
をさらに具備する
請求項1記載の画像処理装置。
A decimation information generating unit for generating the decimation information;
The image processing apparatus according to claim 1, further comprising: a compression unit that performs the compression of the frame by the decimation based on the decimation information and stores the compression in the storage unit.
前記間引き情報生成部は、前記フレームに含まれる前記画像信号数に対する前記間引きの対象となる前記画像信号数の比率である間引き率を前記間引き情報として生成し、
前記圧縮部は、前記間引き率に基づいて前記間引きの対象となる前記画像信号数を決定して前記間引きを行う
請求項2記載の画像処理装置。
The thinning information generation unit generates, as the thinning information, a thinning rate that is a ratio of the number of image signals to be thinned with respect to the number of image signals included in the frame,
The image processing apparatus according to claim 2, wherein the compression unit performs the thinning by determining the number of image signals to be thinned based on the thinning rate.
前記圧縮部は、前記フレームを水平方向に分割したラインにおける前記間引き対象の前記画像信号の配置の情報である複数の配置パターンを所定の順序により前記ライン毎の前記間引きに適用して前記圧縮を行い、
前記伸張部は、前記配置パターンを前記所定の順序により前記ライン毎の前記復元に適用して前記伸張を行う
請求項3記載の画像処理装置。
The compression unit applies the plurality of arrangement patterns, which are information on the arrangement of the image signals to be thinned, on the line obtained by dividing the frame in the horizontal direction to the thinning for each line in a predetermined order. Done
The image processing apparatus according to claim 3, wherein the expansion unit performs the expansion by applying the arrangement pattern to the restoration for each line in the predetermined order.
前記間引き情報生成部は、前記間引き率と前記所定の順序の情報である間引き位置情報とを前記間引き情報として生成する請求項4記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the thinning information generation unit generates the thinning rate and thinning position information that is information in the predetermined order as the thinning information. 前記間引き情報生成部は、前記間引き率と連続する複数の前記フレーム毎に異なる前記間引き位置情報とを前記間引き情報として生成する請求項5記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the thinning information generation unit generates the thinning position information that is different for each of the plurality of frames that are continuous with the thinning rate as the thinning information. 前記圧縮部は、前記間引きの対象となる前記画像信号が水平方向に隣接しない配置となる前記配置パターンに基づいて前記圧縮を行う請求項4記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the compression unit performs the compression based on the arrangement pattern in which the image signals to be thinned are arranged not adjacent to each other in the horizontal direction. 前記フレームとは異なるフレームである第2のフレームと前記フレームとを所定の混合比率に基づいて混合して新たなフレームを生成するフレーム混合部をさらに具備し、
前記間引き情報生成部は、前記混合比率に基づいて前記フレームおよび前記第2のフレームの前記間引き率を前記間引き情報として生成する
請求項3記載の画像処理装置。
A frame mixing unit that generates a new frame by mixing a second frame that is different from the frame and the frame based on a predetermined mixing ratio;
The image processing apparatus according to claim 3, wherein the thinning information generation unit generates the thinning rate of the frame and the second frame as the thinning information based on the mixing ratio.
前記間引き情報を生成する間引き情報生成部をさらに具備し、
前記記憶部は、前記フレームを記憶し、前記間引き情報に基づく前記間引きにより前記記憶した前記フレームの前記圧縮を行って前記伸張部に供給する
請求項1記載の画像処理装置。
A thinning information generator for generating the thinning information;
The image processing apparatus according to claim 1, wherein the storage unit stores the frame, performs the compression of the stored frame by the thinning based on the thinning information, and supplies the compressed frame to the expansion unit.
複数の画像信号により構成されるフレームにおいて前記複数の画像信号の一部を除去する間引きにより圧縮が行われた前記フレームである圧縮フレームにおける前記間引きされた前記画像信号を前記フレーム毎の前記間引きの情報である間引き情報に基づいて復元することにより前記圧縮フレームの伸張を行う伸張手順を具備する画像処理方法。   In the frame composed of a plurality of image signals, the thinned image signal in the compressed frame, which is the frame that has been compressed by thinning to remove a part of the plurality of image signals, is subjected to the decimation for each frame. An image processing method comprising a decompression procedure for decompressing the compressed frame by restoring based on thinning information that is information.
JP2015101647A 2015-05-19 2015-05-19 Image processor and image processing method Pending JP2016219973A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015101647A JP2016219973A (en) 2015-05-19 2015-05-19 Image processor and image processing method
PCT/JP2016/061701 WO2016185831A1 (en) 2015-05-19 2016-04-11 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015101647A JP2016219973A (en) 2015-05-19 2015-05-19 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2016219973A true JP2016219973A (en) 2016-12-22

Family

ID=57320157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015101647A Pending JP2016219973A (en) 2015-05-19 2015-05-19 Image processor and image processing method

Country Status (2)

Country Link
JP (1) JP2016219973A (en)
WO (1) WO2016185831A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019159850A1 (en) * 2018-02-14 2019-08-22 日本電気株式会社 Signal processing device, signal processing system, signal processing method, and storage medium storing signal processing program
WO2019159846A1 (en) * 2018-02-14 2019-08-22 日本電気株式会社 Signal processing device, signal processing system, signal processing method, and storage medium storing signal processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2784815B2 (en) * 1989-09-22 1998-08-06 ソニー株式会社 Video signal transmission apparatus and transmission method
JP3759538B2 (en) * 1994-09-14 2006-03-29 ソニー株式会社 Image signal processing method and image signal transmission apparatus
JP3540447B2 (en) * 1995-07-20 2004-07-07 三洋電機株式会社 Video encoding apparatus and decoding apparatus
JP3864444B2 (en) * 1995-12-20 2006-12-27 ソニー株式会社 Image signal processing apparatus and method

Also Published As

Publication number Publication date
WO2016185831A1 (en) 2016-11-24

Similar Documents

Publication Publication Date Title
JP5568884B2 (en) Video processing apparatus and video processing method
JP4687725B2 (en) Image processing apparatus, image processing method, and computer program
JP5899503B2 (en) Drawing apparatus and method
JP2007271908A (en) Multi-image creating device
JPWO2009147795A1 (en) Video processing system
JP4757462B2 (en) Spatial division type 3D video signal generator
WO2016185831A1 (en) Image processing device and image processing method
JP4634410B2 (en) Video playback device, video playback method, and caption superimposing device
JP2007259193A (en) Video output apparatus, and method
KR101648449B1 (en) Method of processing image in a display apparatus and the display apparatus
JP2012029010A (en) Information processor, frame data conversion method, and program
JP5484132B2 (en) Video processing apparatus and control method thereof
JP6049910B2 (en) Video processing apparatus and video display apparatus
JP6478621B2 (en) Image processing device
JP2014216668A (en) Imaging apparatus
JP2011142410A (en) Image processing apparatus
JP2010245768A (en) Image processing apparatus, and image processing method
JP2009042338A (en) Pixel number conversion method, device, and program
JP2013247582A (en) Video composition method, video recording method, video composition device, video recording device, and video display system
JP3630587B2 (en) Video editing method and apparatus
JP2005331674A (en) Image display apparatus
CN101926169A (en) Video signal processing method, integrated circuit, and video reproducer
JP2006303628A (en) Video image display device, video image processor, and video image processing method
JP2007094806A (en) Image display method, image display apparatus, and image display program
JP2013214788A (en) Video signal processing apparatus and video signal processing method