JP6110724B2 - Image processing apparatus, encoding apparatus, and encoding program - Google Patents

Image processing apparatus, encoding apparatus, and encoding program Download PDF

Info

Publication number
JP6110724B2
JP6110724B2 JP2013096584A JP2013096584A JP6110724B2 JP 6110724 B2 JP6110724 B2 JP 6110724B2 JP 2013096584 A JP2013096584 A JP 2013096584A JP 2013096584 A JP2013096584 A JP 2013096584A JP 6110724 B2 JP6110724 B2 JP 6110724B2
Authority
JP
Japan
Prior art keywords
motion vector
unit
block
target block
processing target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013096584A
Other languages
Japanese (ja)
Other versions
JP2014220571A (en
Inventor
康孝 松尾
康孝 松尾
境田 慎一
慎一 境田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2013096584A priority Critical patent/JP6110724B2/en
Publication of JP2014220571A publication Critical patent/JP2014220571A/en
Application granted granted Critical
Publication of JP6110724B2 publication Critical patent/JP6110724B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像の奥行き情報に基づいて画像を処理する画像処理装置、符号化装置、及び符号化プログラムに関する。   The present invention relates to an image processing apparatus, an encoding apparatus, and an encoding program that process an image based on image depth information.

近年、奥行き情報を取得できる深度センサを搭載したカメラが盛んに研究開発されている。例えば、RGBにD(奥行き)を加えた画像情報を取得するRGB―Dセンサを搭載したカメラの一例として、Microsoft社のKinect(登録商標)がある。このような背景から、2次元の画像信号と、奥行き情報とを有する動画像情報の利用が増加することが予想される。     In recent years, a camera equipped with a depth sensor capable of acquiring depth information has been actively researched and developed. For example, there is Microsoft's Kinect (registered trademark) as an example of a camera equipped with an RGB-D sensor for acquiring image information obtained by adding D (depth) to RGB. From such a background, it is expected that the use of moving image information having a two-dimensional image signal and depth information will increase.

また、動画情報を効率的に処理する規格であるH.264/AVC(Advanced Video Coding)やH.265/HEVC(High Efficiency Video Coding)の映像の圧縮符号化方式では、映像の各フレームをブロックと呼ばれる矩形領域に分割して符号化が行われる。   In addition, H.264, which is a standard for efficiently processing moving image information. H.264 / AVC (Advanced Video Coding) and H.264. In the H.265 / HEVC (High Efficiency Video Coding) video compression encoding method, each frame of the video is divided into rectangular areas called blocks, and encoding is performed.

この映像の圧縮の手法の1つとして、ブロックの動きベクトルを用いた画像予測が利用される。動きベクトルとは、ブロック単位で参照画像内から処理対象ブロックに最も類似している位置を探索するブロックマッチング技術などを用いて求められるブロック単位の空間的なずれを示す値である。この動きベクトルを用いて予測画像と、処理対象の画像との差分値を求めることにより、映像のデータ量を削減することが可能である。   As one of the video compression methods, image prediction using a block motion vector is used. The motion vector is a value indicating a spatial deviation in units of blocks obtained using a block matching technique or the like that searches for a position most similar to the processing target block from the reference image in units of blocks. By obtaining a difference value between the predicted image and the image to be processed using this motion vector, it is possible to reduce the amount of video data.

上記の標準においても、動きベクトルが用いられている。なお、動きベクトルの検出手法自体は、規格として定義されていないが、例えばブロック毎にブロックマッチング法を用いて行われている(例えば、非特許文献1参照)。   In the above standards, motion vectors are also used. Note that the motion vector detection method itself is not defined as a standard, but is performed using, for example, a block matching method for each block (see, for example, Non-Patent Document 1).

図1は、動きベクトルの検出例を示している。動画像情報は、複数のフレームを含む。例えば、基準フレーム110は、時刻t=0のときの動画像のフレームを表している。そして、参照フレーム120は、時刻t=−1における動画像のフレームを表している。各々のフレームは、複数のブロックで構成されている。基準フレーム110に存在する処理対象ブロック112の動きベクトルを探索するために、参照フレーム120には、探索範囲121が設定される。ブロックマッチング法を利用した場合には、基準フレーム上の処理対象ブロックの画像と、参照フレーム上の同じ空間位置を中心として設定した上記探索範囲内のブロックの画像SAD(Sum of Absolute Distance:予測誤差の絶対値和)又はSSD(Sum of Square Distance:二乗誤差和)を計算する。この値が最も小さい参照フレーム上のブロックと基準フレーム上の処理対象ブロック位置差から動きベクトルが決定される。   FIG. 1 shows an example of motion vector detection. The moving image information includes a plurality of frames. For example, the reference frame 110 represents a moving image frame at time t = 0. The reference frame 120 represents a moving image frame at time t = −1. Each frame is composed of a plurality of blocks. In order to search for a motion vector of the processing target block 112 existing in the reference frame 110, a search range 121 is set in the reference frame 120. When the block matching method is used, the image of the block to be processed on the base frame and the image SAD (Sum of Absolute Distance: prediction error) of the block within the search range set around the same spatial position on the reference frame (Sum of Square Distance) or SSD (Sum of Square Distance). A motion vector is determined from the position difference between the block on the reference frame having the smallest value and the processing target block on the base frame.

なお、H.264/AVC及びH.265/HEVCの標準では、基準フレームと参照フレームを縦横2倍又は4倍にして、原画像から見て1/2又は1/4画素精度の動きベクトル検出が行われる。   H. H.264 / AVC and H.264. In the H.265 / HEVC standard, the base frame and the reference frame are vertically or horizontally doubled or quadrupled, and motion vector detection with 1/2 or 1/4 pixel accuracy is performed as viewed from the original image.

動きベクトルの検出確度は、映像の圧縮効率などに影響を与えるため、より確度の高い動きベクトルの検出手法が望まれている。   Since the motion vector detection accuracy affects the compression efficiency of the video, a motion vector detection method with higher accuracy is desired.

大久保榮監修,「改訂三版 H.264/AVC 教科書」,インプレス R&D,p124,2009年1月1日Supervised by Satoshi Okubo, “Revised 3rd edition H.264 / AVC textbook”, Impress R & D, p124, January 1, 2009

上述したようにブロックマッチングなどの手法を用いた動きベクトルの検出においては、基準フレームの処理対象ブロックと、参照フレームのブロックが異なるオブジェクトに属するにもかかわらず、両者の輝度又は色等が近似しているために、ブロックマッチングの結果が最小となる場合あり得る。この場合には、検出された動きベクトルは、本来のオブジェクトの動きを反映していないものとなる。特に、H.264/AVC及びH.265/HEVCの標準で、時間ダイレクトモードが採用された場合、例えば1フレーム隣のフレームの動きベクトルを2倍にスケーリングすることで2フレーム隣のフレームとの間の動きベクトルを予測することがある。この場合、そもそもオブジェクトが異なっているために、2フレーム隣のフレームとの間の動きベクトルは、本来の動きベクトルとは更に乖離してしまうこととなる。その結果は、符号化された画質の低下となって現れる。   As described above, in motion vector detection using a technique such as block matching, although the processing target block of the base frame and the block of the reference frame belong to different objects, the luminance or color of both approximates each other. Therefore, the result of block matching may be minimized. In this case, the detected motion vector does not reflect the original motion of the object. In particular, H.C. H.264 / AVC and H.264. When the temporal direct mode is adopted in the standard of H.265 / HEVC, a motion vector between two adjacent frames may be predicted, for example, by scaling the motion vector of the adjacent frame by two times. . In this case, since the objects are different from each other, the motion vector between the two adjacent frames is further deviated from the original motion vector. The result appears as a reduction in the encoded image quality.

なお、例えば色情報などを用いて、同一オブジェクトであるか否かの判定を行うことはできるが、その判定精度には限界があった。例えばオブジェクトが異なっていても、これらのオブジェクトの色が同じであれば、これらのオブジェクトは同一オブジェクトと判定されてしまう。   Although it is possible to determine whether or not they are the same object using, for example, color information, the determination accuracy has a limit. For example, even if the objects are different, if these objects have the same color, these objects are determined to be the same object.

そこで、本発明は、奥行き情報を用いて、より確度の高い動きベクトルの検出を行うことによって、画質の向上を図ることができる画像処理装置、符号化装置、及び符号化プログラムを提供することを目的とする。   Therefore, the present invention provides an image processing device, an encoding device, and an encoding program that can improve image quality by detecting motion vectors with higher accuracy using depth information. Objective.

本発明の一態様における画像処理装置は、奥行き情報を含む画像に対してブロック単位で処理を行う画像処理装置であって、基準フレームの複数のブロックのうちの何れかである処理対象ブロックと、参照される参照フレームの画像の一致度に基づいて、前記処理対象ブロックの動きベクトルの複数の候補を特定する、動きベクトル候補特定部と、前記処理対象ブロックの奥行き情報と、前記動きベクトルを求めた参照フレームの対応するブロックの奥行き情報とを用いて、前記処理対象ブロックと、前記参照フレームの対応するブロックとが、同一のオブジェクトに属するか否かを判定するオブジェクト判定部と、前記動きベクトルの複数の候補の各々に対応する前記一致度と前記オブジェクト判定部の判定結果とに基づいて、前記処理対象ブロックの動きベクトルを決定する、動きベクトル決定部と、を有する。   An image processing apparatus according to an aspect of the present invention is an image processing apparatus that performs processing in units of blocks on an image including depth information, and includes a processing target block that is one of a plurality of blocks of a reference frame; Based on the matching degree of the image of the reference frame to be referenced, a motion vector candidate specifying unit that specifies a plurality of motion vector candidates of the processing target block, depth information of the processing target block, and the motion vector are obtained. Using the depth information of the corresponding block of the reference frame, an object determination unit that determines whether the processing target block and the corresponding block of the reference frame belong to the same object, and the motion vector Based on the degree of coincidence corresponding to each of the plurality of candidates and the determination result of the object determination unit. Determining the motion vector of the block has a motion vector determination unit.

また、前記基準フレーム及び前記参照フレームの奥行き情報にクラスタリングの処理を施す、奥行き情報クラスタリング部を更に有し、前記オブジェクト判定部は、前記クラスタリングの結果を用いて、前記判定を行ってもよい。   In addition, a depth information clustering unit that performs clustering processing on the depth information of the base frame and the reference frame may be further included, and the object determination unit may perform the determination using a result of the clustering.

また、前記動きベクトル決定部は、前記動きベクトルの複数の候補に係る参照フレームのブロックが、処理対象ブロックと同一のオブジェクトに属すると判定された動きベクトルが存在する場合、前記同一のオブジェクトに属すると判定された動きベクトルのうち、前記一致度の最も高い動きベクトルを、前記処理対象ブロックの動きベクトルと決定するか、又は、複数の動きベクトルの候補に係る参照フレームの何れのブロックも、前記処理対象ブロックと同一のオブジェクトに属しないと判定された場合、前記一致度が最も高い動きベクトルを、前記処理対象ブロックの動きベクトルと決定してもよい。   The motion vector determination unit may belong to the same object when a block of a reference frame related to the plurality of motion vector candidates is determined to belong to the same object as the processing target block. Among the motion vectors determined as the motion vector of the processing target block, or any block of the reference frame related to a plurality of motion vector candidates When it is determined that the block does not belong to the same object as the processing target block, the motion vector having the highest degree of matching may be determined as the motion vector of the processing target block.

また、前記動きベクトル決定部は、複数の動きベクトルの候補に係る参照フレームの何れのブロックも、前記処理対象ブロックと同一のオブジェクトに属しないと判定された場合であって、前記処理対象ブロックが更に複数のサブブロックに分割できる場合、前記サブブロックを、処理対象ブロックとして、当該画像処理装置の処理を繰り返してもよい。   The motion vector determination unit may determine that any block of the reference frame related to a plurality of motion vector candidates does not belong to the same object as the processing target block, and the processing target block is When the image processing apparatus can be further divided into a plurality of sub-blocks, the processing of the image processing apparatus may be repeated with the sub-block as a processing target block.

また、本発明の他の態様における符号化装置は、上記画像処理装置を備えてもよい。   An encoding apparatus according to another aspect of the present invention may include the image processing apparatus.

また、本発明の他の態様における符号化プログラムは、コンピュータを、上記符号化装置として機能させる。   An encoding program according to another aspect of the present invention causes a computer to function as the encoding apparatus.

本発明によれば、奥行き情報を用いて動きベクトルを、より的確に検出し、画質の向上を図ることができる。   According to the present invention, it is possible to more accurately detect a motion vector using depth information and improve image quality.

動きベクトルの検出例を示す図である。It is a figure which shows the example of a detection of a motion vector. 実施例1における画像処理装置10の構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a configuration of an image processing apparatus 10 in Embodiment 1. FIG. 動きベクトル決定部170の細部の構成の例を示す図である。It is a figure which shows the example of a detailed structure of the motion vector determination part 170. FIG. 実施例1における画像処理装置の処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of processing performed by the image processing apparatus according to the first exemplary embodiment. 実施例2における符号化装置の概略構成の一例を示すブロック図である。It is a block diagram which shows an example of schematic structure of the encoding apparatus in Example 2. FIG. 実施例3における画像処理装置の概略構成の一例を示すブロック図である。10 is a block diagram illustrating an example of a schematic configuration of an image processing apparatus according to Embodiment 3. FIG.

以下、各実施例について、添付図面を参照しながら詳細に説明する。   Hereinafter, each embodiment will be described in detail with reference to the accompanying drawings.

[実施例1]
まず、実施例1における画像処理装置について説明する。実施例1における画像処理装置は、奥行き情報を用いて動きベクトルを決定する装置である。この画像処理装置は、集積回路により実装されてもよい。また、記憶媒体に記憶されたプログラムをコンピュータが読み込んで、このプログラムをコンピュータが実行することにより実装されてもよい。
[Example 1]
First, the image processing apparatus according to the first embodiment will be described. The image processing apparatus according to the first embodiment is an apparatus that determines a motion vector using depth information. This image processing apparatus may be implemented by an integrated circuit. Further, the program may be implemented by reading a program stored in a storage medium by a computer and executing the program by the computer.

<構成>
図2は、実施例1における画像処理装置10の構成の一例を示すブロック図である。図2に示す画像処理装置10は、動きベクトル候補特定部140と、奥行き情報クラスタリング部150と、オブジェクト判定部160と、動きベクトル決定部170とを有する。
<Configuration>
FIG. 2 is a block diagram illustrating an example of the configuration of the image processing apparatus 10 according to the first embodiment. The image processing apparatus 10 illustrated in FIG. 2 includes a motion vector candidate specifying unit 140, a depth information clustering unit 150, an object determining unit 160, and a motion vector determining unit 170.

動きベクトル候補特定部140には、基準フレームと参照フレームの画像情報が入力される。参照フレームは、複数であってもよい。動きベクトル候補特定部140は、基準フレームの画像をブロック分割(例えば16×16画素サイズに分割)する。基準フレームの分割された複数のブロックのうちの1つを、順に処理対象ブロックとして選択する。そして、処理対象ブロックについて、参照フレームの画像を探索することによって動きベクトルを検出する。動きベクトルの検出には、例えば既存の手法であるブロックマッチング法を用いてもよい。   The motion vector candidate specifying unit 140 receives image information of the base frame and the reference frame. There may be a plurality of reference frames. The motion vector candidate specifying unit 140 performs block division (for example, division into 16 × 16 pixel size) on the image of the reference frame. One of the divided blocks of the reference frame is sequentially selected as a processing target block. Then, the motion vector is detected by searching the reference frame image for the processing target block. For example, a block matching method, which is an existing method, may be used for detecting a motion vector.

なお、本実施例では、処理対象ブロック毎にSAD又はSSDの値がn番目までに小さい動きベクトルを動きベクトルの複数の候補として検出することが望ましい。nの値は、例えば3を用いてもよい。動きベクトルの複数の候補は、動きベクトル決定部170と、オブジェクト判定部160に出力する。また、動きベクトルを求めたときの処理対象ブロックと、参照フレームのブロックの位置情報をオブジェクト判定部160に出力する。   In this embodiment, it is desirable to detect a motion vector having a SAD or SSD value as small as the nth for each processing target block as a plurality of motion vector candidates. For example, 3 may be used as the value of n. The plurality of motion vector candidates are output to the motion vector determination unit 170 and the object determination unit 160. In addition, the processing target block when the motion vector is obtained and the position information of the block of the reference frame are output to the object determination unit 160.

奥行き情報クラスタリング部150は、例えば、基準フレームと参照フレームの各奥行き情報をクラスタリングする。ここで、奥行き情報は、画素毎、又は撮像時に決定されるブロック領域毎に存在する。奥行き情報クラスタリング部150は、奥行き情報を示す奥行き深度が例えば256段階である場合、クラスタ数k=8に設定し、K−means法を適用して奥行き情報のクラスタリングを行う。   For example, the depth information clustering unit 150 clusters the depth information of the base frame and the reference frame. Here, the depth information exists for each pixel or for each block area determined at the time of imaging. When the depth depth indicating the depth information is, for example, 256 levels, the depth information clustering unit 150 sets the number of clusters k = 8 and applies the K-means method to cluster the depth information.

奥行き深度の段階数は、深度センサの性能に従うため256に限られない。クラスタ数kは、予め適切な値が設定されていればよい。   The number of stages of depth and depth is not limited to 256 in order to follow the performance of the depth sensor. An appropriate value may be set in advance for the number k of clusters.

また、奥行き情報クラスタリング部150は、奥行き情報のヒストグラムを求め、このヒストグラムが取る値の範囲をクラスタ数kに等分割し、奥行き情報を分類してもよい。   In addition, the depth information clustering unit 150 may obtain a histogram of depth information, divide the range of values taken by the histogram equally into the number of clusters k, and classify the depth information.

奥行き情報クラスタリング部150は、上述のK−means法による奥行き情報のクラスタリング、又は、奥行き情報のヒストグラムから求めた奥行き情報の分類を用いることができる。奥行き情報クラスタリング部150は、各画素位置又は各所定領域の奥行き情報のクラスタリング結果として、奥行き降順に番号を付与して、このクラスタリング結果を示すクラスタリング情報(例えば0〜7)をオブジェクト判定部160に出力する。   The depth information clustering unit 150 can use depth information clustering based on the above-described K-means method, or classification of depth information obtained from a histogram of depth information. The depth information clustering unit 150 assigns numbers in descending order of depth as the clustering result of the depth information of each pixel position or each predetermined region, and provides clustering information (for example, 0 to 7) indicating the clustering result to the object determination unit 160. Output.

オブジェクト判定部160は、動きベクトルが算出された処理対象ブロックと、対応する参照フレームのブロックが同一のオブジェクトに属するか否かの判定を行う。オブジェクト判定部160は、取得部162と奥行き判定部164とを備える。   The object determination unit 160 determines whether or not the processing target block for which the motion vector is calculated and the corresponding reference frame block belong to the same object. The object determination unit 160 includes an acquisition unit 162 and a depth determination unit 164.

取得部162は、ブロック毎に、クラスタリング情報の代表値を取得する。取得部162は、ブロック毎にクラスタリング情報を平均化し、端数を四捨五入する整数化を行うことで、ブロック毎に1つの奥行き情報(代表値)を取得する。なお、取得部162は、ブロック毎に、クラスタリング情報の中央値や最頻値を代表値としてもよい。取得部162は、ブロック内の奥行き情報の代表値を、ブロックの奥行き代表情報として奥行き判定部164に出力する。   The acquisition unit 162 acquires a representative value of clustering information for each block. The acquisition unit 162 acquires one depth information (representative value) for each block by averaging the clustering information for each block and performing integerization by rounding off the fractions. Note that the acquisition unit 162 may use the median value or mode value of the clustering information as a representative value for each block. The acquisition unit 162 outputs the representative value of the depth information in the block to the depth determination unit 164 as the representative depth information of the block.

奥行き判定部164は、取得部162から取得した、処理対象ブロックと、対応する参照フレームのブロックの奥行き代表情報が所定範囲内に属するか否かを判定する。例えば、奥行き判定部164は、処理対象ブロック奥行き情報と、対応する参照フレームのブロックの奥行き代表情報との差が所定値以内にあるか否かを判定してもよい。   The depth determination unit 164 determines whether the depth representative information of the processing target block and the corresponding reference frame block acquired from the acquisition unit 162 is within a predetermined range. For example, the depth determination unit 164 may determine whether or not the difference between the processing target block depth information and the depth representative information of the corresponding reference frame block is within a predetermined value.

奥行き判定部164は、所定値を0にすれば、奥行き情報が同じクラスタに属するか否かを判定でき、所定値を例えば1などにすれば、奥行き情報同士が類似するか否かを判定できる。   The depth determination unit 164 can determine whether the depth information belongs to the same cluster if the predetermined value is 0, and can determine whether the depth information is similar if the predetermined value is 1, for example. .

奥行き判定部164は、処理対象ブロックと、対応する参照フレームのブロックの奥行き代表情報の差が所定値以内であれば、処理対象ブロックと、対応する参照フレームのブロックは、同一オブジェクトに属すると判定する。また、奥行き判定部164は、処理対象ブロックと、対応する参照フレームのブロックの奥行き代表情報との差が所定値より大きければ、処理対象ブロックと、対応する参照フレームのブロックは、同一オブジェクトに属しないと判定する。   The depth determination unit 164 determines that the processing target block and the corresponding reference frame block belong to the same object if the difference between the depth representative information of the processing target block and the corresponding reference frame block is within a predetermined value. To do. The depth determination unit 164 also determines that the processing target block and the corresponding reference frame block belong to the same object if the difference between the processing target block and the depth representative information of the corresponding reference frame block is larger than a predetermined value. Judge that not.

なお、オブジェクト判定部160は、奥行き情報のクラスタリング情報を用いずに、ブロック内の奥行き情報から直接に代表値を決定し、処理対象ブロックと、対応する参照フレームのブロックの奥行き代表情報の代表値の差が所定値以内であるかを判定してもよい。   The object determination unit 160 determines the representative value directly from the depth information in the block without using the clustering information of the depth information, and represents the representative value of the depth representative information of the processing target block and the block of the corresponding reference frame. It may be determined whether the difference is within a predetermined value.

オブジェクト判定部160は、奥行き判定部164の判定結果を動きベクトル決定部170に出力する。   The object determination unit 160 outputs the determination result of the depth determination unit 164 to the motion vector determination unit 170.

動きベクトル決定部170は、オブジェクト判定部160からの情報を用いて、処理対象ブロックに対する動きベクトルの複数の候補から、処理対象ブロックの動きベクトルを決定する。   The motion vector determination unit 170 uses the information from the object determination unit 160 to determine the motion vector of the processing target block from a plurality of motion vector candidates for the processing target block.

図3は、動きベクトル決定部170の細部の構成の例を示している。動きベクトル決定部170は、第1決定部171、第2決定部172、第3決定部173、選択部174、及び測定部175を備える。   FIG. 3 shows an example of a detailed configuration of the motion vector determination unit 170. The motion vector determination unit 170 includes a first determination unit 171, a second determination unit 172, a third determination unit 173, a selection unit 174, and a measurement unit 175.

なお、選択部174は、動きベクトル候補特定部140からの情報及びオブジェクト判定部160からの情報を、第1決定部171、第2決定部172、第3決定部173の何れかに、選択的に伝達するように動作してもよい。   Note that the selection unit 174 selectively transmits the information from the motion vector candidate specifying unit 140 and the information from the object determination unit 160 to any one of the first determination unit 171, the second determination unit 172, and the third determination unit 173. May be operated to communicate to.

また、選択部174は、後に説明する測定部からの情報に基づいて、選択的に伝達する機能が制御される。選択部174は、オペレータなどの外部からの設定によって、選択的に伝達するように設定されてもよい。   In addition, the function of selectively transmitting the selection unit 174 is controlled based on information from the measurement unit described later. The selection unit 174 may be set so as to be selectively transmitted by an external setting such as an operator.

第1決定部171は、一致度が最も高い動きベクトル、すなわち、ブロック間のSAD(Sum of Absolute Difference)又はSSD(Sum of Squared Difference)が最小となる動きベクトルを、処理対象ブロックの動きベクトルとして採用すべきか否かを決定する。すなわち、第1決定部171は、一致度が最も高い動きベクトルに関して、処理対象ブロックと、対応する参照フレームのブロックとが同一のオブジェクトに属しないと前記オブジェクト判定部において判定された場合、一致度が最も高い動きベクトルを、前記処理対象ブロックの動きベクトルとして採用することを却下する決定を行ってもよい。一致度が最も高い動きベクトルであっても、処理対象ブロックと、対応する参照フレームのブロックとが同一のオブジェクトに属しないと判断される場合には、この動きベクトルを採用することは、適切な判断ではないからである。   The first determining unit 171 uses the motion vector having the highest degree of coincidence, that is, the motion vector having the smallest SAD (Sum of Absolute Difference) or SSD (Sum of Squared Difference) between the blocks as the motion vector of the processing target block. Decide whether or not to adopt. That is, when the object determination unit determines that the processing target block and the corresponding reference frame block do not belong to the same object with respect to the motion vector having the highest matching degree, the first determining unit 171 determines the matching degree. The decision may be made to reject the adoption of the motion vector having the highest value as the motion vector of the processing target block. Even if the motion vector has the highest degree of coincidence, if it is determined that the processing target block and the corresponding reference frame block do not belong to the same object, it is appropriate to adopt this motion vector. This is not a judgment.

第1決定部171は、却下を行わない場合には、一致度が最も高い動きベクトルを出力する。第1決定部171が、却下を行った場合には、nullが出力されてもよい。例えば、レジストレーション超解像の処理においては、動きベクトルとしてnullが許容されている。なお、H.264/AVC、又はH.265/HEVCの標準においては、nullは適切ではないとされているため、後述する第2決定部172の処理を行ってもよい。   The first determination unit 171 outputs the motion vector having the highest degree of matching when not rejecting. When the first determination unit 171 performs rejection, null may be output. For example, in registration super-resolution processing, null is allowed as a motion vector. H. H.264 / AVC or H.264 In the standard of H.265 / HEVC, null is not appropriate, and therefore processing of the second determination unit 172 described later may be performed.

第2決定部172は、動きベクトルの複数の候補に係る参照フレームのブロックが、処理対象ブロックと同一のオブジェクトに属すると判定された動きベクトルが存在する場合には、同一のオブジェクトに属すると判定された動きベクトルのうち、一致度の最も高い動きベクトルを、前記処理対象ブロックの動きベクトルと決定する。なお、第2決定部172は、複数の動きベクトルの候補に係る参照フレームの何れのブロックも、処理対象ブロックと同一のオブジェクトに属しないと判定された場合、一致度が最も高い動きベクトルを、処理対象ブロックの動きベクトルと決定してもよい。   The second determining unit 172 determines that a block of a reference frame related to a plurality of motion vector candidates belongs to the same object when there is a motion vector determined to belong to the same object as the processing target block. Among the motion vectors thus determined, the motion vector having the highest degree of coincidence is determined as the motion vector of the processing target block. In addition, when it is determined that any block of the reference frame related to the plurality of motion vector candidates does not belong to the same object as the processing target block, the second determination unit 172 selects the motion vector having the highest degree of matching, The motion vector of the processing target block may be determined.

第3決定部173は、動きベクトルの複数の候補に係る参照フレームのブロックが、処理対象ブロックと同一のオブジェクトに属すると判定された動きベクトルが存在する場合には、第2決定部172と同じ処理を行ってもよい。第3決定部173は、複数の動きベクトルの候補に係る参照フレームの何れのブロックも、処理対象ブロックと同一のオブジェクトに属しないと判定された場合であって、処理対象ブロックが更に複数のサブブロックに分割できる場合、サブブロックを、処理対象ブロックとして、動きベクトルの検出の処理を繰り返す処理(図2及び図3の処理)を、例えば動きベクトル候補特定部140に指示してもよい(176)。例えば、16×16画素サイズのブロックを用いてベクトルの検出の処理を行っていた場合には、このブロックを8×8画素サイズの4つのブロックに分割して、同様に動きベクトルの検出の処理を行う。なお、更なるブロックの分割が行えない場合には、一致度が最も高い動きベクトルを、処理対象ブロックの動きベクトルと決定してもよい。   The third determination unit 173 is the same as the second determination unit 172 when a block of a reference frame related to a plurality of motion vector candidates is determined to belong to the same object as the processing target block. Processing may be performed. The third determining unit 173 determines that none of the blocks of the reference frame related to the plurality of motion vector candidates belong to the same object as the processing target block, and the processing target block further includes a plurality of sub-frames. If the block can be divided into blocks, the motion vector candidate specifying unit 140 may be instructed to repeat the motion vector detection processing (the processing in FIGS. 2 and 3) using the sub-block as a processing target block (176) (176). ). For example, when a vector detection process is performed using a block of 16 × 16 pixel size, this block is divided into four blocks of 8 × 8 pixel size, and similarly a motion vector detection process is performed. I do. If no further block division can be performed, the motion vector having the highest degree of matching may be determined as the motion vector of the processing target block.

なお、上記の更なるブロック分割が行われた場合には、このブロック分割に係る指示176をビットストリームに含めるために、この指示176を、図5と共に後に説明するエントロピー符号化部204に出力し、符号化するとともに、上述のように動きベクトル候補特定部140に指示してもよい。   In addition, when the above further block division is performed, this instruction 176 is output to the entropy encoding unit 204 described later with reference to FIG. 5 in order to include the instruction 176 relating to this block division in the bitstream. In addition to encoding, the motion vector candidate specifying unit 140 may be instructed as described above.

そして、ブロックの復号化においては、このブロック分割に係る符号化された指示176が復号化されて利用される。   In block decoding, the encoded instruction 176 related to the block division is decoded and used.

また、画像を量子化した後の情報(例えば、図5における量子化部203からの量子化データ180)が、測定部175に入力される。第3決定部が選択部174において選択されている場合に、測定部175は、量子化データ180に係る単位時間当たりの情報量を随時測定する。例えば、量子化データ180に係る単位時間当たりの情報量が増加する傾向であれば、選択部が第1決定部171、又は第2決定部172を選択する様、選択部に指令を発してもよい。この処理を行う理由は、例えば、ブロック分割が頻繁に発生する場合には、ブロック分割に係る指示176を表すデータが、量子化データ180に係る単位時間当たりの情報量を増加させる要因となり得るため、この単位時間当たりの情報量を所定の量以下に止めることが望ましいからである。   Further, information after the image is quantized (for example, quantized data 180 from the quantization unit 203 in FIG. 5) is input to the measurement unit 175. When the third determination unit is selected by the selection unit 174, the measurement unit 175 measures the information amount per unit time related to the quantized data 180 as needed. For example, if the information amount per unit time related to the quantized data 180 tends to increase, the selection unit may issue a command to the selection unit so that the first determination unit 171 or the second determination unit 172 is selected. Good. The reason for performing this processing is that, for example, when block division frequently occurs, the data representing the instruction 176 related to block division can increase the amount of information per unit time related to the quantized data 180. This is because it is desirable to stop the amount of information per unit time below a predetermined amount.

以上の構成を有することで、動き情報を利用して、動きベクトルをより的確に検出し、画質の向上を図ることができる。   With the above configuration, it is possible to detect motion vectors more accurately using motion information and improve image quality.

<動作>
次に、実施例1における画像処理装置10の動作について図4及び図5を用いて説明する。
<Operation>
Next, the operation of the image processing apparatus 10 according to the first embodiment will be described with reference to FIGS. 4 and 5.

図4は、実施例1の基準フレームの1つの処理対象ブロックに対する処理の概要を示している。   FIG. 4 shows an overview of processing for one processing target block of the reference frame of the first embodiment.

ステップS102で、動きベクトル候補特定部140は、処理対象ブロックに対する動きベクトルの複数の候補を特定する。   In step S102, the motion vector candidate specifying unit 140 specifies a plurality of motion vector candidates for the processing target block.

ステップS104で、奥行き情報クラスタリング部150は、基準フレーム及び参照フレームの奥行き情報のクラスタリング処理を行う。クラスタリング処理は、K−means法を利用してもよい。奥行き情報クラスタリング部150は、奥行き情報のクラスタリング結果として、奥行きを降順に番号を付与して、各画素位置又は各所定領域に対して、このクラスタリング結果を示すクラスタリング情報(例えば0〜7)を出力してもよい。   In step S104, the depth information clustering unit 150 performs a depth information clustering process of the base frame and the reference frame. The clustering process may use the K-means method. The depth information clustering unit 150 assigns depths in descending order as the depth information clustering results, and outputs clustering information (for example, 0 to 7) indicating the clustering results for each pixel position or each predetermined region. May be.

ステップS106で、オブジェクト判定部160は、取得部162において、関連する各ブロックについて、ブロックの奥行きを代表する代表値を取得する。取得部162は、ブロック毎にクラスタリング情報を平均化し、端数を四捨五入する整数化を行うことで、ブロック毎に1つの奥行き情報(代表値)を取得する。なお、取得部162は、ブロック毎に、クラスタリング情報の中央値や最頻値を代表値としてもよい。   In step S <b> 106, the object determination unit 160 acquires, in the acquisition unit 162, a representative value representing the block depth for each related block. The acquisition unit 162 acquires one depth information (representative value) for each block by averaging the clustering information for each block and performing integerization by rounding off the fractions. Note that the acquisition unit 162 may use the median value or mode value of the clustering information as a representative value for each block.

ステップS108で、奥行き判定部は、動きベクトルの複数の候補の各々に関連する処理対象ブロックと、参照フレーム内の対応するブロックが同一オブジェクトに属するか否かを判定する。   In step S108, the depth determination unit determines whether or not the processing target block associated with each of the plurality of motion vector candidates and the corresponding block in the reference frame belong to the same object.

ステップS110において、動きベクトル決定部170は、一致度が最も高い値を有する第一候補の動きベクトルが取得された2つのブロックが同一オブジェクトに属すると判定された場合には、その第一候補の動きベクトルを、処理対象ブロックの動きベクトルとして決定する。   In step S110, when it is determined that the two blocks from which the motion vector of the first candidate having the highest degree of coincidence is acquired belong to the same object, the motion vector determination unit 170 determines the first candidate. The motion vector is determined as the motion vector of the processing target block.

上記以外の場合には、既に説明したように以下のようになる。   In cases other than the above, as described above, the operation is as follows.

まず、第1決定部171は、NULLを出力する。   First, the first determination unit 171 outputs NULL.

第2決定部172は、動きベクトルの複数の候補に係る参照フレームのブロックが、処理対象ブロックと同一のオブジェクトに属すると判定された動きベクトルが存在する場合には、同一のオブジェクトに属すると判定された動きベクトルのうち、一致度の最も高い動きベクトルを、前記処理対象ブロックの動きベクトルと決定してもよい。なお、第2決定部172は、複数の動きベクトルの候補に係る参照フレームの何れのブロックも、処理対象ブロックと同一のオブジェクトに属しないと判定された場合、一致度が最も高い動きベクトルを、処理対象ブロックの動きベクトルと決定してもよい。   The second determining unit 172 determines that a block of a reference frame related to a plurality of motion vector candidates belongs to the same object when there is a motion vector determined to belong to the same object as the processing target block. Of the motion vectors thus determined, the motion vector having the highest degree of coincidence may be determined as the motion vector of the processing target block. In addition, when it is determined that any block of the reference frame related to the plurality of motion vector candidates does not belong to the same object as the processing target block, the second determination unit 172 selects the motion vector having the highest degree of matching, The motion vector of the processing target block may be determined.

第3決定部173は、動きベクトルの複数の候補に係る参照フレームのブロックが、処理対象ブロックと同一のオブジェクトに属すると判定された動きベクトルが存在する場合には、第2決定部172と同じ処理を行う。第3決定部173は、複数の動きベクトルの候補に係る参照フレームの何れのブロックも、処理対象ブロックと同一のオブジェクトに属しないと判定された場合であって、処理対象ブロックが更に複数のサブブロックに分割できる場合、サブブロックに分割し、このサブブロックを、処理対象ブロックとして、動きベクトルの検出の処理を繰り返す処理(図2及び図3の処理)の指示176を出力する。   The third determination unit 173 is the same as the second determination unit 172 when a block of a reference frame related to a plurality of motion vector candidates is determined to belong to the same object as the processing target block. Process. The third determining unit 173 determines that none of the blocks of the reference frame related to the plurality of motion vector candidates belong to the same object as the processing target block, and the processing target block further includes a plurality of sub-frames. If it can be divided into blocks, the block is divided into sub-blocks, and this sub-block is set as a processing target block, and an instruction 176 for the process of repeating the motion vector detection process (the processes in FIGS. 2 and 3) is output.

以上、実施例1によれば、奥行き情報を利用することにより、同一オブジェクトと判定されたブロックに基づいて、動きベクトルを検出することが可能となり、より的確に動きベクトルを検出でき、画質の向上を図ることができる。   As described above, according to the first embodiment, by using the depth information, a motion vector can be detected based on blocks determined to be the same object, and the motion vector can be detected more accurately, thereby improving the image quality. Can be achieved.

[実施例2]
実施例2では、実施例1における画像処理装置10を動きベクトル計算部213に含む符号化装置について説明する。実施例2では、入力される情報に奥行き情報が含まれているとする。
[Example 2]
In the second embodiment, an encoding device including the image processing device 10 in the first embodiment in the motion vector calculation unit 213 will be described. In the second embodiment, it is assumed that depth information is included in input information.

<構成>
図5は、実施例2における符号化装置20の概略構成の一例を示すブロック図である。図5に示す例では、符号化装置20は、前処理部200と、予測誤差信号生成部201と、直交変換部202と、量子化部203と、エントロピー符号化部204と、逆量子化部205と、逆直交変換部206と、復号画像生成部207と、ループフィルタ部209と、復号画像記憶部210と、イントラ予測部211と、インター予測部212と、動きベクトル計算部213と、予測画像選択部215とを有する。各部についての概略を以下に説明する。
<Configuration>
FIG. 5 is a block diagram illustrating an example of a schematic configuration of the encoding device 20 according to the second embodiment. In the example illustrated in FIG. 5, the encoding device 20 includes a preprocessing unit 200, a prediction error signal generation unit 201, an orthogonal transformation unit 202, a quantization unit 203, an entropy encoding unit 204, and an inverse quantization unit. 205, an inverse orthogonal transform unit 206, a decoded image generation unit 207, a loop filter unit 209, a decoded image storage unit 210, an intra prediction unit 211, an inter prediction unit 212, a motion vector calculation unit 213, and a prediction And an image selection unit 215. An outline of each part will be described below.

前処理部200は、ピクチャタイプに合わせてピクチャを並べ替え、ピクチャタイプ及びフレーム毎のフレーム画像等を順次出力する。また、前処理部200は、ブロック分割なども行い、ブロック分割の境界情報をループフィルタ部209に出力してもよい。また、前処理部200は、原画に含まれる奥行き情報を動きベクトル計算部213に出力する。   The preprocessing unit 200 rearranges the pictures according to the picture type, and sequentially outputs the picture type and the frame image for each frame. The preprocessing unit 200 may also perform block division and the like, and output block division boundary information to the loop filter unit 209. In addition, the preprocessing unit 200 outputs depth information included in the original image to the motion vector calculation unit 213.

予測誤差信号生成部201は、入力された動画像データの符号化対象画像が、例えば32×32、16×16、8×8画素などのブロックに分割されたブロックデータを取得する。   The prediction error signal generation unit 201 obtains block data obtained by dividing the encoding target image of the input moving image data into blocks such as 32 × 32, 16 × 16, and 8 × 8 pixels, for example.

予測誤差信号生成部201は、そのブロックデータと、予測画像選択部215から出力される予測画像のブロックデータとにより、予測誤差信号を生成する。予測誤差信号生成部201は、生成された予測誤差信号を直交変換部202に出力する。   The prediction error signal generation unit 201 generates a prediction error signal based on the block data and the block data of the prediction image output from the prediction image selection unit 215. The prediction error signal generation unit 201 outputs the generated prediction error signal to the orthogonal transformation unit 202.

直交変換部202は、入力された予測誤差信号を直交変換処理する。直交変換部202は、変換された係数値を示す信号を量子化部203に出力する。   The orthogonal transform unit 202 performs an orthogonal transform process on the input prediction error signal. The orthogonal transform unit 202 outputs a signal indicating the transformed coefficient value to the quantization unit 203.

量子化部203は、直交変換部202からの出力信号を量子化する。量子化部203は、量子化することによって出力信号の符号量を低減し、この出力信号をエントロピー符号化部204及び逆量子化部205に出力する。量子化部203は、量子化パラメータのQP値をループフィルタ部209に出力する。量子化部の出力信号は、量子化データ180として、動きベクトル計算部213に出力されてもよい。   The quantization unit 203 quantizes the output signal from the orthogonal transform unit 202. The quantization unit 203 reduces the code amount of the output signal by quantization, and outputs this output signal to the entropy encoding unit 204 and the inverse quantization unit 205. The quantization unit 203 outputs the QP value of the quantization parameter to the loop filter unit 209. The output signal of the quantization unit may be output to the motion vector calculation unit 213 as quantized data 180.

エントロピー符号化部204は、量子化部203からの出力信号や、動きベクトル計算部213から出力された動きベクトル情報やループフィルタ部209からのフィルタ係数などをエントロピー符号化して出力する。   The entropy encoding unit 204 entropy-encodes and outputs the output signal from the quantization unit 203, the motion vector information output from the motion vector calculation unit 213, the filter coefficient from the loop filter unit 209, and the like.

また、エントロピー符号化部204は、イントラ予測部211から取得したイントラ予測方向の差分値や、インター予測部212から取得した動きベクトルと予測ベクトルの差分値などをエントロピー符号化する。   Also, the entropy encoding unit 204 entropy encodes the difference value of the intra prediction direction acquired from the intra prediction unit 211, the difference value of the motion vector and the prediction vector acquired from the inter prediction unit 212, and the like.

また、エントロピー符号化部204は、動きベクトル決定部170内の第3決定部173から取得した、ブロック再分割に関する情報を符号化してもよい。エントロピー符号化とは、シンボルの出現頻度に応じて可変長の符号を割り当てる方式をいう。   In addition, the entropy encoding unit 204 may encode information regarding block subdivision acquired from the third determination unit 173 in the motion vector determination unit 170. Entropy coding is a method of assigning variable-length codes according to the appearance frequency of symbols.

逆量子化部205は、量子化部203からの出力信号を逆量子化してから逆直交変換部206に出力する。逆直交変換部206は、逆量子化部205からの出力信号を逆直交変換処理してから復号画像生成部207に出力する。これら逆量子化部205及び逆直交変換部206によって復号処理が行われることにより、符号化前の予測誤差信号と同程度の信号が得られる。   The inverse quantization unit 205 performs inverse quantization on the output signal from the quantization unit 203 and outputs the result to the inverse orthogonal transform unit 206. The inverse orthogonal transform unit 206 performs an inverse orthogonal transform process on the output signal from the inverse quantization unit 205 and then outputs the output signal to the decoded image generation unit 207. By performing decoding processing by the inverse quantization unit 205 and the inverse orthogonal transform unit 206, a signal having the same level as the prediction error signal before encoding is obtained.

復号画像生成部207は、イントラ予測部211で画面内予測された画像或いはインター予測部212で動き補償された画像のブロックデータと、逆量子化部205及び逆直交変換部206により復号処理された予測誤差信号とを加算する。復号画像生成部207は、加算して生成した復号画像のブロックデータを、ループフィルタ部209に出力する。   The decoded image generation unit 207 is decoded by the block data of the image predicted in the screen by the intra prediction unit 211 or the motion compensated image by the inter prediction unit 212, and the inverse quantization unit 205 and the inverse orthogonal transform unit 206. Add the prediction error signal. The decoded image generation unit 207 outputs the decoded image block data generated by addition to the loop filter unit 209.

ループフィルタ部209は、例えばALF(Adaptive Loop Filter)やデブロッキングフィルタである。ループフィルタ部209は、フィルタ処理結果を復号画像記憶部210に出力し、蓄積された1画像分のフィルタ処理結果を参照画像として記憶させる。   The loop filter unit 209 is, for example, an ALF (Adaptive Loop Filter) or a deblocking filter. The loop filter unit 209 outputs the filter processing result to the decoded image storage unit 210, and stores the accumulated filter processing result for one image as a reference image.

復号画像記憶部210は、入力した復号画像のブロックデータを新たな参照画像のデータとして記憶し、イントラ予測部211、インター予測部212及び動きベクトル計算部213に出力する。   The decoded image storage unit 210 stores the input block data of the decoded image as new reference image data, and outputs the data to the intra prediction unit 211, the inter prediction unit 212, and the motion vector calculation unit 213.

イントラ予測部211は、符号化対象画像の処理対象ブロックに対して、既に符号化された参照画素から予測画像のブロックデータを生成する。イントラ予測部211は、複数の予測方向を用いて予測を行い、最適な予測方向を決定する。予測方向については、符号化済みブロックの予測方向との差分値をビットストリームに含めるために、差分値がエントロピー符号化部204に出力される。   The intra prediction unit 211 generates block data of the predicted image from the already-encoded reference pixels for the processing target block of the encoding target image. The intra prediction unit 211 performs prediction using a plurality of prediction directions, and determines an optimal prediction direction. With respect to the prediction direction, the difference value is output to the entropy encoding unit 204 in order to include the difference value with the prediction direction of the encoded block in the bitstream.

インター予測部212は、復号画像記憶部210から取得した参照画像のデータを動きベクトル計算部213から提供される動きベクトルで動き補償する。これにより、動き補償された参照画像としてのブロックデータが生成される。動きベクトルについては、符号化済みブロックの動きベクトル(予測ベクトル)との差分値をビットストリームに含めるために、差分値がエントロピー符号化部204に出力される。   The inter prediction unit 212 performs motion compensation on the reference image data acquired from the decoded image storage unit 210 with the motion vector provided from the motion vector calculation unit 213. Thereby, block data as a motion-compensated reference image is generated. For the motion vector, the difference value with the motion vector (predicted vector) of the encoded block is output to the entropy encoding unit 204 in order to include the difference value in the bitstream.

動きベクトル計算部213は、実施例1における画像処理装置10の構成を有し、奥行き情報と、符号化対象画像におけるブロックデータと、復号画像記憶部210から取得する参照画像とを用いて、動きベクトルを求める。   The motion vector calculation unit 213 has the configuration of the image processing apparatus 10 in the first embodiment, and uses the depth information, the block data in the encoding target image, and the reference image acquired from the decoded image storage unit 210 to perform motion. Find a vector.

動きベクトル計算部213は、求めた動きベクトルをインター予測部212に出力し、参照画像を示す情報を含む動きベクトル情報をエントロピー符号化部204に出力する。   The motion vector calculation unit 213 outputs the obtained motion vector to the inter prediction unit 212 and outputs motion vector information including information indicating the reference image to the entropy encoding unit 204.

イントラ予測部211とインター予測部212から出力されたブロックデータは、予測画像選択部215に入力される。   The block data output from the intra prediction unit 211 and the inter prediction unit 212 is input to the predicted image selection unit 215.

予測画像選択部215は、イントラ予測部211とインター予測部212から取得したブロックデータのうち、どちらか一方のブロックデータを予測画像として選択する。選択された予測画像は、予測誤差信号生成部201に出力される。   The predicted image selection unit 215 selects one of the block data acquired from the intra prediction unit 211 and the inter prediction unit 212 as a predicted image. The selected prediction image is output to the prediction error signal generation unit 201.

なお、図5に示す符号化装置20の構成は一例であり、必要に応じて各構成を組み合わせたり、各構成を適宜変更したりしてもよい。   Note that the configuration of the encoding device 20 illustrated in FIG. 5 is an example, and the configurations may be combined or the configurations may be appropriately changed as necessary.

以上、実施例2によれば、画像符号化時に、奥行き情報を用いて画質の向上を図ることができる。   As described above, according to the second embodiment, it is possible to improve the image quality using the depth information at the time of image coding.

[実施例3]
図6は、実施例3における画像処理装置40の概略構成の一例を示すブロック図である。図6に示す画像処理装置40は、上述した実施例1及び2で説明した画像処理装置10、符号化装置20をソフトウェアで実装した画像処理装置の一例である。
[Example 3]
FIG. 6 is a block diagram illustrating an example of a schematic configuration of the image processing apparatus 40 according to the third embodiment. An image processing apparatus 40 illustrated in FIG. 6 is an example of an image processing apparatus in which the image processing apparatus 10 and the encoding apparatus 20 described in the first and second embodiments are implemented by software.

図6に示すように、画像処理装置40は、制御部401と、主記憶部402と、補助記憶部403と、ドライブ装置404と、ネットワークI/F部406と、入力部407と、表示部408とを有する。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。   As shown in FIG. 6, the image processing apparatus 40 includes a control unit 401, a main storage unit 402, an auxiliary storage unit 403, a drive device 404, a network I / F unit 406, an input unit 407, and a display unit. 408. These components are connected to each other via a bus so as to be able to transmit and receive data.

制御部401は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPU(Central Processing Unit)である。また、制御部401は、主記憶部402又は補助記憶部403に記憶された画像処理のプログラムを実行する演算装置である。制御部401は、入力部407や記憶装置からデータを受け取り、演算、加工した上で、表示部408や記憶装置などに出力する。   The control unit 401 is a CPU (Central Processing Unit) that controls each device, calculates data, and processes in a computer. The control unit 401 is an arithmetic device that executes an image processing program stored in the main storage unit 402 or the auxiliary storage unit 403. The control unit 401 receives data from the input unit 407 and the storage device, calculates and processes the data, and then outputs the data to the display unit 408 and the storage device.

また、制御部401は、画像処理のプログラムを実行することで、実施例1及び2で説明した処理を実現することができる。   Further, the control unit 401 can implement the processing described in the first and second embodiments by executing an image processing program.

主記憶部402は、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部402は、制御部401が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。   The main storage unit 402 is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like. The main storage unit 402 is a storage device that stores or temporarily stores programs and data such as OS (Operating System) and application software that are basic software executed by the control unit 401.

補助記憶部403は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。   The auxiliary storage unit 403 is an HDD (Hard Disk Drive) or the like, and is a storage device that stores data related to application software or the like.

ドライブ装置404は、記録媒体405、例えばフレキシブルディスクからプログラムを読み出し、記憶部にインストールする。   The drive device 404 reads the program from the recording medium 405, for example, a flexible disk, and installs it in the storage unit.

また、記録媒体405に、所定のプログラムを格納し、この記録媒体405に格納されたプログラムはドライブ装置404を介して画像処理装置40にインストールされる。インストールされた所定のプログラムは、画像処理装置40により実行可能となる。   A predetermined program is stored in the recording medium 405, and the program stored in the recording medium 405 is installed in the image processing apparatus 40 via the drive device 404. The installed predetermined program can be executed by the image processing apparatus 40.

ネットワークI/F部406は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器と画像処理装置40とのインターフェースである。   The network I / F unit 406 is a peripheral having a communication function connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network) constructed by a data transmission path such as a wired and / or wireless line. This is an interface between the device and the image processing apparatus 40.

入力部407は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部408の表示画面上でキーの選択等を行うためのマウスやスライドパット等を有する。表示部408は、LCD(Liquid Crystal Display)等により構成され、制御部401から入力される表示データに応じた表示が行われる。   The input unit 407 includes a keyboard having cursor keys, numeric input, various function keys, and the like, and a mouse and a slide pad for performing key selection on the display screen of the display unit 408. The display unit 408 is configured by an LCD (Liquid Crystal Display) or the like, and performs display according to display data input from the control unit 401.

なお、図3に示す画像処理装置10の各部は、例えば制御部401及びワークメモリとしての主記憶部402により実現されうる。   Each unit of the image processing apparatus 10 illustrated in FIG. 3 can be realized by, for example, the control unit 401 and the main storage unit 402 as a work memory.

また、図5に示す復号画像記憶部210は、例えば主記憶部402又は補助記憶部403により実現され、図5に示す復号画像記憶部210以外の構成は、例えば制御部401及びワークメモリとしての主記憶部402により実現されうる。   Further, the decoded image storage unit 210 illustrated in FIG. 5 is realized by, for example, the main storage unit 402 or the auxiliary storage unit 403. The configuration other than the decoded image storage unit 210 illustrated in FIG. 5 includes, for example, a control unit 401 and a work memory. This can be realized by the main storage unit 402.

また、図6に示す復号情報記憶部305及びフレームメモリ311は、例えば主記憶部402又は補助記憶部403により実現されうる。図6に示す復号情報記憶部305及びフレームメモリ311以外の構成は、例えば制御部401及びワークメモリとしての主記憶部402により実現されうる。   Further, the decoded information storage unit 305 and the frame memory 311 illustrated in FIG. 6 can be realized by the main storage unit 402 or the auxiliary storage unit 403, for example. The configuration other than the decoded information storage unit 305 and the frame memory 311 illustrated in FIG. 6 can be realized by the control unit 401 and the main storage unit 402 as a work memory, for example.

画像処理装置40で実行されるプログラムは、実施例1及び2で説明した各部を含むモジュール構成となっている。実際のハードウェアとしては、制御部401が補助記憶部403からプログラムを読み出して実行することにより上記各部のうち1又は複数の各部が主記憶部402上にロードされ、1又は複数の各部が主記憶部402上に生成されるようになっている。   The program executed by the image processing apparatus 40 has a module configuration including each unit described in the first and second embodiments. As actual hardware, when the control unit 401 reads out and executes a program from the auxiliary storage unit 403, one or more of the above-described units are loaded onto the main storage unit 402, and one or more of the respective units are main. It is generated on the storage unit 402.

このように、上述した実施例1及び2で説明した画像処理は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、実施例1及び2で説明した処理を実現することができる。   As described above, the image processing described in the first and second embodiments may be realized as a program for causing a computer to execute the image processing. The processing described in the first and second embodiments can be realized by installing this program from a server or the like and causing the computer to execute the program.

また、このプログラムを記録媒体405に記録し、このプログラムが記録された記録媒体405をコンピュータや携帯端末などの処理装置に読み取らせて、前述した画像処理を実現させることも可能である。   It is also possible to record the program in the recording medium 405 and cause the processing unit such as a computer or a portable terminal to read the recording medium 405 on which the program is recorded, thereby realizing the above-described image processing.

なお、記録媒体405は、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。   Note that the recording medium 405 is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, or a magneto-optical disk, and information that is electrically stored such as a ROM or a flash memory. Various types of recording media such as a semiconductor memory for recording can be used.

また、上述した各実施例で説明した画像処理は、1つ又は複数の集積回路に実装されてもよい。なお、実施例3における画像処理装置40は、上記の通り、画像処理装置10、符号化装置20の少なくとも1つの装置としての機能を有してもよい。   Further, the image processing described in each of the above embodiments may be implemented in one or a plurality of integrated circuits. Note that the image processing device 40 according to the third embodiment may have a function as at least one of the image processing device 10 and the encoding device 20 as described above.

また、上述した各実施例における画像処理装置10、符号化装置20、及び画像処理装置40は、奥行き情報を用いて動きベクトルを検出する符号化技術、及びこの符号化技術によって符号化されたビットストリームの復号に対して適用可能であり、H.264/AVCやH.265/HEVCだけに限られるものではない。   In addition, the image processing device 10, the encoding device 20, and the image processing device 40 in each of the embodiments described above include an encoding technique for detecting a motion vector using depth information, and bits encoded by this encoding technique. Applicable to decoding of streams. H.264 / AVC and H.264 It is not limited to 265 / HEVC.

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、上記変形例以外にも種々の変形及び変更が可能である。   Each embodiment has been described in detail above. However, the present invention is not limited to the specific embodiment, and various modifications and changes other than the above-described modification are possible within the scope described in the claims. .

10 画像処理装置
20 符号化装置
40 画像処理装置
140 動きベクトル候補特定部
150 奥行き情報クラスタリング部
160 オブジェクト判定部
162 取得部
164 奥行き判定部
170 動きベクトル決定部
171 第1決定部
172 第2決定部
173 第3決定部
174 選択部
175 測定部
204 エントロピー符号化部
213 動きベクトル計算部
301 エントロピー復号部
401 制御部
402 主記憶部
403 補助記憶部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 20 Encoding apparatus 40 Image processing apparatus 140 Motion vector candidate specific | specification part 150 Depth information clustering part 160 Object determination part 162 Acquisition part 164 Depth determination part 170 Motion vector determination part 171 1st determination part 172 2nd determination part 173 Third determination unit 174 Selection unit 175 Measurement unit 204 Entropy encoding unit 213 Motion vector calculation unit 301 Entropy decoding unit 401 Control unit 402 Main storage unit 403 Auxiliary storage unit

Claims (6)

奥行き情報を含む画像に対してブロック単位で処理を行う画像処理装置であって、
基準フレームの複数のブロックのうちの何れかである処理対象ブロックと、参照される参照フレームの画像の一致度に基づいて、前記処理対象ブロックの動きベクトルの複数の候補を特定する、動きベクトル候補特定部と、
前記処理対象ブロックの奥行き情報と、前記動きベクトルを求めた参照フレームの対応するブロックの奥行き情報とを用いて、前記処理対象ブロックと、前記参照フレームの対応するブロックとが、同一のオブジェクトに属するか否かを判定するオブジェクト判定部と、
前記動きベクトルの複数の候補の各々に対応する前記一致度と前記オブジェクト判定部の判定結果とに基づいて、前記処理対象ブロックの動きベクトルを決定する、動きベクトル決定部と、
を有する画像処理装置。
An image processing apparatus that performs processing in units of blocks on an image including depth information,
A motion vector candidate that specifies a plurality of motion vector candidates of the processing target block based on the degree of coincidence between the processing target block that is one of the plurality of blocks of the reference frame and the image of the reference frame that is referred to A specific part,
The processing target block and the corresponding block of the reference frame belong to the same object by using the depth information of the processing target block and the depth information of the corresponding block of the reference frame for which the motion vector is obtained. An object determination unit for determining whether or not,
A motion vector determination unit that determines a motion vector of the processing target block based on the degree of coincidence corresponding to each of the plurality of motion vector candidates and the determination result of the object determination unit;
An image processing apparatus.
前記基準フレーム及び前記参照フレームの奥行き情報にクラスタリングの処理を施す、奥行き情報クラスタリング部を更に有し、
前記オブジェクト判定部は、前記クラスタリングの結果を用いて、前記判定を行う、
請求項1記載の画像処理装置。
A depth information clustering unit that performs clustering processing on the depth information of the base frame and the reference frame;
The object determination unit performs the determination using a result of the clustering.
The image processing apparatus according to claim 1.
前記動きベクトル決定部は、
前記動きベクトルの複数の候補に係る参照フレームのブロックが、処理対象ブロックと同一のオブジェクトに属すると判定された動きベクトルが存在する場合、前記同一のオブジェクトに属すると判定された動きベクトルのうち、前記一致度の最も高い動きベクトルを、前記処理対象ブロックの動きベクトルと決定するか、又は、複数の動きベクトルの候補に係る参照フレームの何れのブロックも、前記処理対象ブロックと同一のオブジェクトに属しないと判定された場合、前記一致度が最も高い動きベクトルを、前記処理対象ブロックの動きベクトルと決定する、
請求項1又は2記載の画像処理装置。
The motion vector determination unit
When there is a motion vector determined to belong to the same object as the block to be processed, the block of the reference frame related to the plurality of motion vector candidates, among the motion vectors determined to belong to the same object, The motion vector having the highest degree of coincidence is determined as the motion vector of the processing target block, or any block of the reference frame related to a plurality of motion vector candidates belongs to the same object as the processing target block. If it is determined not to, the motion vector having the highest degree of coincidence is determined as the motion vector of the processing target block.
The image processing apparatus according to claim 1 or 2.
前記動きベクトル決定部は、
複数の動きベクトルの候補に係る参照フレームの何れのブロックも、前記処理対象ブロックと同一のオブジェクトに属しないと判定された場合であって、前記処理対象ブロックが更に複数のサブブロックに分割できる場合、前記サブブロックを、処理対象ブロックとして、当該画像処理装置の処理を繰り返す指示を出力する請求項1又は2記載の画像処理装置。
The motion vector determination unit
When it is determined that none of the reference frames related to a plurality of motion vector candidates belong to the same object as the processing target block, and the processing target block can be further divided into a plurality of sub-blocks The image processing apparatus according to claim 1, wherein an instruction to repeat the processing of the image processing apparatus is output with the sub-block as a processing target block.
請求項1ないし4のうちいずれか1項記載の画像処理装置を備える符号化装置。   An encoding device comprising the image processing device according to any one of claims 1 to 4. コンピュータを、請求項5記載の符号化装置として機能させるための符号化プログラム。   An encoding program for causing a computer to function as the encoding device according to claim 5.
JP2013096584A 2013-05-01 2013-05-01 Image processing apparatus, encoding apparatus, and encoding program Active JP6110724B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013096584A JP6110724B2 (en) 2013-05-01 2013-05-01 Image processing apparatus, encoding apparatus, and encoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013096584A JP6110724B2 (en) 2013-05-01 2013-05-01 Image processing apparatus, encoding apparatus, and encoding program

Publications (2)

Publication Number Publication Date
JP2014220571A JP2014220571A (en) 2014-11-20
JP6110724B2 true JP6110724B2 (en) 2017-04-05

Family

ID=51938688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013096584A Active JP6110724B2 (en) 2013-05-01 2013-05-01 Image processing apparatus, encoding apparatus, and encoding program

Country Status (1)

Country Link
JP (1) JP6110724B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113678431A (en) * 2019-03-25 2021-11-19 索尼互动娱乐股份有限公司 Image transmission/reception system, image transmission device, image reception device, image transmission/reception method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6567469B1 (en) * 2000-03-23 2003-05-20 Koninklijke Philips Electronics N.V. Motion estimation algorithm suitable for H.261 videoconferencing applications
WO2008010929A2 (en) * 2006-07-18 2008-01-24 Thomson Licensing Methods and apparatus for adaptive reference filtering
JP4938884B2 (en) * 2010-09-30 2012-05-23 シャープ株式会社 Prediction vector generation method, image encoding method, image decoding method, prediction vector generation device, image encoding device, image decoding device, prediction vector generation program, image encoding program, and image decoding program
JP5357199B2 (en) * 2011-03-14 2013-12-04 日本電信電話株式会社 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, and image decoding program
WO2012153440A1 (en) * 2011-05-09 2012-11-15 シャープ株式会社 Prediction vector generation method, prediction vector generation device, prediction vector generation program, image encoding method, image encoding device, image encoding program, image decoding method, image decoding device, and image decoding program

Also Published As

Publication number Publication date
JP2014220571A (en) 2014-11-20

Similar Documents

Publication Publication Date Title
US10291925B2 (en) Techniques for hardware video encoding
JP6073405B2 (en) Video decoding method and apparatus
TWI536811B (en) Method and system for image processing, decoding method, encoder and decoder
TWI660623B (en) Motion vector prediction decoding method and prediction decoding device
US11025913B2 (en) Encoding video using palette prediction and intra-block copy
KR102314547B1 (en) Method and apparatus for encoding or decoding video data with subpixel motion vector refinement
JP5216710B2 (en) Decryption processing method
US11323700B2 (en) Encoding video using two-stage intra search
JP6042001B2 (en) Moving picture coding apparatus and moving picture coding method
JP2019110530A (en) Method and device for encoding video data
CN107770527B (en) Data compression method and apparatus using neighboring encoding parameters and nearest encoding parameters
JP6110724B2 (en) Image processing apparatus, encoding apparatus, and encoding program
JP2019110529A (en) Method and device for encoding video data
JP2017050744A (en) Image encoding apparatus, image encoding method and program
JP2013207402A (en) Image encoding device and program
JP5698629B2 (en) Image processing apparatus, filter processing method, and program
JP6101067B2 (en) Image processing apparatus and image processing program
JP2014143515A (en) Image processing apparatus and image processing program
JP2018186456A (en) Image encoding apparatus, image encoding method, and program
JP2019057886A (en) Encoder, encoding method, and program
JP2019016896A (en) Image processing system, and image processing method
JP2008072608A (en) Apparatus and method for encoding image
JP2007243391A (en) Animation image encoder
JP6159139B2 (en) Image processing apparatus, encoding apparatus, and program
JP2016021710A (en) Image encoding method and image encoding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170310

R150 Certificate of patent or registration of utility model

Ref document number: 6110724

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250