JPH10271515A - Noticed area tracing method, noticed area tracing device using the method and image coding method - Google Patents
Noticed area tracing method, noticed area tracing device using the method and image coding methodInfo
- Publication number
- JPH10271515A JPH10271515A JP7385897A JP7385897A JPH10271515A JP H10271515 A JPH10271515 A JP H10271515A JP 7385897 A JP7385897 A JP 7385897A JP 7385897 A JP7385897 A JP 7385897A JP H10271515 A JPH10271515 A JP H10271515A
- Authority
- JP
- Japan
- Prior art keywords
- area
- unit
- frame
- attention area
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/004—Predictors, e.g. intraframe, interframe coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は注目領域追跡方
法、注目領域追跡装置および画像符号化方法に関する。
この発明は特に、フレーム画像に含まれる単位領域の動
きの検出を利用する注目領域を追跡する方法、その方法
を用いた注目領域追跡装置および画像符号化方法に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an attention area tracking method, an attention area tracking apparatus, and an image encoding method.
More particularly, the present invention relates to a method of tracking a region of interest using detection of motion of a unit region included in a frame image, a region of interest tracking device using the method, and an image encoding method.
【0002】[0002]
【従来の技術】各種ネットワーク技術や情報機器のハー
ドウエア性能とソフトウエア技術の飛躍的な向上によ
り、大量の画像データを伝送して利用する用途が広がり
つつある。画像処理技術の進歩により、カメラ、パーソ
ナルコンピュータ、ビデオ機器、テレビをはじめとする
画像関連機器が有機的なつながりを持ちはじめ、インタ
ーネットなどのネットワーク関連インフラストラクチャ
とあいまって、新たな映像文化、商形態、教育やビジネ
スに関する環境を提供しはじめている。こうした状況
下、より高い画質の動画像をより高速かつ少ないデータ
量で伝送または提供することに対する需要はきわめて大
きい。2. Description of the Related Art With the dramatic improvement in hardware performance and software technology of various network technologies and information devices, applications for transmitting and utilizing a large amount of image data are expanding. With the progress of image processing technology, cameras, personal computers, video equipment, televisions and other image-related equipment have started to have organic connections, and have been combined with network-related infrastructure such as the Internet to create new image cultures and business forms. Has begun to provide an environment for education and business. Under these circumstances, there is a great demand for transmitting or providing a higher quality moving image at a higher speed and with a smaller data amount.
【0003】現在、動画像を高いデータ圧縮率で符号化
する種々の技術が実用化されている。例えばテレビ電話
を考えた場合、話者の顔を中心とする注目領域の符号化
精度を高め、背景等の非注目領域の符号化精度をできる
限り落とすことでデータを圧縮する考え方が知られてい
る。フレーム画像から注目領域を検出するために画像認
識技術などいろいろな画像処理技術が用いられている。At present, various techniques for encoding moving images at a high data compression rate have been put to practical use. For example, when considering a videophone, there is a known idea of compressing data by increasing the encoding accuracy of a region of interest centered on the face of a speaker and reducing the encoding accuracy of a region of non-interest such as the background as much as possible. I have. Various image processing techniques such as an image recognition technique are used to detect a region of interest from a frame image.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、フレー
ム画像から注目領域を検出するために必要な計算時間は
一般に長い。特に、高い検出精度を求める場合、計算に
必要なハードウエアも増大するため、製品化におけるコ
ストダウン、動画像のリアルタイム処理の足かせとなっ
ている。ハードウエアの肥大化を回避し、処理時間も延
ばすことなく注目領域を的確に検出する技術が望まれて
いる。However, the calculation time required to detect a region of interest from a frame image is generally long. In particular, when high detection accuracy is required, the hardware required for calculation increases, which hinders cost reduction in commercialization and real-time processing of moving images. There is a demand for a technique for avoiding enlargement of hardware and accurately detecting a region of interest without increasing processing time.
【0005】特開平8−181992号公報には、入力
画像から特定領域と動き領域を抽出し、特定領域に対し
て相対的に多くの符号量を割り当てる動画像符号化装置
および領域抽出装置が開示されている。同公報によれ
ば、テレビ電話を考えたとき特定領域は話者の顔または
その中心付近、動き領域はその周辺の動きのある領域と
理解することができる。この方法では動き補償予測を行
ったときに特定領域と動き領域が検出される。しかしこ
の装置の場合、特定領域を求めてから動き領域を求める
という二段階処理を行うため、処理の負荷、必要なハー
ドウエアの大きさという点で改善の余地が見られる。Japanese Patent Laid-Open Publication No. Hei 8-18192 discloses a moving image encoding apparatus and an area extracting apparatus which extract a specific area and a moving area from an input image and allocate a relatively large amount of code to the specific area. Have been. According to the publication, when a videophone is considered, the specific area can be understood as the face of the speaker or the vicinity of the center thereof, and the motion area can be understood as the surrounding moving area. In this method, a specific area and a motion area are detected when performing motion compensation prediction. However, in the case of this device, since a two-step process of obtaining a specific area and then obtaining a motion area is performed, there is room for improvement in processing load and required hardware size.
【0006】本発明は以上の状況に鑑みてなされたもの
であり、注目領域を検出するためにハードウエアの追加
をほとんど必要とせず、処理時間もほとんど延ばすこと
のない注目領域追跡方法と、その方法を用いた注目領域
追跡装置および画像符号化方法を提供することにある。SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an attention area tracking method that hardly requires additional hardware to detect an attention area and hardly increases the processing time, and a method thereof. An object of the present invention is to provide an attention area tracking device and an image encoding method using the method.
【0007】[0007]
【課題を解決するための手段】本発明のひとつの注目領
域追跡方法は、フレーム画像がブロックやエリア等の単
位領域に分割され、単位領域ごとにフレーム間の動きが
追跡されていることを前提とする。このとき、本発明は
その単位領域とは独立して(すなわち、その単位領域に
拘束されることなく、その単位領域を意識することな
く、またはその単位領域の境界線とは関係のない境界線
をもつよう)フレーム画像内に定められた矩形、円形、
対象物の外形等の任意形状の注目領域の動きを、その注
目領域と所定の位置関係にある単位領域の動きの追跡結
果を利用して推定する。単位領域ごとに行われるフレー
ム間の動きの追跡は、動き補償予測の一環として、本来
前記注目領域の追跡とは無関係に行われるものであって
もよい。「所定の位置関係」は、注目領域に単位領域が
包含される場合、注目領域に単位領域の一部が含まれる
場合、注目領域付近に単位領域が存在する場合などが考
えられる。One method of tracking a region of interest according to the present invention is based on the premise that a frame image is divided into unit regions such as blocks and areas, and movement between frames is tracked for each unit region. And In this case, the present invention is performed independently of the unit area (that is, without being constrained by the unit area, not conscious of the unit area, or a boundary line not related to the boundary line of the unit area). Rectangle), a circle,
The motion of the attention area having an arbitrary shape such as the outer shape of the object is estimated using the tracking result of the movement of the unit area having a predetermined positional relationship with the attention area. The tracking of the motion between frames performed for each unit area may be originally performed independently of the tracking of the attention area as part of the motion compensation prediction. The “predetermined positional relationship” may be, for example, a case where the attention area includes the unit area, a case where the attention area includes a part of the unit area, or a case where the unit area exists near the attention area.
【0008】この発明によれば、動き補償予測などのた
めに単位領域の動きが検出されているとき、その検出結
果が注目領域の動きの検出に有効利用される。このた
め、注目領域の動きの追跡専用にハードウエアを準備す
る必要がなく、注目領域の追跡によって増える処理時間
も非常に少ない。According to the present invention, when the motion of the unit area is detected for the purpose of motion compensation prediction, the detection result is effectively used for detecting the motion of the attention area. Therefore, there is no need to prepare hardware dedicated to tracking the movement of the attention area, and the processing time that is increased by tracking the attention area is very small.
【0009】本発明の別の注目領域追跡方法は、逆方向
検出工程と順方向検出工程を含む。逆方向検出工程は、
現フレーム(それに基づくフレーム全般を含む)に設け
られた単位領域に対応する領域の位置(単に対応位置と
もいう)を前フレーム(それに基づくフレーム全般を含
む)において検出する。一方、順方向検出工程は、逆方
向検出工程の結果を利用することにより、前フレームに
設けられた注目領域に対応する領域の位置、つまり対応
位置を現フレームにおいて検出する。この方法の場合も
上述同様の効果がある。Another method of tracking a region of interest according to the present invention includes a backward detecting step and a forward detecting step. The reverse direction detection step includes:
The position of a region (also simply referred to as a corresponding position) corresponding to a unit region provided in the current frame (including the entire frame based thereon) is detected in the previous frame (including the entire frame based thereon). On the other hand, in the forward direction detecting step, the position of the area corresponding to the attention area provided in the previous frame, that is, the corresponding position is detected in the current frame by using the result of the backward direction detecting step. This method also has the same effect as described above.
【0010】本発明に係るひとつの画像符号化方法は、
フレーム画像が単位領域に分割され、単位領域ごとにフ
レーム間の動きが追跡されていることを前提とする。こ
のとき本発明は、その単位領域とは独立にフレーム画像
内に定められた任意形状の注目領域の動きを、その注目
領域と所定の位置関係にある単位領域の動きの追跡結果
を利用して推定し、フレーム画像のうち、推定された注
目領域についてはそれ以外の領域と異なる処理内容で符
号化する。この発明によれば、例えば動き補償予測を行
って画像を符号化する既存の装置に対し、非常に少ない
ハードウエアを追加することだけでデータ圧縮率をより
高めることができる。注目領域の符号化精度が高まるよ
う、すなわち注目領域を復号化したときにその領域の画
質が他の領域よりも高まるよう前記処理内容を変えても
よい。「異なる処理内容」とは、異なる符号化手法を用
いる場合や同一の符号化手法の中でパラメータを変える
場合などがある。符号化の前後に量子化がなされる場合
は、それも含めて符号化の処理内容とよぶことにする。
したがって、量子化のステップ数を変える場合も符号化
の処理内容が異なるとみなす。[0010] One image encoding method according to the present invention comprises:
It is assumed that a frame image is divided into unit areas, and movement between frames is tracked for each unit area. At this time, the present invention uses the tracking result of the movement of the attention area of an arbitrary shape defined in the frame image independently of the unit area by using the movement result of the unit area having a predetermined positional relationship with the attention area. The estimated region of interest in the estimated and frame image is encoded with processing different from that of the other regions. According to the present invention, for example, a data compression ratio can be further increased by adding very little hardware to an existing apparatus that performs motion compensation prediction and encodes an image. The processing content may be changed so that the encoding accuracy of the region of interest is increased, that is, when the region of interest is decoded, the image quality of the region is higher than that of other regions. The “different processing contents” include a case where a different coding method is used and a case where a parameter is changed in the same coding method. If the quantization is performed before and after the encoding, the encoding process is also referred to as including the quantization.
Therefore, even when the number of quantization steps is changed, the contents of the encoding process are considered to be different.
【0011】本発明に係る別の画像符号化方法は、前述
の逆方向検出工程と順方向検出工程の他に、符号化工程
を含む。符号化工程は、フレーム画像のうち注目領域に
ついてはそれ以外の領域と異なる処理内容で符号化す
る。このため、上述のごとく例えば注目領域の符号化精
度を高めつつ、高いデータ圧縮率が実現できる。Another image encoding method according to the present invention includes an encoding step in addition to the above-described backward detection step and forward detection step. In the encoding step, the attention area of the frame image is encoded with processing different from that of other areas. Therefore, as described above, a high data compression ratio can be realized while, for example, increasing the encoding accuracy of the attention area.
【0012】一方、本発明の注目領域追跡装置は、現フ
レームに設けられた単位領域に対応する領域の前フレー
ムにおける位置(対応位置)を判定する手段と、その判
定結果を利用することにより、前フレームに設けられた
注目領域に対応する領域の位置(対応位置)を現フレー
ムに設定する手段とを含む。この構成によれば、例えば
動き補償予測によって単位領域の動きに関する情報が得
られたとき、それを用いて注目領域の動きを追跡するこ
とができる。このため、ハードウエアの追加も処理時間
の増加も非常に少ない。なお、この注目領域追跡装置
に、設定された注目領域についてはそれ以外の領域と異
なる処理内容で符号化する符号化部を追加してもよい。On the other hand, the attention area tracking apparatus of the present invention uses means for determining the position (corresponding position) of the area corresponding to the unit area provided in the current frame in the previous frame, and utilizing the determination result. Means for setting the position (corresponding position) of the region corresponding to the region of interest provided in the previous frame in the current frame. According to this configuration, for example, when information on the motion of the unit area is obtained by the motion compensation prediction, the motion of the attention area can be tracked using the information. Therefore, the addition of hardware and the increase in processing time are very small. Note that an encoding unit that encodes the set attention area with processing different from that of the other areas may be added to the attention area tracking apparatus.
【0013】[0013]
【発明の実施の形態】本発明の好適な実施の形態を適宜
図面を参照しながら説明する。図1は実施の形態に係る
注目領域追跡方法および画像符号化方法の処理手順の概
要を示すフローチャートである。同図のごとく、処理は
逆方向検出(S1)、順方向検出(S2)、符号化(S
3)とつづく。このうち、逆方向検出と順方向検出が注
目領域追跡方法に相当し、符号化まで含めれば画像符号
化方法となる。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described with reference to the drawings as appropriate. FIG. 1 is a flowchart showing an outline of a processing procedure of the attention area tracking method and the image encoding method according to the embodiment. As shown in the figure, the processing includes backward detection (S1), forward detection (S2), and encoding (S
Continue with 3). Among them, the backward direction detection and the forward direction detection correspond to the attention area tracking method, and if the encoding is included, the method becomes the image encoding method.
【0014】逆方向検出(S1)では、現フレームに設
けられた単位領域に対応する領域の位置(以下、単に
「単位領域の対応位置」ともいう)が前フレームにおい
て検出される。すなわち、現フレームに正しく整列され
た単位領域の前フレームにおける対応領域が位置してい
た可能性の高い領域が候補領域として検出され、単位領
域ごとにそれ自身と候補領域の変位を示す動き情報が生
成される。この動き情報は例えば動きベクトルである。In the backward direction detection (S1), the position of an area corresponding to the unit area provided in the current frame (hereinafter, also simply referred to as "unit area corresponding position") is detected in the previous frame. That is, a region where the corresponding region in the previous frame of the unit region correctly aligned with the current frame is likely to be located is detected as a candidate region, and for each unit region, motion information indicating the displacement of itself and the candidate region is displayed. Generated. This motion information is, for example, a motion vector.
【0015】本実施の形態では、単位領域の対応位置の
検出にMPEGなどで採用される動き補償予測を利用す
る。MPEGでは現フレームに単位領域であるブロック
をマトリックス状に整列させ、これらのブロックの対応
位置を前フレームに探しにいくため、本実施の形態と親
和性が高い。ただし、単位領域の対応位置の検出は必ず
しも動き補償予測を利用する必要はなく、エッジ検出や
オプティカルフローなどの画像解析を利用して行っても
よい。その場合、S1の検出は逆方向でなくてもよい。In the present embodiment, motion compensation prediction employed in MPEG or the like is used to detect a corresponding position in a unit area. In MPEG, blocks which are unit areas are arranged in a matrix in the current frame, and the corresponding positions of these blocks are searched for in the previous frame. Therefore, the compatibility with the present embodiment is high. However, the detection of the corresponding position in the unit area does not necessarily need to use motion compensation prediction, but may be performed using image analysis such as edge detection or optical flow. In that case, the detection of S1 need not be in the reverse direction.
【0016】つづいて順方向検出(S2)が行われる。
S2では、S1の結果を利用することにより、前フレー
ムに設けられた注目領域に対応する領域の位置(以下、
単に「注目領域の対応位置」ともいう)を現フレームに
おいて検出する。注目領域は、好適には単位領域よりも
大きくとられる。本実施形態では、単位領域、注目領域
はそれぞれ各フレームにおいて同一形状および同一の大
きさであるが、領域の一部がフレーム外にまたがる場合
には異なる。Subsequently, forward direction detection (S2) is performed.
In S2, by using the result of S1, the position of the region corresponding to the region of interest provided in the previous frame (hereinafter, referred to as the position of the region)
Is simply detected in the current frame. The attention area is preferably larger than the unit area. In the present embodiment, the unit region and the attention region have the same shape and the same size in each frame, but differ when a part of the region extends outside the frame.
【0017】S2では、前フレームにとられた候補領域
のうち前フレームにおける注目領域に含まれるものが、
まず重要領域として選定される。つぎに重要領域に関す
る動き情報が総合的に考慮され、注目領域が追跡され
る。一例として、重要領域に関する動きベクトルを平均
して注目領域の動きベクトルを求めてもよい。この結
果、前フレームで設定されていた注目領域をもとに現フ
レームの注目領域が決まり、注目領域を順次追跡してい
くことができる。In S2, of the candidate regions taken in the previous frame, those included in the region of interest in the previous frame are:
First, it is selected as an important area. Next, the attention area is tracked by comprehensively considering the motion information on the important area. As an example, the motion vector of the attention area may be obtained by averaging the motion vectors of the important area. As a result, the attention area of the current frame is determined based on the attention area set in the previous frame, and the attention area can be tracked sequentially.
【0018】この後、符号化(S3)を行う。S2で現
フレームにおける注目領域が判明するため、注目領域の
符号化精度を高め、それ以外の領域の符号化精度を低く
抑えるような符号化が可能である。符号化の処理内容を
適切に調整することにより、画質、特に主観画質を十分
高く維持しながらデータ圧縮率を高めることができる。Thereafter, encoding (S3) is performed. Since the region of interest in the current frame is determined in S2, it is possible to perform encoding such that the encoding accuracy of the region of interest is increased and the encoding accuracy of the other regions is kept low. By appropriately adjusting the content of the encoding process, the data compression ratio can be increased while maintaining the image quality, especially the subjective image quality, at a sufficiently high level.
【0019】図2は実施の形態に係る画像符号化装置の
構成図である。同図のうち注目領域追跡部13とそれに
対する入力、および注目領域追跡部13の出力に応答す
る符号量制御部14が新たな構成であり、それ以外は既
知のMPEG符号化器を利用している。FIG. 2 is a configuration diagram of an image encoding apparatus according to the embodiment. In the figure, the attention area tracking unit 13 and the input to the attention area tracking unit 13 and the code amount control unit 14 responding to the output of the attention area tracking unit 13 have a new configuration, and the other components use a known MPEG encoder. I have.
【0020】同図のごとくこの装置は、フレーム画像を
順次入力する入力フレームメモリ部1、その出力20で
あるフレーム画像から動き補償予測部12の出力21を
減じる減算器2、減算器2の出力22を入力してこれに
離散コサイン変換(DCT)等の直交変換を加える直交
変換部3、直交変換部3の出力23を入力し、各空間周
波数成分の係数を量子化する量子化部4、量子化部4の
出力24を入力し、これに逆量子化を施す逆量子化部
7、逆量子化部7の出力27を入力し、これに逆直交変
換を施す逆直交変換部8、逆直交変換部8の出力28を
入力し、これに動き補償予測部12の出力21を加算す
る加算器9、加算器9の出力29を入力してこれを記憶
する参照フレームメモリ部10、参照フレームメモリ部
10の出力30および入力フレームメモリ部1の出力2
0を入力し、ブロックマッチングを行って各ブロックの
動きベクトル15を導出する動き検出部11、参照フレ
ームメモリ部10の出力30と動きベクトル15をもと
に現フレームの各ブロックの画素値を予測する動き補償
予測部12、量子化部4の出力24を入力し、量子化さ
れた空間周波数の各係数をエントロピー符号化する符号
化部5、符号化部5の出力25を入力し、これをタイミ
ング調整のために一時格納するバッファメモリ部6、動
きベクトル15を入力し、注目領域を追跡する注目領域
追跡部13、バッファメモリ部6からバッファの空き状
況に基づいて出力される第一符号化精度指示26、およ
び注目領域追跡部13から注目領域の位置を示すために
出力される第二符号化精度指示16を入力し、これらふ
たつの指示にしたがって符号化精度を制御する符号量制
御部14をもつ。符号量制御部14の出力31は量子化
部4に与えられる。As shown in FIG. 1, the apparatus comprises an input frame memory unit 1 for sequentially inputting frame images, a subtracter 2 for subtracting an output 21 of the motion compensation prediction unit 12 from the frame image which is an output 20, and an output of the subtracter 2. 22, an orthogonal transform unit 3 for applying an orthogonal transform such as a discrete cosine transform (DCT) thereto, and an output 23 of the orthogonal transform unit 3 and a quantizing unit 4 for quantizing coefficients of each spatial frequency component. The output 24 of the quantization unit 4 is input, the inverse quantization unit 7 for performing inverse quantization on this, the output 27 of the inverse quantization unit 7 is input, and the inverse orthogonal transformation unit 8 for performing inverse orthogonal transformation on this, An adder 9 which receives the output 28 of the orthogonal transform unit 8 and adds the output 21 of the motion compensation prediction unit 12 thereto, the reference frame memory unit 10 which receives the output 29 of the adder 9 and stores it, a reference frame The output 30 of the memory unit 10 and The input frame memory section 1 outputs 2
0, and performs a block matching to derive a motion vector 15 for each block. The motion detection unit 11 predicts the pixel value of each block of the current frame based on the output 30 of the reference frame memory unit 10 and the motion vector 15. The motion compensation prediction unit 12 and the output 24 of the quantization unit 4 are input, and the encoding unit 5 for entropy encoding each coefficient of the quantized spatial frequency and the output 25 of the encoding unit 5 are input. The buffer memory unit 6 for temporarily storing the timing, the motion vector 15 is input, the attention area tracking unit 13 for tracking the attention area, and the first encoding output from the buffer memory unit 6 based on the buffer availability. An accuracy instruction 26 and a second encoding accuracy instruction 16 output from the attention area tracking unit 13 to indicate the position of the attention area are input, and these two instructions are used. With code amount control unit 14 for controlling the coding accuracy me. The output 31 of the code amount control unit 14 is provided to the quantization unit 4.
【0021】量子化部4は、符号量制御部14の出力3
1に従って符号量または符号化精度が変わるよう量子化
ステップ(量子化幅)を変更する。つまり、注目領域に
対して符号化精度を高めるときは量子化ステップを細か
く設定し、逆に注目領域以外の場合は粗く設定する。こ
れとは別に、バッファメモリ部6にバッファの空きが少
なくなれば、第一符号化精度指示26が量子化レベル数
を減らすよう指示をする。The quantizer 4 outputs the output 3 of the code amount controller 14
The quantization step (quantization width) is changed so that the code amount or the coding precision changes according to 1. That is, the quantization step is set finely when the coding accuracy is to be increased for the attention area, and coarsely when the coding area is not the attention area. Separately from this, when the free space of the buffer in the buffer memory unit 6 decreases, the first encoding accuracy instruction 26 instructs to reduce the number of quantization levels.
【0022】図3は注目領域追跡部13の内部構成図で
ある。注目領域追跡部13は、動きベクトル15を入力
して現フレームの各ブロックの前フレームにおける対応
位置が前フレームに設定された注目領域に入るか否かを
判定するブロック位置判定部130、動画像の処理に当
たって最初に投入されるフレームに対して注目領域を初
期的に設定する初期設定部131、ブロック位置判定部
130および初期設定部131の指示にしたがい、前フ
レームにおける対応位置が前フレームに設定された注目
領域に入るようなブロックの動きベクトルを総合的に斟
酌して注目領域の動きベクトルを計算し、その動きベク
トルをもとに現フレームに注目領域を設定する注目領域
設定部132、注目領域追跡部13から第二符号化精度
指示16という形で出力される注目領域の位置情報を一
時的に格納する位置保持部133を含む。注目領域の位
置情報は毎フレーム更新され、ブロック位置判定部13
0で次のフレームを処理する際に参照される。FIG. 3 is an internal configuration diagram of the attention area tracking unit 13. The attention area tracking unit 13 receives the motion vector 15 and determines whether or not the corresponding position of each block of the current frame in the previous frame falls within the attention area set in the previous frame. According to the instructions of the initial setting unit 131, the block position determining unit 130, and the initial setting unit 131, which initially set the attention area for the first frame to be input in the processing of the above, the corresponding position in the previous frame is set to the previous frame. The attention area setting unit 132 calculates the motion vector of the attention area by comprehensively considering the motion vector of the block that falls within the attention area, and sets the attention area in the current frame based on the motion vector. Position holding for temporarily storing the position information of the attention area output in the form of the second encoding accuracy instruction 16 from the area tracking unit 13 Including the 133. The position information of the attention area is updated every frame, and the block position determination unit 13
0 is referred to when processing the next frame.
【0023】以上の構成による注目領域の追跡と画像の
符号化を説明する。まずあるフレームFnが入力フレー
ムメモリ部1に入力されたとする。フレームFnは減算
器2に向けて出力される。減算器2には動き補償予測部
12の出力21が入力されている。この出力21は、ひ
とつ前に入力されたフレームFn-1をもとに現フレーム
Fnを予測して生成されたフレーム、すなわちMPEG
で参照フレームと呼ばれるものであり、減算器2では、
実際に入力されたフレームFnと参照フレームの差分の
みが減算器2の出力22として直交変換部3へ出力され
る。The tracking of the attention area and the encoding of the image by the above configuration will be described. First, it is assumed that a certain frame Fn is input to the input frame memory unit 1. The frame Fn is output to the subtractor 2. The output 21 of the motion compensation prediction unit 12 is input to the subtractor 2. The output 21 is, frames that are generated by predicting the current frame F n frame F n-1 inputted to the previous Based, namely MPEG
Is called a reference frame.
Only the difference between the actually input frame Fn and the reference frame is output to the orthogonal transformer 3 as the output 22 of the subtractor 2.
【0024】直交変換部3では前記差分を直交変換し、
空間周波数成分に展開する。展開の結果は直交変換部3
の出力23として量子化部4へ与えられる。量子化部4
は空間周波数成分の各係数を量子化する。この際、量子
化部4は符号量制御部14の指示にしたがって量子化ス
テップ数を決める。The orthogonal transform unit 3 orthogonally transforms the difference,
Expand to spatial frequency components. The result of the expansion is orthogonal transform unit 3.
Is output to the quantization unit 4 as an output 23. Quantization unit 4
Quantizes each coefficient of the spatial frequency component. At this time, the quantization unit 4 determines the number of quantization steps according to the instruction of the code amount control unit 14.
【0025】量子化部4の出力24は符号化部5に与え
られ、ここで量子化された係数が符号化される。符号化
部5の出力25はバッファメモリ部6に与えられ、ここ
でタイミングが調節された後、図示しないデータ記憶媒
体や復号化器に向けて出力される。The output 24 of the quantization unit 4 is supplied to the encoding unit 5, where the quantized coefficients are encoded. The output 25 of the encoding unit 5 is supplied to the buffer memory unit 6, where the timing is adjusted, and then output to a data storage medium or a decoder (not shown).
【0026】量子化部4の出力24は逆量子化部7へも
与えられ、ここで逆量子化が行われる。逆量子化部7の
出力27は逆直交変換部8へ入力され、逆直交変換が行
われる。この段階で前記差分に相当する画像が再現され
る。逆直交変換部8の出力28は加算器9に与えられ
る。加算器9は逆直交変換部8の出力28と動き補償予
測部12の出力21を加算し、参照フレームを生成す
る。参照フレームは加算器9の出力29として参照フレ
ームメモリ部10へ入力され、記憶される。The output 24 of the quantization unit 4 is also supplied to the inverse quantization unit 7, where the inverse quantization is performed. The output 27 of the inverse quantization unit 7 is input to the inverse orthogonal transform unit 8, where the inverse orthogonal transform is performed. At this stage, an image corresponding to the difference is reproduced. The output 28 of the inverse orthogonal transform unit 8 is provided to the adder 9. The adder 9 adds the output 28 of the inverse orthogonal transform unit 8 and the output 21 of the motion compensation prediction unit 12 to generate a reference frame. The reference frame is input to the reference frame memory unit 10 as an output 29 of the adder 9 and stored.
【0027】一方、入力フレームメモリ部1には次のフ
レームFn+1が入力され、このフレームの処理が開始さ
れる。フレームFnをもとに生成された参照フレーム、
つまりフレームFn+1の処理の際に参照されるフレーム
は、適切なタイミングで参照フレームメモリ部10の出
力30として動き補償予測部12および動き検出部11
に与えられる。動き検出部11は、参照フレームおよび
入力フレームメモリ部1の出力20であるフレームF
n+1の間でブロックマッチングを行う。MPEGの場合
このブロックマッチングは、後のほうのフレームである
フレームFn+1内に整列されたブロックのおのおのにつ
いて、対応位置を前のフレームであるフレームFn、よ
り正確にはフレームFnから生成された参照フレームへ
探索しにいく。したがって、この処理は逆方向検出であ
る。各ブロックについて対応位置が判明すれば動きベク
トル15が決まり、これを動き補償予測部12と注目領
域追跡部13へ出力する。On the other hand, the next frame F n + 1 is input to the input frame memory unit 1 and the processing of this frame is started. A reference frame generated based on the frame F n ,
That is, the frame referred to in the processing of the frame F n + 1 is output as the output 30 of the reference frame memory unit 10 at an appropriate timing by the motion compensation prediction unit 12 and the motion detection unit 11.
Given to. The motion detecting unit 11 outputs a frame F which is an output 20 of the reference frame and the input frame memory unit 1.
Perform block matching between n + 1 . In the case of MPEG, this block matching is such that for each of the blocks aligned in the later frame, frame F n + 1 , the corresponding position is shifted from the previous frame, frame F n , more precisely from frame F n. Go to the generated reference frame. Therefore, this processing is backward detection. If the corresponding position is found for each block, a motion vector 15 is determined, and this is output to the motion compensation prediction unit 12 and the attention area tracking unit 13.
【0028】動き補償予測部12は、参照フレームにお
いて各ブロックを動きベクトルにしたがって移動し、フ
レームFn+1に最も近い画像を生成する。こうして動き
を補償した予測が完了し、動き補償予測部12の出力2
1が減算器2へ出力される。動きを補償するため、減算
器2では一般に差分データ量が少なくなり、符号量も少
なくてすむ。以降同様の処理を繰りかえすことでフレー
ム画像を順次符号化していく。The motion compensation prediction unit 12 moves each block in the reference frame according to the motion vector, and generates an image closest to the frame F n + 1 . Thus, the motion compensated prediction is completed, and the output 2 of the motion compensated prediction unit 12 is output.
1 is output to the subtractor 2. In order to compensate for the motion, the subtracter 2 generally requires a smaller amount of difference data and a smaller code amount. Thereafter, the same processing is repeated to sequentially encode the frame images.
【0029】注目領域追跡部13のブロック位置判定部
130は、動きベクトル15をもとに、現フレームの各
ブロックの前フレームにおける対応位置が前フレームで
設定された注目領域に入るか否かを判定する。本実施の
形態では、前記対応位置の中心が注目領域に含まれる場
合、「注目領域に入っている」とみなし、そのようなブ
ロックを「重要ブロック」と呼ぶことにする。The block position determination unit 130 of the attention area tracking unit 13 determines whether or not the corresponding position of each block of the current frame in the previous frame falls within the attention area set in the previous frame based on the motion vector 15. judge. In the present embodiment, when the center of the corresponding position is included in the attention area, it is regarded as “entering the attention area”, and such a block is referred to as an “important block”.
【0030】注目領域設定部132は、重要ブロックの
動きベクトルの平均を計算し、この平均ベクトルから注
目領域の動きを求める。したがって、前フレームの注目
領域の位置から前記平均ベクトルの示す変位を加えるこ
とで現フレームの注目領域の位置が判明する。この位置
にしたがい、現フレームの注目領域を設定する。設定さ
れた注目領域の位置情報は位置保持部133に格納さ
れ、次のフレームの処理に利用される。注目領域は前フ
レームから現フレーム、現フレームからさらに次のフレ
ームと検出されるため、これは順方向検出である。以下
同様に重要ブロックの判定と平均ベクトルの算出を繰り
返すことで注目領域を追跡していくことができる。The attention area setting unit 132 calculates the average of the motion vector of the important block, and obtains the motion of the attention area from the average vector. Therefore, the position of the attention area of the current frame is determined by adding the displacement indicated by the average vector from the position of the attention area of the previous frame. According to this position, the attention area of the current frame is set. The set position information of the attention area is stored in the position holding unit 133 and used for processing of the next frame. This is forward detection because the region of interest is detected as the current frame from the previous frame and the next frame from the current frame. The attention area can be tracked by repeating the determination of the important block and the calculation of the average vector.
【0031】なお、動画像の最初のフレームについては
注目領域をなんらかの方法で設定する必要があるため、
初期設定部131で対応する。初期設定部131はユー
ザによる注目領域の入力を受け付けるユーザインタフェ
イス機能をもっていてもよいし、注目領域を既知の方法
で探索する自動探索機能を持っていもよい。また、テレ
ビ電話などの場合、注目領域は画面の中央付近に存在す
ることが多いため、初期設定部131はフレーム画像の
中央に固定的に最初の注目領域を設定してもよい。It is necessary to set a region of interest for the first frame of a moving image by any method.
This is handled by the initial setting unit 131. The initial setting unit 131 may have a user interface function of receiving an input of a region of interest by a user, or may have an automatic search function of searching for a region of interest by a known method. Further, in the case of a videophone or the like, since the attention area often exists near the center of the screen, the initial setting unit 131 may fixedly set the first attention area at the center of the frame image.
【0032】本装置による逆方向検出および順方向検出
の詳細を図4から図7を用いて説明する。図4は本装置
による処理手順のフローチャート、図5は現フレームF
nにおいて整列された6個のブロックAからF、図6は
これらのブロックの前フレームFn-1における対応位置
およびそのフレームで設定されている注目領域40、図
7は現フレームFnに設定された注目領域41を前フレ
ームFn-1の注目領域40とともに示す図である。図4
は図1のフローチャートのひとつの詳細例である。図6
のブロックA’からF’はそれぞれ図5のブロックAか
らFに対応する。Details of the backward direction detection and the forward direction detection by the present apparatus will be described with reference to FIGS. FIG. 4 is a flowchart of the processing procedure by this apparatus, and FIG.
6 shows the six blocks A to F aligned in n , FIG. 6 shows the corresponding positions of these blocks in the previous frame F n-1 and the attention area 40 set in that frame, and FIG. 7 shows the current frame F n FIG. 9 is a diagram showing a focused attention area 41 together with a attention area 40 of a previous frame F n-1 . FIG.
Is a detailed example of one of the flowcharts in FIG. FIG.
5 correspond to the blocks A to F in FIG. 5, respectively.
【0033】図4に示すごとく、まず処理しようとして
いるフレームが最初のフレームであるか否かが判定され
る(S10)。仮に最初のフレームであれば、初期設定
部131によってそのフレームに注目領域を設定してお
く(S11)。そうでなければそのまま逆方向検出(S
12)に進む。As shown in FIG. 4, it is first determined whether or not the frame to be processed is the first frame (S10). If the frame is the first frame, a region of interest is set in the frame by the initial setting unit 131 (S11). Otherwise, the reverse direction detection (S
Proceed to 12).
【0034】逆方向検出のために、まず現フレームFn
のために前フレームFn-1をもとに参照フレームが生成
される(S120)。参照フレームは図2の入力フレー
ムメモリ部1から加算器9に至る経路で生成される。つ
づいて動き検出部11でブロックマッチングで行われ、
各ブロックの動きベクトル15が算出される(S12
1)。逆方向検出に際して現フレームFnにブロックが
整列された様子は図5に示されている。For backward detection, first, the current frame F n
, A reference frame is generated based on the previous frame F n-1 (S120). The reference frame is generated along the path from the input frame memory unit 1 to the adder 9 in FIG. Subsequently, the motion detection unit 11 performs block matching,
The motion vector 15 of each block is calculated (S12
1). How the block is aligned with the current frame F n during reverse direction detection is shown in FIG.
【0035】つぎに、動きベクトル15は注目領域追跡
部13へ与えられ、順方向検出が開始される(S1
3)。ブロック位置判定部130は動きベクトル15を
もとに、重要ブロックを選定する(S130)。図6の
場合、前フレームFn-1に設定された注目領域40の中
に、ブロックA’からF’のうち、4個のブロック
B’、C’、E’、F’が含まれており、これら(また
はそれらに対応するブロックB、C、E、Fと考えても
よい)が重要ブロックとなる。いま、ブロックBに対す
るブロックB’の位置ベクトル、すなわち動きベクトル
を(UB,VB)、同様にブロックCに対するブロック
C’の動きベクトルを(UC,VC)、ブロックEに対す
るブロックE’の動きベクトルを(UE,VE)、ブロッ
クFに対するブロックF’の動きベクトルを(UF,
VF)とすれば、前述の平均ベクトル(UAVE,VAVE)
は、 ((UB+UC+UE+UF)/4,(VB+VC+VE+
VF)/4) となる。注目領域設定部132は、前フレームFn-1の
注目領域40に対する現フレームFnの注目領域41の
位置ベクトルを、方向も考えて、 (−(UB+UC+UE+UF)/4,−(VB+VC+VE
+VF)/4) とする。このベクトルをもとに、図7のごとく前フレー
ムFn-1の注目領域40を移動して現フレームFnの注目
領域41を設定し(S131)、その位置情報を注目領
域追跡部13の出力である第二符号化精指示16として
符号量制御部14へ伝える。Next, the motion vector 15 is given to the attention area tracking unit 13, and the forward direction detection is started (S1).
3). The block position determining unit 130 selects an important block based on the motion vector 15 (S130). In the case of FIG. 6, among the blocks A 'to F', four blocks B ', C', E ', and F' are included in the attention area 40 set in the previous frame Fn-1. Therefore, these (or blocks B, C, E, and F corresponding to them) are important blocks. Now, 'position vector, namely a motion vector (U B, V B), similarly blocked C for block C' Block B to Block B motion vectors of (U C, V C), block E 'for block E of the motion vector (U E, V E), the motion vector of the block F 'for the block F (U F,
V F ), the above average vector (U AVE , V AVE )
Is ((U B + U C + U E + U F ) / 4, (V B + V C + V E +
V F ) / 4). Attention area setting unit 132, the position vector of the target region 41 in the current frame F n for the attention area 40 of the previous frame F n-1, also contemplates direction, (- (U B + U C + U E + U F) / 4 ,-(V B + V C + V E
+ V F ) / 4). The vector basis, by moving the frame F n-1 of the target area 40 before as in Fig. 7 sets a region of interest 41 in the current frame F n (S131), the attention area tracking unit 13 the position information The output is transmitted to the code amount control unit 14 as the second encoding precision instruction 16.
【0036】この後、フレーム画像の符号化が行われる
(S14)。符号量制御部14は注目領域41の位置情
報に従い、注目領域41に対して相対的に符号量が多
く、それ以外の領域に対して相対的に符号量が少なくな
るよう量子化部4を制御する。Thereafter, encoding of the frame image is performed (S14). The code amount control unit 14 controls the quantization unit 4 according to the position information of the region of interest 41 such that the code amount is relatively large with respect to the region of interest 41 and the code amount is relatively small with respect to the other regions. I do.
【0037】実験の結果 本実施の形態の有用性をテストするために、図2の画像
符号化装置について実験を行った。実験に用いたフレー
ム画像は、MPEG4テスト画像「foreman」
(CIF 352×288、100フレーム分)であ
る。注目領域として顔の部分をQCIFサイズ(176
×144)の矩形で切り出した。本実施の形態の例とし
て、注目領域はDCT係数の量子化パラメータQP=4
で符号化し、それ以外の領域はQP=10で符号化し
た。QPは小さな値ほど符号化精度が高い。 Experimental Results In order to test the usefulness of the present embodiment, an experiment was performed on the image encoding apparatus shown in FIG. The frame image used in the experiment was an MPEG4 test image "foreman"
(CIF 352 × 288, 100 frames). QCIF size (176
× 144). As an example of the present embodiment, the region of interest is the quantization parameter QP = 4 of the DCT coefficient.
, And the other areas were coded with QP = 10. The smaller the value of QP, the higher the encoding accuracy.
【0038】1.注目領域の画質が同一という条件の場
合 従来一般的な方法では、フレーム画像全体を同じ符号化
精度(ここではQP=4)で符号化することになる。そ
の場合に比べ、本実施の形態では全体の符号量を39パ
ーセント削減できた。1. In the case of the condition that the image quality of the attention area is the same In the conventional general method, the entire frame image is encoded with the same encoding precision (here, QP = 4). In this embodiment, the total code amount can be reduced by 39% as compared to that case.
【0039】2.全体の符号量が一定という条件の場合 フレーム画像全体を一定の符号化精度で符号化する場
合、QP=6で本実施の形態と全体の符号量がほぼ等し
くなる。その場合に比べて、注目領域の画質を1.8d
b改善することができた。2. When the Entire Code Amount is Constant When Encoding the Entire Frame Image with Constant Encoding Accuracy, QP = 6 makes the overall code amount almost equal to that of the present embodiment. Compared to that case, the image quality of the attention area is 1.8d.
bImproved.
【図1】 実施の形態に係る注目領域追跡方法および画
像符号化方法の処理手順の概要を示すフローチャートで
ある。FIG. 1 is a flowchart illustrating an outline of a processing procedure of an attention area tracking method and an image encoding method according to an embodiment.
【図2】 実施の形態に係る画像符号化装置の構成図で
ある。FIG. 2 is a configuration diagram of an image encoding device according to an embodiment.
【図3】 図2の注目領域追跡部13の内部構成図であ
る。FIG. 3 is an internal configuration diagram of an attention area tracking unit 13 in FIG. 2;
【図4】 実施の形態に係る装置による処理手順のフロ
ーチャートである。FIG. 4 is a flowchart of a processing procedure by the device according to the embodiment.
【図5】 現フレームFnにおいて整列された6個のブ
ロックAからFを示す図である。FIG. 5 is a diagram showing six blocks A to F aligned in a current frame F n .
【図6】 図5の各ブロックの前フレームFn-1におけ
る対応位置およびそのフレームで設定されている注目領
域を示す図である。6 is a diagram showing a corresponding position of each block in FIG. 5 in a previous frame F n-1 and an attention area set in the frame.
【図7】 現フレームFnに設定された注目領域を前フ
レームFn-1の注目領域とともに示す図である。7 is a diagram showing along with the previous frame F n-1 region of interest region of interest set in the current frame F n.
1 入力フレームメモリ部、2 減算器、3 直交変換
部、4 量子化部、5符号化部、6 バッファメモリ
部、7 逆量子化部、8 逆直交変換部、9加算器、1
0 参照フレームメモリ部、11 動き検出部、12
動き補償予測部、13 注目領域追跡部、14 符号量
制御部、15 動きベクトル、16第二符号化精度指
示、20 入力フレームメモリの出力、21 動き補償
予測部の出力、22 減算器の出力、23 直交変換部
の出力、24 量子化部の出力、25 符号化部の出
力、26 第一符号化精度指示、27 逆量子化部の出
力、28 逆直交変換部の出力、29 加算器の出力、
30 参照フレーム部の出力、31 符号量制御部の出
力、40 前フレームFn-1の注目領域、41 現フレ
ームFnの注目領域、130 ブロック位置判定部、1
31 初期設定部、132 注目領域設定部、133
位置保持部。Reference Signs List 1 input frame memory unit, 2 subtractor, 3 orthogonal transformation unit, 4 quantization unit, 5 encoding unit, 6 buffer memory unit, 7 inverse quantization unit, 8 inverse orthogonal transformation unit, 9 adder, 1
0 Reference frame memory unit, 11 Motion detection unit, 12
Motion compensation prediction unit, 13 attention area tracking unit, 14 code amount control unit, 15 motion vector, 16 second encoding accuracy instruction, 20 input frame memory output, 21 motion compensation prediction unit output, 22 subtracter output, 23 Output of orthogonal transformation unit, 24 Output of quantization unit, 25 Output of encoding unit, 26 First encoding accuracy instruction, 27 Output of inverse quantization unit, 28 Output of inverse orthogonal transformation unit, 29 Output of adder ,
30 reference frame section output, 31 code amount control section output, 40 attention area of previous frame F n−1 , 41 attention area of current frame F n , 130 block position determination section, 1
31 Initial setting unit, 132 Attention area setting unit, 133
Position holding unit.
Claims (8)
位領域ごとにフレーム間の動きが追跡されているとき、
その単位領域とは独立にフレーム画像内に定められた任
意形状の注目領域の動きを、その注目領域と所定の位置
関係にある単位領域の動きの追跡結果を利用して推定す
ることを特徴とする注目領域追跡方法。1. When a frame image is divided into unit areas, and movement between frames is tracked for each unit area,
Independently of the unit area, the motion of the attention area having an arbitrary shape determined in the frame image is estimated using the tracking result of the movement of the unit area having a predetermined positional relationship with the attention area. Attention area tracking method.
の動きの追跡は、動き補償予測の一環として、本来前記
注目領域の追跡とは独立に行われるものである請求項1
に記載の注目領域追跡方法。2. The tracking of inter-frame motion performed for each unit area is originally performed independently of the tracking of the attention area as part of motion compensation prediction.
2. The attention area tracking method according to 1.
する領域の位置を前フレームにおいて検出する逆方向検
出工程と、 逆方向検出工程の結果を利用することにより、前フレー
ムに設けられた注目領域に対応する領域の位置を現フレ
ームにおいて検出する順方向検出工程と、 を含むことを特徴とする注目領域追跡方法。3. A method for detecting a position of an area corresponding to a unit area provided in a current frame in a previous frame, and using a result of the reverse direction detecting step to obtain a notice provided in the previous frame. A forward direction detecting step of detecting a position of an area corresponding to the area in a current frame, the method comprising:
列された単位領域の前フレームにおける対応領域が位置
していた可能性の高い領域を候補領域として検出し、単
位領域ごとにそれ自身と候補領域の変位を示す動き情報
を生成し、 前記順方向検出工程は、前フレームにとられた候補領域
のうち前フレームにおける注目領域に含まれるものを重
要領域として選定し、重要領域に関する動き情報を総合
的に考慮して注目領域を追跡する請求項3に記載の注目
領域追跡方法。4. The reverse direction detecting step detects, as a candidate region, a region in which a corresponding region in a previous frame of a unit region aligned with a current frame is likely to be located, and for each unit region, Generating motion information indicating the displacement of the candidate area; the forward direction detecting step selects, from among the candidate areas taken in the previous frame, those included in the attention area in the previous frame as important areas; 4. The attention area tracking method according to claim 3, wherein the attention area is tracked by comprehensively considering the following.
報は動き補償予測に用いられる動きベクトルであり、 前記順方向検出工程は、重要領域に関する動きベクトル
を平均して注目領域の動きベクトルを求める請求項4に
記載の注目領域追跡方法。5. The motion information generated in the backward direction detecting step is a motion vector used for motion compensation prediction. The forward direction detecting step averages a motion vector related to the important area to calculate a motion vector of the attention area. 5. The attention area tracking method according to claim 4, wherein the determination is performed.
位領域ごとにフレーム間の動きが追跡されているとき、 その単位領域とは独立にフレーム画像内に定められた注
目領域の動きを、その注目領域と所定の位置関係にある
単位領域の動きの追跡結果を利用して推定し、 フレーム画像のうち、推定された注目領域についてはそ
れ以外の領域と異なる処理内容で符号化することを特徴
とする画像符号化方法。6. When a frame image is divided into unit areas, and the movement between frames is tracked for each unit area, the movement of the attention area defined in the frame image independently of the unit area is obtained. Estimated by using the tracking result of the motion of the unit area having a predetermined positional relationship with the attention area, and the estimated attention area in the frame image is coded with processing different from that of the other areas. Image encoding method.
する領域の位置を前フレームにおいて検出する逆方向検
出工程と、 逆方向検出工程の結果を利用することにより、前フレー
ムに設けられた注目領域に対応する領域の位置を現フレ
ームにおいて検出する順方向検出工程と、 フレーム画像のうち注目領域についてはそれ以外の領域
と異なる処理内容で符号化する符号化工程と、 を含むことを特徴とする画像符号化方法。7. A reverse direction detecting step of detecting a position of an area corresponding to a unit area provided in a current frame in a previous frame, and using a result of the reverse direction detecting step to obtain a notice provided in the previous frame. A forward direction detecting step of detecting the position of the area corresponding to the area in the current frame, and an encoding step of encoding the area of interest in the frame image with processing different from that of the other areas. Image encoding method.
する領域の前フレームにおける位置を判定する手段と、 その判定結果を利用することにより、前フレームに設け
られた注目領域に対応する領域の位置を現フレームに設
定する手段と、 を含むことを特徴とする注目領域追跡装置。8. A means for determining a position in a previous frame of a region corresponding to a unit region provided in a current frame, and utilizing the determination result to determine a position of a region corresponding to a region of interest provided in the previous frame. Means for setting the position to the current frame.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7385897A JPH10271515A (en) | 1997-03-26 | 1997-03-26 | Noticed area tracing method, noticed area tracing device using the method and image coding method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7385897A JPH10271515A (en) | 1997-03-26 | 1997-03-26 | Noticed area tracing method, noticed area tracing device using the method and image coding method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005220949A Division JP2005348438A (en) | 2005-07-29 | 2005-07-29 | Image encoding method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10271515A true JPH10271515A (en) | 1998-10-09 |
Family
ID=13530292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7385897A Pending JPH10271515A (en) | 1997-03-26 | 1997-03-26 | Noticed area tracing method, noticed area tracing device using the method and image coding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10271515A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004200739A (en) * | 2002-12-16 | 2004-07-15 | Sanyo Electric Co Ltd | Image processor |
JP2005341076A (en) * | 2004-05-26 | 2005-12-08 | Nippon Telegr & Teleph Corp <Ntt> | Image communication system, communication conference system, hierarchical encoder, server device, image communication method, image communication program, and image communication program recording medium |
JP2007306305A (en) * | 2006-05-11 | 2007-11-22 | Matsushita Electric Ind Co Ltd | Image encoding apparatus and image encoding method |
JP2007336259A (en) * | 2006-06-15 | 2007-12-27 | Matsushita Electric Ind Co Ltd | Image encoding apparatus and method therefor |
US7630567B2 (en) | 2004-04-02 | 2009-12-08 | Sony Corporation | Adaptive image coding with pressure-selected regions |
JP2019149722A (en) * | 2018-02-27 | 2019-09-05 | キヤノン株式会社 | Moving image coding apparatus, control method of the same, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04298184A (en) * | 1991-03-27 | 1992-10-21 | Oki Electric Ind Co Ltd | Motion vector detector |
JPH06319134A (en) * | 1993-05-07 | 1994-11-15 | Oki Electric Ind Co Ltd | Picture communication system |
JPH07288806A (en) * | 1994-04-20 | 1995-10-31 | Hitachi Ltd | Moving image communication system |
JPH089379A (en) * | 1994-06-15 | 1996-01-12 | Sanyo Electric Co Ltd | Motion vector detection method |
JPH0846943A (en) * | 1994-08-02 | 1996-02-16 | Oki Electric Ind Co Ltd | Video camera drive system and picture communication system |
JPH08251583A (en) * | 1995-03-10 | 1996-09-27 | Sharp Corp | Image encoding device and image decoding device |
-
1997
- 1997-03-26 JP JP7385897A patent/JPH10271515A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04298184A (en) * | 1991-03-27 | 1992-10-21 | Oki Electric Ind Co Ltd | Motion vector detector |
JPH06319134A (en) * | 1993-05-07 | 1994-11-15 | Oki Electric Ind Co Ltd | Picture communication system |
JPH07288806A (en) * | 1994-04-20 | 1995-10-31 | Hitachi Ltd | Moving image communication system |
JPH089379A (en) * | 1994-06-15 | 1996-01-12 | Sanyo Electric Co Ltd | Motion vector detection method |
JPH0846943A (en) * | 1994-08-02 | 1996-02-16 | Oki Electric Ind Co Ltd | Video camera drive system and picture communication system |
JPH08251583A (en) * | 1995-03-10 | 1996-09-27 | Sharp Corp | Image encoding device and image decoding device |
Non-Patent Citations (7)
Title |
---|
HIROHISA JOZAWA: "Segment-based video coding using an affine motion model", PROC SPIE INT SOC OPT ENG, vol. 2308, no. 3, JPNX006020514, 1994, pages 1605 - 1614, ISSN: 0000735310 * |
THOMAS SIKORA: "The MPEG-4 video standard verification model", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. Volume 7, Issue 1, JPNX006020511, February 1997 (1997-02-01), pages 19 - 31, ISSN: 0000735307 * |
如澤 裕尚、小寺 博: "アフィン変換を用いた任意形状領域MCに関する検討", 電子情報通信学会大会講演論文集, vol. Shunki Pt 7、D−332, JPNX006020510, 10 March 1994 (1994-03-10), JP, pages 7 - 65, ISSN: 0000735305 * |
如澤 裕尚: "領域分割を用いた動き補償予測符号化に関する検討", 1994年テレビジョン学会年次大会, JPNX006020513, 1994, JP, pages 165 - 166, ISSN: 0000735309 * |
宮本 義弘: "被写体輪郭に適応した動き補償方式", 1993年画像符号化シンポジウム(PCSJ93), vol. 2−11, JPNX006020512, 4 October 1993 (1993-10-04), JP, pages 51 - 52, ISSN: 0000735308 * |
嵯峨田 淳、如澤 裕尚: "領域形状予測に基づく適応動ベクトル内挿", テレビジョン学会技術報告, vol. 19, no. 62, CSNG199901096009, 17 November 1995 (1995-11-17), JP, pages 69 - 76, ISSN: 0000735304 * |
高橋 潤、ブン チュンセン、角野 眞也: "任意形状画像の動き補償符号化の検討", 電子情報通信学会技術研究報告, vol. 96, no. 603, CSNG199800610005, 19 March 1997 (1997-03-19), JP, pages 27 - 32, ISSN: 0000735306 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004200739A (en) * | 2002-12-16 | 2004-07-15 | Sanyo Electric Co Ltd | Image processor |
US7421134B2 (en) * | 2002-12-16 | 2008-09-02 | Sanyo Electric Co., Ltd. | Image processing apparatus and method for moving object-adaptive compression |
US7630567B2 (en) | 2004-04-02 | 2009-12-08 | Sony Corporation | Adaptive image coding with pressure-selected regions |
KR101114205B1 (en) | 2004-04-02 | 2012-04-10 | 소니 주식회사 | Image coding method, imaging apparatus, and computer program |
JP2005341076A (en) * | 2004-05-26 | 2005-12-08 | Nippon Telegr & Teleph Corp <Ntt> | Image communication system, communication conference system, hierarchical encoder, server device, image communication method, image communication program, and image communication program recording medium |
JP2007306305A (en) * | 2006-05-11 | 2007-11-22 | Matsushita Electric Ind Co Ltd | Image encoding apparatus and image encoding method |
JP2007336259A (en) * | 2006-06-15 | 2007-12-27 | Matsushita Electric Ind Co Ltd | Image encoding apparatus and method therefor |
JP2019149722A (en) * | 2018-02-27 | 2019-09-05 | キヤノン株式会社 | Moving image coding apparatus, control method of the same, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6850564B1 (en) | Apparatus and method for dynamically controlling the frame rate of video streams | |
JP4536325B2 (en) | Image processing apparatus and method, recording medium, and program | |
US6360017B1 (en) | Perceptual-based spatio-temporal segmentation for motion estimation | |
KR100803611B1 (en) | Method and apparatus for encoding video, method and apparatus for decoding video | |
US6785333B2 (en) | Motion vector coding method | |
US20150201209A1 (en) | Motion vector detection apparatus and method | |
JP2002532026A (en) | Improvement of motion estimation and block matching pattern | |
JPH1155672A (en) | Dynamic image coder, dynamic image decoder, dynamic image coding method and dynamic image decoding method | |
KR100415494B1 (en) | Image encoding method and apparatus, recording apparatus, video signal encoding apparatus, processing apparatus and method, video data processing apparatus and method | |
US7203369B2 (en) | Method for estimating motion by referring to discrete cosine transform coefficients and apparatus therefor | |
JP2009290463A (en) | Encoding/decoding device, encoding/decoding method, and program | |
JP2003244707A (en) | Adaptive decision method of motion vector search range | |
US20160057415A1 (en) | Image encoding method, image encoding apparatus, and related encoding medium, image decoding method, image decoding apparatus, and related decoding medium | |
JPH09191459A (en) | Method and device for coding video data flow of video sequence consisting of image block | |
JP2004215275A (en) | Motion compensation based improved noise prediction method and apparatus, and moving image encoding method and apparatus using the same | |
JPH10271515A (en) | Noticed area tracing method, noticed area tracing device using the method and image coding method | |
EP0973336A2 (en) | Motion vector detecting, picture encoding and recording method and apparatus | |
JP2005348438A (en) | Image encoding method | |
EP1683361B1 (en) | Power optimized collocated motion estimation method | |
JP2007174202A (en) | Motion vector detecting device and method therefor | |
US20060104352A1 (en) | Block matching in frequency domain for motion estimation | |
KR100497753B1 (en) | Moving-Picture Coding System And Method For Mobile Communication Terminal | |
JP4747109B2 (en) | Calculation amount adjustment device | |
KR100635009B1 (en) | Mothod and apparatus for motion estimation considering total moving of image | |
KR960036722A (en) | Video Compression Device Using Fractal and Motion Compensation and Its Compression Method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050531 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050801 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060516 |