JP2009266169A - Information processor and method, and program - Google Patents
Information processor and method, and program Download PDFInfo
- Publication number
- JP2009266169A JP2009266169A JP2008118394A JP2008118394A JP2009266169A JP 2009266169 A JP2009266169 A JP 2009266169A JP 2008118394 A JP2008118394 A JP 2008118394A JP 2008118394 A JP2008118394 A JP 2008118394A JP 2009266169 A JP2009266169 A JP 2009266169A
- Authority
- JP
- Japan
- Prior art keywords
- block
- moving object
- motion
- evaluation value
- activity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、情報処理装置及び方法、並びにプログラムに関し、特に、より簡単かつ正確に動物体領域を抽出することができるようになった情報処理装置及び方法、並びにプログラムに関する。 The present invention relates to an information processing apparatus, method, and program, and more particularly, to an information processing apparatus, method, and program that can extract a moving object region more easily and accurately.
画像内から、動いている物体(オブジェクト)の領域である動物体領域を抽出する抽出手法が、従来から多く提案されている。具体的には、例えば、動物体領域の抽出手法として、動きベクトル情報を用いる方法が数多く提案されている。 Conventionally, many extraction methods for extracting a moving object region, which is a moving object (object) region, from an image have been proposed. Specifically, for example, many methods using motion vector information have been proposed as a method for extracting a moving object region.
特許文献1には、隣接ブロックの動きの相関性から動物体領域を抽出する手法が開示されている。特許文献2には、過去の動きベクトルを参照し、それらと類似する動きベクトルをもつ領域を動物体領域として入力画像から分離する方法が開示されている。 Patent Document 1 discloses a technique for extracting a moving object region from the correlation of motion of adjacent blocks. Patent Document 2 discloses a method of referring to past motion vectors and separating a region having a motion vector similar to them from an input image as a moving body region.
また、いわゆる背景差分法、すなわち、動物体の写っていない背景画像を生成し、その背景画像と入力画像との差分を計算することで、動物体を検出する手法が数多く提案されている(例えば、特許文献3参照)。
しかしながら、上述した特許文献1や2を含む動きベクトル情報を用いる従来の手法では、一般に、動物体領域の抽出結果が動き検出の精度に強く依存するため、動き検出が失敗し易い平坦部や繰り返しパターン部がある場合、あるいは、物体の変形が激しい場合、動物体の誤検出を生じ易いという問題があった。 However, in the conventional method using the motion vector information including Patent Documents 1 and 2 described above, generally, the extraction result of the moving object region strongly depends on the accuracy of the motion detection, so that the flat portion or the repetition which is likely to fail the motion detection is repeated. When there is a pattern portion or when the deformation of an object is severe, there is a problem that erroneous detection of an animal body is likely to occur.
また、上述した特許文献3を含む従来の背景差分法では、一般に、背景を生成するために処理が複雑かつ重くなりがちであった。また、静止背景であれば良いが、背景自体に動きがある場合、すなわち例えば、カメラのパンチルト、ズーム、回転等が生じた場合、精度良く背景を生成することが困難であった。その結果、必然的に、動物体の誤検出を生じ易いという問題があった。 Further, in the conventional background subtraction method including Patent Document 3 described above, generally, the processing tends to be complicated and heavy in order to generate the background. In addition, a static background may be used, but when the background itself moves, that is, for example, when panning / tilting, zooming, rotation, or the like of the camera occurs, it is difficult to accurately generate the background. As a result, there is inevitably a problem that erroneous detection of the moving object is likely to occur.
本発明は、このような状況に鑑みてなされたものであり、より簡単かつ正確に動物体を検出することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to detect a moving object more easily and accurately.
本発明の一側面の情報処理装置は、動画像を構成する複数の単位画像のそれぞれについて、処理対象とする処理画面の全体についての動きを表す全画面動きを算出する全画面動き算出手段と、前記全画面動き算出手段により算出された前記全画面動きと、前記処理画面を分割することで得られるブロック内の輝度の変化の複雑度を表す指標であるアクティビティとに基づいて、前記ブロックが動物体領域か否かを判定する判定手段とを備える。 An information processing apparatus according to an aspect of the present invention includes a full-screen motion calculation unit that calculates a full-screen motion representing a motion of the entire processing screen to be processed for each of a plurality of unit images constituting a moving image, Based on the full screen motion calculated by the full screen motion calculation means and an activity that is an index representing the complexity of luminance change in the block obtained by dividing the processing screen, the block is an animal. Determination means for determining whether or not the body region.
本発明の一側面の情報処理装置には、前記第1の単位画像の前記ブロック毎に、前記第2の単位画像上の探索先との差分についての評価値を演算し、前記評価値と前記探索先とを対応付けた評価値テーブルを生成し、前記評価値テーブルに含まれる探索先の中から、前記評価値テーブルに含まれる評価値に基づいて、検出すべき探索先を検出し、検出した探索先を各前記ブロックの動きとする動き検出手段をさらに設け、前記全画面動き算出手段には、前記動き検出手段により検出された前記ブロックの動きから前記全画面動きを算出させ、前記判定手段には、前記ブロック毎の前記評価値テーブルに含まれる前記全画面動きベクトル先に対応する評価値を、前記全画面動きベクトル先との差分として用いさせることができる。 The information processing apparatus according to one aspect of the present invention calculates an evaluation value for a difference from a search destination on the second unit image for each block of the first unit image, and the evaluation value and the An evaluation value table in which a search destination is associated is generated, and a search destination to be detected is detected from the search destinations included in the evaluation value table based on the evaluation value included in the evaluation value table, and is detected. A motion detection unit that uses the search destination as the motion of each block, and the full screen motion calculation unit calculates the full screen motion from the motion of the block detected by the motion detection unit, and the determination The means may use an evaluation value corresponding to the full screen motion vector destination included in the evaluation value table for each block as a difference from the full screen motion vector destination.
本発明の一側面の情報処理装置には、前記アクティビティを計算するアクティビティ計算手段をさらに設けることができる。 The information processing apparatus according to one aspect of the present invention may further include activity calculation means for calculating the activity.
本発明の一側面の情報処理方法またはプログラムは、動画像を構成する複数の単位画像のそれぞれについて、処理対象とする処理画面の全体についての動きを表す全画面動きを算出し、算出された前記全画面動きと、前記処理画面を分割することで得られるブロック内の輝度の変化の複雑度を表す指標であるアクティビティとに基づいて、前記ブロックが動物体領域か否かを判定するステップを含む情報処理方法または情報処理装置に制御を行うコンピュータに実行させるプログラム。 An information processing method or program according to one aspect of the present invention calculates a full screen motion representing a motion of an entire processing screen to be processed for each of a plurality of unit images constituting a moving image, and the calculated Determining whether or not the block is a moving object region based on the whole screen movement and an activity that is an index representing the complexity of the luminance change in the block obtained by dividing the processing screen. A program to be executed by a computer that controls an information processing method or information processing apparatus.
本発明の一側面においては、動画像を構成する複数の単位画像のそれぞれについて、処理対象とする処理画面の全体についての動きを表す全画面動きが算出され、算出された前記全画面動きと、前記処理画面を分割することで得られるブロック内の輝度の変化の複雑度を表す指標であるアクティビティとに基づいて、前記ブロックが動物体領域か否かが判定される。 In one aspect of the present invention, for each of a plurality of unit images constituting a moving image, a full screen motion representing a motion of the entire processing screen to be processed is calculated, and the calculated full screen motion; Whether or not the block is a moving object region is determined based on an activity that is an index representing the complexity of the change in luminance in the block obtained by dividing the processing screen.
本発明の一側面によれば、例えば、動物体領域を抽出することができる。特に、例えば、より簡単かつ正確に動物体領域を抽出することができる。 According to one aspect of the present invention, for example, an animal body region can be extracted. In particular, for example, a moving body region can be extracted more easily and accurately.
以下、図面を参照して本発明を適用した実施の形態について説明する。 Embodiments to which the present invention is applied will be described below with reference to the drawings.
なお、本実施の形態では、動画像の処理単位として、フレームを採用する。ただし、処理単位は、フレームに限定されず、例えばフィールド等でも構わない。以下、このようなフィールドやフレームといった動画像の処理単位を、単位画像と称する。即ち、本発明は、任意の単位画像に対する処理に適用可能であり、以下に説明するフレームは単位画像の例示にしか過ぎない点留意すべきである。 In the present embodiment, a frame is adopted as a moving image processing unit. However, the processing unit is not limited to a frame, and may be a field, for example. Hereinafter, such a moving image processing unit such as a field or a frame is referred to as a unit image. That is, it should be noted that the present invention can be applied to processing on an arbitrary unit image, and the frame described below is merely an example of the unit image.
図1は、本発明を適用した動物体領域抽出装置11の機能的構成例を示す図である。
FIG. 1 is a diagram showing a functional configuration example of an animal body
動物体領域抽出装置11には、動画像を構成する各フレームが、入力画像として順次入力される。
Each frame constituting the moving image is sequentially input to the moving object
動画像領域抽出装置11は、入力画像から動物体領域を抽出し、その動物体領域を特定するための情報である動物体領域情報を外部に出力する。以下、このような動画像領域抽出装置11の一連の処理を、抽出処理と称する。
The moving image
動画像領域抽出装置11は、ブロックマッチング部21、全画面動き算出部22、評価値テーブル保持部23、アクティビティ計算部24、及び動物体領域抽出部25から構成される。
The moving image
ブロックマッチング部21は、入力画像を、格子状に任意のサイズのブロックに分割する。なお、このブロックは、動物体領域の抽出単位となる。すなわち、動物体領域の抽出精度は、このブロックのブロックサイズで決まる。したがって、ブロックサイズは任意で良いが、動物体領域の抽出精度を考慮して決める必要がある点に留意する。
The block matching
ブロックマッチング部21は、分割後の各ブロックに対してブロックマッチングを行い、後述する評価値テーブルを生成する。
The block matching
なお、このブロックマッチングに用いるブロックサイズには、上記分割による分割後のブロックサイズをそのまま用いるのが理想である。もっとも、ブロックマッチングに用いるブロックサイズを異なるブロックサイズに変えても構わない。 It is ideal to use the block size after division by the division as it is as the block size used for this block matching. However, the block size used for block matching may be changed to a different block size.
また、ブロックマッチングは、全ブロックに対して同時並列に行われることがが理想である。もっとも、回路規模の制約によっては、1つのマッチング回路を使い回してシリアルに処理を行うことにより、1ブロックずつブロックマッチングを行うようにしても構わない。 Ideally, block matching is performed on all blocks simultaneously in parallel. However, depending on the restrictions on the circuit scale, block matching may be performed block by block by serially processing using one matching circuit.
ブロックマッチングでは、各ブロック毎に、隣接するフレーム上の探索ベクトル先との差分についての評価値がそれぞれ演算される。なお、探索ベクトル先が表す探索先の範囲(探索範囲)は任意の範囲で良い。上記探索ベクトル先との差分の評価値の一例としての評価値Dは、式(1)で表される。 In block matching, an evaluation value for a difference from a search vector destination on an adjacent frame is calculated for each block. The search destination range (search range) indicated by the search vector destination may be an arbitrary range. An evaluation value D as an example of an evaluation value of a difference from the search vector destination is expressed by Expression (1).
式(1)(及び後述する式(2))において、x、yは、それぞれ、入力画像におけるx座標、y座標を示している。(Sx, Sy)は、探索ベクトルを示している。Sx、Syは、それぞれ、探索ベクトル(Sx, Sy)のx成分、y成分を示している。BLOCKは、上記分割後のブロック領域を示している。 In Expression (1) (and Expression (2) described later), x and y indicate the x coordinate and y coordinate in the input image, respectively. (Sx, Sy) indicates a search vector. Sx and Sy indicate the x component and the y component of the search vector (Sx, Sy), respectively. BLOCK indicates the block area after the division.
また、It(x, y)は、時刻tの第tフレーム上の点(x, y)の画素値を示している。(x+Sx, y+Sy)は、点(x, y)に対する探索ベクトル先を示している。従って、It+1(x+Sx, y+Sy)は、第tフレームより1フレーム後の時刻t+1の第t+1フレーム上の探索ベクトル先(x+Sx, y+Sy)の画素値を示している。 In addition, I t (x, y) indicates the pixel value of the point (x, y) on the t-th frame at time t. (X + Sx, y + Sy) indicates a search vector destination for the point (x, y). Therefore, I t + 1 (x + Sx, y + Sy) is the search vector destination (x + Sx, y + Sy) on the t + 1 frame at time t + 1, one frame after the t frame. The pixel value is shown.
すなわち、評価値D(Sx, Sy)とは、次のような値となる。第tフレーム上の点(x, y)の画素値と、第t+1フレーム上の探索ベクトル先(x+Sx, y+Sy)の画素値とについて、ブロック領域BLOCK内の全ての点(x, y)に対する差分絶対値和をとった値が、評価値D(Sx, Sy)である。 That is, the evaluation value D (Sx, Sy) is the following value. For the pixel value of the point (x, y) on the t-th frame and the pixel value of the search vector destination (x + Sx, y + Sy) on the t + 1-th frame, all points ( A value obtained by taking the sum of absolute differences with respect to x, y) is an evaluation value D (Sx, Sy).
なお、式(1)における差分絶対値和に代えて、差分自乗和、差分和等とすることは勿論可能である。 Of course, instead of the sum of absolute differences in equation (1), a sum of squares of differences, a sum of differences, or the like can be used.
ブロックマッチング部21は、各探索ベクトル(Sx, Sy)毎に、探索ベクトル(Sx, Sy)と探索ベクトル先との差分の評価値D(Sx, Sy)とを対応付けた評価値テーブルを生成する。
The block matching
そして、ブロックマッチング部21は、ブロック毎に、そのブロックの評価値テーブルに含まれる探索ベクトルの中から、最小評価値を与える探索ベクトルを検出し、検出した探索ベクトルを、そのブロックの動きを表す動きベクトルとする。なお、この動きベクトルは、後述する全画面の動きに比べて局所的な動きを表しているので、以下、局所動きベクトルと称する。ブロックマッチング部21は、このようにして得られた局所動きベクトルを、全画面動き算出部22に供給する。
Then, for each block, the
ブロックマッチング部21は、局所動きベクトルの検出を終えた評価値テーブルを、評価値テーブル保持部23に供給する。
The
全画面動き算出部22は、ブロックマッチング部21から供給される全ブロックの局所動きベクトルに対してフレーム毎に統計処理を施すことにより、入力画像内の処理対象とする処理画面の全体の動きを表す全画面動きベクトルを算出し、評価値テーブル保持部23に供給する。
The full screen
なお、全画面動き算出部22に採用する統計処理の処理手法は、特に限定されない。例えば、簡単には、全ブロックについて検出された局所的な動きベクトルをヒストグラム化し、そのヒストグラムにおける最頻ベクトルを全画面動きベクトルとする等の手法が考えられる。そこで、本実施の形態では、この統計処理を採用するとする。
In addition, the processing method of the statistical process employ | adopted as the whole screen
全画面動き算出部22は、統計処理の結果得られるベクトル、例えば上述した最頻ベクトルを全画面動きベクトルとして算出し、評価値テーブル保持部23に供給する。
The full screen
評価値テーブル保持部23は、ブロックマッチング部21から供給される評価値テーブルをブロック毎に保持する。
The evaluation value
また、評価値テーブル保持部23は、全画面動き算出部22から全画面動きベクトルが供給されると、所定のブロックを処理対象として注目すべき注目ブロックに順次設定する。評価値テーブル保持部23は、注目ブロックについて、保持している評価値テーブルを参照し、全画面動きベクトル先の評価値を算出する。なお、この全画面動きベクトル先の評価値が、注目ブロックにおける全画面動きベクトル先との差分についての評価値になる。そこで、以下、全画面動きベクトル先の評価値を、全画面動きベクトル先との差分と適宜称する。そして、評価値テーブル保持部23は、全画面動きベクトル先との差分を、動物体領域抽出部25に供給する。
Further, when the full-screen motion vector is supplied from the full-screen
なお、以下、全画面動きベクトル先との差分を、Dbと記述する。全画面動きベクトル先との差分Dbは、全画面動きベクトルを(Wx, Wy)とすると、その全画面動きベクトル(Wx, Wy)を式(1)に代入することで求まるD(Wx, Wy)である(すなわち、Db=D(Wx, Wy))。なお、全画面動きベクトル先は、(x+Wx, y+Wy)と表される。 Hereinafter, the difference from the full-screen motion vector destination is described as Db. The difference Db from the full-screen motion vector destination can be obtained by substituting the full-screen motion vector (Wx, Wy) into equation (1), where (Wx, Wy) is the full-screen motion vector. ) (Ie, Db = D (Wx, Wy)). The full-screen motion vector destination is expressed as (x + Wx, y + Wy).
アクティビティ計算部24は、各ブロックのアクティビティを計算し、動物体領域抽出部25に供給する。ここで、アクティビティとは、ブロック内の輝度変化の複雑度を表す指標をいう。アクティビティの一例としてのアクティビティAは、式(2)で表される。
The
式(2)において、It(x, y)は、時刻tの第tフレーム上の点(x, y)の画素値を示している。i、jは、それぞれ、-1から1の整数の変数である。したがって、It(x+j, y+i)は、時刻tの第tフレーム上の点(x+j, y+i)の画素値を示している。 In Expression (2), I t (x, y) represents the pixel value of the point (x, y) on the t-th frame at time t. i and j are integer variables of -1 to 1, respectively. Therefore, I t (x + j, y + i) represents the pixel value of the point (x + j, y + i) on the t-th frame at time t.
すなわち、アクティビティ計算部24は、ブロック内の画素のそれぞれに対して、隣接8画素との差分絶対値和を求め、その差分絶対値和を全画素分積算することにより、アクティビティAを計算する。
In other words, the
但し、アクティビティの評価値の表現は式(2)に限定されない。例えば、式(2)のような周囲8近傍との差分ではなく、例えば上下左右の4近傍のみの差分としたり、あるいは、絶対値和ではなく二乗和にする等、用途に応じて様々な表現が考えられる。なお、以降においては、式(2)のアクティビティの評価値を使った場合について説明する。 However, the expression of the activity evaluation value is not limited to the expression (2). For example, instead of the difference from the vicinity of the surrounding 8 as in the expression (2), for example, a difference of only the four vicinity of the top, bottom, left and right, or a sum of squares instead of the sum of absolute values, various expressions depending on applications Can be considered. Hereinafter, the case where the activity evaluation value of Expression (2) is used will be described.
アクティビティ計算部24によるアクティビティの計算は、ブロックマッチング部21による差分計算時に図示せぬ画像メモリに展開している画素を利用し、さらにブロックマッチング部21によるブロックマッチングと同時並行に行われるのがアーキテクチャ的には好ましい。但し、アクティビティの計算をブロックマッチングと同時並行に行うのが必ずしも必要ではない点に留意する。
The activity calculation by the
動物体領域抽出部25は、注目ブロックについての、評価値テーブル保持部23から供給される全画面動きベクトル先との差分、及びアクティビティ計算部24から供給されるアクティビティから、注目ブロックが背景かどうかを判定する。
The moving object
具体的には、例えば、動物体領域抽出部25は、注目ブロックについての、全画面動きベクトル先との差分Dbと、アクティビティ計算部24から供給されるアクティビティAとを用いた、式(3)に示す評価式を演算し、その演算値の正負により注目ブロックが背景か否かを判定する。
Specifically, for example, the moving object
α×A+β×N−Db ・・・・・(3) α × A + β × N−Db (3)
式(3)において、Nは、ブロック内の画素数を示している。α、βは、それぞれ、アクティビティA、全画面動きベクトル先との差分Dbの係数である。 In Expression (3), N indicates the number of pixels in the block. α and β are coefficients of the difference Db from the activity A and the full screen motion vector destination, respectively.
式(3)の評価式の演算値が負(<0)であれば、注目ブロックは動物体領域である(すなわち、注目ブロックは背景でない)と判定される。逆に、式(3)の評価式の演算値が正(≧0)であれば、注目ブロックは背景である(すなわち、注目ブロックは動物体領域でない)と判定される。 If the calculated value of the evaluation formula of Expression (3) is negative (<0), it is determined that the block of interest is a moving object region (that is, the block of interest is not the background). On the other hand, if the calculated value of the evaluation expression of Expression (3) is positive (≧ 0), it is determined that the block of interest is the background (that is, the block of interest is not a moving object region).
なお、係数α及びβは、動物体領域の抽出精度を変えるためのパラメータであり、アプリケーションや用途に応じて値を変えることができる。また、動き量が既知の動画像から逆算し、係数α及びβを統計的に求めることもできる。すなわち、例えば、動き量が既知の動画像について、アクティビティA、全画面動きベクトル先との差分Dbを求め、動物体領域と判定されたブロックと背景と判定されたブロックのそれぞれについて、統計処理を行うことにより、係数α、βを求めることができる。 The coefficients α and β are parameters for changing the extraction accuracy of the moving object region, and the values can be changed according to the application and application. It is also possible to calculate the coefficients α and β statistically by calculating backward from a moving image whose motion amount is known. That is, for example, for a moving image whose motion amount is known, the difference Db between the activity A and the full screen motion vector destination is obtained, and statistical processing is performed for each of the block determined as the moving object region and the block determined as the background. By doing so, the coefficients α and β can be obtained.
一般的な動画像から動物体領域を抽出する場合、例えば、α=0.8、β=2程度が好ましい。 When extracting a moving object region from a general moving image, for example, α = 0.8 and β = 2 are preferable.
その後、動物体領域抽出部25は、全てのブロックについて背景かどうかを判定し終えると、動物体領域と判定されたブロックのうちの連続しているブロックの集合のそれぞれを動物体領域として抽出する。そして、動物体領域抽出部25は、抽出した動物体領域を特定する情報である動物体領域情報を生成し、外部に出力する。
Thereafter, when the moving object
次に、図2及び3のフローチャートを参照して、動物体領域抽出装置11の抽出処理の一例について説明する。
Next, an example of the extraction process of the moving object
動物体領域抽出装置11のブロックマッチング部21及びアクティビティ計算部24には、動画像を構成する各フレームが、入力画像として順次入力される。
Each frame constituting the moving image is sequentially input as an input image to the
ステップS1において、ブロックマッチング部21は、入力画像を、格子状に任意のサイズのブロックに分割する。
In step S1, the
具体的には、ブロックマッチング部21は、例えば、図4に示すような、入力画像の処理画面を所定のサイズのブロックに分割することにより、縦横7×10の70のブロックを生成する。なお、入力画像全体や他の大きさの画面を処理画面とすることも勿論可能である。
Specifically, for example, the
ステップS2において、ブロックマッチング部21は、分割後のブロックのうちの所定のブロックを注目ブロックに設定する。その後、処理はステップS3に進む。
In step S2, the
ステップS3において、ブロックマッチング部21は、注目ブロックについてブロックマッチングを行い、各探索ベクトル毎に、探索ベクトルと探索ベクトル先との差分の評価値とを対応付けた評価値テーブルを生成する。その後、処理はステップS4に進む。
In step S3, the
ステップS4において、ブロックマッチング部21は、評価値テーブルに含まれる探索ベクトルの中から、最小評価値を与える探索ベクトルを局所動きベクトルとして検出し、全画面動き算出部22に供給する。その後、処理はステップS5に進む。
In step S <b> 4, the
ステップS5において、ブロックマッチング部21は、注目ブロックについての評価値テーブルを、評価値テーブル保持部23に供給する。その後、処理はステップS6に進む。
In step S <b> 5, the
ステップS6において、評価値テーブル保持部23は、ブロックマッチング部21から供給される評価値テーブルをブロック毎に保持する。その後、処理はステップS7に進む。
In step S <b> 6, the evaluation value
ステップS7において、ブロックマッチング部21は、注目ブロックは入力画像中の最後のブロックであるか否かを判定する。
In step S7, the
注目ブロックは入力画像中の最後のブロックでない場合、ステップS7においてNOであると判定されて、処理はステップS2に戻され、それ以降の処理が繰り返される。 If the target block is not the last block in the input image, it is determined as NO in step S7, the process returns to step S2, and the subsequent processes are repeated.
即ち、入力画像を構成する各ブロック毎に、ステップS2乃至S7のループ処理が繰り返し実行される。そして、入力画像中の最後のブロックについて、ステップS6の処理で評価値テーブルが保持されると、ステップS7の処理でYESであると判定されて、処理はステップS8に進む。 That is, the loop process of steps S2 to S7 is repeatedly executed for each block constituting the input image. If the evaluation value table is held in the process of step S6 for the last block in the input image, it is determined YES in the process of step S7, and the process proceeds to step S8.
ステップS8において、全画面動き算出部22は、ブロックマッチング部21から供給される全ブロックの局所動きベクトルに対して統計処理を施すことにより、全画面動きベクトルを算出し、評価値テーブル保持部23に供給する。その後、処理はステップS9に進む。
In step S <b> 8, the full screen
ステップS9において、評価値テーブル保持部23は、入力画像中の所定のブロックを注目ブロックに設定する。その後、処理はステップS10に進む。
In step S9, the evaluation value
ステップS10において、評価値テーブル保持部23は、注目ブロックについての評価値テーブルを参照し、全画面動きベクトル先との差分を求める。そして、評価値テーブル保持部23は、求めた全画面動きベクトル先との差分を、動物体領域抽出部25に供給する。その後、処理はステップS11に進む。
In step S10, the evaluation value
ステップS11において、アクティビティ計算部24は、注目ブロックのアクティビティを計算し、動物体領域抽出部25に供給する。
In step S <b> 11, the
具体的には、例えば、アクティビティ計算部24は、注目ブロック内の画素のそれぞれに対して、隣接8画素との差分絶対値和を求め、その差分絶対値和を注目ブロック内の全画素分積算する。
Specifically, for example, the
すなわち、図5に示すように、アクティビティ計算部24は、注目ブロック内の所定の画素を注目画素に設定する。なお、図5の例では、ブロックは縦M横NのM×Nの画素から構成されるとする。
That is, as shown in FIG. 5, the
まず、アクティビティ計算部24は、例えば、注目ブロック内の第1行第1列の画素を注目画素に設定する。アクティビティ計算部24は、図5左上の点線の丸の内部に示すように、注目画素の隣接8画素、すなわち、注目画素の左上、上、右上、左、右、左下、下、右下の画素のそれぞれとの差分絶対値和を求める。次に、アクティビティ計算部24は、例えば、注目画素の右隣の画素、すなわち、第1行第2列の画素を新たな注目画素に設定し、隣接8画素との差分絶対値和を求める。以下、同様にして、注目画素(第1行第j列の画素)の右隣の画素(第1行第j+1(3≦j≦N)列の画素)を新たな注目画素に順次設定し、隣接8画素との差分絶対値和を求めていく。その後、第1行の画素に対して演算を終えると、第1行の下の行、すなわち第2行の画素に対して演算を行う。同様に、第i(2≦i≦M)行の画素に対して演算を終えると、第i行の下の行、すなわち第i+1行の画素に対して演算を行う。このようにして、アクティビティ計算部24は、注目ブロック内の全画素に対して、隣接8画素との差分絶対値和を求め、その差分絶対値和を注目ブロック内の全画素分積算する。
First, the
ステップS12において、動物体領域抽出部25は、評価値テーブル保持部23から供給される注目ブロックの全画面動きベクトル先との差分と、アクティビティ計算部24から供給される注目ブロックのアクティビティとから、注目ブロックが動物体領域か否かを判定する。
In step S12, the moving object
具体的には、動物体領域抽出部25は、評価値テーブル保持部23からの注目ブロックの全画面動きベクトル先との差分Db、及びアクティビティ計算部24から供給される注目ブロックのアクティビティAとを用いた、式(3)に示した評価式を演算する。そして、動物体領域抽出部25は、この評価式の演算値が負の場合に注目ブロックが動物体領域と判定し、この評価式の演算値が正の場合に注目ブロックが動物体領域でないと判定する。
Specifically, the moving object
ステップS13において、評価値テーブル保持部23は、注目ブロックは入力画像中の最後のブロックか否かを判定する。
In step S <b> 13, the evaluation value
注目ブロックは入力画像中の最後のブロックでない場合、ステップS13においてNOと判定されて、処理はステップS10に戻され、それ以降の処理が繰り返される。 If the target block is not the last block in the input image, it is determined as NO in step S13, the process returns to step S10, and the subsequent processes are repeated.
即ち、入力画像中の各ブロック毎に、ステップS9乃至S13のループ処理が繰り返し実行される。そして、入力画像中の最後のブロックについて、ステップS12の処理で動物体領域か否かが判定されると、ステップS13の処理でYESであると判定されて、ステップS14に進む。 That is, the loop process of steps S9 to S13 is repeatedly executed for each block in the input image. If it is determined in step S12 that the last block in the input image is a moving object region, it is determined YES in step S13, and the process proceeds to step S14.
ステップS14において、動物体領域抽出部25は、動物体領域と判定されたブロックのうちの連続しているブロックの集合のそれぞれを動物体領域として抽出する。その後、処理はステップS15に進む。
In step S <b> 14, the moving object
ステップS15において、動物体領域抽出部25は、抽出した動物体領域を特定するための情報である動物体領域情報を生成して外部に出力する。そして、抽出処理は終了となる。
In step S15, the moving object
以上のように、動物体領域抽出装置11は、大きな特徴の一つとして、動き検出時に得られる評価値テーブル上の評価値といった特徴量を動物体領域の判定に流用している。その結果、動物体領域の抽出を実現する上で、一般的な動き検出回路に対して付加すべき付加要素を回路規模・処理工数の点で共に極めて少なくすることができる。
As described above, the moving object
従って、動物体領域抽出装置11は、元々動き検出を想定したアプリケーション、例えば、トラッキング、圧縮、あるいは時空間解像度創造等といったアプリケーションと相性が非常に良いと言える。
Therefore, it can be said that the moving object
そのようなアプリケーションの一例としては、例えば、ユーザが指示した対象をトラッキングする監視カメラシステムが特開2007-272732で提案されている。 As an example of such an application, for example, a surveillance camera system that tracks an object designated by a user is proposed in Japanese Patent Laid-Open No. 2007-272732.
具体的には、この監視カメラシステムでは、動きベクトルを特徴量として、その統計処理により全画面動き等を求め、トラッキングに使用している。 Specifically, in this surveillance camera system, a motion vector is used as a feature amount, and a full screen motion or the like is obtained by statistical processing and used for tracking.
この監視カメラシステムでは、全画面動きベクトルや評価値テーブルが求められており、また、アクティビティについても、動物体領域抽出装置11が計算するアクティビティと同様のものを出力する機構が兼ね備わっている。
In this surveillance camera system, a full-screen motion vector and an evaluation value table are obtained, and a mechanism for outputting the same activity as the activity calculated by the moving object
従って、この監視カメラシステムを用いて動物体領域抽出装置11を構成する場合、監視カメラシステムからの全画面動きベクトル、評価値テーブル上の評価値、及びアクティビティといった特徴量は付加回路なく得ることができる。これらの全画面動きベクトルと評価値テーブル上の評価値から、全画面動きベクトル先との差分と、アクティビティという出力結果が得られる。そして、この出力結果を用いた式(3)の評価式の演算と、その演算値と閾値(本実施の形態では0)との比較とを行うための極めて小規模な回路を付け加えるだけで、動物体検出が可能となる。
Therefore, when the moving body
さらに、動物体検出で得られた動物体領域情報は、この監視カメラシステムによるトラッキングにとっても非常に有効な特徴量の一つとなる。 Furthermore, the moving object region information obtained by moving object detection is one of the feature quantities that are very effective for tracking by this surveillance camera system.
また、動物体領域抽出装置11は、もう一つの大きな特徴として、アクティビティを定義し、アクティビティを特徴量として動物体領域を判定している。アクティビティの計算は、極めて小規模の回路で実現できるので、動物体領域抽出装置11は、アクティビティを有効に活用することで、簡易ながらロバストな動物体領域抽出を実現できる。
In addition, the moving object
次に、図6及び7を参照して、具体的に、アクティビティを考慮することによる動物体領域の抽出結果への効果について説明する。 Next, with reference to FIGS. 6 and 7, the effect on the extraction result of the moving object region by considering the activity will be specifically described.
図6A(及び後述する図7A)は、アクティビティを考慮した場合の動物体領域抽出装置11による動物体領域の抽出結果を示している。図6B(及び後述する図7B)は、対比較としての、アクティビティを考慮しなかった場合の動物体領域抽出装置11による動物体領域の抽出結果を示している。
FIG. 6A (and FIG. 7A described later) shows the extraction result of the moving object region by the moving object
図6A及び図6Bでは、動物体領域と判定された領域が、入力画像P1に対して、縁取りされたグレー領域として重畳してある。 In FIG. 6A and FIG. 6B, the area determined as the moving object area is superimposed on the input image P1 as an edged gray area.
入力画像P1は、一般的なTV(television)映像信号の1フレームであり、パン動きが存在し、また、スケートリンクやフェンス等、平坦で動き検出が難しい領域が多々存在する画像である。それにもかかわらず、図6A、すなわち、アクティビティを考慮した場合の動動物体領域の抽出結果では、動物体領域と判定されるべき動物体であるスケータが綺麗に抽出されているのが分かる。それに対して、図7B、すなわち、アクティビティを考慮しなかった場合の動物体領域の抽出結果では、動物体領域と判定されるべき部分以外の部分、例えば、スケータの奥に位置する「Smart Ones」という文字や観客席等のディテールの細かい部分に関して、誤判定が目立つのが見てとれる。 The input image P1 is one frame of a general TV (television) video signal, and is an image in which panning motion exists and there are many flat and difficult motion detection regions such as a skating rink and a fence. Nevertheless, in FIG. 6A, that is, in the extraction result of the moving object region in consideration of the activity, it can be seen that the skater which is the moving object to be determined as the moving object region is clearly extracted. On the other hand, in FIG. 7B, that is, in the extraction result of the moving object region when the activity is not considered, a part other than the part to be determined as the moving object region, for example, “Smart Ones” located in the back of the skater. It can be seen that misjudgment is conspicuous in the details such as the letters and auditorium seats.
図7A及び図7Bでは、動物体領域と判定された領域が、入力画像P2に対して、縁取りされたグレー領域として重畳してある。 In FIG. 7A and FIG. 7B, the region determined to be a moving object region is superimposed on the input image P2 as an edged gray region.
入力画像P2は、上記TV映像信号とは別の動画像の1フレームである。入力画像P2は、動物体として検出されるべき対象物が複数存在したり、または、背景に強いディテールがあるような画像である。それにもかかわらず、図7A、すなわち、アクティビティを考慮した場合の動物体領域の抽出結果では、動物体領域と判定されるべき動物体である図中やや左中央に位置する子供と右やや上に位置する犬とが、問題なく抽出できているのが見てとれる。それに対して、図7B、すなわち、アクティビティを考慮しなかった場合の動物体領域の抽出結果では、動物体領域と判定されるべき部分だけでなく画面上の大部分が動物体領域と誤判定されてしまい、動物体領域を全く判定できていない。 The input image P2 is one frame of a moving image different from the TV video signal. The input image P2 is an image in which there are a plurality of objects to be detected as a moving object or there is a strong detail in the background. Nonetheless, in FIG. 7A, that is, the extraction result of the moving object region in consideration of the activity, the moving object region to be determined as the moving object region is slightly above the right with the child located slightly in the left center. It can be seen that the dogs located are extracted without problems. On the other hand, in FIG. 7B, that is, in the extraction result of the moving object region when the activity is not considered, not only the portion that should be determined as the moving object region but also most of the screen is erroneously determined as the moving object region. As a result, the moving object region cannot be determined at all.
以上のように、動物体領域抽出装置11は、動き検出に用いる特徴量の利用と、極めて小規模の付加回路の付加とによって、精度の高い動物体領域の抽出が実現できる。
As described above, the moving object
また、動物体領域抽出装置11は、動きベクトルの検出とその比較による従来手法にありがちな、動きベクトルの検出が難しい平坦部や繰り返しパターン部での抽出結果の破綻といった問題を生じ難くすることができる。
In addition, the moving object
さらに、動物体領域抽出装置11は、パン・チルト等の平行カメラ動きがあるような、背景が動いている動画像の場合でも問題なく動物体領域の抽出を実現できる。
Furthermore, the moving object
すなわち、動物体領域抽出装置11は、従来技術の問題点を解決し、簡易な処理・アーキテクチャでロバストな動物体領域の抽出することができる。
That is, the moving object
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 8 is a block diagram illustrating an example of a hardware configuration of a computer that executes the above-described series of processes using a program.
コンピュータにおいて、CPU41,ROM(Read Only Memory)42,RAM(Random Access Memory)43は、バス44により相互に接続されている。
In the computer, a
バス44には、さらに、入出力インタフェース45が接続されている。入出力インタフェース45には、キーボード、マウス、マイクロホンなどよりなる入力部46、ディスプレイ、スピーカなどよりなる出力部47、ハードディスクや不揮発性のメモリなどよりなる記憶部48、ネットワークインタフェースなどよりなる通信部49、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア51を駆動するドライブ50が接続されている。
An input /
以上のように構成されるコンピュータでは、CPU41が、例えば、記憶部48に記憶されているプログラムを、入出力インタフェース45及びバス44を介して、RAM43にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータ(CPU41)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD−ROM(Compact Disc−Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア51に記録して、あるいは、ローカルエリアネットワーク、インターネット、ディジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
The program executed by the computer (CPU 41) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. It is recorded on a
そして、プログラムは、リムーバブルメディア51をドライブ50に装着することにより、入出力インタフェース45を介して、記憶部48にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部49で受信し、記憶部48にインストールすることができる。その他、プログラムは、ROM42や記憶部48に、あらかじめインストールしておくことができる。
The program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
11 動物体領域抽出装置, 21 ブロックマッチング部, 22 全画面動き算出部, 23 評価値テーブル保持部, 24 アクティビティ計算部, 25 動物体領域抽出部, 41 CPU, 42 ROM, 43 RAM, 44 バス, 45 入出力インタフェース, 46 入力部, 47 出力部, 48 記憶部, 49 通信部, 50 ドライブ, 51 リムーバブルメディア 11 moving object region extracting device, 21 block matching unit, 22 full screen motion calculating unit, 23 evaluation value table holding unit, 24 activity calculating unit, 25 moving object region extracting unit, 41 CPU, 42 ROM, 43 RAM, 44 bus, 45 I / O interface, 46 input section, 47 output section, 48 storage section, 49 communication section, 50 drives, 51 removable media
Claims (8)
前記全画面動き算出手段により算出された前記全画面動きと、前記処理画面を分割することで得られるブロック内の輝度の変化の複雑度を表す指標であるアクティビティとに基づいて、前記ブロックが動物体領域か否かを判定する判定手段と
を備える情報処理装置。 A full screen motion calculating means for calculating a full screen motion representing a motion of the entire processing screen to be processed for each of a plurality of unit images constituting the moving image;
Based on the full screen motion calculated by the full screen motion calculation means and an activity that is an index representing the complexity of luminance change in the block obtained by dividing the processing screen, the block is an animal. An information processing apparatus comprising: determination means for determining whether or not the body region.
請求項1に記載の情報処理装置。 The determination means determines whether the block is a moving object region based on a difference between the block of the first unit image and a full screen motion vector destination based on the full screen motion on the second unit image. The information processing apparatus according to claim 1.
請求項2に記載の情報処理装置。 The determination means calculates a predetermined evaluation formula using a difference between the activity of the first unit image and the full-screen motion vector destination on the second unit image, and by the calculated value, The information processing apparatus according to claim 2, wherein it is determined whether or not the block is a moving object region.
前記全画面動き算出手段は、前記動き検出手段により検出された前記ブロックの動きから前記全画面動きを算出し、
前記判定手段は、前記ブロック毎の前記評価値テーブルに含まれる前記全画面動きベクトル先に対応する評価値を、前記全画面動きベクトル先との差分として用いる
請求項2に記載の情報処理装置。 For each block of the first unit image, an evaluation value for a difference from the search destination on the second unit image is calculated, and an evaluation value table in which the evaluation value is associated with the search destination is generated. Then, a search destination to be detected is detected from search destinations included in the evaluation value table based on an evaluation value included in the evaluation value table, and the detected search destination is a motion of each block. A detection means;
The full screen motion calculating means calculates the full screen motion from the motion of the block detected by the motion detecting means,
The information processing apparatus according to claim 2, wherein the determination unit uses an evaluation value corresponding to the full screen motion vector destination included in the evaluation value table for each block as a difference from the full screen motion vector destination.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the activity is an integrated value in the block of a difference sum between each pixel in the block and its adjacent pixels.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising activity calculation means for calculating the activity.
算出された前記全画面動きと、前記処理画面を分割することで得られるブロック内の輝度の変化の複雑度を表す指標であるアクティビティとに基づいて、前記ブロックが動物体領域か否かを判定する
ステップを含む情報処理方法。 For each of a plurality of unit images constituting a moving image, calculate a full screen motion representing a motion of the entire processing screen to be processed,
Based on the calculated full-screen motion and an activity that is an index representing the complexity of luminance change in the block obtained by dividing the processing screen, it is determined whether or not the block is a moving object region. An information processing method including a step.
算出された前記全画面動きと、前記処理画面を分割することで得られるブロック内の輝度の変化の複雑度を表す指標であるアクティビティとに基づいて、前記ブロックが動物体領域か否かを判定する
ステップを含む情報処理装置に制御を行うコンピュータに実行させるプログラム。 For each of a plurality of unit images constituting a moving image, calculate a full screen motion representing a motion of the entire processing screen to be processed,
Based on the calculated full-screen motion and an activity that is an index representing the complexity of luminance change in the block obtained by dividing the processing screen, it is determined whether or not the block is a moving object region. A program to be executed by a computer that controls an information processing apparatus including a step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008118394A JP2009266169A (en) | 2008-04-30 | 2008-04-30 | Information processor and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008118394A JP2009266169A (en) | 2008-04-30 | 2008-04-30 | Information processor and method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009266169A true JP2009266169A (en) | 2009-11-12 |
Family
ID=41391890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008118394A Withdrawn JP2009266169A (en) | 2008-04-30 | 2008-04-30 | Information processor and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009266169A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012113362A (en) * | 2010-11-19 | 2012-06-14 | Toshiba Corp | Image processing method, image processing apparatus, and image processing program |
RU2584332C1 (en) * | 2015-05-29 | 2016-05-20 | Федеральное государственное образовательное бюджетное учреждение высшего профессионального образования "Санкт-Петербургский государственный университет телекоммуникаций им. проф. М.А. Бонч-Бруевича" | Device for determining motion parameters of target |
WO2016151977A1 (en) * | 2015-03-26 | 2016-09-29 | パナソニックIpマネジメント株式会社 | Moving body detection device, image processing device, moving body detection method, and integrated circuit |
-
2008
- 2008-04-30 JP JP2008118394A patent/JP2009266169A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012113362A (en) * | 2010-11-19 | 2012-06-14 | Toshiba Corp | Image processing method, image processing apparatus, and image processing program |
US8682060B2 (en) | 2010-11-19 | 2014-03-25 | Kabushiki Kaisha Toshiba | Image processing method, apparatus, and computer program product |
WO2016151977A1 (en) * | 2015-03-26 | 2016-09-29 | パナソニックIpマネジメント株式会社 | Moving body detection device, image processing device, moving body detection method, and integrated circuit |
JPWO2016151977A1 (en) * | 2015-03-26 | 2017-09-07 | パナソニックIpマネジメント株式会社 | MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT |
RU2584332C1 (en) * | 2015-05-29 | 2016-05-20 | Федеральное государственное образовательное бюджетное учреждение высшего профессионального образования "Санкт-Петербургский государственный университет телекоммуникаций им. проф. М.А. Бонч-Бруевича" | Device for determining motion parameters of target |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8605946B2 (en) | Moving object detection apparatus and moving object detection method | |
JP5272886B2 (en) | Moving object detection apparatus, moving object detection method, and computer program | |
US9773192B2 (en) | Fast template-based tracking | |
US8467575B2 (en) | Moving-object detection apparatus, moving-object detection method and moving-object detection program | |
US20110311100A1 (en) | Method, Apparatus and Computer Program Product for Providing Object Tracking Using Template Switching and Feature Adaptation | |
US11070729B2 (en) | Image processing apparatus capable of detecting moving objects, control method thereof, and image capture apparatus | |
JP2010079655A (en) | Image processing apparatus, image processing method, image pickup device, and program | |
CN110782433B (en) | Dynamic information violent parabolic detection method and device based on time sequence and storage medium | |
KR20180054808A (en) | Motion detection within images | |
EP1542152A1 (en) | Object detection | |
US20070274402A1 (en) | Application of short term and long term background scene dynamics in motion detection | |
JP2010114597A (en) | Motion vector detection apparatus, motion vector processing method and program | |
JP6511950B2 (en) | Image processing apparatus, image processing method and program | |
US8155386B2 (en) | Method and apparatus for obtaining depth information | |
JP2014110020A (en) | Image processor, image processing method and image processing program | |
JP2009266169A (en) | Information processor and method, and program | |
JP2009260671A (en) | Image processing apparatus and imaging device | |
KR20070094740A (en) | Learning device, learning method, and learning program | |
US20060114994A1 (en) | Noise reduction in a digital video | |
JP4525064B2 (en) | Motion vector detection apparatus, motion vector detection method, and computer program | |
JP2006215655A (en) | Method, apparatus, program and program storage medium for detecting motion vector | |
JP4622265B2 (en) | Motion vector detection device, motion vector detection method, and program | |
JP5241687B2 (en) | Object detection apparatus and object detection program | |
US20210090223A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2006215657A (en) | Method, apparatus, program and program storage medium for detecting motion vector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110705 |