JP5848665B2 - Moving object motion vector detection apparatus, moving object motion vector detection method, and program - Google Patents
Moving object motion vector detection apparatus, moving object motion vector detection method, and program Download PDFInfo
- Publication number
- JP5848665B2 JP5848665B2 JP2012111483A JP2012111483A JP5848665B2 JP 5848665 B2 JP5848665 B2 JP 5848665B2 JP 2012111483 A JP2012111483 A JP 2012111483A JP 2012111483 A JP2012111483 A JP 2012111483A JP 5848665 B2 JP5848665 B2 JP 5848665B2
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- moving object
- clustering
- distribution
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、実空間を移動する物体を含むシーンを撮像するカメラによって入力された少なくとも2枚以上のフレーム画像から動きベクトルを検出し、当該動きベクトルから移動物体数と移動物体上の動きベクトルを検出する移動物体上動きベクトル検出装置、移動物体上動きベクトル検出方法、およびプログラムに関する。 The present invention detects a motion vector from at least two frame images input by a camera that captures a scene including an object moving in real space, and determines the number of moving objects and the motion vector on the moving object from the motion vectors. The present invention relates to a moving object motion vector detection apparatus, a moving object motion vector detection method, and a program.
実空間を移動する物体を含むシーンを撮像するカメラによって入力された少なくとも2枚以上のフレーム画像から動きベクトルを検出し、検出した動きベクトルから移動物体上の動きベクトルを検出する移動物体上動きベクトル検出装置がある。この移動物体上動きベクトル検出装置では、検出した動きベクトルを用いて、例えば歩行者や車の逆向を検出することなどを可能にしている。 A motion vector on a moving object that detects a motion vector from at least two frame images input by a camera that captures a scene including an object moving in real space, and detects a motion vector on the moving object from the detected motion vector There is a detection device. In this moving object motion vector detection device, it is possible to detect, for example, the reverse direction of a pedestrian or a car using the detected motion vector.
例えば非特許文献1には、移動物体上動きベクトル検出装置が、1枚以上のフレーム画像から、テンプレートマッチングや時空間微分法を用いて動きベクトルを算出し、算出した動きベクトルをそれらの類似性によりクラスタリングすることで移動物体を検出する方法について記載されている。
For example, in Non-Patent
しかしながらこの方法では動きベクトルが正しいものとして移動物体を検出するため、動きベクトルに誤検出ベクトルが含まれる場合、正しく移動物体を検出できないといった問題があった。そこで、例えば非特許文献2には、動きベクトルから誤検出ベクトルを検出・除去し、残存する誤検出ベクトルと移動物体上の動きベクトルをガウス混合分布と見做して分離することで、算出した動きベクトルに誤検出ベクトルが含まれる場合においても正確に移動物体上の動きベクトルを検出する方法について記載されている。
However, since this method detects a moving object with a correct motion vector, there is a problem in that a moving object cannot be detected correctly if a false detection vector is included in the motion vector. Therefore, for example, in Non-Patent
上述した非特許文献2などの従来の方法では、移動物体数を既知とし、動きベクトルから算出した特徴量の分布を、その移動物体数分のガウス分布が混合されたガウス混合分布と見做して分離する。そのため、移動物体数が未知の場合には移動物体上動きベクトルを検出できない、もしくは実世界の移動物体数と既知として設定した移動物体数が異なることに起因して移動物体上動きベクトルの検出に誤るが生じる、といった問題があった。
In the conventional method such as Non-Patent
本発明は、上述したような従来技術が有する問題点に鑑みてなされたものであり、移動物体の画像が含まれる複数のフレーム画像から、画像として含まれる移動物体数が未知の場合でも正確に移動物体上の動きベクトル及び移動物体数を検出する移動物体上動きベクトル検出装置、移動物体上動きベクトル検出方法、およびプログラムを提供する。 The present invention has been made in view of the problems of the prior art as described above, and is accurate even when the number of moving objects included as an image is unknown from a plurality of frame images including moving object images. A moving object motion vector detection apparatus, a moving object motion vector detection method, and a program for detecting a motion vector and the number of moving objects on a moving object are provided.
上述した課題を解決するために、本発明は、少なくとも2枚のフレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、前記フレーム画像のうち最新時刻のフレーム画像とを出力する動きベクトル検出部と、前記動きベクトル検出部から出力された前記動きベクトルと前記最新時刻のフレーム画像の入力を受け、前記最新時刻のフレーム画像における前記動きベクトルの特徴量を算出し、前記動きベクトルの識別情報と当該動きベクトルについて算出された前記特徴量とを関連付けた特徴量リストを作成する特徴量算出部と、クラスタリング数を変えながら、前記特徴量算出部により作成された前記特徴量リストが示す前記動きベクトルを前記特徴量に基づいてクラスタリングするとともにクラスタリングの結果の良し悪しを表す情報量基準値を算出し、算出した前記情報量基準値が最もよいときの前記動きベクトルのクラスタリングの結果に基づいて移動物体上動きベクトル及びクラスタ数を決定する動きベクトルクラスタリング部と、を備え、前記動きベクトルクラスタリング部は、前記特徴量リストで示される前記動きベクトルの前記特徴量の分布をガウス混合分布と見做し、前記クラスタリング数を変えながら、当該ガウス混合分布を前記クラスタリング数のガウス分布に分離するとともに、前記特徴量の分布に対するガウス混合分布の当てはめの良し悪しを表す情報量基準値を算出し、算出した前記情報量基準値が最もよいときの分離の結果得られた前記ガウス分布それぞれについて、前記ガウス分布が移動物体上の動きベクトルのクラスタであるか否かをガウス分布パラメータに基づいて判定し、移動物体上の動きベクトルのクラスタであると判定された前記ガウス分布の数をクラスタ数として決定するとともに、特定した前記ガウス分布に分離された前記動きベクトルを移動物体上動きベクトルとして決定する、ことを特徴とする移動物体上動きベクトル検出装置である。 In order to solve the above-described problem, the present invention calculates a motion vector of a feature point from at least two frame images, and outputs the calculated motion vector and a frame image of the latest time among the frame images. A motion vector detecting unit; receiving the motion vector output from the motion vector detecting unit and the frame image at the latest time; calculating a feature quantity of the motion vector in the frame image at the latest time; A feature quantity calculation unit that creates a feature quantity list that associates the identification information of the motion vector and the feature quantity calculated for the motion vector, and the feature quantity list that is created by the feature quantity calculation unit while changing the number of clusters. The motion vectors to be displayed are clustered based on the feature amount and the clustering result is good A motion vector clustering unit that calculates an information amount reference value representing badness, and determines a motion vector on the moving object and the number of clusters based on a result of clustering the motion vector when the calculated information amount reference value is the best; The motion vector clustering unit regards the distribution of the feature quantity of the motion vector indicated by the feature quantity list as a Gaussian mixture distribution, and changes the clustering number while changing the clustering number to the clustering number. Obtained as a result of the separation when the calculated information reference value is the best, and the information reference value representing the fit of the Gaussian mixture distribution to the feature value distribution is calculated. For each of the Gaussian distributions, the Gaussian distribution is a cluster of motion vectors on a moving object. Is determined based on a Gaussian distribution parameter, the number of Gaussian distributions determined to be a cluster of motion vectors on a moving object is determined as the number of clusters, and the Gaussian distribution separated into the specified Gaussian distribution is determined. A moving object motion vector detection apparatus characterized by determining a motion vector as a moving object motion vector.
また、本発明は、上述した移動物体上動きベクトル検出装置であって、前記特徴量は、前記動きベクトルの角度、前記動きベクトルの両端の輝度差、あるいは、前記動きベクトルの片端点の輝度であることを特徴とする。 Further, the present invention is the above-described moving object motion vector detection apparatus, wherein the feature amount is an angle of the motion vector, a luminance difference between both ends of the motion vector, or a luminance of one end point of the motion vector. It is characterized by being.
また、本発明は、移動物体上動きベクトル検出装置が実行する移動物体上動きベクトル検出方法であって、動きベクトル検出部が、少なくとも2枚のフレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、前記フレーム画像のうち最新時刻のフレーム画像とを出力する動きベクトル検出過程と、特徴量算出部が、前記動きベクトル検出過程において出力された前記動きベクトルと前記最新時刻のフレーム画像の入力を受け、前記最新時刻のフレーム画像における前記動きベクトルの特徴量を算出し、前記動きベクトルの識別情報と当該動きベクトルについて算出された前記特徴量とを関連付けた特徴量リストを作成する特徴量算出過程と、動きベクトルクラスタリング部が、クラスタリング数を変えながら、前記特徴量算出過程において作成された前記特徴量リストが示す前記動きベクトルを前記特徴量に基づいてクラスタリングするとともにクラスタリングの結果の良し悪しを表す情報量基準値を算出し、算出した前記情報量基準値が最もよいときの前記動きベクトルのクラスタリングの結果に基づいて移動物体上動きベクトル及びクラスタ数を決定する動きベクトルクラスタリング過程と、を有し、前記動きベクトルクラスタリング過程においては、前記特徴量リストで示される前記動きベクトルの前記特徴量の分布をガウス混合分布と見做し、前記クラスタリング数を変えながら、当該ガウス混合分布を前記クラスタリング数のガウス分布に分離するとともに、前記特徴量の分布に対するガウス混合分布の当てはめの良し悪しを表す情報量基準値を算出し、算出した前記情報量基準値が最もよいときの分離の結果得られた前記ガウス分布それぞれについて、前記ガウス分布が移動物体上の動きベクトルのクラスタであるか否かをガウス分布パラメータに基づいて判定し、移動物体上の動きベクトルのクラスタであると判定された前記ガウス分布の数をクラスタ数として決定するとともに、特定した前記ガウス分布に分離された前記動きベクトルを移動物体上動きベクトルとして決定する、ことを特徴とする移動物体上動きベクトル検出方法である。
The present invention is also a moving object motion vector detection method executed by the moving object motion vector detection device, wherein the motion vector detection unit calculates a motion vector of a feature point from at least two frame images. A motion vector detection process for outputting the motion vector and a frame image at the latest time of the frame images, and a feature amount calculation unit that outputs the motion vector and the frame at the latest time output in the motion vector detection process. Upon receiving an image input, the feature amount of the motion vector in the frame image at the latest time is calculated, and a feature amount list in which the motion vector identification information and the feature amount calculated for the motion vector are associated is created. The feature quantity calculation process and the motion vector clustering unit change the clustering number while changing the feature number. Clustering the motion vectors indicated by the feature quantity list created in the quantity calculation process based on the feature quantities, calculating an information quantity reference value indicating whether the result of clustering is good or bad, and calculating the information quantity reference value possess a motion vector clustering process of determining the number of moving objects on the motion vectors and clusters based on the result of the clustering of the motion vector of the best case, a, in the motion vector clustering process, represented by the feature list The distribution of the feature quantity of the motion vector is regarded as a Gaussian mixture distribution, the Gaussian mixture distribution is separated into the Gaussian distribution of the clustering number while changing the clustering number, and the Gaussian mixture distribution with respect to the distribution of the feature quantity Information amount standard value indicating good / bad fit For each of the Gaussian distributions obtained as a result of separation when the calculated information amount reference value is the best, whether or not the Gaussian distribution is a cluster of motion vectors on a moving object based on a Gaussian distribution parameter The number of Gaussian distributions determined to be a cluster of motion vectors on the moving object is determined as the number of clusters, and the motion vector separated into the specified Gaussian distribution is determined as the motion vector on the moving object. This is a method for detecting a motion vector on a moving object.
また、本発明は、コンピュータを、上述した移動物体上動きベクトル検出装置の各部として機能させるプログラムである。 The present invention is a program that causes a computer to function as each unit of the above-described moving object motion vector detection apparatus.
本発明によれば、移動物体の画像が含まれる複数のフレーム画像から、画像として含まれる移動物体数が未知の場合でも正確に移動物体上の動きベクトル及び移動物体数を検出することができる。 According to the present invention, it is possible to accurately detect a motion vector and the number of moving objects on a moving object from a plurality of frame images including an image of the moving object even when the number of moving objects included as an image is unknown.
以下、図面を参照して、本発明の一実施形態による移動物体上動きベクトル検出装置を説明する。 A moving object motion vector detection apparatus according to an embodiment of the present invention will be described below with reference to the drawings.
図1は、本発明の一実施形態による移動物体上動きベクトル検出装置の構成を示すブロック図であり、本実施形態と関係する機能ブロックのみを抽出して示してある。同図に示す移動物体上動きベクトル検出装置1は、例えばコンピュータ装置により実現することができ、動きベクトル検出部11、特徴量算出部12、動きベクトルクラスタリング部13、及び記憶部14を備えて構成される。なお、本実施形態における「移動物体」とは、人や物などの任意の移動する被写体を含む。
FIG. 1 is a block diagram showing the configuration of a moving object motion vector detection apparatus according to an embodiment of the present invention, and shows only functional blocks related to the present embodiment. The moving object motion
動きベクトル検出部11は、カメラなどから実空間を移動する移動物体を含むシーンを撮像した少なくとも2枚以上のフレーム画像の入力を受ける。動きベクトル検出部11は、入力されたフレーム画像のうち、最新時刻のフレーム画像から画像上の角や交点となる特徴点を抽出し、抽出した特徴点に対する動きベクトルを少なくとも2枚以上のフレーム画像からテンプレートマッチングや時空間微分法を用いて算出する。動きベクトル検出部11は、算出した動きベクトルを最新時刻のフレーム画像と共に特徴量算出部12に出力する。
The motion vector detection unit 11 receives input of at least two or more frame images obtained by capturing a scene including a moving object moving in real space from a camera or the like. The motion vector detection unit 11 extracts, from the input frame image, feature points that are corners or intersections on the image from the frame image at the latest time, and at least two or more frame images are used as motion vectors for the extracted feature points. From the above, it is calculated using template matching or spatiotemporal differentiation. The motion vector detection unit 11 outputs the calculated motion vector to the feature
特徴量算出部12は、動きベクトル検出部11から出力された動きベクトル及び最新時刻のフレーム画像の入力を受け、全ての動きベクトルに亘って最新時刻のフレーム画像から特徴量を算出する。特徴量算出部12は、各動きベクトルに唯一付与された動きベクトルIDと当該動きベクトルについて算出した特徴量とを関連付けた特徴量リストを作成し、作成した特徴量リストを動きベクトルクラスタリング部13に出力する。
The feature
動きベクトルクラスタリング部13は、特徴量算出部12から特徴量リストの入力を受け、クラスタリング数を変更しながら、入力された特徴量リストで示される動きベクトルを特徴量に基づいてクラスタリングする処理を複数回行い、モデル当て嵌めの良し悪しを評価する値である情報量を算出する。具体的には、動きベクトルクラスタリング部13は、特徴量の分布をガウス混合分布と見做し、クラスタリング数を変えながら、当該ガウス混合分布をクラスタリング数のガウス分布に分離(クラスタリング)する。このクラスタリングの処理には、例えばEM(Expectation Maximization)アルゴリズムが適用され、クラスタリング処理によって各クラスタに関連付けられたガウス分布パラメータが出力される。動きベクトルクラスタリング部13は、算出された情報量を用いて最適なクラスタリング数を決定すると、決定したクラスタリング数によるクラスタリング処理において出力されたクラスタそれぞれのガウス分布パラメータに対して閾値処理を行い、移動物体数と移動物体上動きベクトルを決定して出力する。
The motion
記憶部14は、移動物体上動きベクトル検出装置1の各処理に用いるデータを適宜格納する。
The
次に、図1に示す移動物体上動きベクトル検出装置1で実行される詳細な処理を説明する。始めに、図4、図5を参照して、動きベクトル検出部11の処理動作を説明する。
Next, detailed processing executed by the moving object motion
図4、図5は、移動物体上動きベクトル検出装置1に入力されるフレーム画像の例である。図5は、現在時刻の実空間をカメラで撮像したフレーム画像F(t)を示しており、図4は現在時刻から1時刻前に同じ実空間を撮像したフレーム画像F(t−1)を示している。
FIGS. 4 and 5 are examples of frame images input to the moving object motion
フレーム画像が移動物体上動きベクトル検出装置1に入力されると、最初に動きベクトル検出部11が起動される。動きベクトル検出部11は、以下の動きベクトル算出処理を実行する。
When a frame image is input to the moving object motion
まず、動きベクトル検出部11は、最新時刻のフレーム画像であるフレーム画像F(t)から画像上の角や交点となる特徴点を抽出し、抽出した特徴点に対する動きベクトルをフレーム画像F(t)とフレーム画像F(t−1)を用いて算出する。ここで動きベクトルの算出処理は、例えばフレーム画像F(t−1)に対するテンプレートマッチング処理により行われる。すなわち、動きベクトル検出部11は、フレーム画像F(t)で抽出済みの特徴点近傍の画像データ、例えば特徴点の8近傍内の画像データと、フレーム画像F(t−1)の画像データを比較することで、フレーム画像F(t−1)においてフレーム画像F(t)上の処理対象の特徴点に対応する点の画像座標を決定する。動きベクトル検出部11は、決定した画像座標とフレーム画像F(t)上の処理対象の特徴点の画像座標を動きベクトルとして決定する。この処理をフレーム画像F(t)で抽出した全ての特徴点に亘って行う。最後に、動きベクトル検出部11は、決定した動きベクトルをフレーム画像F(t)と共に動きベクトル検出部11に出力する。 First, the motion vector detection unit 11 extracts feature points that are corners or intersections on the image from the frame image F (t) that is the frame image at the latest time, and the motion vector for the extracted feature points is extracted from the frame image F (t ) And the frame image F (t−1). Here, the motion vector calculation processing is performed by, for example, template matching processing for the frame image F (t−1). That is, the motion vector detection unit 11 obtains image data in the vicinity of feature points that have been extracted from the frame image F (t), for example, image data in the vicinity of 8 feature points and image data of the frame image F (t−1). By comparing, the image coordinates of the point corresponding to the feature point to be processed on the frame image F (t) in the frame image F (t−1) are determined. The motion vector detection unit 11 determines the determined image coordinates and the image coordinates of the feature point to be processed on the frame image F (t) as a motion vector. This process is performed over all feature points extracted from the frame image F (t). Finally, the motion vector detection unit 11 outputs the determined motion vector together with the frame image F (t) to the motion vector detection unit 11.
図6は、動きベクトル検出部11が結果決定した動きベクトルの例を示す図である。本実施形態では、上述した動きベクトル算出処理の結果、動きベクトル検出部11により、同図に示す動きベクトルが算出されたものとして以降の処理を説明する。なお、動きベクトル検出部11が決定した動きベクトルの数をPとする。 FIG. 6 is a diagram illustrating an example of a motion vector determined as a result by the motion vector detection unit 11. In the present embodiment, the subsequent processing will be described on the assumption that the motion vector detection unit 11 has calculated the motion vector shown in FIG. Note that the number of motion vectors determined by the motion vector detection unit 11 is P.
上述した動きベクトル検出部11による動きベクトル算出処理の後、続いて、特徴量算出部12が起動される。
After the motion vector calculation process by the motion vector detection unit 11 described above, the feature
図2は、特徴量算出部12の処理フローを示す図である。本実施形態では特徴量として動きベクトルの角度を用いるものとして以降説明するが、動きベクトルの両端の輝度差や片端点の輝度そのものなど別の特徴量を用いても良い。なお、この処理は非特許文献2に記載の方法と同様である。
FIG. 2 is a diagram illustrating a processing flow of the feature
まず、特徴量算出部12に、動きベクトル検出部11から動きベクトルが入力される(ステップS11)。特徴量算出部12は、入力された全ての動きベクトルについてステップS13以降が処理済みであるか否かを判定する(ステップS12)。
First, a motion vector is input from the motion vector detection unit 11 to the feature amount calculation unit 12 (step S11). The feature
特徴量算出部12は、未処理の動きベクトルがあると判定した場合(ステップS12:NO)、未処理の動きベクトルを1つ選択し、画像上における動きベクトルの角度を算出する(ステップS13)。例えば、動きベクトルの始点座標が(Xs,Ys)、終点座標が(Xe,Ye)である場合、角度θ(ラジアン)は、tan−1((Ys−Ye)/(Xs−Xe))により算出される。なお、角度θは、孤度法に限らず、度数法など他の単位により表してもよく、θ1=sinθ、θ2=cosθのように2つのサブパラメータにより表してもよい。
When it is determined that there is an unprocessed motion vector (step S12: NO), the feature
特徴量算出部12は、選択した動きベクトルに唯一付与された動きベクトルIDと関連付けて、この選択した動きベクトルについて算出した角度θを示す角度パラメータを、記憶部14に記録されている特徴量リストに追加して書き込む(ステップS14)。特徴量算出部12は、ステップS12からの処理を繰り返す。
The feature
特徴量算出部12は、全ての動きベクトルについて処理を行ったと判定すると(ステップS12:YES)、記憶部14に記憶されている特徴量リストを動きベクトルクラスタリング部13に出力し(ステップS15)、処理を終了する。
When it is determined that the processing has been performed for all the motion vectors (step S12: YES), the feature
図7は、特徴量リストの例を示す図である。本実施形態では、図2の処理により、同図に示すような動きベクトルIDに関連付けて動きベクトルの角度パラメータが記録された特徴量リストが作成されたものとして、以降の処理説明する。この特徴量リストに動きベクトルIDで記録されている動きベクトルには、移動物体上の動きベクトルに加えて、物体が他の物体によって隠蔽されるオクルージョンや、他の原因によって生じる誤って検出された動きベクトルも含まれる。 FIG. 7 is a diagram illustrating an example of the feature amount list. In the present embodiment, the following processing will be described on the assumption that the feature quantity list in which the angle parameter of the motion vector is recorded in association with the motion vector ID as shown in FIG. In the motion vector recorded with the motion vector ID in this feature quantity list, in addition to the motion vector on the moving object, occlusion in which the object is concealed by another object or an error caused by another cause is detected. Motion vectors are also included.
図2に示す特徴量算出部12の処理に続いて、動きベクトルクラスタリング部13が起動される。
Following the processing of the feature
図3は、動きベクトルクラスタリング部13の処理フローを示す図である。
まず、動きベクトルクラスタリング部13に、特徴量算出部12から出力された特徴量リストが入力される(ステップS21)。動きベクトルクラスタリング部13は、繰り返し処理回数を示すN(Nは2以上の整数)が、繰り返し処理の最大回数を示すNmax以下か否かを判定する(ステップS22)。動きベクトルクラスタリング部13は、NがNmax以下であると判定した場合(ステップS22:YES)、特徴量リストで示される動きベクトルIDを角度パラメータに基づいてEMアルゴリズムによりN個にクラスタリングする(ステップS23)。
FIG. 3 is a diagram illustrating a processing flow of the motion
First, the feature amount list output from the feature
図8は、特徴量リストで示される動きベクトルの角度のヒストグラム分布を示す。
本実施形態では、動きベクトルの角度のヒストグラム分布を複数のガウス分布(「正規分布」と同じ。)の合成であるガウス混合分布でモデル化表現し、動きベクトルクラスタリング部13は、各ピークのパラメータをEMアルゴリズムなどの処理を行って決定する。これにより、動きベクトルクラスタリング部13は、特徴量リストで示される動きベクトルを、移動物体上の動きベクトル、オクルージョンに起因する誤った動きベクトル、他の原因に起因する誤った動きベクトルのそれぞれにクラスタリングする。
FIG. 8 shows a histogram distribution of the angles of the motion vectors shown in the feature quantity list.
In the present embodiment, the histogram distribution of the angle of the motion vector is modeled and expressed by a Gaussian mixture distribution that is a combination of a plurality of Gaussian distributions (same as the “normal distribution”), and the motion
EMアルゴリズムの詳細については一般に知られているため本明細書では説明を省略する。なお、EMアルゴリズムは、確率モデル(本実施形態では正規分布曲線)のパラメータを反復法により数値解析的に最尤推定するアルゴリズムであり、特に確率モデルが観測できない隠れたパラメータに依存する場合に用いられる。EMアルゴリズムは他の推定手法と比べて良い解に収束し易く、また実装が簡単になることが多く処理速度も基本的に高速であるため有効である。 Since details of the EM algorithm are generally known, the description thereof is omitted in this specification. Note that the EM algorithm is an algorithm that estimates the maximum likelihood of the parameters of a probability model (normal distribution curve in this embodiment) numerically by an iterative method, and is used particularly when the probability model depends on hidden parameters that cannot be observed. It is done. The EM algorithm is effective because it easily converges to a good solution compared to other estimation methods, is often simple to implement, and the processing speed is basically high.
図9は、図8の角度分布に対してEMアルゴリズムを適用して正規分布曲線を推定した結果の例を示す。同図においては、N=4の場合の例を示しており、4つのクラスタC1〜C4それぞれに対応した正規分布曲線D1〜D4が推定されている。なお、本実施形態では正規分布曲線を推定する際にEMアルゴリズムを用いているが、他のアルゴリズムを用いることも当然可能である。特徴量リストを入力としてEMアルゴリズムを実行することによって動きベクトルIDがクラスタリングされ、各動きベクトルIDに関連付けられて、その動きベクトルIDが属するクラスタのクラスタ番号が付与される。加えて、各クラスタに関連付けられたガウス分布パラメータがクラスタ数分出力される。ガウス分布パラメータには、少なくともガウス分布の中心位置を示す平均値、ガウス分布の広がりを示す分散値が含まれるが、ガウス混合分布に対する当該ガウス分布の重みを示す重み値も含まれ得る。 FIG. 9 shows an example of a result of estimating a normal distribution curve by applying the EM algorithm to the angular distribution of FIG. In the figure, an example in the case of N = 4 is shown, and normal distribution curves D 1 to D 4 corresponding to the four clusters C 1 to C 4 are estimated. In this embodiment, the EM algorithm is used to estimate the normal distribution curve, but other algorithms can naturally be used. The motion vector ID is clustered by executing the EM algorithm with the feature quantity list as input, and the cluster number of the cluster to which the motion vector ID belongs is assigned in association with each motion vector ID. In addition, Gaussian distribution parameters associated with each cluster are output for the number of clusters. The Gaussian distribution parameter includes at least an average value indicating the center position of the Gaussian distribution and a variance value indicating the spread of the Gaussian distribution, but may also include a weight value indicating the weight of the Gaussian distribution with respect to the Gaussian mixture distribution.
次に、動きベクトルクラスタリング部13は、EMアルゴリズムの出力の1つである最大尤度を使って情報量基準値ICを算出する(ステップS24)。ここで情報量基準とは統計学においてモデルの当てはまりの良さを表す量であり、本実施形態の場合、特徴量リストが示す動きベクトルの角度のヒストグラム分布に対するガウス混合分布の当てはめの良し悪しを示す。この情報量基準で算出される値を情報量基準値ICと呼ぶ。動きベクトルクラスタリング部13は、例えば次式(1−1)又は次式(1−2)により情報量基準値ICを算出する。
Next, the motion
IC = −2ln(L)+2k …式(1−1)
IC = −2ln(L)+k・ln(n) …式(1−2)
IC = -2ln (L) + 2k ... Formula (1-1)
IC = -2ln (L) + k * ln (n) ... Formula (1-2)
式(1−1)及び式(1−2)において、LはEMアルゴリズムにおいて得られた最大尤度であり、kは自由パラメータ数である。自由パラメータ数kは、ガウス混合分布の場合、k=N×{M+M×(M+1)/2+1}となる。ここでMはデータの次元数である。非特許文献2の記載と同様に、特徴量として動きベクトルの角度を2つのサブパラメータθ1、θ2で表現した場合、M=2となり、自由パラメータ数k=N{2+2×3/2+1}=6Nとなる。また、式(1−2)において、nはデータの個数であり、本実施形態の場合、動きベクトルの数Pとなる。
In Expressions (1-1) and (1-2), L is the maximum likelihood obtained in the EM algorithm, and k is the number of free parameters. In the case of a Gaussian mixture distribution, the number k of free parameters is k = N × {M + M × (M + 1) / 2 + 1}. Here, M is the number of dimensions of data. Similar to the description in
なお、式(1−1)は赤池情報基準量(AIC)、式(1−2)はベイズ情報基準量(BIC)である。なお、他の情報量基準としてブートストラップ基準量(EIC)やMDL(minimum description length)基準量等あるが、本実施形態ではいずれを用いても良い。 Equation (1-1) is the Akaike information reference amount (AIC), and Equation (1-2) is the Bayes information reference amount (BIC). In addition, although there exist bootstrap reference | standard quantity (EIC), MDL (minimum description length) reference | standard quantity etc. as another information amount reference | standard, any may be used in this embodiment.
次に、動きベクトルクラスタリング部13は、情報量基準値ICが、最良情報量基準値ICoptより良いかどうか判定する(ステップS25)。式(1−1)又は式(1−2)の情報量基準値ICを用いる場合、小さい値の方が良いことを示すため、動きベクトルクラスタリング部13は、情報量基準値ICが最良情報量基準値ICoptより小さいかどうかを判定する。なお最良情報量基準値ICoptの初期値には、999999.9など十分大きな値が設定されているものとする。
Next, the motion
情報量基準値ICが最良情報量基準値ICoptより良いと判定した場合(ステップS25:YES)、動きベクトルクラスタリング部13は、現在の最良情報量基準値ICoptを情報量基準値ICで置換え、記憶部14に記録する(ステップS26)。併せて、動きベクトルクラスタリング部13は、クラスタC1〜クラスタCNに関連付けられて出力されるガウス分布パラメータ値や、特徴量リストに記録されている各動きベクトルIDに関連付けられたクラスタ番号も記憶部14に記録する(ステップS27)。なお、すでにガウス分布パラメータ値や、動きベクトルIDに関連付けられたクラスタ番号が記憶部14に記録さている場合、動きベクトルクラスタリング部13は、上書して記録する。
When it is determined that the information amount reference value IC is better than the best information amount reference value ICopt (step S25: YES), the motion
ステップS27の処理の後、あるいは、ステップS25において情報量基準値ICが最良情報量基準値ICoptよりも良くないと判定した場合(ステップS25:NO)、動きベクトルクラスタリング部13は、Nを1つインクリメントする(ステップS28)。インクリメント後、動きベクトルクラスタリング部13は、Nが繰り返し処理の最大回数を示すNmax以下かどうかを判定するステップS22の処理へと戻る。
After the process of step S27, or when it is determined in step S25 that the information amount reference value IC is not better than the best information amount reference value ICopt (step S25: NO), the motion
動きベクトルクラスタリング部13は、Nが繰り返し処理の最大回数を示すNmaxを超えたと判定した場合(ステップS22:NO)、その時点で記憶部14に記録されている各クラスタのガウス分布パラメータ値を読み出す。動きベクトルクラスタリング部13は、読み出したガウス分布パラメータに対する閾値処理によって、所定の閾値を超えるクラスタのクラスタ番号を特定するともに、その所定の閾値を超えるクラスタのクラスタ数を決定する。この閾値処理は、例えば、ガウス分布パラメータの分散値を所定の値(閾値)と比較することで実現できる。あるいは、閾値処理は、混合分布の重み値を所定の値(閾値)と比較することによっても実現できる。ガウス分布パラメータが所定の閾値を超えるクラスタは、移動物体上動きベクトルのクラスタであり、所定の閾値を超えないクラスタは、例えば、オクルージョンに起因する誤った動きベクトルのクラスタ、他の原因に起因する誤った動きベクトルのクラスタなどである。
When the motion
最後に、動きベクトルクラスタリング部13は、ガウス分布パラメータが所定の閾値を超えたと判断されたクラスタの数を移動物体数として出力する。さらに、動きベクトルクラスタリング部13は、ガウス分布パラメータが所定の閾値を超えたと判断されたクラスタのクラスタ番号に関連付けられた動きベクトルIDを特徴量リストから読み出し、読み出した動きベクトルIDを移動物体上動きベクトルとして出力し、処理を終える(ステップS29)。この出力としては、特徴量算出部12が特徴量リストを生成する時点で、動きベクトルIDに関連付けて動きベクトルの始点、終点も動きベクトルの角度と併せて記憶部14に記録しておき、動きベクトルクラスタリング部13は、移動物体上動きベクトルとして特定された動きベクトルIDに関連付けられた動きベクトルの始点、終点を出力しても良い。
Finally, the motion
図10は、以上の処理の結果、動きベクトルクラスタリング部13が検出した移動物体上動きベクトルを示す図である。同図においては、移動物体Aと移動物体Bの2つの移動物体上動きベクトルが示されている。移動物体Aの3つの移動物体上動きベクトルは1つのクラスタから得られ、移動物体Bの3つの移動物体上動きベクトルは、移動物体Aとは別の1つのクラスタから得られる。
FIG. 10 is a diagram illustrating a motion vector on a moving object detected by the motion
上記実施形態によれば、移動物体上動きベクトル検出装置1は、動きベクトルの特徴量から算出した特徴量の分布をガウス混合分布と見做し、当該ガウス混合分布をガウス分布に分離(クラスタリング)する処理を、分離数(クラスタリング数)を変化させながら複数回繰返し、モデル当て嵌めの良し悪しを評価する情報量を用いて最適な分離数を決定する。移動物体上動きベクトル検出装置1は、最適な分離数の時のガウス混合分布分離結果を用いて、移動物体数及び移動物体上動きベクトルを決定するため、正確に移動物体上の動きベクトルを検出することができる。
According to the above-described embodiment, the moving object motion
上述した移動物体上動きベクトル検出装置1は、内部にコンピュータシステムを有している。そして、本実施形態の移動物体上動きベクトル検出装置1の動きベクトル検出部11、特徴量算出部12、及び動きベクトルクラスタリング部13の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。なお、ここでいう「コンピュータシステム」とは、CPU及び各種メモリやOSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
The above-described moving object motion
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
以上、本発明を実施形態例に基づき具体的に説明したが、上記実施の形態の説明は、本発明を説明するためのものであって、特許請求の範囲に記載の発明を限定し、或は範囲を減縮する様に解すべきではない。
また、本発明の各手段構成は上記実施の形態に限らず、特許請求の範囲に記載の技術的範囲内で種々の変形が可能であることは勿論である。
Although the present invention has been specifically described above based on the embodiments, the description of the above embodiments is for explaining the present invention, and limits the invention described in the claims. Should not be construed as reducing the range.
Moreover, each means structure of this invention is not restricted to the said embodiment, Of course, a various deformation | transformation is possible within the technical scope as described in a claim.
1 移動物体上動きベクトル検出装置
11 動きベクトル検出部
12 特徴量算出部
13 動きベクトルクラスタリング部
14 記憶部
DESCRIPTION OF
Claims (4)
前記動きベクトル検出部から出力された前記動きベクトルと前記最新時刻のフレーム画像の入力を受け、前記最新時刻のフレーム画像における前記動きベクトルの特徴量を算出し、前記動きベクトルの識別情報と当該動きベクトルについて算出された前記特徴量とを関連付けた特徴量リストを作成する特徴量算出部と、
クラスタリング数を変えながら、前記特徴量算出部により作成された前記特徴量リストが示す前記動きベクトルを前記特徴量に基づいてクラスタリングするとともにクラスタリングの結果の良し悪しを表す情報量基準値を算出し、算出した前記情報量基準値が最もよいときの前記動きベクトルのクラスタリングの結果に基づいて移動物体上動きベクトル及びクラスタ数を決定する動きベクトルクラスタリング部と、
を備え、
前記動きベクトルクラスタリング部は、前記特徴量リストで示される前記動きベクトルの前記特徴量の分布をガウス混合分布と見做し、前記クラスタリング数を変えながら、当該ガウス混合分布を前記クラスタリング数のガウス分布に分離するとともに、前記特徴量の分布に対するガウス混合分布の当てはめの良し悪しを表す情報量基準値を算出し、算出した前記情報量基準値が最もよいときの分離の結果得られた前記ガウス分布それぞれについて、前記ガウス分布が移動物体上の動きベクトルのクラスタであるか否かをガウス分布パラメータに基づいて判定し、移動物体上の動きベクトルのクラスタであると判定された前記ガウス分布の数をクラスタ数として決定するとともに、特定した前記ガウス分布に分離された前記動きベクトルを移動物体上動きベクトルとして決定する、
ことを特徴とする移動物体上動きベクトル検出装置。 A motion vector detection unit that calculates a motion vector of a feature point from at least two frame images, and outputs the calculated motion vector and a frame image at the latest time of the frame images;
Receiving the motion vector output from the motion vector detection unit and the frame image at the latest time, calculating a feature quantity of the motion vector in the frame image at the latest time, and identifying the motion vector identification information and the motion A feature quantity calculation unit that creates a feature quantity list that associates the feature quantities calculated for the vector;
While changing the number of clustering, the motion vector indicated by the feature amount list created by the feature amount calculation unit is clustered based on the feature amount, and an information amount reference value representing the quality of the clustering result is calculated, A motion vector clustering unit that determines the motion vector on the moving object and the number of clusters based on the result of clustering the motion vectors when the calculated information amount reference value is the best;
Equipped with a,
The motion vector clustering unit regards the distribution of the feature quantity of the motion vector shown in the feature quantity list as a Gaussian mixture distribution, and changes the Gaussian mixture distribution to the Gaussian distribution of the clustering number while changing the clustering number. The Gaussian distribution obtained as a result of the separation when the calculated information amount reference value is the best, and the information amount reference value indicating whether the Gaussian mixture distribution is fit to the feature amount distribution is calculated. For each, it is determined whether the Gaussian distribution is a cluster of motion vectors on a moving object, based on Gaussian distribution parameters, and the number of Gaussian distributions determined to be a cluster of motion vectors on a moving object is determined. The number of clusters is determined, and the motion vector separated into the specified Gaussian distribution is transferred. Is determined as an object on the motion vector,
An apparatus for detecting a motion vector on a moving object.
動きベクトル検出部が、少なくとも2枚のフレーム画像から特徴点の動きベクトルを算出し、算出した前記動きベクトルと、前記フレーム画像のうち最新時刻のフレーム画像とを出力する動きベクトル検出過程と、
特徴量算出部が、前記動きベクトル検出過程において出力された前記動きベクトルと前記最新時刻のフレーム画像の入力を受け、前記最新時刻のフレーム画像における前記動きベクトルの特徴量を算出し、前記動きベクトルの識別情報と当該動きベクトルについて算出された前記特徴量とを関連付けた特徴量リストを作成する特徴量算出過程と、
動きベクトルクラスタリング部が、クラスタリング数を変えながら、前記特徴量算出過程において作成された前記特徴量リストが示す前記動きベクトルを前記特徴量に基づいてクラスタリングするとともにクラスタリングの結果の良し悪しを表す情報量基準値を算出し、算出した前記情報量基準値が最もよいときの前記動きベクトルのクラスタリングの結果に基づいて移動物体上動きベクトル及びクラスタ数を決定する動きベクトルクラスタリング過程と、
を有し、
前記動きベクトルクラスタリング過程においては、前記特徴量リストで示される前記動きベクトルの前記特徴量の分布をガウス混合分布と見做し、前記クラスタリング数を変えながら、当該ガウス混合分布を前記クラスタリング数のガウス分布に分離するとともに、前記特徴量の分布に対するガウス混合分布の当てはめの良し悪しを表す情報量基準値を算出し、算出した前記情報量基準値が最もよいときの分離の結果得られた前記ガウス分布それぞれについて、前記ガウス分布が移動物体上の動きベクトルのクラスタであるか否かをガウス分布パラメータに基づいて判定し、移動物体上の動きベクトルのクラスタであると判定された前記ガウス分布の数をクラスタ数として決定するとともに、特定した前記ガウス分布に分離された前記動きベクトルを移動物体上動きベクトルとして決定する、
ことを特徴とする移動物体上動きベクトル検出方法。 A moving object motion vector detection method executed by a moving object motion vector detection apparatus,
A motion vector detection process in which a motion vector detection unit calculates a motion vector of a feature point from at least two frame images, and outputs the calculated motion vector and a frame image at the latest time of the frame images;
A feature amount calculation unit receives the motion vector output in the motion vector detection process and the frame image at the latest time, calculates a feature amount of the motion vector in the frame image at the latest time, and the motion vector A feature quantity calculation process for creating a feature quantity list that associates the identification information of the motion vector and the feature quantity calculated for the motion vector;
A motion vector clustering unit clusters the motion vectors indicated by the feature quantity list created in the feature quantity calculation process based on the feature quantities while changing the number of clustering, and indicates the amount of information indicating whether the clustering result is good or bad A motion vector clustering step of calculating a reference value and determining a motion vector on the moving object and the number of clusters based on a result of clustering of the motion vector when the calculated information amount reference value is the best;
I have a,
In the motion vector clustering process, the distribution of the feature quantity of the motion vector indicated in the feature quantity list is regarded as a Gaussian mixture distribution, and the Gaussian mixture distribution is converted into a Gaussian of the clustering number while changing the clustering number. The Gaussian mixture obtained as a result of the separation when the information amount reference value that represents whether the Gaussian mixture distribution is fit to the distribution of the feature amount is calculated. For each distribution, whether the Gaussian distribution is a cluster of motion vectors on a moving object is determined based on Gaussian distribution parameters, and the number of Gaussian distributions determined to be a cluster of motion vectors on a moving object Is determined as the number of clusters, and the motion vector separated into the specified Gaussian distribution is determined. The determined as a moving object on the motion vector Torr,
A method for detecting a motion vector on a moving object.
請求項1又は請求項2に記載の移動物体上動きベクトル検出装置の各部として機能させるプログラム。 Computer
A program that functions as each unit of the moving object motion vector detection device according to claim 1 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012111483A JP5848665B2 (en) | 2012-05-15 | 2012-05-15 | Moving object motion vector detection apparatus, moving object motion vector detection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012111483A JP5848665B2 (en) | 2012-05-15 | 2012-05-15 | Moving object motion vector detection apparatus, moving object motion vector detection method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013239011A JP2013239011A (en) | 2013-11-28 |
JP5848665B2 true JP5848665B2 (en) | 2016-01-27 |
Family
ID=49763985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012111483A Active JP5848665B2 (en) | 2012-05-15 | 2012-05-15 | Moving object motion vector detection apparatus, moving object motion vector detection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5848665B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6595375B2 (en) * | 2016-03-10 | 2019-10-23 | 株式会社デンソー | Traffic condition analysis device, traffic condition analysis method, and traffic condition analysis program |
EP3537379B1 (en) * | 2016-12-13 | 2021-10-20 | Nippon Telegraph and Telephone Corporation | Image difference determination device, method and program |
CN107103043A (en) * | 2017-03-29 | 2017-08-29 | 国信优易数据有限公司 | A kind of Text Clustering Method and system |
CN111292354B (en) * | 2020-01-22 | 2023-07-28 | 维沃移动通信有限公司 | False detection suppression method and electronic equipment |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0765168A (en) * | 1993-08-31 | 1995-03-10 | Hitachi Ltd | Device and method for function approximation |
JP5332647B2 (en) * | 2009-01-23 | 2013-11-06 | 日本電気株式会社 | Model selection apparatus, model selection apparatus selection method, and program |
-
2012
- 2012-05-15 JP JP2012111483A patent/JP5848665B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013239011A (en) | 2013-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7227145B2 (en) | Hybrid tracker system and method for match move | |
US9877012B2 (en) | Image processing apparatus for estimating three-dimensional position of object and method therefor | |
JP6942488B2 (en) | Image processing equipment, image processing system, image processing method, and program | |
US10417773B2 (en) | Method and apparatus for detecting object in moving image and storage medium storing program thereof | |
US9652861B2 (en) | Estimating device and estimation method | |
KR20180105876A (en) | Method for tracking image in real time considering both color and shape at the same time and apparatus therefor | |
US11398049B2 (en) | Object tracking device, object tracking method, and object tracking program | |
US11527000B2 (en) | System and method for re-identifying target object based on location information of CCTV and movement information of object | |
RU2607774C2 (en) | Control method in image capture system, control apparatus and computer-readable storage medium | |
US9721387B2 (en) | Systems and methods for implementing augmented reality | |
US20160217326A1 (en) | Fall detection device, fall detection method, fall detection camera and computer program | |
US8368768B2 (en) | Image processing apparatus, image processing method, and program | |
EP2660753B1 (en) | Image processing method and apparatus | |
WO2012175785A1 (en) | Methods, apparatuses and computer program products for performing accurate pose estimation of objects | |
US20110311100A1 (en) | Method, Apparatus and Computer Program Product for Providing Object Tracking Using Template Switching and Feature Adaptation | |
US8538079B2 (en) | Apparatus capable of detecting location of object contained in image data and detection method thereof | |
US20140093142A1 (en) | Information processing apparatus, information processing method, and information processing program | |
JP5848665B2 (en) | Moving object motion vector detection apparatus, moving object motion vector detection method, and program | |
JP2018124689A (en) | Moving body detection device, moving body detection system and moving body detection method | |
JP6662382B2 (en) | Information processing apparatus and method, and program | |
JP2009182400A (en) | Image processing apparatus, image processing method, program of image processing method, and recording medium having program of image processing method recorded therein | |
US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
JP6305856B2 (en) | Image processing apparatus, image processing method, and program | |
JP6798609B2 (en) | Video analysis device, video analysis method and program | |
JP2021144359A (en) | Learning apparatus, estimation apparatus, learning method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140711 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150401 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5848665 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |