JP4913801B2 - Shielding object image identification apparatus and method - Google Patents

Shielding object image identification apparatus and method Download PDF

Info

Publication number
JP4913801B2
JP4913801B2 JP2008514440A JP2008514440A JP4913801B2 JP 4913801 B2 JP4913801 B2 JP 4913801B2 JP 2008514440 A JP2008514440 A JP 2008514440A JP 2008514440 A JP2008514440 A JP 2008514440A JP 4913801 B2 JP4913801 B2 JP 4913801B2
Authority
JP
Japan
Prior art keywords
area
frame
region
unit
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008514440A
Other languages
Japanese (ja)
Other versions
JPWO2007129591A1 (en
Inventor
宏 岩村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2008514440A priority Critical patent/JP4913801B2/en
Publication of JPWO2007129591A1 publication Critical patent/JPWO2007129591A1/en
Application granted granted Critical
Publication of JP4913801B2 publication Critical patent/JP4913801B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、映像中の遮蔽物を識別する遮蔽物映像識別装置及び方法に関する。   The present invention relates to a shielding object video identification apparatus and method for identifying a shielding object in an image.

ビデオカメラは一般ユーザに広く浸透しており、様々な行事や旅行などで多くの人が撮影を楽しんでいる。ところで、その撮影されたコンテンツをその後どうするかというと、せいぜい1回見るか見ないかでそのまましまい込んでしまう例が多く見受けられる。その主な理由の1つとして、撮影しただけではまだあくまでも「素材」であり、そのままでは観賞に適さないとういうことがある。観賞に適さない理由としては、撮影中にビデオカメラの直前を人が横切ったり、画面下部に人の頭が入り込んだりして見苦しいシーンが多く含まれていることが挙げられる。観賞に適する魅力あるコンテンツにするには、どうしても編集作業が必要になる。しかしながら、それには時間も手間もかかるため編集を諦め、結局撮りっぱなしになってしまうのである。   Video cameras are widely used by general users, and many people enjoy taking pictures at various events and trips. By the way, as for what to do with the captured content afterwards, there are many examples in which it is left as it is depending on whether it is viewed once or not. One of the main reasons is that shooting is still “material” and is not suitable for viewing as it is. The reason why it is not suitable for viewing is that there are many unsightly scenes in which a person crosses in front of the video camera during shooting or a person's head enters the lower part of the screen. Editing work is absolutely necessary to create attractive content suitable for viewing. However, because it takes time and effort, it gives up editing and ends up being shot.

編集を行う場合には、先ず、最初に撮影した映像を全てチェックし、残すシーンと削除する不要シーンとを選別することが必要である。その後、必要であれば補正や加工を行い、最終的にテロップを入れたり繋ぎ目にトランジッション効果を加えたりすることが行われる。最後のテロップの挿入、及びトランジッション効果の追加の作業はクリエイティブで楽しい面も多いのだが、最初のシーン選別は、編集対象の撮影した映像全てを見る必要があり、大変時間もかかり面白みもない。そのため、この段階で嫌になって編集することを諦めてしまう場合も多い。   In the case of editing, it is necessary to first check all the images shot first, and to select a scene to be left and an unnecessary scene to be deleted. Thereafter, correction or processing is performed if necessary, and finally a telop is added or a transition effect is added to the joint. Inserting the last telop and adding a transition effect are both creative and fun, but the first scene selection needs to see all of the video shot for editing, which is very time consuming and not interesting. For this reason, there are many cases where people dislike editing at this stage and give up editing.

編集作業のうちの映像からの不要シーンの映像の選別を容易に行うためには、映像中における遮蔽物、すなわち被写体の手前を遮る物体を識別することが必要である。そのような遮蔽物として移動体を識別する従来方法としては、カメラで撮像されて得られた画像信号を記憶する画像メモリを設け、画像フレーム間での画像の動きのベクトル量(動きベクトル)を計測して動きのある移動領域を検出し、検出した移動領域のカメラ画像上の座標を実空間座標に変換し、該実空間座標に変換された物体の大きさ、縦横比または移動速度の少なくとも1つを予め複数の物体の特徴を登録したテーブルと照合し、該当する移動物体の種類を識別する方法がある(特許文献1)。   In order to easily select an unnecessary scene image from an image during editing, it is necessary to identify an obstruction in the image, that is, an object that obstructs the subject. As a conventional method for identifying a moving body as such a shielding object, an image memory for storing an image signal obtained by imaging with a camera is provided, and an image motion vector amount (motion vector) between image frames is set. Measure and detect a moving area with motion, convert the coordinates of the detected moving area on the camera image into real space coordinates, and convert at least the size, aspect ratio or moving speed of the object converted into the real space coordinates There is a method in which one is collated with a table in which features of a plurality of objects are registered in advance to identify the type of the corresponding moving object (Patent Document 1).

また、映像中の動きのある物体についての動きベクトルを抽出し、動き指標に基づき物体ブロックを抽出し、その統計量を求め、基準値と比較して目標移動体を判別する方法が公知である(特許文献2参照)。   Also, a method is known in which a motion vector for a moving object in a video is extracted, an object block is extracted based on a motion index, its statistic is obtained, and a target moving body is determined by comparison with a reference value. (See Patent Document 2).

更に、撮像された画像のぼけ領域を識別する方法としては、コントラスト比に応じて合焦状態が所定のレベル以下の領域についてその面積を検出し、検出した面積が所定の面積以上であればぼけ領域と判定する方法が公知である(特許文献3参照)。
特開2002−027449号公報 特開平09−252467号公報 特開2005−136727号公報
Furthermore, as a method of identifying the blurred area of the captured image, the area is detected for an area where the in-focus state is a predetermined level or less according to the contrast ratio, and if the detected area is equal to or larger than the predetermined area, the area is blurred. A method for determining an area is known (see Patent Document 3).
Japanese Patent Laid-Open No. 2002-027449 JP 09-252467 A JP 2005-136727 A

しかしながら、かかる従来の移動物体やぼけ部分の識別方法においては、カメラの情報が必要であったり特徴点の抽出・追跡が必要であり、一般的な映像信号から十分な精度で遮蔽物を識別することができないという欠点があった。   However, such conventional methods for identifying moving objects and blurred parts require camera information and feature point extraction / tracking, and identify a shielding object with sufficient accuracy from a general video signal. There was a drawback that it was not possible.

本発明が解決しようとする課題には、上記の欠点が一例として挙げられ、映像信号から映像中の遮蔽物を正確に識別することができる遮蔽物映像識別装置及び方法、並びに遮蔽物映像識別方法を実行するコンピュータ読取可能なプログラムを提供することが本発明の目的である。   The problems to be solved by the present invention include the above-mentioned drawbacks as an example, and a shielding object image identification apparatus and method, and a shielding object image identification method capable of accurately identifying an obstruction in an image from an image signal. It is an object of the present invention to provide a computer readable program for executing

請求項1に係る発明の遮蔽物映像識別装置は、映像中の遮蔽物を識別する遮蔽物映像識別装置であって、映像信号をフレーム毎に画素単位又はブロック単位で動きレベルを算出する動きレベル算出手段と、前記動きレベルの算出値を2値化する2値化手段と、フレーム毎に前記2値化手段の出力値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する2次元連続領域検出手段と、前記2次元連続領域検出手段によって検出された領域のうちで所定の面積以上の領域を大領域として抽出する大領域抽出手段と、前記大領域の外接矩形面積と領域面積との比が第1所定の範囲の値であるとき面積比判定条件を満足すると判定する面積比判定部と、前記大領域の横幅と縦幅との比が第2所定の範囲の値であるとき形状判定条件を満たすと判定する形状判定部と、前記大領域の重心の垂直方向座標が画面全体の所定の下方部分にあるとき位置判定条件を満足すると判定する位置判定部と、前記面積比判定条件、前記形状判定条件及び前記位置判定条件のうちの少なくとも1が満足されたとき前記大領域を遮蔽物部分として判定する遮蔽物判定手段と、を備えたことを特徴としている。 A shielding object video identification apparatus according to a first aspect of the present invention is a shielding object video identification apparatus for identifying a shielding object in a video, and calculates a motion level of a video signal in units of pixels or blocks for each frame. A calculation unit, a binarization unit that binarizes the calculated value of the motion level, and a continuous area adjacent between pixels or blocks in which the output value of the binarization unit takes the same value for each frame. Two-dimensional continuous region detecting means for detecting, large region extracting means for extracting a region having a predetermined area or more as a large region among the regions detected by the two-dimensional continuous region detecting means, and a circumscribed rectangular area of the large region An area ratio determination unit that determines that the area ratio determination condition is satisfied when the ratio of the area to the area is a value in a first predetermined range, and a ratio between the horizontal width and the vertical width of the large area is in a second predetermined range If it is a value, A shape determination unit that determines that the position is determined; a position determination unit that determines that a position determination condition is satisfied when a vertical coordinate of the center of gravity of the large region is in a predetermined lower portion of the entire screen; and the area ratio determination condition, And occlusion determination means for determining the large area as an occlusion portion when at least one of a shape determination condition and the position determination condition is satisfied .

請求項に係る発明の遮蔽物映像識別装置は、映像中の遮蔽物を識別する遮蔽物映像識別装置であって、映像信号をフレーム毎に画素単位又は複数の画素からなるブロック単位で周波数解析する周波数解析手段と、前記周波数解析手段による周波数解析結果に応じて画素単位又はブロック単位で低域の周波数成分パワーとそれを除く高域の周波数成分パワーとの比を映像のぼけレベルの算出値とするぼけレベル算出手段と、前記ぼけレベルの算出値を2値化する2値化手段と、フレーム毎に前記2値化手段の出力値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する2次元連続領域検出手段と、前記2次元連続領域検出手段によって検出された領域のうちで所定の面積以上の領域を大領域として抽出する大領域抽出手段と、前記大領域抽出手段によって抽出された大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定する判定手段と、を備えたことを特徴としている。 According to a seventh aspect of the present invention, there is provided a shielding object video identification device for identifying a shielding object in an image , wherein a frequency analysis is performed on a video signal in units of pixels or blocks each including a plurality of pixels. And a ratio between the low frequency component power and the high frequency component power other than that in pixel units or block units according to the frequency analysis result by the frequency analysis unit, and a calculated value of the blur level of the video A blur level calculating means, a binarizing means for binarizing the calculated value of the blur level, and a continuous adjacent pixel or block where the output values of the binarizing means have the same value for each frame. Two-dimensional continuous area detecting means for detecting a specific area, and a large area extracting means for extracting an area having a predetermined area or more as a large area among the areas detected by the two-dimensional continuous area detecting means The area ratio in the large region extracted by the large region extracting means, and determining means for determining the large region based on at least the shape and position as a shield portion, comprising the.

請求項13に係る発明の遮蔽物映像識別装置は、映像中の遮蔽物を識別する遮蔽物映像識別装置であって、映像信号をフレーム毎に画素単位又はブロック単位で動きレベルを算出する動きレベル算出手段と、前記動きレベルの算出値を2値化する第1の2値化手段と、フレーム毎に前記第1の2値化手段の出力値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する第1の2次元連続領域検出手段と、前記第1の2次元連続領域検出手段によって検出された領域のうちで所定の面積以上の領域を大領域として抽出する第1の大領域抽出手段と、前記第1の大領域抽出手段によって抽出された大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定する第1の判定手段と、画素単位又はブロック単位で映像のぼけレベルを算出するぼけレベル算出手段と、前記ぼけレベルの算出値を2値化する第2の2値化手段と、フレーム毎に前記第2の2値化手段の出力値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する第2の2次元連続領域検出手段と、前記第2の2次元連続領域検出手段によって検出された領域のうちで所定の面積以上の領域を大領域として抽出する第2の大領域抽出手段と、前記第2の大領域抽出手段によって抽出された大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定する第2の判定手段と、を備え、前記ぼけレベル算出手段は、映像信号をフレーム毎に画素単位又は複数の画素からなるブロック単位で周波数解析する周波数解析手段を有し、前記周波数解析手段による周波数解析結果に応じて画素単位又はブロック単位で低域の周波数成分パワーとそれを除く高域の周波数成分パワーとの比を前記ぼけレベルの算出値とすることを特徴としている。 A shielding object video identification device according to a thirteenth aspect of the present invention is a shielding object image identification apparatus that identifies a shielding object in an image, and calculates a motion level of a video signal for each frame in units of pixels or blocks. A calculation unit, a first binarization unit that binarizes the calculated value of the motion level, and an adjacent pixel or block that has the same output value of the first binarization unit for each frame A first two-dimensional continuous region detecting means for detecting a continuous region, and a region having a predetermined area or more extracted as a large region among the regions detected by the first two-dimensional continuous region detecting means. 1 of a large area extracting means, the first area ratio in the large region extracted by the large area extracting means, first determination means for determining the large region based at least on one of the shape and position as a shield portion And single pixel Alternatively, the blur level calculation means for calculating the blur level of the video in block units, the second binarization means for binarizing the calculated blur level, and the output of the second binarization means for each frame A second two-dimensional continuous region detecting means for detecting a continuous region adjacent between pixels or blocks having the same value, and a region detected by the second two-dimensional continuous region detecting means; a second large area extracting means for extracting a predetermined area or more area as a large area, the large the area ratio in the large area extracted by the second large area extracting means, based on at least the shape and position a second determination means for determining an area as the shield portion, wherein the blur level calculation means, frequency analysis of frequency analysis in blocks consisting of pixel units or a plurality of pixels a video signal for each frame Has a step, the calculated value of the ratio the blur level of the frequency component power of the high-frequency except it with the frequency component power in low frequency in pixel units or block units in accordance with the frequency analysis result of said frequency analysis means It is characterized by that.

請求項18に係る発明の遮蔽物映像識別方法は、映像中の遮蔽物を識別する遮蔽物映像識別方法であって、映像信号をフレーム毎に画素単位又はブロック単位で動きレベルを算出する動きレベル算出ステップと、前記動きレベルの算出値を2値化する2値化ステップと、フレーム毎に前記2値化ステップにおいて2値化された値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する2次元連続領域検出ステップと、前記2次元連続領域検出ステップにおいて検出された領域のうちで所定の面積以上の領域を大領域として抽出する大領域抽出ステップと、前記大領域の外接矩形面積と領域面積との比が第1所定の範囲の値であるとき面積比判定条件を満足すると判定する面積比判定ステップと、前記大領域の横幅と縦幅との比が第2所定の範囲の値であるとき形状判定条件を満たすと判定する形状判定ステップと、前記大領域の重心の垂直方向座標が画面全体の所定の下方部分にあるとき位置判定条件を満足すると判定する位置判定ステップと、前記面積比判定条件、前記形状判定条件及び前記位置判定条件のうちの少なくとも1が満足されたとき前記大領域を遮蔽物部分として判定する遮蔽物判定ステップと、を備えたことを特徴としている。 The shielding image identifying method of the invention according to claim 18 is a shielding image identifying method for identifying a shielding in an image, wherein the motion level is calculated for each frame of a video signal in units of pixels or blocks. A calculation step, a binarization step for binarizing the calculated value of the motion level, and a continuous adjacent pixel or block between the binarized values in the binarization step for each frame A two-dimensional continuous region detecting step for detecting a specific region, a large region extracting step for extracting a region having a predetermined area or more as a large region among the regions detected in the two-dimensional continuous region detecting step, and the large region An area ratio determination step for determining that the area ratio determination condition is satisfied when a ratio of a circumscribed rectangular area to a region area is a value in a first predetermined range; and a horizontal width and a vertical width of the large region A shape determination step that determines that the shape determination condition is satisfied when is a second predetermined range value, and a position determination condition is satisfied when the vertical coordinate of the center of gravity of the large area is in a predetermined lower portion of the entire screen. A position determination step for determining, and a shielding object determination step for determining the large region as a shielding object part when at least one of the area ratio determination condition, the shape determination condition, and the position determination condition is satisfied. It is characterized by that.

請求項19に係る発明の遮蔽物映像識別方法は、映像中の遮蔽物を識別する遮蔽物映像識別方法であって、映像信号をフレーム毎に画素単位又は複数の画素からなるブロック単位で周波数解析する周波数解析ステップと、前記周波数解析ステップによる周波数解析結果に応じて画素単位又はブロック単位で低域の周波数成分パワーとそれを除く高域の周波数成分パワーとの比を映像のぼけレベルの算出値とするぼけレベル算出ステップと、前記ぼけレベルの算出値を2値化する2値化ステップと、フレーム毎に前記2値化ステップにおいて2値化された値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する2次元連続領域検出ステップと、前記2次元連続領域検出ステップにおいて検出された領域のうちで所定の面積以上の領域を大領域として抽出する大領域抽出ステップと、前記大領域抽出ステップにおいて抽出された大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定する判定ステップと、を備えたことを特徴としている。 According to a nineteenth aspect of the present invention, there is provided a shielding object video identification method for identifying a shielding object in an image , wherein a frequency analysis is performed on a video signal by a pixel unit or a block unit including a plurality of pixels for each frame. The ratio of the frequency component power of the low frequency to the frequency component power of the high frequency other than that in the pixel unit or block unit according to the frequency analysis result of the frequency analysis step to be calculated value of the blur level of the video A blur level calculating step, a binarizing step for binarizing the calculated value of the blur level, and between pixels or blocks in which the values binarized in the binarizing step for each frame have the same value A two-dimensional continuous region detecting step for detecting adjacent continuous regions, and a predetermined area or less of the regions detected in the two-dimensional continuous region detecting step. A large area extracting step of extracting a region as a large region, the determination step of determining the area ratio in the large region extracted in the large area extracting step, the large region based at least on one of the shape and position as a shield portion It is characterized by having.

請求項20に係る発明のプログラムは、映像中の遮蔽物を識別する遮蔽物映像識別方法を実行するコンピュータ読取可能なプログラムであって、映像信号をフレーム毎に画素単位又はブロック単位で動きレベルを算出する動きレベル算出ステップと、前記動きレベルの算出値を2値化する2値化ステップと、フレーム毎に前記2値化ステップにおいて2値化された値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する2次元連続領域検出ステップと、前記2次元連続領域検出ステップにおいて検出された領域のうちで所定の面積以上の領域を大領域として抽出する大領域抽出ステップと、前記大領域の外接矩形面積と領域面積との比が第1所定の範囲の値であるとき面積比判定条件を満足すると判定する面積比判定ステップと、前記大領域の横幅と縦幅との比が第2所定の範囲の値であるとき形状判定条件を満たすと判定する形状判定ステップと、前記大領域の重心の垂直方向座標が画面全体の所定の下方部分にあるとき位置判定条件を満足すると判定する位置判定ステップと、前記面積比判定条件、前記形状判定条件及び前記位置判定条件のうちの少なくとも1が満足されたとき前記大領域を遮蔽物部分として判定する遮蔽物判定ステップと、を備えたことを特徴としている。 A program according to a twentieth aspect of the present invention is a computer-readable program for executing a shielding image identifying method for identifying a shielding object in an image, wherein a motion level of a video signal is determined in units of pixels or blocks for each frame. A motion level calculation step for calculating, a binarization step for binarizing the calculated value of the motion level, and between pixels or blocks in which the values binarized in the binarization step for each frame have the same value A two-dimensional continuous region detecting step for detecting continuous regions adjacent to each other, and a large region extracting step for extracting a region having a predetermined area or more as a large region among the regions detected in the two-dimensional continuous region detecting step; , the large area circumscribed rectangle area and the ratio of the region area is an area ratio determined stearyl determines to satisfy the area ratio determination condition when a value of the first predetermined range of And a shape determination step that determines that a shape determination condition is satisfied when the ratio of the horizontal width to the vertical width of the large area is a value in a second predetermined range, and the vertical coordinate of the center of gravity of the large area is the entire screen A position determination step for determining that the position determination condition is satisfied when the position is in a predetermined lower portion of the region, and when at least one of the area ratio determination condition, the shape determination condition, and the position determination condition is satisfied, And a shielding object judging step for judging as a shielding part .

請求項21に係る発明のプログラムは、映像中の遮蔽物を識別する遮蔽物映像識別方法を実行するコンピュータ読取可能なプログラムであって、映像信号をフレーム毎に画素単位又は複数の画素からなるブロック単位で周波数解析する周波数解析ステップと、前記周波数解析ステップによる周波数解析結果に応じて画素単位又はブロック単位で低域の周波数成分パワーとそれを除く高域の周波数成分パワーとの比を映像のぼけレベルの算出値とするぼけレベル算出ステップと、前記ぼけレベルの算出値を2値化する2値化ステップと、フレーム毎に前記2値化ステップにおいて2値化された値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する2次元連続領域検出ステップと、前記2次元連続領域検出ステップにおいて検出された領域のうちで所定の面積以上の領域を大領域として抽出する大領域抽出ステップと、前記大領域抽出ステップにおいて抽出された大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定する判定ステップと、を備えたことを特徴としている。 A program according to a twenty-first aspect of the present invention is a computer-readable program for executing a shielding image identifying method for identifying a shielding object in an image, wherein the image signal is a block composed of a pixel unit or a plurality of pixels for each frame. The frequency analysis step for analyzing the frequency in units and the ratio between the low frequency component power and the high frequency component power in the pixel unit or block unit according to the frequency analysis result in the frequency analysis step is blurred. A blur level calculation step for calculating a level, a binarization step for binarizing the blur level calculation value, and a value binarized in the binarization step for each frame have the same value. A two-dimensional continuous region detecting step for detecting adjacent continuous regions between pixels or blocks, and the two-dimensional continuous region detecting step; As the large area extracting step of extracting a predetermined area or more area of the areas that are issued as a large area, the area ratio in the large region extracted in the large region extraction step, based on at least the shape and position And a determination step of determining a large area as a shielding part.

本発明の実施例を示すブロック図である。It is a block diagram which shows the Example of this invention. 動きレベルの算出を説明するための図である。It is a figure for demonstrating calculation of a motion level. ぼけレベルの算出を説明するための図である。It is a figure for demonstrating calculation of a blur level. 動き遮蔽物が存在する映像についての判定動作の際の装置各部の状態を示す図である。It is a figure which shows the state of each part of the apparatus in the case of determination operation | movement about the image | video in which a motion obstruction exists. カメラパン時の映像についての判定動作の際の装置各部の状態を示す図である。It is a figure which shows the state of each part of the apparatus in the case of determination operation | movement about the image | video at the time of camera panning. ぼけ遮蔽物が存在する映像についての判定動作の際の装置各部の状態を示す図である。It is a figure which shows the state of each part of the apparatus in the case of determination operation | movement about the image | video which has a blur obstruction. 本発明の他の実施例を示すブロック図である。It is a block diagram which shows the other Example of this invention. 本発明の実施例として動き遮蔽物判定系の構成だけを備えた遮蔽物映像識別装置を示すブロック図である。It is a block diagram which shows the obstruction image identification device provided only with the structure of the movement obstruction determination system as an Example of this invention. 本発明の実施例としてぼけ遮蔽物判定系の構成だけを備えた遮蔽物映像識別装置を示すブロック図である。It is a block diagram which shows the shielding object video identification device provided only with the structure of the blur shielding object determination system as an Example of this invention. 本発明の他の実施例を示すブロック図である。It is a block diagram which shows the other Example of this invention.

符号の説明Explanation of symbols

1 2D−DCT回路
2 動き遮蔽物判定系
3 ぼけ遮蔽物判定系
4 判定結果統合部
5 検出枠拡大部
DESCRIPTION OF SYMBOLS 1 2D-DCT circuit 2 Motion shielding object determination system 3 Blur shielding object determination system 4 Determination result integration part 5 Detection frame expansion part

請求項1に係る発明によれば、映像信号をフレーム毎に画素単位又はブロック単位で動きレベルを動きレベル算出手段によって算出し、動きレベルの算出値を2値化した後、2次元連続領域検出手段によって2次元連続領域を検出し、更にその領域のうちの大領域を抽出して面積比判定部によってその大領域の外接矩形面積と領域面積との比が第1所定の範囲の値であるとき面積比判定条件を満足すると判定し、形状判定部によって大領域の横幅と縦幅との比が第2所定の範囲の値であるとき形状判定条件を満たすと判定し、位置判定部によって大領域の重心の垂直方向座標が画面全体の所定の下方部分にあるとき位置判定条件を満足すると判定し、遮蔽物判定手段によって面積比判定条件、形状判定条件及び位置判定条件のうちの少なくとも1が満足されたときその大領域を遮蔽物部分として判定することが行われる。また、請求項18に係る発明によれば、映像信号をフレーム毎に画素単位又はブロック単位で動きレベルを算出し、動きレベルの算出値を2値化した後、2次元連続領域を検出し、更にその領域のうちの大領域を抽出してその大領域の外接矩形面積と領域面積との比が第1所定の範囲の値であるとき面積比判定条件を満足すると判定し、大領域の横幅と縦幅との比が第2所定の範囲の値であるとき形状判定条件を満たすと判定し、大領域の重心の垂直方向座標が画面全体の所定の下方部分にあるとき位置判定条件を満足すると判定し、面積比判定条件、形状判定条件及び位置判定条件のうちの少なくとも1が満足されたときその大領域を遮蔽物部分として判定することが行われる。更に、請求項20に係る発明によれば請求項18に係る発明の遮蔽物映像識別方法と同様の方法がコンピュータによって実行される。 According to the first aspect of the present invention, the motion level is calculated by the motion level calculation means for each pixel or block unit of the video signal for each frame, and after the motion level calculation value is binarized, the two-dimensional continuous region detection is performed. The two-dimensional continuous region is detected by the means, and a large region is extracted from the region, and the ratio of the circumscribed rectangular area and the region area of the large region is a value in the first predetermined range by the area ratio determination unit. When it is determined that the area ratio determination condition is satisfied, the shape determination unit determines that the shape determination condition is satisfied when the ratio of the horizontal width to the vertical width of the large region is a value in the second predetermined range, and the position determination unit It is determined that the position determination condition is satisfied when the vertical coordinate of the center of gravity of the region is in a predetermined lower part of the entire screen, and at least one of the area ratio determination condition, the shape determination condition, and the position determination condition is determined by the shielding object determination unit. 1 it is performed determines its large area as a shield portion when satisfied. According to the invention of claim 18 , the motion level is calculated for each frame of the video signal in units of pixels or blocks, and the calculated value of the motion level is binarized, and then a two-dimensional continuous region is detected, Further, a large area is extracted from the area, and it is determined that the area ratio determination condition is satisfied when the ratio of the circumscribed rectangular area and the area of the large area is a value in the first predetermined range. When the ratio between the height and the vertical width is a value in the second predetermined range, it is determined that the shape determination condition is satisfied, and the position determination condition is satisfied when the vertical coordinate of the center of gravity of the large area is in a predetermined lower part of the entire screen Then, when at least one of the area ratio determination condition, the shape determination condition, and the position determination condition is satisfied, the large area is determined as the shielding part . Furthermore, shield image identification method similar of the invention according to claim 18, according to the invention of claim 20 is executed by a computer.

よって、請求項1、18及び20に係る発明によれば、映像信号から映像中の動きがある遮蔽物を正確に識別することができる。 Therefore, according to the inventions according to claims 1, 18 and 20 , it is possible to accurately identify a shielding object having a motion in the video from the video signal.

請求項1の動きレベル算出手段は、周波数解析手段周波数解析結果に応じて垂直方向の最高周波数成分のパワーと、直流成分を除いた全成分のパワーの和との比を動きレベルの値とする。周波数解析手段は、複数の画素からなるブロック単位でDCT(2次元離散コサイン変換)又はDFT(離散フーリエ変換)を行う。請求項1の2次元連続領域検出手段は、フレーム毎に2値化手段の出力値に対するラベリング処理を行う。 According to the frequency analysis result of the frequency analysis means, the motion level calculation means according to claim 1 calculates the ratio of the power of the highest frequency component in the vertical direction and the sum of the powers of all components excluding the DC component as the value of the motion level. To do. The frequency analysis means performs DCT (two-dimensional discrete cosine transform) or DFT (discrete Fourier transform) in units of blocks composed of a plurality of pixels. The two-dimensional continuous area detecting means according to claim 1 performs a labeling process on the output value of the binarizing means for each frame.

請求項に係る発明によれば、映像信号をフレーム毎に画素単位又はブロック単位でぼけレベルをぼけレベル算出手段によって算出し、ぼけレベルの算出値を2値化した後、2次元連続領域検出手段によって2次元連続領域を検出し、更にその領域のうちの大領域を抽出して判定手段によって大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定することが行われる。また、請求項19に係る発明によれば、映像信号をフレーム毎に画素単位又はブロック単位でぼけレベルを算出し、ぼけレベルの算出値を2値化した後、2次元連続領域を検出し、更にその領域のうちの大領域を抽出して大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定することが行われる。更に、請求項21に係る発明によれば請求項19に係る発明の遮蔽物映像識別方法と同様の方法がコンピュータによって実行される。 According to the seventh aspect of the present invention, the blur level is calculated by the blur level calculation means for each pixel or block unit of the video signal for each frame, and the calculated value of the blur level is binarized. The two-dimensional continuous area is detected by the means, and the large area is extracted, and the large area is determined as the shielding part based on at least one of the area ratio, shape and position in the large area by the determining means. Is done. According to the invention of claim 19 , the blur level is calculated for each frame of the video signal in units of pixels or blocks, and after calculating the blur level, the two-dimensional continuous region is detected. Further, a large area is extracted from the areas, and the large area is determined as the shielding portion based on at least one of the area ratio, shape, and position in the large area. Further, according to the invention of claim 21 , the same method as the shielding image identification method of the invention of claim 19 is executed by a computer.

よって、請求項7、19及び21に係る発明によれば、映像信号から映像中の非合焦の遮蔽物を正確に識別することができる。 Therefore, according to the inventions according to claims 7, 19 and 21 , the out-of-focus shield in the video can be accurately identified from the video signal.

請求項のぼけレベル算出手段は、周波数解析手段と、周波数解析結果に応じて低域の周波数成分パワーとそれを除く高域の周波数成分パワーとの比をぼけレベルの値とする。周波数解析手段は、複数の画素からなるブロック単位でDCT又はDFTを行う。請求項の2次元連続領域検出手段は、フレーム毎に2値化手段の出力値に対するラベリング処理を行う。 The blur level calculation means according to claim 7 sets the ratio of the frequency component power in the low frequency band to the frequency component power in the high frequency band other than the frequency analysis power and the blur frequency level according to the frequency analysis result. The frequency analysis means performs DCT or DFT in units of blocks composed of a plurality of pixels. The two-dimensional continuous area detecting means according to claim 7 performs a labeling process on the output value of the binarizing means for each frame.

請求項の判定手段は、大領域の外接矩形面積と領域面積との比が第1所定の範囲の値であるとき面積比判定条件を満足すると判定する面積比判定部と、大領域の横幅と縦幅との比が第2所定の範囲の値であるとき形状判定条件を満たすと判定する形状判定部と、大領域の重心の垂直方向座標が画面全体の所定の下方部分にあるとき位置判定条件を満足すると判定する位置判定部と、を備えている。 The determination means according to claim 7 includes an area ratio determination unit that determines that the area ratio determination condition is satisfied when the ratio of the circumscribed rectangular area of the large region to the region area is a value in a first predetermined range, and the width of the large region A shape determination unit that determines that the shape determination condition is satisfied when the ratio between the vertical width and the vertical width is a value in the second predetermined range, and a position when the vertical coordinate of the center of gravity of the large area is in a predetermined lower part of the entire screen A position determination unit that determines that the determination condition is satisfied.

請求項13に係る発明によれば、映像信号をフレーム毎に画素単位又は複数の画素からなるブロック単位で周波数解析し、その周波数解析結果に応じて画素単位又はブロック単位で動きレベルを算出し、動きレベルの算出値を2値化した後、2次元連続領域を検出し、更にその領域のうちの大領域を抽出して大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定し、周波数解析結果に応じて画素単位又はブロック単位でぼけレベルを算出し、ぼけレベルの算出値を2値化した後、2次元連続領域を検出し、更にその領域のうちの大領域を抽出して大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定することが行われる。よって、映像信号から映像中の動きがある遮蔽物及び非合焦の遮蔽物を共に正確に識別することができる。 According to the invention of claim 13 , the video signal is frequency-analyzed in units of pixels or in units of blocks composed of a plurality of pixels for each frame, and the motion level is calculated in units of pixels or units according to the frequency analysis results, After binarizing the calculated value of the motion level, a two-dimensional continuous region is detected, and a large region is further extracted, and the large region is extracted based on at least one of the area ratio, shape, and position in the large region. Is determined as a shielding part, the blur level is calculated in pixel units or block units according to the frequency analysis result, and the calculated value of the blur level is binarized, and then a two-dimensional continuous area is detected. The large area is extracted, and the large area is determined as the shielding part based on at least one of the area ratio, shape, and position in the large area. Therefore, it is possible to accurately identify both a shield with movement and a non-focused shield from the video signal.

以下、本発明の実施例を図面を参照しつつ詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明による遮蔽物映像識別装置を示している。この遮蔽物映像識別装置は、2D−DCT(2次元離散コサイン変換)回路1、動き遮蔽物判定系2、ぼけ遮蔽物判定系3、判定結果統合部4及び検出枠拡大部5を備えている。   FIG. 1 shows a shield image identification apparatus according to the present invention. The shielding object image identification device includes a 2D-DCT (two-dimensional discrete cosine transform) circuit 1, a motion shielding object determination system 2, a blur shielding object determination system 3, a determination result integration unit 4, and a detection frame enlargement unit 5. .

2D−DCT回路1には入力映像信号が供給される。入力映像信号は720×480ピクセルの解像度の映像を示すとする。2D−DCT回路1は入力映像信号の1フレームを16×16ピクセルのブロックでDCT変換を行う。入力映像信号がインタレース方式の映像信号の場合には2フィールドを1フレームとする。また、プログレッシブ映像信号の場合には、1フレームの奇数フィールドとその次のフレームの偶数フィールドとを合わせて1フレームとする。奇数・偶数フィールドの組合わせは逆でも良いし、連続するフレームからではなく、数フレーム飛越して組合わせても良い。組合わせるフィールド同士の時間差が大きくなると、遅い動き物体にも反応するようになるが、その時間内の移動距離が処理ブロックの大きさを超えると逆に検出できなくなるので、通常数フレーム以内が望ましい。また、入力信号のプログレッシブ・インタレースにかかわらず、隣接フレームの奇数・偶数フィールドを組合わせるようにしても良い。こうすることにより、入力信号がプログレッシブであろうとインタレースであろうと検出できるようになる。さらに、奇数フィールド同士、偶数フィールド同士を組合わせても良い。   An input video signal is supplied to the 2D-DCT circuit 1. It is assumed that the input video signal indicates a video with a resolution of 720 × 480 pixels. The 2D-DCT circuit 1 performs DCT conversion of one frame of the input video signal with a block of 16 × 16 pixels. When the input video signal is an interlace video signal, two fields are set as one frame. In the case of a progressive video signal, the odd field of one frame and the even field of the next frame are combined into one frame. The combination of the odd and even fields may be reversed, or may be combined over several frames instead of from consecutive frames. If the time difference between the fields to be combined increases, it will react even to slow moving objects, but if the moving distance within that time exceeds the size of the processing block, it will not be able to be detected, so usually within a few frames is desirable . Further, the odd and even fields of adjacent frames may be combined regardless of the progressive interlace of the input signal. This makes it possible to detect whether the input signal is progressive or interlaced. Furthermore, odd fields and even fields may be combined.

2D−DCT回路1の出力に動き遮蔽物判定系2及びぼけ遮蔽物判定系3が接続されている。動き遮蔽物判定系2は、動きレベル算出部21、2値化部22、ラベリング部23、大領域抽出部24、面積比判定部25、形状判定部26、位置判定部27、ラベル数判定部28、及び総合属性判定部29を備えている。   A motion shielding object determination system 2 and a blur shielding object determination system 3 are connected to the output of the 2D-DCT circuit 1. The movement shielding object determination system 2 includes a motion level calculation unit 21, a binarization unit 22, a labeling unit 23, a large region extraction unit 24, an area ratio determination unit 25, a shape determination unit 26, a position determination unit 27, and a label number determination unit. 28 and a general attribute determination unit 29.

動きレベル算出部21は、DCT結果のDCT係数に応じて動き映像のブロックを検出するために動きの大きさを示す動きレベルを算出する。図2(a)に示すように、水平方向の画素数がm、垂直方向の画素数がnのブロックをDCTすると、図2(b)に示すように、水平方向uの空間周波数と垂直方向vの空間周波数からなる変換空間座標において動きレベルは、次式によって算出される。なお、DCT係数はX0,0〜XN−1,N−1であり、N=16である。 The motion level calculator 21 calculates a motion level indicating the magnitude of motion in order to detect a motion video block according to the DCT coefficient of the DCT result. As shown in FIG. 2A, when a block having m pixels in the horizontal direction and n pixels in the vertical direction is DCTed, the spatial frequency in the horizontal direction u and the vertical direction are obtained as shown in FIG. The motion level is calculated by the following equation in the transformation space coordinate composed of the spatial frequency of v. The DCT coefficients are X 0,0 to X N−1, N−1 , and N = 16.

Figure 0004913801
Figure 0004913801

2値化部22は、動きレベル算出部21の出力に接続され、動きレベル算出部21によって算出された動きレベルを所定の閾値で2値化する。   The binarization unit 22 is connected to the output of the motion level calculation unit 21 and binarizes the motion level calculated by the motion level calculation unit 21 with a predetermined threshold.

ラベリング部23は、2値化部22の出力に接続され、2値化した動きレベルをラベリング処理する。ラベリング処理とは、2値化した動きレベルが同一値の上下左右の4方向及び斜めの4方向のいずれかにおいて隣接するブロックを1つの領域(又はグループ)とし、同一領域のブロックに同一のラベルを付加して分類することである。例えば、2値化した動きレベルが明るいブロックが隣接しているならば、その塊が1つの領域(グループ)となり、その領域内の各ブロックに同一のラベルが付加される。ラベリング部23は領域の情報を大領域抽出部24に出力すると共にラベルを付加した数、すなわちラベル数をラベル数判定部28に出力する。   The labeling unit 23 is connected to the output of the binarizing unit 22 and performs a labeling process on the binarized motion level. In the labeling process, blocks that are adjacent in one of the four directions (upper, lower, left, and right) and the oblique four directions with the same binarized motion level are defined as one area (or group), and the same label is assigned to the blocks in the same area. Is to add and classify. For example, if the binarized motion levels are adjacent to each other, the block becomes one area (group), and the same label is added to each block in the area. The labeling unit 23 outputs the region information to the large region extraction unit 24 and outputs the number of labels added, that is, the number of labels to the label number determination unit 28.

大領域抽出部24はラベリング処理の結果、作成された領域のうちのその面積が所定の面積以上の大領域を抽出する。所定の面積は、例えば、1フレームの面積の1/30の大きさである。大領域抽出部24は最大面積の領域を大領域として抽出しても良い。大領域抽出部24の出力に面積比判定部25、形状判定部26、及び位置判定部27が接続されている。   As a result of the labeling process, the large area extraction unit 24 extracts a large area whose area is greater than or equal to a predetermined area. The predetermined area is, for example, 1/30 of the area of one frame. The large area extraction unit 24 may extract the area of the maximum area as a large area. An area ratio determination unit 25, a shape determination unit 26, and a position determination unit 27 are connected to the output of the large region extraction unit 24.

面積比判定部25は、フレーム毎に1フレームにおける所定の面積以上の面積の大領域の外接矩形面積と領域面積との比=外接矩形面積/領域面積を検出し、その比が第1所定の範囲の値(例えば、0.5以上1.0未満)であるときそのフレームの面積比判定条件を満足すると判定する。形状判定部26は、1フレームにおける所定の面積以上の面積の大領域の形状に応じてフレームの形状判定条件を満足するか否かを判定する。大領域の横幅/縦幅が第2所定の範囲の値(例えば、0.7以上7以下)であるとき形状判定条件を満たすと判定する。位置判定部27は、1フレームにおける大領域の位置に応じてフレームの位置判定条件を満足するか否かを判定する。大領域の重心の垂直方向座標が画面全体の下方2/3の部分にあるとき位置判定条件を満足すると判定する。   The area ratio determination unit 25 detects a ratio of a circumscribed rectangular area and a region area of a large area having an area equal to or larger than a predetermined area in one frame for each frame = circumscribed rectangular area / region area, and the ratio is a first predetermined value. When the value is within a range (for example, 0.5 or more and less than 1.0), it is determined that the area ratio determination condition of the frame is satisfied. The shape determination unit 26 determines whether or not a frame shape determination condition is satisfied according to the shape of a large region having an area equal to or larger than a predetermined area in one frame. It is determined that the shape determination condition is satisfied when the horizontal width / vertical width of the large region is a value in a second predetermined range (for example, 0.7 to 7). The position determination unit 27 determines whether or not the frame position determination condition is satisfied according to the position of the large area in one frame. It is determined that the position determination condition is satisfied when the vertical coordinate of the center of gravity of the large area is in the lower 2/3 portion of the entire screen.

ラベル数判定部28は、ラベリング部23で付加されたラベルの数に応じてフレームが遮蔽物検出対象である否かを判定する。ラベル数が所定数(10)以下のときフレームが遮蔽物検出対象であると判定する。   The label number determination unit 28 determines whether or not the frame is a shielding object detection target according to the number of labels added by the labeling unit 23. When the number of labels is equal to or less than the predetermined number (10), it is determined that the frame is a shielding object detection target.

総合属性判定部29は、面積比判定部25、形状判定部26、位置判定部27、及びラベル数判定部28各々の出力に接続され、フレーム毎に面積比判定部25による面積比判定結果、形状判定部26による形状判定結果、位置判定部27による位置判定結果、及びラベル数判定部28によるラベル数判定結果に応じて遮蔽物の存在を判定する。すなわち、ラベル数判定部28によって遮蔽物検出対象と判定され、かつ面積比判定条件、形状判定条件及び位置判定条件の各々が満足されているならば、総合属性判定部29では遮蔽物が存在すると判定される。   The general attribute determination unit 29 is connected to the outputs of the area ratio determination unit 25, the shape determination unit 26, the position determination unit 27, and the label number determination unit 28, and the area ratio determination result by the area ratio determination unit 25 for each frame, The presence of the shielding object is determined according to the shape determination result by the shape determination unit 26, the position determination result by the position determination unit 27, and the label number determination result by the label number determination unit 28. That is, if the label number determination unit 28 determines that the object is to be detected and the area ratio determination condition, the shape determination condition, and the position determination condition are satisfied, the general attribute determination unit 29 indicates that there is a shield. Determined.

ぼけ遮蔽物判定系3は、ぼけレベル算出部31、2値化部32、ラベリング部33、大領域抽出部34、面積比判定部35、形状判定部36、位置判定部37、ラベル数判定部38、及び総合属性判定部39を備えている。   The blur shielding object determination system 3 includes a blur level calculation unit 31, a binarization unit 32, a labeling unit 33, a large region extraction unit 34, an area ratio determination unit 35, a shape determination unit 36, a position determination unit 37, and a label number determination unit. 38 and a general attribute determination unit 39.

ぼけレベル算出部31は、DCT変換結果のDCT係数に応じて非合焦のブロックを検出するために非合焦の程度を示すぼけレベルを算出する。   The blur level calculation unit 31 calculates a blur level indicating the degree of out-of-focus in order to detect an out-of-focus block according to the DCT coefficient of the DCT conversion result.

図3(a)に示すように、水平方向の画素数がm、垂直方向の画素数がnのフレームをDCT変換すると、図3(b)に示すように、水平方向uの空間周波数と垂直方向vの空間周波数からなる変換空間座標において低域のDCT係数パワーを   As shown in FIG. 3A, when a frame having the number of pixels in the horizontal direction is m and the number of pixels in the vertical direction is n is subjected to DCT conversion, as shown in FIG. The DCT coefficient power in the low frequency is expressed in the transformation space coordinate consisting of the spatial frequency in the direction v.

Figure 0004913801
Figure 0004913801

とすると、ぼけレベルは、次式によって算出される。 Then, the blur level is calculated by the following equation.

Figure 0004913801
Figure 0004913801

かかる算出式から分かるように、ぼけレベルは低域のDCT係数パワーとそれを除く高域のDCT係数パワーとの比で表されているので、ブロックが非合焦であるほど大きな値となる。   As can be seen from this calculation formula, the blur level is represented by the ratio of the low-frequency DCT coefficient power to the high-frequency DCT coefficient power other than the low-frequency DCT coefficient power. Therefore, the blur level becomes larger as the block is out of focus.

2値化部32、ラベリング部33、大領域抽出部34、面積比判定部35、形状判定部36、位置判定部37、ラベル数判定部38、及び総合属性判定部39は、上記の動き遮蔽物判定系2の2値化部22、ラベリング部23、大領域抽出部24、面積比判定部25、形状判定部26、位置判定部27、ラベル数判定部28、及び総合属性判定部29と同一である。   The binarization unit 32, the labeling unit 33, the large region extraction unit 34, the area ratio determination unit 35, the shape determination unit 36, the position determination unit 37, the label number determination unit 38, and the comprehensive attribute determination unit 39 A binarization unit 22, a labeling unit 23, a large region extraction unit 24, an area ratio determination unit 25, a shape determination unit 26, a position determination unit 27, a label number determination unit 28, and a general attribute determination unit 29 of the object determination system 2 Are the same.

2値化部32は、ぼけレベル算出部31の出力に接続され、ぼけレベル算出部31によって算出されたぼけレベルを所定の閾値で2値化する。ラベリング部33は、2値化部32の出力に接続され、2値化したぼけレベルをラベリング処理する。大領域抽出部34はラベリング処理の結果、作成された領域のうちのその面積が所定の面積以上の大領域を抽出する。面積比判定部35は、フレーム毎に面積比判定条件を満足するか否かと判定する。形状判定部36は、フレーム毎に形状判定条件を満足するか否かと判定する。位置判定部37は、1フレーム毎に位置判定条件を満足するか否かを判定する。ラベル数判定部38は、ラベリング部33で付加されたラベルの数に応じてフレームが遮蔽物検出対象である否かを判定する。総合属性判定部39は面積比判定部35、形状判定部36、位置判定部37、及びラベル数判定部38各々の判別結果に応じて遮蔽物の存在を判定する。 The binarization unit 32 is connected to the output of the blur level calculation unit 31 and binarizes the blur level calculated by the blur level calculation unit 31 with a predetermined threshold. The labeling unit 33 is connected to the output of the binarization unit 32 and performs a labeling process on the binarized blur level. As a result of the labeling process, the large area extraction unit 34 extracts a large area whose area is greater than or equal to a predetermined area. The area ratio determination unit 35 determines whether or not the area ratio determination condition is satisfied for each frame. The shape determination unit 36 determines whether or not the shape determination condition is satisfied for each frame. The position determination unit 37 determines whether or not the position determination condition is satisfied for each frame. The label number determination unit 38 determines whether or not the frame is a shielding object detection target according to the number of labels added by the labeling unit 33. The comprehensive attribute determination unit 39 determines the presence of the shielding object according to the determination results of the area ratio determination unit 35 , the shape determination unit 36 , the position determination unit 37 , and the label number determination unit 38 .

総合属性判定部29及び39の出力に判定結果統合部4が接続されている。判定結果統合部4は総合属性判定部29及び39のいずれか一方によって1つのフレームについて遮蔽物の存在が判別されたときそのフレームには遮蔽物が存在すると判定する。   The determination result integration unit 4 is connected to the outputs of the general attribute determination units 29 and 39. The determination result integration unit 4 determines that there is a shielding object in one frame when one of the general attribute determination units 29 and 39 determines the presence of the shielding object for one frame.

検出枠拡大部5は、遮蔽物が存在すると判定されたフレームの前後のフレームを遮蔽物存在フレームと判定する。   The detection frame enlarging unit 5 determines the frames before and after the frame determined to have a shield as the shield presence frame.

かかる構成の遮蔽物映像識別装置においては、先ず、入力映像信号の1フレームのソース映像に図4(a)に示すよう、被写体の前を遮るように右側から人が入り込んできた場合について説明する。このような1フレームの映像に対して動きレベル算出部21ではブロック毎に動きレベルが算出される。図4(b)は2値化器22によって2値化された動きレベルの算出値を示している。黒の部分が動き部分である。この2値化後の映像はラベリング部23によってラベリング処理される。ラベリング処理では、図4(b)の黒の部分のブロックのうちの上下左右の4方向及び斜めの4方向のいずれかにおいて隣接するブロックが1つの領域とされる。図4(c)はラベリング処理の結果を示している。この例ではラベル数は5(Label #1〜#5)である。ラベリング部23では複数の領域が検出された場合にはその複数の領域のうちから大領域が大領域抽出部24によって抽出される。図4(c)のラベリング処理の結果に対して図4(d)に示すように、図4(a)の右側の動きのある人物に対応した領域が大領域として抽出される。その抽出領域は、面積比判定部25、形状判定部26、位置判定部27、及びラベル数判定部28各々の判定条件を満足すれば、総合属性判定部29によって図4(e)に示すように、動きのある遮蔽物として検出される。すなわち、現フレームは動きのある遮蔽物が含まれたフレームと判定される。よって、被写体の前を横切る人が含まれるような映像を識別することができる。   In the shield image identifying apparatus having such a configuration, first, a case where a person enters the source image of one frame of the input image signal from the right side so as to block the front of the subject as shown in FIG. 4A will be described. . For such a frame of video, the motion level calculation unit 21 calculates the motion level for each block. FIG. 4B shows the calculated motion level binarized by the binarizer 22. The black part is the moving part. The binarized video is labeled by the labeling unit 23. In the labeling process, blocks adjacent to each other in any of the four vertical and horizontal four directions and the four oblique directions among the black blocks in FIG. 4B are defined as one region. FIG. 4C shows the result of the labeling process. In this example, the number of labels is 5 (Labels # 1 to # 5). When the labeling unit 23 detects a plurality of regions, a large region is extracted from the plurality of regions by the large region extraction unit 24. As shown in FIG. 4 (d) with respect to the result of the labeling process in FIG. 4 (c), the region corresponding to the moving person on the right side in FIG. 4 (a) is extracted as a large region. As shown in FIG. 4 (e), if the extracted area satisfies the determination conditions of the area ratio determination unit 25, the shape determination unit 26, the position determination unit 27, and the label number determination unit 28, In addition, it is detected as a moving obstacle. That is, the current frame is determined as a frame including a moving obstacle. Therefore, it is possible to identify an image including a person who crosses the front of the subject.

この例のようにカメラ前を人が横切った場合、突然入ってくるのであるから比較的速いスピードで移動しており、動きのある2次元連続領域として検出される。また、被写体とカメラの間を横切るのであるから当然その2次元連続領域面積は大きい。従って、上記の処理によって「カメラ前を横切った人」が検出される。被写体の後方を通った場合は、動き領域が被写体によって分断されるため、大きな連続領域とはならない。遠くを動く物体も同様である。また誤検出を防ぐため「領域属性判定」で、画面上部に重心がある領域、極端に横長な領域(=人間らしくない)、重心が画面中央にある(=被写体の可能性が高い)場合は検出しないなどの条件を設定することにより、「カメラ前を人が横切った場合」を精度良く検出することができる。「領域属性判定」は、その領域の支配色や明度なども条件に加えることもできる。   When a person crosses in front of the camera as in this example, it suddenly comes in, so it moves at a relatively fast speed and is detected as a two-dimensional continuous region with movement. Since the object and the camera are crossed, the area of the two-dimensional continuous area is naturally large. Therefore, the “person crossing the front of the camera” is detected by the above processing. When passing behind the subject, the moving region is divided by the subject, so that it does not become a large continuous region. The same applies to objects that move far away. In addition, to prevent false detection, it is detected by “area attribute determination” when the area has the center of gravity at the top of the screen, extremely long area (= not human), and the center of gravity is at the center of the screen (= high possibility of subject) By setting a condition such as “no”, it is possible to accurately detect “when a person crosses the camera”. “Region attribute determination” can also include the dominant color and brightness of the region as a condition.

カメラが動いた場合、画面全体に渡って動き領域が存在してしまうことがあるが、これも「領域属性判定」で、ほぼ画面全体が一つの領域として検出された場合、領域数がある閾値以上ある(=小さな領域が画面全体に散らばっている)場合は検出しないなどの条件を設定することにより、カメラワークによる動きと遮蔽物による動きを区別することもできる。カメラワークとの区別は、カメラワーク検出を別に行って、その結果を参照するようにしても良い。   When the camera moves, there may be a motion area across the entire screen, but this is also a “region attribute determination”, and if almost the entire screen is detected as one area, the threshold value is the number of areas. By setting a condition such as not detecting when there are the above (= small areas are scattered over the entire screen), it is possible to distinguish the movement by the camera work and the movement by the shielding object. The distinction from camera work may be performed by separately detecting camera work and referring to the result.

ビデオカメラがパンしたことにより、図5(a)に示すように、動きのある人物や物体が多数存在するソース映像となった場合には、動きレベルの算出値は画面全体で大きくなり、2値化器22によって2値化された動きレベルは図5(b)のようになる。更に、図5(c)はラベリング処理の結果を示しており、検出された領域数(=ラベル数、Label #1〜#50)が多いことが分かる。この多数の領域から最大面積の領域が図5(d)に示すように抽出されても、ラベル数が所定数より多いので、ラベル数判定部28がその大領域を遮蔽物検出対象とは判定しない。よって、ビデオカメラがパンしたときの映像では、図5(e)に示すように動きのある遮蔽物が含まれたフレームとしては判定されない。   When the video camera is panned, as shown in FIG. 5A, when the source video includes a large number of moving persons and objects, the calculated value of the motion level increases on the entire screen. The motion level binarized by the digitizer 22 is as shown in FIG. Further, FIG. 5C shows the result of the labeling process, and it can be seen that the number of detected regions (= number of labels, Label # 1 to # 50) is large. Even if the area of the maximum area is extracted from the large number of areas as shown in FIG. 5 (d), the number of labels is larger than the predetermined number, so the label number determination unit 28 determines that the large area is an object to be shielded. do not do. Therefore, the video when the video camera is panned is not determined as a frame including a moving obstacle as shown in FIG.

一方、入力映像信号の1フレームのソース映像に図6(a)に示すよう、左下部に非合焦の人の頭が存在する場合には、ぼけレベル算出部31ではブロック毎にぼけレベルが算出される。図6(b)は2値化器32によって2値化されたぼけレベルの算出値を示している。黒の部分がぼけ部分である。この2値化後の映像はラベリング部33によってラベリング処理される。ラベリング処理では、図6(b)の黒の部分のブロックのうちの上下左右の4方向及び斜めの4方向のいずれかにおいて隣接するブロックが1つの領域とされる。図6(c)はラベリング処理の結果を示している。この例ではラベル数は8(Label #1〜#8)である。その複数の領域のうちから大領域が大領域抽出部24によって図6(d)に示すように抽出される。その抽出領域は、面積比判定部35、形状判定部36、位置判定部37、及びラベル数判定部38各々の判定条件を満足すれば、総合属性判定部29によって図6(e)に示すように、ぼけ遮蔽物として検出される。すなわち、現フレームはぼけ遮蔽物が含まれたフレームと判定される。よって、被写体の前を人の頭が遮るような映像を識別することができる。   On the other hand, as shown in FIG. 6 (a) in the source video of one frame of the input video signal, when the head of an out-of-focus person exists in the lower left part, the blur level calculation unit 31 sets the blur level for each block. Calculated. FIG. 6B shows a calculated value of the blur level binarized by the binarizer 32. The black part is the blurred part. The binarized video is labeled by the labeling unit 33. In the labeling process, blocks adjacent to each other in any of the four vertical and horizontal directions and the oblique four directions among the black blocks in FIG. 6B are defined as one region. FIG. 6C shows the result of the labeling process. In this example, the number of labels is 8 (Labels # 1 to # 8). A large area is extracted from the plurality of areas by the large area extracting unit 24 as shown in FIG. As shown in FIG. 6 (e), if the extracted region satisfies the determination conditions of the area ratio determination unit 35, the shape determination unit 36, the position determination unit 37, and the label number determination unit 38, In addition, it is detected as a blur shielding object. That is, the current frame is determined to be a frame including a blur shielding object. Therefore, it is possible to identify an image in which a person's head blocks the subject.

この例のように画面下部に頭が入り込んだ場合、その場合の「頭」はピントの合ってないボケた比較的大きい2次元連続領域であるので、上記の処理によって「頭」が検出される。ボケレベル検出を周波数解析によって行った場合は、例えば空などの平坦部もボケ領域として誤検出されてしまうことがあるが、「領域属性判定」で画面上部に重心がある領域、極端に横長な領域(=人間らしくない)は検出しないなどの条件を設定することにより、「頭が入り込んだ場合」を精度良く検出することができる。「領域属性判定」は、その領域の支配色や明度なども条件に加えることもできる。   When the head enters the lower part of the screen as in this example, the “head” in that case is a relatively large two-dimensional continuous area that is out of focus and is thus detected by the above processing. . When blur level detection is performed by frequency analysis, flat areas such as the sky may be erroneously detected as blur areas, but areas with a center of gravity at the top of the screen in `` area attribute determination '', extremely horizontally long areas By setting conditions such as not detecting (= not human), it is possible to accurately detect “when the head enters”. “Region attribute determination” can also include the dominant color and brightness of the region as a condition.

また、カメラが動いた場合に画面全体がボケたりすることがあるが、これも「領域属性判定」で、ほぼ画面全体が一つの領域として検出された場合、領域数がある閾値以上ある(=小さな領域が画面全体に散らばっている)場合は検出しないなどの条件を設定することにより、カメラワークによるボケと遮蔽物によるボケを区別することもできる。カメラワークとの区別は、カメラワーク検出を別に行って、その結果を参照するようにしても良い。   Also, when the camera moves, the entire screen may be blurred, but this is also “area attribute determination”, and when almost the entire screen is detected as one area, the number of areas exceeds a certain threshold (= By setting a condition such that detection is not performed when small areas are scattered over the entire screen, blur due to camera work and blur due to an obstacle can be distinguished. The distinction from camera work may be performed by separately detecting camera work and referring to the result.

このように遮蔽物が存在するフレームが判定されると、その判定されたフレームとその前後のフレームとが遮蔽物存在フレームとして検出枠拡大部5によって判定される。   When the frame in which the shield is present is determined in this way, the determined frame and the frames before and after the determined frame are determined by the detection frame enlargement unit 5 as the shield presence frame.

なお、上記した実施例においては、2D−DCT回路1によって映像信号を周波数解析し、その周波数解析した結果を用いて動きレベル及びぼけレベルを算出しているが、図7に示すように、映像信号を動きレベル算出部21及びぼけレベル算出部31に直接供給して映像信号に応じて動きレベル及びぼけレベルを別々の方法で算出しても良い。すなわち、動きレベル算出部21による動きレベル算出方法及びぼけレベル算出部31によるぼけレベル算出方法は上記した実施例に限定されない。   In the above embodiment, the video signal is frequency-analyzed by the 2D-DCT circuit 1 and the motion level and blur level are calculated using the result of the frequency analysis. However, as shown in FIG. The signal may be directly supplied to the motion level calculation unit 21 and the blur level calculation unit 31, and the motion level and the blur level may be calculated by different methods according to the video signal. That is, the motion level calculation method by the motion level calculation unit 21 and the blur level calculation method by the blur level calculation unit 31 are not limited to the above-described embodiments.

また、上記した実施例においては、動き遮蔽物判定系2とぼけ遮蔽物判定系3とが備えられ、判定結果統合部4においてその判定結果の論理和をとっているが、動き遮蔽物判定系2及びぼけ遮蔽物判定系3のうちのいずれか一方だけを備えても良い。すなわち、図8に示すように上記の動き遮蔽物判定系2の構成だけを備えた遮蔽物映像識別装置としても良いし、図9に示すように上記のぼけ遮蔽物判定系3の構成だけを備えた遮蔽物映像識別装置としても良い。   In the above-described embodiment, the motion shielding object determination system 2 and the blur shielding object determination system 3 are provided, and the determination result integration unit 4 takes the logical sum of the determination results. And only one of the blur shielding object determination system 3 may be provided. That is, as shown in FIG. 8, it is good also as an obstruction | occlusion image | video identification apparatus provided only with the structure of said motion shielding object determination system 2, or only the structure of said blur shielding object determination system 3 as shown in FIG. It is good also as a shield image identification device provided.

また、ぼけ遮蔽物判定系は、例えば、図10に示すように、検出枠拡大部5の出力信号を総合属性判定部39に入力する構成にすることにより、動き遮蔽物判定系で遮蔽物が検出された周辺ブロックのみや、動き遮蔽物判定系で遮蔽物が検出された後一定時間内に検出された場合だけぼけ遮蔽物判定し続けるようにしても良い。こうすることで、被写体の前を横切りそのままその場に留まってしまった遮蔽物を精度良く認識し、他のぼけ領域を遮蔽物として誤認識するのを避けることができる。   Further, the blur shielding object determination system is configured such that the output signal of the detection frame enlargement unit 5 is input to the general attribute determination unit 39 as shown in FIG. The blur shielding object determination may be continued only when it is detected only within the detected peripheral block or within a predetermined time after the shielding object is detected by the motion shielding object determination system. By doing so, it is possible to accurately recognize a shielding object that has crossed in front of the subject and stayed there, and to avoid misrecognizing another blurred region as a shielding object.

上記した実施例においては、面積比判定部25(35)、形状判定部26(36)及び位置判定部27(37)の各々の判定条件を全て満足しなければ、遮蔽物としての判定が決定されないが、その全ての判定条件のうちの少なくとも1の判定条件を満足すれば、大領域が遮蔽物部分と判定しても良い。また、ラベル数判定部28(38)のラベル数の判定はなくても良い。   In the above-described embodiment, if all the determination conditions of the area ratio determination unit 25 (35), the shape determination unit 26 (36), and the position determination unit 27 (37) are not satisfied, the determination as a shielding object is determined. However, the large area may be determined as the shielding part if at least one of the determination conditions is satisfied. Further, the label number determination unit 28 (38) may not determine the number of labels.

また、上記した実施例においては、2D−DCT回路1によって映像信号をDCTしているが、変換方式としてはDCTではなく、DFT(離散フーリエ変換)を用いても良い。   In the above-described embodiment, the video signal is DCTed by the 2D-DCT circuit 1. However, instead of DCT, DFT (Discrete Fourier Transform) may be used as the conversion method.

更に、上記した実施例においては、遮蔽物の判定のために映像信号を1フレーム毎にブロック単位で処理したが、映像信号を1フレーム毎に画素単位で処理しても良い。また、ブロックとしては16画素×16画素に限らず、8画素×8画素等の画素数でも良い。   Furthermore, in the above-described embodiment, the video signal is processed in units of blocks for each frame in order to determine the shielding object, but the video signal may be processed in units of pixels for each frame. Further, the block is not limited to 16 pixels × 16 pixels, and the number of pixels such as 8 pixels × 8 pixels may be used.

また、動きレベルの算出方法及びぼけレベルの算出方法について上記した実施例に限定されない。動きレベルとしてはMPEG符号化で用いられるような、ブロックマッチングによる動きベクトルから算出しても良いし、オプティカルフローから求めても良い。ぼけレベルは、ブロック単位のコントラストから求めても良い。   Further, the motion level calculation method and the blur level calculation method are not limited to the above-described embodiments. The motion level may be calculated from a motion vector by block matching as used in MPEG encoding, or may be obtained from an optical flow. The blur level may be obtained from the contrast of the block unit.

上記した動き遮蔽物判定系2及びぼけ遮蔽物判定系3を個別の又は単一のコンピュータによって構成しても良い。すなわち、動き遮蔽物判定系2の各部の行程を実行するコンピュータ読取可能なプログラム及びぼけ遮蔽物判定系3の各部の行程を実行するコンピュータ読取可能なプログラムをメモリに保存しておき、そのプログラムをコンピュータが実行することにより動き遮蔽物判定系2及びぼけ遮蔽物判定系3の各部の機能を達成させるのである。   The motion shielding object determination system 2 and the blur shielding object determination system 3 described above may be configured individually or by a single computer. That is, a computer-readable program for executing a process of each part of the motion shielding object determination system 2 and a computer-readable program for executing a process of each part of the blur shielding object determination system 3 are stored in a memory. When executed by the computer, the function of each part of the motion shielding object judgment system 2 and the blur shielding object judgment system 3 is achieved.

以上の如く、本発明によれば、映像信号から映像中の動きがある遮蔽物及び非合焦の遮蔽物を共に正確に識別することができ、編集作業の際に映像からの不要シーンの映像の選別を容易に行うことができる。   As described above, according to the present invention, it is possible to accurately identify both a moving object and a non-focused object in the image from the image signal. Can be easily selected.

Claims (21)

映像中の遮蔽物を識別する遮蔽物映像識別装置であって、
映像信号をフレーム毎に画素単位又はブロック単位で動きレベルを算出する動きレベル算出手段と、
前記動きレベルの算出値を2値化する2値化手段と、
フレーム毎に前記2値化手段の出力値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する2次元連続領域検出手段と、
前記2次元連続領域検出手段によって検出された領域のうちで所定の面積以上の領域を大領域として抽出する大領域抽出手段と、
前記大領域の外接矩形面積と領域面積との比が第1所定の範囲の値であるとき面積比判定条件を満足すると判定する面積比判定部と、
前記大領域の横幅と縦幅との比が第2所定の範囲の値であるとき形状判定条件を満たすと判定する形状判定部と、
前記大領域の重心の垂直方向座標が画面全体の所定の下方部分にあるとき位置判定条件を満足すると判定する位置判定部と、
前記面積比判定条件、前記形状判定条件及び前記位置判定条件のうちの少なくとも1が満足されたとき前記大領域を遮蔽物部分として判定する遮蔽物判定手段と、を備えたことを特徴とする遮蔽物映像識別装置。
A shield image identification device for identifying a shield in a video,
A motion level calculating means for calculating a motion level for each frame of a video signal in units of pixels or blocks;
Binarization means for binarizing the calculated value of the movement level;
Two-dimensional continuous area detecting means for detecting adjacent areas adjacent to each other between pixels or blocks in which the output value of the binarizing means takes the same value for each frame;
A large area extracting means for extracting, as a large area, an area having a predetermined area or more among the areas detected by the two-dimensional continuous area detecting means;
An area ratio determination unit that determines that an area ratio determination condition is satisfied when a ratio between a circumscribed rectangular area of the large region and a region area is a value in a first predetermined range;
A shape determination unit that determines that a shape determination condition is satisfied when a ratio of a horizontal width to a vertical width of the large region is a value in a second predetermined range;
A position determination unit that determines that the position determination condition is satisfied when the vertical coordinate of the center of gravity of the large area is in a predetermined lower part of the entire screen;
Shielding means comprising: shielding object determination means for determining the large area as a shielding object part when at least one of the area ratio determination condition, the shape determination condition, and the position determination condition is satisfied Object image identification device.
前記動きレベル算出手段は、映像信号をフレーム毎に画素単位又は複数の画素からなるブロック単位で周波数解析してする周波数解析手段を有し、前記周波数解析手段による周波数解析結果に応じて垂直方向の最高周波数成分のパワーと、直流成分を除いた全成分のパワーの和との比を前記動きレベルの値とすることを特徴とする請求項1記載の遮蔽物映像識別装置。The motion level calculation means has frequency analysis means for analyzing the frequency of the video signal for each frame in units of pixels or in units of blocks including a plurality of pixels . 2. The shielding object image identification apparatus according to claim 1, wherein a ratio between the power of the highest frequency component and the sum of the powers of all components excluding the DC component is set as the value of the motion level. 前記周波数解析手段は、複数の画素からなるブロック単位でDCT(2次元離散コサイン変換)又はDFT(離散フーリエ変換)を行うことを特徴とする請求項記載の遮蔽物映像識別装置。 3. The shielding object image identification apparatus according to claim 2 , wherein the frequency analysis means performs DCT (two-dimensional discrete cosine transform) or DFT (discrete Fourier transform) on a block unit basis of a plurality of pixels. 前記2次元連続領域検出手段は、フレーム毎に前記2値化手段の出力値に対するラベリング処理を行うことを特徴とする請求項1記載の遮蔽物映像識別装置。  The shielding image identifying apparatus according to claim 1, wherein the two-dimensional continuous area detecting unit performs a labeling process on the output value of the binarizing unit for each frame. 記2次元連続領域検出手段によって検出された1フレーム内の領域の数が所定数以下であるか否かを判定する数判定部を備え、
前記遮蔽物判定手段は、前記数判定部によって1フレーム内の領域の数が所定数以下であることが判定されたときに前記大領域を遮蔽物部分として判定することを特徴とする請求項1記載の遮蔽物映像識別装置。
Before SL includes a count determination unit determines whether the number of regions in the 1 frame detected is less than a predetermined number by two-dimensional continuous region detecting means,
2. The shielding object judging means, wherein when the number judging unit judges that the number of areas in one frame is equal to or less than a predetermined number, the large area is judged as a shielding part. The shielding object image identification device described.
前記判定手段によって前記大領域が遮蔽物部分であると判定されたフレームと、その前後の所定フレーム区間とを、遮蔽物部分が存在する区間であると判定する検出枠拡大手段を有することを特徴とする請求項1記載の遮蔽物映像識別装置。  And a detection frame enlarging unit that determines a frame in which the large region is determined to be a shield part by the determination unit and a predetermined frame section before and after the frame as a section where the shield part exists. The shielding object image identification device according to claim 1. 映像中の遮蔽物を識別する遮蔽物映像識別装置であって、
映像信号をフレーム毎に画素単位又は複数の画素からなるブロック単位で周波数解析する周波数解析手段と、
前記周波数解析手段による周波数解析結果に応じて画素単位又はブロック単位で低域の周波数成分パワーとそれを除く高域の周波数成分パワーとの比を映像のぼけレベルの算出値とするぼけレベル算出手段と、
前記ぼけレベルの算出値を2値化する2値化手段と、
フレーム毎に前記2値化手段の出力値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する2次元連続領域検出手段と、
前記2次元連続領域検出手段によって検出された領域のうちで所定の面積以上の領域を大領域として抽出する大領域抽出手段と、
前記大領域抽出手段によって抽出された大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定する判定手段と、を備えたことを特徴とする遮蔽物映像識別装置。
A shield image identification device for identifying a shield in a video,
A frequency analysis means for analyzing the frequency of the video signal in units of pixels or in units of blocks composed of a plurality of pixels for each frame;
A blur level calculation unit that uses a ratio between a low frequency component power and a high frequency component power other than that in a pixel unit or a block unit according to a frequency analysis result by the frequency analysis unit as a calculated value of a blur level of an image. When,
Binarization means for binarizing the calculated value of the blur level;
Two-dimensional continuous area detecting means for detecting adjacent areas adjacent to each other between pixels or blocks in which the output value of the binarizing means takes the same value for each frame;
A large area extracting means for extracting, as a large area, an area having a predetermined area or more among the areas detected by the two-dimensional continuous area detecting means;
The area ratio in the large region extracted by the large area extracting means, the shape and determining means and, shield image identification, characterized in that it comprises a its large area as a shield portion based at least on the first position apparatus.
前記周波数解析手段は、複数の画素からなるブロック単位でDCT又はDFTを行うことを特徴とする請求項記載の遮蔽物映像識別装置。The shielding image identifying apparatus according to claim 7 , wherein the frequency analysis unit performs DCT or DFT in units of blocks including a plurality of pixels. 前記2次元連続領域検出手段は、フレーム毎に前記2値化手段の出力値に対するラベリング処理を行うことを特徴とする請求項記載の遮蔽物映像識別装置。The shielding image identifying apparatus according to claim 7, wherein the two-dimensional continuous area detecting unit performs a labeling process on the output value of the binarizing unit for each frame. 前記判定手段は、前記大領域の外接矩形面積と領域面積との比が第1所定の範囲の値であるとき面積比判定条件を満足すると判定する面積比判定部と、前記大領域の横幅と縦幅との比が第2所定の範囲の値であるとき形状判定条件を満たすと判定する形状判定部と、前記大領域の重心の垂直方向座標が画面全体の所定の下方部分にあるとき位置判定条件を満足すると判定する位置判定部と、を備えたことを特徴とする請求項記載の遮蔽物映像識別装置。The determination means includes an area ratio determination unit that determines that an area ratio determination condition is satisfied when a ratio of a circumscribed rectangular area of the large region to a region area is a value in a first predetermined range; and a width of the large region A shape determination unit that determines that a shape determination condition is satisfied when the ratio to the vertical width is a value in a second predetermined range, and a position when the vertical coordinate of the center of gravity of the large area is in a predetermined lower part of the entire screen A shielding object image identification apparatus according to claim 7 , further comprising a position determination unit that determines that the determination condition is satisfied. 記2次元連続領域検出手段によって検出された1フレーム内の領域の数が所定数以下であるか否かを判定する数判定部を備え、
前記判定手段は、前記数判定部によって1フレーム内の領域の数が所定数以下であることが判定されたときに前記大領域を遮蔽物部分として判定することを特徴とする請求項記載の遮蔽物映像識別装置。
Before SL includes a count determination unit determines whether the number of regions in the 1 frame detected is less than a predetermined number by two-dimensional continuous region detecting means,
The determination means according to claim 7, wherein said large area determining the shield portion when the number of areas in one frame by the number determining unit determines not more than a predetermined number Shield image identification device.
前記判定手段によって前記大領域が遮蔽物部分であると判定されたフレームと、その前後の所定フレーム区間とを、遮蔽物部分が存在する区間であると判定する検出枠拡大手段を有することを特徴とする請求項記載の遮蔽物映像識別装置。And a detection frame enlarging unit that determines a frame in which the large region is determined to be a shield part by the determination unit and a predetermined frame section before and after the frame as a section where the shield part exists. The shielding object image identification device according to claim 7 . 映像中の遮蔽物を識別する遮蔽物映像識別装置であって、
映像信号をフレーム毎に画素単位又はブロック単位で動きレベルを算出する動きレベル算出手段と、
前記動きレベルの算出値を2値化する第1の2値化手段と、
フレーム毎に前記第1の2値化手段の出力値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する第1の2次元連続領域検出手段と、
前記第1の2次元連続領域検出手段によって検出された領域のうちで所定の面積以上の領域を大領域として抽出する第1の大領域抽出手段と、
前記第1の大領域抽出手段によって抽出された大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定する第1の判定手段と、
画素単位又はブロック単位で映像のぼけレベルを算出するぼけレベル算出手段と、
前記ぼけレベルの算出値を2値化する第2の2値化手段と、
フレーム毎に前記第2の2値化手段の出力値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する第2の2次元連続領域検出手段と、
前記第2の2次元連続領域検出手段によって検出された領域のうちで所定の面積以上の領域を大領域として抽出する第2の大領域抽出手段と、
前記第2の大領域抽出手段によって抽出された大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定する第2の判定手段と、を備え
前記ぼけレベル算出手段は、映像信号をフレーム毎に画素単位又は複数の画素からなるブロック単位で周波数解析する周波数解析手段を有し、前記周波数解析手段による周波数解析結果に応じて画素単位又はブロック単位で低域の周波数成分パワーとそれを除く高域の周波数成分パワーとの比を前記ぼけレベルの算出値とすることを特徴とする遮蔽物映像識別装置。
A shield image identification device for identifying a shield in a video,
A motion level calculating means for calculating a motion level for each frame of a video signal in units of pixels or blocks;
First binarization means for binarizing the calculated value of the movement level;
First two-dimensional continuous area detection means for detecting continuous areas adjacent between pixels or blocks in which the output value of the first binarization means has the same value for each frame;
First large area extraction means for extracting an area having a predetermined area or more as a large area among areas detected by the first two-dimensional continuous area detection means;
A first determination means for determining the area ratio in the large regions extracted, and the large area based on at least the shape and position as a shield portions by the first large-area extracting means,
A blur level calculation means for calculating a blur level of a video in pixel units or block units;
Second binarizing means for binarizing the calculated value of the blur level;
Second two-dimensional continuous area detecting means for detecting continuous areas adjacent between pixels or blocks in which the output value of the second binarizing means has the same value for each frame;
A second large area extracting means for extracting an area having a predetermined area or more as a large area among the areas detected by the second two-dimensional continuous area detecting means;
Second determining means for determining the large area as a shielding part based on at least one of the area ratio, shape and position in the large area extracted by the second large area extracting means ;
The blur level calculation means includes frequency analysis means for analyzing the frequency of the video signal in units of pixels or in blocks of a plurality of pixels for each frame, and in units of pixels or blocks according to the frequency analysis result by the frequency analysis means And a ratio of a low frequency component power to a high frequency component power excluding the low frequency component power is used as the calculated blur level .
前記第1の判定手段の判定結果と前記第2の判定手段の判定結果とに基づいて最終判定結果を得る判定結果統合手段を有することを特徴とする請求項13記載の遮蔽物映像識別装置。14. The shielding object image identification apparatus according to claim 13 , further comprising a determination result integration unit that obtains a final determination result based on the determination result of the first determination unit and the determination result of the second determination unit. 前記判定結果統合手段は、前記第1の判定手段の判定結果と、前記第2の判定手段の判定結果との論理和をとることを特徴とする請求項14記載の遮蔽物映像識別装置。 15. The shielding object image identification apparatus according to claim 14 , wherein the determination result integration unit takes a logical sum of the determination result of the first determination unit and the determination result of the second determination unit. 前記判定結果統合手段によって遮蔽物部分であると判定されたフレームと、その前後の所定フレーム区間とを、遮蔽物部分が存在する区間であると判定する検出枠拡大手段を有することを特徴とする請求項14記載の遮蔽物映像識別装置And a detection frame enlarging unit that determines that the frame determined to be the shielding part by the determination result integrating unit and the predetermined frame sections before and after the frame are sections where the shielding part exists. The shielding object image identification device according to claim 14. 前記第2の判定手段は、前記検出枠拡大手段で拡大された検出枠区間のみ、遮蔽物部分として判定することを特徴とする請求項16記載の遮蔽物映像識別装置。The second determination means, the detection frame expanding means only expanded detection frame interval, the shield image identification apparatus according to claim 16, wherein the determining a shield portion. 映像中の遮蔽物を識別する遮蔽物映像識別方法であって、
映像信号をフレーム毎に画素単位又はブロック単位で動きレベルを算出する動きレベル算出ステップと、
前記動きレベルの算出値を2値化する2値化ステップと、
フレーム毎に前記2値化ステップにおいて2値化された値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する2次元連続領域検出ステップと、
前記2次元連続領域検出ステップにおいて検出された領域のうちで所定の面積以上の領域を大領域として抽出する大領域抽出ステップと、
前記大領域の外接矩形面積と領域面積との比が第1所定の範囲の値であるとき面積比判定条件を満足すると判定する面積比判定ステップと、
前記大領域の横幅と縦幅との比が第2所定の範囲の値であるとき形状判定条件を満たすと判定する形状判定ステップと、
前記大領域の重心の垂直方向座標が画面全体の所定の下方部分にあるとき位置判定条件を満足すると判定する位置判定ステップと、
前記面積比判定条件、前記形状判定条件及び前記位置判定条件のうちの少なくとも1が満足されたとき前記大領域を遮蔽物部分として判定する遮蔽物判定ステップと、 を備えたことを特徴とする遮蔽物映像識別方法。
A method of identifying a shielding object image that identifies a shielding object in an image,
A motion level calculating step for calculating a motion level for each frame of a video signal in units of pixels or blocks;
A binarization step for binarizing the calculated value of the movement level;
A two-dimensional continuous region detection step for detecting a continuous region adjacent between pixels or blocks in which the values binarized in the binarization step have the same value for each frame;
A large region extracting step of extracting a region having a predetermined area or more as a large region among the regions detected in the two-dimensional continuous region detecting step;
An area ratio determining step for determining that an area ratio determination condition is satisfied when a ratio of a circumscribed rectangular area of the large region and a region area is a value in a first predetermined range;
A shape determination step for determining that a shape determination condition is satisfied when the ratio of the horizontal width to the vertical width of the large region is a value in a second predetermined range;
A position determination step for determining that the position determination condition is satisfied when the vertical coordinate of the center of gravity of the large area is in a predetermined lower portion of the entire screen;
A shielding object determining step of determining the large region as a shielding object part when at least one of the area ratio determination condition, the shape determination condition, and the position determination condition is satisfied. Object image identification method.
映像中の遮蔽物を識別する遮蔽物映像識別方法であって、
映像信号をフレーム毎に画素単位又は複数の画素からなるブロック単位で周波数解析する周波数解析ステップと、
前記周波数解析ステップによる周波数解析結果に応じて画素単位又はブロック単位で低域の周波数成分パワーとそれを除く高域の周波数成分パワーとの比を映像のぼけレベルの算出値とするぼけレベル算出ステップと、
前記ぼけレベルの算出値を2値化する2値化ステップと、
フレーム毎に前記2値化ステップにおいて2値化された値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する2次元連続領域検出ステップと、
前記2次元連続領域検出ステップにおいて検出された領域のうちで所定の面積以上の領域を大領域として抽出する大領域抽出ステップと、
前記大領域抽出ステップにおいて抽出された大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定する判定ステップと、を備えたことを特徴とする遮蔽物映像識別方法。
A method of identifying a shielding object image that identifies a shielding object in an image,
A frequency analysis step for analyzing the frequency of the video signal in units of pixels or in units of blocks including a plurality of pixels for each frame;
A blur level calculation step in which a ratio of a low frequency component power to a high frequency component power other than that in a pixel unit or a block unit according to a frequency analysis result in the frequency analysis step is used as a calculation value of a blur level of an image. When,
A binarization step for binarizing the calculated value of the blur level;
A two-dimensional continuous region detection step for detecting a continuous region adjacent between pixels or blocks in which the values binarized in the binarization step have the same value for each frame;
A large region extracting step of extracting a region having a predetermined area or more as a large region among the regions detected in the two-dimensional continuous region detecting step;
The area ratio in the large region extracted in large area extracting step, the shape and determining steps and, shield image identification, characterized in that it comprises a its large area as a shield portion based at least on the first position Method.
映像中の遮蔽物を識別する遮蔽物映像識別方法を実行するコンピュータ読取可能なプログラムであって、
映像信号をフレーム毎に画素単位又はブロック単位で動きレベルを算出する動きレベル算出ステップと、
前記動きレベルの算出値を2値化する2値化ステップと、
フレーム毎に前記2値化ステップにおいて2値化された値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する2次元連続領域検出ステップと、
前記2次元連続領域検出ステップにおいて抽出された領域のうちで所定の面積以上の領域を大領域として抽出する大領域抽出ステップと、
前記大領域の外接矩形面積と領域面積との比が第1所定の範囲の値であるとき面積比判定条件を満足すると判定する面積比判定ステップと、
前記大領域の横幅と縦幅との比が第2所定の範囲の値であるとき形状判定条件を満たすと判定する形状判定ステップと、
前記大領域の重心の垂直方向座標が画面全体の所定の下方部分にあるとき位置判定条件を満足すると判定する位置判定ステップと、
前記面積比判定条件、前記形状判定条件及び前記位置判定条件のうちの少なくとも1が満足されたとき前記大領域を遮蔽物部分として判定する遮蔽物判定ステップと、を備えたことを特徴とするプログラム。
A computer-readable program for executing a shielding image identification method for identifying a shielding object in an image,
A motion level calculating step for calculating a motion level for each frame of a video signal in units of pixels or blocks;
A binarization step for binarizing the calculated value of the movement level;
A two-dimensional continuous region detection step for detecting a continuous region adjacent between pixels or blocks in which the values binarized in the binarization step have the same value for each frame;
A large region extracting step of extracting a region having a predetermined area or more as a large region among the regions extracted in the two-dimensional continuous region detecting step;
An area ratio determining step for determining that an area ratio determination condition is satisfied when a ratio of a circumscribed rectangular area of the large region and a region area is a value in a first predetermined range;
A shape determination step for determining that a shape determination condition is satisfied when the ratio of the horizontal width to the vertical width of the large region is a value in a second predetermined range;
A position determination step for determining that the position determination condition is satisfied when the vertical coordinate of the center of gravity of the large area is in a predetermined lower portion of the entire screen;
And a shielding object determining step for determining the large area as a shielding object part when at least one of the area ratio determination condition, the shape determination condition, and the position determination condition is satisfied. .
映像中の遮蔽物を識別する遮蔽物映像識別方法を実行するコンピュータ読取可能なプログラムであって、
映像信号をフレーム毎に画素単位又は複数の画素からなるブロック単位で周波数解析する周波数解析ステップと、
前記周波数解析ステップによる周波数解析結果に応じて画素単位又はブロック単位で低域の周波数成分パワーとそれを除く高域の周波数成分パワーとの比を映像のぼけレベルの算出値とするぼけレベル算出ステップと、
前記ぼけレベルの算出値を2値化する2値化ステップと、
フレーム毎に前記2値化ステップにおいて2値化された値が同一値をとった画素又はブロック間で隣接した連続的な領域を検出する2次元連続領域検出ステップと、
前記2次元連続領域検出ステップにおいて検出された領域のうちで所定の面積以上の領域を大領域として抽出する大領域抽出ステップと、
前記大領域抽出ステップにおいて抽出された大領域における面積比、形状及び位置の少なくとも1に基づいてその大領域を遮蔽物部分として判定する判定ステップと、を備えたことを特徴とするプログラム。
A computer-readable program for executing a shielding image identification method for identifying a shielding object in an image,
A frequency analysis step for analyzing the frequency of the video signal in units of pixels or in units of blocks including a plurality of pixels for each frame;
A blur level calculation step in which a ratio of a low frequency component power to a high frequency component power other than that in a pixel unit or a block unit according to a frequency analysis result in the frequency analysis step is used as a calculation value of a blur level of an image. When,
A binarization step for binarizing the calculated value of the blur level;
A two-dimensional continuous region detection step for detecting a continuous region adjacent between pixels or blocks in which the values binarized in the binarization step have the same value for each frame;
A large region extracting step of extracting a region having a predetermined area or more as a large region among the regions detected in the two-dimensional continuous region detecting step;
The large region extraction area ratio in the large region extracted in step, the shape and position program characterized by comprising a determining step the large area as a shield portion based at least 1, of.
JP2008514440A 2006-05-09 2007-04-26 Shielding object image identification apparatus and method Expired - Fee Related JP4913801B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008514440A JP4913801B2 (en) 2006-05-09 2007-04-26 Shielding object image identification apparatus and method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006130184 2006-05-09
JP2006130184 2006-05-09
PCT/JP2007/059029 WO2007129591A1 (en) 2006-05-09 2007-04-26 Shielding-object video-image identifying device and method
JP2008514440A JP4913801B2 (en) 2006-05-09 2007-04-26 Shielding object image identification apparatus and method

Publications (2)

Publication Number Publication Date
JPWO2007129591A1 JPWO2007129591A1 (en) 2009-09-17
JP4913801B2 true JP4913801B2 (en) 2012-04-11

Family

ID=38667699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008514440A Expired - Fee Related JP4913801B2 (en) 2006-05-09 2007-04-26 Shielding object image identification apparatus and method

Country Status (4)

Country Link
US (1) US8311269B2 (en)
EP (1) EP2017788A4 (en)
JP (1) JP4913801B2 (en)
WO (1) WO2007129591A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110027238A (en) * 2009-09-10 2011-03-16 삼성전자주식회사 Apparatus and method for processing an image data in portable terminal
KR101094304B1 (en) * 2010-02-23 2011-12-19 삼성모바일디스플레이주식회사 Display device and method for image processing thereof
JP2012133759A (en) * 2010-11-29 2012-07-12 Canon Inc Object tracking device capable of detecting intrusion object, object tracking method, and storage medium
EP2536143B1 (en) * 2011-06-16 2015-01-14 Axis AB Method and a digital video encoder system for encoding digital video data
CN110959284B (en) * 2017-08-03 2021-09-21 Eizo株式会社 Image processing apparatus, image processing method, and recording medium
SG10201913146VA (en) * 2019-12-24 2020-11-27 Sensetime Int Pte Ltd Method and apparatus for filtrating images and electronic device
CN113869295A (en) * 2021-09-27 2021-12-31 上海商汤智能科技有限公司 Object detection method and device, electronic equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765173A (en) * 1993-08-30 1995-03-10 Oki Electric Ind Co Ltd Intruding body recognition method
JPH11316843A (en) * 1998-01-26 1999-11-16 Xerox Corp Image block type determining method for adaptive quantization of digital image
JP2004110542A (en) * 2002-09-19 2004-04-08 Toshiba Corp Object detection device and object detection method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5706361A (en) * 1995-01-26 1998-01-06 Autodesk, Inc. Video seed fill over time
JPH09252467A (en) 1996-03-18 1997-09-22 Toshiba Corp Mobile object detector
KR100253203B1 (en) * 1997-10-29 2000-04-15 구자홍 The objection extraction method using motion picture
JP2000073657A (en) * 1998-09-01 2000-03-07 Mitsubishi Electric Corp Power door system
JP2002027449A (en) 2000-07-10 2002-01-25 Fujitsu Ltd Method and apparatus for identifying moving object
US7181082B2 (en) * 2002-12-18 2007-02-20 Sharp Laboratories Of America, Inc. Blur detection system
JP2005136727A (en) 2003-10-30 2005-05-26 Canon Inc Electronic camera device, method for controlling the same, computer program and computer-readable recording medium
JP2006098152A (en) * 2004-09-29 2006-04-13 Dainippon Screen Mfg Co Ltd Apparatus and method for detecting defect

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765173A (en) * 1993-08-30 1995-03-10 Oki Electric Ind Co Ltd Intruding body recognition method
JPH11316843A (en) * 1998-01-26 1999-11-16 Xerox Corp Image block type determining method for adaptive quantization of digital image
JP2004110542A (en) * 2002-09-19 2004-04-08 Toshiba Corp Object detection device and object detection method

Also Published As

Publication number Publication date
US20090180670A1 (en) 2009-07-16
US8311269B2 (en) 2012-11-13
WO2007129591A1 (en) 2007-11-15
EP2017788A1 (en) 2009-01-21
JPWO2007129591A1 (en) 2009-09-17
EP2017788A4 (en) 2012-05-09

Similar Documents

Publication Publication Date Title
KR101971866B1 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
JP5284048B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP4913801B2 (en) Shielding object image identification apparatus and method
US10540791B2 (en) Image processing apparatus, and image processing method for performing scaling processing based on image characteristics
US8254630B2 (en) Subject extracting method and device by eliminating a background region using binary masks
JP5810296B2 (en) Image display device and image display method
WO2017179511A1 (en) Information processing apparatus and information processing method for detecting position of object
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
JP6141829B2 (en) Movie analysis apparatus, movie analysis method, program, and integrated circuit
JP7159384B2 (en) Image processing device, image processing method, and program
JP5725194B2 (en) Night scene image blur detection system
JP2011188297A (en) Electronic zoom apparatus, electronic zoom method, and program
US20220358619A1 (en) Automatic dolly zoom image processing device
WO2016031573A1 (en) Image-processing device, image-processing method, program, and recording medium
JP2008288684A (en) Person detection device and program
JP2008035301A (en) Mobile body tracing apparatus
JP5173549B2 (en) Image processing apparatus and imaging apparatus
JP2006215655A (en) Method, apparatus, program and program storage medium for detecting motion vector
JP4960442B2 (en) UPSHOT DETECTING DEVICE AND METHOD, ELECTRONIC DEVICE, AND COMPUTER PROGRAM
JP4096757B2 (en) Image tracking device
JP4743601B2 (en) Moving image processing device
Romić et al. Influence of the input image resolution on the staircase detection
JP2004295416A (en) Image processing apparatus
Lavigne et al. Automatic Video Zooming for Sport Team Video Broadcasting on Smart Phones.
KR102629213B1 (en) Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111227

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120119

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees