JP2008227636A - Rotating object image processor, rotating object image processing method and rotating object image processing program - Google Patents

Rotating object image processor, rotating object image processing method and rotating object image processing program Download PDF

Info

Publication number
JP2008227636A
JP2008227636A JP2007059310A JP2007059310A JP2008227636A JP 2008227636 A JP2008227636 A JP 2008227636A JP 2007059310 A JP2007059310 A JP 2007059310A JP 2007059310 A JP2007059310 A JP 2007059310A JP 2008227636 A JP2008227636 A JP 2008227636A
Authority
JP
Japan
Prior art keywords
image
rotating
rotating object
image processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007059310A
Other languages
Japanese (ja)
Inventor
Yasuyuki Nakada
康之 中田
Toru Kamata
徹 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2007059310A priority Critical patent/JP2008227636A/en
Publication of JP2008227636A publication Critical patent/JP2008227636A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To execute automatic adjustment so as to turn an object to the optimum size within a visual field of a camera when photographing the rotating object with the same camera. <P>SOLUTION: In the rotating object image processor, a rotating object detection part 13 inputs the image of the rotating object from a video camera 15 and detects an area occupied by the rotating object on the image by image processing. A magnification calculation part 14 determines the zoom magnification of the video camera 15 on the basis of the obtained occupancy area and executes adjustment. Thus, the rotating object is photographed in the optimum size from the photographing of the second rotation. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は,回転する物体(部材)を撮影し記録する装置であって,撮影した物体がカメラ視野内で最適な大きさになるように自動調整する回転物体画像処理装置に関し,例えば,生産ラインなどにおいて,製造中あるいは製造済みの部材の映像(または複数枚の画像)を記録する装置に関するものである。   The present invention relates to an apparatus for photographing and recording a rotating object (member), and relates to a rotating object image processing apparatus that automatically adjusts the photographed object so as to have an optimum size within the field of view of the camera. The present invention relates to an apparatus for recording an image (or a plurality of images) of a member being manufactured or manufactured.

従来,大きさの異なる複数の部材を,人手によって,順次,映像で記録・保存する際,部材がカメラ視野に収まるように,オペレータは,ズーム倍率をその都度調節する必要があった。特に,部材の仕上がり状態を各方向から確認するため,部材を回転させる場合,部材がカメラ視野から外れないように,ズーム倍率を細かく調整する必要があった。   Conventionally, when a plurality of members having different sizes are recorded and stored sequentially by video manually, the operator has to adjust the zoom magnification each time so that the members can be accommodated in the camera field of view. In particular, in order to check the finished state of the member from each direction, when the member is rotated, it is necessary to finely adjust the zoom magnification so that the member does not deviate from the camera field of view.

一方,人手によらず,ズーム倍率を自動調整する方法として,移動する物体を撮影するときに,パンチルトカメラなどで追跡しながら,物体がカメラ視野内で最適な大きさとなるような方式が提案されている。   On the other hand, as a method for automatically adjusting the zoom magnification regardless of human hands, a method has been proposed in which an object becomes the optimum size within the camera field of view while tracking with a pan-tilt camera or the like when shooting a moving object. ing.

(1)画像処理を用いて,撮影対象物の輪郭を検出し,対象の大きさからズームレンズを制御して対象が最適な大きさになるように撮影する(特許文献1)。   (1) The image processing is used to detect the contour of the object to be photographed, and the zoom lens is controlled based on the size of the object, and the object is photographed so as to have an optimum size (Patent Document 1).

(2)肌色検出で人物領域を抽出し,該当領域を切り出すことで追尾とズーム動作を実現する(特許文献2,特許文献3)。   (2) A person region is extracted by skin color detection, and tracking and zooming operations are realized by cutting out the corresponding region (Patent Documents 2 and 3).

(3)また,肌色検出で顔や手を検出することで,人物の大きさを獲得し,パンチルトカメラで,追尾・自動ズームを行う(特許文献4)。
特開平9−238279号公報 特開平6−268894号公報 特開2004−282535号公報 特開平5−219421号公報
(3) Further, the size of a person is acquired by detecting a face and a hand by skin color detection, and tracking and automatic zooming are performed with a pan / tilt camera (Patent Document 4).
Japanese Patent Laid-Open No. 9-238279 JP-A-6-268894 JP 2004-282535 A JP-A-5-219421

上記の特許文献1〜4に記載されているような方法を用いると,部材が回転し,見かけの大きさが変わったときに,ズーム倍率の拡大と縮小が繰り返される。しかし,部材の回転に連動してズーム倍率が変化すると,部材を前や横から見たときの(三角法図面の正面図や側面図に相当する)縮尺が変わるため,全体的な外観を把握するというニーズに答えられない。つまり,部材が回転中のズーム倍率を一定にし,全体像を撮影することができないといった問題があった。   When the methods described in Patent Documents 1 to 4 are used, when the member rotates and the apparent size changes, enlargement and reduction of the zoom magnification are repeated. However, if the zoom magnification changes in conjunction with the rotation of the member, the scale of the member when viewed from the front or side changes (corresponding to the front view or side view of the trigonometric drawing), so the overall appearance is grasped. I cannot answer the need to do. That is, there is a problem that the zoom magnification during rotation of the member is constant and the entire image cannot be taken.

本発明は上記問題点の解決を図り,回転する物体を最適なズーム倍率で撮影する装置の提供を目的とする。特に,回転する物体を同一のカメラで撮影する場合に,物体がカメラ視野内で最適な大きさとなるように自動調節することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to solve the above-described problems and provide an apparatus for photographing a rotating object at an optimum zoom magnification. In particular, when a rotating object is photographed with the same camera, the object is to automatically adjust the object so that it has an optimum size within the camera field of view.

本発明は,上記課題を解決するため,特に回転体検出手段と倍率算出手段とを有し,回転体検出手段は,カメラから回転している物体の画像を入力し,その回転している物体が画像上で占有する領域を画像処理によって検出し,倍率算出手段が,求めた占有領域をもとに,カメラのズーム倍率を決定・調節することで,回転する物体を最適な大きさで撮影することを特徴とする。以下,撮影される物体が製品の部材である例を説明する。   In order to solve the above-described problems, the present invention particularly includes a rotating body detecting unit and a magnification calculating unit, and the rotating body detecting unit inputs an image of a rotating object from a camera and the rotating object. Detects the area occupied by the image by image processing, and the magnification calculation means determines and adjusts the camera zoom magnification based on the obtained area, thereby capturing the rotating object at the optimum size. It is characterized by doing. Hereinafter, an example in which an object to be photographed is a product member will be described.

この発明では,まず,カメラのズーム倍率を広角に設定して回転する部材を撮影し,画像処理によって,部材領域を検出する。このとき,部材を載せている回転台が1回転するまで,フレーム画像内の部材領域を格納しておく。1回転後に,格納してある全ての部材領域を重ね合わせ,部材が回転中に占める領域を求める。求めた部材占有領域をもとに,カメラのズーム倍率を決定・調節し,映像記録を開始する。   In the present invention, first, a rotating member is photographed with the zoom magnification of the camera set to a wide angle, and the member region is detected by image processing. At this time, the member region in the frame image is stored until the turntable on which the member is placed makes one rotation. After one rotation, all the stored member regions are overlapped to determine the region occupied by the member during rotation. Based on the obtained member occupation area, the camera zoom magnification is determined and adjusted, and video recording is started.

また,本発明は,カメラのズーム倍率を広角に設定し,部材が1回転する際の画像内の部材領域を,各フレームにおいて検出し,1回転後に,格納してある全ての部材領域を重ね合わせることで,部材が回転中に占める領域を求め,求めた部材占有領域をもとに,カメラのズーム倍率を決定・調節し,映像を記録することを特徴とする。   In addition, the present invention sets the zoom magnification of the camera to a wide angle, detects the member region in the image when the member makes one rotation, detects each member in each frame, and superimposes all stored member regions after one rotation. By combining, the area occupied by the member during rotation is obtained, and the zoom magnification of the camera is determined and adjusted based on the obtained area occupied by the member, and an image is recorded.

もしくは,本発明は,1回転目と2回転目のカメラのズーム倍率を一定にしておき,2回転目は,回転中の部材占有領域を,取得したフレーム画像から抽出し,拡大することで,擬似的にズーム画像を生成することを特徴とする。   Alternatively, in the present invention, the zoom magnifications of the first and second rotation cameras are kept constant, and the second rotation is performed by extracting and enlarging the rotating member occupation area from the acquired frame image, A pseudo zoom image is generated.

もしくは,本発明は,回転中の部材占有領域から算出されるズーム倍率をフレーム画像に結び付け,ズーム倍率とフレーム画像を共に保存する。1回転後に,最小ズーム倍率を求め,求めた最小ズーム倍率に基づいて保存されているフレーム画像を拡大することで,ズーム画像を得ることを特徴とする。   Alternatively, the present invention associates the zoom magnification calculated from the rotating member occupation area with the frame image, and stores both the zoom magnification and the frame image. After one rotation, a minimum zoom magnification is obtained, and a zoomed image is obtained by enlarging a stored frame image based on the obtained minimum zoom magnification.

上記特許文献1〜4の技術では,対象物の領域を蓄積して重畳させる手段がないため,回転物を対象としたズーム倍率の自動調整は実現できなかった。本発明は,撮影対象物である回転する部材が,カメラ視野内で最適の大きさになるようズーム倍率を調整または擬似的にズーム画像を生成する手段を有しており,この点が従来技術と大きく異なる。   In the techniques of Patent Documents 1 to 4, since there is no means for accumulating and superimposing the object area, automatic zoom magnification adjustment for a rotating object cannot be realized. The present invention has means for adjusting a zoom magnification or generating a pseudo zoom image so that a rotating member that is an object to be photographed has an optimum size within a camera field of view. And very different.

本発明によれば,大きさの異なる複数の物体の映像を回転させて,順次,記録・保存する際,ズーム倍率が自動的に設定されることから,オペレータはズーム倍率をその都度調節する必要がなくなり,撮影に伴う作業負担を大幅に軽減することができる。また,本発明は,記録する映像として,一つの物体の回転中には一定のズーム倍率で撮影した結果が得られるので,物体の見かけ上の大きさが1回転の間に変化することはない。   According to the present invention, when the images of a plurality of objects having different sizes are rotated and sequentially recorded and stored, the zoom magnification is automatically set. Therefore, the operator needs to adjust the zoom magnification each time. The work burden associated with shooting can be greatly reduced. Further, according to the present invention, since an image to be recorded is obtained at a constant zoom magnification while one object is rotating, the apparent size of the object does not change during one rotation. .

図1に,本発明の実施の形態に係わる装置のブロック図を示す。なお,以下の説明では,説明をわかりやすくするため,物体の回転方向は鉛直軸回りとして説明するが,鉛直軸に直交する回転軸回り,あるいは,回転軸が時間と共に変化するような場合でも同様の方法を用いることができる。   FIG. 1 shows a block diagram of an apparatus according to an embodiment of the present invention. In the following description, the rotation direction of the object is described as being about the vertical axis for easy understanding, but the same applies even when the rotation axis is orthogonal to the vertical axis or when the rotation axis changes with time. This method can be used.

図1において,回転物体画像処理装置10は,外部との信号を入出力する信号入出力インタフェース(I/F)11,12と,回転体検出部13と,倍率算出部14とを備える。また,この例では,回転物体画像処理装置10の信号入出力インタフェース11には,ビデオカメラ15と回転台16が接続され,信号入出力インタフェース12には,表示装置17と映像が格納される磁気ディスク装置その他の記録媒体18が接続されている。回転体検出部13および倍率算出部14は,CPUとメモリとソフトウェアプログラム等によって実現することができる。   In FIG. 1, the rotating object image processing apparatus 10 includes signal input / output interfaces (I / F) 11 and 12 for inputting / outputting signals from / to the outside, a rotating body detection unit 13, and a magnification calculation unit 14. Further, in this example, a video camera 15 and a turntable 16 are connected to the signal input / output interface 11 of the rotating object image processing device 10, and the display device 17 and a magnetic field for storing video are stored in the signal input / output interface 12. A disk device or other recording medium 18 is connected. The rotating body detection unit 13 and the magnification calculation unit 14 can be realized by a CPU, a memory, a software program, and the like.

以下,図1に示すブロック図中の各部の処理内容について詳細に説明する。本実施の形態では,ビデオカメラ15によって動画像を撮影する例について説明するが,ビデオカメラではなく,通常のカメラによって一定の時間ごとに連続してシャッターを切り,連続写真のように撮影する場合にも,ビデオカメラの場合と同様に本発明を適用することができる。すなわち,本発明は,連続的に撮影した画像(動画像もしくは映像)でも,断続的に撮影した画像でも,どちらでも適用することができる。   Hereinafter, the processing contents of each unit in the block diagram shown in FIG. 1 will be described in detail. In the present embodiment, an example in which a moving image is captured by the video camera 15 will be described. However, when a shutter is continuously released at regular intervals by a normal camera instead of a video camera, the image is captured like a continuous photograph. In addition, the present invention can be applied as in the case of a video camera. In other words, the present invention can be applied to either continuously captured images (moving images or videos) or intermittently captured images.

〔ビデオカメラ15〕
ビデオカメラ15では,CCDなどで検出した光強度から,一定のサンプリング時間間隔(例えば,33ms)で画像を形成し,さらに動画像を生成する。
[Video camera 15]
The video camera 15 forms an image at a constant sampling time interval (for example, 33 ms) from the light intensity detected by the CCD or the like, and further generates a moving image.

画像の1つの画素は,カラー画像の場合,赤成分(R),緑成分(G),青成分(B)の階調値で与えられ,白黒画像の場合,輝度の階調値で与えられる。例えば,整数x,yで示される座標(x,y)の画素の赤成分(R),緑成分(G),青成分(B),輝度(I)の階調値は,それぞれ,ディジタル値R(x,y),G(x,y),B(x,y),I(x,y)で与えられる。なお,以下の計算で使用する画素値には,輝度(白黒濃淡値)を用いる。   One pixel of an image is given by a gradation value of a red component (R), a green component (G), and a blue component (B) in the case of a color image, and given by a gradation value of luminance in the case of a monochrome image. . For example, the gradation values of the red component (R), green component (G), blue component (B), and luminance (I) of the pixel at coordinates (x, y) indicated by integers x and y are digital values, respectively. R (x, y), G (x, y), B (x, y), I (x, y). Note that the luminance (monochrome gray value) is used as the pixel value used in the following calculation.

〔回転体検出部13〕
回転体検出部13は,信号入出力インタフェース11を介してビデオカメラ15から映像(または画像)を入力するとともに,回転台16に設けられた回転センサなどにより,回転台16に載置された物体の回転角度を入力し,ビデオカメラ15から入力した映像のフレーム画像と物体の回転角度とを対応づけて記憶する。回転角度を回転台16から入力するのではなく,回転台16を回転させるアクチュエータから入力してもよく,また,画像解析により回転角度を検出する実施も可能である。
[Rotating body detection unit 13]
The rotating body detection unit 13 inputs an image (or an image) from the video camera 15 via the signal input / output interface 11, and an object placed on the rotating table 16 by a rotation sensor provided on the rotating table 16. And the frame image of the video input from the video camera 15 and the rotation angle of the object are stored in association with each other. The rotation angle may not be input from the turntable 16, but may be input from an actuator that rotates the turntable 16, and the rotation angle may be detected by image analysis.

本実施形態において,フレーム画像から回転体を検出する方法は,例えば背景差分法と局所相関法とを組み合わせる方法である。   In the present embodiment, a method for detecting a rotating body from a frame image is, for example, a method combining a background difference method and a local correlation method.

背景差分法は,予め回転体を含まない画像を背景画像として用意しておき,次に,回転体が含まれる画像との差分を取り,差の大きい部分を物体領域とする方法である。背景差分法は,より短い処理時間で処理可能であるが,明るさの変動などのノイズに弱い欠点がある。   The background difference method is a method in which an image that does not include a rotator is prepared in advance as a background image, and then a difference from an image that includes a rotator is obtained, and a portion having a large difference is used as an object region. The background subtraction method can be processed in a shorter processing time, but has a drawback that it is vulnerable to noise such as brightness fluctuations.

局所相関法は,まず,画像を格子状のブロック(例えば,8×8画素)に分割する。次に,あるサンプリング時刻のフレームと次のサンプリング時刻で取得したフレームとの間で,近傍にあるブロック同士の相関値を求め,その大小によって,ブロックが移動したかどうかを判定する。本処理は,計算量が多いため,画像サイズを大きくできない,相関計算を実施するブロック間の距離が制限され,動きの早い物体に追従できないなどの欠点があるが,背景差分法よりもノイズに対する耐性が大きい。そこで,背景差分法で,大まかな回転体領域を求め,次に,局所相関法によって,より細かく回転体領域を決定する手順を用いる。   In the local correlation method, first, an image is divided into grid-like blocks (for example, 8 × 8 pixels). Next, a correlation value between neighboring blocks is obtained between a frame at a certain sampling time and a frame acquired at the next sampling time, and it is determined whether the block has moved according to the magnitude. This process has a large amount of calculation, so there are disadvantages such as that the image size cannot be increased, the distance between blocks that perform correlation calculation is limited, and it is not possible to follow fast-moving objects. High tolerance. Therefore, a rough rotator region is obtained by the background subtraction method, and then a procedure for determining the rotator region more finely by the local correlation method is used.

処理手順の説明の前に,サブ区画,同一物体のサブ区画の集まりであるサブ区画テンプレート,追跡ブロックについて,図2に示し,これらを説明する。図2において,20はビデオカメラ15から得た取得画像,21はサブ区画,22はサブ区画テンプレート,23は追跡ブロックである。   Prior to the description of the processing procedure, a sub-partition, a sub-partition template that is a collection of sub-partitions of the same object, and a tracking block are shown in FIG. 2 and will be described. In FIG. 2, 20 is an acquired image obtained from the video camera 15, 21 is a sub-partition, 22 is a sub-partition template, and 23 is a tracking block.

サブ区画21は,縦n画素,横n画素の正方形からなる。サブ区画テンプレート22は,サブ区画21の集まりであり,回転体の領域を示す。追跡ブロック23は,サブ区画テンプレート22を取り囲むように設定し,サブ区画テンプレート22の外側に上下左右m画素の間を設けた領域である。局所相関法による探索は,追跡ブロック23で囲まれた領域の中で実行する。なお,本実施形態では,回転体の画像領域を,サブ区画テンプレート22で表すことにする。   The sub-partition 21 is composed of a square of vertical n pixels and horizontal n pixels. The sub-partition template 22 is a collection of sub-partitions 21 and indicates a region of the rotating body. The tracking block 23 is an area which is set so as to surround the sub-partition template 22 and is provided between the upper, lower, left and right m pixels outside the sub-partition template 22. The search by the local correlation method is executed in the area surrounded by the tracking block 23. In the present embodiment, the image area of the rotating body is represented by the sub-partition template 22.

背景差分法を用いて回転体が存在する可能性がある領域を求め,次に局所相関法を用いて回転体検出のための有効サブ区画を算出する。図3は,回転体検出部13による回転体検出手順を示す図である。以下,回転体検出部13が,撮影画像に回転体が含まれているかを確認し,有効サブ区画を検出する手順を,図3に従って説明する。   An area where a rotator may exist is obtained using the background subtraction method, and then an effective sub-partition for detecting the rotator is calculated using a local correlation method. FIG. 3 is a diagram illustrating a rotating body detection procedure by the rotating body detection unit 13. Hereinafter, a procedure in which the rotating body detection unit 13 confirms whether or not a rotating body is included in the captured image and detects an effective sub-section will be described with reference to FIG.

(a)ステップS10の処理
ビデオカメラ15で得たビットマップ形式の画像を一定周期(サンプリング時間毎)で取り込む。取得した現タイミングの画像を2系列に分け,次のステップS11,S12において異なるカットオフ周波数を持つローパスフィルタに通す。
(A) Processing in Step S10 Bitmap format images obtained by the video camera 15 are fetched at regular intervals (every sampling time). The acquired images at the current timing are divided into two series and passed through low-pass filters having different cutoff frequencies in the next steps S11 and S12.

(b)ステップS11の処理
ローパスフィルタのカットオフ周波数を低く設定した動きの遅い現フレームの背景画像を得る。このカットオフ周波数は,回転体の移動速度に対応して求めることが可能であり,対象とする回転体に合わせて可変に設定できるようにする。背景画像をサブ区画(n×n画素の正方形)に分割する。
(B) Processing in Step S11 A background image of the current frame with a slow motion in which the cutoff frequency of the low-pass filter is set low is obtained. This cut-off frequency can be obtained corresponding to the moving speed of the rotating body, and can be set variably according to the target rotating body. The background image is divided into sub-partitions (n × n pixel squares).

(c)ステップS12の処理
ローパスフィルタのカットオフ周波数を,ステップS11のローパスフィルタよりも高く設定し,動きのある物体を残したまま,蛍光灯のちらつきなどの影響を除いた画像を得る。このカットオフ周波数もステップS11で用いたローパスフィルタのカットオフ周波数と同様に,対象の回転体に対応して可変に設定できるようにする。この画像を現サンプリング時点での現画像とする。ステップS11と同様にサブ区画(n×n画素の正方形)に分割する。
(C) Processing in Step S12 The cut-off frequency of the low-pass filter is set higher than that of the low-pass filter in Step S11, and an image from which influences such as flickering of a fluorescent lamp are removed is obtained while leaving a moving object. This cut-off frequency can also be set variably according to the target rotating body, similarly to the cut-off frequency of the low-pass filter used in step S11. This image is the current image at the current sampling time. As in step S11, the image is divided into sub-partitions (n × n pixel squares).

(d)ステップS13の処理
現画像(以下,現フレーム画像と記載)と背景画像において,両者の同じ位置のサブ区画(n×n画素の正方形)の1つを取り出す。
(D) Processing in Step S13 In the current image (hereinafter referred to as the current frame image) and the background image, one of the sub-sections (n × n pixel square) at the same position is extracted.

(e)ステップS14の処理
両画像の同位置にあるサブ区画の画素間の差の総和Tを次式で計算する。
(E) Processing in Step S14 The total sum T of the differences between the pixels in the sub-partitions at the same position in both images is calculated by the following equation.

T=Σ|IC (x,y)−IB (x,y)|
(Σは,x,y∈RSUB の総和を表す)
ここで,IC (x,y)は,現画像における画素位置(x,y)の白黒濃淡値,IB (x,y)は背景画像における画素位置(x,y)の白黒濃淡値,RSUB はサブ区画を表す。算出値Tが,所定の閾値Tth以上のときには背景画像とは異なることを示しており,動きがある移動サブ区画と判定し,ステップS15に進む。それ以外の場合には,ステップS13に戻り,次のサブ区画を取り出す。
T = Σ | I C (x, y) −I B (x, y) |
(Σ represents the sum of x, y∈R SUB )
Here, I C (x, y) is the black and white gray value of the pixel position (x, y) in the current image, I B (x, y) is the black and white gray value of the pixel position (x, y) in the background image, R SUB represents a sub-partition. When the calculated value T is equal to or greater than a predetermined threshold value T th, it indicates that the calculated value T is different from the background image. In other cases, the process returns to step S13 to take out the next sub-partition.

(f)ステップS15の処理
局所相関法を用い,ステップS14で動きがあると判定した移動サブ区画が,前フレーム画像のどのサブ区画から移動してきたかを探し出す。移動サブ区画として注目している現フレーム画像のサブ区画Sp(x,y)が,前フレーム画像のどのサブ区画Sq(x′,y′)から移動してきたのかを,相関演算を用いて探索する。サブ区画Sp(x,y),Sq(x′,y′)との相関値Cを次式によって算出し,予め定めた閾値から移動したか否か判断を行う。
(F) Processing in Step S15 Using the local correlation method, it is searched from which sub-section of the previous frame image the moving sub-part determined to have motion in step S14. Search using correlation calculation to determine which sub-section Sq (x ′, y ′) of the previous frame image has moved from the sub-section Sp (x, y) of the current frame image that is focused as a moving sub-section. To do. The correlation value C with the sub-partitions Sp (x, y) and Sq (x ′, y ′) is calculated by the following equation, and it is determined whether or not the movement is from a predetermined threshold value.

C=Σ|Ip (x,y),Iq (x′,y′)|
(Σは,x,y∈Rpおよびx′,y′∈Rqの総和を表す)
上式において,Ip (x,y),Iq (x′,y′)は,各サブ区画Sp(x,y),Sq(x′,y′)内の画素の白黒濃淡値,Rp,Rqは,サブ区画領域内であることを示す。
C = Σ | I p (x, y), I q (x ′, y ′) |
(Σ represents the sum of x, y∈Rp and x ′, y′∈Rq)
In the above equation, I p (x, y) and I q (x ′, y ′) are the black and white grayscale values of the pixels in each sub-partition Sp (x, y), Sq (x ′, y ′), Rp , Rq indicates that it is within the sub-partition area.

動きの有無を,いわゆるゼロ比較法を用いて判定する。注目しているサブ区画と同位置にある前フレームのサブ区画との相関値C0と,走査範囲内の全サブ区画との相関計算から求めた相関値の最小値C1との差Qを,以下の式で算出する。   The presence or absence of movement is determined using the so-called zero comparison method. The difference Q between the correlation value C0 of the sub-part of the previous frame at the same position as the sub-part of interest and the minimum value C1 of the correlation value obtained from the correlation calculation with all the sub-parts within the scanning range is expressed as follows: Calculate with the following formula.

Q=C0−C1
(g)ステップS16の処理
算出した差Qと移動判定の閾値Qthとを比較する。
Q = C0-C1
(G) Processing in Step S16 The calculated difference Q is compared with the movement determination threshold value Qth .

Q>Qth
Qが閾値Qthより大きい場合,注目しているサブ区画Sp(x,y)は,Sq(x′,y′)から移動したサブ区画と判定し,有効サブ区画として,ステップS17の処理を行う。そうでなければ,ステップS17の処理をスキップする。
Q> Q th
If Q is larger than the threshold value Q th , the sub-part of interest Sp (x, y) is determined as a sub-part moved from Sq (x ′, y ′), and the process of step S17 is performed as an effective sub-part. Do. Otherwise, the process of step S17 is skipped.

(h)ステップS17の処理
有効サブ区画の前フレーム画像からの移動の速さ,移動方向を算出する。前フレーム画像の移動元のサブ区画の左上端点を(xLeftTop1,yLeftTop1),注目している現フレーム画像のサブ区画の左上端点を(xLeftTop2,yLeftTop2),サブ区画の移動ベクトル(xLeftTop2−xLeftTop1,yLeftTop2−yLeftTop1)とすると,移動の速さ,移動の方向は次式となる。
(H) Processing in Step S17 The speed and direction of movement from the previous frame image of the effective sub-section are calculated. The upper left point of the sub-part of the previous frame image is (x LeftTop1 , y LeftTop1 ), the upper left point of the sub-part of the current frame image of interest is (x LeftTop2 , y LeftTop2 ), and the sub-part movement vector (x LeftTop2− x LeftTop1 , y LeftTop2− y LeftTop1 ), the speed of movement and the direction of movement are as follows.

移動の速さ=
{(xLeftTop2−xLeftTop12 +(yLeftTop2−yLeftTop12 1/2
移動の方向=
tan-1{(yLeftTop2−yLeftTop1)/(xLeftTop2−xLeftTop1)}
(i)ステップS18の処理
全てのサブ区画での背景の確認を終えるまで,ステップS13へ戻り,同様に処理を繰り返す。一連の処理により,全ての有効サブ区画と各有効サブ区画の前フレームからの移動の速さ,移動ベクトルの方向を得る。
Speed of movement =
{(X LeftTop2 −x LeftTop1 ) 2 + (y LeftTop2 −y LeftTop1 ) 2 } 1/2
Direction of movement =
tan −1 {(y LeftTop2 −y LeftTop1 ) / (x LeftTop2 −x LeftTop1 )}
(I) Processing in Step S18 The process returns to Step S13 and the processing is repeated in the same manner until the background has been confirmed in all the sub-sections. Through a series of processing, all effective sub-parts, the speed of movement from the previous frame of each effective sub-partition, and the direction of the movement vector are obtained.

次に,上述で求めた有効サブ区画をもとに,回転体の画像領域を抽出する。図4は,回転体検出部13による回転体画像領域の候補の抽出手順を示す図である。図3の処理で得た有効サブ区画の集合より,回転体の確認を行うための有効サブ区画テンプレートを生成し,有効サブ区画テンプレートから追跡ブロック候補を設定する。以下,回転体検出部13が,回転体画像領域の候補を抽出する手順を,図4に従って説明する。   Next, the image area of the rotating body is extracted based on the effective sub-section obtained above. FIG. 4 is a diagram illustrating a procedure for extracting candidates for a rotating body image region by the rotating body detection unit 13. From the set of effective sub-partitions obtained in the processing of FIG. 3, an effective sub-partition template for confirming the rotating body is generated, and tracking block candidates are set from the effective sub-partition template. Hereinafter, the procedure by which the rotator detection unit 13 extracts candidates for the rotator image area will be described with reference to FIG.

(a)ステップS20の処理
有効サブ区画の集合から1つを取り出し,有効サブ区画テンプレートとする。
(A) Processing in Step S20 One is taken out from the set of effective sub-partitions and is set as an effective sub-partition template.

(b)ステップS21,S22の処理
有効サブ区画の次の1つを取り出し,両者の移動の速さ,移動方向が一致するかを比較する。一致する場合には,ステップS23に進み,一致しない場合には,ステップS24に進む。
(B) Processing in Steps S21 and S22 The next one of the effective sub-sections is taken out, and it is compared whether the speed and direction of movement of both coincide. If they match, the process proceeds to step S23, and if they do not match, the process proceeds to step S24.

(c)ステップS23の処理
両有効サブ区画を結合して一つのサブ区画テンプレートを生成する。このサブ区画テンプレートを有効サブ区画テンプレートとする。
(C) Processing in Step S23 Both effective sub-partitions are combined to generate one sub-partition template. This sub-partition template is set as an effective sub-partition template.

(d)ステップS24の処理
有効サブ区画を別の有効サブ区画テンプレートとして設定する。
(D) Processing in Step S24 The effective sub-partition is set as another effective sub-partition template.

(e)ステップS25の処理
全ての有効サブ区画との確認を終えるまで,ステップS21からステップS24の処理を繰り返す。
(E) Processing in step S25 The processing from step S21 to step S24 is repeated until confirmation with all the valid sub-partitions is completed.

(f)ステップS26の処理
ステップS23,S24で定義した全ての有効サブ区画テンプレートの上下左右端からm画素を加えた領域を合わせて追跡ブロック候補として設定する。
(F) Processing in Step S26 The area obtained by adding m pixels from the upper, lower, left and right ends of all the effective sub-partition templates defined in Steps S23 and S24 is set as a tracking block candidate.

追跡ブロック候補の領域は,次のようにして算出する。ステップS26の有効サブ区画テンプレートの上下左右端を(xsub-min ),(xsub-max ),(ysub-min ),(ysub-max )とする。この上下左右端で囲まれた領域の外側に予め決めた画素値mを与えた領域を(>0)とすると,追跡ブロック候補の領域は以下となる。 The tracking block candidate area is calculated as follows. The top, bottom, left and right edges of the effective sub-partition template in step S26 are (x sub-min ), (x sub-max ), (y sub-min ), and (y sub-max ). Assuming that an area given a predetermined pixel value m outside the area surrounded by the upper, lower, left, and right ends is (> 0), the tracking block candidate area is as follows.

sub-min −m≦x≦xsub-max +m
sub-min −m≦y≦ysub-max +m
また,追跡ブロック候補の中心位置(xtrk-cen ,ytrk-cen )は以下となる。
x sub-min −m ≦ x ≦ x sub-max + m
y sub-min −m ≦ y ≦ y sub-max + m
The center position (x trk-cen , y trk-cen ) of the tracking block candidate is as follows.

trk-cen =(xsub-min +xsub-max )/2
trk-cen =(ysub-min +ysub-max )/2
図4の処理で得た追跡ブロック候補の領域から回転体を決定するための追跡ブロックを抽出し,回転体を決定する。回転体の決定は,回転体の移動ベクトルを算出して行う。
x trk-cen = (x sub-min + x sub-max ) / 2
y trk-cen = (y sub-min + y sub-max ) / 2
A tracking block for determining a rotator is extracted from the tracking block candidate region obtained by the processing of FIG. 4, and the rotator is determined. The rotation body is determined by calculating a movement vector of the rotation body.

図5は,回転体検出部13による回転体決定手順を示す図である。以下,回転体検出部13が,回転体を決定する手順を,図5に従って説明する。   FIG. 5 is a diagram showing a rotating body determination procedure by the rotating body detection unit 13. Hereinafter, the procedure in which the rotating body detection unit 13 determines the rotating body will be described with reference to FIG.

(a)ステップS30の処理
追跡ブロック候補に存在する回転体の前フレーム画像からの移動ベクトルを算出する。前フレーム画像の追跡ブロック中心位置(xtrk-cen1,ytrk-cen1),現フレーム画像の追跡ブロック候補の中心位置を(xtrk-cen2,ytrk-cen2)とすると,現フレーム画像の回転体の移動ベクトル(xtrk-cen2−xtrk-cen1,ytrk-cen2−ytrk-cen1)の移動の速さvtrk (k) と移動方向ベクトル(dtrk-x ,dtrk-y (k) は,以下となる。
(A) Processing in Step S30 The movement vector from the previous frame image of the rotator existing in the tracking block candidate is calculated. If the tracking block center position of the previous frame image (x trk-cen1 , y trk-cen1 ) and the tracking block candidate center position of the current frame image are (x trk-cen2 , y trk-cen2 ), the current frame image is rotated. Speed v trk (k) and direction vector (d trk-x , d trk-y ) of the body movement vector (x trk-cen 2 -x trk-cen 1 , y trk-cen 2 -y trk-cen 1 ) (k) is as follows.

移動の速さvtrk (k)
{(xtrk-cen2−xtrk-cen12 +(ytrk-cen2−ytrk-cen12 1/2
移動の方向=
tan-1{(ytrk-cen2−ytrk-cen1)/(xtrk-cen2−xtrk-cen1)}
(b)ステップS31の処理
現フレーム画像の追跡ブロック候補の1つを取り出す。
Speed of movement v trk (k) =
{(X trk-cen 2 −x trk-cen 1 ) 2 + (y trk-cen 2 −y trk-cen 1 ) 2 } 1/2
Direction of movement =
tan −1 {(y trk-cen2 −y trk-cen1 ) / (x trk-cen2 −x trk-cen1 )}
(B) Processing in Step S31 One of the tracking block candidates of the current frame image is extracted.

(c)ステップS32の処理
前フレーム画像の追跡ブロックの1つを取り出す。
(C) Processing in Step S32 One of the tracking blocks of the previous frame image is taken out.

(d)ステップS33,S34の処理
現フレーム画像の移動ベクトルの算出を行い,前フレーム画像での移動ベクトルから追跡条件を算出する。
(D) Processing in Steps S33 and S34 The movement vector of the current frame image is calculated, and the tracking condition is calculated from the movement vector in the previous frame image.

追跡条件は以下となる。vth,dthは所定の閾値である。 The tracking conditions are as follows. v th and d th are predetermined threshold values .

|vtrk (k) −vtrk (k-1) |<vth
|dtrk-x (k) ・dtrk-x (k-1) +dtrk-y (k) ・dtrk-y (k-1) |>dth
ここでvtrk (k-1) ,(dtrk-x ,dtrk-y (k-1) は,前フレーム画像の移動ベクトルの移動の速さと移動ベクトルの方向を示している。
| V trk (k) -v trk (k-1) | <v th
│d trk-x (k)・ d trk-x (k-1) + d trk-y (k)・ d trk-y (k-1) │ > d th
Here, v trk (k-1) and (d trk-x , d trk-y ) (k-1) indicate the speed of movement of the movement vector of the previous frame image and the direction of the movement vector.

追跡ブロック候補と追跡ブロックの移動ベクトルの速さの差が一定値以下,長さが一定値以上の場合には,両追跡ブロックの回転体が同一の追跡対象と見なす。長さは移動方向ベクトルの内積で行う。追跡条件を満たす場合には,ステップS35に進み,追跡条件を満たさない場合には,ステップS38に進む。   When the speed difference between the tracking block candidate and the tracking block movement vector is less than a certain value and the length is more than a certain value, the rotating bodies of both tracking blocks are regarded as the same tracking object. The length is determined by the inner product of the moving direction vectors. If the tracking condition is satisfied, the process proceeds to step S35. If the tracking condition is not satisfied, the process proceeds to step S38.

(e)ステップS35の処理
追跡条件としてフレーム連続条件を設定した場合の連続数の設定と確認を行う。フレーム連続数をFRとし,FRに1を加える。
(E) Processing in Step S35 Setting and confirmation of the continuous number when the frame continuous condition is set as the tracking condition is performed. Let FR be the number of consecutive frames, and add 1 to FR.

(f)ステップS36の処理
FRが閾値FRthより大きいかどうかにより,フレーム連続条件を満たすかどうかを判定し,フレーム連続条件を満たす場合には,ステップS37に進み,満たさない場合には,ステップS39に進む。
(F) depending on whether the process FR in step S36 is larger than the threshold value FR th, to determine whether the frame sequential condition is satisfied, when the frame sequential condition is satisfied, the process proceeds to step S37, if not satisfied, step Proceed to S39.

(g)ステップS37の処理
追跡ブロック候補の領域に回転体が存在すると認識し,追跡ブロック候補を現フレーム画像の追跡ブロックに置き換え保持する。その後,ステップS39に進む。
(G) Processing in Step S37 It is recognized that a rotator exists in the tracking block candidate area, and the tracking block candidate is replaced with the tracking block of the current frame image and held. Thereafter, the process proceeds to step S39.

(h)ステップS38の処理
追跡条件を満たさないときには,現フレーム画像で新規に現れた別の回転体とみなし,追跡ブロック候補を新規の追跡ブロックとして保持する。追跡条件FR=1を設定し,ステップS39に進む。
(H) Processing in Step S38 When the tracking condition is not satisfied, it is regarded as another rotator newly appearing in the current frame image, and the tracking block candidate is held as a new tracking block. The tracking condition FR = 1 is set, and the process proceeds to step S39.

(i)ステップS39の処理
前フレームの全ての追跡ブロックの確認を終えるまで,ステップS32からS38の処理を繰り返す。この一連の処理により取得した現フレーム画像で認識した回転体が存在する全ての追跡ブロックを得る。各追跡ブロックの回転体は,それぞれ異なる回転体である。
(I) Processing in Step S39 The processing in steps S32 to S38 is repeated until confirmation of all the tracking blocks in the previous frame is completed. All tracking blocks in which a rotator recognized in the current frame image obtained by this series of processing exists are obtained. The rotating body of each tracking block is a different rotating body.

〔倍率算出部14〕
図6は,ズーム倍率の算出方法を説明するための図である。
[Magnification calculator 14]
FIG. 6 is a diagram for explaining a method of calculating the zoom magnification.

倍率算出部14は,物体がカメラ視野内で最適な大きさになるための倍率を算出する。なお,撮影開始時は,回転体がカメラ視野からはみ出ないように,ズーム倍率は広角に設定されているものとする。   The magnification calculation unit 14 calculates a magnification for the object to have an optimum size within the camera field of view. It is assumed that the zoom magnification is set to a wide angle so that the rotating body does not protrude from the camera field of view at the start of shooting.

前述した処理により,回転体検出部13で求めた追跡ブロックのサブ区画テンプレートの上下辺,左右辺は,
y=ysub-min
y=ysub-max
x=xsub-min
x=xsub-max
で表される。このとき,図6に示したように,サブ区画テンプレートの各辺と画像の対角線との交点を求め,画像の中心からの距離によって視野範囲を決定する。画像の横方向,縦方向の画素サイズが,それぞれxsize,ysizeのとき,画像の左上端点を原点として右下端点を通る対角線の式は,
y=(ysize/xsize)・x
で表されることから,各辺との交点は,次のようになる。
By the processing described above, the upper and lower sides and the left and right sides of the sub-partition template of the tracking block obtained by the rotator detection unit 13 are
y = y sub-min
y = y sub-max
x = x sub-min
x = x sub-max
It is represented by At this time, as shown in FIG. 6, the intersection of each side of the sub-partition template and the diagonal line of the image is obtained, and the visual field range is determined by the distance from the center of the image. When the pixel size in the horizontal and vertical directions of the image is x size and y size , respectively,
y = (y size / x size ) · x
Therefore, the intersection with each side is as follows.

((xsize/ysize)・ysub-min ,ysub-min
((xsize/ysize)・ysub-max ,ysub-max
((ysize/xsize)・xsub-min ,xsub-min
((ysize/xsize)・xsub-max ,xsub-max
算出した交点と画像の中心との距離を求め,距離が最大となる交点を決定する。例えば,上辺と対角線の交点の画像中心点からの距離は,
[{(xsize/ysize)・ysub-min −(xsize/2)}2
{ysub-min −(ysize/2)}2 1/2
となる。画像中心点と各交点間の距離を比較したときに,最大となる距離をLcross (k) とする。
((X size / y size ) · y sub-min , y sub-min )
((X size / y size ) · y sub-max , y sub-max )
((Y size / x size ) xsub-min , xsub-min )
((Y size / x size ) xsub-max , xsub-max )
The distance between the calculated intersection and the center of the image is obtained, and the intersection with the maximum distance is determined. For example, the distance from the image center point of the intersection of the upper side and the diagonal line is
[{(X size / y size ) · y sub-min − (x size / 2)} 2 +
{Y sub-min − (y size / 2)} 2 ] 1/2
It becomes. Let L cross (k) be the maximum distance when comparing the distance between the image center point and each intersection.

回転台16が1回転する間,上記計算を逐次行い,全てのフレーム画像に対して最大距離Lcross (k) を算出する。1回転終了後に,距離Lcross (k) (k=kst,…,ken ;ただし,kstは回転開始時のフレーム値,kenは回転終了時のフレーム値を表す)の中から最大値Lmax を求める。 While the turntable 16 makes one rotation, the above calculation is sequentially performed to calculate the maximum distance L cross (k) for all the frame images. Maximum; (however, k st rotation starting frame value, k en represents the frame value at rotation end k = k st, ..., k en) from the after one rotation end, the distance L cross (k) The value L max is determined.

max =max(Lcross (kst) ,…,Lcross (ken)
ここで,max()は,最大値を与える関数である。
L max = max (L cross (kst) ,..., L cross (ken) )
Here, max () is a function that gives the maximum value.

求めるズーム倍率Zr は,画像の左上端点から画像中心までの距離と,最大値Lmaxとの比で与えられる。 Zoom magnification Z r seeking is the distance from the upper left end point of the image to the image center is given by the ratio of the maximum value Lmax.

r ={(xsize/2)2 +(ysize/2)2 1/2
〔第1の処理フロー〕
次に,ズーム倍率を自動的に算出し,回転している物体を最適な大きさで撮影するまでの第1の処理フローを図7に示す。なお,ビデオカメラ15へは適当な信号を与えることで,ズーム倍率を自動設定できるものとし,ビデオカメラ15側の制御方法についての説明は省略する。以下,図7に示す(a)〜(f)に従って,処理の流れを説明する。
Z r = {(x size / 2) 2 + (y size / 2) 2 } 1/2
[First processing flow]
Next, FIG. 7 shows a first processing flow until the zoom magnification is automatically calculated and a rotating object is photographed at an optimum size. It is assumed that the zoom magnification can be automatically set by giving an appropriate signal to the video camera 15, and the description of the control method on the video camera 15 side is omitted. Hereinafter, the flow of processing will be described according to (a) to (f) shown in FIG.

(a)ビデオカメラ15のズーム倍率を広角に設定し,回転台16に部材を載せ,回転を開始する。   (A) The zoom magnification of the video camera 15 is set to a wide angle, a member is placed on the turntable 16, and rotation is started.

(b)回転体検出部13において,フレーム画像中の回転体を検出し,回転体が占める画像領域からサブ区画テンプレートの各辺の位置を算出する。   (B) The rotating body detection unit 13 detects the rotating body in the frame image, and calculates the position of each side of the sub-partition template from the image area occupied by the rotating body.

(c)回転台16が1回転する間の,サブ区画テンプレートの各辺と対角線との交点を求め,画像中心までの距離を算出する。距離の最大値Lcross (k) を装置内のメモリまたはレジスタに記憶する。 (C) While the turntable 16 makes one rotation, the intersection of each side of the sub-partition template and the diagonal line is obtained, and the distance to the image center is calculated. The maximum distance value L cross (k) is stored in a memory or register in the apparatus.

(d)回転台16が1回転を終えたら,全フレーム画像の距離Lcross (k) の中から最大値Lmax を得る。画像の左上端点から画像中心までの距離と,最大値Lmax との比を基に,ズーム倍率Zr を算出する。 (D) When the turntable 16 completes one rotation, the maximum value L max is obtained from the distance L cross (k) of all frame images. The zoom magnification Zr is calculated based on the ratio between the distance from the upper left end point of the image to the center of the image and the maximum value Lmax .

(e)ビデオカメラ15に対し,求めたズーム倍率に基づいた信号を与え,映像記録のための撮影を開始する。   (E) A signal based on the obtained zoom magnification is given to the video camera 15 to start photographing for video recording.

(f)回転台16が適当な回転数に達したところで,撮影を終了し,表示装置17へ記録した映像を表示したり,記録媒体18へ格納したりする処理を実行する。   (F) When the turntable 16 reaches an appropriate number of rotations, the photographing is terminated, and a process of displaying the recorded video on the display device 17 or storing it in the recording medium 18 is executed.

〔第2の処理フロー〕
上述の第1の処理フローによる方法は,1回転目では広角にし,2回転目ではズーム倍率を調節することで部材を最適な大きさで撮影する。以下では,1回転目と2回転目のビデオカメラ15のズーム倍率を一定にしておき,2回転目は,回転中の部材占有領域を,取得したフレーム画像から抽出し拡大することで,擬似的にズーム画像を生成する方法について述べる。
[Second processing flow]
In the method according to the first processing flow described above, the member is photographed at an optimum size by setting the wide angle at the first rotation and adjusting the zoom magnification at the second rotation. In the following, the zoom magnification of the video camera 15 of the first rotation and the second rotation is kept constant, and the second rotation is simulated by extracting and enlarging the rotating member occupation area from the acquired frame image. Next, a method for generating a zoom image will be described.

図8は,抽出領域の設定方法を説明するための図である。倍率算出部14で述べたように,物体が1回転した後に,最大値Lmax が求まる。Lmax を用いて,図8に示すような矩形を描くと,物体がどのような姿勢になっても矩形の中に入る。そこで,2回転目では,Lmax で決まる矩形領域を抽出し,切り出した画像を,元の画像サイズへ拡大することで擬似的なズーム映像を取得できる。以下,本方法に係わる処理の流れを,図9に示す(a)〜(h)に従って説明する。 FIG. 8 is a diagram for explaining a method of setting an extraction area. As described in the magnification calculator 14, the maximum value L max is obtained after the object has made one revolution. When a rectangle as shown in FIG. 8 is drawn using L max , the object enters the rectangle regardless of the posture. Therefore, in the second rotation, a pseudo zoom image can be acquired by extracting a rectangular area determined by L max and enlarging the cut image to the original image size. Hereinafter, the flow of processing according to this method will be described with reference to (a) to (h) shown in FIG.

(a)ビデオカメラ15のズーム倍率を広めに設定し,回転台16に部材を載せ,回転を開始する。   (A) The zoom magnification of the video camera 15 is set wider, a member is placed on the turntable 16, and rotation is started.

(b)回転体検出部13において,フレーム画像中の回転体を検出し,回転体が占める画像領域からサブ区画テンプレートの各辺の位置を算出する。   (B) The rotating body detection unit 13 detects the rotating body in the frame image, and calculates the position of each side of the sub-partition template from the image area occupied by the rotating body.

(c)回転台16が1回転する間の,サブ区画テンプレートの各辺と対角線との交点を求め,画像中心までの距離を算出する。距離の最大値Lcross (k) を装置内のメモリまたはレジスタに記憶する。 (C) While the turntable 16 makes one rotation, the intersection of each side of the sub-partition template and the diagonal line is obtained, and the distance to the image center is calculated. The maximum distance value L cross (k) is stored in a memory or register in the apparatus.

(d)回転台16が1回転を終えたら,全フレーム画像の距離Lcross (k) の中から最大値Lmax を得る。 (D) When the turntable 16 completes one rotation, the maximum value L max is obtained from the distance L cross (k) of all frame images.

(e)Lmax で決まる矩形を設定する。 (E) A rectangle determined by L max is set.

(f)映像記録のための撮影を開始し,取得した画像から,Lmax で決まる矩形領域を抽出する。 (F) Shooting for video recording is started, and a rectangular area determined by L max is extracted from the acquired image.

(g)抽出した矩形領域を拡大処理し,元の画像サイズとする。   (G) The extracted rectangular area is enlarged to obtain the original image size.

(h)回転台16が適当な回転数に達したところで撮影を終了し,表示装置17へ記録した映像を表示したり,記録媒体18へ格納したりする処理を実行する。   (H) When the turntable 16 reaches an appropriate number of rotations, photographing is terminated, and processing for displaying the recorded video on the display device 17 or storing it in the recording medium 18 is executed.

〔第3の処理フロー〕
本節では,1回転後に,最小ズーム倍率を求め,求めた最小ズーム倍率に基づいて保存されているフレーム画像を拡大することで,ズーム画像を得る方法について述べる。
[Third processing flow]
This section describes a method for obtaining a zoom image by obtaining the minimum zoom magnification after one rotation and enlarging the stored frame image based on the obtained minimum zoom magnification.

まず,1回転目に,画像中心点と各交点間の最大距離Lcross (k) と共に,取得した画像を格納する。物体が1回転した後に,倍率算出部14において最大値Lmax を求める。上述したように,Lmax を用いた図8に示したような矩形を描くと,物体がどのような姿勢になっても矩形の中に入る。そこで,格納してある1回転目の画像からLmax で決まる矩形領域を抽出し,切り出した画像を,元の画像サイズへ拡大することで擬似的なズーム映像を取得できる。以下,本方法に係わる処理の流れを,図10に示す(a)〜(h)に従って説明する。 First, in the first rotation, the acquired image is stored together with the maximum distance L cross (k) between the image center point and each intersection. After the object has made one revolution, the magnification calculator 14 determines the maximum value L max . As described above, when a rectangle as illustrated in FIG. 8 using L max is drawn, the object enters the rectangle regardless of the posture. Therefore, a pseudo zoom image can be acquired by extracting a rectangular region determined by L max from the stored first rotation image and enlarging the cut image to the original image size. Hereinafter, the flow of processing according to this method will be described with reference to (a) to (h) shown in FIG.

(a)ビデオカメラ15のズーム倍率を広めに設定し,回転台16に部材を載せ,回転を開始する。   (A) The zoom magnification of the video camera 15 is set wider, a member is placed on the turntable 16, and rotation is started.

(b)回転体検出部13において,フレーム画像中の回転体を検出し,回転体が占める画像領域からサブ区画テンプレートの各辺の位置を算出する。   (B) The rotating body detection unit 13 detects the rotating body in the frame image, and calculates the position of each side of the sub-partition template from the image area occupied by the rotating body.

(c)回転台16が1回転する間の,サブ区画テンプレートの各辺と対角線との交点を求め,画像中心までの距離を算出する。距離の最大値Lcross (k) と取得した画像を装置内のメモリまたはレジスタに記憶する。 (C) While the turntable 16 makes one rotation, the intersection of each side of the sub-partition template and the diagonal line is obtained, and the distance to the image center is calculated. The maximum distance L cross (k) and the acquired image are stored in a memory or register in the apparatus.

(d)回転台16が1回転を終えたら,全フレーム画像の距離Lcross (k) の中から最大値Lmax を得る。 (D) When the turntable 16 completes one rotation, the maximum value L max is obtained from the distance L cross (k) of all frame images.

(e)Lmax で決まる矩形を設定する。 (E) A rectangle determined by L max is set.

(f)格納済みの1回転目の画像を再生し,各画像に対して,Lmax で決まる矩形領域を抽出する。 (F) The stored first rotation image is reproduced, and a rectangular area determined by L max is extracted for each image.

(g)抽出した矩形領域を拡大処理し,元の画像サイズとする。   (G) The extracted rectangular area is enlarged to obtain the original image size.

(h)回転台16が適当な回転数に達したところで撮影を終了し,表示装置17へ記録した映像を表示したり,記録媒体18へ格納したりする処理を実行する。   (H) When the turntable 16 reaches an appropriate number of rotations, photographing is terminated, and processing for displaying the recorded video on the display device 17 or storing it in the recording medium 18 is executed.

以上の部材映像記録の処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。   The above-described member video recording process can be realized by a computer and a software program. The program can be provided by being recorded on a computer-readable recording medium or can be provided through a network.

本実施の形態の特徴を列挙すると以下のとおりである。   The features of the present embodiment are listed as follows.

(付記1)
回転する物体を撮影した画像を表示または記録する回転物体画像処理装置であって,
回転する物体をカメラにより断続的または連続的に撮影した画像を入力し,各画像上で前記回転する物体が占有している物体領域を画像処理によって検出し,物体が1回転するまでの間に撮影された画像における物体領域を重ね合わせることにより,画像上で物体が回転中に占める領域を算出し,その領域情報を記憶装置に記憶する回転体検出手段と,
前記記憶装置に記憶された領域情報をもとに,前記回転する物体を撮影するカメラのズーム倍率を,前記物体が回転中に占める領域が画像上における所定の範囲内で最大となるように決定する倍率算出手段と,
前記決定されたズーム倍率を設定したカメラにより前記回転する物体を再度撮影し,撮影した画像を表示または記録する手段とを備える
ことを特徴とする回転物体画像処理装置。
(Appendix 1)
A rotating object image processing apparatus that displays or records an image of a rotating object,
An image obtained by intermittently or continuously capturing a rotating object by a camera is input, an object area occupied by the rotating object is detected on each image by image processing, and the object rotates once. Rotating body detection means for calculating an area occupied by an object on the image by rotating the object area in the captured image and storing the area information in a storage device;
Based on the area information stored in the storage device, the zoom magnification of the camera that captures the rotating object is determined so that the area occupied by the object during rotation is maximized within a predetermined range on the image. A scaling factor calculating means;
A rotating object image processing apparatus comprising: means for re-photographing the rotating object with the camera set with the determined zoom magnification, and displaying or recording the photographed image.

(付記2)
付記1記載の回転物体画像処理装置において,
前記画像を表示または記録する手段は,前記決定されたズーム倍率を設定したカメラにより前記回転する物体を再度撮影した画像から前記物体が回転中に占める領域を抽出して所定の画像サイズに拡大処理し,拡大処理した画像を表示または記録する
ことを特徴とする回転物体画像処理装置。
(Appendix 2)
In the rotating object image processing device according to attachment 1,
The means for displaying or recording the image extracts an area occupied by the object during rotation from an image obtained by re-imaging the rotating object with a camera having the determined zoom magnification, and enlarges the image to a predetermined image size. A rotating object image processing device characterized by displaying or recording an enlarged image.

(付記3)
回転する物体を撮影した画像を表示または記録する回転物体画像処理装置であって,
回転する物体をカメラにより断続的または連続的に撮影した画像を入力し,各画像上で前記回転する物体が占有している物体領域を画像処理によって検出し,物体が1回転するまでの間に撮影された画像における物体領域を重ね合わせることにより,画像上で物体が回転中に占める領域を算出し,その領域情報を記憶装置に記憶する回転体検出手段と,
前記記憶装置に記憶された領域情報をもとに,前記物体が1回転するまでの間に撮影された画像を拡大する倍率を,前記物体が回転中に占める領域が画像上における所定の範囲内で最大となるように決定する倍率算出手段と,
前記決定された倍率により前記物体が1回転するまでの間に撮影された画像を拡大し,拡大した画像を表示または記録する手段とを備える
ことを特徴とする回転物体画像処理装置。
(Appendix 3)
A rotating object image processing apparatus that displays or records an image of a rotating object,
An image obtained by intermittently or continuously capturing a rotating object by a camera is input, an object area occupied by the rotating object is detected on each image by image processing, and the object rotates once. Rotating body detection means for calculating an area occupied by an object on the image by rotating the object area in the captured image and storing the area information in a storage device;
Based on the area information stored in the storage device, a magnification for enlarging an image taken until the object makes one rotation is set so that an area occupied by the object is within a predetermined range on the image. A magnification calculation means for determining the maximum value at
A rotating object image processing apparatus comprising: means for enlarging an image taken until the object makes one rotation at the determined magnification, and displaying or recording the enlarged image.

(付記4)
回転する物体を撮影した画像を表示または記録する回転物体画像処理方法であって,
回転する物体をカメラにより断続的または連続的に撮影した画像を入力し,各画像上で前記回転する物体が占有している物体領域を画像処理によって検出し,物体が1回転するまでの間に撮影された画像における物体領域を重ね合わせることにより,画像上で物体が回転中に占める領域を算出し,その領域情報を記憶装置に記憶する回転体検出過程と,
前記記憶装置に記憶された領域情報をもとに,前記回転する物体を撮影するカメラのズーム倍率を,前記物体が回転中に占める領域が画像上における所定の範囲内で最大となるように決定する倍率算出過程と,
前記決定されたズーム倍率を設定したカメラにより前記回転する物体を再度撮影し,撮影した画像を表示または記録する過程とを有する
ことを特徴とする回転物体画像処理方法。
(Appendix 4)
A rotating object image processing method for displaying or recording an image of a rotating object, comprising:
An image obtained by intermittently or continuously capturing a rotating object by a camera is input, an object area occupied by the rotating object is detected on each image by image processing, and the object rotates once. Rotating object detection process in which the area occupied by the object on the image is calculated by superimposing the object area in the captured image, and the area information is stored in the storage device
Based on the area information stored in the storage device, the zoom magnification of the camera that captures the rotating object is determined so that the area occupied by the object during rotation is maximized within a predetermined range on the image. Magnification calculation process,
A rotating object image processing method comprising: taking a picture of the rotating object again with a camera set with the determined zoom magnification, and displaying or recording the taken image.

(付記5)
付記4記載の回転物体画像処理方法において,
前記画像を表示または記録する過程では,前記決定されたズーム倍率を設定したカメラにより前記回転する物体を再度撮影した画像から前記物体が回転中に占める領域を抽出して所定の画像サイズに拡大処理し,拡大処理した画像を表示または記録する
ことを特徴とする回転物体画像処理方法。
(Appendix 5)
In the rotating object image processing method according to attachment 4,
In the process of displaying or recording the image, an area occupied by the object during rotation is extracted from an image obtained by photographing the rotating object again with the camera having the determined zoom magnification and enlarged to a predetermined image size. And displaying or recording the enlarged image. A rotating object image processing method.

(付記6)
回転する物体を撮影した画像を表示または記録する回転物体画像処理方法であって,
回転する物体をカメラにより断続的または連続的に撮影した画像を入力し,各画像上で前記回転する物体が占有している物体領域を画像処理によって検出し,物体が1回転するまでの間に撮影された画像における物体領域を重ね合わせることにより,画像上で物体が回転中に占める領域を算出し,その領域情報を記憶装置に記憶する回転体検出過程と,
前記記憶装置に記憶された領域情報をもとに,前記物体が1回転するまでの間に撮影された画像を拡大する倍率を,前記物体が回転中に占める領域が画像上における所定の範囲内で最大となるように決定する倍率算出過程と,
前記決定された倍率により前記物体が1回転するまでの間に撮影された画像を拡大し,拡大した画像を表示または記録する過程とを有する
ことを特徴とする回転物体画像処理方法。
(Appendix 6)
A rotating object image processing method for displaying or recording an image of a rotating object, comprising:
An image obtained by intermittently or continuously capturing a rotating object by a camera is input, an object area occupied by the rotating object is detected on each image by image processing, and the object rotates once. Rotating object detection process in which the area occupied by the object on the image is calculated by superimposing the object area in the captured image, and the area information is stored in the storage device;
Based on the area information stored in the storage device, a magnification for enlarging an image taken until the object makes one rotation is set so that an area occupied by the object is within a predetermined range on the image. A magnification calculation process for determining the maximum at
A rotating object image processing method comprising: enlarging an image captured until the object makes one rotation at the determined magnification, and displaying or recording the enlarged image.

(付記7)
付記4ないし付記6記載の回転物体画像処理方法を,コンピュータに実行させるための回転物体画像処理プログラム。
(Appendix 7)
A rotating object image processing program for causing a computer to execute the rotating object image processing method according to appendix 4 to appendix 6.

回転物体画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a rotating object image processing apparatus. サブ区画,サブ区画テンプレート,追跡ブロックの関係を示す図である。It is a figure which shows the relationship between a subdivision, a subdivision template, and a tracking block. 回転体検出部による回転体検出手順を示す図である。It is a figure which shows the rotary body detection procedure by a rotary body detection part. 回転体検出部による回転体画像領域の候補の抽出手順を示す図である。It is a figure which shows the extraction procedure of the candidate of the rotary body image area | region by a rotary body detection part. 回転体検出部13による回転体決定手順を示す図である。It is a figure which shows the rotary body determination procedure by the rotary body detection part. ズーム倍率の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of zoom magnification. 第1の処理フローチャートである。It is a 1st process flowchart. 抽出領域の設定方法を説明するための図である。It is a figure for demonstrating the setting method of an extraction area | region. 第2の処理フローチャートである。It is a 2nd processing flowchart. 第3の処理フローチャートである。It is a 3rd process flowchart.

符号の説明Explanation of symbols

10 回転物体画像処理装置
11,12 信号入出力インタフェース(I/F)
13 回転体検出部
14 倍率算出部
15 ビデオカメラ
16 回転台
17 表示装置
18 記録媒体
20 取得画像
21 サブ区画
22 サブ区画テンプレート
23 追跡ブロック
10 Rotating Object Image Processing Device 11, 12 Signal Input / Output Interface (I / F)
DESCRIPTION OF SYMBOLS 13 Rotating body detection part 14 Magnification calculation part 15 Video camera 16 Turntable 17 Display apparatus 18 Recording medium 20 Acquired image 21 Subdivision 22 Subdivision template 23 Tracking block

Claims (5)

回転する物体を撮影した画像を表示または記録する回転物体画像処理装置であって,
回転する物体をカメラにより断続的または連続的に撮影した画像を入力し,各画像上で前記回転する物体が占有している物体領域を画像処理によって検出し,物体が1回転するまでの間に撮影された画像における物体領域を重ね合わせることにより,画像上で物体が回転中に占める領域を算出し,その領域情報を記憶装置に記憶する回転体検出手段と,
前記記憶装置に記憶された領域情報をもとに,前記回転する物体を撮影するカメラのズーム倍率を,前記物体が回転中に占める領域が画像上における所定の範囲内で最大となるように決定する倍率算出手段と,
前記決定されたズーム倍率を設定したカメラにより前記回転する物体を再度撮影し,撮影した画像を表示または記録する手段とを備える
ことを特徴とする回転物体画像処理装置。
A rotating object image processing apparatus that displays or records an image of a rotating object,
An image obtained by intermittently or continuously capturing a rotating object by a camera is input, an object area occupied by the rotating object is detected on each image by image processing, and the object rotates once. Rotating body detection means for calculating an area occupied by an object on the image by rotating the object area in the captured image and storing the area information in a storage device;
Based on the area information stored in the storage device, the zoom magnification of the camera that captures the rotating object is determined so that the area occupied by the object during rotation is maximized within a predetermined range on the image. A scaling factor calculating means;
A rotating object image processing apparatus comprising: means for re-photographing the rotating object with the camera set with the determined zoom magnification, and displaying or recording the photographed image.
回転する物体を撮影した画像を表示または記録する回転物体画像処理装置であって,
回転する物体をカメラにより断続的または連続的に撮影した画像を入力し,各画像上で前記回転する物体が占有している物体領域を画像処理によって検出し,物体が1回転するまでの間に撮影された画像における物体領域を重ね合わせることにより,画像上で物体が回転中に占める領域を算出し,その領域情報を記憶装置に記憶する回転体検出手段と,
前記記憶装置に記憶された領域情報をもとに,前記物体が1回転するまでの間に撮影された画像を拡大する倍率を,前記物体が回転中に占める領域が画像上における所定の範囲内で最大となるように決定する倍率算出手段と,
前記決定された倍率により前記物体が1回転するまでの間に撮影された画像を拡大し,拡大した画像を表示または記録する手段とを備える
ことを特徴とする回転物体画像処理装置。
A rotating object image processing apparatus that displays or records an image of a rotating object,
An image obtained by intermittently or continuously capturing a rotating object by a camera is input, an object area occupied by the rotating object is detected on each image by image processing, and the object rotates once. Rotating body detection means for calculating an area occupied by an object on the image by rotating the object area in the captured image and storing the area information in a storage device;
Based on the area information stored in the storage device, a magnification for enlarging an image taken until the object makes one rotation is set so that an area occupied by the object is within a predetermined range on the image. A magnification calculation means for determining the maximum value at
A rotating object image processing apparatus comprising: means for enlarging an image taken until the object makes one rotation at the determined magnification, and displaying or recording the enlarged image.
回転する物体を撮影した画像を表示または記録する回転物体画像処理方法であって,
回転する物体をカメラにより断続的または連続的に撮影した画像を入力し,各画像上で前記回転する物体が占有している物体領域を画像処理によって検出し,物体が1回転するまでの間に撮影された画像における物体領域を重ね合わせることにより,画像上で物体が回転中に占める領域を算出し,その領域情報を記憶装置に記憶する回転体検出過程と,
前記記憶装置に記憶された領域情報をもとに,前記回転する物体を撮影するカメラのズーム倍率を,前記物体が回転中に占める領域が画像上における所定の範囲内で最大となるように決定する倍率算出過程と,
前記決定されたズーム倍率を設定したカメラにより前記回転する物体を再度撮影し,撮影した画像を表示または記録する過程とを有する
ことを特徴とする回転物体画像処理方法。
A rotating object image processing method for displaying or recording an image of a rotating object, comprising:
An image obtained by intermittently or continuously capturing a rotating object by a camera is input, an object area occupied by the rotating object is detected on each image by image processing, and the object rotates once. Rotating object detection process in which the area occupied by the object on the image is calculated by superimposing the object area in the captured image, and the area information is stored in the storage device;
Based on the area information stored in the storage device, the zoom magnification of the camera that captures the rotating object is determined so that the area occupied by the object during rotation is maximized within a predetermined range on the image. Magnification calculation process,
A rotating object image processing method comprising: taking a picture of the rotating object again with a camera set with the determined zoom magnification, and displaying or recording the taken image.
回転する物体を撮影した画像を表示または記録する回転物体画像処理方法であって,
回転する物体をカメラにより断続的または連続的に撮影した画像を入力し,各画像上で前記回転する物体が占有している物体領域を画像処理によって検出し,物体が1回転するまでの間に撮影された画像における物体領域を重ね合わせることにより,画像上で物体が回転中に占める領域を算出し,その領域情報を記憶装置に記憶する回転体検出過程と,
前記記憶装置に記憶された領域情報をもとに,前記物体が1回転するまでの間に撮影された画像を拡大する倍率を,前記物体が回転中に占める領域が画像上における所定の範囲内で最大となるように決定する倍率算出過程と,
前記決定された倍率により前記物体が1回転するまでの間に撮影された画像を拡大し,拡大した画像を表示または記録する過程とを有する
ことを特徴とする回転物体画像処理方法。
A rotating object image processing method for displaying or recording an image of a rotating object, comprising:
An image obtained by intermittently or continuously capturing a rotating object by a camera is input, an object area occupied by the rotating object is detected on each image by image processing, and the object rotates once. Rotating object detection process in which the area occupied by the object on the image is calculated by superimposing the object area in the captured image, and the area information is stored in the storage device;
Based on the area information stored in the storage device, a magnification for enlarging an image taken until the object makes one rotation is set so that an area occupied by the object is within a predetermined range on the image. A magnification calculation process for determining the maximum at
A rotating object image processing method comprising: enlarging an image captured until the object makes one rotation at the determined magnification, and displaying or recording the enlarged image.
請求項3または請求項4記載の回転物体画像処理方法を,コンピュータに実行させるための回転物体画像処理プログラム。   A rotating object image processing program for causing a computer to execute the rotating object image processing method according to claim 3.
JP2007059310A 2007-03-09 2007-03-09 Rotating object image processor, rotating object image processing method and rotating object image processing program Withdrawn JP2008227636A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007059310A JP2008227636A (en) 2007-03-09 2007-03-09 Rotating object image processor, rotating object image processing method and rotating object image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007059310A JP2008227636A (en) 2007-03-09 2007-03-09 Rotating object image processor, rotating object image processing method and rotating object image processing program

Publications (1)

Publication Number Publication Date
JP2008227636A true JP2008227636A (en) 2008-09-25

Family

ID=39845758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007059310A Withdrawn JP2008227636A (en) 2007-03-09 2007-03-09 Rotating object image processor, rotating object image processing method and rotating object image processing program

Country Status (1)

Country Link
JP (1) JP2008227636A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113287297A (en) * 2020-08-26 2021-08-20 深圳市大疆创新科技有限公司 Control method, handheld cloud deck, system and computer readable storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113287297A (en) * 2020-08-26 2021-08-20 深圳市大疆创新科技有限公司 Control method, handheld cloud deck, system and computer readable storage medium

Similar Documents

Publication Publication Date Title
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
US9558543B2 (en) Image fusion method and image processing apparatus
JP4912117B2 (en) Imaging device with tracking function
US20100238325A1 (en) Image processor and recording medium
JP2009193421A (en) Image processing device, camera device, image processing method, and program
KR20130112574A (en) Apparatus and method for improving quality of enlarged image
JPH0380676A (en) Electronic pan focus device
TW201043014A (en) Image capturing apparatus, image processing method and storage medium
JP2007124088A (en) Image photographing device
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
JP2010114752A (en) Device and method of imaging and program
US8731327B2 (en) Image processing system and image processing method
JP5504990B2 (en) Imaging apparatus, image processing apparatus, and program
WO2018196854A1 (en) Photographing method, photographing apparatus and mobile terminal
JP2017220885A (en) Image processing system, control method, and control program
JP2017143354A (en) Image processing apparatus and image processing method
JP2004364212A (en) Object photographing apparatus, object photographing method and object photographing program
JP2008227636A (en) Rotating object image processor, rotating object image processing method and rotating object image processing program
JP2009118434A (en) Blurring correction device and imaging apparatus
JP7389558B2 (en) Information processing device and its control method and program
JP2011059977A (en) Imaging device
JP6961423B2 (en) Image processing equipment, imaging equipment, control methods for image processing equipment, programs and recording media
TWI516120B (en) Method for generating panoramic image and image capturing device thereof
JP2020160773A (en) Image processing device, imaging device, image processing method, and program
JP7409604B2 (en) Image processing device, imaging device, image processing method, program and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100511