JP2007281961A - Imaging apparatus, imaging apparatus control method, and imaging control method - Google Patents

Imaging apparatus, imaging apparatus control method, and imaging control method Download PDF

Info

Publication number
JP2007281961A
JP2007281961A JP2006106790A JP2006106790A JP2007281961A JP 2007281961 A JP2007281961 A JP 2007281961A JP 2006106790 A JP2006106790 A JP 2006106790A JP 2006106790 A JP2006106790 A JP 2006106790A JP 2007281961 A JP2007281961 A JP 2007281961A
Authority
JP
Japan
Prior art keywords
motion vector
imaging
rate
frame
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006106790A
Other languages
Japanese (ja)
Inventor
Toshiyuki Fukui
俊之 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006106790A priority Critical patent/JP2007281961A/en
Publication of JP2007281961A publication Critical patent/JP2007281961A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve matching accuracy of motion detection even for an object of great movement with the same search amount of processing for motion vector search as the conventional art. <P>SOLUTION: An imaging apparatus includes an imaging means capable of varying an imaging rate and a means capable of compositing a motion vector converted into a reference frame rate even when the imaging rate is changed. When a moving amount is great, photographing is performed at the quickened imaging rate, thereby reducing the relative moving amount of the object between photographed frame image data, and providing an effect that motion detection matching accuracy can be improved even for an object of great movement with the same search amount of processing for motion vector search as the conventional art. Furthermore, by changing the photographing rate in accordance with the moving amount, motion vector detection can be performed at the optimal rate for both a quickly moving object and a slowly moving object, thereby improving matching accuracy in comparison with a case where the rate is fixed. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像信号をデジタル化してデジタル信号処理する技術に関し、特に、動きベクトルを利用して処理を行う技術に関するものである。   The present invention relates to a technique for digitizing an imaging signal and processing the digital signal, and more particularly to a technique for processing using a motion vector.

従来、動画像の処理を行う際に動きベクトルを用いて処理を行うという方式が広く利用されている。その処理の代表的なものとしてMPEG画像圧縮が上げられる。   Conventionally, a method of performing processing using a motion vector when processing a moving image has been widely used. A typical example of the processing is MPEG image compression.

動きベクトルの検出と、その精度のよい効率的な探索のためには従来各種手法が提案されている。例えばテレスコピックサーチによる動きベクトル探索範囲限定に撮像装置の加速度情報を用いたものなどが存在する(例えば、特許文献1参照)。   Various methods have been proposed for motion vector detection and accurate and efficient search. For example, there is an apparatus using acceleration information of an imaging device for limiting a motion vector search range by a telescopic search (see, for example, Patent Document 1).

一方、動きベクトルの精度の良い追跡を行うために、高いフレームレートの画像から動きベクトルを抽出する手法も提案されている(例えば、特許文献2参照)。   On the other hand, a technique for extracting a motion vector from an image having a high frame rate has been proposed in order to track the motion vector with high accuracy (see, for example, Patent Document 2).

特開平6−261309号公報(第6頁、第1図、第2図)JP-A-6-261309 (6th page, FIG. 1, FIG. 2) 特開2004−289709号公報(第11頁、第2図、第12頁、第3図)JP 2004-289709 A (page 11, FIG. 2, page 12, FIG. 3)

動きベクトルの探索を確実に行うためには対応点の探索範囲をなるべく広くする必要がある。しかしながら、探索範囲を広げるほど探索に必要な計算量も大きくなり、実時間での探索には探索範囲を効果的に限定することが必要になる。   In order to reliably search for a motion vector, it is necessary to make the search range of corresponding points as wide as possible. However, as the search range is expanded, the amount of calculation required for the search increases, and it is necessary to effectively limit the search range for the search in real time.

特許文献1に開示される発明では、テレスコピックサーチによる動きベクトル探索範囲限定に撮像装置の加速度情報を用いているが、撮像装置自身の動きとは独立して撮影対象が一定時間内にその探索範囲を外れるような速度で移動した場合には、動きベクトルを抽出することはできなくなる。   In the invention disclosed in Patent Document 1, the acceleration information of the imaging device is used to limit the motion vector search range by the telescopic search. However, the subject to be imaged is within the search range within a certain time independently of the motion of the imaging device itself. If it moves at a speed that deviates from, the motion vector cannot be extracted.

一方、動きベクトルの精度の良い追跡を行うためには、高いフレームレートを用いて撮影することで、動画像の各画像の動きを求める手法がある。しかし、高いフレームレートのみで動きベクトルを求める場合には、高いフレームレートに対して比較的低速の移動物体が被写体である場合には、各フレーム画像間での動きが認識されうる動き量以下になり、動きベクトルの検出には限界があった。   On the other hand, in order to perform tracking with high accuracy of motion vectors, there is a method of obtaining the motion of each image of a moving image by shooting using a high frame rate. However, in the case of obtaining a motion vector only at a high frame rate, if a moving object that is relatively slow with respect to the high frame rate is a subject, the motion amount is less than the amount of motion that can be recognized between the frame images. Thus, there is a limit to the detection of motion vectors.

そこで、本発明の目的は、従来と同じ動きベクトル探索のための探索処理量で、動きの大きな物体に対してもより動き検出のマッチング精度を向上させることにある。   Accordingly, an object of the present invention is to improve the matching accuracy of motion detection even for an object having a large motion with the same amount of search processing for motion vector search as that of the prior art.

本発明の撮像装置は、被写体像を電気信号に変換する撮像手段と、前記撮像手段の撮像レートを変更する手段と、前記撮像手段からの電気信号を処理して画像信号を出力する現像手段と、前記画像信号を1画面毎のフレーム画像データとして複数画面分蓄積する蓄積手段と、前記蓄積手段に蓄積された複数のフレーム画像データ間でブロック単位の動きベクトルの検出を行う動きベクトル検出手段と、前記検出された動きベクトルを複数個合成する動きベクトル合成手段とを有し、前記検出された動きベクトル又は前記動きベクトル合成手段によって合成された動きベクトルの大きさに応じて前記撮像手段の撮像レートを基準フレームレートとは異なるフレームレートに変更するとともに、変更した場合には前記異なるフレームレートにより撮影された複数のフレーム画像データから検出された動きベクトルを用いて前記基準フレームレートに換算した動きベクトルを合成することを特徴とする。
本発明の撮像装置制御方法は、被写体像を電気信号に変換する撮像手段と、前記撮像手段の撮像レートを変更する手段と、前記撮像手段からの電気信号を処理して画像信号を出力する現像手段と、前記画像信号を1画面毎のフレーム画像データとして複数画面分蓄積する蓄積手段と、前記蓄積手段に蓄積された複数のフレーム画像データ間でブロック単位の動きベクトルの検出を行う動きベクトル検出手段と、前記検出された動きベクトルを複数個合成する手段と、前記検出された動きベクトルに応じて前記撮像手段の撮像レートを基準フレームレートとは異なるフレームレートに変更でき、前記異なるフレームレートにより撮影された場合には複数のフレーム画像データから検出された動きベクトルを用いて前記基準フレームレートに換算した動きベクトルを合成する手段と、1画面の中に存在する複数の前記検出された動きベクトル又は前記基準フレームレートに換算するように合成された動きベクトルから予め指定された方式により求められた代表動きベクトルを決定する代表動きベクトル設定手段とを有する撮像装置に対して、前記撮像装置から出力される画像を表示している表示装置から前記撮像レートに関する設定を指示するための撮像装置制御方法であって、複数の設定方式から特定の方式を指定する手段を持ち、前記設定手段によって設定された前記特定の方式に基づいて前記代表動きベクトルを生成することを特徴とする。
本発明の撮像制御方法は、被写体像を電気信号に変換する際の撮像レートを変更する工程と、前記撮像手段からの電気信号を処理して画像信号を出力する現像工程と、前記画像信号を1画面毎のフレーム画像データとして複数画面分蓄積する蓄積工程と、前記蓄積手段に蓄積された複数のフレーム画像データ間でブロック単位の動きベクトルの検出を行う動きベクトル検出工程と、前記検出された動きベクトルを複数個合成する動きベクトル合成工程とを含み、前記検出された動きベクトル又は前記動きベクトル合成工程によって合成された動きベクトルの大きさに応じて前記撮像レートを基準フレームレートとは異なるフレームレートに変更するとともに、変更した場合には前記異なるフレームレートにより撮影された複数のフレーム画像データから検出された動きベクトルを用いて前記基準フレームレートに換算した動きベクトルを合成することを特徴とする。
本発明のプログラムは、前記撮像制御方法をコンピュータに実行させることを特徴とする。
An imaging apparatus according to the present invention includes an imaging unit that converts a subject image into an electrical signal, a unit that changes an imaging rate of the imaging unit, a developing unit that processes the electrical signal from the imaging unit and outputs an image signal. Storing means for storing the image signal for a plurality of screens as frame image data for each screen; and motion vector detecting means for detecting a motion vector in units of blocks among the plurality of frame image data stored in the storing means; And a motion vector synthesis means for synthesizing a plurality of the detected motion vectors, and imaging of the imaging means according to the detected motion vector or the magnitude of the motion vector synthesized by the motion vector synthesis means The rate is changed to a frame rate different from the reference frame rate, and if changed, the different frame rate Characterized by combining a motion vector in terms of the reference frame rate using the detected motion vector from the shadows plurality of frame image data.
An imaging apparatus control method according to the present invention includes an imaging unit that converts a subject image into an electrical signal, a unit that changes an imaging rate of the imaging unit, and a development that processes an electrical signal from the imaging unit and outputs an image signal. Means, a storage means for storing the image signal for a plurality of screens as frame image data for each screen, and a motion vector detection for detecting a motion vector in units of blocks between the plurality of frame image data stored in the storage means Means for synthesizing a plurality of detected motion vectors, and the imaging rate of the imaging means can be changed to a frame rate different from a reference frame rate in accordance with the detected motion vectors, depending on the different frame rates. When captured, converted to the reference frame rate using motion vectors detected from multiple frame image data A representative obtained from a plurality of the detected motion vectors existing in one screen or a motion vector synthesized so as to be converted into the reference frame rate by a predetermined method. An imaging apparatus control method for instructing an imaging apparatus having a representative motion vector setting means for determining a motion vector to instruct a setting related to the imaging rate from a display apparatus displaying an image output from the imaging apparatus. And a means for designating a specific method from a plurality of setting methods, wherein the representative motion vector is generated based on the specific method set by the setting means.
The imaging control method of the present invention includes a step of changing an imaging rate when converting a subject image into an electrical signal, a developing step of processing an electrical signal from the imaging means and outputting an image signal, and the image signal An accumulation step of accumulating a plurality of frames as frame image data for each screen; a motion vector detection step of detecting a motion vector in units of blocks among the plural frame image data accumulated in the accumulation means; A motion vector synthesis step of synthesizing a plurality of motion vectors, and the imaging rate is different from a reference frame rate according to the detected motion vector or the magnitude of the motion vector synthesized by the motion vector synthesis step. In addition to changing to a rate, if changed, a plurality of frame images taken at the different frame rates Characterized by combining a motion vector in terms of the reference frame rate using the detected motion vector from the chromatography data.
A program according to the present invention causes a computer to execute the imaging control method.

本発明によれば、撮像レートが可変であるような撮像手段と、撮像レートが変更されても前記基準フレームレートに換算した動きベクトルを合成することが可能な手段を持ち、動き量の大きい時には撮像レートを速くして撮影することで、撮影されたフレーム画像データ間の相対的なオブジェクトの動き量を小さくすることが可能になり、従来と同じ動きベクトル探索のための探索処理量で、動きの大きな物体に対してもより動き検出のマッチング精度を向上させることを可能にする効果がある。   According to the present invention, the imaging means having a variable imaging rate and the means capable of synthesizing a motion vector converted to the reference frame rate even when the imaging rate is changed, when the amount of motion is large. By shooting at a high imaging rate, it is possible to reduce the relative amount of motion of the object between the captured frame image data. This has the effect of making it possible to improve the matching accuracy of motion detection even for large objects.

また、本発明によれば、動き量に応じて撮影レートを変えることにより、動きの速いもの、遅いものの両方に対して最適なレートで動きベクトル検出が可能になり、固定レートの場合に比べてマッチング精度を向上できる効果がある。   In addition, according to the present invention, by changing the shooting rate according to the amount of motion, it is possible to detect a motion vector at an optimal rate for both fast and slow motion, compared to a fixed rate. There is an effect that the matching accuracy can be improved.

また、本発明によれば、代表動きベクトルの大きさに基づく、異なるフレームレートにより撮影された複数のフレーム画像データから動きベクトルを検出する際に、直前の前記基準フレームレートに換算した動きベクトルの大きさに基づいて、動きベクトル検出の際に利用する参照用画像を前記複数のフレーム画像データのなかから選択することを可能にすることで、例えば動きの速いブロックに関しては撮像レートが上がったフレーム画像データ間での動き検出を行い、動きの小さなブロックに関しては間隔のあいたフレーム画像データ間での動き検出を行うことが可能になる。   According to the present invention, when detecting a motion vector from a plurality of frame image data shot at different frame rates based on the magnitude of the representative motion vector, the motion vector converted to the immediately preceding reference frame rate is detected. By making it possible to select a reference image to be used in motion vector detection from the plurality of frame image data based on the size, for example, a frame with an increased imaging rate for a fast-moving block It is possible to perform motion detection between image data, and it is possible to perform motion detection between frame image data at intervals with respect to blocks with small motion.

その結果、動きの小さなブロックに関して無駄に処理負荷をかけることなく、画像全体での動きベクトル検出の制度を向上させることが可能になる。   As a result, it is possible to improve the motion vector detection system for the entire image without unnecessarily imposing a processing load on blocks with small motion.

また、本発明によれば、動きベクトルを求めるブロック同士を直前の前記基準フレームレートに換算した動きベクトルの大きさ及びその位置関係に基づいてグループ化し、グループごとに動きベクトルを作成するために利用する参照用フレームを直前の基準レート動きベクトルの大きさ等に基づいて適切な間隔に選定することで、フレームメモリからの画像データの読出し量を押さえながら、例えば動きの速いブロックに関しては撮像レートが上がったフレーム画像データ間での動き検出を行い、動きの小さなブロックに関しては間隔の開いたフレーム画像データ間での動き検出を行うことが可能になる。   Further, according to the present invention, blocks for which a motion vector is obtained are grouped based on the magnitude of the motion vector converted to the immediately preceding reference frame rate and its positional relationship, and used to create a motion vector for each group. By selecting the reference frame to be used at an appropriate interval based on the size of the immediately preceding reference rate motion vector, etc., for example, the imaging rate for a fast-moving block is reduced while suppressing the amount of image data read from the frame memory. It is possible to perform motion detection between the frame image data that have risen, and to perform motion detection between the frame image data having a large interval for blocks with small motion.

その結果、メモリ読出しに必要としていた処理時間のオーバヘッドを削減することが可能になるので、探索処理にかけられる時間を長くすることが可能になり、最終的に画像全体での動きベクトル検出の精度を向上させることが可能になる。   As a result, it is possible to reduce the processing time overhead required for memory reading, so it is possible to lengthen the time required for the search process, and ultimately improve the accuracy of motion vector detection in the entire image. It becomes possible to improve.

また、本発明によれば、蓄積手段によって蓄積された複数のフレーム画像データから、1枚のフレーム画像を合成する手段、もしくは1枚のフレーム画像を選択する手段、もしくは前記合成する手段及び選択する手段の双方を持つことによって、撮像レートが基準フレームレートから変更された場合においても、画像の利用者には影響を与えることなく、必要な画像データを画像利用者に供給しながら、精度の良い動きベクトル検出を行うことが可能になる。   Further, according to the present invention, the means for synthesizing one frame image from the plurality of frame image data accumulated by the accumulation means, the means for selecting one frame image, or the means for synthesizing and selecting By having both of the means, even when the imaging rate is changed from the reference frame rate, the image user is not affected and the necessary image data is supplied to the image user with high accuracy. It is possible to perform motion vector detection.

また、本発明によれば、撮像装置が動きベクトルを用いる画像圧縮手段を備えている場合においては、異なるフレームレートによって撮影されている場合においても、前記生成された基準フレームレートのフレーム画像データと、前記基準フレームレートに換算された動きベクトルとを用いて、基準フレームレートに基づいた画像圧縮を行うことによって、圧縮画像の利用者が要求するフレームレートには影響を与えることなく、精度の良い動きベクトル検出結果を圧縮符号化に用いることによって、符号量の削減が可能になる。   According to the present invention, in the case where the imaging apparatus includes an image compression unit that uses a motion vector, the frame image data of the generated reference frame rate can be obtained even when the image is captured at a different frame rate. By performing image compression based on the reference frame rate using the motion vector converted into the reference frame rate, the frame rate requested by the user of the compressed image is not affected and the accuracy is high. By using the motion vector detection result for compression encoding, the amount of codes can be reduced.

また、本発明によれば、撮像装置が動体検知手段を備えている場合には、基準フレームレートに換算した動きベクトルを用いて動体検知を実施することで、従来よりも動きの大きい物体にも的確に追従することが可能になり、動体検知の精度向上が可能になる。   In addition, according to the present invention, when the imaging apparatus includes the moving object detection unit, the moving object is detected using the motion vector converted into the reference frame rate, so that an object having a larger movement than the conventional one can be used. It becomes possible to accurately follow, and the accuracy of moving object detection can be improved.

更にこのような撮像装置に対して、撮像装置から出力される画像を表示している表示装置から撮像レートに関する設定を指示するための方法として、複数の設定方式から特定の方式を指定する手段を持ち、該指定手段によって設定された特定の方式に基づいて異なるフレームレートを変更することができるようにすることによって、ユーザがその利用目的に応じて撮像フレームレートの変更方法を指定することが可能になり、よりユーザの利用目的に応じた動き検出を行うことが可能になる。   Furthermore, as a method for instructing such an imaging apparatus to set an imaging rate setting from a display device displaying an image output from the imaging apparatus, means for designating a specific system from a plurality of setting systems is provided. The user can specify how to change the imaging frame rate according to the purpose of use by allowing the user to change the different frame rate based on the specific method set by the specifying means. Thus, it becomes possible to perform motion detection according to the purpose of use of the user.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

−第1の実施形態−
先ず、本発明の第1の実施形態について説明する。
図1は、本発明の第1の実施形態における撮像装置の構成を示す図である。1は撮像装置であり、ネットワーク網2と接続されている。撮像装置1内部では、撮像部10に含まれる撮像レンズ100によって光が集められ、撮像素子101において、適切なシャッタスピード等に基づいて制御された光が光電変換される。光電変換された信号は現像処理部102に与えられ、そこで画像信号としてフレーム制御部11に対して出力される。
-First embodiment-
First, a first embodiment of the present invention will be described.
FIG. 1 is a diagram illustrating a configuration of an imaging apparatus according to the first embodiment of the present invention. An imaging apparatus 1 is connected to the network 2. In the imaging device 1, light is collected by the imaging lens 100 included in the imaging unit 10, and light controlled based on an appropriate shutter speed or the like is photoelectrically converted in the imaging element 101. The photoelectrically converted signal is supplied to the development processing unit 102, where it is output to the frame control unit 11 as an image signal.

撮像素子の撮像レートは撮像制御部103内部の撮像レート制御部104によって制御される。また、撮像制御部103は撮像素子101のシャッタスピードなども制御する。   The imaging rate of the imaging element is controlled by the imaging rate control unit 104 inside the imaging control unit 103. The imaging control unit 103 also controls the shutter speed of the image sensor 101 and the like.

フレーム制御部11に送られた画像データは、必要に応じてフレーム制御部11で加工された後、1画面ごとのフレーム画像データとしてフレームメモリ12に蓄積される。   The image data sent to the frame control unit 11 is processed by the frame control unit 11 as necessary, and then stored in the frame memory 12 as frame image data for each screen.

フレームメモリ12に蓄積されたフレーム画像データは、動きベクトル検出部13において、同じくフレームメモリ12に保存されている過去のフレーム画像データを参照用フレーム画像データとしてフレームデータを構成する局所領域(以下、ブロックと呼ぶ)毎に比較される。そしてブロック毎に動きベクトルが生成される。   The frame image data stored in the frame memory 12 is stored in a local region (hereinafter, referred to as “frame region data”) in the frame vector data by using the past frame image data stored in the frame memory 12 as reference frame image data. Called each block). A motion vector is generated for each block.

生成された各動きベクトルは必要に応じて動きベクトル合成部14によって、その前後のフレーム画像データに対する動きベクトルと合成され、新たな動きベクトルとして利用される。   Each generated motion vector is combined with the motion vector for the frame image data before and after that by the motion vector combining unit 14 as necessary, and used as a new motion vector.

その後、フレームメモリ12に蓄えられたフレーム画像データは圧縮処理部15において圧縮される。本実施形態では、MPEG形式のように動きベクトルを用いて圧縮処理を行うことを想定している。   Thereafter, the frame image data stored in the frame memory 12 is compressed by the compression processing unit 15. In the present embodiment, it is assumed that compression processing is performed using a motion vector as in the MPEG format.

圧縮処理部15は、動きベクトル検出部13及び動きベクトル合成部14から適切な動きベクトルを得てその動きベクトル情報をベースに圧縮処理する。   The compression processing unit 15 obtains an appropriate motion vector from the motion vector detection unit 13 and the motion vector synthesis unit 14, and performs compression processing based on the motion vector information.

圧縮された画像データは、ネットワーク制御部16からネットワークインタフェース17を介してネットワーク網2に対して送出され、受信側端末に表示される。   The compressed image data is sent from the network control unit 16 to the network 2 via the network interface 17 and displayed on the receiving terminal.

また、動体検知部18は、動きベクトル検出部13及び動きベクトル合成部14から適切な動きベクトルを得てその動きベクトル情報をベースに動体検知処理を実施する。   In addition, the moving object detection unit 18 obtains an appropriate motion vector from the motion vector detection unit 13 and the motion vector synthesis unit 14, and performs a moving object detection process based on the motion vector information.

動体検地した結果は、例えばネットワーク制御部16からネットワークインタフェース17を介してネットワーク網2に対して送出され、受信側端末上で、動きのある物体が検出されたとしてアラームを鳴らすなどに利用される。   The result of the moving body detection is transmitted from the network control unit 16 to the network 2 via the network interface 17, for example, and used to sound an alarm on the receiving side terminal when a moving object is detected. .

更に、フレームメモリ12から所定の出力レートに応じて映像出力制御部20がフレーム画像データを読み出し、それを出力に応じた適当な形式に変換した後、映像出力インタフェース21を介して、映像信号を外部モニタ22に供給している。   Further, the video output control unit 20 reads out the frame image data from the frame memory 12 according to a predetermined output rate, converts the frame image data into an appropriate format according to the output, and then converts the video signal through the video output interface 21. This is supplied to the external monitor 22.

ここでモニタ22は外部モニタであるとしたが、撮像装置に付随する液晶表示装置などでもよく、本実施形態においてその構成を制限するものではない。   Here, the monitor 22 is an external monitor, but it may be a liquid crystal display device attached to the imaging device, and the configuration is not limited in this embodiment.

図2は本実施形態における撮像装置1を利用したシステムの構成例を示す図である。
撮像装置1からネットワーク網2を介して表示端末3に対して、撮像装置1が撮影した画像を圧縮処理したデータが送信される。
FIG. 2 is a diagram illustrating a configuration example of a system using the imaging apparatus 1 according to the present embodiment.
Data obtained by compressing an image captured by the imaging device 1 is transmitted from the imaging device 1 to the display terminal 3 via the network 2.

表示端末3では、圧縮された画像データを受信後、伸張して、ビューワ30上に画像を表示する。   The display terminal 3 receives the compressed image data, expands it, and displays the image on the viewer 30.

このような構成を持つ撮像装置において、どのように動きベクトルを用いて撮像素子の撮像レートを変更し、撮像レート変更後にどのようにして動きベクトルを抽出すると同時にユーザが求める画像を作成するかについて図1、図2及び以下に示す図3〜図6を用いて説明する。   In an imaging apparatus having such a configuration, how to change the imaging rate of an imaging device using a motion vector and how to extract a motion vector after changing the imaging rate and create an image requested by the user at the same time This will be described with reference to FIGS. 1 and 2 and FIGS.

図3は、動きベクトル検出部における動きベクトルの検出の方法を示したものである。
図4は、検出された動きベクトルの大きさを判断する仕組みと、必要に応じて撮像レートの変更を指示するための仕組みを説明するための、動きベクトル探索領域の細分化に関する図である。
図5は、撮像レートが基準フレームレートから変更された場合の動きベクトルの検出と合成に関して説明するための図である。
図6は、フレーム制御部11においてどのように撮像フレームデータから基準フレームレートの画像を生成するかに関して説明するための図である。
FIG. 3 shows a motion vector detection method in the motion vector detection unit.
FIG. 4 is a diagram relating to subdivision of the motion vector search area for explaining a mechanism for determining the magnitude of the detected motion vector and a mechanism for instructing the change of the imaging rate as necessary.
FIG. 5 is a diagram for explaining motion vector detection and synthesis when the imaging rate is changed from the reference frame rate.
FIG. 6 is a diagram for explaining how the frame control unit 11 generates an image at the reference frame rate from the captured frame data.

以下、本実施形骸における動きベクトル検出部13における動きベクトルの検出に関して図3を用いて説明する。
図3において、時刻t=aにおいて撮像部10によって撮像された画像が、1画面ごとのフレーム画像データ60−aとしてフレームメモリ12に格納されたとする。ここで、現在の撮像素子101での撮像レートは、基準フレームレートに設定されており、基準フレームレートは30フレーム/秒であるとする。
Hereinafter, detection of a motion vector in the motion vector detection unit 13 in this embodiment will be described with reference to FIG.
In FIG. 3, it is assumed that an image captured by the imaging unit 10 at time t = a is stored in the frame memory 12 as frame image data 60-a for each screen. Here, it is assumed that the current imaging rate of the image sensor 101 is set to the reference frame rate, and the reference frame rate is 30 frames / second.

フレーム画像データ60−a上には移動物体61及び62が存在し、61は●、62は▲で示された位置(61−a,62−a)にあるものとする。   It is assumed that there are moving objects 61 and 62 on the frame image data 60-a, where 61 is at the position (61-a, 62-a) indicated by ● and 62.

基準フレームレートの撮像間隔である1/30秒後の時刻t=bにおいて、撮影されたフレーム画像データ60−bでは、移動物体61は○、移動物体62は△で示された位置に(61−b,62−b)にそれぞれ移動しているとする。   At the time t = b after 1/30 second, which is the imaging interval of the reference frame rate, in the captured frame image data 60-b, the moving object 61 is at the position indicated by ◯ and the moving object 62 is at the position indicated by Δ (61 -B, 62-b).

ここで動きベクトル検出部13は、フレームメモリ12からフレーム画像データ60−bを読出し、時刻t=bにおける移動物体61及び62の動きベクトルを検出するとする。その動きベクトルを検出するための参照用フレーム画像としては、1フレーム前の画像である60−aが用いられる。   Here, the motion vector detection unit 13 reads the frame image data 60-b from the frame memory 12 and detects the motion vectors of the moving objects 61 and 62 at time t = b. As a reference frame image for detecting the motion vector, 60-a which is an image one frame before is used.

まず、移動物体61に関する動きベクトル検出に関して説明をする。動きベクトル検出部13は、61−bに対応する位置の情報を参照用フレーム画像とした60−aの上に61−b´として設定し(画像データ60−a上の○に対応)、そこを中心にした矩形領域の動きベクトル探索領域51(図中太線で囲まれた領域)を設定する。   First, motion vector detection related to the moving object 61 will be described. The motion vector detection unit 13 sets the position information corresponding to 61-b as 61-b ′ on the reference frame image 60-a (corresponding to “◯” on the image data 60-a). A motion vector search area 51 (area surrounded by a thick line in the figure) is set as a rectangular area centered at.

そして、その動きベクトル探索領域51の中で画像データ60−bにおける61−bの位置に位置するブロックの内容と最も一致する画像ブロックを探索する。   Then, an image block that most closely matches the content of the block located at the position 61-b in the image data 60-b in the motion vector search area 51 is searched.

このパターンマッチングは差分絶対値や差分二乗値などを求め、その演算結果を比較することで行われる。   This pattern matching is performed by obtaining a difference absolute value, a difference square value, and the like and comparing the calculation results.

ここで、いま、移動物体61が61−aから61−bの位置に移動したとしたので、60−aの画像の中で●で示される61−aの位置に存在するブロックが、画像データ60−bにおける61−bの位置に存在するブロックの内容と最も一致する。   Here, since the moving object 61 has moved from the position 61-a to the position 61-b, the block existing at the position 61-a indicated by ● in the image 60-a is the image data. It most closely matches the contents of the block existing at position 61-b in 60-b.

そこで、時刻t=bにおける61−bの位置に対応する動きベクトルは矢印64で示される動きベクトルとなる。   Therefore, the motion vector corresponding to the position 61-b at time t = b is the motion vector indicated by the arrow 64.

同様にして移動物体62に関する動きベクトルも、参照用フレーム画像データとした60−aの画像上に、62−bに対応する位置の情報を設定し(画像データ60−a上の△62−b´に対応)、そこを中心とした矩形領域の動きベクトル探索領域52を設定して探索した結果、矢印66で示される動きベクトルとして検出される。   Similarly, for the motion vector related to the moving object 62, the position information corresponding to 62-b is set on the 60-a image as the reference frame image data (Δ62-b on the image data 60-a). As a result of setting and searching for a motion vector search region 52 of a rectangular region centered on the region, it is detected as a motion vector indicated by an arrow 66.

以下、動きベクトルの大きさを判断する仕組みと必要に応じて撮像レートの変更を指示する仕組みについて図1を参照しながら図4を用いて更に詳細に説明する。   Hereinafter, a mechanism for determining the magnitude of the motion vector and a mechanism for instructing the change of the imaging rate as necessary will be described in more detail with reference to FIG. 1 and FIG.

図4はある第1の撮像レートの場合における、動きベクトルを探索するための探索領域を表したものである。   FIG. 4 shows a search area for searching for a motion vector in the case of a certain first imaging rate.

図中、43は探索の原点となるブロックが位置している場所であり、この位置に存在しているブロックに対する動きベクトルを抽出しようとしているとする。斜線領域40の外枠の線44はこの第1の撮像レートにおける探索領域を示している。   In the figure, reference numeral 43 denotes a place where a block serving as a search origin is located, and it is assumed that a motion vector for a block existing at this position is to be extracted. A line 44 of the outer frame of the hatched area 40 indicates a search area at the first imaging rate.

この領域の範囲の中で動きベクトルの探索が行われる。この第1の撮像レートにおける探索領域は探索の原点である43からの位置関係に応じて高速領域40(斜線域)、中速領域41(白色領域)、低速領域42(網点領域)の3つに分けられる。   A search for a motion vector is performed within the range of this region. The search area at the first imaging rate includes three areas of a high speed area 40 (shaded area), a medium speed area 41 (white area), and a low speed area 42 (halftone area) according to the positional relationship from the search origin 43. Divided into two.

本実施形態においては、探索領域44の枠の長さを1とした場合、中速領域41の外枠の長さは0.7、低速領域42の外枠の長さは0.4となるような比率で各領域のサイズを設定しているが、この比率はここに示した比率に限定されるものではなく、必要に応じて任意に設定することが可能である。   In the present embodiment, when the frame length of the search area 44 is 1, the outer frame length of the medium speed area 41 is 0.7, and the outer frame length of the low speed area 42 is 0.4. The size of each region is set at such a ratio, but this ratio is not limited to the ratio shown here, and can be arbitrarily set as necessary.

動きベクトルが検出されると、動きベクトル検出部13は、その動きベクトルの始点位置が先に示した高速領域40、中速領域41、低速領域42のうちどこに属していたかをチェックする。   When a motion vector is detected, the motion vector detection unit 13 checks where the start point position of the motion vector belongs to among the high speed area 40, the medium speed area 41, and the low speed area 42 described above.

そして、図4における点Cのように高速領域40に動きベクトルの始点が属していた場合には、注目しているブロックの動きが大きいと判断して、より高速の動きに備えるように撮像レートを上げるように撮像制御部103の撮像レート制御部104に対して指示する。   Then, when the start point of the motion vector belongs to the high speed region 40 as in the point C in FIG. 4, it is determined that the motion of the block being noticed is large, and the imaging rate is set so as to prepare for the higher speed motion. To the imaging rate control unit 104 of the imaging control unit 103.

一方、図4における点Aのように低速領域42に動きベクトルの始点が属していた場合には、注目しているブロックの動きが小さいと判断する。   On the other hand, when the start point of the motion vector belongs to the low speed region 42 as indicated by the point A in FIG. 4, it is determined that the motion of the focused block is small.

そして一定期間観測を続け、ブロックの動きが小さい状態が継続している場合には、撮像レートを下げるように撮像制御部103の撮像レート制御部104に対して指示する。   If the observation continues for a certain period and the state where the motion of the block is small continues, the imaging rate control unit 104 of the imaging control unit 103 is instructed to lower the imaging rate.

また、一方、図4における点Bのように中速領域41に動きベクトルの始点が属していた場合には、特に撮像制御に対して指示は行わない。   On the other hand, when the start point of the motion vector belongs to the medium speed region 41 as in the point B in FIG.

図1において動きベクトル検出部13から指示を受けた撮像制御部103の中の撮像レート制御部104は、現在撮像素子101に対して指示している撮像レートと、動きベクトル検出部13からの指示を組み合わせて、撮像レートを変更するための判断を行う。   In FIG. 1, the imaging rate control unit 104 in the imaging control unit 103 that has received an instruction from the motion vector detection unit 13 indicates the imaging rate currently instructed to the imaging element 101 and the instruction from the motion vector detection unit 13. Are combined to make a determination for changing the imaging rate.

基本的には動きベクトル検出部13からの指示に応じて撮像レートを上げ下げするが、もし、現在の撮像レートが基準フレームレートに設定されているならば、それ以上撮像レートを低下させることはしない。   Basically, the imaging rate is increased or decreased in accordance with an instruction from the motion vector detection unit 13, but if the current imaging rate is set to the reference frame rate, the imaging rate is not further decreased. .

なお、図4では一般的な動きベクトルの大きさを判断する仕組みと必要に応じて撮像レートの変更を指示する仕組みについて説明したが、この一連の作業は代表動きベクトルが設定されている場合においてはその代表動きベクトルに関してのみ行うようにすることも可能である。   In FIG. 4, a mechanism for determining the size of a general motion vector and a mechanism for instructing to change the imaging rate as necessary are described. However, this series of operations is performed when a representative motion vector is set. It is also possible to perform only for the representative motion vector.

なお、代表動きベクトルは、ネットワーク網2の先に接続された表示装置3側からの指示により、代表動きベクトル設定部19によって設定されるが、その詳細に関しては後述する。   Note that the representative motion vector is set by the representative motion vector setting unit 19 in accordance with an instruction from the display device 3 connected to the end of the network 2, and details thereof will be described later.

また、大きさに関する判断だけ全動きベクトルに関して行い、その中から代表動きベクトルの大きさに基づく判断結果のみを用いて撮像フレームレートを変更するように指示することも可能であり、ここで開示した内容だけに限定されるものではない。   In addition, it is possible to instruct to change the imaging frame rate using only the determination result based on the magnitude of the representative motion vector from among all the motion vectors only for the size determination. It is not limited to the content.

上記内容を先の図3の場合を用いて説明する。図3においては、移動物体61および62に対して動きベクトル探索領域が51、52に設定される。   The above contents will be described using the case of FIG. In FIG. 3, the motion vector search areas are set to 51 and 52 for the moving objects 61 and 62.

動きベクトル探索領域51、52が探索の原点である61−b、62−bからの位置関係に応じて高速領域63及び65(斜線域)、中速領域67及び68(白色領域)として示されている。低速領域も存在しうるが、ここでは図示していない。   The motion vector search areas 51 and 52 are shown as high speed areas 63 and 65 (shaded areas) and medium speed areas 67 and 68 (white areas) according to the positional relationship from the search origins 61-b and 62-b. ing. A low speed region may also exist but is not shown here.

本実施形態においては、移動物体62の動きベクトル66に関しては中速領域68内部に始点があったが、移動物体61の動きベクトル64は始点が高速領域63内にあった。このとき、本実施形態においては代表動きベクトルとして動きベクトル64が指定されているとする。   In the present embodiment, the motion vector 66 of the moving object 62 has a start point in the medium speed region 68, but the motion vector 64 of the moving object 61 has a start point in the high speed region 63. At this time, in this embodiment, it is assumed that the motion vector 64 is designated as the representative motion vector.

すると動きベクトル検出部13は代表動きベクトルの始点が高速領域に属していたので撮像レートを上げるように撮像制御部103の撮像レート制御部104に対して通知する。   Then, the motion vector detection unit 13 notifies the imaging rate control unit 104 of the imaging control unit 103 to increase the imaging rate because the start point of the representative motion vector belongs to the high speed region.

通知を受けた撮像レート制御部104は、撮像レートを所定の方式に基づいて変更する。
撮像レートを上げるように指示を受けているので、例えば撮像レートが2倍の60フレーム/秒に変更される。
Upon receiving the notification, the imaging rate control unit 104 changes the imaging rate based on a predetermined method.
Since an instruction is given to increase the imaging rate, for example, the imaging rate is changed to 60 frames / second, which is doubled.

ここで撮像レートの変更は2倍としたが、変更の大きさは2倍に限られるものではなく、必要に応じて適切な値をとることが可能である。   Here, the change in the imaging rate is doubled, but the magnitude of the change is not limited to double, and an appropriate value can be taken as necessary.

図5は撮像レートが基準フレームレートである30フレーム/秒から2倍の60フレーム/秒に変更されたあとの画像の様子と動きベクトル検出の様子、及び検出された動きベクトルの合成を示した図である。   FIG. 5 shows the state of the image, the state of motion vector detection, and the composition of the detected motion vector after the imaging rate is changed from 30 frames / second, which is the reference frame rate, to 60 frames / second, which is doubled. FIG.

図5では図3における60−bの一部を切出して60−b´とし、移動物体61に続けて注目している。   In FIG. 5, a part of 60-b in FIG. 3 is cut out to 60-b ′, and attention is paid to the moving object 61.

図5において、移動物体61は図3の状態から継続して、同一方向に等速で移動しているものとする。その場合、60−b´から1/60秒後の時刻t=cにおける撮影画像6−c´においては61−cの位置に、更に1/60秒後の時刻t=dにおける撮影画像60−d´においては61−dの位置に移動物体61は移動している。このとき、それぞれのフレーム画像間で動きベクトルを検出する。   In FIG. 5, it is assumed that the moving object 61 moves from the state of FIG. 3 at a constant speed in the same direction. In that case, in the photographed image 6-c ′ at time t = c 1/60 seconds after 60-b ′, the photographed image 60− at position 61-c and further at time t = d 1/60 seconds later. In d ′, the moving object 61 has moved to the position 61-d. At this time, a motion vector is detected between the respective frame images.

ここで、動きベクトル検出部13は、フレームメモリ12からフレーム画像データ60−c´を読出し、時刻t=cにおける移動物体61の動きベクトルを検出するとする。その動きベクトルを検出するための参照用フレーム画像としては、1フレーム前の画像である60−b´'が用いられる。   Here, it is assumed that the motion vector detection unit 13 reads the frame image data 60-c ′ from the frame memory 12 and detects the motion vector of the moving object 61 at time t = c. As a reference frame image for detecting the motion vector, 60-b ′ ′ which is an image one frame before is used.

図3の時と同様に、動きベクトル検出部13は、61−cに対応する位置の情報をフレーム画像データ60−b´の上に61−c´として設定し、そこを中心にした矩形領域の動きベクトル探索領域51−bを設定する。   As in the case of FIG. 3, the motion vector detection unit 13 sets the position information corresponding to 61-c as 61-c ′ on the frame image data 60-b ′, and a rectangular area centered there The motion vector search region 51-b is set.

ここで、動きベクトル探索領域は、撮像フレームレートが30フレーム/秒から2倍の60フレーム/秒へと2倍になっているため、動きベクトル探索に要する時間が全体として変わらないようにするために、探索面積は逆におよそ1/2となるように設定されている。   Here, in the motion vector search area, the imaging frame rate is doubled from 30 frames / second to 60 frames / second, so that the time required for motion vector search does not change as a whole. On the contrary, the search area is set to be approximately ½.

即ち、図3における動きベクトル探索領域51に対して、図5における動きベクトル探索領域51−b,c,dは面積としてほぼ1/2であり、およそ図3における67で示される中速領域(白色域)と同じ大きさである。   That is, the motion vector search area 51-b, c, d in FIG. 5 is approximately ½ the area of the motion vector search area 51 in FIG. It is the same size as the white area.

そして、その動きベクトル探索領域の中で画像データ60−c´における61−cの位置に位置するブロックの内容と最も一致する画像ブロックを探索する。   Then, an image block that most closely matches the content of the block located at the position 61-c in the image data 60-c ′ is searched for in the motion vector search region.

いま、移動物体61が61−bから61−cの位置に移動したとしたので、60−b´の画像の中で○で示される61−bの位置に存在するブロックが、画像データ60−c´における61−cの位置に位置するブロックの内容と最も一致する。そこで、時刻t=cにおける61−cの位置に対応する動きベクトルは矢印64−bで示される動きベクトルとなる。   Now, since the moving object 61 has moved from 61-b to 61-c, the block existing at the position 61-b indicated by a circle in the image 60-b ′ is the image data 60-. It most closely matches the contents of the block located at position 61-c in c ′. Therefore, the motion vector corresponding to the position 61-c at time t = c is the motion vector indicated by the arrow 64-b.

同様にして、時刻t=dにおけるフレーム画像60−d´において、61−dの位置に対応する動きベクトルは、参照用フレーム画像を1/60秒前のフレームである60−c´とした場合、64−cと求められる。   Similarly, in the frame image 60-d ′ at time t = d, the motion vector corresponding to the position 61-d is the case where the reference frame image is 60-c ′ which is a frame 1/60 second before. , 64-c.

ここで、撮像レートが上昇したあとのそれぞれ連続するフレーム画像に関しては動きベクトルが求められたが、動きベクトルを利用する際には、利用する形態にあわせた動きベクトルが必要となる。   Here, a motion vector is obtained for each successive frame image after the imaging rate has increased, but when using a motion vector, a motion vector that matches the form to be used is required.

例えば、基準フレームレートで圧縮した映像をネットワークに配信する場合には、基準フレームレートの画像に対する動きベクトル(以下基準レート動きベクトルと呼ぶ)が必要になる。   For example, when a video compressed at a reference frame rate is distributed to a network, a motion vector (hereinafter referred to as a reference rate motion vector) for an image at the reference frame rate is required.

本実施形態では、基準レート動きベクトルの合成は動きベクトル合成部14で実施される。   In the present embodiment, the synthesis of the reference rate motion vector is performed by the motion vector synthesis unit 14.

図1において、動きベクトル検出部13は、基準フレームレート以外の撮像レートで画像を撮像している場合には、検出した動きベクトルの情報をフレーム番号と共に動きベクトル合成部14に伝達する。動きベクトル合成部は、撮像制御部104から撮像レートに関する情報を、フレーム制御部11からはフレーム画像に関する情報を得て、それを基にして、動きベクトル検出部13から伝えられた動きベクトル情報をどのように加工するかを判断する。   In FIG. 1, the motion vector detection unit 13 transmits information of the detected motion vector together with the frame number to the motion vector synthesis unit 14 when an image is captured at an imaging rate other than the reference frame rate. The motion vector synthesizing unit obtains information on the imaging rate from the imaging control unit 104 and information on the frame image from the frame control unit 11, and based on the information, the motion vector information transmitted from the motion vector detection unit 13 is obtained. Judge how to process.

例えば、図5において、フレーム画像60−d´に対して基準レート動きベクトルが求められていたとすると、動きベクトル合成部14は先に得られた64−b及び64−cの2つの動きベクトル情報から基準レート動きベクトル69を合成する。   For example, in FIG. 5, if the reference rate motion vector is obtained for the frame image 60-d ′, the motion vector synthesis unit 14 obtains the two pieces of motion vector information of 64-b and 64-c obtained previously. The reference rate motion vector 69 is synthesized from the above.

合成された動きベクトル69は、圧縮処理部15、及び動体検知部18で基準フレームレート間隔の動きベクトル情報として利用される。   The synthesized motion vector 69 is used as motion vector information at the reference frame rate interval by the compression processing unit 15 and the moving object detection unit 18.

次に、撮像レートが基準フレームレートである30フレーム/秒から変更された場合に、基準フレームレートより高い高速撮像レートで撮影された撮像フレームデータから、基準フレームレートの出力フレームデータをどのように作成するかに関して、図1を参照しながら図6を用いて示す。   Next, when the imaging rate is changed from the reference frame rate of 30 frames / second, how is the output frame data at the reference frame rate from the imaging frame data captured at a higher imaging rate than the reference frame rate? With reference to FIG. 1, it shows using FIG. 6 regarding whether it produces.

図1において、撮像制御部103から撮像レート及び撮像時のシャッタスピード情報をフレーム制御部11は獲得する。獲得した情報に基づき、フレーム制御部11は、出力用の画像データを図6に示した形で加工して、1画面ごとのフレーム画像データとしてフレームメモリ12に蓄積する。   In FIG. 1, the frame control unit 11 obtains an imaging rate and shutter speed information at the time of imaging from the imaging control unit 103. Based on the acquired information, the frame control unit 11 processes the output image data in the form shown in FIG. 6 and stores it in the frame memory 12 as frame image data for each screen.

図6は、フレーム制御部11において撮像フレームデータを加工する例を示したものである。   FIG. 6 shows an example of processing the imaging frame data in the frame control unit 11.

図6a)は基準フレームレート(30フレーム/秒)で撮像素子101が撮像している時の撮像フレームデータの状態を模式的に示したものである。このとき、求められている出力フレームデータとしては、ここに示された撮像フレームデータがそのままの形で利用される。   FIG. 6A) schematically shows the state of the imaging frame data when the imaging element 101 is imaging at the reference frame rate (30 frames / second). At this time, as the requested output frame data, the imaging frame data shown here is used as it is.

そのため、特に画像に対する加工は行われず、撮像フレームデータ[0]、[1]、[2]がそのままフレームメモリ12に蓄積される。   Therefore, no particular processing is performed on the image, and the imaging frame data [0], [1], and [2] are stored in the frame memory 12 as they are.

図6b)は基準フレームレートより高い高速撮像レートで(例として4倍の撮像レート(120フレーム/秒))で撮像素子101が撮像している時の撮像フレームデータの状態を模式的に示したものである。   FIG. 6B) schematically shows the state of the imaging frame data when the imaging device 101 is imaging at a high-speed imaging rate higher than the reference frame rate (for example, four times the imaging rate (120 frames / second)). Is.

基準フレームレートで撮影した場合の[0]、[1]、[2]のフレームデータの撮影に利用される各期間で、それぞれ4枚の画像が撮影され、[1A]、[1B]、[1C]、[1D]のような画像が1/120秒間隔のフレームデータとして出力されている。   In each period used for capturing the frame data [0], [1], and [2] when shooting at the reference frame rate, four images are captured, and [1A], [1B], [1] Images such as [1C] and [1D] are output as frame data at 1/120 second intervals.

このとき、出力として基準フレームレートの画像データが求められているので、これらの高速撮像レートで撮影された撮像フレームデータから、基準フレームレートにあわせた出力フレームデータを作成する必要がある。   At this time, since image data having a reference frame rate is required as output, it is necessary to create output frame data in accordance with the reference frame rate from the captured frame data captured at these high-speed imaging rates.

その作成方法としては、基準フレームレートに基づいて画像データを撮影した場合に適用される基準シャッタスピードを考えると、その基準シャッタスピードに応じて次の2通りの方法が利用される。   As the creation method, considering the reference shutter speed applied when image data is captured based on the reference frame rate, the following two methods are used according to the reference shutter speed.

まず、基準シャッタスピードが十分に速いとき、すなわち、基準シャッタスピードが高速フレームレートの撮像間隔以下である場合には、高速フレームレートで撮影が行われる際にも、基準シャッタスピードを用いて各撮像フレームデータが撮影される。   First, when the reference shutter speed is sufficiently high, that is, when the reference shutter speed is equal to or less than the imaging interval of the high-speed frame rate, each imaging using the reference shutter speed is performed even when shooting is performed at the high-speed frame rate. Frame data is captured.

その場合、出力フレームデータは、高速フレームレートで撮影された撮像フレームデータから基準フレームレートに応じた間隔で絵を間引くことによって作成される。   In that case, the output frame data is created by thinning out pictures at intervals according to the reference frame rate from the captured frame data captured at a high frame rate.

図6c)がそれに該当する。ここではシャッタスピードが1/120秒以上であるので、4倍のフレームレート撮像間隔(1/120秒)よりもシャッタスピードのほうが短い。   FIG. 6c) corresponds to this. Here, since the shutter speed is 1/120 seconds or more, the shutter speed is shorter than the quadruple frame rate imaging interval (1/120 seconds).

そのため、出力フレームデータは撮像フレームデータに対して特に加工を施さず、必要な間隔で[0D]、[1D]、[2D]のような形で抜き出し、そのままフレームメモリ12に蓄積される。   Therefore, the output frame data is not particularly processed with respect to the imaging frame data, and is extracted in a form such as [0D], [1D], [2D] at a necessary interval, and is stored in the frame memory 12 as it is.

なお、ここで、図6a)、図6c)の場合において、画像が加工されずそのままフレームメモリ12に蓄積されると書いたが、撮像フレームデータは動きベクトル検出のためにフレームメモリに対して既に蓄積されているので、出力フレームデータとして、それらの動きベクトル検出用のためのフレームデータを利用することが可能であり、出力フレームデータを動きベクトル検出用の画像データとは別個にフレームメモリ上に蓄積することは、必須ではない。   Here, in the case of FIGS. 6a) and 6c), it is written that the image is not processed and is stored in the frame memory 12 as it is. However, the captured frame data is already stored in the frame memory for motion vector detection. Since it is stored, it is possible to use the frame data for motion vector detection as output frame data. The output frame data is stored on the frame memory separately from the image data for motion vector detection. It is not essential to accumulate.

次に、基準シャッタスピードが速くない場合、即ち、基準シャッタスピードが高速フレームレートの撮像間隔より長い場合には、高速フレームレートで撮影が行われる際に、高速フレームレートの撮像間隔をシャッタスピードとして、各撮像フレームデータが撮影される。   Next, when the reference shutter speed is not fast, that is, when the reference shutter speed is longer than the high-speed frame rate imaging interval, when shooting at the high-speed frame rate, the high-speed frame rate imaging interval is set as the shutter speed. Each imaging frame data is captured.

その場合、高速フレームレートに基づく画像データは、基準フレームレートでの撮像時に比べて光量が不足することになる。   In that case, the image data based on the high-speed frame rate is insufficient in light quantity as compared with the case of imaging at the reference frame rate.

そのため、その不足する光量を補うために、高速フレームレートで撮影された撮像フレームデータをその基準シャッタスピードと高速フレームレートの撮像間隔との比に応じて合成することによって求める出力フレームデータが作成される。   Therefore, in order to compensate for the insufficient light quantity, output frame data is obtained by combining the imaging frame data shot at the high frame rate according to the ratio of the reference shutter speed and the imaging interval of the high frame rate. The

図6ではd)及びe)がそれに該当する。図6d)では基準シャッタスピードが1/60秒であり、4倍のフレームレート撮像間隔(1/120秒)の2倍である。その場合、フレーム制御部11は基準フレームレートに基づく画像データを作成するために、撮像フレームデータ[1C][1D]の2枚を合成して、フレームメモリ12上に蓄積する。   In FIG. 6, d) and e) correspond to this. In FIG. 6d), the standard shutter speed is 1/60 seconds, which is twice the frame rate imaging interval (1/120 seconds) that is four times. In this case, the frame control unit 11 synthesizes two pieces of the captured frame data [1C] [1D] and accumulates them on the frame memory 12 in order to create image data based on the reference frame rate.

図6e)では基準シャッタスピードが1/45秒であり、4倍のフレームレート撮像間隔(1/120秒)の8/3倍である。この場合、フレーム制御部11は基準フレームレートに基づく画像データを作成するために、撮像フレームデー[1C][1Dの2枚に加えて、[1B]の画像情報成分に2/3を乗じたデータを合成して、フレームメモリ12上に蓄積する。   In FIG. 6e), the reference shutter speed is 1/45 seconds, which is 8/3 times the quadruple frame rate imaging interval (1/120 seconds). In this case, in order to create image data based on the reference frame rate, the frame control unit 11 multiplies the image information component of [1B] by 2/3 in addition to the two pieces of imaging frame data [1C] [1D]. The data is synthesized and stored on the frame memory 12.

なお、ここで、図6d)、図6e)の場合において、画像を合成すると表現したが、その合成は、一旦フレームメモリ12上に置かれた高速フレームレートに基づく撮像フレームデータを、フレーム制御部が必要な枚数読み出して、その内部で所定の比率で合成する方法や、撮像処理部102から入力された撮像フレームデータを、フレームメモリ12に書き出すと同時に、必要に応じてフレーム制御部11内部のフレーム合成用メモリ(図示せず)に蓄え、順次入力されてくる撮像フレームデータを必要に応じて所定の比率でそのフレーム合成用メモリ上で加算していくことによって作成する方法がある。   Here, in the case of FIGS. 6d) and 6e), it is expressed that the images are synthesized. However, the synthesis is performed by using the frame control unit to capture the imaging frame data based on the high-speed frame rate once placed on the frame memory 12. Read out the required number of images and synthesize them at a predetermined ratio in the inside, and the imaging frame data input from the imaging processing unit 102 is written out to the frame memory 12 and at the same time, if necessary inside the frame control unit 11 There is a method of creating a frame composition memory by storing it in a frame composition memory (not shown) and adding sequentially inputted imaged frame data on the frame composition memory as required.

また、フレーム合成の方法だけをフレームメモリ12上にフレーム画像の付帯データとして保管し、映像出力制御部などがその付帯データを利用して必要に応じてフレームメモリから撮像フレームデータを読み出して合成するなど、複数の方法が考えられる。   Further, only the frame composition method is stored as supplementary data of the frame image on the frame memory 12, and the video output control unit or the like uses the supplementary data to read and synthesize the captured frame data from the frame memory as necessary. Several methods are conceivable.

次に、本実施形態における撮像フレームレートに関する設定を行うためのユーザインタフェースを図1、図2及び図7を用いて説明する。   Next, a user interface for performing settings relating to the imaging frame rate in the present embodiment will be described with reference to FIGS.

図7は本実施形態における表示端末3のビューワ30を図示したものである。
表示端末3は例えばPC及びそのユーザインタフェース装置を用いることで構成が可能であり、ここでは、ビューワ30はPCにより構成される表示端末3のディスプレイ上に表示されるウィンドウとして表現されている。
FIG. 7 illustrates the viewer 30 of the display terminal 3 in the present embodiment.
The display terminal 3 can be configured, for example, by using a PC and its user interface device. Here, the viewer 30 is expressed as a window displayed on the display of the display terminal 3 configured by the PC.

また、ビューワ30上の各アイコン等はPCに接続されたマウスやキーボードなどのユーザインタフェース装置によって選択し、動作を指示することが可能であるとする。   Also, it is assumed that each icon on the viewer 30 can be selected by a user interface device such as a mouse or a keyboard connected to the PC and instructed to operate.

図7(a)は通常状態のビューワ30の状態を示したものである。
31は表示ウィンドウであり、撮像装置1によって撮影された画像が表示される。32はメニューであり、マウスカーソル33で選択することによってプルダウン方式のメニュー内容を表示することが可能である。選択はマウスカーソルを選択したい場所に移動させ、マウスのボタンをクリックすることによって実施される。
FIG. 7A shows the state of the viewer 30 in the normal state.
Reference numeral 31 denotes a display window on which an image taken by the imaging device 1 is displayed. Reference numeral 32 denotes a menu, which can be used to display pull-down menu contents by selecting with the mouse cursor 33. The selection is performed by moving the mouse cursor to the desired location and clicking the mouse button.

34は接続カメラ名称表示部であり、ここでは、撮像装置1が「カメラ1」という名前で示されている。   Reference numeral 34 denotes a connected camera name display unit, in which the imaging apparatus 1 is indicated by the name “camera 1”.

7(a)において、ユーザがメニュー32−aを選択すると、図7(b)のように各種設定メニュー32−bが表示される。   In FIG. 7A, when the user selects the menu 32-a, various setting menus 32-b are displayed as shown in FIG. 7B.

次いで、ユーザが32−bの各種設定メニューの中から撮像レート設定を選択すると、図7(c)に示すように撮像レート設定メニュー32−cが表示される。   Next, when the user selects the imaging rate setting from the various setting menus 32-b, an imaging rate setting menu 32-c is displayed as shown in FIG. 7C.

例えば、ユーザが撮像レート設定メニュー32−cの中から重点領域指定方式を選択したとする。その場合、図7(d)に示すように重点領域指定枠36が、表示ウィンドウ31の中に表示される。   For example, it is assumed that the user has selected the priority area designation method from the imaging rate setting menu 32-c. In that case, as shown in FIG. 7D, the priority area designation frame 36 is displayed in the display window 31.

ユーザはマウスカーソル33を用いて重点領域指定枠36を表示ウィンドウ31の中で移動させ、希望する重点領域を指定枠で囲むようにし、マウスのボタンをクリックするなどして位置を確定する。   The user moves the emphasis area designation frame 36 in the display window 31 using the mouse cursor 33, surrounds the desired emphasis area with the designation frame, and determines the position by clicking the mouse button.

確定した重点領域情報は、表示端末3からネットワーク網2を介して撮像装置1に伝えられる。   The determined priority area information is transmitted from the display terminal 3 to the imaging device 1 via the network 2.

撮像装置1では、ネットワークインタフェース17が表示端末3からの指示をパケットなどの形式で受け取った後、その情報をネットワーク制御部16に伝達する。   In the imaging apparatus 1, after the network interface 17 receives an instruction from the display terminal 3 in the form of a packet or the like, the information is transmitted to the network control unit 16.

ネットワーク制御部16では受け取った情報から重点領域情報を抽出して代表動きベクトル設定部19に伝達する。   The network control unit 16 extracts important area information from the received information and transmits it to the representative motion vector setting unit 19.

代表動きベクトル設定部19は、重点領域情報を受け取ると、撮像画角のうち、重点領域指定枠によって指定された領域に位置するブロックの動きベクトルを代表動きベクトルとして設定する。   When the representative motion vector setting unit 19 receives the priority area information, the representative motion vector setting unit 19 sets, as the representative motion vector, a motion vector of a block located in the area designated by the priority area designation frame in the imaging angle of view.

重点領域指定枠内に複数のブロックが存在し、その結果複数の動きベクトルが代表動きベクトルの候補になりうる場合は、複数の代表動きベクトル候補の中から、動き量が最も大きいものを選定して代表動きベクトルとするか、もしくは動き量の大きいもの上位数ベクトルの平均を算出した結果を代表動きベクトルの大きさとして、撮像レートの制御に利用する。   If there are multiple blocks in the priority area specification frame and multiple motion vectors can be candidates for the representative motion vector, select the representative motion vector candidate with the largest amount of motion. The representative motion vector is used as a representative motion vector, or the average of the higher number vectors having a large motion amount is calculated as the representative motion vector size and used for controlling the imaging rate.

なお、この重点領域指定枠内の位置は固定のものであり、別途異なる指定をされない限り撮像装置1はこの領域内部から代表動きベクトルの抽出を実施する。   Note that the position in the priority area designation frame is fixed, and the imaging apparatus 1 extracts a representative motion vector from within this area unless a different designation is made.

この指定方法は特に監視用途などで特定の領域の動きに注目して、動きベクトルを動体検知に利用したい場合に有効である。   This designation method is particularly effective when the user wants to use a motion vector for motion detection by paying attention to the motion of a specific area for monitoring purposes.

一方、ここで、ユーザが撮像レート設定メニュー32−cの中からオブジェクト指定方式を選択したとする。   On the other hand, it is assumed here that the user has selected an object designation method from the imaging rate setting menu 32-c.

その場合、図7(e)に示すようにオブジェクト指定枠37が、表示ウィンドウ31の中に表示される。   In that case, an object designation frame 37 is displayed in the display window 31 as shown in FIG.

ユーザはマウスカーソル33を用いてオブジェクト指定枠37−aを表示ウィンドウ31の中で移動させ、希望するオブジェクトを指定枠で囲むようにし、マウスのボタンをクリックするなどしてオブジェクトを確定する。   The user moves the object designation frame 37-a in the display window 31 using the mouse cursor 33, surrounds the desired object with the designation frame, and confirms the object by clicking a mouse button.

確定したオブジェクト情報は、先の重点領域情報の時と同様に表示端末3からネットワーク網2を介して撮像装置1に伝えられる。撮像装置1では、最終的に代表動きベクトル設定部19にオブジェクト情報が伝達される。   The confirmed object information is transmitted from the display terminal 3 to the imaging device 1 via the network 2 as in the case of the prior important area information. In the imaging apparatus 1, the object information is finally transmitted to the representative motion vector setting unit 19.

そして代表動きベクトル設定部19は、オブジェクト情報を受け取ると、撮像画角のうち、オブジェクト指定枠37によって指定された領域に位置するブロックの動きベクトルを代表動きベクトルとして設定する。   When the representative motion vector setting unit 19 receives the object information, the representative motion vector setting unit 19 sets, as the representative motion vector, the motion vector of the block located in the area designated by the object designation frame 37 in the imaging angle of view.

オブジェクト指定枠37内に複数のブロックが存在し、その結果複数の動きベクトルが代表動きベクトルの候補になりうる場合は、複数の代表動きベクトル候補の中から、動き量が最も大きいものもしくはオブジェクト指定枠37のより中心に近い位置に位置するブロックの動きベクトルを選定して代表動きベクトルとするか、動き量の大きいもの上位数ベクトルの平均を算出した結果を代表動きベクトルの大きさとして、撮像レートの制御に利用する。   When there are a plurality of blocks in the object designation frame 37 and, as a result, a plurality of motion vectors can be candidates for the representative motion vector, the one with the largest amount of motion from among the plurality of representative motion vector candidates or the object designation Pick a motion vector of a block located at a position closer to the center of the frame 37 as a representative motion vector, or calculate the average of the higher number vectors having a large amount of motion as the size of the representative motion vector Used for rate control.

なお、このオブジェクト指定枠37は注目する動きベクトル検出の対象オブジェクトを指定するためのものであるので、対象オブジェクトが移動すると、その移動に伴ってオブジェクト指定枠37も移動する。   Since the object designation frame 37 is for designating a target object for detecting a motion vector of interest, when the target object moves, the object designation frame 37 also moves along with the movement.

図7(e)において37−aの位置にあったオブジェクト指定枠37は図7(f)では 37−bの位置に移動している。この枠の移動はオブジェクト指定枠37の中で検出された動きベクトルを、中央重点重み付け平均した形でオブジェクト指定枠37としての動きベクトルを算出し、その値に基づいて行われる。   The object designation frame 37 that was at the position 37-a in FIG. 7E has moved to the position 37-b in FIG. 7F. This movement of the frame is performed based on a motion vector as the object designation frame 37 which is obtained by averaging the motion vectors detected in the object designation frame 37 in the form of center weighting averaging.

この演算は代表動きベクトル設定部19において行われ、その結果はネットワーク制御部16、ネットワークインタフェース17、更にはネットワーク網2を経由して表示装置3にもフィードバックされる。   This calculation is performed in the representative motion vector setting unit 19, and the result is fed back to the display device 3 via the network control unit 16, the network interface 17, and further the network 2.

図7(f)においてオブジェクト指定枠37が37−bの位置に移動したのは、このフィードバックを反映させた結果である。   In FIG. 7F, the object designation frame 37 has moved to the position 37-b as a result of reflecting this feedback.

なお、オブジェクト指定方式が選択されていた場合に、選択されたオブジェクトが画面の外に移動してしまう場合がある。そのような場合には、オブジェクトの指定は解除され、高速動作優先方式が自動的に選択される。   If the object designation method is selected, the selected object may move out of the screen. In such a case, the designation of the object is canceled and the high-speed operation priority method is automatically selected.

高速動作優先方式とは、撮像装置1が撮像している全画角で検出される動きベクトルの大きさの分布を判断し、それに基づき撮像レートを変更させるものである。   In the high-speed operation priority method, the distribution of the magnitudes of motion vectors detected at all angles of view captured by the imaging apparatus 1 is determined, and the imaging rate is changed based on the distribution.

動きベクトルの大きさが所定の値以上のものが一定の個数以上になった場合には、撮像レートを上げるように制御し、逆に動きベクトルの大きさの最大値が所定の値以下の状態がしばらく継続した場合には、撮像レートを下げるように制御を行うものである。   When the number of motion vectors greater than or equal to a predetermined value exceeds a certain number, control is performed to increase the imaging rate, and conversely, the maximum motion vector size is less than or equal to the predetermined value. When the operation continues for a while, control is performed so as to lower the imaging rate.

この動きベクトルの分布の判断に関しても代表動きベクトル19において実施される。このように、撮像レートが可変である撮像部と、動きベクトル検出部、及び撮像レートにかかわらず基準フレームレートに換算した動きベクトルを合成する動きベクトル合成部を持ち、動き量の大きい時には撮像レートを速くして撮影するようにしたことで、撮影されたフレーム画像データ間の相対的なオブジェクトの動き量を小さくすることが可能になる。   The determination of the motion vector distribution is also performed in the representative motion vector 19. As described above, the imaging unit has a variable imaging rate, a motion vector detection unit, and a motion vector synthesis unit that synthesizes a motion vector converted to the reference frame rate regardless of the imaging rate. By making the shooting faster, it becomes possible to reduce the relative movement amount of the object between the shot frame image data.

これにより、従来と同じ動きベクトル探索のための探索処理量で、動きの大きな物体に対してもより動き検出のマッチング精度を向上させることが可能になる。   As a result, it is possible to improve the matching accuracy of motion detection even for an object having a large motion with the same amount of search processing for motion vector search as in the prior art.

また、動き量の大小に応じて撮影レートを変える事により、動きの速いもの、遅いものの両方に対して最適なレートで動きベクトル検出が可能になり、固定レートの場合に比べてマッチング精度を向上させることが可能になる。   In addition, by changing the shooting rate according to the amount of motion, motion vectors can be detected at the optimal rate for both fast and slow motions, and matching accuracy is improved compared to fixed rates. It becomes possible to make it.

また、撮像レートが基準フレームレートから変更された場合においても、基準フレームレートに基づく画像を提供できる仕組みを備えたことにより、画像の利用者には影響を与えることなく、必要な画像データを画像利用者に供給しながら、精度の良い動きベクトル検出を行うことが可能になる。   In addition, even when the imaging rate is changed from the reference frame rate, the system can provide images based on the reference frame rate, so that necessary image data can be displayed without affecting the user of the image. It is possible to perform highly accurate motion vector detection while supplying the user.

また、本実施形態のように撮像装置が動きベクトルを用いる画像圧縮手段を備えている場合において、撮像レートが基準フレームレートから変更された場合においても、基準フレームレートのフレーム画像データと、基準フレームレートに換算された動きベクトルとを用いて画像圧縮を行うことによって、圧縮画像の利用者が要求するフレームレートには影響を与えることなく、精度の良い動きベクトル検出結果を圧縮符号化に用いることが可能になり、符号量の削減が可能になる。   In addition, when the imaging apparatus includes an image compression unit that uses a motion vector as in the present embodiment, even when the imaging rate is changed from the reference frame rate, the frame image data at the reference frame rate and the reference frame By performing image compression using motion vectors converted to rates, accurate motion vector detection results are used for compression coding without affecting the frame rate required by users of compressed images. And the amount of code can be reduced.

また、本実施形態のように撮像装置が動きベクトルを用いる動体検知手段を備えている場合において、撮像レートが基準フレームレートから変更された場合においても基準フレームレートのフレーム画像データと基準フレームレートに換算された動きベクトルとを用いて画像圧縮を行うことによって、圧縮画像の利用者が要求するフレームレートには影響を与えることなく、精度の良い動きベクトル検出結果を動体検知に用いることが可能になる。
これにより、動体検出の精度の向上を図ることが可能になる。
Further, when the imaging apparatus includes a moving body detection unit that uses a motion vector as in the present embodiment, even when the imaging rate is changed from the reference frame rate, the frame image data of the reference frame rate and the reference frame rate are changed. By performing image compression using the converted motion vector, it is possible to use accurate motion vector detection results for moving object detection without affecting the frame rate requested by the user of the compressed image. Become.
As a result, it is possible to improve the accuracy of moving object detection.

更に撮像レートの制御方式に関して、複数の設定方式から特定の方式を指定することができるようにし、その指定された方式に基づいて注目する動きベクトルを変更することができるようにすることによって、ユーザがその利用目的に応じて撮像フレームレートの変更方法を指定することが可能になり、よりユーザの利用目的に応じた動き検出を行うことが可能になる。   Further, with respect to the imaging rate control method, a specific method can be specified from a plurality of setting methods, and a motion vector to be noticed can be changed based on the specified method. However, it is possible to specify a method for changing the imaging frame rate according to the purpose of use, and to perform motion detection according to the purpose of use of the user.

−第2の実施形態−
次に、本発明の第2の実施形態について説明する。
第1の実施形態においては、動きベクトルを求めるための参照用フレーム画像としては、撮像フレームレートにかかわらず、対象フレームの1フレーム前のフレーム画像としていた。しかし、一つのフレームの中で動きの大きな部分と小さな部分の両方が存在している場合、参照用フレーム画像を適切に選択することによって、動きの小さな部分に関しては、動きベクトルを求めるための探索を省略することが可能になる。
なお、本実施形態における動きベクトル検出部13はCPUを含み、ソフトウェアによってその動作が制御されるとする。
-Second Embodiment-
Next, a second embodiment of the present invention will be described.
In the first embodiment, the reference frame image for obtaining the motion vector is a frame image one frame before the target frame regardless of the imaging frame rate. However, if both the large and small portions of motion exist in one frame, the search for finding the motion vector is performed for the small portions of the motion by appropriately selecting the reference frame image. Can be omitted.
Note that the motion vector detection unit 13 in this embodiment includes a CPU, and its operation is controlled by software.

以下、図8のフローチャート、図9及び更に第1の実施形態の図1を流用して本実施例における制御の流れ等を説明する。   Hereinafter, the flow of control in this example will be described with reference to the flowchart of FIG. 8, FIG. 9, and FIG. 1 of the first embodiment.

図8は、動きベクトル検出部13の処理の流れを示すフローチャートである。
図9は、図8のフローチャートで説明した動きベクトル検出部13の処理の流れに基づいて、参照用フレーム画像の選択の様子を具体的に示した図である。
FIG. 8 is a flowchart showing the flow of processing of the motion vector detection unit 13.
FIG. 9 is a diagram specifically showing how the reference frame image is selected based on the processing flow of the motion vector detection unit 13 described in the flowchart of FIG.

動きベクトル検出に関する処理が開始されると(ステップS801)、動きベクトル検出部13は、まず過去の動きベクトルの大きさ及びその変化の様子などから現在の処理対象としているフレーム画像に関してブロックごとの動き量を推定する(ステップS802)。   When the processing related to motion vector detection is started (step S801), the motion vector detection unit 13 first moves the motion of each block with respect to the current frame image to be processed based on the size of the past motion vector and the state of the change. The amount is estimated (step S802).

ここでいう過去の動きベクトルとは、基準フレームレートに基づくフレーム画像間で導出された動きベクトル(基準レート動きベクトル)であり、撮像レートが基準フレームレートと異なっている場合には、動きベクトル合成部14によって基準フレームレートに換算された動きベクトルを意味している。   The past motion vector here is a motion vector derived between frame images based on the reference frame rate (reference rate motion vector). When the imaging rate is different from the reference frame rate, motion vector synthesis is performed. This means a motion vector converted into a reference frame rate by the unit 14.

ブロックごとの動き量が推定されると、その動き量の分布状態、及び現在の撮像レートから、動きベクトルの探索領域の大きさが決定される(ステップS803)。   When the motion amount for each block is estimated, the size of the motion vector search region is determined from the motion amount distribution state and the current imaging rate (step S803).

後述するように動き量の小さいブロックに関しては、動きベクトル検出に用いる参照用フレーム画像を連続するフレームとしてではなく、間引いた形で設定することが可能になる。   As will be described later, for a block with a small amount of motion, it is possible to set the reference frame image used for motion vector detection in a thinned-out form rather than as a continuous frame.

よって探索領域の大きさを一定にしていた場合には、間引かれたフレームが多いと探索のための処理時間に余裕が出ることになる。   Therefore, if the size of the search area is constant, if there are a lot of thinned frames, there will be a surplus in processing time for search.

そこで、その余裕時間を予めここで推定して必要に応じて1回の動きベクトルに用いる探索面積をひろげることをこの段階で実施する。このことによって、動きベクトルの検出精度をより向上させることが可能になる。   Therefore, the margin time is estimated here in advance, and the search area used for one motion vector is expanded at this stage as necessary. This makes it possible to further improve the motion vector detection accuracy.

探索領域の大きさが設定されると、処理対象ブロックの選択(ステップS804)が開始され、順次動ベクトルを求める作業が開始される。   When the size of the search area is set, selection of a processing target block (step S804) is started, and work for sequentially obtaining a motion vector is started.

まず、選択された処理対象ブロックに対する想定動き量と現在撮像に用いている撮像レートから、動きベクトル検出に用いる参照用フレーム画像が決定される(ステップS805)。   First, a reference frame image used for motion vector detection is determined from the assumed motion amount for the selected processing target block and the imaging rate currently used for imaging (step S805).

このとき、参照用フレームとして基準フレームレートと異なる撮像レートで画像が撮影されていた場合には、連続する撮像フレーム画像の全てを利用して検出処理を繰り返す形で実施するのか、それを間引く形で利用するのか、間引く場合の間引きの間隔をどうするかなどについて決定される。   At this time, when an image is captured as a reference frame at an imaging rate different from the standard frame rate, the detection process is repeated using all of the continuous captured frame images, or it is thinned out. It is determined whether to use in the case of, or what to do with the thinning interval when thinning out.

次いで、動きベクトル検出部13は、フレームメモリ12から決定された参照用フレームを読み込み、動き検出処理を実施する(ステップS806)。   Next, the motion vector detection unit 13 reads the reference frame determined from the frame memory 12 and performs a motion detection process (step S806).

その結果、動きベクトルが検出できていた場合には(ステップS807/YES)、基準レート動きベクトルを求めるだけの動きベクトル情報がそろったかを確認する(ステップS808)。   As a result, if the motion vector has been detected (step S807 / YES), it is confirmed whether the motion vector information sufficient to obtain the reference rate motion vector is available (step S808).

上述のように連続する撮像フレームの全ての画像を利用して繰り返し検出処理を行うことを想定している場合には、全てがそろっていない場合も想定される(ステップS808/NO)。   As described above, when it is assumed that the detection processing is repeatedly performed using all the images of the continuous imaging frames, it may be assumed that not all of them are prepared (step S808 / NO).

そのような場合には、次の動きベクトルを検出できるように現在参照用フレームとして利用していた画像を次の動きベクトルを検出するための検出対象フレームに設定しなおし(ステップS814)、再度動きベクトル検出処理が繰り返されることになる(ステップS806)。   In such a case, the image currently used as the reference frame so that the next motion vector can be detected is set again as a detection target frame for detecting the next motion vector (step S814), and the motion is again detected. The vector detection process is repeated (step S806).

その結果、基準レート動きベクトルを求めるだけの動きベクトル情報がそろうと(ステップS808/YES)、動きベクトル検出部13は動きベクトル情報を動きベクトル合成部14に伝達する(ステップS809)。動きベクトル情報を受け取った動きベクトル合成部14は、基準レート動きベクトルを生成する。   As a result, when motion vector information sufficient to obtain the reference rate motion vector is obtained (step S808 / YES), the motion vector detection unit 13 transmits the motion vector information to the motion vector synthesis unit 14 (step S809). The motion vector synthesizer 14 that has received the motion vector information generates a reference rate motion vector.

このようにしてあるブロックに関する動きベクトルが生成されると、動きベクトル検出部13は対象画像の全ブロックの動きベクトルを検出できたかどうかをチェックする(ステップS810)。   When motion vectors relating to a certain block are generated in this way, the motion vector detection unit 13 checks whether or not the motion vectors of all the blocks of the target image have been detected (step S810).

全ブロックの動きベクトルの検出ができていた場合には(ステップS810/YES)、動きベクトルの検出結果を撮像制御部103に対して伝達する(ステップS815)。   If the motion vectors of all blocks have been detected (step S810 / YES), the motion vector detection result is transmitted to the imaging control unit 103 (step S815).

動きベクトルの検出結果を得た撮像制御部103は、その結果から撮像レートの変更に関して判断し、撮像レート制御部104に対して指示を出す。   The imaging control unit 103 that has obtained the detection result of the motion vector makes a determination regarding the change of the imaging rate from the result, and issues an instruction to the imaging rate control unit 104.

そのことによって、動きベクトルに応じた撮像レート制御が実施され、動きベクトル検出処理は終了する(ステップS816)。全ブロックの動きベクトルの検出が完了していなかった場合には(ステップS810/NO)、再度対象ブロックの選択(ステップS804)に戻り、未処理ブロックに関する動きベクトルを求める作業を繰り返し行うことになる。   As a result, imaging rate control according to the motion vector is performed, and the motion vector detection process ends (step S816). If the detection of the motion vectors of all the blocks has not been completed (step S810 / NO), the process returns to the selection of the target block (step S804) again, and the operation for obtaining the motion vectors regarding the unprocessed blocks is repeated. .

なお、動きベクトルの検出時において、動きベクトルの検出に失敗した場合には(ステップS807/NO)、参照用画像の設定が不適切であった場合が考えられる。   Note that if motion vector detection fails when detecting a motion vector (step S807 / NO), a case where the setting of the reference image is inappropriate may be considered.

例えば、実際の動きがステップS802で推測した動き量よりも大きかった場合などである。そのような場合には(ステップS811/YES)、推定動き量を再設定し(ステップS812)、参照用フレームの選び方を変更する(ステップS805)ことによって動きベクトルが検出できるようになる場合がある。   For example, there is a case where the actual movement is larger than the movement amount estimated in step S802. In such a case (step S811 / YES), the motion vector can be detected by resetting the estimated motion amount (step S812) and changing the way of selecting the reference frame (step S805). .

もし、設定できる想定動き量を最大にして、参照用フレームの選択間隔を最小にしても動きベクトルが検出できなかった場合には、動きベクトル検出の対象ブロックとして表示されている内容が、新たに発生したなどの要因で以前のフレームに情報として存在していなかった場合などが考えられる。   If the motion vector cannot be detected even if the assumed motion amount that can be set is maximized and the reference frame selection interval is minimized, the content displayed as the motion vector detection target block is newly added. There may be a case in which information does not exist in the previous frame due to factors such as occurrence.

そのような場合には(ステップS811/NO)、当該ブロックの動きベクトル検出を断念し(ステップS813)、未処理ブロックが未だ残っているかの確認(ステップS810)へと処理を変えていくことになる。   In such a case (step S811 / NO), the motion vector detection of the block is abandoned (step S813), and the process is changed to confirm whether there are still unprocessed blocks (step S810). Become.

図8で説明した内容に関して、図9を用いて具体的に例を示しながら説明する。
図9は動きベクトル検出に用いる参照用フレーム画像の選択の様子を示した図である。図9において(a)はある時刻t=Tにおけるフレーム画像70−aを表している。
The content described in FIG. 8 will be described with reference to FIG.
FIG. 9 is a diagram showing how a reference frame image used for motion vector detection is selected. In FIG. 9, (a) represents the frame image 70-a at a certain time t = T.

基準フレームレートに基づく撮像間隔をNとし、現在の撮像レートは基準フレームレートの4倍となっているとする。その際、4倍のフレームレートで撮影された画像がそれぞれ図9(c)の70−a、b、c、d、eとして表現されている。   Assume that the imaging interval based on the reference frame rate is N, and the current imaging rate is four times the reference frame rate. At that time, images taken at a frame rate of 4 times are represented as 70-a, b, c, d, and e in FIG. 9C, respectively.

フレーム画像上70には移動物体71、72、73が存在している。時刻t=Tにおけるフレーム画像70−aにおいて、それらはそれぞれ71−a(▲で表示)、72−a(●で表示)、73−a(■で表示)に位置しているとする。   Moving objects 71, 72, and 73 exist on the frame image 70. In the frame image 70-a at time t = T, they are assumed to be located at 71-a (displayed by ▲), 72-a (displayed by ●), and 73-a (displayed by ■), respectively.

これらの移動物体は、基準フレームレートに基づく撮像間隔後のt=T+Nのフレーム画像70−eにおいては、それぞれ71−e(△で表示)、72−e(○で表示)、73−e(□で表示)に移動しているとする。   These moving objects are 71-e (displayed by Δ), 72-e (displayed by ○), and 73-e (displayed by ○) in the frame image 70-e of t = T + N after the imaging interval based on the reference frame rate. (Displayed with □).

図9(b)は撮像間隔後のt=T+Nのフレーム画像70−eの上に、各動きベクトルを検出するための探索領域や過去の移動物体の位置情報を重ね書きして表している。   FIG. 9B shows the position information of the search area and the past moving object for detecting each motion vector over the frame image 70-e of t = T + N after the imaging interval.

いま、時刻t=T+Nにおいてフレーム画像70−eにおける移動物体71−e、72−e、73−e基準レート動きベクトルを求めるとする。この時点においては、既に時刻t=Tにおけるフレーム画像70−aにおける移動物体71−a、72−a、73−aの基準レート動きベクトルが求められているので、それを元にして各移動物体が存在しているブロックの動き量を推定する(図8のステップS802に対応)。   Now, it is assumed that moving object 71-e, 72-e, 73-e reference rate motion vector in frame image 70-e is obtained at time t = T + N. At this time, since the reference rate motion vectors of the moving objects 71-a, 72-a, 73-a in the frame image 70-a at the time t = T have already been obtained, each moving object is based on this. Is estimated (corresponding to step S802 in FIG. 8).

具体的には、本実施形態では各移動物体は等速運動をしていると仮定し、時刻t=Tにおけるフレーム画像70−aにおける移動物体の位置71−a、72−a、73−aと、時刻t=Tにおいて求められた各移動物体の基準レート動きベクトルを用いて、時刻t=T+Nにおけるフレーム画像70−e上での各移動物体の位置を推定する。   Specifically, in this embodiment, it is assumed that each moving object is moving at a constant speed, and the positions 71-a, 72-a, 73-a of the moving object in the frame image 70-a at time t = T. Then, using the reference rate motion vector of each moving object obtained at time t = T, the position of each moving object on frame image 70-e at time t = T + N is estimated.

それらの位置は本実施形態ではそれぞれ71−e、72−e、73−e近辺となる。そして、その推定位置に対応するブロックの動きベクトルを求める際に、時刻t=Tにおいて求められた各移動物体の基準レート動きベクトルの大きさを逆引きすることで、使用する参照用フレーム画像を決定する。   These positions are in the vicinity of 71-e, 72-e, and 73-e, respectively, in this embodiment. Then, when obtaining the motion vector of the block corresponding to the estimated position, the size of the reference rate motion vector of each moving object obtained at time t = T is reversed to obtain the reference frame image to be used. decide.

例えば、時刻t=T+Nにおけるフレーム画像70−eにおける動きベクトル検出処理ブロックの対象として、72−eの位置のブロックが選定されたとする(図8のステップS804に対応)。   For example, assume that the block at the position 72-e is selected as the target of the motion vector detection processing block in the frame image 70-e at time t = T + N (corresponding to step S804 in FIG. 8).

このとき、72−eの位置のブロックは、先に示した方法により基準フレームレート期間だけ前の時刻t=Tのフレーム画像70−aにおいては、72−a近辺にあったであろうことが推定できる。   At this time, the block at the position 72-e may have been in the vicinity of 72-a in the frame image 70-a at time t = T, which is the previous frame period by the method described above. Can be estimated.

しかし、72−eの位置を基準として動きベクトルの探索領域を考えた場合、図9(b)においてその探索領域は74−dの範囲であり、72−aの位置は探索エリアの範囲外となる。   However, when a motion vector search region is considered with reference to the position 72-e, the search region in FIG. 9B is a range 74-d, and the position 72-a is outside the search area range. Become.

そこで、想定される動き量と探索領域、及び撮像レートの関係から、移動物体72が存在する72−eの地点を含むブロックに対しては、まず時刻N/4だけ前の1撮像フレーム前の画像を選定の上、動きベクトルの検出を行い、その結果を用いて更にN/4の撮影間隔の画像を順次さかのぼっていくことで連続する撮像フレーム間での動きベクトルを求めて、最後にその結果を合成するという方針が決定される。   Therefore, for the block including the point 72-e where the moving object 72 exists, from the relationship between the assumed amount of motion, the search area, and the imaging rate, first, one block before the first imaging frame before time N / 4. After selecting an image, a motion vector is detected, and by using the result, images of N / 4 shooting intervals are sequentially traced to obtain a motion vector between successive imaging frames. A policy of combining the results is determined.

その結果、まず72−eの位置のブロックに対する動きベクトルを求めるための参照用画像として、時刻t=T+(3/4)*Nにおけるフレーム画像70−d上の領域74−dが選定される(図8のステップS805に対応)。   As a result, first, a region 74-d on the frame image 70-d at time t = T + (3/4) * N is selected as a reference image for obtaining a motion vector for the block at the position 72-e. (Corresponding to step S805 in FIG. 8).

動きベクトル検出部13はフレーム画像70−e上の点72−eに対応するフレーム画像70−d上の点72−e´を中心とした動きベクトル探索領域74−dの情報をフレームメモリ12から読み込み、フレーム画像70−e上の点72−eの情報と比較することで、動きベクトルを探索する(図8のステップS806に対応)。   The motion vector detection unit 13 obtains, from the frame memory 12, information on the motion vector search region 74-d centered on the point 72-e ′ on the frame image 70-d corresponding to the point 72-e on the frame image 70-e. The motion vector is searched by reading and comparing with the information of the point 72-e on the frame image 70-e (corresponding to step S806 in FIG. 8).

その様子を図9(d)に示す。図9(d)の一番上の行が移動物体72に対する動きベクトル探索領域の設定と動きベクトルの検出の様子を表している。   This is shown in FIG. The top row in FIG. 9D represents the setting of the motion vector search area for the moving object 72 and the state of motion vector detection.

74−d上では72−dに位置するブロックが72−eの位置のブロックとの関連が最も高いと判断され,動きベクトル77−dが抽出される(図8のステップS807/YESに対応)。   On 74-d, it is determined that the block located at 72-d has the highest association with the block at 72-e, and the motion vector 77-d is extracted (corresponding to step S807 / YES in FIG. 8). .

このようにして動きベクトルが抽出されると、次いで動きベクトル検出部13は、72−eのブロックに関して基準レート動きベクトルを合成できるだけの動きベクトル情報がそろったかどうかを判断する(図8のステップS808に対応)。   When motion vectors are extracted in this way, the motion vector detection unit 13 then determines whether or not there is enough motion vector information to synthesize the reference rate motion vector for the block 72-e (step S808 in FIG. 8). Corresponding).

ここでは、まだ全ての情報がそろっていないので(図8のステップS808/NOに対応)、今度は先に参照用フレーム画像として利用したフレーム画像70−D上の点72−dに位置するブロックを、動きベクトルを求めるブロックとして設定する(図8のステップS814に対応)。   Here, since all the information has not been collected yet (corresponding to step S808 / NO in FIG. 8), this time, the block located at the point 72-d on the frame image 70-D previously used as the reference frame image Is set as a block for obtaining a motion vector (corresponding to step S814 in FIG. 8).

その上で、既に参照用フレームとしては70−dの一つ前のフレーム画像70−cが選定されることが決まっているので、動きベクトル検出部13はフレーム画像70−d上の点72−dに対応するフレーム画像70−c上の点72−d´を中心とした動きベクトル探索領域74−cの情報をフレームメモリ12から読み込み、フレーム画像70−d上の点72−dの情報と比較することで、動きベクトルを探索する(再び図8のステップS806に対応)。そしてその結果動きベクトル77−cが抽出される。   In addition, since it is already determined that the frame image 70-c immediately before 70-d is selected as the reference frame, the motion vector detection unit 13 sets the point 72- on the frame image 70-d. The information of the motion vector search area 74-c centered on the point 72-d 'on the frame image 70-c corresponding to d is read from the frame memory 12, and the information on the point 72-d on the frame image 70-d By comparing, a motion vector is searched (again corresponding to step S806 in FIG. 8). As a result, a motion vector 77-c is extracted.

以下同様の動作を繰り返して、70−eと時間Nだけ離れている70−aのフレームが参照用フレーム画像として用いられて動きベクトルの検出が行われると、72−eのブロックに関して基準レート動きベクトルを合成できるだけの動きベクトル情報が77−a、b、c、dとして揃うことになる(図8のステップS808/YESに対応)。   Thereafter, the same operation is repeated, and when the motion vector is detected by using the 70-a frame separated from the 70-e by the time N as the reference frame image, the motion of the reference rate is performed for the block 72-e. The motion vector information that can synthesize the vectors is collected as 77-a, b, c, and d (corresponding to step S808 / YES in FIG. 8).

そろった動きベクトル情報は動きベクトル合成部14に受け渡され(図8のステップS809に対応)、時刻t=T+Nにおけるフレーム画像70−eにおける72−eの位置のブロックに対応した基準レート動きベクトルとして、図9(b)に示した動きベクトル77が生成される。   The obtained motion vector information is transferred to the motion vector synthesis unit 14 (corresponding to step S809 in FIG. 8), and the reference rate motion vector corresponding to the block at the position 72-e in the frame image 70-e at time t = T + N. As a result, the motion vector 77 shown in FIG. 9B is generated.

72に対する基準レート動きベクトルが求まると、次いで別のブロックに対する動きベクトルを求めていくことになる(図8のステップS810/NOに対応)。   When the reference rate motion vector for 72 is obtained, the motion vector for another block is then obtained (corresponding to step S810 / NO in FIG. 8).

図9(d)には、先の時刻t=T+Nにおけるフレーム画像70−eにおける72−eの位置のブロックだけでなく、それ以外に71−e、73−eの位置のブロックに関する基準レート動きベクトル抽出の様子も図示している。   FIG. 9D shows the reference rate movement not only for the block at the position 72-e in the frame image 70-e at the previous time t = T + N but also for the blocks at the positions 71-e and 73-e. The state of vector extraction is also illustrated.

基本的な動作の流れは72−eに位置するブロックの場合と同じであるが、推定された動き量が72−eの場合に比べて小さい。   The basic operation flow is the same as that in the block located at 72-e, but the estimated motion amount is smaller than that in the case of 72-e.

その結果、73−eの場合の参照用フレームとしては70−c及び70−aの2枚が選択され、動きベクトル探索領域として75−a及び75−cを設定して探索した結果、動きベクトルとしては78−c及び78−aが求まる。   As a result, two frames 70-c and 70-a are selected as reference frames in the case of 73-e, and a motion vector is obtained as a result of searching by setting 75-a and 75-c as motion vector search areas. As a result, 78-c and 78-a are obtained.

そして、その2つを合成した結果として基準レート動きベクトル78が求められる。また71−eの参照用フレームとしては70−aのみが選択され、動きベクトル探索領域として76−aを設定して探索した結果、動きベクトル79−aが求められる。   Then, a reference rate motion vector 78 is obtained as a result of combining the two. Further, only 70-a is selected as the reference frame for 71-e, and the motion vector 79-a is obtained as a result of searching by setting 76-a as the motion vector search region.

動きベクトル79−aはそのまま基準レート動きベクトル79として採用される。これらの71−e、73−eの位置のブロックに関する基準レート動きベクトル抽出に要する探索時間は、72−eに位置するブロックに比べて約1/2及び1/4に削減されている。   The motion vector 79-a is adopted as the reference rate motion vector 79 as it is. The search time required for extracting the reference rate motion vector for the blocks at positions 71-e and 73-e is reduced to about ½ and ¼ compared to the block located at 72-e.

このように、動きベクトルを作成するために利用する参照用フレームを直前の基準レート動きベクトルの大きさ等に基づいて適切な間隔に選定することで、例えば動きの速いブロックに関しては撮像レートが上がったフレーム画像データ間での動き検出を行い、動きの小さなブロックに関しては間隔の開いたフレーム画像データ間での動き検出を行うことが可能になる。   In this way, by selecting a reference frame used for creating a motion vector at an appropriate interval based on the size of the immediately preceding reference rate motion vector, for example, the imaging rate is increased for a fast motion block. It is possible to perform motion detection between frame image data, and it is possible to detect motion between frame image data having a large interval for blocks with small motion.

その結果、動きの小さなブロックに関して無駄に処理負荷をかけることがなくなるので、全体の探索領域をその分大きくすることが可能であるので、画像全体での動きベクトル検出の制度を向上させることが可能になる。   As a result, no processing load is applied to blocks with small motion, so the entire search area can be increased accordingly, and the motion vector detection system for the entire image can be improved. become.

−第3の実施形態−
次に、本発明の第3の実施形態について説明する。
第2の実施形態においては、図8のステップS814においてそれまで参照用フレームとして利用していた画像を次の動きベクトルを検出するための検出対象フレームに設定しなおし、再度動きベクトル検出処理が繰り返すようにしていた。
-Third embodiment-
Next, a third embodiment of the present invention will be described.
In the second embodiment, the image previously used as the reference frame in step S814 in FIG. 8 is set again as a detection target frame for detecting the next motion vector, and the motion vector detection process is repeated again. It was like that.

しかし、この方法では、近いブロックで同じフレームを参照用データに利用するにもかかわらず、処理をブロック毎に行うため、複数の動きベクトルの検出で同時に利用可能なフレームデータを何度も読み出すというオーバヘッドを生じる可能性がある。   However, in this method, since the same frame is used for the reference data in the near block, the processing is performed for each block, so that the frame data that can be used simultaneously is detected many times by detecting a plurality of motion vectors. Overhead may occur.

第3の実施形態では、そこを改善し、処理対象ブロック群という概念を導入する。処理対象ブロック群とは、想定される動き量の大きさが近いため、参照用フレームとして利用する撮像フレーム間隔が同一となるブロックのうち、近接するブロックをまとめたものである。   In the third embodiment, this is improved and the concept of a processing target block group is introduced. The processing target block group is a group of adjacent blocks among blocks having the same imaging frame interval used as a reference frame because the assumed amount of motion is close.

以下、図10のフローチャートを用いて動きベクトル13における処理の流れを説明する。なお、基本的な処理の流れは第2の実施形態における図8のフローチャートとほぼ同じであるので、特徴的な差のある部分のみ説明する。   Hereinafter, the flow of processing in the motion vector 13 will be described with reference to the flowchart of FIG. Note that the basic processing flow is almost the same as that of the flowchart of FIG. 8 in the second embodiment, and therefore only the parts having characteristic differences will be described.

図10において、探索領域の大きさが設定されると(ステップS1003)、処理対象ブロック群の選択(ステップS1004)が開始され、順次動きベクトルを求める作業が開始される。   In FIG. 10, when the size of the search area is set (step S1003), the selection of the processing target block group (step S1004) is started, and the operation for obtaining the motion vector is started sequentially.

ここで、処理対象ブロック群としては、ステップS1002において求めた想定される動き量の大きさが近いため、参照用フレームとして利用する撮像フレーム間隔が同一となるブロックのうち、近接するブロックをまとめたものである。   Here, as the processing target block group, since the magnitude of the assumed motion amount obtained in step S1002 is close, the adjacent blocks among the blocks having the same imaging frame interval used as the reference frame are collected. Is.

そして、この処理対象ブロック群で共通する想定動き量と現在撮像に用いている撮像レートから、動きベクトル検出に用いる参照用フレーム画像が処理対象ブロック群に対して決定される(ステップS1005)。   Then, a reference frame image used for motion vector detection is determined for the processing target block group from the assumed motion amount common to the processing target block group and the imaging rate currently used for imaging (step S1005).

次いで、動きベクトル検出部13は、フレームメモリ12から決定された参照用フレームを読み込み、処理対象ブロック群に含まれるある一つのブロックに関して動き検出処理を実施する(ステップS1006)。その結果、動きベクトルが検出できていた場合には(ステップS1007/YES)、処理対象ブロック群の全てのブロックを処理したかどうかの判断を行う。処理が済んでいなかった場合には(ステップS1017/NO)、次のブロックに移動して、同じ参照用フレーム画像を利用して動きベクトルの検出を実施する(ステップS1006)。   Next, the motion vector detection unit 13 reads the reference frame determined from the frame memory 12, and performs a motion detection process for one block included in the processing target block group (step S1006). As a result, when the motion vector has been detected (step S1007 / YES), it is determined whether or not all the blocks in the processing target block group have been processed. If the processing has not been completed (step S1017 / NO), the process moves to the next block, and the motion vector is detected using the same reference frame image (step S1006).

なお、この際、動き検出対象のブロックが移動したことにより、利用する参照用フレーム画像の探索範囲も変更になるが、先の探索で利用していた画像が既に読み込まれているので、今回の探索で必要になる差分をカバーするだけの画像データをフレームメモリ12から読み込むだけで画像の探索が可能になる。   At this time, the search range of the reference frame image to be used is also changed due to the movement of the motion detection target block, but since the image used in the previous search has already been read, this time The image can be searched by simply reading from the frame memory 12 image data that covers only the difference required for the search.

処理対象ブロック群に含まれるブロックに対して全ての処理が終了すると(ステップS1017/YES)、動きベクトル検出部13は基準レート動きベクトルを求めるだけの動きベクトル情報がそろったかを確認し(ステップS1008)、以下処理を進めていき、対象画像の全ブロックの動きベクトルの検出を終了した後(ステップS1010/YES)、動きベクトルの検出結果を撮像制御部103に対して伝達し(ステップS1015)、撮像制御部103はその結果を受けて撮像フレームレートを必要に応じて変更するように撮像レート制御部104に指示を出す。   When all the processes are completed for the blocks included in the processing target block group (step S1017 / YES), the motion vector detection unit 13 confirms whether the motion vector information sufficient for obtaining the reference rate motion vector is available (step S1008). ), The process proceeds below, and after detecting the motion vectors of all blocks of the target image (step S1010 / YES), the motion vector detection result is transmitted to the imaging control unit 103 (step S1015). In response to the result, the imaging control unit 103 instructs the imaging rate control unit 104 to change the imaging frame rate as necessary.

なお、動きベクトルの検出時において、動きベクトルの検出に失敗した場合には(ステップS1007/NO)、参照用画像の設定が不適切であった場合が考えられる。例えば、実際の動きがステップS1002で推測した動き量よりも大きかった場合などである。   Note that if motion vector detection fails when detecting a motion vector (step S1007 / NO), it is possible that the setting of the reference image is inappropriate. For example, there is a case where the actual movement is larger than the movement amount estimated in step S1002.

そのような場合には(ステップS1011/YES)、推定動き量を再設定するが(ステップS1012)、推定動き量を再設定することにより、再度処理対象ブロック群の選択からやり直すことになる(ステップS1004)。これら以外の内容に関しては第2の実施形態における図8の内容と同等であるため、以下説明は省略する。   In such a case (step S1011 / YES), the estimated motion amount is reset (step S1012). However, by resetting the estimated motion amount, the selection of the processing target block group is performed again (step S1012). S1004). Since the contents other than these are the same as the contents of FIG. 8 in the second embodiment, the description thereof will be omitted.

このように、動きベクトルを求めるブロック同士を直前の基準レート動きベクトルの大きさ及びその位置関係に基づいてグループ化し、グループごとに動きベクトルを作成するために利用する参照用フレームを直前の基準レート動きベクトルの大きさ等に基づいて適切な間隔に選定することで、メモリからの画像データの読出し量を押さえながら、例えば動きの速いブロックに関しては撮像レートが上がったフレーム画像データ間での動き検出を行い、動きの小さなブロックに関しては間隔の開いたフレーム画像データ間での動き検出を行うことが可能になる。   In this way, blocks for which motion vectors are obtained are grouped based on the size of the immediately preceding reference rate motion vector and its positional relationship, and the reference frame used to create a motion vector for each group is used as the immediately preceding reference rate. By selecting an appropriate interval based on the size of the motion vector, etc., while reducing the amount of image data read from the memory, for example, for a fast-moving block, motion detection between frame image data with an increased imaging rate Thus, it is possible to detect motion between frame image data with a large interval for blocks with small motion.

その結果、メモリ読出しに必要としていた処理時間のオーバヘッドを削減することが可能になるので、探索処理にかけられる時間を長くすることが可能になり、最終的に画像全体での動きベクトル検出の精度を向上させることが可能になる。   As a result, it is possible to reduce the processing time overhead required for memory reading, so it is possible to lengthen the time required for the search process, and ultimately improve the accuracy of motion vector detection in the entire image. It becomes possible to improve.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に供給し、そのシステム等のコンピュータが記憶媒体からプログラムコードを読み出し実行することによっても達成される。   Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and a computer such as the system reads and executes the program codes from the storage medium. Is also achieved.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼動しているOS等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。   In addition, the case where the functions of the above-described embodiment are realized by performing part or all of the actual processing by an OS or the like running on the computer based on the instruction of the program code read by the computer. It is.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに接続された機能拡張ユニット等に備わるメモリに書込まれた後、そのプログラムコードの指示に基づきCPU等が実際の処理を行い、前述した実施形態の機能が実現される場合も含まれる。   Further, after the program code read from the storage medium is written in a memory provided in a function expansion unit connected to the computer, the CPU or the like performs actual processing based on the instruction of the program code, and the above-described processing is performed. The case where the functions of the embodiment are realized is also included.

本発明の第1の実施形態における撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device in the 1st Embodiment of this invention. 本発明の第1の実施形態における撮像装置を利用したシステムを示す図である。It is a figure which shows the system using the imaging device in the 1st Embodiment of this invention. 本発明の第1の実施形態における動きベクトル検出部における動きベクトルの検出の様子を示す図である。It is a figure which shows the mode of the detection of the motion vector in the motion vector detection part in the 1st Embodiment of this invention. 本発明の第1の実施形態における動きベクトルの探索領域の詳細を示す図である。It is a figure which shows the detail of the search area | region of the motion vector in the 1st Embodiment of this invention. 本発明の第1の実施形態における撮像フレームレートを変更した後の動きベクトル検出の様子を示す図である。It is a figure which shows the mode of the motion vector detection after changing the imaging frame rate in the 1st Embodiment of this invention. 本発明の第1の実施形態における撮像フレームデータの加工の詳細を示す図である。It is a figure which shows the detail of a process of the imaging frame data in the 1st Embodiment of this invention. 本発明の第1の実施形態における撮像フレームレートに関する設定を行うためのユーザインタフェースの詳細を示す図である。It is a figure which shows the detail of the user interface for performing the setting regarding the imaging frame rate in the 1st Embodiment of this invention. 本発明の第2の実施形態における動きベクトル検出部における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the motion vector detection part in the 2nd Embodiment of this invention. 本発明の第2の実施形態における動きベクトル検出に用いる参照用フレーム画像の選択の様子を示す図である。It is a figure which shows the mode of selection of the frame image for a reference used for the motion vector detection in the 2nd Embodiment of this invention. 本発明の第3の実施形態における動きベクトル検出部における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the motion vector detection part in the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

1:撮像装置
2:ネットワーク網
3:表示端末
10:撮像部
11:フレーム制御部
12:フレームメモリ
13:動きベクトル検出部
14:動きベクトル合成部
15:圧縮処理部
16:ネットワーク制御部
17:ネットワークインタフェース
18:動体検知部
19:代表動きベクトル設定部
20:映像出力制御部
21:映像出力インタフェース
22:モニタ
30:ビューワ
31:表示ウィンドウ
32:メニュー
33:マウスカーソル
34:接続カメラ名称表示部
36:重点領域指定枠
37:オブジェクト指定枠
44、51、52、74、75、76:動きベクトル探索領域
61、62、71、72、73:移動物体
64、66、69、77、78、79:動きベクトル
1: Image pickup device 2: Network network 3: Display terminal 10: Image pickup unit 11: Frame control unit 12: Frame memory 13: Motion vector detection unit 14: Motion vector synthesis unit 15: Compression processing unit 16: Network control unit 17: Network Interface 18: Motion detection unit 19: Representative motion vector setting unit 20: Video output control unit 21: Video output interface 22: Monitor 30: Viewer 31: Display window 32: Menu 33: Mouse cursor 34: Connected camera name display unit 36: Priority area designation frame 37: Object designation frame 44, 51, 52, 74, 75, 76: Motion vector search area 61, 62, 71, 72, 73: Moving object 64, 66, 69, 77, 78, 79: Movement vector

Claims (13)

被写体像を電気信号に変換する撮像手段と、
前記撮像手段の撮像レートを変更する手段と、
前記撮像手段からの電気信号を処理して画像信号を出力する現像手段と、
前記画像信号を1画面毎のフレーム画像データとして複数画面分蓄積する蓄積手段と、
前記蓄積手段に蓄積された複数のフレーム画像データ間でブロック単位の動きベクトルの検出を行う動きベクトル検出手段と、
前記検出された動きベクトルを複数個合成する動きベクトル合成手段とを有し、
前記検出された動きベクトル又は前記動きベクトル合成手段によって合成された動きベクトルの大きさに応じて前記撮像手段の撮像レートを基準フレームレートとは異なるフレームレートに変更するとともに、変更した場合には前記異なるフレームレートにより撮影された複数のフレーム画像データから検出された動きベクトルを用いて前記基準フレームレートに換算した動きベクトルを合成することを特徴とする撮像装置。
Imaging means for converting a subject image into an electrical signal;
Means for changing the imaging rate of the imaging means;
Developing means for processing an electrical signal from the imaging means and outputting an image signal;
Storage means for storing the image signal for a plurality of screens as frame image data for each screen;
A motion vector detection means for detecting a motion vector in units of blocks between a plurality of frame image data stored in the storage means;
Motion vector synthesizing means for synthesizing a plurality of the detected motion vectors;
The imaging rate of the imaging unit is changed to a frame rate different from a reference frame rate according to the detected motion vector or the magnitude of the motion vector synthesized by the motion vector synthesis unit, and if changed, the An imaging apparatus characterized in that a motion vector converted to the reference frame rate is synthesized using motion vectors detected from a plurality of frame image data photographed at different frame rates.
1画面の中に存在する複数の前記検出された動きベクトル又は前記基準フレームレートに換算するように合成された動きベクトルから、予め指定された手法により求められた代表動きベクトルを決定する代表動きベクトル設定手段を更に有し、
前記代表動きベクトルの大きさに基づいて前記異なるフレームレートの値が変更されることを特徴とする請求項1に記載の撮像装置。
A representative motion vector for determining a representative motion vector obtained by a predetermined method from a plurality of the detected motion vectors existing in one screen or a motion vector synthesized so as to be converted into the reference frame rate. It further has setting means,
The imaging apparatus according to claim 1, wherein the value of the different frame rate is changed based on the magnitude of the representative motion vector.
前記異なるフレームレートにより撮影された複数のフレーム画像データから動きベクトルを検出する際に、直前の前記基準フレームレートに換算した動きベクトルの大きさに基づいて、動きベクトル検出の際に利用する参照用画像を前記複数のフレーム画像データのなかから選択する手段を更に有することを特徴とする請求項1又は2に記載の撮像装置。   When detecting a motion vector from a plurality of frame image data photographed at the different frame rate, based on the magnitude of the motion vector converted to the immediately preceding reference frame rate, for reference used for motion vector detection The imaging apparatus according to claim 1, further comprising means for selecting an image from the plurality of frame image data. 前記異なるフレームレートにより撮影された複数のフレーム画像データから動きベクトルを検出する際に、直前の前記基準フレームレートに換算した動きベクトルの大きさ及び動きベクトルを検出すべき局所領域の位置に基づいて、複数の局所領域をグループ化し、前記グループ単位で動きベクトル検出の際に利用する参照用画像を前記複数のフレーム画像データの中から選択する手段を更に有することを特徴とする請求項1又は2に記載の撮像装置。   When detecting a motion vector from a plurality of frame image data shot at the different frame rates, based on the size of the motion vector converted to the immediately preceding reference frame rate and the position of the local region where the motion vector should be detected 3. The apparatus according to claim 1, further comprising means for grouping a plurality of local regions and selecting a reference image to be used for motion vector detection in the group unit from the plurality of frame image data. The imaging device described in 1. 記蓄積手段によって蓄積された前記複数のフレーム画像データから、1枚のフレーム画像を合成する手段及び1枚のフレーム画像を選択する手段のうちの少なくとも何れか一方を更に有し、
前記異なるフレームレートによって撮影されている場合においても、基準フレームレートのフレーム画像データを生成することを特徴とする請求項1乃至4の何れか1項に記載の撮像装置。
And further comprising at least one of means for synthesizing one frame image and means for selecting one frame image from the plurality of frame image data accumulated by the storage means,
5. The image pickup apparatus according to claim 1, wherein frame image data having a reference frame rate is generated even when the image is shot at the different frame rate. 6.
動きベクトルを用いる画像圧縮手段を更に有し、
前記画像圧縮手段は前記異なるフレームレートによって撮影されている場合においても、前記生成された基準フレームレートのフレーム画像データと前記基準フレームレートに換算された動きベクトルとを用いて、基準フレームレートに基づいた画像圧縮を行うことを特徴とする請求項1乃至5の何れか1項に記載の撮像装置。
An image compression means using a motion vector;
Even when the image compression unit is photographed at the different frame rate, the image compression unit uses the generated frame image data of the reference frame rate and the motion vector converted to the reference frame rate, based on the reference frame rate. The image pickup apparatus according to claim 1, wherein the image compression is performed.
動体検知手段を更に有し、
前記基準フレームレートに換算した動きベクトルを用いて前記動体検知を実施することを特徴とする請求項1乃至5の何れか1項に記載の撮像装置。
It further has a moving object detection means,
The imaging apparatus according to claim 1, wherein the moving object detection is performed using a motion vector converted into the reference frame rate.
被写体像を電気信号に変換する撮像手段と、前記撮像手段の撮像レートを変更する手段と、前記撮像手段からの電気信号を処理して画像信号を出力する現像手段と、前記画像信号を1画面毎のフレーム画像データとして複数画面分蓄積する蓄積手段と、前記蓄積手段に蓄積された複数のフレーム画像データ間でブロック単位の動きベクトルの検出を行う動きベクトル検出手段と、前記検出された動きベクトルを複数個合成する手段と、前記検出された動きベクトルに応じて前記撮像手段の撮像レートを基準フレームレートとは異なるフレームレートに変更でき、前記異なるフレームレートにより撮影された場合には複数のフレーム画像データから検出された動きベクトルを用いて前記基準フレームレートに換算した動きベクトルを合成する手段と、1画面の中に存在する複数の前記検出された動きベクトル又は前記基準フレームレートに換算するように合成された動きベクトルから予め指定された方式により求められた代表動きベクトルを決定する代表動きベクトル設定手段とを有する撮像装置に対して、前記撮像装置から出力される画像を表示している表示装置から前記撮像レートに関する設定を指示するための撮像装置制御方法であって、
複数の設定方式から特定の方式を指定する手段を持ち、前記設定手段によって設定された前記特定の方式に基づいて前記代表動きベクトルを生成することを特徴とする撮像装置制御方法。
Imaging means for converting a subject image into an electrical signal, means for changing the imaging rate of the imaging means, developing means for processing an electrical signal from the imaging means and outputting an image signal, and the image signal on one screen Storage means for storing a plurality of frames as frame image data for each frame; motion vector detection means for detecting a motion vector in units of blocks among a plurality of frame image data stored in the storage means; and the detected motion vectors And a plurality of frames when captured at the different frame rates, the imaging rate of the imaging means can be changed to a frame rate different from a reference frame rate according to the detected motion vector. A method of synthesizing a motion vector converted to the reference frame rate using a motion vector detected from image data. And a representative motion for determining a representative motion vector obtained by a method designated in advance from a plurality of the detected motion vectors existing in one screen or a motion vector synthesized so as to be converted into the reference frame rate An image pickup apparatus control method for instructing an image pickup apparatus having a vector setting means to perform a setting related to the image pickup rate from a display device displaying an image output from the image pickup apparatus,
An imaging apparatus control method comprising: means for designating a specific method from a plurality of setting methods, and generating the representative motion vector based on the specific method set by the setting unit.
前記複数の設定方式の一つに、複数存在し得る基準フレームレートに換算した動きベクトルに対して、その動きベクトルの大きさから前記異なるフレームレートを自動的に判断して設定する高速動作優先方式を含むことを特徴とする請求項8に記載の撮像装置制御方法。   One of the plurality of setting methods is a high-speed operation priority method that automatically determines and sets the different frame rate from the magnitude of the motion vector with respect to a motion vector converted into a plurality of reference frame rates. The imaging apparatus control method according to claim 8, further comprising: 前記複数の設定方式の一つに、前記表示装置上に表示された出力画像に対してユーザが領域を設定し、前記領域内部に存在する1つもしくは複数の動きベクトルを基準にして、前記異なるフレームレートを自動的に判断して設定する重点領域指定方式を含むことを特徴とする請求項8に記載の撮像装置制御方法。   In one of the plurality of setting methods, a user sets a region for an output image displayed on the display device, and the difference is made based on one or a plurality of motion vectors existing in the region. The imaging apparatus control method according to claim 8, further comprising a priority area designation method for automatically determining and setting the frame rate. 前記複数の設定方式の一つに、前記表示装置上に表示された出力画像に対してユーザがオブジェクトを指定し、その指定したオブジェクトの動きベクトルを基準にして、前記異なるフレームレートを自動的に判断して設定するオブジェクト指定方式を含むことを特徴とする請求項8に記載の撮像装置制御方法。   In one of the plurality of setting methods, a user designates an object for an output image displayed on the display device, and the different frame rate is automatically set based on a motion vector of the designated object. 9. The imaging apparatus control method according to claim 8, further comprising an object designation method that is determined and set. 被写体像を電気信号に変換する際の撮像レートを変更する工程と、
前記撮像手段からの電気信号を処理して画像信号を出力する現像工程と、
前記画像信号を1画面毎のフレーム画像データとして複数画面分蓄積する蓄積工程と、
前記蓄積手段に蓄積された複数のフレーム画像データ間でブロック単位の動きベクトルの検出を行う動きベクトル検出工程と、
前記検出された動きベクトルを複数個合成する動きベクトル合成工程とを含み、
前記検出された動きベクトル又は前記動きベクトル合成工程によって合成された動きベクトルの大きさに応じて前記撮像レートを基準フレームレートとは異なるフレームレートに変更するとともに、変更した場合には前記異なるフレームレートにより撮影された複数のフレーム画像データから検出された動きベクトルを用いて前記基準フレームレートに換算した動きベクトルを合成することを特徴とする撮像制御方法。
Changing the imaging rate when converting the subject image into an electrical signal;
A development step of processing an electrical signal from the imaging means and outputting an image signal;
A storage step of storing the image signal for a plurality of screens as frame image data for each screen;
A motion vector detection step of detecting a motion vector in units of blocks between a plurality of frame image data stored in the storage means;
A motion vector synthesis step of synthesizing a plurality of the detected motion vectors,
The imaging rate is changed to a frame rate different from a reference frame rate in accordance with the detected motion vector or the magnitude of the motion vector synthesized by the motion vector synthesis step, and if changed, the different frame rate An imaging control method comprising: combining a motion vector converted into the reference frame rate using motion vectors detected from a plurality of frame image data photographed by the method.
請求項12記載の撮像制御方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the imaging control method according to claim 12.
JP2006106790A 2006-04-07 2006-04-07 Imaging apparatus, imaging apparatus control method, and imaging control method Pending JP2007281961A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006106790A JP2007281961A (en) 2006-04-07 2006-04-07 Imaging apparatus, imaging apparatus control method, and imaging control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006106790A JP2007281961A (en) 2006-04-07 2006-04-07 Imaging apparatus, imaging apparatus control method, and imaging control method

Publications (1)

Publication Number Publication Date
JP2007281961A true JP2007281961A (en) 2007-10-25

Family

ID=38682950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006106790A Pending JP2007281961A (en) 2006-04-07 2006-04-07 Imaging apparatus, imaging apparatus control method, and imaging control method

Country Status (1)

Country Link
JP (1) JP2007281961A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104320A1 (en) * 2008-02-21 2009-08-27 シャープ株式会社 Video display apparatus
WO2010070809A1 (en) * 2008-12-16 2010-06-24 パナソニック株式会社 Image pickup apparatus
JP2012023634A (en) * 2010-07-15 2012-02-02 Toshiba Corp Video camera and imaging method
US8395671B2 (en) 2008-06-09 2013-03-12 Panasonic Corporation Imaging device and imaging method for correcting effects of motion on a captured image
US9613429B2 (en) 2012-05-08 2017-04-04 Canon Kabushiki Kaisha Image reading out control apparatus, image reading out control method thereof, and storage medium
WO2019146178A1 (en) * 2018-01-29 2019-08-01 ソニーセミコンダクタソリューションズ株式会社 Image capture device and method for controlling image capture element

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104320A1 (en) * 2008-02-21 2009-08-27 シャープ株式会社 Video display apparatus
JP2009200802A (en) * 2008-02-21 2009-09-03 Sharp Corp Video display
US8941778B2 (en) 2008-02-21 2015-01-27 Sharp Kabushiki Kaisha Video display apparatus
US8395671B2 (en) 2008-06-09 2013-03-12 Panasonic Corporation Imaging device and imaging method for correcting effects of motion on a captured image
WO2010070809A1 (en) * 2008-12-16 2010-06-24 パナソニック株式会社 Image pickup apparatus
JP5389049B2 (en) * 2008-12-16 2014-01-15 パナソニック株式会社 Imaging apparatus, semiconductor integrated circuit, and motion vector determination method
US8780990B2 (en) 2008-12-16 2014-07-15 Panasonic Intellectual Property Corporation Of America Imaging device for motion vector estimation using images captured at a high frame rate with blur detection and method and integrated circuit performing the same
JP2012023634A (en) * 2010-07-15 2012-02-02 Toshiba Corp Video camera and imaging method
US9613429B2 (en) 2012-05-08 2017-04-04 Canon Kabushiki Kaisha Image reading out control apparatus, image reading out control method thereof, and storage medium
WO2019146178A1 (en) * 2018-01-29 2019-08-01 ソニーセミコンダクタソリューションズ株式会社 Image capture device and method for controlling image capture element
CN111527741A (en) * 2018-01-29 2020-08-11 索尼半导体解决方案公司 Image capturing apparatus and method of controlling image capturing element
US11172152B2 (en) 2018-01-29 2021-11-09 Sony Semiconductor Solutions Corporation Imaging device which performs imaging at a high resolution for a pixel row in a state in which motion is detected

Similar Documents

Publication Publication Date Title
US11711618B2 (en) Image processing apparatus, image processing method, and program
US11102402B2 (en) Image processing apparatus, image processing method, and program
US10447874B2 (en) Display control device and display control method for automatic display of an image
JP5347890B2 (en) Image processing apparatus and method, and program
JP4148671B2 (en) Display image control processing apparatus, moving image information transmission / reception system, display image control processing method, moving image information transmission / reception method, and computer program
JP7017175B2 (en) Information processing equipment, information processing method, program
US20120092529A1 (en) Method for processing an image and an image photographing apparatus applying the same
US20140232922A1 (en) Imaging device, display control method and program
KR20100043139A (en) Image processing device, dynamic image reproduction device, and processing method and program in them
JP5531603B2 (en) Image processing apparatus and method, and program
JP2007281961A (en) Imaging apparatus, imaging apparatus control method, and imaging control method
JP4795212B2 (en) Recording device, terminal device, and processing method
JP5402166B2 (en) Image composition apparatus and program
JP6545229B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, CONTROL METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM
JP2008301191A (en) Video monitoring system, video monitoring control device, video monitoring control method, and video monitor controlling program
JP6004071B2 (en) Display control apparatus, display control method, and program
JP5100288B2 (en) Display device, network camera system, and display method
WO2004019611A1 (en) Image signal processing device and method, and image signal processing system
JP2009141606A (en) Image processing system, video processing apparatus, and image processing method
JP2008022081A (en) Image processing apparatus, information processor and their control method, computer program and storage medium
JP2007180920A (en) Image processor, electronic equipment, program, information storage medium and image processing method
JP2016208277A (en) Imaging apparatus and imaging method
JP2007166549A (en) Image recording apparatus, method, and computer program