JP4877186B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP4877186B2
JP4877186B2 JP2007268895A JP2007268895A JP4877186B2 JP 4877186 B2 JP4877186 B2 JP 4877186B2 JP 2007268895 A JP2007268895 A JP 2007268895A JP 2007268895 A JP2007268895 A JP 2007268895A JP 4877186 B2 JP4877186 B2 JP 4877186B2
Authority
JP
Japan
Prior art keywords
image data
subject
calculated
calculating
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007268895A
Other languages
Japanese (ja)
Other versions
JP2009098850A5 (en
JP2009098850A (en
Inventor
芳治 北條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007268895A priority Critical patent/JP4877186B2/en
Publication of JP2009098850A publication Critical patent/JP2009098850A/en
Publication of JP2009098850A5 publication Critical patent/JP2009098850A5/ja
Application granted granted Critical
Publication of JP4877186B2 publication Critical patent/JP4877186B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに係り、特に複数の画像データに基づいて被写体の移動距離を算出する画像処理装置、画像処理方法及びプログラムに関する。
The present invention relates to an image processing apparatus, it relates to an image processing method and a program, in particular, on the basis of a plurality of image data, the image processing apparatus calculates a movement distance etc. of a subject, an image processing method, and a program.

従来、同一被写体を複数撮像した画像データに基づいて被写体の移動距離を求める技術がある(特許文献1)。   Conventionally, there is a technique for obtaining a movement distance of a subject based on image data obtained by imaging a plurality of the same subject (Patent Document 1).

公開特許公報 特開2002−190027Japanese Patent Laid-Open No. 2002-190027

しかしながら、上記特許文献によれば、画像上のドット単位での移動距離しか計測することができ、実際の移動距離を計測することができない。   However, according to the above-mentioned patent document, it is possible to measure only the movement distance in dot units on the image, and it is impossible to measure the actual movement distance.

そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、複数の画像データに基づいて実際の被写体の移動距離を算出することができる画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
The present invention has been made in view of such conventional problems, based on a plurality of image data, an actual image processing apparatus capable of calculating the moving distance and the like of the object, an image processing method and program The purpose is to provide.

上記目的達成のため、請求項1記載の発明に係る画像処理装置は、
複数の画像データと、これら画像データの撮像された時間間隔とを取得する得手段と、
前記得手段により取得された夫々の画像データに存在する同一の被写体を計測対象として認識し、その位置及び該被写体の大きさに基づいて、前記像データ間における該被写体の実際の移動距離を算出する第1の算出手段と、
前記第1の算出手段により算出された画像データ間の被写体の移動距離と、前記複数の画像データ間の撮像された時間間隔とに基づいて、該画像データ間における被写体の実際の移動速度を算出する第2の算出手段と、
前記第1の算出手段により算出された移動距離と、前記第2の算出手段により算出された移動速度とのうち、少なくとも1つを前記画像データに合成して表示する表示手段と、
を備えたことを特徴とする。
To achieve the above object, an image processing apparatus according to the first aspect of the present invention provides:
A plurality of image data, and the obtained means preparative for acquiring the imaging time interval of the image data,
The same subject existing in the obtained respective image data of the said acquisition means to recognize as the measurement object, based on the magnitude of the position and the subject, the actual movement of the subject between the image picture data First calculating means for calculating a distance;
The actual moving speed of the subject between the image data is calculated based on the moving distance of the subject between the image data calculated by the first calculating unit and the time interval between the image data captured. Second calculating means for
Display means for combining and displaying at least one of the movement distance calculated by the first calculation means and the movement speed calculated by the second calculation means on the image data;
It is provided with.

また、請求項2記載の発明は、請求項1記載の画像処理装置であって、
前記取得手段により取得された複数の画像データのうち、ユーザによって選択された画像データを検出する検出手段を更に備え、
前記第1の算出手段、前記第2の算出手段は、前記検出手段により検出された画像データ間における該被写体の実際の移動距離、移動速度を算出することを特徴とする。
また、請求項3記載の発明は、請求項1記載の画像処理装置であって、
前記取得手段は、少なくとも3枚の画像データを取得し、
前記第2の算出手段により算出された画像データ間の被写体の移動速度と、該画像データ間の時間間隔とに基づいて、該被写体の実際の移動加速度を算出する第3の算出手段を更に備え、
前記表示手段は、前記第1の算出手段により算出された移動距離と、前記第2の算出手段により算出された移動速度とに加え更に、前記第3の算出手段により算出された移動加速度とのうち、少なくとも1つを前記画像データに合成して表示することを特徴とする。
また、請求項4記載の発明は、請求項1記載の画像処理装置であって、
被写体の特徴データと、該被写体の大きさとを対応付けて登録する登録手段を更に備え、
前記第1の算出手段は、前記登録手段により登録された被写体の特徴データに基づいて、前記夫々の画像データに同一の被写体が存在するか否かを判断し、そして、前記被写体の位置及び大きさを取得し、前記登録手段により登録された前記被写体の大きさを前記移動距離の算出に用いることを特徴とする。
The invention according to claim 2 is the image processing apparatus according to claim 1,
A detecting means for detecting image data selected by the user among the plurality of image data acquired by the acquiring means;
The first calculation unit and the second calculation unit calculate an actual movement distance and movement speed of the subject between the image data detected by the detection unit.
The invention according to claim 3 is the image processing apparatus according to claim 1,
The acquisition means acquires at least three pieces of image data,
Third calculation means for calculating the actual movement acceleration of the subject based on the movement speed of the subject between the image data calculated by the second calculation means and the time interval between the image data is further provided. ,
In addition to the movement distance calculated by the first calculation means and the movement speed calculated by the second calculation means, the display means further includes a movement acceleration calculated by the third calculation means. Of these, at least one is combined with the image data and displayed.
The invention according to claim 4 is the image processing apparatus according to claim 1,
Registration means for registering the feature data of the subject and the size of the subject in association with each other;
The first calculation means determines whether or not the same subject exists in each of the image data based on the feature data of the subject registered by the registration means, and the position and size of the subject. And the size of the subject registered by the registration means is used for the calculation of the movement distance.

また、請求項5記載の発明は、請求項1乃至4の何れかに記載の画像処理装置であって、
記取得手段は、続して所定時間間隔で撮像された画像データを取得することを特徴とする
An invention according to claim 5 is the image processing apparatus according to any one of claims 1 to 4,
Before SL acquisition means and acquires the image data captured consecutive to a predetermined time interval.

また、請求項6記載の発明は、請求項1乃至5の何れかに記載の画像処理装置であって、前記取得手段は、ーザによって任意に指定された画像データを取得することを特徴とする
The invention of claim 6, wherein, there is provided an image processing apparatus according to any one of claims 1 to 5, before Symbol acquisition unit that acquires image data designated arbitrarily by Yu over THE Features .

また、請求項7記載の発明に係る画像処理方法は、
複数の画像データと、これら画像データの撮像された時間間隔とを取得する取得ステップと、
前記取得ステップにて取得された夫々の画像データに存在する同一の被写体を計測対象として認識し、その位置及び該被写体の大きさに基づいて、前記画像データ間における該被写体の実際の移動距離を算出する第1の算出ステップと、
前記第1の算出ステップにて算出された画像データ間の被写体の移動距離と、前記複数の画像データ間の撮像された時間間隔とに基づいて、該画像データ間における被写体の実際の移動速度を算出する第2の算出ステップと、
前記第1の算出ステップにて算出された移動距離と、前記第2の算出ステップにて算出された移動速度とのうち、少なくとも1つを前記画像データに合成して表示する表示ステップと、
を含むことを特徴とする。
また、請求項8記載の発明に係るプログラムは、
複数の画像データと、これら画像データの撮像された時間間隔とを取得する得手段、
前記得手段により取得された夫々の画像データに存在する同一の被写体を計測対象として認識し、その位置及び該被写体の大きさに基づいて、前記像データ間における該被写体の実際の移動距離を算出する第1の算出手段、
前記第1の算出手段により算出された画像データ間の被写体の移動距離と、前記複数の画像データ間の撮像された時間間隔とに基づいて、該画像データ間における被写体の実際の移動速度を算出する第2の算出手段、
前記第1の算出手段により算出された移動距離と、前記第2の算出手段により算出された移動速度とのうち、少なくとも1つを前記画像データに合成して表示するよう制御する表示制御手段、
して機能させることを特徴とする。
An image processing method according to the invention of claim 7
An acquisition step of acquiring a plurality of image data and a time interval at which the image data is captured;
The same subject existing in each image data acquired in the acquisition step is recognized as a measurement target, and the actual moving distance of the subject between the image data is determined based on the position and the size of the subject. A first calculating step for calculating;
Based on the movement distance of the subject between the image data calculated in the first calculation step and the imaged time interval between the plurality of image data, the actual movement speed of the subject between the image data is determined. A second calculating step for calculating;
A display step of combining and displaying at least one of the movement distance calculated in the first calculation step and the movement speed calculated in the second calculation step on the image data;
It is characterized by including.
The program according to the invention of claim 8 is:
A plurality of image data, obtained means preparative for acquiring the imaging time interval of the image data,
The same subject existing in the obtained respective image data of the said acquisition means to recognize as the measurement object, based on the magnitude of the position and the subject, the actual movement of the subject between the image picture data A first calculating means for calculating a distance;
The actual moving speed of the subject between the image data is calculated based on the moving distance of the subject between the image data calculated by the first calculating unit and the time interval between the image data captured. Second calculating means for
Display control means for controlling to display at least one of the moving distance calculated by the first calculating means and the moving speed calculated by the second calculating means combined with the image data;
Characterized in that to function as a.

本発明によれば、ユーザは、簡単に、被写体の実際の移動距離等を視認することができる。 According to the present invention, the user can easily visually recognize the actual moving distance of the subject .

以下、本実施の形態について、本発明の演算装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[実施の形態]
A.デジタルカメラの構成
図1は、本発明の演算装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り兼用シャッタ4、CCD5、垂直ドライバ6、TG(timing generator)7、ユニット回路8、DMAコントローラ(以下、DMAという)9、CPU10、キー入力部11、メモリ12、DRAM13、DMA14、動きベクトル検出部15、DMA16、画像生成部17、DMA18、DMA19、表示部20、DMA21、圧縮伸張部22、DMA23、フラッシュメモリ24、バス25を備えている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as an example in which the arithmetic device of the present invention is applied to a digital camera.
[Embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a digital camera 1 that implements the arithmetic device of the present invention.
The digital camera 1 includes a photographic lens 2, a lens driving block 3, an aperture / shutter 4, a CCD 5, a vertical driver 6, a TG (timing generator) 7, a unit circuit 8, a DMA controller (hereinafter referred to as DMA) 9, a CPU 10, and a key input. 11, memory 12, DRAM 13, DMA 14, motion vector detection unit 15, DMA 16, image generation unit 17, DMA 18, DMA 19, display unit 20, DMA 21, compression / decompression unit 22, DMA 23, flash memory 24, and bus 25. .

撮影レンズ2は、図示しない複数のレンズ群から構成されるフォーカスレンズ、ズームレンズを含む。そして、撮影レンズ2には、レンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ、ズームレンズをそれぞれ光軸方向に駆動させるフォーカスモータ、ズームモータ(図示略)と、CPU10から送られてくる制御信号にしたがって、フォーカスレンズ、ズームレンズを光軸方向に駆動させるフォーカスモータドライバ、ズームモータドライバ(図示略)とから構成されている。   The photographic lens 2 includes a focus lens and a zoom lens that are composed of a plurality of lens groups (not shown). A lens driving block 3 is connected to the photographing lens 2. The lens driving block 3 moves the focus lens and the zoom lens in the optical axis direction in accordance with a focus motor and a zoom motor (not shown) that drive the focus lens and the zoom lens in the optical axis direction, respectively, and a control signal sent from the CPU 10. And a zoom motor driver (not shown).

絞り兼用シャッタ4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り兼用シャッタ4を動作させる。この絞り兼用シャッタ4は、絞り、シャッタとして機能する。
絞りとは、CCD5に入射される光の量を制御する機構のことをいう。
露出量は、この絞り値(絞りの度合い)とシャッタ速度によって定められる。
The diaphragm / shutter 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm / shutter 4 in accordance with a control signal sent from the CPU 10. The aperture / shutter 4 functions as an aperture and shutter.
The diaphragm is a mechanism that controls the amount of light incident on the CCD 5.
The exposure amount is determined by the aperture value (aperture level) and the shutter speed.

CCD5は、垂直ドライバ6によって走査駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。この垂直ドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10によって制御される。なお、CCD5はベイヤー配列の色フィルターを有しており、また、電子シャッタとしての機能も有する。この電子シャッタのシャッタ速度は、ドライバ6、TG7を介してCPU10によって制御される。   The CCD 5 is scanned and driven by the vertical driver 6, photoelectrically converts the intensity of light of each color of the RGB value of the subject image at a constant period, and outputs it to the unit circuit 8 as an imaging signal. The operation timing of the vertical driver 6 and the unit circuit 8 is controlled by the CPU 10 via the TG 7. The CCD 5 has a Bayer color filter and also functions as an electronic shutter. The shutter speed of the electronic shutter is controlled by the CPU 10 via the driver 6 and TG7.

ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログ信号をデジタル信号に変換するA/D変換器から構成されており、CCD5によって得られた撮像信号はユニット回路8を経た後、DMA9によってベイヤーデータの状態でバッファメモリ(DRAM13)に記憶される。   A TG 7 is connected to the unit circuit 8, a CDS (Correlated Double Sampling) circuit that holds the imaged signal output from the CCD 5 by correlated double sampling, and an AGC that performs automatic gain adjustment of the imaged signal after the sampling. (Automatic Gain Control) circuit and an A / D converter that converts the analog signal after the automatic gain adjustment into a digital signal. The image pickup signal obtained by the CCD 5 passes through the unit circuit 8 and is then Bayered by the DMA 9 The data is stored in the buffer memory (DRAM 13).

CPU10は、撮像処理、表示処理、記録処理などを行う機能を有すると共に、デジタルカメラ1の各部を制御するワンチップマイコンである。
特に、CPU10は、画像データ内にある登録された被写体を認識する被写体認識部101、複数の画像データ内にある該認識された同一被写体の位置、及び、該被写体のサイズ情報に基づいて該被写体の実移動距離、実移動速度、実移動加速度を算出する演算部102、複数の画像データを合成する合成部103を有する。
The CPU 10 is a one-chip microcomputer that has functions of performing an imaging process, a display process, a recording process, and the like and controls each unit of the digital camera 1.
In particular, the CPU 10 recognizes the subject based on the subject recognition unit 101 that recognizes the registered subject in the image data, the position of the recognized same subject in the plurality of image data, and the size information of the subject. A calculation unit 102 that calculates an actual movement distance, an actual movement speed, and an actual movement acceleration, and a combining unit 103 that combines a plurality of image data.

キー入力部11は、半押し操作全押し操作可能なシャッタボタン、モード切替キー、十字キー、SETキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。   The key input unit 11 includes a plurality of operation keys such as a shutter button, a mode switching key, a cross key, and a SET key that can be pressed halfway down, and outputs an operation signal corresponding to a user key operation to the CPU 10.

メモリ12には、CPU10がデジタルカメラ1の各部を制御するのに必要な制御プログラム、及び必要なデータが記録されており、CPU10は、該プログラムに従い動作する。
また、メモリ12には、被写体の特徴データを記録(登録)した被写体データテーブルを備えている。
The memory 12 stores a control program and necessary data necessary for the CPU 10 to control each unit of the digital camera 1, and the CPU 10 operates according to the program.
Further, the memory 12 includes a subject data table in which subject feature data is recorded (registered).

図2は、被写体データテーブルの様子の一例を示す図である。
図2を見るとわかるように、各被写体の名称と、該被写体のサンプル画像、及び、該被写体の特徴データ、該被写体のサイズ情報が各被写体毎に登録されているのがわかる。
FIG. 2 is a diagram illustrating an example of the state of the subject data table.
As can be seen from FIG. 2, it can be seen that the name of each subject, the sample image of the subject, the feature data of the subject, and the size information of the subject are registered for each subject.

この被写体データの登録は、登録モード等においてユーザが任意の被写体を登録することができ、登録したい被写体が撮影された画像データから、登録したい被写体の特徴データを算出して登録するとともに、該被写体の画像データをサンプル画像として登録する。このとき、ユーザによって入力された被写体の名称、該被写体のサイズ情報も一緒に登録する。ここで算出される特徴データとは、登録したい被写体の輪郭等から該被写体の特徴点を複数抽出し、該抽出した特徴点の座標位置や相対位置関係を数値化したデータのことをいう。
なお、被写体のサイズ情報をCPU10が算出して登録するようにしてもよい。このサイズ情報の算出は、たとえば、予め定められた距離で登録したい被写体を撮像し、該撮像された被写体の画像上の大きさによってサイズ情報を算出する。
This subject data registration allows the user to register an arbitrary subject in the registration mode or the like, and calculates and registers the feature data of the subject to be registered from the image data obtained by photographing the subject to be registered. Are registered as sample images. At this time, the name of the subject input by the user and the size information of the subject are also registered. The feature data calculated here refers to data obtained by extracting a plurality of feature points of a subject from the contour or the like of the subject to be registered and digitizing the coordinate position and relative positional relationship of the extracted feature points.
The CPU 10 may calculate and register the subject size information. For example, the size information is calculated by imaging a subject to be registered at a predetermined distance and calculating the size information based on the size of the captured subject on the image.

DRAM13は、CCD5によって撮像された画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとしても使用される。   The DRAM 13 is used as a buffer memory for temporarily storing image data picked up by the CCD 5 and also as a working memory for the CPU 10.

DMA14は、バッファメモリに記憶されているベイヤーデータ若しくは輝度色差信号の画像データを読み出して、動きベクトル検出部15に出力するものである。
動きベクトル検出部15は、フレーム画像データの各領域(8画素×8画素からなる領域)の動きベクトルを検出するものであり、代表点マッチング法や、ブロックマッチング法などを用いて該画像データの各領域の動きベクトル(動き量)を検出する。また、この動きベクトルを検出するには、あるフレームとその後又はその前に撮像されたフレームとに基づいて、該あるフレームの各領域の動きベクトルを検出するので、撮像されたフレームを一定時間保持する記憶回路も含む。この検出されたフレームの各領域の動きベクトルは、DMA14を介してCPU10に送られる。
The DMA 14 reads Bayer data or luminance / chrominance signal image data stored in the buffer memory and outputs the data to the motion vector detection unit 15.
The motion vector detection unit 15 detects a motion vector of each area (area consisting of 8 pixels × 8 pixels) of the frame image data, and uses the representative point matching method, the block matching method, etc. The motion vector (motion amount) of each area is detected. In order to detect this motion vector, the motion vector of each area of the certain frame is detected based on a certain frame and a frame captured after or before the certain frame. Including a storage circuit. The motion vector of each area of the detected frame is sent to the CPU 10 via the DMA 14.

DMA16は、バッファメモリに記憶されたベイヤーデータの画像データを読み出して画像生成部17に出力するものである。
画像生成部17は、DMA16から送られてきた画像データに対して、画素補間処理、γ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)の生成も行なう。つまり、画像処理を施す部分である。
DMA18は、画像生成部17で画像処理が施された輝度色差信号の画像データ(YUVデータ)をバッファメモリに記憶させるものである。
The DMA 16 reads image data of Bayer data stored in the buffer memory and outputs it to the image generation unit 17.
The image generation unit 17 performs processing such as pixel interpolation processing, γ correction processing, and white balance processing on the image data sent from the DMA 16, and also generates a luminance color difference signal (YUV data). That is, it is a portion that performs image processing.
The DMA 18 stores the image data (YUV data) of the luminance / color difference signal subjected to image processing by the image generation unit 17 in a buffer memory.

DMA19は、バッファメモリに記憶されているYUVデータの画像データを表示部20に出力するものである。
表示部20は、カラーLCDとその駆動回路を含み、DMA19から出力された画像データの画像を表示させる。
The DMA 19 outputs image data of YUV data stored in the buffer memory to the display unit 20.
The display unit 20 includes a color LCD and its drive circuit, and displays an image of the image data output from the DMA 19.

DMA21は、バッファメモリに記憶されているYUVデータの画像データや圧縮された画像データを圧縮伸張部22に出力したり、圧縮伸張部22により圧縮された画像データや、伸張された画像データをバッファメモリに記憶させたりするものである。
圧縮伸張部22は、画像データの圧縮・伸張(例えば、JPEGやMPEG形式の圧縮・伸張)を行なう部分である。
DMA23は、バッファッメモリに記憶されている圧縮画像データを読み出してフラッシュメモリ24に記録させたり、フラッシュメモリ24に記録された圧縮画像データをバッファメモリに記憶させるものである。
The DMA 21 outputs the YUV data image data and compressed image data stored in the buffer memory to the compression / decompression unit 22, and buffers the image data compressed by the compression / decompression unit 22 and the decompressed image data. It is stored in memory.
The compression / decompression unit 22 is a part that performs compression / decompression of image data (for example, compression / decompression in JPEG or MPEG format).
The DMA 23 reads compressed image data stored in the buffer memory and records it in the flash memory 24, or stores the compressed image data recorded in the flash memory 24 in the buffer memory.

B.デジタルカメラ1の動作
第1の実施の形態におけるデジタルカメラ1の動作を図3及び図4のフローチャートにしたがって説明する。
B. Operation of Digital Camera 1 The operation of the digital camera 1 according to the first embodiment will be described with reference to the flowcharts of FIGS.

ユーザのキー入力部11のモード切替キーの操作によりスピード計測撮影モードに設定されると、ステップS1で、CPU10は、所定のフレームレート(たとえば、30fps)でCCD5により被写体の撮像を開始させ、画像生成部17によって順次生成されてバッファメモリに記憶された輝度色差信号のフレーム画像データを表示部20に表示させていく、といういわゆるスルー画像表示を開始する。このとき、ユーザはデジタルカメラ1の位置を動かさないでかまえておく。   When the speed measurement photographing mode is set by the user operating the mode switching key of the key input unit 11, in step S1, the CPU 10 starts imaging the subject by the CCD 5 at a predetermined frame rate (for example, 30 fps), and A so-called through image display is started in which the display unit 20 displays the frame image data of the luminance / color difference signals sequentially generated by the generation unit 17 and stored in the buffer memory. At this time, the user keeps the position of the digital camera 1 unchanged.

次いで、CPU10は、被写体の動きを検出する処理を開始させる(ステップS2)。具体的には、CPU10は、動きベクトル検出部15に撮像されたフレーム画像データをDMA14を介して順次出力し、動きベクトル検出部15に順次出力されたフレーム画像データの各領域の動きベクトルを検出させていく。この動きベクトル検出部15により検出された各フレームの各領域の動きベクトルはCPU10に送られる。   Next, the CPU 10 starts a process for detecting the movement of the subject (step S2). Specifically, the CPU 10 sequentially outputs the frame image data captured by the motion vector detection unit 15 via the DMA 14 and detects the motion vector of each area of the frame image data sequentially output to the motion vector detection unit 15. I will let you. The motion vector of each area of each frame detected by the motion vector detection unit 15 is sent to the CPU 10.

次いで、CPU10は、被写体の動きが検出されたか否かを判断する(ステップS3)。この判断は、動きベクトル検出部15から送られてきたフレーム画像データの各領域の動きベクトルのうち、所定値以上の動きベクトルがある場合には、被写体の動きが検出されたと判断する。動きベクトルが所定値以上ある領域は、被写体の動きがある領域であると判断することができるからである。   Next, the CPU 10 determines whether or not the movement of the subject has been detected (step S3). This determination is made when the motion of the subject is detected when there is a motion vector greater than or equal to a predetermined value among the motion vectors of each region of the frame image data sent from the motion vector detection unit 15. This is because an area where the motion vector is greater than or equal to a predetermined value can be determined to be an area where the subject moves.

なお、ここで、所定値以上の場合に被写体の動きがあると判断した理由は、動きベクトルある場合に被写体の動きがあると判断してしまうと、風によって木等が揺れてしまったり、本人は止まっているつもりでも無意識に動いてしまう微妙なブレ等によって被写体の動きがあると判断してしまうからである。つまり、実質的には動いていない被写体を動いていると判断してしまうことを防止するためである。   Here, the reason for determining that the subject is moving when the value is equal to or greater than the predetermined value is that if it is determined that the subject is moving when there is a motion vector, the tree may be shaken by the wind, This is because it is determined that there is a movement of the subject due to a subtle blur that moves unconsciously even though it intends to stop. That is, it is to prevent the subject that is not substantially moving from being determined to be moving.

ステップS3で、被写体の動きを検出していないと判断すると検出するまでステップS3に留まり、被写体の動きを検出したと判断すると、CPU10は、連続撮像処理を開始する(ステップS4)。つまり、所定の撮像(時間)間隔で被写体を撮像する処理を開始する。このときも、CPU10は、動きベクトル検出部15に撮像された画像データの各領域の動きベクトルを検出させる。また、このとき、ユーザはデジタルカメラ1の位置を動かさないでかまえておく。デジタルカメラ1を動かしてしまうと正確に被写体の移動距離等を算出することができないからである。なお、ここでは、1/60秒間隔で被写体を撮像するものとするが、所定の撮像間隔であればよい。   If it is determined in step S3 that the movement of the subject is not detected, the process stays in step S3 until it is detected. If it is determined that the movement of the subject is detected, the CPU 10 starts a continuous imaging process (step S4). That is, processing for imaging a subject at a predetermined imaging (time) interval is started. Also at this time, the CPU 10 causes the motion vector detection unit 15 to detect the motion vector of each region of the image data captured. At this time, the user does not move the position of the digital camera 1. This is because if the digital camera 1 is moved, the moving distance of the subject cannot be accurately calculated. Here, the subject is imaged at 1/60 second intervals, but may be a predetermined imaging interval.

このように、この動きを検出すると自動的に連続撮像処理を行うようにしたので、速い被写体でも対応することができる。例えば、ユーザのシャッタボタンの押下により連続撮像処理を行うとすると、動きがある被写体があると判断してから実際にシャッタボタンを押下するまでタイムラグが生じ、シャッタボタンが押下されたときには既に被写体は画角内にいない可能性があるからである。   As described above, the continuous imaging process is automatically performed when this movement is detected, so that even a fast subject can be handled. For example, if continuous imaging processing is performed by pressing the shutter button of the user, a time lag occurs from when it is determined that there is a moving subject until the shutter button is actually pressed, and when the shutter button is pressed, the subject is already This is because it may not be within the angle of view.

次いで、CPU10は、被写体の動きが検出されなくなったか、つまり、被写体の動きがなくなったか否かを判断する(ステップS5)。この判断は、動きベクトル検出部15から送られてきた画像データの各領域の動きベクトルの何れもが所定値以上でない場合に被写体の動きがなくなったと判断する。   Next, the CPU 10 determines whether or not the movement of the subject has been detected, that is, whether or not the movement of the subject has been lost (step S5). This determination is made when the motion of the subject has ceased when none of the motion vectors of the respective regions of the image data sent from the motion vector detection unit 15 is greater than or equal to a predetermined value.

図5は、連続撮像処理により撮像された画像データの様子を示す図である。
図5に示すように、被写体の動きがあると判断され、最初に連続撮像制御処理により得られた画像データが(A)であり、次に(B)が撮像され、(C)、(D)、(E)の順に撮像されている。また、図5を見ると、撮像を行う度に(時間の経過に伴って)、野球ボールの位置が右上から左下に移動しているのがわかる。
FIG. 5 is a diagram illustrating a state of image data captured by the continuous imaging process.
As shown in FIG. 5, it is determined that there is a movement of the subject. First, the image data obtained by the continuous imaging control process is (A), then (B) is imaged, and (C), (D ) And (E). 5 that the position of the baseball ball is moved from the upper right to the lower left every time an image is taken (with the passage of time).

ステップS5で、CPU10は、被写体の動きが検出されていると判断すると動きが検出されなくなるまでステップS5に留まり、被写体の動きが検出されなくなると、CPU10の被写体認識部101は、連続撮像処理により撮像された全ての画像データに対して画像認識処理を行う(ステップS6)。つまり、登録されている被写体が各画像データ内にあるか否かを認識する処理を行う。   In step S5, if the CPU 10 determines that the movement of the subject is detected, the CPU 10 remains in step S5 until no movement is detected. If no movement of the subject is detected, the subject recognition unit 101 of the CPU 10 performs the continuous imaging process. Image recognition processing is performed on all captured image data (step S6). That is, processing for recognizing whether or not a registered subject exists in each image data is performed.

この被写体認識処理は、周知技術であるが、簡単に説明すると、撮像されたフレーム画像データから全被写体の特徴データを算出し、該算出した被写体特徴データと、登録されている被写体の特徴データ(登録特徴データ)とを比較照合することにより、該登録されている被写体が画像データ内にあるかであるかを認識する。ここで、フレーム画像データから算出される全被写体の特徴データとは、例えば、撮影された全被写体が建物とその前に立っている人の場合は、建物及び人の特徴点を複数抽出し、該抽出した特徴点の座標位置や相対位置関係等を数値化したデータのことをいう。   This subject recognition processing is a well-known technique, but in brief, the feature data of all subjects is calculated from the captured frame image data, and the calculated subject feature data and the registered subject feature data ( By comparing with the registered feature data), it is recognized whether the registered subject is in the image data. Here, the feature data of all subjects calculated from the frame image data is, for example, in the case where all the photographed subjects are a building and a person standing in front of it, extract a plurality of building and person feature points, This is data obtained by quantifying the coordinate positions and relative positional relationships of the extracted feature points.

次いで、CPU10は、被写体認識処理により同一被写体を認識することができたか否かを判断する(ステップS7)。つまり、連続撮像処理により得られたすべての画像データのうち、少なくとも2枚以上の画像データに対して同一被写体が認識されたか否かを判断する。つまり、1枚の画像データのみに認識された被写体(1枚の画像データのみしか写っていない被写体)は、ステップS7で同一被写体を認識されたと判断されないことになる。
ここでは、図5(A)、(B)、(C)、(D)、(E)の5枚の画像データに野球ボールがあると認識されたものとする。つまり、野球ボールが同一被写体として認識されたことになる。
Next, the CPU 10 determines whether or not the same subject has been recognized by the subject recognition process (step S7). That is, it is determined whether or not the same subject has been recognized for at least two pieces of image data among all the image data obtained by the continuous imaging process. That is, it is not determined that a subject recognized only by one image data (a subject that shows only one image data) has been recognized in step S7.
Here, it is assumed that a baseball ball is recognized in the five pieces of image data in FIGS. 5A, 5B, 5C, 5D, and 5E. That is, the baseball is recognized as the same subject.

ステップS7で同一被写体を認識できないと判断するとステップS1に戻り、ステップS7で同一被写体を認識できたと判断すると、CPU10は、複数の同一被写体が認識できたか否かを判断する(ステップS8)。つまり、連続撮像処理により得られたすべての画像データのうち、少なくとも2枚以上の画像データに対して認識された同一被写体が複数あるか否かを判断する。   If it is determined in step S7 that the same subject cannot be recognized, the process returns to step S1, and if it is determined in step S7 that the same subject can be recognized, the CPU 10 determines whether or not a plurality of the same subject can be recognized (step S8). That is, it is determined whether there are a plurality of identical subjects recognized for at least two or more pieces of image data among all the image data obtained by the continuous imaging process.

ステップS8で、複数の同一被写体が認識されたと判断すると、CPU10は、該認識された複数の同一被写体のうち、ユーザによって被写体が選択されたか否かを判断する(ステップS9)。   If it is determined in step S8 that a plurality of identical subjects have been recognized, the CPU 10 determines whether or not a subject has been selected by the user from among the recognized plurality of identical subjects (step S9).

このとき、CPU10は、たとえば、表示部20に、該認識された同一被写体の名称やサンプル画像を被写体データテーブルから読みだして一覧表示をさせ、ユーザの十字キー及びSETキーにより何れかの被写体を選択することができる。このとき、ユーザは複数の被写体を選択することもできる。
また、何れの被写体も選択されていない状態でSETキーの操作が行われると、ステップS9で被写体が選択されていないと判断し、何れかの被写体が選択されている状態でSETキーの操作が行われると、ステップS9で被写体が選択されたと判断する。
At this time, for example, the CPU 10 causes the display unit 20 to read the recognized names and sample images of the same subject from the subject data table and display them as a list, and select any subject using the user's cross key and SET key. You can choose. At this time, the user can also select a plurality of subjects.
If the SET key is operated when no subject is selected, it is determined in step S9 that no subject is selected, and the SET key is operated while any subject is selected. If so, it is determined in step S9 that the subject has been selected.

ステップS9で、認識された被写体が選択されたと判断すると、CPU10は、該選択された被写体を計測対象として設定して(ステップS10)図4のステップS12に進む。   If it is determined in step S9 that the recognized subject has been selected, the CPU 10 sets the selected subject as a measurement target (step S10) and proceeds to step S12 in FIG.

一方、ステップS8で複数の被写体が認識されていないと判断された場合、ステップS9で認識された被写体が選択されていないと判断した場合は、CPU10は、被写体認識により認識された被写体を計測対象として設定して(ステップS11)、図4のステップS12に進む。このとき、ステップS9で認識された被写体が選択されていないと判断され、ステップS11に進む場合は、認識された全ての被写体を計測対象として設定することになる。
ここでは、野球ボールしか認識されていないとするので、ステップS8でNOに分岐し、ステップS11で野球ボールを計測対象として設定することになる。
On the other hand, if it is determined in step S8 that a plurality of subjects are not recognized, or if it is determined that a subject recognized in step S9 is not selected, the CPU 10 selects a subject recognized by subject recognition as a measurement target. (Step S11), and the process proceeds to step S12 in FIG. At this time, when it is determined that the recognized subject is not selected in step S9 and the process proceeds to step S11, all recognized subjects are set as measurement targets.
Here, since only the baseball is recognized, the process branches to NO in step S8, and the baseball is set as a measurement target in step S11.

図4のステップS12に進むと、CPU10は、連続撮像制御処理により得られた複数の画像データの中から任意の画像データを選択する。
このとき、CPU10は、連続撮像制御処理により得られた複数の画像データを表示部20に一覧表示させ、ユーザは十字キー及びSETキーの操作を行うことにより任意の画像データを複数指定することができ、CPU10は、該指定された複数の画像データを選択する。
In step S12 of FIG. 4, the CPU 10 selects arbitrary image data from a plurality of image data obtained by the continuous imaging control process.
At this time, the CPU 10 displays a list of a plurality of image data obtained by the continuous imaging control process on the display unit 20, and the user can designate a plurality of arbitrary image data by operating the cross key and the SET key. The CPU 10 selects the designated plurality of image data.

このユーザの選択によって画像データ間の被写体の実際の移動距離等が後述する動作で算出されるので、ユーザは被写体の実際の移動距離等を知りたいと思う画像データ間を構成する画像データを2以上選択する。これにより、ユーザが知りたい画像データ間の実移動距離等を知ることができる
ここでは、図5の(A)、(C)、(E)の画像データがユーザによって指定され選択されたものとする。
Since the actual movement distance of the subject between the image data is calculated by an operation described later by the user's selection, the user selects two pieces of image data constituting the image data between which the user wants to know the actual movement distance of the subject. Select above. Thus, it is possible to know the actual moving distance between image data that the user wants to know. Here, it is assumed that the image data of (A), (C), and (E) in FIG. 5 is designated and selected by the user. To do.

次いで、CPU10の演算部102は、該選択された画像データ間における計測対象として設定された被写体の画像上の移動距離を算出する(ステップS13)。つまり、該選択された各画像データ内にある被写体認識処理により認識された被写体の位置及び大きさに基づいて、画像データ間における被写体の画像上の移動距離を算出する。この画像上の移動距離とは、撮像された画像内でどのくらい移動したかを示す距離のことであり、実際に被写体が移動した距離ではない。たとえば、被写体の大きさを1として、画像データ間の移動距離を求めるようにしてもよい。   Next, the calculation unit 102 of the CPU 10 calculates a moving distance on the image of the subject set as a measurement target between the selected image data (step S13). That is, the movement distance of the subject on the image between the image data is calculated based on the position and size of the subject recognized by the subject recognition process in each selected image data. The movement distance on the image is a distance indicating how much the image has moved in the captured image, and is not the distance that the subject has actually moved. For example, assuming that the size of the subject is 1, the movement distance between the image data may be obtained.

ここで、「選択された画像データ間」とは、選択された全ての各画像データ間のことを言うのではなく、選択された画像データの中で、撮影順序が連続する画像データ間のことをいう。つまり、選択されたある画像データと、その直前、直後の画像データのことをいう。   Here, “between selected image data” does not mean between all the selected image data, but between image data in which the shooting order is continuous among the selected image data. Say. That is, it refers to selected image data and the image data immediately before and after.

たとえば、図5(A)、(C)、(E)が選択されたので、選択された画像データ間とは、撮影順序が連続する(A)と(C)の画像データ間、(C)と(E)の画像データ間のことをいい。(A)と(E)の画像データ間のことはいわない。
したがって、(A)と(C)の画像データ間の画像上の野球ボールの移動距離、(C)と(E)の画像データ間の画像上の野球ボールの移動距離が算出されることになる。
なお、複数の被写体が計測対象として設定されている場合は、同一被写体同士の移動距離を算出することになる。
For example, since FIGS. 5A, 5C, and 5E are selected, between the selected image data, between the image data of (A) and (C) in which the shooting order is continuous, (C) And between (E) image data. There is nothing between the image data (A) and (E).
Accordingly, the movement distance of the baseball ball on the image between the image data of (A) and (C) and the movement distance of the baseball ball on the image between the image data of (C) and (E) are calculated. .
When a plurality of subjects are set as measurement targets, the movement distance between the same subjects is calculated.

次いで、CPU10の演算部102は、計測対象として設定された被写体のサイズ情報を被写体データテーブルから読みだし、該読みだした被写体のサイズ情報とステップS13で算出された選択された画像データ間の画像上の移動距離に基づいて、選択された画像データ間の実際の被写体の移動距離(実移動距離)を算出する(ステップS14)。被写体の実際の大きさが分かれば実移動距離がわかるからである。   Next, the calculation unit 102 of the CPU 10 reads the size information of the subject set as the measurement target from the subject data table, and the image between the read size information of the subject and the selected image data calculated in step S13. Based on the upper moving distance, the actual moving distance (actual moving distance) of the subject between the selected image data is calculated (step S14). This is because the actual moving distance can be known if the actual size of the subject is known.

具体的には、ステップS13で算出された画像データ間の移動距離と被写体データテーブルに登録されているサイズ情報を用いて、該算出した画像データ間の移動距離を実移動距離に換算する。本実施の形態では、(A)と(C)の画像データ間の画像上の野球ボールの移動距離は、当該野球ボール6個分のサイズに相当し、被写体データテーブルに登録されている野球ボール1個のサイズ情報は、図2に示す通り10cm(0.1m)である。すると、(A)と(C)の画像データ間の野球ボールの実移動距離は、0.1m×6=0.6mとなる。また、(C)と(E)の画像データ間の画像上の野球ボールの移動距離は当該野球ボール3個分のサイズに相当する。すると、(C)と(E)の画像データ間の野球ボールの実移動距離は0.1m×3=0.3mとなる。これにより、実際の被写体の移動距離を知ることができる。   Specifically, using the movement distance between the image data calculated in step S13 and the size information registered in the subject data table, the calculated movement distance between the image data is converted into an actual movement distance. In the present embodiment, the movement distance of the baseball on the image between the image data (A) and (C) corresponds to the size of the six baseballs, and the baseballs registered in the subject data table. One piece of size information is 10 cm (0.1 m) as shown in FIG. Then, the actual movement distance of the baseball ball between the image data of (A) and (C) is 0.1 m × 6 = 0.6 m. The movement distance of the baseball on the image between the image data (C) and (E) corresponds to the size of the three baseballs. Then, the actual movement distance of the baseball ball between the image data of (C) and (E) is 0.1 m × 3 = 0.3 m. As a result, the actual moving distance of the subject can be known.

次いで、CPU10の演算部102は、該選択された画像データ間の撮像間隔を算出する(ステップS15)。この算出は、連続撮影処理の撮像間隔と、選択された画像データのコマ間隔に基づいて求めることができる。たとえば、ここでは、連続撮像処理の撮像間隔は1/60秒であり、図5の(A)と(C)は一コマおきなので(A)と(C)の撮像間隔は1/30秒となり、また、(C)と(E)は一コマおきなので(C)と(E)の撮像間隔は1/30秒となる。
なお、連続撮像処理のときに連続撮像された各画像データの撮像時刻を記憶しておき、該記憶された撮像時刻に基づいて選択された画像データ間の撮像間隔を算出するようにしてもよい。
Next, the calculation unit 102 of the CPU 10 calculates an imaging interval between the selected image data (step S15). This calculation can be obtained based on the imaging interval of the continuous imaging process and the frame interval of the selected image data. For example, here, the imaging interval of the continuous imaging process is 1/60 second, and since (A) and (C) in FIG. 5 are every other frame, the imaging interval of (A) and (C) is 1/30 second. Also, since (C) and (E) are every other frame, the imaging interval between (C) and (E) is 1/30 second.
It should be noted that the imaging time of each piece of image data continuously captured during the continuous imaging process may be stored, and the imaging interval between the selected image data may be calculated based on the stored imaging time. .

次いで、CPU10の演算部102は、算出した画像データ間の実移動距離及び時間間隔に基づいて、選択された各画像データ間の被写体の実際の移動速度(実移動速度)を算出する(ステップS16)。   Next, the calculation unit 102 of the CPU 10 calculates the actual moving speed (actual moving speed) of the subject between the selected image data based on the calculated actual moving distance and time interval between the image data (step S16). ).

具体的には、ステップS14で算出した実移動距離を、画像データ間の撮像間隔で除することにより実移動速度を算出する。本実施の形態では、上述の通り、(A)と(C)間の野球ボールの実移動距離が0.6mであり、(A)と(C)間の撮像間隔は1/30s(秒)である。すると、(A)と(C)間の野球ボールの実移動速度は0.6m/(1/30s)=18m/sとなる。また、(C)と(E)間の野球ボールの実移動距離が0.3mであり、(C)と(E)間の撮像間隔は1/30sである。すると、(C)と(E)間の野球ボールの実移動速度は0.3m/(1/30s)=9m/sとなる。これにより、被写体の実際の移動速度を知ることができる。   Specifically, the actual moving speed is calculated by dividing the actual moving distance calculated in step S14 by the imaging interval between the image data. In the present embodiment, as described above, the actual movement distance of the baseball ball between (A) and (C) is 0.6 m, and the imaging interval between (A) and (C) is 1/30 s (seconds). It is. Then, the actual moving speed of the baseball ball between (A) and (C) is 0.6 m / (1/30 s) = 18 m / s. The actual movement distance of the baseball ball between (C) and (E) is 0.3 m, and the imaging interval between (C) and (E) is 1/30 s. Then, the actual moving speed of the baseball between (C) and (E) is 0.3 m / (1/30 s) = 9 m / s. Thereby, the actual moving speed of the subject can be known.

次いで、CPU10は、選択した画像データが3枚以上であるか否かを判断する(ステップS17)。ここでは、図5の(A)、(C)、(E)の画像データを選択したので3枚以上の画像データを選択したと判断する。   Next, the CPU 10 determines whether or not the selected image data is three or more (step S17). Here, since the image data (A), (C), and (E) in FIG. 5 are selected, it is determined that three or more pieces of image data have been selected.

ステップS17で、選択した画像データが3枚以上であると判断すると、CPU10の演算部102は、該算出した画像データ間の実移動速度から被写体の実移動加速度を算出して(ステップS18)、ステップS19に進む。   If it is determined in step S17 that the selected image data is three or more, the calculation unit 102 of the CPU 10 calculates the actual moving acceleration of the subject from the actual moving speed between the calculated image data (step S18). Proceed to step S19.

具体的には、ステップS16で算出した実移動速度を、画像データ間の撮像間隔で除することにより実移動加速度を算出する。本実施の形態では、上述の通り、野球ボールの実移動速度は、(C)における18m/sで、これが(E)においては9m/sに変化している。そして、(C)と(E)間の撮像間隔は1/30sとする。すると、(C)と(E)間の被写体の実移動加速度は(9m/s−18m/s)/(1/30s)=−270m/sとなる。 Specifically, the actual moving acceleration is calculated by dividing the actual moving speed calculated in step S16 by the imaging interval between the image data. In the present embodiment, as described above, the actual moving speed of the baseball is 18 m / s in (C), which is changed to 9 m / s in (E). The imaging interval between (C) and (E) is 1/30 s. Then, the actual moving acceleration of the subject between (C) and (E) is (9 m / s−18 m / s) / (1/30 s) = − 270 m / s 2 .

例えば、図5を用いて説明すると、選択された画像は、(A)、(C)、(E)なので、図5の(A)と(C)との画像データ間の実移動速度と、図5(C)と(E)の画像データ間の実移動速度とから被写体の実移動加速とから実移動加速度を算出することになる。
一方、ステップS17で、選択した画像データが3枚以上でないと判断するとそのままステップS19に進む。
For example, referring to FIG. 5, since the selected images are (A), (C), and (E), the actual moving speed between the image data of (A) and (C) in FIG. The actual movement acceleration is calculated from the actual movement acceleration of the subject from the actual movement speed between the image data in FIGS. 5C and 5E.
On the other hand, if it is determined in step S17 that the selected image data is not three or more, the process directly proceeds to step S19.

ステップS19に進むと、CPU10の合成部103は、該選択した画像データ(実移動距離の算出元となった画像データ)、及び、ステップS14で算出された実移動距離を示す情報、ステップS16で算出された実移動速度を示す情報、ステップS18で算出された実移動加速度を示す情報(実移動加速度が算出された場合のみ)を合成する。このとき、計測対象として設定された被写体の移動方向を示す情報も一緒に合成するようにしてもよい。これにより、被写体の移動推移と移動距離等を1枚の画像データで表すことができる。
次いで、CPU10は、該合成した画像データを表示部20に表示させて(ステップS20)、ステップS1に戻る。
In step S19, the combining unit 103 of the CPU 10 determines the selected image data (image data from which the actual movement distance is calculated) and information indicating the actual movement distance calculated in step S14, in step S16. Information indicating the calculated actual moving speed and information indicating the actual moving acceleration calculated in step S18 (only when the actual moving acceleration is calculated) are synthesized. At this time, information indicating the moving direction of the subject set as the measurement target may be combined together. Thereby, the movement transition and movement distance of the subject can be represented by one piece of image data.
Next, the CPU 10 displays the combined image data on the display unit 20 (step S20), and returns to step S1.

図6は、ステップS19で合成され表示された画像データの様子の一例を示す図である。
図6を見るとわかるように、選択した画像データである図5の(A)、(C)、(E)が合成されているとともに、算出された画像データ間の計測対象として設定された被写体の実移動距離、実移動速度、実移動加速度を示す情報が合成されているのがわかる。また、ここでは、該被写体の移動方向を示す情報も合成されていることがわかる。
これにより、一目瞭然に選択した画像データ間の計測対象として設定した被写体の画像データ間の実移動距離、実移動速度、及び、該被写体の実移動加速度が視認することができる。
FIG. 6 is a diagram showing an example of the state of the image data synthesized and displayed in step S19.
As can be seen from FIG. 6, the selected image data (A), (C), and (E) in FIG. 5 are combined and the subject set as a measurement target between the calculated image data It can be seen that information indicating the actual movement distance, the actual movement speed, and the actual movement acceleration is synthesized. Here, it can be seen that information indicating the moving direction of the subject is also synthesized.
As a result, the actual moving distance, the actual moving speed, and the actual moving acceleration of the subject between the image data of the subject set as the measurement target between the image data selected at a glance can be visually recognized.

以上のように、実施の形態においては、連続撮像処理により得られた複数の画像データに対して被写体認識処理を行い、該被写体認識により認識された同一被写体の画像上の位置と該被写体のサイズ情報に基づいて、画像データ間の被写体の実移動距離を算出するようにしたので、該画像データ間に実際に移動した被写体の移動距離を知ることができる。
また、被写体の特徴データと該被写体の実際のサイズ情報とを対応付けた被写体データテーブルを備え、該被写体の特徴データに基づいて被写体認識を行い、該認識された被写体のサイズ情報を該被写体データテーブルから取得するようにしたので、正確に迅速に実際に移動した被写体の実移動距離を算出することができる。
As described above, in the embodiment, subject recognition processing is performed on a plurality of image data obtained by continuous imaging processing, and the position on the image of the same subject recognized by the subject recognition and the size of the subject. Since the actual movement distance of the subject between the image data is calculated based on the information, the movement distance of the subject actually moved between the image data can be known.
In addition, a subject data table that associates subject feature data with actual size information of the subject is provided, subject recognition is performed based on the subject feature data, and the recognized subject size information is used as the subject data. Since it is obtained from the table, the actual movement distance of the subject that has actually moved can be calculated accurately and quickly.

また、画像データ間の被写体の移動距離と、該画像データ間の撮像間隔とに基づいて、画像データ間の被写体の実移動速度、実移動加速度を算出するようにしたので、該画像データ間に実際に移動した被写体の速度、加速度を簡単に知ることができる。
また、連続撮像処理により得られた画像データのうち、ユーザが任意に選択された画像データ間の実移動距離、実移動速度、実移動加速度を算出するようにしたので、ユーザが知りたい画像データ間での被写体の実移動距離等を知ることができる。
Further, since the actual moving speed and the actual moving acceleration of the subject between the image data are calculated based on the moving distance of the subject between the image data and the imaging interval between the image data, The speed and acceleration of the actually moved subject can be easily known.
Moreover, since the actual movement distance, the actual movement speed, and the actual movement acceleration between the image data arbitrarily selected by the user among the image data obtained by the continuous imaging process are calculated, the image data that the user wants to know It is possible to know the actual moving distance of the subject between the two.

また、実移動距離の算出元なった(ステップS12で選択された)画像データと、算出された実移動距離等を示す情報を合成して表示させるようにしたので、ユーザは簡単に、被写体の実移動距離等を視認することができる。
また、被写体の動きが検出されると、連続撮像処理を開始するようにしたので、早い被写体に対しても対応することができ、該被写体の移動距離等を知ることができる。ユーザのシャッタボタンの押下により連続撮像処理を開始してしまうと、動きが早い被写体の場合には、シャッタボタンが押下されたときには既にCCD5の画角内にいない場合があるからである。
In addition, since the image data from which the actual moving distance is calculated (selected in step S12) and the information indicating the calculated actual moving distance are combined and displayed, the user can easily display the subject moving distance. The actual moving distance and the like can be visually recognized.
In addition, since the continuous imaging process is started when the movement of the subject is detected, it is possible to deal with a fast subject and know the moving distance of the subject. This is because if the continuous imaging process is started by pressing the shutter button of the user, in the case of a fast-moving subject, it may not be already within the angle of view of the CCD 5 when the shutter button is pressed.

[変形例]
上記実施の形態は、以下のような変形例も可能である。
[Modification]
The above-described embodiment can be modified as follows.

(01)また、上記実施の形態においては、ステップS3で被写体の動きが検出されたと判断すると、連続撮像処理を開始するようにしたが、そのまま、動画撮像処理を継続して行なうようにしてもよい。要は所定間隔で連続して被写体を撮像するものであればよい。
なお、動画撮像処理を継続して行なう場合は、ステップS3で被写体の動きが検出されたと判断してから、ステップS5で動きが検出されなくなったと判断されるまでに撮像されたフレーム画像データを記憶し、ステップS6では該記憶したフレーム画像データに対して被写体認識処理を行い、ステップS12で該記憶したフレーム画像データの中から任意の画像データを選択する。
(01) In the above embodiment, the continuous imaging process is started when it is determined in step S3 that the movement of the subject is detected. However, the moving image imaging process may be continuously performed as it is. Good. In short, any device that captures images of a subject continuously at a predetermined interval may be used.
If the moving image capturing process is to be continued, the frame image data captured from the determination that the movement of the subject is detected in step S3 until the determination that the movement is not detected in step S5 is stored. In step S6, subject recognition processing is performed on the stored frame image data, and arbitrary image data is selected from the stored frame image data in step S12.

(02)また、上記実施の形態においては、ユーザによって選択された画像データ間の計測対象として設定された被写体の実移動距離、実移動速度を算出するようにしたが、連続撮像処理により得られた全ての画像データ間の実移動距離、実移動速度等を算出するようにしてもよい。
なお、この「画像データ間」とは、選択された画像データの中で、撮影順序が連続する画像データ間のことをいうまでのない。
(02) In the above embodiment, the actual moving distance and the actual moving speed of the subject set as the measurement target between the image data selected by the user are calculated. Alternatively, the actual moving distance, the actual moving speed, etc. between all the image data may be calculated.
It should be noted that the “between image data” refers to between image data in which the shooting order is continuous in the selected image data.

(03)また、上記実施の形態においては、連続撮像処理により得られた画像データ(撮像されて記録されていない画像データ)に対して図3のステップS6以降の動作を行なうようにしたが、連続撮像処理により撮像され記録された複数の画像データや動画データを取得し、該取得した複数の画像データや動画データに対して図3のステップS3以降の動作、又は、ステップS6以降の動作を行なうようにしてもよい。
つまり、複数の画像データや動画データをCCD5から取得するのではなく、記録された複数の画像データや動画データを取得するようにする。
(03) In the above embodiment, the operation after step S6 in FIG. 3 is performed on the image data obtained by the continuous imaging process (image data that has been captured and is not recorded). A plurality of image data and moving image data captured and recorded by the continuous imaging process are acquired, and the operation after step S3 in FIG. 3 or the operation after step S6 is performed on the acquired plurality of image data and moving image data. You may make it perform.
That is, instead of acquiring a plurality of image data and moving image data from the CCD 5, a plurality of recorded image data and moving image data are acquired.

(04)また、上記実施の形態において、動きを検出している間、連続撮像処理を行うようにしたが、シャッタボタンの押下により連続撮像処理を開始するようにしてもよい。この場合は、ステップS1でスルー画像表示を開始すると、ステップS3に進み、シャッタボタンが押下されたか否かを判断し、シャッタボタンが押下されたと判断すると、ステップS4に進み、連続撮像処理を開始する。また、ステップS5では、シャッタボタンの押下が解除されたか否かを判断し、解除されたと判断するとステップS6に進む。   (04) In the above embodiment, the continuous imaging process is performed while the motion is detected. However, the continuous imaging process may be started by pressing the shutter button. In this case, when the through image display is started in step S1, the process proceeds to step S3, where it is determined whether or not the shutter button has been pressed. If it is determined that the shutter button has been pressed, the process proceeds to step S4 and the continuous imaging process starts To do. In step S5, it is determined whether or not the shutter button has been pressed. If it is determined that the shutter button has been released, the process proceeds to step S6.

(05)また、上記実施の形態において、連続撮像処理により得られた複数の画像データに対して図3のステップS6以降の動作を行なうようにしたが、単に静止画撮影処理(1回の撮影を行なう処理)を複数回行なうことにより得られた複数の画像データに対してステップS6以降の動作を行なうようにしてもよい。   (05) In the above embodiment, the operation after step S6 in FIG. 3 is performed on the plurality of image data obtained by the continuous imaging process. Step S6 and subsequent operations may be performed on a plurality of image data obtained by performing a plurality of times.

この場合は、ステップS1でスルー画像表示を開始すると、ステップ3に進み、シャッタボタンが押下されたか否かを判断する。そして、シャッタボタンが押下されると、ステップS4で静止画撮影処理を行い、ステップS5で、再び静止画撮影処理を行うか否かを判断する。ステップS5で、再び静止画撮影処理を行うと判断すると、ステップS3に戻りシャッタボタンが押下されたか否かを判断する。一方、ステップS5で再び静止画撮影処理を行わないと判断すると、ステップS6に進む。このように、単体撮影で得られた複数の画像データに対してステップS6以降の動作を行なうようにしてもよい。例えば、撮影者から遠い所で動いている被写体(例えば、空を飛んでいる飛行機等)を撮影する場合には、迅速に連続して被写体を撮影する必要はなく、単体撮影を行なってもすぐに被写体が画角から外れるということはないからである。   In this case, when the through image display is started in step S1, the process proceeds to step 3 to determine whether or not the shutter button has been pressed. When the shutter button is pressed, a still image shooting process is performed in step S4, and it is determined whether or not a still image shooting process is performed again in step S5. If it is determined in step S5 that the still image shooting process is to be performed again, the process returns to step S3 to determine whether or not the shutter button has been pressed. On the other hand, if it is determined in step S5 that the still image shooting process is not performed again, the process proceeds to step S6. In this way, the operations after step S6 may be performed on a plurality of image data obtained by single shooting. For example, when shooting a subject moving far away from the photographer (for example, an airplane flying in the sky), there is no need to shoot the subject quickly and continuously, even if single shooting is performed. This is because the subject does not deviate from the angle of view.

また、このステップS5の再び撮影を行なうか否かの判断は、ユーザはキー入力部11を操作することによって再び撮影をするか否かを指定することができ、該指定に基づいて判断する。
なお、複数回の静止画撮影処理により撮影され記録された複数の画像データに対してステップS6以降の動作を行なうようにしてもよい。
Further, the determination as to whether or not to take a picture again in step S5 can be made by the user by operating the key input unit 11 to specify whether or not to take a picture again.
Note that the operations in and after step S6 may be performed on a plurality of image data shot and recorded by a plurality of still image shooting processes.

(06)また、上記実施の形態において、連続撮像処理により得られた全ての画像データに対して、被写体認識処理を行なうようにしたが、連続撮像処理により得られた画像データのうち、ユーザによって任意に指定された画像データのみ、被写体認識処理を行うようにしてもよい。つまり、ユーザによって指定された画像データのみステップS6以降の動作を行うようにしてもよい。この場合は、ステップS12での選択をなくしてもよい。これにより、被写体認識処理に伴う処理負担を軽減させることができる。   (06) In the above embodiment, the subject recognition process is performed on all the image data obtained by the continuous imaging process. However, among the image data obtained by the continuous imaging process, it is determined by the user. The subject recognition process may be performed only on arbitrarily designated image data. That is, only the image data designated by the user may be operated after step S6. In this case, the selection in step S12 may be omitted. As a result, the processing burden associated with the subject recognition process can be reduced.

(07)また、上記実施の形態において、図4のステップS20では、合成した画像データを表示させるようにしたが、合成した画像データを記録するようにしてもよい。また、表示と記録を両方行うようにしてもよい。   (07) In the above embodiment, the combined image data is displayed in step S20 of FIG. 4, but the combined image data may be recorded. Further, both display and recording may be performed.

(08)また、上記実施の形態において、図4のステップS19では、ステップS12で選択された画像データと、算出された実移動距離等を示す情報を合成し、ステップS20で該合成された画像データを表示させるようにしたが、図4のステップS19では選択された画像データ(実移動距離の算出元となった画像データ)のみを合成し、ステップS20では該合成された画像データを表示させるとともに、該算出された実移動距離等を示す情報を重ねて表示させるようにしてもよい。これによっても、該画像データ間に実際に移動した被写体の移動距離を知ることができる。このとき、算出した実移動距離、実移動速度、実移動加速を示す情報のうち、少なくとも1つの情報を表示させるようにしてもよい。   (08) In the above embodiment, in step S19 in FIG. 4, the image data selected in step S12 and the information indicating the calculated actual moving distance are combined, and the combined image is displayed in step S20. Although the data is displayed, only the selected image data (image data from which the actual movement distance is calculated) is synthesized in step S19 in FIG. 4, and the synthesized image data is displayed in step S20. At the same time, information indicating the calculated actual moving distance or the like may be displayed in an overlapping manner. This also makes it possible to know the moving distance of the subject that has actually moved between the image data. At this time, at least one piece of information indicating the calculated actual moving distance, actual moving speed, and actual moving acceleration may be displayed.

(09)また、上記実施の形態において、画像データ間の被写体の実移動距離等を示す情報と、実移動距離の算出元となった画像データとを合成して表示させるようにしたが、単に、画像データ間の被写体の実移動距離等を示す情報のみを表示させるようにしてもよい。これによっても被写体の実移動距離等を容易に知ることができる。
このときは、算出した実移動距離、実移動速度、実移動加速度等を全て表示させるようにしてもよいし、実移動距離、実移動速度、実移動加速度を示す情報のうち、少なくとも1つの情報を表示させるようにしてもよい。
(09) In the above embodiment, the information indicating the actual movement distance of the subject between the image data and the image data from which the actual movement distance is calculated are combined and displayed. Only information indicating the actual movement distance of the subject between the image data may be displayed. This also makes it possible to easily know the actual moving distance of the subject.
At this time, all of the calculated actual travel distance, actual travel speed, actual travel acceleration, etc. may be displayed, or at least one piece of information indicating the actual travel distance, actual travel speed, actual travel acceleration, etc. May be displayed.

(10)また、上記実施の形態において、画像データ間の被写体の実移動距離、実移動速度、実移動加速度(実移動加速度を算出した場合のみ)等を示す全ての情報と、実移動距離の算出元となった画像データとを合成するようにしたが、実移動距離の算出元となった画像データと、実移動距離、実移動速度、実移動加速度を示す情報のうち、少なくとも1つの情報とを合成させるようにしてもよい。これによっても、該画像データ間に実際に移動した被写体の移動距離を知ることができる。   (10) In the above embodiment, all information indicating the actual movement distance, the actual movement speed, the actual movement acceleration (only when the actual movement acceleration is calculated) of the subject between the image data, and the actual movement distance The image data used as the calculation source is combined, but at least one piece of information indicating the actual movement distance, the actual movement speed, and the actual movement acceleration is used. And may be combined. This also makes it possible to know the moving distance of the subject that has actually moved between the image data.

(11)また、上記実施の形態において、算出された実移動距離、実移動速度等を示す情報を図6に示すような態様となるように合成、表示させたが、他の態様(たとえば、グラフ表示等)で実移動距離、実移動速度を合成、表示させるようにしてもよい。   (11) Further, in the above embodiment, the information indicating the calculated actual moving distance, actual moving speed, etc. is synthesized and displayed so as to have the mode as shown in FIG. 6, but other modes (for example, The actual movement distance and the actual movement speed may be synthesized and displayed in a graph display or the like.

(12)また、上記実施の形態において、選択された画像データのうち、撮影順序が連続する画像データ間の移動距離等を算出するようにしたが、該撮影順序が連続する画像データ間の移動距離等に加え、選択された画像データのうち、一番最初に撮像された画像データと最後に撮像された画像データ間の移動距離等を算出するようにしてもよい。これにより、最終的に計測対象として設定された被写体のトータルの実移動距離、平均の実移動速度がわかるからである。   (12) Further, in the above embodiment, the movement distance between the image data in which the shooting order is continuous among the selected image data is calculated, but the movement between the image data in which the shooting order is continuous is calculated. In addition to the distance or the like, the moving distance between the image data captured first and the image data captured last may be calculated among the selected image data. This is because the total actual moving distance and average actual moving speed of the subject finally set as the measurement target can be known.

(13)また、上記変形例(01)乃至(12)を任意に組み合わせた態様であってもよい。   (13) Moreover, the aspect which combined the said modification (01) thru | or (12) arbitrarily may be sufficient.

(14)また、本発明の上記実施形態及び各変形例は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
(14) The above-described embodiments and modifications of the present invention are merely examples as the best embodiments, so that the principle and structure of the present invention can be better understood. And is not intended to limit the scope of the appended claims.
Therefore, it should be understood that all the various variations and modifications that can be made to the above-described embodiments of the present invention are included in the scope of the present invention and protected by the appended claims.

最後に、上記各実施の形態においては、本発明の演算装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、画像データに基づいて所定の演算をすることができる機器であれば適用可能である。   Finally, in each of the above-described embodiments, the case where the arithmetic device of the present invention is applied to the digital camera 1 has been described. However, the present invention is not limited to the above-described embodiment, and is based on image data. Any device capable of performing a predetermined calculation is applicable.

本発明の実施の形態のデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. 被写体データテーブルの様子の一例を示す図である。It is a figure which shows an example of the mode of a to-be-photographed data table. 実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of embodiment. 実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of embodiment. 連続撮像処理により撮像された画像データの様子を示す図である。It is a figure which shows the mode of the image data imaged by the continuous imaging process. 合成され表示された画像データの様子の一例を示す図である。It is a figure which shows an example of the mode of the image data synthesize | combined and displayed.

符号の説明Explanation of symbols

1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り兼用シャッタ
5 CCD
6 垂直ドライバ
7 TG
8 ユニット回路
9 DMA
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 DMA
15 動きベクトル検出部
16 DMA
17 画像生成部
18 DMA
19 DMA
20 表示部
21 DMA
22 圧縮伸張部
23 DMA
24 フラッシュメモリ
25 バス
1 Digital Camera 2 Shooting Lens 3 Lens Drive Block 4 Shutter / Shutter 5 CCD
6 Vertical driver 7 TG
8 Unit circuit 9 DMA
10 CPU
11 Key input section 12 Memory 13 DRAM
14 DMA
15 motion vector detector 16 DMA
17 Image generator 18 DMA
19 DMA
20 Display unit 21 DMA
22 Compression / decompression unit 23 DMA
24 flash memory 25 bus

Claims (8)

複数の画像データと、これら画像データの撮像された時間間隔とを取得する得手段と、
前記得手段により取得された夫々の画像データに存在する同一の被写体を計測対象として認識し、その位置及び該被写体の大きさに基づいて、前記像データ間における該被写体の実際の移動距離を算出する第1の算出手段と、
前記第1の算出手段により算出された画像データ間の被写体の移動距離と、前記複数の画像データ間の撮像された時間間隔とに基づいて、該画像データ間における被写体の実際の移動速度を算出する第2の算出手段と、
前記第1の算出手段により算出された移動距離と、前記第2の算出手段により算出された移動速度とのうち、少なくとも1つを前記画像データに合成して表示する表示手段と、
を備えたことを特徴とする画像処理装置。
A plurality of image data, and the obtained means preparative for acquiring the imaging time interval of the image data,
The same subject existing in the obtained respective image data of the said acquisition means to recognize as the measurement object, based on the magnitude of the position and the subject, the actual movement of the subject between the image picture data First calculating means for calculating a distance;
The actual moving speed of the subject between the image data is calculated based on the moving distance of the subject between the image data calculated by the first calculating unit and the time interval between the image data captured. Second calculating means for
Display means for combining and displaying at least one of the movement distance calculated by the first calculation means and the movement speed calculated by the second calculation means on the image data;
An image processing apparatus comprising:
前記取得手段により取得された複数の画像データのうち、ユーザによって選択された画像データを複数検出する検出手段を更に備え、A detection means for detecting a plurality of image data selected by the user among the plurality of image data acquired by the acquisition means;
前記第1の算出手段、前記第2の算出手段は、前記検出手段により複数検出された画像データ間における該被写体の実際の移動距離、移動速度を算出することを特徴とする請求項1記載の画像処理装置。The said 1st calculation means and the said 2nd calculation means calculate the actual moving distance and moving speed of this to-be-photographed object between the image data detected by the said detection means. Image processing device.
前記得手段は、少なくとも3枚の画像データを取得し、
前記第2の算出手段により算出された画像データ間の被写体の移動速度と、該画像データ間の時間間隔とに基づいて、該被写体の実際の移動加速度を算出する第3の算出手段を更に備え、
前記表示手段は、前記第1の算出手段により算出された移動距離と、前記第2の算出手段により算出された移動速度とに加え更に、前記第3の算出手段により算出された移動加速度とのうち、少なくとも1つを前記画像データに合成して表示することを特徴とする請求項1記載の画像処理装置。
The acquisition means acquires at least three image data,
Third calculation means for calculating the actual movement acceleration of the subject based on the movement speed of the subject between the image data calculated by the second calculation means and the time interval between the image data is further provided. ,
In addition to the movement distance calculated by the first calculation means and the movement speed calculated by the second calculation means, the display means further includes a movement acceleration calculated by the third calculation means. The image processing apparatus according to claim 1, wherein at least one of them is combined with the image data and displayed.
被写体の特徴データと、該被写体の大きさとを対応付けて登録する登録手段を更に備え、Registration means for registering the feature data of the subject and the size of the subject in association with each other;
前記第1の算出手段は、前記登録手段により登録された被写体の特徴データに基づいて、前記夫々の画像データに同一の被写体が存在するか否かを判断し、そして、前記被写体の位置及び大きさを取得し、前記登録手段により登録された前記被写体の大きさを前記移動距離の算出に用いることを特徴とする請求項1記載の画像処理装置。The first calculation means determines whether or not the same subject exists in each of the image data based on the feature data of the subject registered by the registration means, and the position and size of the subject. The image processing apparatus according to claim 1, wherein a size of the subject registered by the registration unit is used for calculating the movement distance.
記取得手段は、続して所定時間間隔で撮像された画像データを取得することを特徴とする請求項1乃至の何れかに記載の画像処理装置。 Before SL acquisition means, image processing apparatus according to any one of claims 1 to 4, characterized in that acquires image data captured consecutive to a predetermined time interval. 記取得手段は、ーザによって任意に指定された画像データを取得することを特徴とする請求項1乃至の何れかに記載の画像処理装置。 Before SL acquisition means, image processing apparatus according to any one of claims 1 to 5, characterized in that acquires image data designated arbitrarily by Yu over THE. 複数の画像データと、これら画像データの撮像された時間間隔とを取得する取得ステップと、
前記取得ステップにて取得された夫々の画像データに存在する同一の被写体を計測対象として認識し、その位置及び該被写体の大きさに基づいて、前記画像データ間における該被写体の実際の移動距離を算出する第1の算出ステップと、
前記第1の算出ステップにて算出された画像データ間の被写体の移動距離と、前記複数の画像データ間の撮像された時間間隔とに基づいて、該画像データ間における被写体の実際の移動速度を算出する第2の算出ステップと、
前記第1の算出ステップにて算出された移動距離と、前記第2の算出ステップにて算出された移動速度とのうち、少なくとも1つを前記画像データに合成して表示する表示ステップと、
を含むことを特徴とする画像処理方法
An acquisition step of acquiring a plurality of image data and a time interval at which the image data is captured;
The same subject existing in each image data acquired in the acquisition step is recognized as a measurement target, and the actual moving distance of the subject between the image data is determined based on the position and the size of the subject. A first calculating step for calculating;
Based on the movement distance of the subject between the image data calculated in the first calculation step and the imaged time interval between the plurality of image data, the actual movement speed of the subject between the image data is determined. A second calculating step for calculating;
A display step of combining and displaying at least one of the movement distance calculated in the first calculation step and the movement speed calculated in the second calculation step on the image data;
An image processing method comprising:
ンピュータを、
複数の画像データと、これら画像データの撮像された時間間隔とを取得する得手段、
前記得手段により取得された夫々の画像データに存在する同一の被写体を計測対象として認識し、その位置及び該被写体の大きさに基づいて、前記像データ間における該被写体の実際の移動距離を算出する第1の算出手段、
前記第1の算出手段により算出された画像データ間の被写体の移動距離と、前記複数の画像データ間の撮像された時間間隔とに基づいて、該画像データ間における被写体の実際の移動速度を算出する第2の算出手段、
前記第1の算出手段により算出された移動距離と、前記第2の算出手段により算出された移動速度とのうち、少なくとも1つを前記画像データに合成して表示するよう制御する表示制御手段、
して機能させることを特徴とするプログラム。
The computer,
A plurality of image data, obtained means preparative for acquiring the imaging time interval of the image data,
The same subject existing in the obtained respective image data of the said acquisition means to recognize as the measurement object, based on the magnitude of the position and the subject, the actual movement of the subject between the image picture data A first calculating means for calculating a distance;
The actual moving speed of the subject between the image data is calculated based on the moving distance of the subject between the image data calculated by the first calculating unit and the time interval between the image data captured. Second calculating means for
Display control means for controlling to display at least one of the moving distance calculated by the first calculating means and the moving speed calculated by the second calculating means combined with the image data;
Program for causing to function as a.
JP2007268895A 2007-10-16 2007-10-16 Image processing apparatus, image processing method, and program Expired - Fee Related JP4877186B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007268895A JP4877186B2 (en) 2007-10-16 2007-10-16 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007268895A JP4877186B2 (en) 2007-10-16 2007-10-16 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2009098850A JP2009098850A (en) 2009-05-07
JP2009098850A5 JP2009098850A5 (en) 2010-11-25
JP4877186B2 true JP4877186B2 (en) 2012-02-15

Family

ID=40701806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007268895A Expired - Fee Related JP4877186B2 (en) 2007-10-16 2007-10-16 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4877186B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5810717B2 (en) * 2011-07-29 2015-11-11 カシオ計算機株式会社 Graph function display device and program
JP5904927B2 (en) * 2012-11-02 2016-04-20 本田技研工業株式会社 Vehicle periphery monitoring device
JP2016092513A (en) * 2014-10-31 2016-05-23 カシオ計算機株式会社 Image acquisition device, shake reduction method and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916778A (en) * 1995-06-30 1997-01-17 Nippon Software Eng Kk Mobile object information processor
JP2001126184A (en) * 1999-10-29 2001-05-11 Matsushita Electric Ind Co Ltd Automatic license plate recognizing device and vehicle speed measuring method
JP2004096498A (en) * 2002-08-30 2004-03-25 Mitsubishi Heavy Ind Ltd Moving object imaging system
JP4555690B2 (en) * 2005-01-11 2010-10-06 日本放送協会 Trajectory-added video generation apparatus and trajectory-added video generation program

Also Published As

Publication number Publication date
JP2009098850A (en) 2009-05-07

Similar Documents

Publication Publication Date Title
JP4999268B2 (en) Electronic camera and program
KR100906522B1 (en) Imaging apparatus, data extraction method, and data extraction program recording medium
US8823861B2 (en) Imaging apparatus, image display apparatus, imaging method, method of displaying image and method of correcting position of focusing-area frame
JP5507014B2 (en) Moving object detection apparatus and method
TWI468770B (en) Imaging apparatus, focusing method, and computer-readable recording medium recording program
JP5293206B2 (en) Image search apparatus, image search method and program
JP5331128B2 (en) Imaging device
JP4952920B2 (en) Subject determination apparatus, subject determination method and program thereof
JP4127521B2 (en) Digital camera and control method thereof
JP4894708B2 (en) Imaging device
JP2009213114A (en) Imaging device and program
JP2006246354A (en) Imaging unit and imaging program
KR100850466B1 (en) Apparatus for photography and method for controlling auto focus thereof
JP4487781B2 (en) Electronic camera
JP4678061B2 (en) Image processing apparatus, digital camera equipped with the same, and image processing program
JP4877186B2 (en) Image processing apparatus, image processing method, and program
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
US9143684B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP2007116372A (en) Digital camera
JP5392336B2 (en) Imaging apparatus, imaging method, and imaging program
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP5217843B2 (en) Composition selection apparatus, composition selection method and program
JP2008028956A (en) Imaging apparatus and method for generating image signal for detecting target therein
JP2004117195A (en) Digital camera with speed measuring function

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111114

R150 Certificate of patent or registration of utility model

Ref document number: 4877186

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees