JP2000187478A - Picture processor and picture processing method - Google Patents

Picture processor and picture processing method

Info

Publication number
JP2000187478A
JP2000187478A JP10365827A JP36582798A JP2000187478A JP 2000187478 A JP2000187478 A JP 2000187478A JP 10365827 A JP10365827 A JP 10365827A JP 36582798 A JP36582798 A JP 36582798A JP 2000187478 A JP2000187478 A JP 2000187478A
Authority
JP
Japan
Prior art keywords
image
trajectory
frame
frame images
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10365827A
Other languages
Japanese (ja)
Other versions
JP3603629B2 (en
Inventor
Hideo Abe
英雄 阿部
Keiichi Kobayashi
圭一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP36582798A priority Critical patent/JP3603629B2/en
Publication of JP2000187478A publication Critical patent/JP2000187478A/en
Application granted granted Critical
Publication of JP3603629B2 publication Critical patent/JP3603629B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a picture processor and a picture processing method capable of realizing picture expression according to movements of an object contained in animation data, and easily creating and outputting a still picture permitting to intuitively grasp the movements of the object. SOLUTION: This picture processor comprises an animation data taking part for extracting plural frame pictures from animation data and storing them in a frame memory, a central picture setting part for selecting a specific frame picture from the plural frame pictures stored in the frame memory and setting it as a central picture, a movement detecting part for detecting the movement of the object contained in the plural frame pictures stored in the frame memory, a trajectory picture creating part for processing the plural frame pictures and creating a trajectory picture based on the movement of the central picture and the object, and a picture synthesis part for creating a still picture where the moving state of the object is expressed by synthesizing and processing the central picture and the trajectory picture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置及び
画像処理方法に関し、特に、ビデオカメラや電子スチル
カメラ等により撮影された動画情報を、1枚の静止画
(スチル画)に合成加工して表示出力する画像処理装置
及び画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method, and more particularly, to processing of synthesizing moving picture information taken by a video camera, an electronic still camera or the like into one still picture (still picture). The present invention relates to an image processing apparatus and an image processing method for displaying and outputting images.

【0002】[0002]

【従来の技術】近年、AV機器の普及、機能向上が著し
い。特に、民生用、業務用を始め様々な場面でビデオカ
メラや電子スチルカメラ等の高機能化された画像記録機
器が利用されるようになっている。これらの機器により
撮影された画像は、機器本体に搭載された液晶パネルや
ケーブル等を介してテレビジョンやパーソナルコンピュ
ータ(以下、パソコンと略称する)のモニタ上に簡易に
表示出力することができ、また、プリンタ等を介して直
接印刷出力することもできる。しかしながら、撮影され
た様々な画像情報のうち、動画情報はその情報量が静止
画像に比較して膨大であるうえ、動画の全てを再生表示
して初めて被写体の動き等の一連の撮影内容を把握する
ことができるものであるため、画像情報の記憶、再生、
出力において、記憶容量を大量に必要とし、撮影内容の
確認作業にも長時間を要するという問題、また、静止画
像のように任意の画像を簡易に出力することができない
という問題等を有している。
2. Description of the Related Art In recent years, the spread and function of AV equipment have been remarkable. In particular, sophisticated image recording devices such as video cameras and electronic still cameras have come to be used in various scenes including consumer and business use. Images taken by these devices can be easily displayed and output on a monitor of a television or a personal computer (hereinafter abbreviated as a personal computer) via a liquid crystal panel, a cable, or the like mounted on the device body, Further, it is also possible to print out directly via a printer or the like. However, of the various types of captured image information, the amount of moving image information is enormous compared to that of still images, and a series of shooting contents such as the movement of the subject can be grasped only after reproducing and displaying the entire moving image. Storage, playback,
In the output, there is a problem that a large amount of storage capacity is required, and it takes a long time to check the photographed contents, and a problem that an arbitrary image such as a still image cannot be easily output. I have.

【0003】一方、画像記録機器の普及や、画像処理技
術の向上に伴って、撮影された画像情報の様々な表現方
法へのニーズが高まっている。例えば、車両の走行やゴ
ルフのスイングのように、比較的動きの速い被写体の軌
跡を静止画として表現することにより、被写体の一連の
動きを直感的に把握することができる。従来、ビデオカ
メラや電子スチルカメラ等により撮影された動画に限ら
ず、一般的な動画情報(テレビジョン放送の映像情報等
を含む)を、静止画像として表現する方法としては、動
画情報を構成する複数のフレーム画像の中から特定時刻
に表示される1枚のフレーム画像を代表画像として抽出
し、表示する方法、あるいは、一定の時間間隔で複数枚
のフレーム画像を代表画像として抽出し、これらの代表
画像を順次、あるいは、分割画面に一括して、表示する
方法等が知られている。
[0003] On the other hand, with the spread of image recording equipment and the improvement of image processing technology, needs for various methods of expressing captured image information are increasing. For example, a series of movements of a subject can be intuitively grasped by expressing a trajectory of a relatively fast-moving subject, such as a vehicle running or a golf swing, as a still image. 2. Description of the Related Art Conventionally, moving image information is used as a method of expressing general moving image information (including video information of a television broadcast) as a still image without being limited to a moving image captured by a video camera, an electronic still camera, or the like. A method of extracting and displaying one frame image displayed at a specific time as a representative image from a plurality of frame images, or extracting a plurality of frame images as a representative image at regular time intervals, There is known a method of displaying representative images sequentially or collectively on a divided screen.

【0004】図17は、動画情報を構成する複数のフレ
ーム画像から1枚を抽出し表示する手法の概念図であ
る。図17において、動画データVDには、車両が図面
左方向から右方向へ走行する画像が含まれているものと
する。ここで、動画データVDは、時系列的に配列する
複数のフレーム画像(静止画)により構成されていると
考えることができるため、被写体の動きを表す一連のフ
レーム画像の中から、例えば特定時刻T4における1枚
のフレーム画像F1を抽出して表示出力することによ
り、静止画像に被写体(車両C1)の動きを盛り込むこ
とができる。しかし、このような表現方法にあっては、
代表として抽出されたフレーム画像F1が特定時刻T4
の静止画像1枚のみであるため、特定時刻T4の直前直
後の動きを客観的に推測することはできるが、被写体の
一連の動きを把握することはできない。すなわち、走行
する車両を含む1枚のフレーム画像F1を静止画として
表示しても、車両C1の動きは的確に表現されず、背景
画像や車両の移動速度等の条件によっては、車両C1が
静止しているように認識される。
FIG. 17 is a conceptual diagram of a technique for extracting and displaying one image from a plurality of frame images constituting moving image information. In FIG. 17, it is assumed that the moving image data VD includes an image in which the vehicle travels from left to right in the drawing. Here, since the moving image data VD can be considered to be composed of a plurality of frame images (still images) arranged in time series, for example, a specific time By extracting and outputting one frame image F1 at T4, the motion of the subject (vehicle C1) can be included in the still image. However, in such an expression method,
The frame image F1 extracted as a representative is a specific time T4
Since there is only one still image, the motion immediately before and after the specific time T4 can be objectively estimated, but a series of motions of the subject cannot be grasped. That is, even if one frame image F1 including the traveling vehicle is displayed as a still image, the movement of the vehicle C1 is not accurately represented, and the vehicle C1 may not move depending on conditions such as the background image and the moving speed of the vehicle. Recognized as you are.

【0005】図18は、動画情報を構成する複数のフレ
ーム画像から複数枚を抽出して分割画面に一括表示する
手法の概念図である。図18に示すように、被写体の動
きを表す一連のフレーム画像の中から、例えば一定の時
間間隔で時刻T2、T4、T6、T8の4枚のフレーム
画像F1、F2、F3、F4を抽出して4分割画面に一
括表示することにより、静止画像でありながら、4枚の
フレーム画像F1、F2、F3、F4を時系列順に見渡
すことができ、被写体の一連の動き(車両C1〜C4の
走行状態)を把握することができる。しかし、このよう
な表現方法においては、代表画像として抽出された複数
のフレーム画像を全体にわたって見渡すことにより、見
る者がフレーム画像間の関連を推測して車両C1〜C4
の動きを認識しなければならず、また、4枚のフレーム
画像F1〜F4のうち、いずれか1枚の静止画像によっ
ては、上述した場合と同様に、被写体の一連の動きを直
感的に把握することはできない。すなわち、走行する車
両を含む複数のフレーム画像F1〜F4を静止画とし
て、順次あるいは一括して表示しても、車両の動きは見
る者の推測に委ねられる部分が多分に存在し、正確に認
識される訳ではない。このような問題点は、走行する車
両に限らず、ゴルフのスイング等のように、比較的速い
動きを有する被写体を撮影した動画情報を静止画像とし
て表現する場合に必ず生じるものである。
FIG. 18 is a conceptual diagram of a method of extracting a plurality of frames from a plurality of frame images constituting moving image information and displaying the extracted plurality of frames at a time on a divided screen. As shown in FIG. 18, for example, four frame images F1, F2, F3, and F4 at times T2, T4, T6, and T8 are extracted at regular time intervals from a series of frame images representing the motion of a subject. , The four frame images F1, F2, F3, and F4 can be viewed in chronological order even though they are still images, and a series of movements of the subject (the traveling of the vehicles C1 to C4) can be performed. Status) can be grasped. However, in such an expression method, the viewer looks over the plurality of frame images extracted as the representative image over the entire area, and the viewer estimates the relationship between the frame images to determine the vehicle C1 to C4.
In addition, depending on any one of the four frame images F1 to F4, a series of movements of the subject can be intuitively grasped in the same manner as described above. I can't. That is, even if a plurality of frame images F1 to F4 including the traveling vehicle are displayed as still images sequentially or collectively, there is a large part of the movement of the vehicle that is left to the guess of the viewer, and the vehicle is accurately recognized. Not necessarily. Such a problem always occurs when moving image information of a subject having a relatively fast movement, such as a golf swing, is represented as a still image, not limited to a traveling vehicle.

【0006】[0006]

【発明が解決しようとする課題】ところで、動画情報を
静止画像として表現する方法としては、映像データから
複数のフレーム画像を抽出し、それらを単純に多重合成
して1枚の静止画像を作成する方法が、特開平10−2
90450号公報に記載されている。この方法は、映像
データから等時間間隔で複数のフレーム画像を選択、抽
出し、各フレームにおける同一位置の画素値の平均値を
求め、その平均値を多重静止画像の画素値とするもので
あるが、動きのある部分の画素値が小さくなり、ほとん
ど見えなくなるという問題があるため、画素値に所定の
重み付けを施して動きのある部分のかすれ等が生じない
ように、さらに改善を加えたものである。
By the way, as a method of expressing moving image information as a still image, a plurality of frame images are extracted from video data, and they are simply multiplexed and combined to form one still image. The method is disclosed in JP-A-10-2
90450. This method selects and extracts a plurality of frame images from video data at equal time intervals, calculates an average value of pixel values at the same position in each frame, and uses the average value as a pixel value of a multiplex still image. However, since there is a problem that the pixel value of the moving part becomes small and becomes almost invisible, the pixel value is given a predetermined weight and further improved so that the moving part does not become blurred. It is.

【0007】しかしながら、上記公報に記載された方法
は、抽出されたフレーム画像の全てについて、画素値の
かすれがなく均等に表現されるように補正し、単純に重
ね合わせたものにすぎず、例えば図19に示すように、
走行する車両C1〜C4に関する異なる時刻T2、T
4、T6、T8におけるフレーム画像F1〜F4を、単
に一枚の静止画FQに多重合成したものが得られるにす
ぎない。すなわち、被写体の動作軌跡や軌道を認識する
ことはできるが、動作の特性、例えばスピード感等を的
確に表現するものではなく、また、被写体の動きを直感
的に把握することができる画像や、特殊効果を有する画
像を得られるものではない。
However, the method described in the above publication corrects all the extracted frame images so that the pixel values are uniformly expressed without blurring of the pixel values, and is merely a simple superimposition method. As shown in FIG.
Different times T2, T for traveling vehicles C1 to C4
4, the frame images F1 to F4 in T6 and T8 are simply obtained by multiplexing them into one still image FQ. In other words, although it is possible to recognize the motion trajectory and trajectory of the subject, it does not accurately represent the characteristics of the motion, for example, a sense of speed, and further, an image that can intuitively grasp the motion of the subject, An image having a special effect cannot be obtained.

【0008】そこで、本発明は、動画データに含まれる
被写体の動きに応じた画像表現を実現し、被写体の動き
を直感的に把握することができる静止画を簡易に生成、
出力することができる画像処理装置及び画像処理方法を
提供することを目的とする。
Therefore, the present invention realizes an image expression corresponding to the movement of a subject included in moving image data, and easily generates a still image from which the movement of the subject can be grasped intuitively.
It is an object of the present invention to provide an image processing device and an image processing method capable of outputting.

【0009】[0009]

【課題を解決するための手段】請求項1記載の画像処理
装置は、動画情報から複数のフレーム画像を抽出し、記
憶手段に記憶する画像情報取込手段と、前記記憶手段に
記憶された前記複数のフレーム画像から特定のフレーム
画像を選択し、基準画像として設定する基準画像設定手
段と、前記記憶手段に記憶された前記複数のフレーム画
像の各々に含まれる被写体の動きを検出する動き検出手
段と、前記基準画像、及び、検出された前記被写体の動
きに基づいて、前記複数のフレーム画像を加工し、前記
被写体の動作軌跡を表現する軌跡画像を生成する軌跡画
像生成手段と、前記基準画像と前記軌跡画像とを合成し
て、軌跡合成画像を生成する画像合成手段と、を備えた
ことを特徴とする。請求項2記載の画像処理装置は、請
求項1記載の画像処理装置において、前記動き検出手段
は、少なくとも前記被写体の動作速度を検出し、前記軌
跡画像生成手段は、異なる軌跡画像を生成する複数の軌
跡画像生成方法を備え、前記動作速度に基づいて、前記
軌跡画像の生成方法を変更することを特徴とする。
An image processing apparatus according to claim 1, wherein a plurality of frame images are extracted from moving picture information and stored in a storage means, and said image information is stored in said storage means. Reference image setting means for selecting a specific frame image from a plurality of frame images and setting the reference image as a reference image; and motion detecting means for detecting a motion of a subject included in each of the plurality of frame images stored in the storage means A trajectory image generating unit configured to process the plurality of frame images based on the reference image and the detected motion of the subject to generate a trajectory image expressing a motion trajectory of the subject; and the reference image. Image synthesizing means for synthesizing the trajectory image and the trajectory image to generate a trajectory composite image. The image processing apparatus according to claim 2, wherein the motion detecting means detects at least a motion speed of the subject, and the trajectory image generating means generates different trajectory images. Wherein the method of generating the locus image is changed based on the operation speed.

【0010】請求項3記載の画像処理装置は、請求項1
又は2記載の画像処理装置において、前記記憶手段に記
憶された前記複数のフレーム画像から任意のフレーム画
像を選択する基準画像選択手段を有し、前記基準画像設
定手段は、前記画像選択手段により選択された前記フレ
ーム画像を前記基準画像として設定することを特徴とす
る。請求項4記載の画像処理装置は、請求項1又は3記
載の画像処理装置において、前記軌跡画像生成手段は、
異なる軌跡画像を生成する複数の軌跡画像生成方法を備
え、さらに、前記複数の軌跡画像生成方法から任意の生
成方法を選択する軌跡画像選択手段を有していることを
特徴とする。請求項5記載の画像処理装置は、請求項
1、2、3又は4記載の画像処理装置において、前記画
像合成手段により生成された前記軌跡合成画像を表示出
力する画像出力手段を有していることを特徴とする。
[0010] The image processing apparatus according to the third aspect is the first aspect.
Or the image processing apparatus according to 2, further comprising: a reference image selection unit that selects an arbitrary frame image from the plurality of frame images stored in the storage unit, wherein the reference image setting unit selects the reference image by the image selection unit. The obtained frame image is set as the reference image. The image processing device according to claim 4 is the image processing device according to claim 1 or 3, wherein the trajectory image generation unit includes:
A plurality of trajectory image generation methods for generating different trajectory images are provided, and further, trajectory image selection means for selecting an arbitrary generation method from the plurality of trajectory image generation methods is provided. An image processing device according to a fifth aspect of the present invention is the image processing device according to the first, second, third, or fourth aspect, further including an image output unit that displays and outputs the trajectory composite image generated by the image composition unit. It is characterized by the following.

【0011】また、請求項6記載の画像処理装置は、複
数のフレーム画像からなる動画情報を記憶する記憶手段
と、前記記憶手段に記憶された前記複数のフレーム画像
から特定のフレーム画像を選択し、基準画像として設定
する基準画像設定手段と、前記記憶手段に記憶された前
記複数のフレーム画像を用いて、該複数のフレーム画像
の各々に含まれる被写体の動作軌跡を表現する軌跡画像
を生成する軌跡画像生成手段と、前記基準画像と前記軌
跡画像とを合成して、軌跡合成画像を生成する画像合成
手段と、を備えたことを特徴とする。請求項7記載の画
像処理装置は、複数のフレーム画像からなる動画情報を
記憶する記憶手段と、前記記憶手段に記憶された前記複
数のフレーム画像から特定のフレーム画像を選択し、基
準画像として設定する基準画像設定手段と、前記記憶手
段に記憶された前記複数のフレーム画像の各々に含まれ
る被写体の動きを検出する動き検出手段と、前記動き検
出手段により検出された前記被写体の動きに基づいて、
前記基準画像を加工する画像加工手段と、を備えたこと
を特徴とする。
According to a sixth aspect of the present invention, there is provided an image processing apparatus, comprising: storage means for storing moving image information comprising a plurality of frame images; and selecting a specific frame image from the plurality of frame images stored in the storage means. Generating a trajectory image expressing a motion trajectory of a subject included in each of the plurality of frame images using a reference image setting unit to be set as a reference image and the plurality of frame images stored in the storage unit A trajectory image generating means and an image synthesizing means for synthesizing the reference image and the trajectory image to generate a trajectory composite image are provided. 8. The image processing apparatus according to claim 7, wherein the storage unit stores moving image information including a plurality of frame images, and a specific frame image is selected from the plurality of frame images stored in the storage unit and set as a reference image. Reference image setting means, a motion detection means for detecting a motion of a subject included in each of the plurality of frame images stored in the storage means, and a motion of the subject detected by the motion detection means. ,
Image processing means for processing the reference image.

【0012】そして、請求項8記載の画像処理方法は、
動画情報から複数のフレーム画像を抽出して記憶手段に
記憶するステップと、前記記憶手段に記憶された前記複
数のフレーム画像から特定のフレーム画像を選択し、基
準画像として設定するステップと、前記記憶手段に記憶
された前記複数のフレーム画像の各々に含まれる被写体
の動きを検出するステップと、前記基準画像、及び、検
出された前記被写体の動きに基づいて、前記複数のフレ
ーム画像を加工し、前記被写体の動作軌跡を表現する軌
跡画像を生成するステップと、前記基準画像と前記軌跡
画像とを合成して、軌跡合成画像を生成するステップ
と、を含むことを特徴とする。
An image processing method according to claim 8 is
Extracting a plurality of frame images from the moving image information and storing the extracted frame images in a storage unit; selecting a specific frame image from the plurality of frame images stored in the storage unit and setting the selected frame image as a reference image; Detecting the movement of the subject included in each of the plurality of frame images stored in the means, the reference image, and, based on the detected movement of the subject, processing the plurality of frame images, Generating a trajectory image representing the motion trajectory of the subject; and combining the reference image and the trajectory image to generate a trajectory composite image.

【0013】[0013]

【発明の実施の形態】以下、本発明の実施の形態を、図
面を参照しながら説明する。 <第1の実施形態>図1は、本発明に係る画像処理装置
の第1の実施形態を示すブロック図である。図1におい
て、10は動画データ取込部(画像情報取込手段)、2
0はフレームメモリ(記憶手段)、30はMPU、40
はハードディスク、50はLCD等のモニタ(画像出力
手段)、60はプリンタ(画像出力手段)、70はキー
スイッチ等の入力部(基準画像選択手段、軌跡画像選択
手段)、80はデータ/命令伝送用のバスである。ここ
で、MPU30は、動き検出部(動き検出手段)31
と、軌跡画像生成部(軌跡画像生成手段)32と、中心
画像設定部(基準画像設定手段)33と、画像合成部
(画像合成手段)34の各機能を有して構成されてい
る。
Embodiments of the present invention will be described below with reference to the drawings. <First Embodiment> FIG. 1 is a block diagram showing a first embodiment of an image processing apparatus according to the present invention. In FIG. 1, reference numeral 10 denotes a moving image data capturing unit (image information capturing means);
0 is a frame memory (storage means), 30 is an MPU, 40
Is a hard disk, 50 is a monitor (image output means) such as an LCD, 60 is a printer (image output means), 70 is an input section such as a key switch (reference image selection means, locus image selection means), and 80 is data / command transmission. Bus. Here, the MPU 30 includes a motion detection unit (motion detection means) 31
, A trajectory image generating unit (trajectory image generating unit) 32, a center image setting unit (reference image setting unit) 33, and an image synthesizing unit (image synthesizing unit) 34.

【0014】これらの各機能は、概ね以下の通りであ
る。 (1)動画データ取込部10 動画データ取込部10は、動画データから複数のフレー
ム画像を抽出して後述するフレームメモリ20に記憶す
るものである。ここで、動画データは、ビデオデータや
連続撮影された複数の静止画像により構成されるもので
あってもよい。要するに、複数のフレーム画像の連続に
より構成されるものであればよく、また、取り込まれる
フレーム画像はアナログ画像であっても、デジタル画像
であっても構わない。動画データ取込部10の概略構成
について、図2を参照して説明する。図2において、1
1はフレーム画像選択部、12はアナログ−デジタル変
換器(以下、A/Dと記す。)、13は画像圧縮部、1
4はバスインターフェースである。
Each of these functions is generally as follows. (1) Moving Image Data Capture Unit The moving image data capture unit 10 extracts a plurality of frame images from the moving image data and stores them in a frame memory 20 described later. Here, the moving image data may be composed of video data or a plurality of continuously shot still images. In short, any frame image may be used as long as it is composed of a succession of a plurality of frame images, and the captured frame image may be an analog image or a digital image. The schematic configuration of the moving image data capturing unit 10 will be described with reference to FIG. In FIG. 2, 1
1 is a frame image selection unit, 12 is an analog-digital converter (hereinafter, referred to as A / D), 13 is an image compression unit, 1
4 is a bus interface.

【0015】フレーム画像選択部11は、後述するMP
U30からの命令に従って、動画データから所定の時間
間隔でフレーム画像を選択し、選択された各フレーム画
像の画像信号を抽出する。ここで、選択されるフレーム
画像は、動画データを構成する全てのフレーム画像であ
ってもよいし、特定の時間間隔、例えば1/5secや
1/10sec毎のフレーム画像であってもよいが、動
画データに含まれる被写体の動きを把握できる程度の時
間間隔を有していることを必須とする。なお、フレーム
画像の選択の際に用いる時間間隔は、MPU30により
予め設定された基準値を用いる方法や、画像処理装置の
使用者の意志により入力部70を介して指示された任意
の値を用いる方法等、様々な手法を設定することができ
る。A/D12は、選択されたフレーム画像がアナログ
信号の場合に、アナログの画像信号をデジタル画像信号
に変換する。
The frame image selecting section 11 is provided with an MP
In accordance with a command from U30, frame images are selected at predetermined time intervals from the moving image data, and an image signal of each selected frame image is extracted. Here, the selected frame image may be all the frame images constituting the moving image data, or may be frame images at a specific time interval, for example, every 1/5 sec or 1/10 sec. It is necessary to have a time interval enough to grasp the movement of the subject included in the moving image data. The time interval used for selecting a frame image may be a method using a reference value preset by the MPU 30 or an arbitrary value instructed via the input unit 70 by a user of the image processing apparatus. Various methods such as a method can be set. When the selected frame image is an analog signal, the A / D 12 converts the analog image signal into a digital image signal.

【0016】画像圧縮部13は、A/D12によりデジ
タル画像信号化された、あるいは、フレーム画像選択部
11においてデジタル画像信号として抽出された各フレ
ーム画像の画像信号を、所定の画像圧縮規格に準拠する
ように処理する。フレーム画像の圧縮符号化方式として
は、JPEG規格等を適用することができる。ここで、
JPEG(Joint Photographic Coding Experts Group)
とは、DCT(離散コサイン変換)、量子化、可変長符
号化、等の手法により原画像データを圧縮符号化する規
格であり、カラーファクシミリ装置や電子スチルカメラ
等に採用されている国際標準規格である。なお、画像情
報の圧縮符号化方式としては、一般にJPEGのほか、
GIF、TIFF、LHA、ZIP等の様々な形式、規
格が利用されているため、実施の形態に応じて適切な方
式を採用することができる。バスインターフェース14
は、圧縮処理されたフレーム画像をバス80の伝送幅に
変換してフレームメモリ20へ転送する。
The image compression section 13 converts the image signal of each frame image converted into a digital image signal by the A / D 12 or extracted as a digital image signal by the frame image selection section 11 into a predetermined image compression standard. Process as follows. The JPEG standard or the like can be applied as a frame image compression encoding method. here,
JPEG (Joint Photographic Coding Experts Group)
Is a standard for compressing and encoding original image data by a method such as DCT (Discrete Cosine Transform), quantization, variable length coding, etc., and is an international standard adopted for color facsimile apparatuses, electronic still cameras, etc. It is. In addition, as a compression encoding method of image information, generally, in addition to JPEG,
Since various formats and standards such as GIF, TIFF, LHA, and ZIP are used, an appropriate method can be adopted according to the embodiment. Bus interface 14
Converts the compressed frame image into the transmission width of the bus 80 and transfers it to the frame memory 20.

【0017】(2)フレームメモリ20 フレームメモリ20は、DRAM(Dynamic Random Acc
ess Memory)等により構成され、動画データ取込部10
により選択され、圧縮符号化されたフレーム画像に画像
識別情報等のヘッダー情報を関係付けて、MPU30に
より指定された画像データ格納領域に格納するものであ
る。図3は、フレームメモリ20の内部領域を示す概念
図である。図3に示すように、フレームメモリ20の内
部領域は、大別してフォーマットテーブル領域、情報テ
ーブル領域、画像データ領域、オフセット領域から構成
される。フォーマットテーブル領域には、画像情報に関
する総合的な情報であるフォーマット情報が格納され
る。また、情報テーブル領域には、画像情報を識別する
ための番号情報を含む画像情報識別情報、動画データの
時系列上での位置(時刻)を示す時刻情報等の画像情報
を識別するためのヘッダー情報が格納される。画像デー
タ領域は、圧縮符号化されたフレーム画像(圧縮画像デ
ータ)を格納し、オフセット領域は、画像データ領域に
おける圧縮画像データのデータ長を固定長とするための
オフセットデータ(ブランク)を格納する。このよう
に、各圧縮画像データは、情報テーブル領域に格納され
たヘッダー情報に関係付けされて画像データ領域に格納
される。
(2) Frame Memory 20 The frame memory 20 is a DRAM (Dynamic Random Accumulator).
ess Memory) and the like, and the moving image data capturing unit 10
Is associated with header information such as image identification information and the like, and is stored in the image data storage area designated by the MPU 30. FIG. 3 is a conceptual diagram showing an internal area of the frame memory 20. As shown in FIG. 3, the internal area of the frame memory 20 is roughly divided into a format table area, an information table area, an image data area, and an offset area. The format table area stores format information that is comprehensive information on image information. The information table area includes a header for identifying image information such as image information identification information including number information for identifying image information, and time information indicating a position (time) of moving image data in a time series. Information is stored. The image data area stores compression-encoded frame images (compressed image data), and the offset area stores offset data (blank) for setting the data length of the compressed image data in the image data area to a fixed length. . As described above, each piece of compressed image data is stored in the image data area in association with the header information stored in the information table area.

【0018】(3)動き検出部31 動き検出部31は、フレームメモリ20に格納された複
数のフレーム画像から被写体の動きを示す特徴量を検出
するものである。ここで、被写体の動きを示す特徴量と
は、被写体の動作軌跡や軌道、動作(移動)速度、動作
(移動)方向等を示す情報であって、一般にベクトル情
報として表すことができる。動き検出の手法としては、
異なる時刻におけるフレーム画像をそれぞれブロック領
域に分割し、同一ブロック領域毎に参照画像上でのブロ
ックマッチング処理を行い、誤差が最小となる座標位置
から被写体のフレーム間での動きを検出するブロックマ
ッチング法を適用することができる。なお、ブロックマ
ッチング法は、ISO/IECJTC1/SC29/W
G11で国際標準化が行われたIS11172−2規格
などに広く利用されているものである。ブロックマッチ
ング法については後述する。
(3) Motion Detection Unit 31 The motion detection unit 31 detects a feature amount indicating the motion of the subject from a plurality of frame images stored in the frame memory 20. Here, the feature amount indicating the motion of the subject is information indicating a motion locus or trajectory of the subject, an operation (movement) speed, an operation (movement) direction, and the like, and can be generally represented as vector information. As a method of motion detection,
A block matching method that divides frame images at different times into block regions, performs block matching processing on the reference image for each of the same block regions, and detects a motion between subjects of a frame from a coordinate position where an error is minimized. Can be applied. The block matching method is based on ISO / IECJTC1 / SC29 / W
It is widely used in IS11172-2 standard and the like, which was internationally standardized in G11. The block matching method will be described later.

【0019】(4)中心画像設定部33 中心画像設定部33は、フレームメモリ20に格納され
た複数のフレーム画像の中から特定のフレーム画像を選
択、抽出し、後述する画像合成処理における中心画像と
して設定するものである。ここで、中心画像とは、画像
合成の際に基準となる画像であって、一連のフレーム画
像の始端や終端に位置する画像であってもよいし、特定
時刻におけるフレーム画像であってもよい。要するに、
後述する軌跡画像生成部32により作成される軌跡画像
が合成される核(元)となる画像を抽出するものであれ
ばよい。
(4) Central Image Setting Unit 33 The central image setting unit 33 selects and extracts a specific frame image from a plurality of frame images stored in the frame memory 20, and performs central image setting in image synthesis processing described later. It is set as. Here, the center image is an image serving as a reference when synthesizing images, and may be an image located at the beginning or end of a series of frame images, or may be a frame image at a specific time. . in short,
Any device may be used as long as it extracts a nucleus (original) image to be combined with a trajectory image created by the trajectory image generation unit 32 described later.

【0020】(5)軌跡画像生成部32 軌跡画像生成部32は、動き検出部31により検出され
た被写体の動きを示す特徴量、及び、中心画像設定部3
3により抽出された中心画像に含まれる被写体像に基づ
いて、フレームメモリ20に格納された複数のフレーム
画像を加工して、被写体の動きに応じた動作軌跡や残像
を表現する軌跡画像を生成するものである。軌跡画像の
生成は、動き検出部31の検出結果に基づいて、フレー
ムメモリ20に格納された複数のフレーム画像から被写
体を判別し、中心画像以外の各フレーム画像から被写体
の輪郭成分を抽出して、抽出された輪郭成分を多重合成
する処理、あるいは、輪郭成分に基づいて残像領域を生
成する処理を施し、さらに、グラデーション処理や画像
の濃淡調整を施して被写体の動きを表現する特有の軌跡
画像を作成する。
(5) Trajectory Image Generation Unit 32 The trajectory image generation unit 32 includes a feature amount indicating the motion of the subject detected by the motion detection unit 31, and a center image setting unit 3
A plurality of frame images stored in the frame memory 20 are processed based on the subject image included in the center image extracted by 3 to generate a trajectory image representing a motion trajectory or an afterimage corresponding to the motion of the subject. Things. The trajectory image is generated by determining the subject from a plurality of frame images stored in the frame memory 20 based on the detection result of the motion detection unit 31 and extracting the contour component of the subject from each frame image other than the center image. A unique trajectory image that expresses the motion of the subject by performing a process of multiplexing the extracted contour components or a process of generating an afterimage area based on the contour components, and further performing a gradation process and adjusting the density of the image. Create

【0021】(6)画像合成部34 画像合成部34は、中心画像設定部33により抽出され
た中心画像に、軌跡画像生成部33により作成された軌
跡画像を合成処理して、軌跡合成画像として出力するも
のである。 (7)MPU30、ハードディスク40 ハードディスク40は、MPU30が実行するプログラ
ムや動作上必要なデータを記憶する。したがって、MP
U30は、ハードディスク40に記憶されたアプリケー
ションプログラムを実行することにより、上述した動き
検出部31、軌跡画像生成部32、中心画像設定部3
3、及び、画像合成部34の各機能をソフトウェア的に
実現して、後述する一連の画像処理やメモリ管理、モニ
タ50やプリンタ60への出力制御を行う。
(6) Image Synthesizing Unit 34 The image synthesizing unit 34 synthesizes the center image extracted by the center image setting unit 33 with the trajectory image created by the trajectory image generating unit 33 to generate a trajectory synthesized image. Output. (7) MPU 30 and Hard Disk 40 The hard disk 40 stores programs executed by the MPU 30 and data necessary for operation. Therefore, MP
The U30 executes the application program stored in the hard disk 40 to execute the motion detection unit 31, the trajectory image generation unit 32, and the center image setting unit 3 described above.
3. The functions of the image synthesizing unit 34 are realized by software, and a series of image processing and memory management, which will be described later, and output control to the monitor 50 and the printer 60 are performed.

【0022】(8)モニタ50、プリンタ60 画像合成部34により合成処理された軌跡合成画像を表
示、あるいは、印刷出力するものであって、テレビやパ
ソコンのモニタ、プリンタ等の出力装置である。ここ
で、図1においては、モニタ50やプリンタ60を、バ
ス80に直接接続された構成として示したが、本発明は
これに限定されるものではなく、バス80に接続された
通信インターフェース等を介して通信回線により接続さ
れるファクシミリ装置や携帯情報端末(PDA)、パソ
コン等であってもよい。なお、本発明の説明において
は、モニタ50への表示出力及びプリンタ60への印刷
出力のほか、軌跡合成画像を静止画像として出力する動
作全般を、便宜的に「表示出力」と記載する。 (9)入力部70 入力部70は、画像処理装置に設けられた各種キースイ
ッチ類であって、MPU30によるアプリケーションプ
ログラムの実行や画像処理、モニタ50やプリンタ60
への表示出力等の制御信号を生成する。また、後述する
実施形態における基準画像選択手段や軌跡画像選択手段
としての機能も有する。画像処理装置に設けられた専用
のキースイッチ類はもとより、パソコン等により本発明
を実施する場合にはキーボードやマウス、ペンタブレッ
ト等の各種入力装置も含まれる。
(8) Monitor 50, Printer 60 This device displays or prints out a locus composite image synthesized by the image synthesizing unit 34, and is an output device such as a monitor of a television or a personal computer, or a printer. Here, in FIG. 1, the monitor 50 and the printer 60 are shown as being configured to be directly connected to the bus 80, but the present invention is not limited to this, and a communication interface or the like connected to the bus 80 may be used. It may be a facsimile device, a personal digital assistant (PDA), a personal computer, or the like, which is connected via a communication line via the communication line. In the description of the present invention, in addition to the display output to the monitor 50 and the print output to the printer 60, the entire operation of outputting the trajectory composite image as a still image is referred to as “display output” for convenience. (9) Input Unit 70 The input unit 70 is various key switches provided in the image processing apparatus. The input unit 70 executes an application program by the MPU 30, performs image processing, and monitors the monitor 50 and the printer 60.
A control signal, such as a display output to the CPU, is generated. Further, it also has a function as a reference image selecting unit or a locus image selecting unit in the embodiment described later. When the present invention is implemented by a personal computer or the like, various input devices such as a keyboard, a mouse, and a pen tablet are included in addition to dedicated key switches provided in the image processing device.

【0023】次に、上述した構成を有する画像処理装置
における処理動作について、図面を参照して説明する。
図4は、本実施形態に係る画像処理装置の処理動作を示
すフローチャートである。まず、処理動作の概略につい
て上述した構成を参照しつつ説明した後、各ステップに
ついて個別に説明する。図4に示すように、ステップS
101、S102において、動画データ取込部10によ
り、入力された動画データから所定の時間間隔で複数の
フレーム画像を選択、抽出し、JPEG等の規格に準拠
するように圧縮符号化処理を施してフレームメモリ20
の所定の格納領域に格納する。この際、圧縮されたフレ
ーム画像を識別するヘッダー情報が関係付けられて格納
される。次いで、ステップ103において、中心画像設
定部33により、フレームメモリ20に格納された複数
のフレーム画像の中から、画像合成における基準となる
中心画像を設定し、ステップS104、S105におい
て、動き検出部31により、フレームメモリに格納され
た複数のフレーム画像に含まれる動作を伴う被写体(動
体)を検出するとともに、その被写体の動作特性を示す
情報を出力する。
Next, the processing operation in the image processing apparatus having the above configuration will be described with reference to the drawings.
FIG. 4 is a flowchart illustrating a processing operation of the image processing apparatus according to the present embodiment. First, an outline of the processing operation will be described with reference to the above-described configuration, and then each step will be individually described. As shown in FIG.
In 101 and S102, the moving image data capturing unit 10 selects and extracts a plurality of frame images from input moving image data at predetermined time intervals, and performs a compression encoding process so as to conform to a standard such as JPEG. Frame memory 20
In a predetermined storage area. At this time, header information for identifying the compressed frame image is stored in association with the header information. Next, in step 103, the central image setting unit 33 sets a central image as a reference in image synthesis from among the plurality of frame images stored in the frame memory 20, and in steps S104 and S105, the motion detecting unit 31 As a result, an object (moving object) accompanying an operation included in a plurality of frame images stored in the frame memory is detected, and information indicating the operation characteristics of the object is output.

【0024】次いで、ステップ106、107におい
て、軌跡画像生成部32により、上述した被写体の動作
特性、及び、中心画像に基づいて、各フレーム画像に含
まれる被写体の輪郭成分を抽出して、それらの輪郭成分
を多重合成、あるいは、輪郭成分に基づいて残像領域を
生成し、さらに、輪郭成分の濃淡調整をする加工処理や
グラデーション処理を施し、被写体の動きを表現する軌
跡画像を作成する。次いで、ステップ108、S109
において、画像合成部34により、中心画像と軌跡画像
を合成処理して1枚の静止画像とし、得られた静止画像
をモニタ50やプリンタ60等に表示出力する。このよ
うに、本実施形態における画像処理装置の処理動作は、
大別して、動画データ取込ステップ、中心画像設定ステ
ップ、動き検出ステップ、軌跡画像作成ステップ、及
び、画像合成ステップから構成されている。
Next, in steps 106 and 107, the trajectory image generation unit 32 extracts the contour components of the subject included in each frame image based on the above-described motion characteristics of the subject and the center image, and extracts them. The contour component is multiplexed or a residual image area is generated based on the contour component, and further, a processing process for adjusting the density of the contour component and a gradation process are performed to create a trajectory image expressing the motion of the subject. Next, Step 108, S109
, The image combining unit 34 combines the center image and the trajectory image into one still image, and outputs the obtained still image to the monitor 50, the printer 60, or the like. As described above, the processing operation of the image processing apparatus according to the present embodiment includes:
It roughly comprises a moving image data capturing step, a center image setting step, a motion detecting step, a trajectory image creating step, and an image synthesizing step.

【0025】以下、各ステップについて、図面を参照し
て説明する。 (1)動画データ取込ステップ 図5は、動画データ取込ステップを示す概念図である。
以下、被写体として走行する車両を例にして説明する。
ビデオカメラや電子スチルカメラにより撮影された動画
データや、テレビジョン放送の映像情報等の動画データ
は、時系列的に配列された一連のフレーム画像の集合で
あるため、本ステップにおいては、図5に示すように、
一連のフレーム画像から所定の時間間隔毎に、例えば動
画データVDの時系列上の位置に相当する時刻T2、T
6、T10、…のフレーム画像Fa、Fb、Fc、…
が、動画データ取込部10により選択、抽出される。な
お、選択、抽出されるフレーム画像は、動画データVD
を構成する一連のフレーム画像の全てであってもよく、
抽出されたフレーム画像によって被写体の動き、すなわ
ち車両の走行状態が把握できるものであれば上述した時
間間隔に限定されない。抽出されたフレーム画像Fa、
Fb、Fc、…は、後述する画像処理を簡易に実行する
ためにデジタル画像信号に変換され、さらに、フレーム
メモリ20の記憶容量を有効に利用するためにJPEG
等の所定の圧縮符号化処理が施され、画像識別情報や時
刻情報等に関係付けて、画像データ領域に順次格納され
る。
Hereinafter, each step will be described with reference to the drawings. (1) Moving Image Data Import Step FIG. 5 is a conceptual diagram showing the moving image data import step.
Hereinafter, a vehicle running as a subject will be described as an example.
Moving image data captured by a video camera or an electronic still camera, or moving image data such as video information of a television broadcast is a set of a series of frame images arranged in time series. As shown in
At predetermined time intervals from a series of frame images, for example, times T2 and T2 corresponding to time-series positions of the moving image data VD.
6, T10,... Frame images Fa, Fb, Fc,.
Are selected and extracted by the moving image data capturing unit 10. The selected and extracted frame image is the moving image data VD
May be all of a series of frame images constituting
The time interval is not limited as long as the movement of the subject, that is, the running state of the vehicle can be grasped from the extracted frame image. Extracted frame image Fa,
Fb, Fc,... Are converted into digital image signals in order to easily execute image processing to be described later, and JPEG is used in order to effectively use the storage capacity of the frame memory 20.
And the like, and are sequentially stored in the image data area in association with image identification information, time information, and the like.

【0026】(2)中心画像設定ステップ 本ステップにおいては、中心画像設定部33により、フ
レームメモリ20に格納された複数のフレーム画像F
a、Fb、Fc、…の中から、例えば時刻T6における
フレーム画像Fbを選択し、情報テーブル領域に中心画
像であることを示すヘッダー情報を付加することによ
り、中心画像として設定する。この中心画像は、上述し
たように、画像合成の際に基準となる画像であり、その
抽出方法は、取り込んだフレーム画像のうちの始端や終
端、あるいは中間の時刻に位置する画像を抽出するよう
に予め設定するものであってもよいし、後述する被写体
の動作特性の検出結果に基づいて、例えば走行する車両
がフレーム画像の中心位置にあるものを選択するもので
あってもよい。
(2) Center Image Setting Step In this step, a plurality of frame images F stored in the frame memory 20 by the center image setting section 33 are set.
From among a, Fb, Fc,..., for example, the frame image Fb at time T6 is selected, and header information indicating that the frame image is the center image is added to the information table area to set the frame image as the center image. As described above, the center image is a reference image at the time of image synthesis, and the extraction method is to extract an image located at a start end, an end, or an intermediate time among the captured frame images. May be set in advance, or based on a detection result of a motion characteristic of a subject, which will be described later, for example, a vehicle whose traveling vehicle is located at the center position of the frame image may be selected.

【0027】(3)動き検出ステップ 本ステップにおいては、動き検出部31により、フレー
ムメモリ20に格納された複数のフレーム画像から走行
する車両を検出するとともに、その動きの軌道あるいは
軌跡を算出する。以下、画像情報に含まれる被写体の動
きを検出する方法について、図面を参照して説明する。
まず、動き検出に適用される手法の一例として、ブロッ
クマッチングについて説明する。図6は、動き検出ステ
ップに適用されるブロックマッチング法を示す概念図で
ある。例えば、『テレビジョン学会編、「画像情報圧
縮」、オーム社、p.92、1991年』には、連続す
る複数のフレーム画像により構成される動画データに含
まれる被写体の動きを検出するブロックマッチング法に
ついて記載されている。
(3) Motion Detection Step In this step, the motion detection unit 31 detects a traveling vehicle from a plurality of frame images stored in the frame memory 20 and calculates the trajectory or trajectory of the motion. Hereinafter, a method for detecting the movement of the subject included in the image information will be described with reference to the drawings.
First, block matching will be described as an example of a technique applied to motion detection. FIG. 6 is a conceptual diagram illustrating a block matching method applied to the motion detection step. For example, see “Television Society,“ Image Information Compression ”, Ohmsha, p. 92, 1991] describes a block matching method for detecting a motion of a subject included in moving image data composed of a plurality of continuous frame images.

【0028】上記文献によれば、図6に示すように、注
目するフレーム画像(以下、便宜的に現フレーム画像と
いう。)Fnと、一つ前の時刻におけるフレーム画像
(以下、便宜的に前フレーム画像という。)Fmの特定
位置のブロック(領域)Bn、Bmについて、パターン
マッチングを行う。パターンマッチングの方法は、例え
ば、ブロックBn中の画素Xnと、これをi画素分ずら
したブロックBm中の画素Xn-iとの差分の絶対値和
Sを次式に従って求め、この絶対値和S、すなわち評
価量を最小にするずれ位置iを探索して動き量を検出す
るものである。 S=Σ|Xn−Xn-i| … ここで、式における総和計算Σは、ブロックBnに属
する全ての画素Xnについて実行される。このように、
ブロックマッチング法においては、現フレーム画像をブ
ロックに分割し、ブロック単位で前フレーム画像との類
似位置をパターンマッチングにより探索して、フレーム
画像に含まれる被写体の動作速度や方向等の動きを検出
する。
According to the above-mentioned document, as shown in FIG. 6, a frame image of interest (hereinafter referred to as a current frame image for convenience) Fn and a frame image at the immediately preceding time (hereinafter referred to as a previous frame image for convenience). Pattern matching is performed on blocks (regions) Bn and Bm at specific positions in Fm. In the pattern matching method, for example, an absolute value sum S of a difference between a pixel Xn in a block Bn and a pixel Xn-i in a block Bm obtained by shifting the pixel Xn by i pixels is calculated according to the following equation. That is, the shift amount i that minimizes the evaluation amount is searched to detect the motion amount. S = {| Xn-Xn-i |... Here, the sum calculation in the equation is executed for all the pixels Xn belonging to the block Bn. in this way,
In the block matching method, the current frame image is divided into blocks, and a similar position to the previous frame image is searched for by block matching in block units to detect the movement of the subject included in the frame image, such as the movement speed and direction. .

【0029】なお、動き検出に適用される手法として
は、上述したブロックマッチング法のほかに、フレーム
画像中に含まれる被写体領域の特徴成分の変化から動き
ベクトルを算出する手法を適用することもできる。この
手法は、まず、フレーム画像に含まれる輝度成分に対し
てラプラシアン処理を行い、処理画像の零交点を領域境
界線として検出し、連続した境界線により閉じられた部
分を独立した領域(被写体領域)として抽出する。ある
いは、フレーム画像に含まれる色成分を解析し、色相変
化の少ない連続した部分を代表色に置き換えて一つの領
域として抽出する。そして、抽出された領域の特徴成
分、例えば領域の重心位置を検出し、フレーム画像間で
の変化量を算出することにより、領域全体としての平行
移動量を示す動きベクトルとして求められる。したがっ
て、算出された変化量を当該領域の動きパラメータとし
て出力することにより、被写体領域内の任意の画素位置
に対して、動きベクトルの値(移動量、方向)を計算で
求めることができる。また、動き検出のさらに別の手法
としては、フレーム画像内の輪郭線成分を多数検出し、
検出した多数の輪郭線をグループにまとめ、ニューラル
ネットワーク処理により画像全体の動きを検出する手法
を適用することもできる。
As a method applied to motion detection, a method of calculating a motion vector from a change in a characteristic component of a subject region included in a frame image can be applied in addition to the above-described block matching method. . In this method, first, a Laplacian process is performed on a luminance component included in a frame image, a zero crossing point of the processed image is detected as a region boundary line, and a portion closed by a continuous boundary line is defined as an independent region (subject region). ). Alternatively, a color component included in the frame image is analyzed, and a continuous portion having a small change in hue is replaced with a representative color and extracted as one region. Then, a feature component of the extracted region, for example, the position of the center of gravity of the region is detected, and the amount of change between frame images is calculated, thereby obtaining a motion vector indicating the amount of parallel movement of the entire region. Therefore, by outputting the calculated change amount as the motion parameter of the region, the value (movement amount, direction) of the motion vector can be obtained by calculation at an arbitrary pixel position in the subject region. Further, as still another method of motion detection, a large number of contour components in a frame image are detected,
It is also possible to apply a method of collecting a large number of detected contour lines into groups and detecting the motion of the entire image by neural network processing.

【0030】(4)軌跡画像作成ステップ 本ステップにおいては、軌跡画像生成部32により、フ
レームメモリ20に格納された複数のフレーム画像、及
び、中心画像に基づいて、車両の走行状態を表現する軌
跡画像を生成する。図7は、軌跡画像作成ステップの第
1の例を示す概念図である。図7に示すように、フレー
ムメモリ20に格納された複数のフレーム画像Fa、F
b、Fcから、上述した動き検出ステップにより判明し
た車両Ca、Cb、Ccの動き(動作特性)に基づい
て、車両の輪郭成分のみを抽出し、時系列的に配列する
ことにより軌跡画像が生成される。ここで生成される軌
跡画像は、従来技術において説明したフレーム画像の単
なる多重合成とは異なり、輪郭成分のみを合成するもの
であるので、車両の全体の動きを的確に表現する画像と
なる。さらに、中心画像設定ステップにおいて、中心画
像に設定されたフレーム画像(例えばFb)に含まれる
車両Cbの位置に基づいて、軌跡画像の加工処理を施
す。
(4) Trajectory Image Creation Step In this step, the trajectory image generation unit 32 expresses the trajectory representing the running state of the vehicle based on the plurality of frame images stored in the frame memory 20 and the central image. Generate an image. FIG. 7 is a conceptual diagram illustrating a first example of the trajectory image creation step. As shown in FIG. 7, a plurality of frame images Fa and F stored in the frame memory 20 are displayed.
A locus image is generated by extracting only contour components of the vehicle from b and Fc based on the motions (movement characteristics) of the vehicles Ca, Cb and Cc determined in the above-described motion detection step and arranging them in a time-series manner. Is done. The trajectory image generated here is different from the mere multiple synthesis of the frame images described in the related art, in that only the outline component is synthesized, so that the trajectory image accurately represents the entire movement of the vehicle. Further, in the center image setting step, processing of a locus image is performed based on the position of the vehicle Cb included in the frame image (for example, Fb) set as the center image.

【0031】具体的には、中心画像Fbに含まれる車両
Cbの画像(被写体像)を構成する輪郭成分(以下、基
準輪郭成分という。)の輝度、彩度等を基準値として、
軌跡画像を構成する複数の輪郭成分のうち、基準輪郭成
分の近傍に位置するものの輝度、彩度を基準値に近似さ
せ、離間するにしたがって、その輝度、彩度を低減させ
て、いわゆるかすれが生じた状態に調整する。このと
き、加工処理は、車両Cbの進行方向の反対側(後方
側;図面左側)に位置する軌跡画像を構成する輪郭成分
のみを対象とし、進行方向側(前方側;図面右側)に位
置する輪郭成分は削除する。すなわち、中心画像よりも
過去に属するフレーム画像の輪郭成分を用いて画像加工
を行うことにより軌跡画像Laが作成される。以上の軌
跡画像の作成処理を「第1の軌跡画像作成処理」と呼ぶ
ものとする。
More specifically, the brightness, saturation, and the like of a contour component (hereinafter, referred to as a reference contour component) constituting an image (subject image) of the vehicle Cb included in the center image Fb are defined as reference values.
Of the plurality of contour components constituting the trajectory image, the brightness and saturation of those located near the reference contour component are approximated to the reference value, and as the distance increases, the brightness and saturation are reduced, and so-called blur is reduced. Adjust to the state that occurred. At this time, the processing is performed on only the contour components constituting the trajectory image located on the opposite side (rear side; left side in the drawing) of the traveling direction of the vehicle Cb, and is located on the traveling direction side (front side; right side in the drawing). The contour component is deleted. That is, the locus image La is created by performing image processing using the contour components of the frame image belonging to the past than the center image. The above-described trajectory image creation processing is referred to as “first trajectory image creation processing”.

【0032】また、他の手法として、上述した輪郭成分
の多重合成処理に加え、被写体の動作方向や動作状態を
表現する特有の画像要素、例えば被写体の動作方向に延
伸する線成分を生成、配置する処理を加え、図7に示す
ように、軌跡画像Lbを作成するものであってもよい。
以上の軌跡画像の作成処理を「第2の軌跡画像作成処
理」と呼ぶものとする。なお、上述した軌跡画像の加工
処理においては、フレーム画像に含まれる被写体の輪郭
成分を抽出、多重合成し、さらに中心画像に含まれる被
写体の位置に基づいて各輪郭成分の加工処理を施す手法
について説明したが、軌跡画像を構成する輪郭成分によ
り形成される領域全体をグラデーション処理するように
中心画像を加工するものであってもよい。この場合、M
PU30内に中心画像を加工処理する機能部(画像加工
手段)を設け、基準輪郭成分側の領域濃度を基準とし
て、被写体から離間した領域に行くほど濃度を淡くして
かすれさせるようにする。より具体的な実施形態は、合
成又は加工処理された画像を見る者に被写体の動作状態
を的確に認識させることができるものであれば、上述し
た例に限定されるものではない。
As another method, in addition to the above-described multiple composition processing of the contour components, a specific image element expressing the motion direction and the motion state of the subject, for example, a line component extending in the motion direction of the subject is generated and arranged. 7, a locus image Lb may be created as shown in FIG.
The above-described trajectory image creation processing is referred to as “second trajectory image creation processing”. In the above-described processing of the trajectory image, a method of extracting, multiplex-synthesizing, the contour components of the subject included in the frame image, and further performing the processing of each contour component based on the position of the subject included in the center image is described. As described above, the center image may be processed so that the entire area formed by the contour components constituting the trajectory image is subjected to gradation processing. In this case, M
A functional unit (image processing means) for processing the central image is provided in the PU 30, and the density becomes lighter as the distance from the subject is increased, based on the density of the area on the reference contour component side. A more specific embodiment is not limited to the above-described example as long as it allows a viewer of a combined or processed image to accurately recognize the operation state of a subject.

【0033】次に、軌跡画像作成ステップの第2の例に
ついて説明する。上述した第1の例においては、抽出さ
れたフレーム画像に含まれる車両が固定された背景に対
して走行する状態を撮影した動画データであることを前
提に説明したが、カメラワーク等によっては、走行する
車両をフレーム画像の一定位置に固定した動画データの
場合がある。このような場合の軌跡画像の作成処理につ
いて説明する。図8は、軌跡画像作成ステップの第2の
例を示す概念図である。図8に示すように、動画データ
から抽出され、フレームメモリ20に格納された複数の
フレーム画像Fi、Fj、Fkから、上述した動き検出
ステップにより判明した背景の動きに基づいて、背景成
分Gi、Gj、Gkのみを抽出する。この背景成分G
i、Gj、Gkは、動き検出ステップにおいて、動きが
検出されなかった被写体(車両Ci、Cj、Ck)成分
をフレーム画像Fi、Fj、Fkから削除することによ
り容易に生成される。そして、抽出された背景成分G
i、Gj、Gkを時系列的に配列して軌跡画像を生成
し、さらに、中心画像設定ステップにおいて、中心画像
に設定されたフレーム画像(例えばFk)に含まれる背
景成分(以下、基準背景成分という。)Gkに基づい
て、軌跡画像の加工処理を施す。
Next, a second example of the trajectory image creation step will be described. In the above-described first example, the description has been given on the assumption that the moving image data is obtained by capturing a state in which the vehicle included in the extracted frame image travels with respect to the fixed background. There is a case where the moving vehicle is moving image data in which the moving vehicle is fixed at a fixed position in the frame image. A process of creating a locus image in such a case will be described. FIG. 8 is a conceptual diagram illustrating a second example of the trajectory image creation step. As shown in FIG. 8, from a plurality of frame images Fi, Fj, and Fk extracted from the moving image data and stored in the frame memory 20, the background components Gi, Only Gj and Gk are extracted. This background component G
i, Gj, and Gk are easily generated by deleting, from the frame images Fi, Fj, and Fk, the subject (vehicles Ci, Cj, and Ck) components whose motion has not been detected in the motion detection step. Then, the extracted background component G
i, Gj, and Gk are arranged in time series to generate a trajectory image. Further, in a center image setting step, a background component (hereinafter referred to as a reference background component) included in a frame image (for example, Fk) set as the center image The processing of the locus image is performed based on Gk.

【0034】具体的には、基準背景成分Gkの輝度、彩
度等を最もかすれの度合いが大きい表現となるように加
工して、軌跡画像を構成する複数の背景成分のうち、基
準背景成分Gkの近傍に位置するものを基準値に近似さ
せてかすれ加工を施し、離間するにしたがって、背景成
分本来の輝度、彩度となるように調整することにより軌
跡画像Lcが作成される。なお、軌跡画像の作成処理
は、上述した第1の例と同様に、背景成分の合成、加工
処理のみならず、背景成分の移動(流れ)状態を表現す
る線成分等の追加処理やグラデーション処理を、単独あ
るいは組み合わせて利用するものであってもよい。
More specifically, the luminance, the saturation, and the like of the reference background component Gk are processed so as to represent the largest degree of blur, and the reference background component Gk of the plurality of background components constituting the trajectory image is processed. The locus image Lc is created by approximating the object located in the vicinity of the reference value with the reference value and performing a blurring process so that the luminance and the saturation of the background component are adjusted as the distance increases. Note that, similarly to the first example described above, the trajectory image creation processing includes not only the synthesis and processing of the background component, but also the addition processing of the line component expressing the moving (flowing) state of the background component and the gradation processing. May be used alone or in combination.

【0035】(5)画像合成ステップ 本ステップは、画像合成部34により、中心画像と軌跡
画像とを合成処理して、車両の走行状態を表現する静止
画を生成し、モニタ50やプリンタ60を介して表示出
力する。図9及び図10は、画像合成ステップの第1の
例を示す概念図である。ここで、図9は、上述した第1
の軌跡画像作成処理により作成された軌跡画像Laと、
中心画像とを合成処理する場合を示す概念図であり、ま
た、図10は、上述した第2の軌跡画像作成処理により
作成された軌跡画像Lbと、中心画像とを合成処理する
場合を示す概念図である。
(5) Image Synthesizing Step In this step, the image synthesizing unit 34 synthesizes the center image and the trajectory image to generate a still image expressing the running state of the vehicle. Display output via 9 and 10 are conceptual diagrams showing a first example of the image synthesizing step. Here, FIG.
Locus image La created by the locus image creation process of
FIG. 10 is a conceptual diagram illustrating a case where the center image is combined with the center image. FIG. 10 is a conceptual diagram illustrating a case where the center image is combined with the track image Lb created by the above-described second track image creation processing. FIG.

【0036】図9及び図10に示すように、中心画像設
定ステップにより中心画像に設定されたフレーム画像F
bと、軌跡画像作成ステップにより作成された軌跡画像
La、Lbとを合成処理することにより、車両Cbの走
行状態を表現した軌跡画像La、Lbが合成された静止
画像ED1、ED2が得られる。すなわち、中心画像F
bは動画データを構成する一連のフレーム画像のうちの
特定の一枚にすぎないが、軌跡画像La、Lbには中心
画像Fbに含まれる車両Cbの位置を基準として輪郭成
分や領域の加工処理が施されているため、両者を合成処
理することにより車両Cbの走行軌跡が一つのフレーム
画像Fb内で表現されることになる。そして、合成処理
された静止画像ED1、ED2は、バス80を介してモ
ニタ50やプリンタ60に転送され表示出力される。
As shown in FIGS. 9 and 10, the frame image F set as the center image in the center image setting step
b and the trajectory images La and Lb created by the trajectory image creation step are synthesized to obtain the still images ED1 and ED2 in which the trajectory images La and Lb expressing the traveling state of the vehicle Cb are synthesized. That is, the center image F
b is only a specific one of a series of frame images constituting the moving image data. However, in the track images La and Lb, the contour component and the region are processed based on the position of the vehicle Cb included in the center image Fb. Is performed, the traveling trajectory of the vehicle Cb is represented in one frame image Fb by combining the two. Then, the synthesized still images ED1 and ED2 are transferred to the monitor 50 or the printer 60 via the bus 80 and displayed and output.

【0037】図11は、画像合成ステップの第2の例を
示す概念図であり、図8に示した軌跡画像作成処理によ
り作成した軌跡画像Lcと、車両Ckの画像を合成処理
する場合を示している。図11に示すように、中心画像
設定ステップにより中心画像に設定されたフレーム画像
Fkに含まれる車両Ckの画像成分と、軌跡画像作成ス
テップにより作成された軌跡画像Lcとを多重合成する
ことにより、車両Ckの走行状態を背景の流れで表現し
た静止画像ED3が得られる。すなわち、上述した第1
の例と同様に、中心画像Fkは動画データを構成する一
連のフレーム画像のうちの特定の一枚にすぎないが、軌
跡画像Lcには中心画像Fkに含まれる背景成分Gkを
基準として輪郭や領域の加工処理が施されているため、
両者を合成処理することにより一のフレーム画像Fk内
で車両Ckの走行状態が背景の流れにより表現される。
以上の一連のステップを有する本実施形態によれば、動
画データ中の被写体の一連の動きを検出して被写体の位
置や動きに応じた軌跡画像を作成し、中心画像と合成処
理することにより、被写体の動きが的確に表現された静
止画像を作成することができる。したがって、1枚の静
止画像で動体の動きを直感的に把握することができるた
め、動画データのインデックス等に有効に利用すること
ができる。
FIG. 11 is a conceptual diagram showing a second example of the image synthesizing step, and shows a case where the locus image Lc created by the locus image creating process shown in FIG. 8 and the image of the vehicle Ck are synthesized. ing. As shown in FIG. 11, the image component of the vehicle Ck included in the frame image Fk set in the center image in the center image setting step and the trajectory image Lc created in the trajectory image creation step are multiplexed and synthesized. A still image ED3 representing the running state of the vehicle Ck in the background flow is obtained. That is, the first
Similarly, the center image Fk is only a specific one of a series of frame images constituting the moving image data, but the trajectory image Lc has an outline or a contour based on the background component Gk included in the center image Fk. Since the area has been processed,
By combining the two, the traveling state of the vehicle Ck is represented by a background flow in one frame image Fk.
According to the present embodiment having the above series of steps, by detecting a series of movements of the subject in the moving image data, creating a trajectory image corresponding to the position and movement of the subject, and performing synthesis processing with the center image, A still image in which the movement of the subject is accurately represented can be created. Therefore, since the motion of the moving object can be intuitively grasped with one still image, it can be effectively used as an index of moving image data.

【0038】<第2の実施形態>次に、本発明に係る画
像処理装置の第2の実施形態について、図面を参照して
説明する。本実施形態は、上述した第1の実施形態にお
いて、動き検出部31により検出された被写体の動き
(動作特性)を分析して、例えば車両の走行速度に応じ
て軌跡画像の作成方法を変更するようにしたものであ
る。すなわち、図1に示した画像処理装置において、軌
跡画像生成部32は、動き検出部31により検出された
被写体の動作速度や動作方向等の検出結果を分析して、
軌跡画像の作成処理を変更する制御機能を有している。
具体的には、図9に示したように、第1の軌跡画像作成
処理により作成された軌跡画像Laを中心画像Fbに合
成処理した静止画像ED1においては、車両Cbの動き
が比較的遅く認識されるように表現され、一方、図10
に示したように、第2の軌跡画像作成処理により作成さ
れた軌跡画像Lbを中心画像Fbに合成処理した静止画
像ED2においては、車両Cbの動きが比較的速く認識
されるように表現される。したがって、このような特徴
に基づいて、動き検出部31により検出された被写体の
動作速度を、例えば所定のしきい値との比較により低速
動作であるか、あるいは、高速動作であるか判別して第
1及び第2の軌跡画像作成処理を適宜切り替える。
<Second Embodiment> Next, a second embodiment of the image processing apparatus according to the present invention will be described with reference to the drawings. In the present embodiment, in the first embodiment described above, the motion (movement characteristics) of the subject detected by the motion detection unit 31 is analyzed, and the method of creating the locus image is changed according to, for example, the traveling speed of the vehicle. It is like that. That is, in the image processing apparatus illustrated in FIG. 1, the trajectory image generation unit 32 analyzes the detection result such as the operation speed and the operation direction of the subject detected by the motion detection unit 31,
It has a control function for changing the creation processing of the trajectory image.
Specifically, as shown in FIG. 9, in the still image ED1 in which the locus image La created by the first locus image creation process is synthesized with the center image Fb, the movement of the vehicle Cb is recognized to be relatively slow. While FIG.
As shown in the above, in the still image ED2 obtained by synthesizing the locus image Lb created by the second locus image creating process with the center image Fb, the motion of the vehicle Cb is expressed so as to be recognized relatively quickly. . Therefore, based on such characteristics, the operation speed of the subject detected by the motion detection unit 31 is determined, for example, by comparing it with a predetermined threshold value to determine whether the operation is a low-speed operation or a high-speed operation. The first and second trajectory image creation processes are appropriately switched.

【0039】ここで、被写体の動作速度と軌跡との関係
について説明すると、被写体が低速で動作している場合
には、動体の輪郭が比較的はっきりと把握されるとい
う、人間の視覚(網膜)特性に対応させて各フレーム画
像に含まれる被写体(動体)の輪郭をぼかすことなくフ
レーム画像数分、多重合成することにより、低速動作状
態を表現することができ、被写体の動きを適切に認識さ
せることができる。なお、本発明においては、このよう
な輪郭成分の多重合成に加え、中心画像に含まれる被写
体近傍の輪郭の輝度や彩度を中心画像のものに近似させ
て線分や色彩をはっきり表示するように処理し、被写体
から遠い輪郭では、線分や色彩をかすれさせるように処
理して、被写体の動きをよりリアルに表現する加工処理
が施される。これに対して、被写体が高速で動作する場
合には、動体の輪郭が極めて曖昧に把握されるという、
人間の視覚特性に対応させて各フレーム画像に含まれる
被写体の輪郭を相互にぼかすことにより、高速動作状態
を表現することができ、被写体の動きを適切に認識させ
ることができる。
Here, the relationship between the moving speed of the subject and the trajectory will be described. When the subject is moving at a low speed, the outline of the moving object is relatively clearly grasped. The low-speed operation state can be expressed by performing multiple synthesis for the number of frame images without blurring the outline of the subject (moving object) included in each frame image in accordance with the characteristics, so that the motion of the subject can be appropriately recognized. be able to. In the present invention, in addition to such multiple synthesis of the contour components, the brightness and saturation of the contour near the subject included in the center image are approximated to those of the center image so that the line segments and colors are clearly displayed. In a contour far from the subject, processing is performed to blur the line segments and colors, and a processing process for expressing the movement of the subject in a more realistic manner is performed. On the other hand, when the subject moves at a high speed, the outline of the moving object is extremely vaguely grasped.
By blurring the outline of the subject included in each frame image mutually according to the human visual characteristics, a high-speed operation state can be expressed, and the movement of the subject can be appropriately recognized.

【0040】以下、本実施形態の処理動作について、図
12のフローチャートを参照して説明する。上述した第
1の実施形態と同等のステップについては、その説明を
簡略化する。図12に示すように、ステップS201、
S202において、動画データから所定の時間間隔で複
数のフレーム画像を選択、抽出し、圧縮符号化処理を施
してフレームメモリ20の所定の格納領域に格納する。
次いで、ステップ203において、フレームメモリ20
に格納された複数のフレーム画像の中から中心画像を設
定し、ステップS204において、上述したブロックマ
ッチング法等を適用して、複数のフレーム画像に含まれ
る被写体(動体)を検出するとともに、被写体の動作速
度や方向等の動作特性を算出する。そして、ステップS
205〜S207において、算出された動作速度と予め
設定されたしきい値速度とを比較し、算出された動作速
度がしきい値よりも小さい場合には、被写体を低速の動
体であると判断して、上述した第1の軌跡画像作成処理
を選択し、軌跡画像を構成する輪郭成分が比較的はっき
りと表現するように加工処理を施す。一方、算出された
動作速度がしきい値よりも大きい場合には、被写体を高
速の動体であると判断して、上述した第2の軌跡画像作
成処理を選択し、輪郭成分の多重合成に加え、動作方向
等を表現する線成分等を重ね合わせる加工処理を施す。
次いで、ステップ208、209において、中心画像と
上記軌跡画像を合成処理して1枚の静止画像とし、モニ
タ50やプリンタ60を介して表示出力する。
Hereinafter, the processing operation of this embodiment will be described with reference to the flowchart of FIG. Steps equivalent to those in the above-described first embodiment will be simplified. As shown in FIG. 12, step S201,
In S202, a plurality of frame images are selected and extracted from the moving image data at predetermined time intervals, compression-encoded, and stored in a predetermined storage area of the frame memory 20.
Next, in step 203, the frame memory 20
In step S204, a subject (moving object) included in the plurality of frame images is detected by applying the above-described block matching method or the like, and the Calculate motion characteristics such as motion speed and direction. And step S
In steps S205 to S207, the calculated operation speed is compared with a preset threshold speed. If the calculated operation speed is lower than the threshold value, it is determined that the subject is a low-speed moving object. Then, the above-described first trajectory image creation processing is selected, and processing is performed so that the contour components constituting the trajectory image are expressed relatively clearly. On the other hand, if the calculated operation speed is higher than the threshold value, it is determined that the subject is a high-speed moving object, and the above-described second trajectory image creation processing is selected, and in addition to the multiple synthesis of the contour components, , A processing for superimposing a line component or the like expressing a motion direction or the like is performed.
Next, in Steps 208 and 209, the central image and the above-mentioned trajectory image are combined to form one still image, which is displayed and output via the monitor 50 and the printer 60.

【0041】以上の一連のステップを有する本実施形態
によれば、検出された被写体の一連の動き、特に動作速
度(移動速度)に基づいて、軌跡画像の作成方法を変更
して動作速度に対応した軌跡画像を作成する軌跡画像作
成処理を実行することができるため、被写体の動きを直
感的に認識することができる静止画像を作成することが
できる。なお、本実施形態においては、被写体の動作速
度に応じて選択される処理方法として、第1及び第2の
軌跡画像作成処理を用いる場合を示したが、上述したグ
ラデーション処理を用いる方法や、図8及び図11に示
した背景成分を加工処理する方法に変更するものであっ
ても構わない。要するに、合成処理された静止画像を見
る者に、被写体の動作状態を的確に認識させるものであ
れば上記以外の方法であってもよい。また、被写体の動
作速度の判別処理として、予め設定された一つのしきい
値との比較処理を行う場合について説明したが、複数の
しきい値による多段階の判別であってもよいし、動作速
度をそのまま利用して輝度や彩度に重み付けを行うもの
であってもよい。
According to the present embodiment having the above-described series of steps, the method of creating the locus image is changed based on the detected series of movements of the subject, particularly, the operation speed (movement speed), so as to correspond to the operation speed. Since the trajectory image creation processing for creating the trajectory image can be executed, a still image that can intuitively recognize the movement of the subject can be created. In the present embodiment, the case where the first and second trajectory image creation processes are used as the processing method selected according to the operation speed of the subject has been described. The method of processing the background component shown in FIGS. 8 and 11 may be changed. In short, any method other than the above may be used as long as it allows a viewer of the synthesized still image to accurately recognize the operation state of the subject. Also, as the processing for determining the operation speed of the subject, a case has been described where comparison processing is performed with one preset threshold value. However, multi-step determination using a plurality of threshold values may be performed, The brightness and the saturation may be weighted using the speed as it is.

【0042】<第3の実施形態>次に、本発明に係る画
像処理装置の第3の実施形態について、図面を参照して
説明する。本実施形態は、中心画像設定ステップにおけ
る中心画像の選択、設定処理を入力部70等から入力さ
れる命令にしたがって設定変更するようにしたものであ
る。すなわち、図1に示した画像処理装置において、中
心画像設定部33は、入力部70から、あるいは、図示
を省略した通信回線等を介して入力される中心画像選択
命令にしたがって、フレームメモリ20に格納された複
数のフレーム画像の中から任意のフレーム画像を抽出
し、中心画像に設定する機能を有している。具体的に
は、フレームメモリ20に格納された複数のフレーム画
像をモニタ50やプリンタ60を介して表示出力し、中
心画像に選択するフレーム画像を特定する命令の入力を
画像処理装置の利用者に促す。利用者は、表示出力され
たフレーム画像を閲覧し、その中から任意のフレーム画
像を選択し、キースイッチやキーボード等の入力部70
を介して中心画像選択命令を入力し、フレームメモリ2
0の当該画像の情報テーブル領域に中心画像であること
を示すヘッダー情報を付加する。
<Third Embodiment> Next, a third embodiment of the image processing apparatus according to the present invention will be described with reference to the drawings. In the present embodiment, selection and setting processing of the center image in the center image setting step is changed according to a command input from the input unit 70 or the like. That is, in the image processing apparatus shown in FIG. 1, the central image setting unit 33 sends the central image setting unit 33 to the frame memory 20 in accordance with the central image selection command input from the input unit 70 or via a communication line or the like (not shown). It has a function of extracting an arbitrary frame image from a plurality of stored frame images and setting it as a center image. Specifically, a plurality of frame images stored in the frame memory 20 are displayed and output via the monitor 50 or the printer 60, and an instruction for specifying a frame image to be selected as the center image is input to the user of the image processing apparatus. Prompt. The user browses the displayed and output frame images, selects an arbitrary frame image from the displayed frame images, and selects an input unit 70 such as a key switch or a keyboard.
The center image selection command is input via the
0 is added to the information table area of the image to indicate that the image is the center image.

【0043】したがって、利用者は、例えば被写体の動
作状態を表現するために最も適当と思われるフレーム画
像や、特殊効果を奏するために最も適当と思われるフレ
ーム画像を、入力部70等から入力して、容易に中心画
像として設定することができる。以下、本実施形態の処
理動作について、図13のフローチャートを参照して説
明する。上述した第1又は第2の実施形態と同等のステ
ップについては、その説明を簡略化する。
Therefore, the user inputs, for example, a frame image that seems to be most appropriate for expressing the operation state of the subject or a frame image that is most appropriate for producing a special effect from the input unit 70 or the like. Thus, it can be easily set as the center image. Hereinafter, the processing operation of the present embodiment will be described with reference to the flowchart of FIG. Steps equivalent to those in the above-described first or second embodiment will be simplified.

【0044】図13に示すように、ステップS301、
S302において、動画データから所定の時間間隔で複
数のフレーム画像を選択、抽出し、圧縮符号化処理を施
してフレームメモリ20の所定の格納領域に格納する。
次いで、ステップ303において、フレームメモリ20
に格納された複数のフレーム画像の全て、あるいは一部
をモニタ50やプリンタ60等を介して表示出力し、利
用者に中心画像に設定するフレーム画像の選択及び命令
入力を促す。ここで、モニタ50やプリンタ60による
フレーム画像の表示出力方法は、フレーム画像を時系列
的に順次出力するものであってもよいし、分割画面に複
数のフレーム画像を一括して出力するものであってもよ
い。また、表示出力されるフレーム画像は、フレームメ
モリ20に格納された全てのフレーム画像であってもよ
いし、一部のフレーム画像であっても構わない。すなわ
ち、図5において抽出したフレーム画像Fa、Fb、F
cにおいて、これら全てのフレーム画像を表示出力する
ものであってもよいし、奇数番目に位置する一部のフレ
ーム画像Fa、Fcのみを表示出力するものであっても
よい。要するに、画像合成処理において中心画像として
利用することができるフレーム画像を表示出力するもの
であればよい。
As shown in FIG. 13, step S301,
In S302, a plurality of frame images are selected and extracted from the moving image data at predetermined time intervals, subjected to compression encoding processing, and stored in a predetermined storage area of the frame memory 20.
Next, in step 303, the frame memory 20
All or a part of the plurality of frame images stored in the printer are displayed and output via the monitor 50, the printer 60, or the like, and the user is prompted to select a frame image to be set as the center image and to input a command. Here, the display output method of the frame images by the monitor 50 and the printer 60 may be a method of sequentially outputting the frame images in time series, or a method of outputting a plurality of frame images collectively on the divided screen. There may be. Further, the frame images to be displayed and output may be all the frame images stored in the frame memory 20, or may be some frame images. That is, the frame images Fa, Fb, F extracted in FIG.
In c, all the frame images may be displayed and output, or only some of the odd-numbered frame images Fa and Fc may be displayed and output. In short, what is necessary is just to display and output a frame image that can be used as a center image in the image synthesis processing.

【0045】次いで、ステップS304において、利用
者により選択、指示されたフレーム画像を中心画像とな
るようにヘッダー情報を設定する。さらに、ステップS
305において、上述したブロックマッチング法等を適
用して、複数のフレーム画像に含まれる被写体(動体)
を検出するとともに、被写体の動作状態を出力する。そ
して、ステップS306において、被写体の動作状態及
び中心画像に基づいて、所定の軌跡画像を生成し、ステ
ップS307、308において、中心画像と上記軌跡画
像を合成処理して1枚の静止画像とし、モニタ50やプ
リンタ60を介して表示出力する。以上の一連のステッ
プを有する本実施形態によれば、複数のフレーム画像の
中から中心画像を一義的に選択、設定するのではなく、
表示出力されたフレーム画像を利用者が閲覧して任意の
フレーム画像を指示設定することができるため、被写体
の動きを的確に表現しつつ、より多様な画像表現を実現
することができる。なお、軌跡画像作成ステップは、第
1の実施形態に示した手法に限らず、第2の実施形態に
示したように、被写体の動作特性に応じて適宜処理方法
を変更するものであってもよい。
Next, in step S304, header information is set so that the frame image selected and designated by the user becomes the center image. Further, step S
In 305, a subject (moving object) included in a plurality of frame images by applying the above-described block matching method or the like.
And outputs the operation state of the subject. In step S306, a predetermined trajectory image is generated based on the motion state of the subject and the central image. In steps S307 and 308, the central image and the trajectory image are combined to form one still image, and The display is output via the printer 50 or the printer 60. According to the present embodiment having the above series of steps, instead of uniquely selecting and setting the center image from a plurality of frame images,
Since the user can browse and display and output the frame image and designate and set an arbitrary frame image, it is possible to realize more various image expressions while accurately expressing the movement of the subject. Note that the trajectory image creation step is not limited to the method described in the first embodiment, and may be a method in which the processing method is appropriately changed according to the motion characteristics of the subject as described in the second embodiment. Good.

【0046】<第4の実施形態>次に、本発明に係る画
像処理装置の第4の実施形態について、図面を参照して
説明する。本実施形態は、上述した第2の実施形態にお
ける軌跡画像作成処理の変更を、被写体の動作特性に基
づいて制御するのではなく、画像処理装置の利用者の意
志により入力部70等を介して任意に設定することがで
きるようにしたものである。すなわち、図1に示した画
像処理装置において、軌跡画像生成部32は、入力部7
0から、あるいは、図示を省略した通信回線等を介して
入力される軌跡画像作成処理選択命令にしたがって、軌
跡画像の作成方法を任意に選択する機能を有している。
選択の対象となる軌跡画像の作成処理は、被写体の動作
特性に応じた軌跡画像の作成処理、すなわち、上述した
第1及び第2の軌跡画像作成処理や、グラデーション処
理、背景成分の加工処理のほかに、中心画像に含まれる
被写体を強調したり、特徴付ける特殊な軌跡画像の作成
処理を任意に選択することもできる。
<Fourth Embodiment> Next, a fourth embodiment of the image processing apparatus according to the present invention will be described with reference to the drawings. In the present embodiment, the change of the trajectory image creation processing in the above-described second embodiment is not controlled based on the motion characteristics of the subject, but is performed by the user of the image processing apparatus via the input unit 70 or the like. It can be set arbitrarily. That is, in the image processing apparatus shown in FIG.
It has a function of arbitrarily selecting a trajectory image creation method from 0 or according to a trajectory image creation processing selection command input via a communication line or the like (not shown).
The process of creating a trajectory image to be selected includes the process of creating a trajectory image according to the motion characteristics of the subject, that is, the first and second trajectory image creation processes, the gradation process, and the background component processing process. In addition, it is possible to arbitrarily select a process of creating a special trajectory image that emphasizes a subject included in the center image or characterizes the subject.

【0047】ここで、被写体を強調、あるいは、特徴付
ける特殊な軌跡画像の作成処理及び合成処理の例につい
て、図面を参照して説明する。図14は、特殊な軌跡画
像の作成処理の一例を示す概念図であり、図15は、特
殊な軌跡画像と中心画像との合成処理の一例を示す概念
図である。図14に示すように、フレームメモリ20に
格納された複数のフレーム画像Fa〜Feから、動き検
出ステップにより判明した車両Ca〜Ceの動きに基づ
いて、車両の輪郭成分のみを抽出し時系列的に配列(多
重合成)することにより、車両の全体の動きを表現する
軌跡画像が生成される。そして、中心画像に設定された
フレーム画像(例えばFc)に含まれる車両Ccの位置
及び輪郭成分に基づいて、車両Ccの前方及び後方に位
置する輪郭成分について、車両Ccから離間するにした
がってかすれが生じるように加工処理することにより軌
跡画像LQが作成される。
Here, an example of the processing of creating and synthesizing a special trajectory image that emphasizes or characterizes a subject will be described with reference to the drawings. FIG. 14 is a conceptual diagram illustrating an example of a special trajectory image creating process, and FIG. 15 is a conceptual diagram illustrating an example of a combining process of a special trajectory image and a center image. As shown in FIG. 14, only a contour component of the vehicle is extracted from a plurality of frame images Fa to Fe stored in the frame memory 20 based on the motion of the vehicles Ca to Ce determined in the motion detection step, and the time series is extracted. (Multiple composition), a trajectory image expressing the entire movement of the vehicle is generated. Then, based on the position and the contour component of the vehicle Cc included in the frame image (for example, Fc) set as the center image, the contour components located in front of and behind the vehicle Cc blur as the distance from the vehicle Cc increases. The locus image LQ is created by performing processing to generate the locus image.

【0048】次に、図15に示すように、中心画像に設
定されたフレーム画像Fcと特殊な軌跡画像LQとを合
成処理することにより、車両Ca〜Ceの全体の動作軌
跡の中で車両Ccを強調した特殊な静止画像EDQが得
られる。したがって、利用者は、キースイッチやキーボ
ード等の入力部70を介して、例えば特殊効果を奏する
ために最も適当と思われる軌跡画像の作成方法を入力設
定することにより、容易に所望の静止画像を作成するこ
とができる。以下、本実施形態の処理動作について、図
16のフローチャートを参照して説明する。上述した第
1乃至第3の実施形態と同等のステップについては、そ
の説明を簡略化する。
Next, as shown in FIG. 15, by combining the frame image Fc set as the center image and the special trajectory image LQ, the vehicle Cc in the entire motion trajectory of the vehicles Ca to Ce EDQ is obtained. Accordingly, the user can easily set a desired still image by inputting and setting, for example, a method of creating a trajectory image that is most suitable for producing a special effect via the input unit 70 such as a key switch or a keyboard. Can be created. Hereinafter, the processing operation of the present embodiment will be described with reference to the flowchart of FIG. Steps equivalent to those in the above-described first to third embodiments will be simplified.

【0049】図16に示すように、ステップS401、
S402において、動画データから所定の時間間隔で複
数のフレーム画像を選択、抽出し、圧縮符号化処理を施
してフレームメモリ20の所定の格納領域に格納する。
次いで、ステップ403において、フレームメモリ20
に格納された複数のフレーム画像の中から中心画像を設
定し、ステップS404において、上述したブロックマ
ッチング法等を適用して、複数のフレーム画像に含まれ
る被写体(動体)を検出するとともに、被写体の動作状
態を出力する。そして、ステップS405、S406に
おいて、利用者により選択設定された軌道画像作成方法
に基づいて、所定の軌跡画像を生成し、ステップ40
7、408において、中心画像と上記軌跡画像を合成処
理して1枚の静止画像とし、モニタ50やプリンタ60
を介して表示出力する。以上の一連のステップを有する
本実施形態によれば、利用者の意志により軌跡画像の作
成方法を任意に選択設定することができるため、被写体
の動作軌跡を利用して作成される特殊な軌跡画像を中心
画像に合成処理することにより、特殊効果を奏する静止
画像を容易に作成することができる。なお、本発明の画
像処理装置は、上述したビデオカメラや電子スチルカメ
ラ、パソコンのほか、ビデオプレーヤーやファクシミリ
装置、プリンタ等の画像処理機器に良好に適用すること
ができるものであることはいうまでもない。
As shown in FIG. 16, step S401,
In S402, a plurality of frame images are selected and extracted from the moving image data at predetermined time intervals, subjected to compression encoding processing, and stored in a predetermined storage area of the frame memory 20.
Next, at step 403, the frame memory 20
The center image is set from among the plurality of frame images stored in the image processing unit. In step S404, the subject (moving object) included in the plurality of frame images is detected by applying the above-described block matching method or the like. Outputs the operating status. Then, in steps S405 and S406, a predetermined trajectory image is generated based on the trajectory image creation method selected and set by the user.
In steps 7 and 408, the central image and the trajectory image are combined to form one still image, and the monitor 50 and the printer 60
Display output via. According to the present embodiment having the above series of steps, since the method of creating a locus image can be arbitrarily selected and set according to the user's will, a special locus image created using the motion locus of the subject Is synthesized with the center image, a still image exhibiting a special effect can be easily created. Note that the image processing apparatus of the present invention can be favorably applied to image processing apparatuses such as video players, facsimile apparatuses, and printers, in addition to the above-described video cameras, electronic still cameras, and personal computers. Nor.

【0050】[0050]

【発明の効果】請求項1、5、6、7又は8記載の発明
によれば、基準画像に設定されたフレーム画像に含まれ
る被写体を中心とし、かつ、被写体の動きに応じた軌跡
画像が生成されるため、動画情報として撮影された被写
体の動きを直感的に認識することができる静止画像を容
易に作成、出力することができる。特に、被写体の輪郭
成分を多重合成し、さらに、基準画像の被写体近傍の輪
郭成分を明確に表示し、被写体から離間するほどぼかし
やかすれが生じるように加工処理することにより、被写
体の動作状態を的確に反映した静止画像を作成し、テレ
ビモニタやパソコンのモニタ等に表示出力、あるいは、
プリンタ等により印刷出力することができる。したがっ
て、動画情報を簡易な手法で、かつ、多彩な表現形式に
より静止画像として表現することができるとともに、動
画情報のインデックス情報等の用途に有効に利用するこ
とができる。
According to the first, fifth, sixth, seventh or eighth aspect of the present invention, a trajectory image centered on the subject included in the frame image set as the reference image and corresponding to the motion of the subject is generated. Since it is generated, it is possible to easily create and output a still image that can intuitively recognize the movement of a subject captured as moving image information. In particular, the operation state of the subject is changed by multiplexing the contour components of the subject, further clearly displaying the contour components near the subject in the reference image, and performing processing so that the further away from the subject, the more blur or blur occurs. Creates a still image that accurately reflects and displays it on a TV monitor or PC monitor, or
It can be printed out by a printer or the like. Therefore, the moving image information can be expressed as a still image by a simple method and in various expression formats, and can be effectively used for purposes such as index information of the moving image information.

【0051】また、請求項2記載の発明によれば、動画
情報から抽出されたフレーム画像に含まれる被写体の動
作速度を検出し、その検出結果に応じて軌跡画像の生成
方法を変更することにより、被写体の動作速度に対応し
た軌跡画像を生成することができる。したがって、被写
体の動作速度によって軌跡画像により表現されるスピー
ド感が異なるため、作成された静止画像を見るだけで、
被写体の全体の動きとともに、その動作速度を直感的に
把握することができる。また、請求項3記載の発明によ
れば、基準画像となるフレーム画像を画像処理装置の使
用者の意志により、任意に選択、設定することができ、
その基準画像に含まれる被写体を中心とし、かつ、被写
体の動きに応じた軌跡画像が生成されるため、任意の位
置に配置された被写体を強調した静止画像を容易に作成
することができ、より多彩な表現形式により、被写体の
動きを的確に把握することができる。さらに、請求項4
記載の発明によれば、軌跡画像の生成方法を画像処理装
置の使用者の意志により、任意に選択、設定することが
できるため、より多彩な表現形式を実現することができ
るとともに、特殊効果を有する静止画像を容易に作成す
ることができる。特に、軌跡画像の生成方法として輪郭
成分のぼかし加工や、グラデーション処理、速さを表現
する特定画像の付加等を備えることにより、使用者が所
望する軌跡画像を生成することができる。
According to the second aspect of the present invention, the moving speed of the subject included in the frame image extracted from the moving image information is detected, and the method of generating the locus image is changed according to the detection result. Accordingly, it is possible to generate a locus image corresponding to the operation speed of the subject. Therefore, since the sense of speed expressed by the locus image differs depending on the operation speed of the subject, just by looking at the created still image,
It is possible to intuitively grasp the movement speed of the subject together with the entire movement. According to the third aspect of the present invention, a frame image serving as a reference image can be arbitrarily selected and set by a user of the image processing apparatus,
Since a locus image centered on the subject included in the reference image and according to the motion of the subject is generated, it is possible to easily create a still image emphasizing the subject located at an arbitrary position. The movement of the subject can be accurately grasped by various expression forms. Claim 4
According to the described invention, a method of generating a trajectory image can be arbitrarily selected and set according to the user's will of the image processing apparatus, so that a wider variety of expression forms can be realized and special effects can be achieved. Can be easily created. In particular, by providing, as a method of generating a locus image, blurring of a contour component, gradation processing, addition of a specific image expressing speed, and the like, a locus image desired by the user can be generated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る画像処理装置の第1の実施形態を
示すブロック図である。
FIG. 1 is a block diagram illustrating a first embodiment of an image processing apparatus according to the present invention.

【図2】動画データ取込部の概略構成を示すブロック図
である。
FIG. 2 is a block diagram illustrating a schematic configuration of a moving image data capturing unit.

【図3】フレームメモリの内部領域を示す概念図であ
る。
FIG. 3 is a conceptual diagram showing an internal area of a frame memory.

【図4】第1の実施形態に係る画像処理装置の処理動作
を示すフローチャートである。
FIG. 4 is a flowchart illustrating a processing operation of the image processing apparatus according to the first embodiment.

【図5】動画データ取込ステップを示す概念図である。FIG. 5 is a conceptual diagram showing a moving image data capturing step.

【図6】動き検出ステップに適用されるブロックマッチ
ング法を示す概念図である。
FIG. 6 is a conceptual diagram illustrating a block matching method applied to a motion detection step.

【図7】軌跡画像作成ステップの第1の例を示す概念図
である。
FIG. 7 is a conceptual diagram showing a first example of a trajectory image creation step.

【図8】軌跡画像作成ステップの第2の例を示す概念図
である。
FIG. 8 is a conceptual diagram showing a second example of the trajectory image creation step.

【図9】第1の軌跡画像作成処理により作成された軌跡
画像と、中心画像とを合成する場合を示す概念図であ
る。
FIG. 9 is a conceptual diagram showing a case where a locus image created by a first locus image creation process and a center image are combined.

【図10】第2の軌跡画像作成処理により作成された軌
跡画像と、中心画像とを合成する場合を示す概念図であ
る。
FIG. 10 is a conceptual diagram showing a case where a locus image created by a second locus image creating process and a center image are combined.

【図11】画像合成ステップの第2の例を示す概念図で
ある。
FIG. 11 is a conceptual diagram showing a second example of the image synthesizing step.

【図12】第2の実施形態に係る画像処理装置の処理動
作を示すフローチャートである。
FIG. 12 is a flowchart illustrating a processing operation of the image processing apparatus according to the second embodiment.

【図13】第3の実施形態に係る画像処理装置の処理動
作を示すフローチャートである。
FIG. 13 is a flowchart illustrating a processing operation of the image processing apparatus according to the third embodiment.

【図14】第4の実施形態に適用される特殊な軌跡画像
の作成処理の一例を示す概念図である。
FIG. 14 is a conceptual diagram showing an example of a special trajectory image creation process applied to the fourth embodiment.

【図15】第4の実施形態に適用される特殊な軌跡画像
と中心画像との合成処理の一例を示す概念図である。
FIG. 15 is a conceptual diagram illustrating an example of a process of combining a special trajectory image and a center image applied to the fourth embodiment.

【図16】第4の実施形態に係る画像処理装置の処理動
作を示すフローチャートである。
FIG. 16 is a flowchart illustrating a processing operation of the image processing apparatus according to the fourth embodiment.

【図17】動画情報を構成する複数のフレーム画像から
1枚を抽出し表示する手法の概念を示す図である。
FIG. 17 is a diagram showing a concept of a method of extracting and displaying one image from a plurality of frame images constituting moving image information.

【図18】動画情報を構成する複数のフレーム画像から
複数枚を抽出して分割画面に一括表示する手法の概念を
示す図である。
FIG. 18 is a diagram showing the concept of a method of extracting a plurality of frames from a plurality of frame images constituting moving image information and displaying them collectively on a divided screen.

【図19】動画情報を静止画像として表現する従来の手
法を示す概念図である。
FIG. 19 is a conceptual diagram showing a conventional method of expressing moving image information as a still image.

【符号の説明】[Explanation of symbols]

10 動画データ取込部(画像情報取込手段) 20 フレームメモリ(記憶手段) 30 MPU 31 動き検出部(動き検出手段) 32 軌跡画像生成部(軌跡画像生成手段) 33 中心画像設定部(基準画像設定手段) 34 画像合成部(画像合成手段) 40 ハードディスク 50 モニタ(画像出力手段) 60 プリンタ(画像出力手段) 70 入力部(基準画像選択手段、軌跡画像選択手
段) 80 バス
Reference Signs List 10 moving image data capturing section (image information capturing means) 20 frame memory (storage means) 30 MPU 31 motion detecting section (motion detecting means) 32 track image generating section (track image generating section) 33 central image setting section (reference image) Setting means) 34 image combining section (image combining means) 40 hard disk 50 monitor (image output means) 60 printer (image output means) 70 input section (reference image selecting means, locus image selecting means) 80 bus

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G09G 5/00 530 G06F 15/66 450 Fターム(参考) 5B050 EA06 EA19 FA02 FA03 5B057 CC03 CE08 DA16 DC16 5C080 BB05 DD01 DD21 EE19 EE29 EE32 JJ01 JJ02 JJ05 JJ07 5C082 AA27 BA20 BA41 BB15 BB26 CA55 CB01 CB06 DA26 MM05Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat II (reference) G09G 5/00 530 G06F 15/66 450 F term (reference) 5B050 EA06 EA19 FA02 FA03 5B057 CC03 CE08 DA16 DC16 5C080 BB05 DD01 DD21 EE19 EE29 EE32 JJ01 JJ02 JJ05 JJ07 5C082 AA27 BA20 BA41 BB15 BB26 CA55 CB01 CB06 DA26 MM05

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 動画情報から複数のフレーム画像を抽出
し、記憶手段に記憶する画像情報取込手段と、 前記記憶手段に記憶された前記複数のフレーム画像から
特定のフレーム画像を選択し、基準画像として設定する
基準画像設定手段と、 前記記憶手段に記憶された前記複数のフレーム画像の各
々に含まれる被写体の動きを検出する動き検出手段と、 前記動き検出手段により検出された前記被写体の動きに
基づいて、前記被写体の動作軌跡を表現する軌跡画像を
生成する軌跡画像生成手段と、 前記基準画像と前記軌跡画像とを合成して、軌跡合成画
像を生成する画像合成手段と、を備えたことを特徴とす
る画像処理装置。
An image information capturing unit for extracting a plurality of frame images from moving image information and storing the extracted frame images in a storage unit; selecting a specific frame image from the plurality of frame images stored in the storage unit; Reference image setting means for setting as an image; movement detecting means for detecting movement of a subject included in each of the plurality of frame images stored in the storage means; movement of the subject detected by the movement detecting means A trajectory image generating means for generating a trajectory image representing the motion trajectory of the subject, and an image synthesizing means for generating a trajectory composite image by synthesizing the reference image and the trajectory image. An image processing apparatus characterized by the above-mentioned.
【請求項2】 前記動き検出手段は、少なくとも前記被
写体の動作速度を検出し、 前記軌跡画像生成手段は、異なる軌跡画像を生成する複
数の軌跡画像生成方法を備え、前記動作速度に基づい
て、前記軌跡画像の生成方法を変更することを特徴とす
る請求項1記載の画像処理装置。
2. The motion detection unit detects at least an operation speed of the subject, and the trajectory image generation unit includes a plurality of trajectory image generation methods for generating different trajectory images, based on the operation speed. The image processing apparatus according to claim 1, wherein a method of generating the trajectory image is changed.
【請求項3】 前記記憶手段に記憶された前記複数のフ
レーム画像から任意のフレーム画像を選択する基準画像
選択手段を有し、 前記基準画像設定手段は、前記画像選択手段により選択
された前記フレーム画像を前記基準画像として設定する
ことを特徴とする請求項1又は2記載の画像処理装置。
3. The image processing apparatus according to claim 1, further comprising: a reference image selecting unit configured to select an arbitrary frame image from the plurality of frame images stored in the storage unit. The image processing apparatus according to claim 1, wherein an image is set as the reference image.
【請求項4】 前記軌跡画像生成手段は、異なる軌跡画
像を生成する複数の軌跡画像生成方法を備え、さらに、 前記複数の軌跡画像生成方法から任意の生成方法を選択
する軌跡画像選択手段を有していることを特徴とする請
求項1又は3記載の画像処理装置。
4. The trajectory image generation means includes a plurality of trajectory image generation methods for generating different trajectory images, and further includes a trajectory image selection means for selecting an arbitrary generation method from the plurality of trajectory image generation methods. The image processing apparatus according to claim 1, wherein the image processing is performed.
【請求項5】 前記画像合成手段により生成された前記
軌跡合成画像を表示出力する画像出力手段を有している
ことを特徴とする請求項1、2、3又は4記載の画像処
理装置。
5. The image processing apparatus according to claim 1, further comprising an image output unit configured to display and output the trajectory synthesized image generated by the image synthesis unit.
【請求項6】 複数のフレーム画像からなる動画情報を
記憶する記憶手段と、 前記記憶手段に記憶された前記複数のフレーム画像から
特定のフレーム画像を選択し、基準画像として設定する
基準画像設定手段と、 前記記憶手段に記憶された前記複数のフレーム画像を用
いて、該複数のフレーム画像の各々に含まれる被写体の
動作軌跡を表現する軌跡画像を生成する軌跡画像生成手
段と、 前記基準画像と前記軌跡画像とを合成して、軌跡合成画
像を生成する画像合成手段と、を備えたことを特徴とす
る画像処理装置。
6. A storage means for storing moving image information comprising a plurality of frame images, and a reference image setting means for selecting a specific frame image from the plurality of frame images stored in the storage means and setting the selected frame image as a reference image Using the plurality of frame images stored in the storage unit, a trajectory image generation unit that generates a trajectory image expressing a motion trajectory of a subject included in each of the plurality of frame images; An image processing apparatus comprising: an image synthesizing unit that synthesizes the trajectory image to generate a trajectory composite image.
【請求項7】 複数のフレーム画像からなる動画情報を
記憶する記憶手段と、 前記記憶手段に記憶された前記複数のフレーム画像から
特定のフレーム画像を選択し、基準画像として設定する
基準画像設定手段と、 前記記憶手段に記憶された前記複数のフレーム画像の各
々に含まれる被写体の動きを検出する動き検出手段と、 前記動き検出手段により検出された前記被写体の動きに
基づいて、前記基準画像を加工する画像加工手段と、を
備えたことを特徴とする画像処理装置。
7. A storage unit for storing moving image information comprising a plurality of frame images, and a reference image setting unit for selecting a specific frame image from the plurality of frame images stored in the storage unit and setting the selected frame image as a reference image A motion detection unit that detects a motion of a subject included in each of the plurality of frame images stored in the storage unit; and the reference image based on the motion of the subject detected by the motion detection unit. An image processing apparatus, comprising: image processing means for processing.
【請求項8】 動画情報から複数のフレーム画像を抽出
して記憶手段に記憶するステップと、 前記記憶手段に記憶された前記複数のフレーム画像から
特定のフレーム画像を選択し、基準画像として設定する
ステップと、 前記記憶手段に記憶された前記複数のフレーム画像の各
々に含まれる被写体の動きを検出するステップと、 前記基準画像、及び、検出された前記被写体の動きに基
づいて、前記複数のフレーム画像を加工し、前記被写体
の動作軌跡を表現する軌跡画像を生成するステップと、 前記基準画像と前記軌跡画像とを合成して、軌跡合成画
像を生成するステップと、を含むことを特徴とする画像
処理方法。
8. A step of extracting a plurality of frame images from moving image information and storing the extracted plurality of frame images in a storage unit, and selecting a specific frame image from the plurality of frame images stored in the storage unit and setting the selected frame image as a reference image. Detecting the movement of a subject included in each of the plurality of frame images stored in the storage unit; and determining the plurality of frames based on the reference image and the detected movement of the subject. Processing the image to generate a trajectory image representing the motion trajectory of the subject; and synthesizing the reference image and the trajectory image to generate a trajectory composite image. Image processing method.
JP36582798A 1998-12-24 1998-12-24 Image processing apparatus and image processing method Expired - Fee Related JP3603629B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36582798A JP3603629B2 (en) 1998-12-24 1998-12-24 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36582798A JP3603629B2 (en) 1998-12-24 1998-12-24 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2000187478A true JP2000187478A (en) 2000-07-04
JP3603629B2 JP3603629B2 (en) 2004-12-22

Family

ID=18485217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36582798A Expired - Fee Related JP3603629B2 (en) 1998-12-24 1998-12-24 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3603629B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018578A (en) * 2001-06-27 2003-01-17 Sony Corp Communication equipment and method therefor, communication system, recording medium and program
JP2005316300A (en) * 2004-04-30 2005-11-10 Kyushu Institute Of Technology Semiconductor device having musical tone generation function, and mobile type electronic equipment, mobil phone, spectacles appliance and spectacles appliance set using the same
JP2008060790A (en) * 2006-08-30 2008-03-13 Seiko Epson Corp Moving image display device and moving image display method
JP2008167220A (en) * 2006-12-28 2008-07-17 Canon Inc Image processing apparatus and method, and program and recording medium
JP2008182312A (en) * 2007-01-23 2008-08-07 Xanavi Informatics Corp Picked-up image display device
WO2011016367A1 (en) * 2009-08-04 2011-02-10 アイシン精機株式会社 Vehicle-surroundings awareness support device
WO2011074446A1 (en) * 2009-12-16 2011-06-23 ソニー株式会社 Display control device, display control method, and program
JP2011176456A (en) * 2010-02-23 2011-09-08 Nikon Corp Camera and image reproducing device
JP2011176557A (en) * 2010-02-24 2011-09-08 Casio Computer Co Ltd Image processor, and method and program thereof
US8164638B2 (en) 2001-06-27 2012-04-24 Sony Corporation Communication system and method thereof
JP2015088771A (en) * 2013-10-28 2015-05-07 株式会社ニコン Image processing device, imaging apparatus and image processing program
US9060160B2 (en) 2008-09-24 2015-06-16 Nikon Corporation Image generation device, imaging device, image reproduction device, and image reproduction program
JPWO2013150829A1 (en) * 2012-04-03 2015-12-17 ソニー株式会社 Image processing apparatus, image processing apparatus control method, and program
JP2016105587A (en) * 2014-11-20 2016-06-09 アクシス アーベー Method and apparatus for visualizing information of digital video stream
US10880483B2 (en) 2004-03-25 2020-12-29 Clear Imaging Research, Llc Method and apparatus to correct blur in all or part of an image
CN114968044A (en) * 2022-07-26 2022-08-30 安徽淘云科技股份有限公司 Picture display method and device, electronic equipment and storage medium

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8164638B2 (en) 2001-06-27 2012-04-24 Sony Corporation Communication system and method thereof
JP2003018578A (en) * 2001-06-27 2003-01-17 Sony Corp Communication equipment and method therefor, communication system, recording medium and program
US11589138B2 (en) 2004-03-25 2023-02-21 Clear Imaging Research, Llc Method and apparatus for using motion information and image data to correct blurred images
US11627391B2 (en) 2004-03-25 2023-04-11 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11165961B2 (en) 2004-03-25 2021-11-02 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11924551B2 (en) 2004-03-25 2024-03-05 Clear Imaging Research, Llc Method and apparatus for correcting blur in all or part of an image
US11812148B2 (en) 2004-03-25 2023-11-07 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11800228B2 (en) 2004-03-25 2023-10-24 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11627254B2 (en) 2004-03-25 2023-04-11 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11457149B2 (en) 2004-03-25 2022-09-27 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11595583B2 (en) 2004-03-25 2023-02-28 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11490015B2 (en) 2004-03-25 2022-11-01 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US10880483B2 (en) 2004-03-25 2020-12-29 Clear Imaging Research, Llc Method and apparatus to correct blur in all or part of an image
JP2005316300A (en) * 2004-04-30 2005-11-10 Kyushu Institute Of Technology Semiconductor device having musical tone generation function, and mobile type electronic equipment, mobil phone, spectacles appliance and spectacles appliance set using the same
JP2008060790A (en) * 2006-08-30 2008-03-13 Seiko Epson Corp Moving image display device and moving image display method
JP2008167220A (en) * 2006-12-28 2008-07-17 Canon Inc Image processing apparatus and method, and program and recording medium
JP2008182312A (en) * 2007-01-23 2008-08-07 Xanavi Informatics Corp Picked-up image display device
US9060160B2 (en) 2008-09-24 2015-06-16 Nikon Corporation Image generation device, imaging device, image reproduction device, and image reproduction program
WO2011016367A1 (en) * 2009-08-04 2011-02-10 アイシン精機株式会社 Vehicle-surroundings awareness support device
JP2011035777A (en) * 2009-08-04 2011-02-17 Aisin Seiki Co Ltd Support system for perception of vehicle surroundings
US8964034B2 (en) 2009-08-04 2015-02-24 Aisin Seiki Kabushiki Kaisha Vehicle surroundings awareness support device
CN102474598A (en) * 2009-08-04 2012-05-23 爱信精机株式会社 Vehicle-surroundings awareness support device
US9851894B2 (en) 2009-12-16 2017-12-26 Sony Corporation Display control device, display control method, and program
WO2011074446A1 (en) * 2009-12-16 2011-06-23 ソニー株式会社 Display control device, display control method, and program
JP2011130046A (en) * 2009-12-16 2011-06-30 Sony Corp Display control device, display control method, and program
CN102656548A (en) * 2009-12-16 2012-09-05 索尼公司 Display control device, display control method, and program
JP2011176456A (en) * 2010-02-23 2011-09-08 Nikon Corp Camera and image reproducing device
JP2011176557A (en) * 2010-02-24 2011-09-08 Casio Computer Co Ltd Image processor, and method and program thereof
JPWO2013150829A1 (en) * 2012-04-03 2015-12-17 ソニー株式会社 Image processing apparatus, image processing apparatus control method, and program
JP2015088771A (en) * 2013-10-28 2015-05-07 株式会社ニコン Image processing device, imaging apparatus and image processing program
JP2016105587A (en) * 2014-11-20 2016-06-09 アクシス アーベー Method and apparatus for visualizing information of digital video stream
US10878850B2 (en) 2014-11-20 2020-12-29 Axis Ab Method and apparatus for visualizing information of a digital video stream
CN114968044A (en) * 2022-07-26 2022-08-30 安徽淘云科技股份有限公司 Picture display method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP3603629B2 (en) 2004-12-22

Similar Documents

Publication Publication Date Title
JP3569800B2 (en) Image processing apparatus and image processing method
JP3603629B2 (en) Image processing apparatus and image processing method
US7535497B2 (en) Generation of static image data from multiple image data
JP2004504736A (en) Three-dimensional image generation method and apparatus
GB2372658A (en) A method of creating moving video data from a static image
US20090262136A1 (en) Methods, Systems, and Products for Transforming and Rendering Media Data
WO2023035882A9 (en) Video processing method, and device, storage medium and program product
CN112565653A (en) Video frame insertion method, system, electronic equipment and storage medium
US9875521B2 (en) Image output apparatus, image output method, and program
JP4240098B2 (en) Image processing apparatus and image processing method
JP4633595B2 (en) Movie generation device, movie generation method, and program
KR20140146592A (en) Color grading preview method and apparatus
JP3882824B2 (en) Image processing apparatus and image processing method
CN110033421B (en) Image processing method, image processing device, storage medium and electronic equipment
CN114339030B (en) Network live video image stabilizing method based on self-adaptive separable convolution
JP4189575B2 (en) Image processing apparatus, thumbnail movie creation method, and thumbnail movie creation program
JP4656199B2 (en) Image processing apparatus, thumbnail movie creation method, and thumbnail movie creation program
JP4881045B2 (en) MOVIE GENERATION DEVICE, MOVIE GENERATION METHOD, AND PROGRAM
JP5460277B2 (en) Monochrome moving image coloring apparatus and monochrome moving image coloring method
JP7026839B1 (en) Real-time data processing device
JPH11225310A (en) Method and device for displaying video still image and video still image display program storing and recording medium
JP4633594B2 (en) Movie generation device, movie generation method, and program
JP6842194B2 (en) Display control device, display control method and display control program
US9467644B2 (en) Video processing system, video processing method, and program
JP4577150B2 (en) Image playback device having special playback function for still images

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040920

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071008

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081008

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081008

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091008

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091008

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101008

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101008

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111008

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111008

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121008

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121008

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees