JP3603629B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP3603629B2
JP3603629B2 JP36582798A JP36582798A JP3603629B2 JP 3603629 B2 JP3603629 B2 JP 3603629B2 JP 36582798 A JP36582798 A JP 36582798A JP 36582798 A JP36582798 A JP 36582798A JP 3603629 B2 JP3603629 B2 JP 3603629B2
Authority
JP
Japan
Prior art keywords
image
trajectory
subject
frame
frame images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP36582798A
Other languages
Japanese (ja)
Other versions
JP2000187478A (en
Inventor
英雄 阿部
圭一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP36582798A priority Critical patent/JP3603629B2/en
Publication of JP2000187478A publication Critical patent/JP2000187478A/en
Application granted granted Critical
Publication of JP3603629B2 publication Critical patent/JP3603629B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置及び画像処理方法に関し、特に、ビデオカメラや電子スチルカメラ等により撮影された動画情報を、1枚の静止画(スチル画)に合成加工して表示出力する画像処理装置及び画像処理方法に関する。
【0002】
【従来の技術】
近年、AV機器の普及、機能向上が著しい。特に、民生用、業務用を始め様々な場面でビデオカメラや電子スチルカメラ等の高機能化された画像記録機器が利用されるようになっている。これらの機器により撮影された画像は、機器本体に搭載された液晶パネルやケーブル等を介してテレビジョンやパーソナルコンピュータ(以下、パソコンと略称する)のモニタ上に簡易に表示出力することができ、また、プリンタ等を介して直接印刷出力することもできる。
しかしながら、撮影された様々な画像情報のうち、動画情報はその情報量が静止画像に比較して膨大であるうえ、動画の全てを再生表示して初めて被写体の動き等の一連の撮影内容を把握することができるものであるため、画像情報の記憶、再生、出力において、記憶容量を大量に必要とし、撮影内容の確認作業にも長時間を要するという問題、また、静止画像のように任意の画像を簡易に出力することができないという問題等を有している。
【0003】
一方、画像記録機器の普及や、画像処理技術の向上に伴って、撮影された画像情報の様々な表現方法へのニーズが高まっている。例えば、車両の走行やゴルフのスイングのように、比較的動きの速い被写体の軌跡を静止画として表現することにより、被写体の一連の動きを直感的に把握することができる。
従来、ビデオカメラや電子スチルカメラ等により撮影された動画に限らず、一般的な動画情報(テレビジョン放送の映像情報等を含む)を、静止画像として表現する方法としては、動画情報を構成する複数のフレーム画像の中から特定時刻に表示される1枚のフレーム画像を代表画像として抽出し、表示する方法、あるいは、一定の時間間隔で複数枚のフレーム画像を代表画像として抽出し、これらの代表画像を順次、あるいは、分割画面に一括して、表示する方法等が知られている。
【0004】
図17は、動画情報を構成する複数のフレーム画像から1枚を抽出し表示する手法の概念図である。
図17において、動画データVDには、車両が図面左方向から右方向へ走行する画像が含まれているものとする。ここで、動画データVDは、時系列的に配列する複数のフレーム画像(静止画)により構成されていると考えることができるため、被写体の動きを表す一連のフレーム画像の中から、例えば特定時刻T4における1枚のフレーム画像F1を抽出して表示出力することにより、静止画像に被写体(車両C1)の動きを盛り込むことができる。
しかし、このような表現方法にあっては、代表として抽出されたフレーム画像F1が特定時刻T4の静止画像1枚のみであるため、特定時刻T4の直前直後の動きを客観的に推測することはできるが、被写体の一連の動きを把握することはできない。すなわち、走行する車両を含む1枚のフレーム画像F1を静止画として表示しても、車両C1の動きは的確に表現されず、背景画像や車両の移動速度等の条件によっては、車両C1が静止しているように認識される。
【0005】
図18は、動画情報を構成する複数のフレーム画像から複数枚を抽出して分割画面に一括表示する手法の概念図である。
図18に示すように、被写体の動きを表す一連のフレーム画像の中から、例えば一定の時間間隔で時刻T2、T4、T6、T8の4枚のフレーム画像F1、F2、F3、F4を抽出して4分割画面に一括表示することにより、静止画像でありながら、4枚のフレーム画像F1、F2、F3、F4を時系列順に見渡すことができ、被写体の一連の動き(車両C1〜C4の走行状態)を把握することができる。
しかし、このような表現方法においては、代表画像として抽出された複数のフレーム画像を全体にわたって見渡すことにより、見る者がフレーム画像間の関連を推測して車両C1〜C4の動きを認識しなければならず、また、4枚のフレーム画像F1〜F4のうち、いずれか1枚の静止画像によっては、上述した場合と同様に、被写体の一連の動きを直感的に把握することはできない。すなわち、走行する車両を含む複数のフレーム画像F1〜F4を静止画として、順次あるいは一括して表示しても、車両の動きは見る者の推測に委ねられる部分が多分に存在し、正確に認識される訳ではない。
このような問題点は、走行する車両に限らず、ゴルフのスイング等のように、比較的速い動きを有する被写体を撮影した動画情報を静止画像として表現する場合に必ず生じるものである。
【0006】
【発明が解決しようとする課題】
ところで、動画情報を静止画像として表現する方法としては、映像データから複数のフレーム画像を抽出し、それらを単純に多重合成して1枚の静止画像を作成する方法が、特開平10−290450号公報に記載されている。この方法は、映像データから等時間間隔で複数のフレーム画像を選択、抽出し、各フレームにおける同一位置の画素値の平均値を求め、その平均値を多重静止画像の画素値とするものであるが、動きのある部分の画素値が小さくなり、ほとんど見えなくなるという問題があるため、画素値に所定の重み付けを施して動きのある部分のかすれ等が生じないように、さらに改善を加えたものである。
【0007】
しかしながら、上記公報に記載された方法は、抽出されたフレーム画像の全てについて、画素値のかすれがなく均等に表現されるように補正し、単純に重ね合わせたものにすぎず、例えば図19に示すように、走行する車両C1〜C4に関する異なる時刻T2、T4、T6、T8におけるフレーム画像F1〜F4を、単に一枚の静止画FQに多重合成したものが得られるにすぎない。すなわち、被写体の動作軌跡や軌道を認識することはできるが、動作の特性、例えばスピード感等を的確に表現するものではなく、また、被写体の動きを直感的に把握することができる画像や、特殊効果を有する画像を得られるものではない。
【0008】
そこで、本発明は、動画データに含まれる被写体の動きに応じた画像表現を実現し、被写体の動きを直感的に把握することができる静止画を簡易に生成、出力することができる画像処理装置及び画像処理方法を提供することを目的とする。
【0009】
【課題を解決するための手段】
請求項1記載の画像処理装置は、動画情報から複数のフレーム画像を抽出し、記憶手段に記憶する画像情報取込手段と、前記記憶手段に記憶された前記複数のフレーム画像から特定のフレーム画像を選択し、基準画像として設定する基準画像設定手段と、前記記憶手段に記憶された前記複数のフレーム画像の各々に含まれる被写体の動きを示す特徴量を検出する動き検出手段と、前記動き動作検出手段により検出された前記特徴量のうち、前記被写体の動作速度に基づいて、異なる複数の軌跡画像生成機能から実行する軌跡画像生成機能を選択する軌跡画像生成機能選択手段と、前記軌跡画像生成機能選択手段により選択された前記軌跡画像生成機能を実行して、前記動き検出手段により検出された前記被写体の動作速度に対応した、前記被写体の動作軌跡を表現する軌跡画像を生成する軌跡画像生成手段と、前記基準画像と前記軌跡画像とを合成して、軌跡合成画像を生成する画像合成手段と、を備えたことを特徴とする。
請求項2記載の画像処理装置は、請求項1記載の画像処理装置において、前記記憶手段に記憶された前記複数のフレーム画像から、画像処理装置の使用者が任意のフレーム画像を選択するための基準画像選択手段を有し、前記基準画像設定手段は、前記基準画像選択手段により選択された前記フレーム画像を前記基準画像として設定することを特徴とする。
【0010】
請求項3記載の画像処理装置は、動画情報から複数のフレーム画像を抽出し、記憶手段に記憶する画像情報取込手段と、前記記憶手段に記憶された前記複数のフレーム画像から特定のフレーム画像を選択し、基準画像として設定する基準画像設定手段と、前記記憶手段に記憶された前記複数のフレーム画像の各々に含まれる被写体の動きを示す特徴量を検出する動き検出手段と、画像処理装置の使用者の指示に基づいて、異なる複数の軌跡画像生成機能から実行する軌跡画像生成機能を選択する軌跡画像生成機能選択手段と、前記軌跡画像生成機能選択手段により選択された前記軌跡画像生成機能を実行して、前記動き検出手段により検出された前記被写体の動きに対応した、前記被写体の動作軌跡を表現する軌跡画像を生成する軌跡画像生成手段と、前記基準画像と前記軌跡画像とを合成して、軌跡合成画像を生成する画像合成手段と、を備えたことを特徴とする。
請求項4記載の画像処理装置は、請求項1、2、3記載の画像処理装置において、前記画像合成手段により生成された前記軌跡合成画像を表示出力する画像出力手段を有していることを特徴とする。
【0011】
また、請求項記載の画像処理装置は、複数のフレーム画像からなる動画情報を記憶する記憶手段と、前記記憶手段に記憶された前記複数のフレーム画像から特定のフレーム画像を選択し、基準画像として設定する基準画像設定手段と、使用者の指示、あるいは被写体の動作速度に基づいて異なる複数の軌跡画像生成機能から実行する軌跡画像生成機能を選択する軌跡画像生成機能選択手段と、前記軌跡画像生成機能選択手段の選択結果に基づいて、前記記憶手段に記憶された前記複数のフレーム画像を用いて、該複数のフレーム画像の各々に含まれる被写体の動作軌跡を表現する軌跡画像を生成する軌跡画像生成手段と、前記基準画像と前記軌跡画像とを合成して、軌跡合成画像を生成する画像合成手段と、
を備えたことを特徴とする。
【0012】
そして、請求項記載の画像処理方法は、MPUによって実行される画像処理方法であって、動画情報から複数のフレーム画像を抽出して記憶手段に記憶するステップと、前記記憶手段に記憶された前記複数のフレーム画像からフレーム画像を選択し、基準画像として設定するステップと、前記記憶手段に記憶された前記複数のフレーム画像の各々に含まれる被写体の動きを検出するステップと、使用者の指示、あるいは検出された前記被写体の動作速度に基づいて異なる複数の軌跡画像生成機能から実行する軌跡画像生成機能を選択するステップと、選択された軌跡画像生成機能、前記基準画像、及び、検出された前記被写体の動きに基づいて、前記複数のフレーム画像を加工し、前記被写体の動作軌跡を表現する軌跡画像を生成するステップと、前記基準画像と前記軌跡画像とを合成して、軌跡合成画像を生成するステップと、を含むことを特徴とする。
【0013】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照しながら説明する。
<第1の実施形態>
図1は、本発明に係る画像処理装置の第1の実施形態を示すブロック図である。
図1において、10は動画データ取込部(画像情報取込手段)、20はフレームメモリ(記憶手段)、30はMPU、40はハードディスク、50はLCD等のモニタ(画像出力手段)、60はプリンタ(画像出力手段)、70はキースイッチ等の入力部(基準画像選択手段、軌跡画像選択手段)、80はデータ/命令伝送用のバスである。ここで、MPU30は、動き検出部(動き検出手段)31と、軌跡画像生成部(軌跡画像生成手段)32と、中心画像設定部(基準画像設定手段)33と、画像合成部(画像合成手段)34の各機能を有して構成されている。
【0014】
これらの各機能は、概ね以下の通りである。
(1)動画データ取込部10
動画データ取込部10は、動画データから複数のフレーム画像を抽出して後述するフレームメモリ20に記憶するものである。ここで、動画データは、ビデオデータや連続撮影された複数の静止画像により構成されるものであってもよい。要するに、複数のフレーム画像の連続により構成されるものであればよく、また、取り込まれるフレーム画像はアナログ画像であっても、デジタル画像であっても構わない。
動画データ取込部10の概略構成について、図2を参照して説明する。
図2において、11はフレーム画像選択部、12はアナログ−デジタル変換器(以下、A/Dと記す。)、13は画像圧縮部、14はバスインターフェースである。
【0015】
フレーム画像選択部11は、後述するMPU30からの命令に従って、動画データから所定の時間間隔でフレーム画像を選択し、選択された各フレーム画像の画像信号を抽出する。ここで、選択されるフレーム画像は、動画データを構成する全てのフレーム画像であってもよいし、特定の時間間隔、例えば1/5secや1/10sec毎のフレーム画像であってもよいが、動画データに含まれる被写体の動きを把握できる程度の時間間隔を有していることを必須とする。なお、フレーム画像の選択の際に用いる時間間隔は、MPU30により予め設定された基準値を用いる方法や、画像処理装置の利用者(使用者)の意志により入力部70を介して指示された任意の値を用いる方法等、様々な手法を設定することができる。
A/D12は、選択されたフレーム画像がアナログ信号の場合に、アナログの画像信号をデジタル画像信号に変換する。
【0016】
画像圧縮部13は、A/D12によりデジタル画像信号化された、あるいは、フレーム画像選択部11においてデジタル画像信号として抽出された各フレーム画像の画像信号を、所定の画像圧縮規格に準拠するように処理する。フレーム画像の圧縮符号化方式としては、JPEG規格等を適用することができる。ここで、JPEG(Joint Photographic Coding Experts Group)とは、DCT(離散コサイン変換)、量子化、可変長符号化、等の手法により原画像データを圧縮符号化する規格であり、カラーファクシミリ装置や電子スチルカメラ等に採用されている国際標準規格である。なお、画像情報の圧縮符号化方式としては、一般にJPEGのほか、GIF、TIFF、LHA、ZIP等の様々な形式、規格が利用されているため、実施の形態に応じて適切な方式を採用することができる。
バスインターフェース14は、圧縮処理されたフレーム画像をバス80の伝送幅に変換してフレームメモリ20へ転送する。
【0017】
(2)フレームメモリ20
フレームメモリ20は、DRAM(Dynamic Random Access Memory)等により構成され、動画データ取込部10により選択され、圧縮符号化されたフレーム画像に画像識別情報等のヘッダー情報を関係付けて、MPU30により指定された画像データ格納領域に格納するものである。
図3は、フレームメモリ20の内部領域を示す概念図である。
図3に示すように、フレームメモリ20の内部領域は、大別してフォーマットテーブル領域、情報テーブル領域、画像データ領域、オフセット領域から構成される。
フォーマットテーブル領域には、画像情報に関する総合的な情報であるフォーマット情報が格納される。また、情報テーブル領域には、画像情報を識別するための番号情報を含む画像情報識別情報、動画データの時系列上での位置(時刻)を示す時刻情報等の画像情報を識別するためのヘッダー情報が格納される。画像データ領域は、圧縮符号化されたフレーム画像(圧縮画像データ)を格納し、オフセット領域は、画像データ領域における圧縮画像データのデータ長を固定長とするためのオフセットデータ(ブランク)を格納する。
このように、各圧縮画像データは、情報テーブル領域に格納されたヘッダー情報に関係付けされて画像データ領域に格納される。
【0018】
(3)動き検出部31
動き検出部31は、フレームメモリ20に格納された複数のフレーム画像から被写体の動きを示す特徴量を検出するものである。ここで、被写体の動きを示す特徴量とは、被写体の動作軌跡や軌道、動作(移動)速度、動作(移動)方向等を示す情報であって、一般にベクトル情報として表すことができる。
動き検出の手法としては、異なる時刻におけるフレーム画像をそれぞれブロック領域に分割し、同一ブロック領域毎に参照画像上でのブロックマッチング処理を行い、誤差が最小となる座標位置から被写体のフレーム間での動きを検出するブロックマッチング法を適用することができる。なお、ブロックマッチング法は、ISO/IECJTC1/SC29/WG11で国際標準化が行われたIS11172−2規格などに広く利用されているものである。ブロックマッチング法については後述する。
【0019】
(4)中心画像設定部33
中心画像設定部33は、フレームメモリ20に格納された複数のフレーム画像の中から特定のフレーム画像を選択、抽出し、後述する画像合成処理における中心画像として設定するものである。ここで、中心画像とは、画像合成の際に基準となる画像であって、一連のフレーム画像の始端や終端に位置する画像であってもよいし、特定時刻におけるフレーム画像であってもよい。要するに、後述する軌跡画像生成部32により作成される軌跡画像が合成される核(元)となる画像を抽出するものであればよい。
【0020】
(5)軌跡画像生成部32
軌跡画像生成部32は、動き検出部31により検出された被写体の動きを示す特徴量、及び、中心画像設定部33により抽出された中心画像に含まれる被写体像に基づいて、フレームメモリ20に格納された複数のフレーム画像を加工して、被写体の動きに応じた動作軌跡や残像を表現する軌跡画像を生成するものである。
軌跡画像の生成は、動き検出部31の検出結果に基づいて、フレームメモリ20に格納された複数のフレーム画像から被写体を判別し、中心画像以外の各フレーム画像から被写体の輪郭成分を抽出して、抽出された輪郭成分を多重合成する処理、あるいは、輪郭成分に基づいて残像領域を生成する処理を施し、さらに、画像の濃淡調整を施して被写体の動きを表現する特有の軌跡画像を作成する。
【0021】
(6)画像合成部34
画像合成部34は、中心画像設定部33により抽出された中心画像に、軌跡画像生成部33により作成された軌跡画像を合成処理して、軌跡合成画像として出力するものである。
(7)MPU30、ハードディスク40
ハードディスク40は、MPU30が実行するプログラムや動作上必要なデータを記憶する。したがって、MPU30は、ハードディスク40に記憶されたアプリケーションプログラムを実行することにより、上述した動き検出部31、軌跡画像生成部32、中心画像設定部33、及び、画像合成部34の各機能をソフトウェア的に実現して、後述する一連の画像処理やメモリ管理、モニタ50やプリンタ60への出力制御を行う。
【0022】
(8)モニタ50、プリンタ60
画像合成部34により合成処理された軌跡合成画像を表示、あるいは、印刷出力するものであって、テレビやパソコンのモニタ、プリンタ等の出力装置である。ここで、図1においては、モニタ50やプリンタ60を、バス80に直接接続された構成として示したが、本発明はこれに限定されるものではなく、バス80に接続された通信インターフェース等を介して通信回線により接続されるファクシミリ装置や携帯情報端末(PDA)、パソコン等であってもよい。なお、本発明の説明においては、モニタ50への表示出力及びプリンタ60への印刷出力のほか、軌跡合成画像を静止画像として出力する動作全般を、便宜的に「表示出力」と記載する。
(9)入力部70
入力部70は、画像処理装置に設けられた各種キースイッチ類であって、MPU30によるアプリケーションプログラムの実行や画像処理、モニタ50やプリンタ60への表示出力等の制御信号を生成する。また、後述する実施形態における基準画像選択手段や軌跡画像選択手段としての機能も有する。画像処理装置に設けられた専用のキースイッチ類はもとより、パソコン等により本発明を実施する場合にはキーボードやマウス、ペンタブレット等の各種入力装置も含まれる。
【0023】
次に、上述した構成を有する画像処理装置における処理動作について、図面を参照して説明する。
図4は、本実施形態に係る画像処理装置の処理動作を示すフローチャートである。まず、処理動作の概略について上述した構成を参照しつつ説明した後、各ステップについて個別に説明する。
図4に示すように、ステップS101、S102において、動画データ取込部10により、入力された動画データから所定の時間間隔で複数のフレーム画像を選択、抽出し、JPEG等の規格に準拠するように圧縮符号化処理を施してフレームメモリ20の所定の格納領域に格納する。この際、圧縮されたフレーム画像を識別するヘッダー情報が関係付けられて格納される。
次いで、ステップS103において、中心画像設定部33により、フレームメモリ20に格納された複数のフレーム画像の中から、画像合成における基準となる中心画像を設定し、ステップS104、S105において、動き検出部31により、フレームメモリに格納された複数のフレーム画像に含まれる動作を伴う被写体(動体)を検出するとともに、その被写体の動作特性を示す情報を出力する。
【0024】
次いで、ステップS106、S107において、軌跡画像生成部32により、上述した被写体の動作特性、及び、中心画像に基づいて、各フレーム画像に含まれる被写体の輪郭成分を抽出して、それらの輪郭成分を多重合成、あるいは、輪郭成分に基づいて残像領域を生成し、さらに、輪郭成分の濃淡調整をする加工処理を施し、被写体の動きを表現する軌跡画像を作成する。
次いで、ステップS108、S109において、画像合成部34により、中心画像と軌跡画像を合成処理して1枚の静止画像とし、得られた静止画像をモニタ50やプリンタ60等に表示出力する。
このように、本実施形態における画像処理装置の処理動作は、大別して、動画データ取込ステップ、中心画像設定ステップ、動き検出ステップ、軌跡画像作成ステップ、及び、画像合成ステップから構成されている。
【0025】
以下、各ステップについて、図面を参照して説明する。
(1)動画データ取込ステップ
図5は、動画データ取込ステップを示す概念図である。以下、被写体として走行する車両を例にして説明する。
ビデオカメラや電子スチルカメラにより撮影された動画データや、テレビジョン放送の映像情報等の動画データは、時系列的に配列された一連のフレーム画像の集合であるため、本ステップにおいては、図5に示すように、一連のフレーム画像から所定の時間間隔毎に、例えば動画データVDの時系列上の位置に相当する時刻T2、T6、T10、…のフレーム画像Fa、Fb、Fc、…が、動画データ取込部10により選択、抽出される。なお、選択、抽出されるフレーム画像は、動画データVDを構成する一連のフレーム画像の全てであってもよく、抽出されたフレーム画像によって被写体の動き、すなわち車両の走行状態が把握できるものであれば上述した時間間隔に限定されない。
抽出されたフレーム画像Fa、Fb、Fc、…は、後述する画像処理を簡易に実行するためにデジタル画像信号に変換され、さらに、フレームメモリ20の記憶容量を有効に利用するためにJPEG等の所定の圧縮符号化処理が施され、画像識別情報や時刻情報等に関係付けて、画像データ領域に順次格納される。
【0026】
(2)中心画像設定ステップ
本ステップにおいては、中心画像設定部33により、フレームメモリ20に格納された複数のフレーム画像Fa、Fb、Fc、…の中から、例えば時刻T6におけるフレーム画像Fbを選択し、情報テーブル領域に中心画像であることを示すヘッダー情報を付加することにより、中心画像として設定する。この中心画像は、上述したように、画像合成の際に基準となる画像であり、その抽出方法は、取り込んだフレーム画像のうちの始端や終端、あるいは中間の時刻に位置する画像を抽出するように予め設定するものであってもよいし、後述する被写体の動作特性の検出結果に基づいて、例えば走行する車両がフレーム画像の中心位置にあるものを選択するものであってもよい。
【0027】
(3)動き検出ステップ
本ステップにおいては、動き検出部31により、フレームメモリ20に格納された複数のフレーム画像から走行する車両を検出するとともに、その動きの軌道あるいは軌跡を算出する。
以下、画像情報に含まれる被写体の動きを検出する方法について、図面を参照して説明する。
まず、動き検出に適用される手法の一例として、ブロックマッチングについて説明する。
図6は、動き検出ステップに適用されるブロックマッチング法を示す概念図である。
例えば、『テレビジョン学会編、「画像情報圧縮」、オーム社、p.92、1991年』には、連続する複数のフレーム画像により構成される動画データに含まれる被写体の動きを検出するブロックマッチング法について記載されている。
【0028】
上記文献によれば、図6に示すように、注目するフレーム画像(以下、便宜的に現フレーム画像という。)Fnと、一つ前の時刻におけるフレーム画像(以下、便宜的に前フレーム画像という。)Fmの特定位置のブロック(領域)Bn、Bmについて、パターンマッチングを行う。パターンマッチングの方法は、例えば、ブロックBn中の画素Xnと、これをi画素分ずらしたブロックBm中の画素Xn−iとの差分の絶対値和Sを次式▲1▼に従って求め、この絶対値和S、すなわち評価量を最小にするずれ位置iを探索して動き量を検出するものである。
S=Σ|Xn−Xn−i| …▲1▼
ここで、▲1▼式における総和計算Σは、ブロックBnに属する全ての画素Xnについて実行される。
このように、ブロックマッチング法においては、現フレーム画像をブロックに分割し、ブロック単位で前フレーム画像との類似位置をパターンマッチングにより探索して、フレーム画像に含まれる被写体の動作速度や方向等の動きを検出する。
【0029】
なお、動き検出に適用される手法としては、上述したブロックマッチング法のほかに、フレーム画像中に含まれる被写体領域の特徴成分の変化から動きベクトルを算出する手法を適用することもできる。
この手法は、まず、フレーム画像に含まれる輝度成分に対してラプラシアン処理を行い、処理画像の零交点を領域境界線として検出し、連続した境界線により閉じられた部分を独立した領域(被写体領域)として抽出する。あるいは、フレーム画像に含まれる色成分を解析し、色相変化の少ない連続した部分を代表色に置き換えて一つの領域として抽出する。そして、抽出された領域の特徴成分、例えば領域の重心位置を検出し、フレーム画像間での変化量を算出することにより、領域全体としての平行移動量を示す動きベクトルとして求められる。したがって、算出された変化量を当該領域の動きパラメータとして出力することにより、被写体領域内の任意の画素位置に対して、動きベクトルの値(移動量、方向)を計算で求めることができる。
また、動き検出のさらに別の手法としては、フレーム画像内の輪郭線成分を多数検出し、検出した多数の輪郭線をグループにまとめ、ニューラルネットワーク処理により画像全体の動きを検出する手法を適用することもできる。
【0030】
(4)軌跡画像作成ステップ
本ステップにおいては、軌跡画像生成部32により、フレームメモリ20に格納された複数のフレーム画像、及び、中心画像に基づいて、車両の走行状態を表現する軌跡画像を生成する。
図7は、軌跡画像作成ステップの第1の例を示す概念図である。
図7に示すように、フレームメモリ20に格納された複数のフレーム画像Fa、Fb、Fcから、上述した動き検出ステップにより判明した車両Ca、Cb、Ccの動き(動作特性)に基づいて、車両の輪郭成分のみを抽出し、時系列的に配列することにより軌跡画像が生成される。ここで生成される軌跡画像は、従来技術において説明したフレーム画像の単なる多重合成とは異なり、輪郭成分のみを合成するものであるので、車両の全体の動きを的確に表現する画像となる。さらに、中心画像設定ステップにおいて、中心画像に設定されたフレーム画像(例えばFb)に含まれる車両Cbの位置に基づいて、軌跡画像の加工処理を施す。
【0031】
具体的には、中心画像Fbに含まれる車両Cbの画像(被写体像)を構成する輪郭成分(以下、基準輪郭成分という。)の輝度、彩度等を基準値として、軌跡画像を構成する複数の輪郭成分のうち、基準輪郭成分の近傍に位置するものの輝度、彩度を基準値に近似させ、離間するにしたがって、その輝度、彩度を低減させて、いわゆるかすれが生じた状態に調整する。このとき、加工処理は、車両Cbの進行方向の反対側(後方側;図面左側)に位置する軌跡画像を構成する輪郭成分のみを対象とし、進行方向側(前方側;図面右側)に位置する輪郭成分は削除する。すなわち、中心画像よりも過去に属するフレーム画像の輪郭成分を用いて画像加工を行うことにより軌跡画像Laが作成される。以上の軌跡画像の作成処理を「第1の軌跡画像作成処理」と呼ぶものとする。
【0032】
また、他の手法として、上述した輪郭成分の多重合成処理に加え、被写体の動作方向や動作状態を表現する特有の画像要素、例えば被写体の動作方向に延伸する線成分を生成、配置する処理を加え、図7に示すように、軌跡画像Lbを作成するものであってもよい。以上の軌跡画像の作成処理を「第2の軌跡画像作成処理」と呼ぶものとする。
なお、上述した軌跡画像の加工処理においては、フレーム画像に含まれる被写体の輪郭成分を抽出、多重合成し、さらに中心画像に含まれる被写体の位置に基づいて各輪郭成分の加工処理を施す手法について説明したが、合成又は加工処理された画像を見る者に被写体の動作状態を的確に認識させることができるものであれば、上述した例に限定されるものではない。
【0033】
次に、軌跡画像作成ステップの第2の例について説明する。
上述した第1の例においては、抽出されたフレーム画像に含まれる車両が固定された背景に対して走行する状態を撮影した動画データであることを前提に説明したが、カメラワーク等によっては、走行する車両をフレーム画像の一定位置に固定した動画データの場合がある。このような場合の軌跡画像の作成処理について説明する。
図8は、軌跡画像作成ステップの第2の例を示す概念図である。
図8に示すように、動画データから抽出され、フレームメモリ20に格納された複数のフレーム画像Fi、Fj、Fkから、上述した動き検出ステップにより判明した背景の動きに基づいて、背景成分Gi、Gj、Gkのみを抽出する。この背景成分Gi、Gj、Gkは、動き検出ステップにおいて、動きが検出されなかった被写体(車両Ci、Cj、Ck)成分をフレーム画像Fi、Fj、Fkから削除することにより容易に生成される。そして、抽出された背景成分Gi、Gj、Gkを時系列的に配列して軌跡画像を生成し、さらに、中心画像設定ステップにおいて、中心画像に設定されたフレーム画像(例えばFk)に含まれる背景成分(以下、基準背景成分という。)Gkに基づいて、軌跡画像の加工処理を施す。
【0034】
具体的には、基準背景成分Gkの輝度、彩度等を最もかすれの度合いが大きい表現となるように加工して、軌跡画像を構成する複数の背景成分のうち、基準背景成分Gkの近傍に位置するものを基準値に近似させてかすれ加工を施し、離間するにしたがって、背景成分本来の輝度、彩度となるように調整することにより軌跡画像Lcが作成される。
なお、軌跡画像の作成処理は、上述した第1の例と同様に、背景成分の合成、加工処理のみならず、背景成分の移動(流れ)状態を表現する線成分等の追加処理を組み合わせて利用するものであってもよい。
【0035】
(5)画像合成ステップ
本ステップは、画像合成部34により、中心画像と軌跡画像とを合成処理して、車両の走行状態を表現する静止画を生成し、モニタ50やプリンタ60を介して表示出力する。
図9及び図10は、画像合成ステップの第1の例を示す概念図である。ここで、図9は、上述した第1の軌跡画像作成処理により作成された軌跡画像Laと、中心画像とを合成処理する場合を示す概念図であり、また、図10は、上述した第2の軌跡画像作成処理により作成された軌跡画像Lbと、中心画像とを合成処理する場合を示す概念図である。
【0036】
図9及び図10に示すように、中心画像設定ステップにより中心画像に設定されたフレーム画像Fbと、軌跡画像作成ステップにより作成された軌跡画像La、Lbとを合成処理することにより、車両Cbの走行状態を表現した軌跡画像La、Lbが合成された静止画像ED1、ED2が得られる。すなわち、中心画像Fbは動画データを構成する一連のフレーム画像のうちの特定の一枚にすぎないが、軌跡画像La、Lbには中心画像Fbに含まれる車両Cbの位置を基準として輪郭成分や領域の加工処理が施されているため、両者を合成処理することにより車両Cbの走行軌跡が一つのフレーム画像Fb内で表現されることになる。
そして、合成処理された静止画像ED1、ED2は、バス80を介してモニタ50やプリンタ60に転送され表示出力される。
【0037】
図11は、画像合成ステップの第2の例を示す概念図であり、図8に示した軌跡画像作成処理により作成した軌跡画像Lcと、車両Ckの画像を合成処理する場合を示している。
図11に示すように、中心画像設定ステップにより中心画像に設定されたフレーム画像Fkに含まれる車両Ckの画像成分と、軌跡画像作成ステップにより作成された軌跡画像Lcとを多重合成することにより、車両Ckの走行状態を背景の流れで表現した静止画像ED3が得られる。すなわち、上述した第1の例と同様に、中心画像Fkは動画データを構成する一連のフレーム画像のうちの特定の一枚にすぎないが、軌跡画像Lcには中心画像Fkに含まれる背景成分Gkを基準として輪郭や領域の加工処理が施されているため、両者を合成処理することにより一のフレーム画像Fk内で車両Ckの走行状態が背景の流れにより表現される。
以上の一連のステップを有する本実施形態によれば、動画データ中の被写体の一連の動きを検出して被写体の位置や動きに応じた軌跡画像を作成し、中心画像と合成処理することにより、被写体の動きが的確に表現された静止画像を作成することができる。したがって、1枚の静止画像で動体の動きを直感的に把握することができるため、動画データのインデックス等に有効に利用することができる。
【0038】
<第2の実施形態>
次に、本発明に係る画像処理装置の第2の実施形態について、図面を参照して説明する。
本実施形態は、上述した第1の実施形態において、動き検出部31により検出された被写体の動き(動作特性)を分析して、例えば車両の走行速度に応じて軌跡画像の作成方法を変更するようにしたものである。
すなわち、図1に示した画像処理装置において、軌跡画像生成部32は、動き検出部31により検出された被写体の動作速度や動作方向等の検出結果を分析して、軌跡画像の作成処理を変更する制御機能を有している。
具体的には、図9に示したように、第1の軌跡画像作成処理により作成された軌跡画像Laを中心画像Fbに合成処理した静止画像ED1においては、車両Cbの動きが比較的遅く認識されるように表現され、一方、図10に示したように、第2の軌跡画像作成処理により作成された軌跡画像Lbを中心画像Fbに合成処理した静止画像ED2においては、車両Cbの動きが比較的速く認識されるように表現される。したがって、このような特徴に基づいて、動き検出部31により検出された被写体の動作速度を、例えば所定のしきい値との比較により低速動作であるか、あるいは、高速動作であるか判別して第1及び第2の軌跡画像作成処理を適宜切り替える。
【0039】
ここで、被写体の動作速度と軌跡との関係について説明すると、被写体が低速で動作している場合には、動体の輪郭が比較的はっきりと把握されるという、人間の視覚(網膜)特性に対応させて各フレーム画像に含まれる被写体(動体)の輪郭をぼかすことなくフレーム画像数分、多重合成することにより、低速動作状態を表現することができ、被写体の動きを適切に認識させることができる。なお、本発明においては、このような輪郭成分の多重合成に加え、中心画像に含まれる被写体近傍の輪郭の輝度や彩度を中心画像のものに近似させて線分や色彩をはっきり表示するように処理し、被写体から遠い輪郭では、線分や色彩をかすれさせるように処理して、被写体の動きをよりリアルに表現する加工処理が施される。
これに対して、被写体が高速で動作する場合には、動体の輪郭が極めて曖昧に把握されるという、人間の視覚特性に対応させて各フレーム画像に含まれる被写体の輪郭を相互にぼかすことにより、高速動作状態を表現することができ、被写体の動きを適切に認識させることができる。
【0040】
以下、本実施形態の処理動作について、図12のフローチャートを参照して説明する。上述した第1の実施形態と同等のステップについては、その説明を簡略化する。
図12に示すように、ステップS201、S202において、動画データから所定の時間間隔で複数のフレーム画像を選択、抽出し、圧縮符号化処理を施してフレームメモリ20の所定の格納領域に格納する。次いで、ステップS203において、フレームメモリ20に格納された複数のフレーム画像の中から中心画像を設定し、ステップS204において、上述したブロックマッチング法等を適用して、複数のフレーム画像に含まれる被写体(動体)を検出するとともに、被写体の動作速度や方向等の動作特性を算出する。
そして、ステップS205〜S207において、算出された動作速度と予め設定されたしきい値速度とを比較し、算出された動作速度がしきい値よりも小さい場合には、被写体を低速の動体であると判断して、上述した第1の軌跡画像作成処理を選択し、軌跡画像を構成する輪郭成分が比較的はっきりと表現するように加工処理を施す。一方、算出された動作速度がしきい値よりも大きい場合には、被写体を高速の動体であると判断して、上述した第2の軌跡画像作成処理を選択し、輪郭成分の多重合成に加え、動作方向等を表現する線成分等を重ね合わせる加工処理を施す。
次いで、ステップS208、S209において、中心画像と上記軌跡画像を合成処理して1枚の静止画像とし、モニタ50やプリンタ60を介して表示出力する。
【0041】
以上の一連のステップを有する本実施形態によれば、検出された被写体の一連の動き、特に動作速度(移動速度)に基づいて、軌跡画像の作成方法(軌跡画像作成処理を実行する機能;軌跡画像生成機能)を変更して動作速度に対応した軌跡画像を作成する軌跡画像作成処理を実行することができるため、被写体の動きを直感的に認識することができる静止画像を作成することができる。
なお、本実施形態においては、被写体の動作速度に応じて選択される処理方法として、第1及び第2の軌跡画像作成処理を用いる場合を示したが、図8及び図11に示した背景成分を加工処理する方法に変更するものであっても構わない。要するに、合成処理された静止画像を見る者に、被写体の動作状態を的確に認識させるものであれば上記以外の方法であってもよい。また、被写体の動作速度の判別処理として、予め設定された一つのしきい値との比較処理を行う場合について説明したが、複数のしきい値による多段階の判別であってもよいし、動作速度をそのまま利用して輝度や彩度に重み付けを行うものであってもよい。
【0042】
<第3の実施形態>
次に、本発明に係る画像処理装置の第3の実施形態について、図面を参照して説明する。
本実施形態は、中心画像設定ステップにおける中心画像の選択、設定処理を入力部70等から入力される命令にしたがって設定変更するようにしたものである。
すなわち、図1に示した画像処理装置において、中心画像設定部33は、入力部70から、あるいは、図示を省略した通信回線等を介して入力される中心画像選択命令にしたがって、フレームメモリ20に格納された複数のフレーム画像の中から任意のフレーム画像を抽出し、中心画像に設定する機能を有している。
具体的には、フレームメモリ20に格納された複数のフレーム画像をモニタ50やプリンタ60を介して表示出力し、中心画像に選択するフレーム画像を特定する命令の入力を画像処理装置の利用者に促す。利用者は、表示出力されたフレーム画像を閲覧し、その中から任意のフレーム画像を選択し、キースイッチやキーボード等の入力部70を介して中心画像選択命令を入力し、フレームメモリ20の当該画像の情報テーブル領域に中心画像であることを示すヘッダー情報を付加する。
【0043】
したがって、利用者は、例えば被写体の動作状態を表現するために最も適当と思われるフレーム画像や、特殊効果を奏するために最も適当と思われるフレーム画像を、入力部70等から入力して、容易に中心画像として設定することができる。
以下、本実施形態の処理動作について、図13のフローチャートを参照して説明する。上述した第1又は第2の実施形態と同等のステップについては、その説明を簡略化する。
【0044】
図13に示すように、ステップS301、S302において、動画データから所定の時間間隔で複数のフレーム画像を選択、抽出し、圧縮符号化処理を施してフレームメモリ20の所定の格納領域に格納する。次いで、ステップS303において、フレームメモリ20に格納された複数のフレーム画像の全て、あるいは一部をモニタ50やプリンタ60等を介して表示出力し、利用者に中心画像に設定するフレーム画像の選択及び命令入力を促す。
ここで、モニタ50やプリンタ60によるフレーム画像の表示出力方法は、フレーム画像を時系列的に順次出力するものであってもよいし、分割画面に複数のフレーム画像を一括して出力するものであってもよい。また、表示出力されるフレーム画像は、フレームメモリ20に格納された全てのフレーム画像であってもよいし、一部のフレーム画像であっても構わない。すなわち、図5において抽出したフレーム画像Fa、Fb、Fcにおいて、これら全てのフレーム画像を表示出力するものであってもよいし、奇数番目に位置する一部のフレーム画像Fa、Fcのみを表示出力するものであってもよい。要するに、画像合成処理において中心画像として利用することができるフレーム画像を表示出力するものであればよい。
【0045】
次いで、ステップS304において、利用者により選択、指示されたフレーム画像を中心画像となるようにヘッダー情報を設定する。さらに、ステップS305において、上述したブロックマッチング法等を適用して、複数のフレーム画像に含まれる被写体(動体)を検出するとともに、被写体の動作状態を出力する。そして、ステップS306において、被写体の動作状態及び中心画像に基づいて、所定の軌跡画像を生成し、ステップS307、S308において、中心画像と上記軌跡画像を合成処理して1枚の静止画像とし、モニタ50やプリンタ60を介して表示出力する。
以上の一連のステップを有する本実施形態によれば、複数のフレーム画像の中から中心画像を一義的に選択、設定するのではなく、表示出力されたフレーム画像を利用者が閲覧して任意のフレーム画像を指示設定することができるため、被写体の動きを的確に表現しつつ、より多様な画像表現を実現することができる。なお、軌跡画像作成ステップは、第1の実施形態に示した手法に限らず、第2の実施形態に示したように、被写体の動作特性に応じて適宜処理方法を変更するものであってもよい。
【0046】
<第4の実施形態>
次に、本発明に係る画像処理装置の第4の実施形態について、図面を参照して説明する。
本実施形態は、上述した第2の実施形態における軌跡画像作成処理の変更を、被写体の動作特性に基づいて制御するのではなく、画像処理装置の利用者の意志により入力部70等を介して任意に設定することができるようにしたものである。
すなわち、図1に示した画像処理装置において、軌跡画像生成部32は、入力部70から、あるいは、図示を省略した通信回線等を介して入力される軌跡画像作成処理選択命令にしたがって、軌跡画像の作成方法を任意に選択する機能を有している。選択の対象となる軌跡画像の作成処理は、被写体の動作特性に応じた軌跡画像の作成処理、すなわち、上述した第1及び第2の軌跡画像作成処理や、背景成分の加工処理のほかに、中心画像に含まれる被写体を強調したり、特徴付ける特殊な軌跡画像の作成処理を任意に選択することもできる。
【0047】
ここで、被写体を強調、あるいは、特徴付ける特殊な軌跡画像の作成処理及び合成処理の例について、図面を参照して説明する。
図14は、特殊な軌跡画像の作成処理の一例を示す概念図であり、図15は、特殊な軌跡画像と中心画像との合成処理の一例を示す概念図である。
図14に示すように、フレームメモリ20に格納された複数のフレーム画像Fa〜Feから、動き検出ステップにより判明した車両Ca〜Ceの動きに基づいて、車両の輪郭成分のみを抽出し時系列的に配列(多重合成)することにより、車両の全体の動きを表現する軌跡画像が生成される。そして、中心画像に設定されたフレーム画像(例えばFc)に含まれる車両Ccの位置及び輪郭成分に基づいて、車両Ccの前方及び後方に位置する輪郭成分について、車両Ccから離間するにしたがってかすれが生じるように加工処理することにより軌跡画像LQが作成される。
【0048】
次に、図15に示すように、中心画像に設定されたフレーム画像Fcと特殊な軌跡画像LQとを合成処理することにより、車両Ca〜Ceの全体の動作軌跡の中で車両Ccを強調した特殊な静止画像EDQが得られる。
したがって、利用者は、キースイッチやキーボード等の入力部70を介して、例えば特殊効果を奏するために最も適当と思われる軌跡画像の作成方法を入力設定することにより、容易に所望の静止画像を作成することができる。
以下、本実施形態の処理動作について、図16のフローチャートを参照して説明する。上述した第1乃至第3の実施形態と同等のステップについては、その説明を簡略化する。
【0049】
図16に示すように、ステップS401、S402において、動画データから所定の時間間隔で複数のフレーム画像を選択、抽出し、圧縮符号化処理を施してフレームメモリ20の所定の格納領域に格納する。次いで、ステップS403において、フレームメモリ20に格納された複数のフレーム画像の中から中心画像を設定し、ステップS404において、上述したブロックマッチング法等を適用して、複数のフレーム画像に含まれる被写体(動体)を検出するとともに、被写体の動作状態を出力する。
そして、ステップS405、S406において、利用者により選択設定された軌道画像作成方法に基づいて、所定の軌跡画像を生成し、ステップS407、S408において、中心画像と上記軌跡画像を合成処理して1枚の静止画像とし、モニタ50やプリンタ60を介して表示出力する。
以上の一連のステップを有する本実施形態によれば、利用者の意志により軌跡画像の作成方法を任意に選択設定することができるため、被写体の動作軌跡を利用して作成される特殊な軌跡画像を中心画像に合成処理することにより、特殊効果を奏する静止画像を容易に作成することができる。
なお、本発明の画像処理装置は、上述したビデオカメラや電子スチルカメラ、パソコンのほか、ビデオプレーヤーやファクシミリ装置、プリンタ等の画像処理機器に良好に適用することができるものであることはいうまでもない。
【0050】
【発明の効果】
請求項1、3、5又は6記載の発明によれば、基準画像に設定されたフレーム画像に含まれる被写体を中心とし、かつ、被写体の動きに応じた軌跡画像が生成されるため、動画情報として撮影された被写体の動きを直感的に認識することができる静止画像を容易に作成、出力することができる。特に、異なる複数の軌跡画像の生成方法(軌跡画像生成機能)から、少なくとも被写体の動きに基づいて、実行する軌跡画像の生成方法を選択して、被写体の輪郭成分を多重合成し、さらに、基準画像の被写体近傍の輪郭成分を明確に表示し、被写体から離間するほどぼかしやかすれが生じるように加工処理することにより、被写体の動作状態を的確に反映した静止画像(軌跡合成画像)を作成することができる。
そして、請求項記載の発明に係る画像出力手段を有していることにより、上記静止画像をテレビモニタやパソコンのモニタ等に表示出力、あるいは、プリンタ等により印刷出力することができる。したがって、動画情報を簡易な手法で、かつ、多彩な表現形式により静止画像として表現することができるとともに、動画情報のインデックス情報等の用途に有効に利用することができる。
【0051】
特に、請求項1記載の発明によれば、動画情報から抽出されたフレーム画像に含まれる被写体の動作速度を検出し、その検出結果に応じて軌跡画像の生成方法(軌跡画像生成機能)を変更することにより、被写体の動作速度に対応した軌跡画像を生成することができる。したがって、被写体の動作速度によって軌跡画像により表現されるスピード感が異なるため、作成された静止画像を見るだけで、被写体の全体の動きとともに、その動作速度を直感的に把握することができる。
また、請求項記載の発明によれば、基準画像となるフレーム画像を、画像処理装置の利用者(使用者)の意志により、任意に選択、設定することができ、その基準画像に含まれる被写体を中心とし、かつ、被写体の動きに応じた軌跡画像が生成されるため、任意の位置に配置された被写体を強調した静止画像を容易に作成することができ、より多彩な表現形式により、被写体の動きを的確に把握することができる。
さらに、請求項記載の発明によれば、軌跡画像の生成方法を画像処理装置の利用者(使用者)の意志により、任意に選択、設定することができるため、より多彩な表現形式を実現することができるとともに、特殊効果を有する静止画像を容易に作成することができる。特に、軌跡画像の生成方法として輪郭成分のぼかし加工や、グラデーション処理、速さを表現する特定画像の付加等を備えることにより、使用者が所望する軌跡画像を生成することができる。
【図面の簡単な説明】
【図1】本発明に係る画像処理装置の第1の実施形態を示すブロック図である。
【図2】動画データ取込部の概略構成を示すブロック図である。
【図3】フレームメモリの内部領域を示す概念図である。
【図4】第1の実施形態に係る画像処理装置の処理動作を示すフローチャートである。
【図5】動画データ取込ステップを示す概念図である。
【図6】動き検出ステップに適用されるブロックマッチング法を示す概念図である。
【図7】軌跡画像作成ステップの第1の例を示す概念図である。
【図8】軌跡画像作成ステップの第2の例を示す概念図である。
【図9】第1の軌跡画像作成処理により作成された軌跡画像と、中心画像とを合成する場合を示す概念図である。
【図10】第2の軌跡画像作成処理により作成された軌跡画像と、中心画像とを合成する場合を示す概念図である。
【図11】画像合成ステップの第2の例を示す概念図である。
【図12】第2の実施形態に係る画像処理装置の処理動作を示すフローチャートである。
【図13】第3の実施形態に係る画像処理装置の処理動作を示すフローチャートである。
【図14】第4の実施形態に適用される特殊な軌跡画像の作成処理の一例を示す概念図である。
【図15】第4の実施形態に適用される特殊な軌跡画像と中心画像との合成処理の一例を示す概念図である。
【図16】第4の実施形態に係る画像処理装置の処理動作を示すフローチャートである。
【図17】動画情報を構成する複数のフレーム画像から1枚を抽出し表示する手法の概念を示す図である。
【図18】動画情報を構成する複数のフレーム画像から複数枚を抽出して分割画面に一括表示する手法の概念を示す図である。
【図19】動画情報を静止画像として表現する従来の手法を示す概念図である。
【符号の説明】
10 動画データ取込部(画像情報取込手段)
20 フレームメモリ(記憶手段)
30 MPU
31 動き検出部(動き検出手段)
32 軌跡画像生成部(軌跡画像生成手段)
33 中心画像設定部(基準画像設定手段)
34 画像合成部(画像合成手段)
40 ハードディスク
50 モニタ(画像出力手段)
60 プリンタ(画像出力手段)
70 入力部(基準画像選択手段、軌跡画像選択手段)
80 バス
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method, and more particularly, to an image processing apparatus that combines moving image information captured by a video camera, an electronic still camera, or the like into one still image (still image), and outputs the resulting image. And an image processing method.
[0002]
[Prior art]
2. Description of the Related Art In recent years, the spread of AV equipment and the improvement of functions have been remarkable. In particular, sophisticated image recording devices such as video cameras and electronic still cameras have been used in various scenes, including consumer and business use. Images taken by these devices can be easily displayed and output on a monitor of a television or a personal computer (hereinafter abbreviated as a personal computer) via a liquid crystal panel or a cable mounted on the device body, Further, it is also possible to print out directly via a printer or the like.
However, of the various types of captured image information, the amount of moving image information is enormous compared to still images, and a series of shooting contents such as the movement of the subject can be grasped only after reproducing and displaying the entire moving image. It requires a large amount of storage capacity for storing, reproducing, and outputting image information, and takes a long time to check the shooting contents. There is a problem that an image cannot be easily output.
[0003]
On the other hand, with the spread of image recording devices and improvements in image processing techniques, needs for various methods of expressing captured image information are increasing. For example, a series of movements of a subject can be intuitively grasped by expressing a trajectory of a relatively fast-moving subject as a still image, such as a vehicle running or a golf swing.
2. Description of the Related Art Conventionally, not only a moving image captured by a video camera, an electronic still camera, or the like but also general moving image information (including television broadcast image information) is expressed as a still image by forming moving image information. A method of extracting and displaying a single frame image displayed at a specific time from a plurality of frame images as a representative image, or extracting a plurality of frame images as a representative image at regular time intervals, There is known a method of displaying the representative images sequentially or collectively on a divided screen.
[0004]
FIG. 17 is a conceptual diagram of a method of extracting and displaying one image from a plurality of frame images constituting moving image information.
In FIG. 17, it is assumed that the moving image data VD includes an image in which the vehicle travels from left to right in the drawing. Here, since the moving image data VD can be considered to be composed of a plurality of frame images (still images) arranged in time series, for example, a specific time By extracting and displaying and outputting one frame image F1 at T4, the motion of the subject (vehicle C1) can be included in the still image.
However, in such an expression method, since the frame image F1 extracted as a representative is only one still image at the specific time T4, it is not possible to objectively estimate the movement immediately before and after the specific time T4. Although it is possible, it cannot grasp a series of movements of the subject. That is, even if one frame image F1 including the traveling vehicle is displayed as a still image, the movement of the vehicle C1 is not accurately represented, and the vehicle C1 may not move depending on conditions such as the background image and the moving speed of the vehicle. You will be recognized as you are.
[0005]
FIG. 18 is a conceptual diagram of a method of extracting a plurality of frames from a plurality of frame images constituting moving image information and collectively displaying them on a divided screen.
As shown in FIG. 18, for example, four frame images F1, F2, F3, and F4 at times T2, T4, T6, and T8 are extracted at regular time intervals from a series of frame images representing the motion of a subject. , The four frame images F1, F2, F3, and F4 can be viewed in chronological order in spite of being still images, and a series of movements of the subject (running of the vehicles C1 to C4) can be performed. Status) can be grasped.
However, in such an expression method, a plurality of frame images extracted as the representative images must be viewed over the whole, so that the viewer must estimate the association between the frame images and recognize the movement of the vehicles C1 to C4. Further, depending on any one of the four frame images F1 to F4, a series of movements of the subject cannot be intuitively grasped as in the case described above. That is, even if a plurality of frame images F1 to F4 including a running vehicle are displayed as still images sequentially or collectively, there is a large portion of the movement of the vehicle that is left to the guess of the viewer, and the vehicle is accurately recognized. Not necessarily.
Such a problem always occurs when moving image information of a subject having a relatively fast movement such as a golf swing is expressed as a still image, not limited to a traveling vehicle.
[0006]
[Problems to be solved by the invention]
Meanwhile, as a method of expressing moving image information as a still image, a method of extracting a plurality of frame images from video data and simply multiplexing them to create one still image is disclosed in Japanese Patent Application Laid-Open No. H10-290450. It is described in the gazette. This method selects and extracts a plurality of frame images at equal time intervals from video data, calculates an average value of pixel values at the same position in each frame, and uses the average value as a pixel value of a multiplex still image. However, since there is a problem that the pixel value of the moving part becomes small and becomes almost invisible, the pixel value is given a predetermined weight and further improved so that the moving part does not become blurred. It is.
[0007]
However, the method described in the above publication corrects all extracted frame images so that pixel values are uniformly expressed without blurring, and is merely a simple superimposition. For example, FIG. As shown in the figure, frame images F1 to F4 at different times T2, T4, T6, and T8 relating to traveling vehicles C1 to C4 are simply multiplexed into one still image FQ. That is, although it is possible to recognize the motion locus and trajectory of the subject, it does not accurately represent the motion characteristics, for example, a sense of speed, and the like, and an image that can intuitively grasp the motion of the subject, An image having a special effect cannot be obtained.
[0008]
Therefore, the present invention provides an image processing apparatus that realizes an image expression according to the movement of a subject included in moving image data, and that can easily generate and output a still image that allows intuitive grasp of the movement of the subject. And an image processing method.
[0009]
[Means for Solving the Problems]
2. The image processing apparatus according to claim 1, wherein a plurality of frame images are extracted from the moving image information and stored in a storage unit, and a specific frame image is obtained from the plurality of frame images stored in the storage unit. And a reference image setting unit for setting as a reference image, and a subject included in each of the plurality of frame images stored in the storage unit.Feature amount indicating a motionMotion detection means for detectingA trajectory image generation function selection unit that selects a trajectory image generation function to be executed from a plurality of different trajectory image generation functions based on the operation speed of the subject, among the feature amounts detected by the motion operation detection unit; running is selected by the trajectory image generating function selection means and the trajectory image generating function, corresponding to the operating speed of the object detected by the motion detecting means, to generate the trajectory image expressing motion track of the object and the trajectory image generating means,Image synthesizing means for synthesizing the reference image and the trajectory image to generate a trajectory composite image.
The image processing apparatus according to claim 2 is the image processing apparatus according to claim 1, wherein a user of the image processing apparatus selects an arbitrary frame image from the plurality of frame images stored in the storage unit. The image processing apparatus further includes a reference image selecting unit, wherein the reference image setting unit sets the frame image selected by the reference image selecting unit as the reference image.
[0010]
4. The image processing device according to claim 3, wherein a plurality of frame images are extracted from the moving image information and stored in a storage unit, and a specific frame image is extracted from the plurality of frame images stored in the storage unit. Reference image setting means for selecting a reference image and setting the reference image as a reference image; motion detection means for detecting a feature amount indicating a motion of a subject included in each of the plurality of frame images stored in the storage means; based on the user's instruction, a plurality of different path image generating function selecting means for selecting the trajectory image generation function to be executed from the trajectory image generating function and the trajectory image generating function selected by the path image generating function selector To generate a trajectory image representing a motion trajectory of the subject corresponding to the motion of the subject detected by the motion detection means. Means synthesizes the said reference image and said trajectory image, comprising: the image synthesizing means for generating a trajectory composite image.
An image processing apparatus according to a fourth aspect is the image processing apparatus according to the first, second, or third aspect,An image output means for displaying and outputting the trajectory synthesized image generated by the image synthesizing means is provided.
[0011]
Claims5The described image processing apparatus includes a storage unit that stores moving image information including a plurality of frame images, and a reference image that selects a specific frame image from the plurality of frame images stored in the storage unit and sets the selected frame image as a reference image Setting means, a trajectory image generation function selecting means for selecting a trajectory image generation function to be executed from a plurality of different trajectory image generation functions based on a user's instruction, or an operation speed of a subject; A trajectory image generating unit configured to generate a trajectory image expressing a motion trajectory of a subject included in each of the plurality of frame images using the plurality of frame images stored in the storage unit based on the selection result; Image combining means for combining the reference image and the trajectory image to generate a trajectory combined image,
It is characterized by having.
[0012]
And claims6The image processing method describedAn image processing method executed by an MPU,Extracting a plurality of frame images from the moving image information and storing them in a storage unit, selecting a frame image from the plurality of frame images stored in the storage unit, and setting as a reference image, Detecting a movement of a subject included in each of the stored plurality of frame images; and a trajectory executed from a plurality of different trajectory image generation functions based on a user's instruction or a detected operation speed of the subject. Selecting an image generation function, and processing the plurality of frame images based on the selected trajectory image generation function, the reference image, and the detected motion of the subject to represent a motion trajectory of the subject Generating a trajectory image, and synthesizing the reference image and the trajectory image to generate a trajectory composite image. And wherein the Mukoto.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<First embodiment>
FIG. 1 is a block diagram showing a first embodiment of the image processing apparatus according to the present invention.
In FIG. 1, reference numeral 10 denotes a moving image data capturing unit (image information capturing means), reference numeral 20 denotes a frame memory (storage means), reference numeral 30 denotes an MPU, reference numeral 40 denotes a hard disk, reference numeral 50 denotes a monitor such as LCD (image output means), and reference numeral 60 denotes A printer (image output unit), 70 is an input unit such as a key switch (reference image selection unit, locus image selection unit), and 80 is a data / command transmission bus. Here, the MPU 30 includes a motion detection section (motion detection section) 31, a trajectory image generation section (trajectory image generation section) 32, a center image setting section (reference image setting section) 33, and an image synthesis section (image synthesis section). ) 34.
[0014]
These functions are generally as follows.
(1) Video data capturing unit 10
The moving image data capturing unit 10 extracts a plurality of frame images from the moving image data and stores them in a frame memory 20 described later. Here, the moving image data may be constituted by video data or a plurality of continuously shot still images. In short, any frame image may be used as long as it is composed of a plurality of continuous frame images. The frame image to be captured may be an analog image or a digital image.
The schematic configuration of the moving image data capturing unit 10 will be described with reference to FIG.
In FIG. 2, reference numeral 11 denotes a frame image selection unit, 12 denotes an analog-digital converter (hereinafter, referred to as A / D), 13 denotes an image compression unit, and 14 denotes a bus interface.
[0015]
The frame image selecting unit 11 selects frame images at predetermined time intervals from the moving image data according to a command from the MPU 30 described later, and extracts an image signal of each selected frame image. Here, the selected frame image may be all the frame images constituting the moving image data, or may be frame images at specific time intervals, for example, every 1/5 sec or 1/10 sec. It is essential to have a time interval enough to grasp the movement of the subject included in the moving image data. The time interval used for selecting a frame image is determined by a method using a reference value preset by the MPU 30 or a method using an image processing apparatus.User (user)Various methods can be set, such as a method using an arbitrary value instructed via the input unit 70 according to the intention of the user.
When the selected frame image is an analog signal, the A / D 12 converts the analog image signal into a digital image signal.
[0016]
The image compression unit 13 converts the image signal of each frame image converted into a digital image signal by the A / D 12 or extracted as a digital image signal by the frame image selection unit 11 so as to conform to a predetermined image compression standard. To process. The JPEG standard or the like can be applied as a frame image compression encoding method. Here, JPEG (Joint Photographic Coding Experts Group) is a standard for compressing and encoding original image data by a method such as DCT (Discrete Cosine Transform), quantization, and variable-length coding. This is an international standard adopted for still cameras and the like. Note that, as a compression encoding method for image information, since various formats and standards such as GIF, TIFF, LHA, and ZIP are generally used in addition to JPEG, an appropriate method is adopted according to the embodiment. be able to.
The bus interface 14 converts the compressed frame image into a transmission width of the bus 80 and transfers the frame image to the frame memory 20.
[0017]
(2) Frame memory 20
The frame memory 20 is composed of a DRAM (Dynamic Random Access Memory) or the like, is selected by the moving image data capturing unit 10, associates header information such as image identification information with a compression-encoded frame image, and designates it by the MPU 30. Is stored in the stored image data storage area.
FIG. 3 is a conceptual diagram showing an internal area of the frame memory 20.
As shown in FIG. 3, the internal area of the frame memory 20 is roughly divided into a format table area, an information table area, an image data area, and an offset area.
The format table area stores format information that is comprehensive information regarding image information. The information table area includes a header for identifying image information such as image information identification information including number information for identifying image information, and time information indicating a position (time) of moving image data in a time series. Information is stored. The image data area stores compression-encoded frame images (compressed image data), and the offset area stores offset data (blank) for setting the data length of the compressed image data in the image data area to a fixed length. .
As described above, each compressed image data is stored in the image data area in association with the header information stored in the information table area.
[0018]
(3) Motion detection unit 31
The motion detecting section 31 detects a feature amount indicating the motion of the subject from a plurality of frame images stored in the frame memory 20. Here, the feature amount indicating the motion of the subject is information indicating a motion locus or trajectory of the subject, an operation (movement) speed, an operation (movement) direction, and the like, and can be generally expressed as vector information.
As a method of motion detection, frame images at different times are divided into block regions, block matching processing is performed on a reference image for each of the same block regions, and a coordinate position at which an error is minimized between frames of a subject. A block matching method for detecting motion can be applied. It should be noted that the block matching method is widely used in, for example, the IS117172-2 standard internationalized in ISO / IECJTC1 / SC29 / WG11. The block matching method will be described later.
[0019]
(4) Central image setting unit 33
The center image setting unit 33 selects and extracts a specific frame image from a plurality of frame images stored in the frame memory 20, and sets the selected frame image as a center image in image synthesis processing described later. Here, the center image is an image serving as a reference when synthesizing images, and may be an image located at the beginning or end of a series of frame images, or may be a frame image at a specific time. . In short, any method may be used as long as it extracts an image serving as a nucleus (original) to be combined with a trajectory image created by the trajectory image generation unit 32 described later.
[0020]
(5) Locus image generation unit 32
The trajectory image generation unit 32 stores in the frame memory 20 based on the feature amount indicating the motion of the subject detected by the motion detection unit 31 and the subject image included in the center image extracted by the center image setting unit 33. A plurality of frame images are processed to generate a trajectory image representing a motion trajectory or an afterimage according to the motion of the subject.
The trajectory image is generated by determining the subject from a plurality of frame images stored in the frame memory 20 based on the detection result of the motion detection unit 31 and extracting the contour component of the subject from each frame image other than the center image. , A process of multiplexing the extracted contour components, or a process of generating an afterimage region based on the contour components,In addition, the imageA unique trajectory image expressing the movement of the subject is created by performing shading adjustment.
[0021]
(6) Image synthesis unit 34
The image synthesizing section 34 synthesizes the locus image created by the locus image generating section 33 with the central image extracted by the central image setting section 33, and outputs it as a locus composite image.
(7) MPU 30, hard disk 40
The hard disk 40 stores programs executed by the MPU 30 and data necessary for operation. Therefore, the MPU 30 executes the application programs stored in the hard disk 40 to execute the functions of the motion detection unit 31, the trajectory image generation unit 32, the center image setting unit 33, and the image synthesis unit 34 by software. To perform a series of image processing and memory management, which will be described later, and output control to the monitor 50 and the printer 60.
[0022]
(8) Monitor 50, Printer 60
The trajectory composite image synthesized by the image synthesizing unit 34 is displayed or printed out, and is an output device such as a television, a monitor of a personal computer, or a printer. Here, in FIG. 1, the monitor 50 and the printer 60 are shown as being configured to be directly connected to the bus 80. However, the present invention is not limited to this, and a communication interface or the like connected to the bus 80 may be used. It may be a facsimile apparatus, a personal digital assistant (PDA), a personal computer, or the like, which is connected by a communication line via the communication line. In the description of the present invention, in addition to the display output to the monitor 50 and the print output to the printer 60, the entire operation of outputting the locus composite image as a still image is referred to as “display output” for convenience.
(9) Input unit 70
The input unit 70 is various key switches provided in the image processing apparatus, and generates control signals such as execution of an application program by the MPU 30, image processing, and display output to the monitor 50 and the printer 60. Further, it also has a function as a reference image selecting unit or a locus image selecting unit in an embodiment described later. When the present invention is implemented by a personal computer or the like, various input devices such as a keyboard, a mouse, and a pen tablet are included in addition to dedicated key switches provided in the image processing device.
[0023]
Next, a processing operation in the image processing apparatus having the above configuration will be described with reference to the drawings.
FIG. 4 is a flowchart illustrating the processing operation of the image processing apparatus according to the present embodiment. First, the outline of the processing operation will be described with reference to the above-described configuration, and then each step will be individually described.
As shown in FIG. 4, in steps S101 and S102, the moving image data capturing unit 10 selects and extracts a plurality of frame images at predetermined time intervals from the input moving image data so as to conform to a standard such as JPEG. Is subjected to a compression encoding process and stored in a predetermined storage area of the frame memory 20. At this time, header information for identifying the compressed frame image is stored in association with the header information.
ThenStep S103In step S104, the central image setting unit 33 sets a central image serving as a reference in image synthesis from among a plurality of frame images stored in the frame memory 20, and in steps S104 and S105, the motion detecting unit 31 And detects a subject (moving object) accompanying a motion included in the plurality of frame images stored in the frame image, and outputs information indicating a motion characteristic of the subject.
[0024]
ThenStep S106, S107In the trajectory image generation unit 32, the contour components of the subject included in each frame image are extracted based on the above-described motion characteristics of the subject and the center image, and the contour components are multiplexed or Generate an afterimage area based on the component, and further adjust the density of the contour componentSubject to processing,A trajectory image representing the movement of the subject is created.
ThenStep S108In step S109, the image combining unit 34 combines the center image and the trajectory image into one still image, and outputs the obtained still image to the monitor 50, the printer 60, or the like.
As described above, the processing operation of the image processing apparatus according to the present embodiment is roughly divided into a moving image data capturing step, a center image setting step, a motion detecting step, a trajectory image creating step, and an image synthesizing step.
[0025]
Hereinafter, each step will be described with reference to the drawings.
(1) Video data import step
FIG. 5 is a conceptual diagram showing the moving image data capturing step. Hereinafter, a description will be given of a vehicle running as a subject as an example.
Moving image data captured by a video camera or an electronic still camera, or moving image data such as video information of a television broadcast is a set of a series of frame images arranged in time series. , Frame images Fa, Fb, Fc,... At times T2, T6, T10,... Corresponding to the time-series positions of the moving image data VD, for example, at predetermined time intervals from a series of frame images. Selected and extracted by the moving image data capturing unit 10. Note that the selected and extracted frame image may be all of a series of frame images constituting the moving image data VD, and may be one that can grasp the movement of the subject, that is, the running state of the vehicle by the extracted frame image. The time interval is not limited to the above.
The extracted frame images Fa, Fb, Fc,... Are converted into digital image signals in order to easily execute image processing to be described later, and furthermore, in order to effectively use the storage capacity of the frame memory 20, JPEG or the like is used. A predetermined compression encoding process is performed, and the image data is sequentially stored in the image data area in association with image identification information, time information, and the like.
[0026]
(2) Center image setting step
In this step, the center image setting unit 33 selects, for example, the frame image Fb at time T6 from the plurality of frame images Fa, Fb, Fc,... The image is set as the center image by adding header information indicating that the image is an image. As described above, the center image is a reference image at the time of image composition, and the extraction method is to extract an image located at the start end, the end, or an intermediate time among the captured frame images. May be set in advance, or based on a detection result of a motion characteristic of a subject, which will be described later, for example, a vehicle whose traveling vehicle is located at the center position of the frame image may be selected.
[0027]
(3) Motion detection step
In this step, the motion detecting unit 31 detects a traveling vehicle from a plurality of frame images stored in the frame memory 20 and calculates the trajectory or trajectory of the motion.
Hereinafter, a method for detecting the movement of the subject included in the image information will be described with reference to the drawings.
First, block matching will be described as an example of a technique applied to motion detection.
FIG. 6 is a conceptual diagram showing a block matching method applied to the motion detection step.
For example, see “Television Society,“ Image Information Compression ”, Ohmsha, p. 92, 1991], describes a block matching method for detecting the movement of a subject included in moving image data composed of a plurality of continuous frame images.
[0028]
According to the above document, as shown in FIG. 6, a frame image of interest (hereinafter, referred to as a current frame image for convenience) Fn and a frame image at the immediately preceding time (hereinafter, referred to as a previous frame image for convenience). .) Pattern matching is performed on blocks (regions) Bn and Bm at specific positions in Fm. The pattern matching method is, for example, obtaining the absolute value sum S of the difference between the pixel Xn in the block Bn and the pixel Xn-i in the block Bm obtained by shifting the pixel Xn by i pixels according to the following equation (1). The sum of values S, that is, the shift position i that minimizes the evaluation amount is searched to detect the motion amount.
S = Σ | Xn-Xn-i | ... (1)
Here, the sum calculation in the equation (1) is executed for all the pixels Xn belonging to the block Bn.
As described above, in the block matching method, the current frame image is divided into blocks, and a similar position to the previous frame image is searched for by block matching in block units, and the motion speed, direction, and the like of the subject included in the frame image are searched for. Detect motion.
[0029]
As a method applied to motion detection, a method of calculating a motion vector from a change in a characteristic component of a subject region included in a frame image can be applied in addition to the above-described block matching method.
In this method, first, a Laplacian process is performed on a luminance component included in a frame image, a zero-crossing point of the processed image is detected as a region boundary line, and a portion closed by a continuous boundary line is set as an independent region (subject region). ). Alternatively, a color component included in the frame image is analyzed, and a continuous portion having a small change in hue is replaced with a representative color and extracted as one region. Then, a feature component of the extracted region, for example, the position of the center of gravity of the region is detected, and the amount of change between frame images is calculated to obtain a motion vector indicating the amount of parallel movement of the entire region. Therefore, by outputting the calculated change amount as the motion parameter of the region, the value (movement amount, direction) of the motion vector can be obtained by calculation at an arbitrary pixel position in the subject region.
As still another method of motion detection, a method of detecting a large number of contour components in a frame image, grouping the detected large number of contour lines into groups, and detecting the motion of the entire image by neural network processing is applied. You can also.
[0030]
(4) Trajectory image creation step
In this step, the trajectory image generation unit 32 generates a trajectory image representing the running state of the vehicle based on the plurality of frame images stored in the frame memory 20 and the center image.
FIG. 7 is a conceptual diagram illustrating a first example of the trajectory image creation step.
As shown in FIG. 7, based on a plurality of frame images Fa, Fb, and Fc stored in the frame memory 20, based on the movements (movement characteristics) of the vehicles Ca, Cb, and Cc determined in the above-described movement detection step. Trajectory images are generated by extracting only the contour components of and arranging them in chronological order. The trajectory image generated here is different from the mere multi-synthesis of the frame images described in the related art, in that only the outline component is synthesized, so that the trajectory image accurately represents the entire movement of the vehicle. Further, in the center image setting step, a trajectory image is processed based on the position of the vehicle Cb included in the frame image (for example, Fb) set as the center image.
[0031]
More specifically, a plurality of trajectory images are configured using the luminance, saturation, and the like of an outline component (hereinafter, referred to as a reference outline component) included in an image (subject image) of the vehicle Cb included in the center image Fb as a reference value. Of the contour components located near the reference contour component, the brightness and the saturation are approximated to the reference value, and as the distance increases, the brightness and the saturation are reduced to adjust to a so-called blurred state. . At this time, the processing is performed only on the contour components constituting the trajectory image located on the opposite side (rear side; left side in the drawing) of the traveling direction of the vehicle Cb, and is located on the traveling direction side (front side; right side in the drawing). The contour component is deleted. That is, the locus image La is created by performing image processing using the outline component of the frame image belonging to the past than the center image. The above-described trajectory image creation processing is referred to as “first trajectory image creation processing”.
[0032]
Further, as another method, in addition to the above-described multiple composition processing of the contour component, a process of generating and arranging a specific image element expressing the motion direction and the motion state of the subject, for example, a line component extending in the motion direction of the subject, is performed. In addition, as shown in FIG. 7, a locus image Lb may be created. The above-described trajectory image creation processing is referred to as “second trajectory image creation processing”.
In the above-described processing of the trajectory image, a method of extracting and multiplex-synthesizing the contour components of the subject included in the frame image and further performing the processing of each contour component based on the position of the subject included in the center image is described.It has been described,The present invention is not limited to the above-described example as long as it allows a viewer of the synthesized or processed image to accurately recognize the operation state of the subject.
[0033]
Next, a description will be given of a second example of the path image creation step.
In the above-described first example, the description has been given on the assumption that the moving image data is obtained by capturing a state in which the vehicle included in the extracted frame image is traveling with respect to the fixed background. There is a case where moving image data is obtained by fixing a running vehicle at a fixed position in a frame image. The process of creating path image in such a case will be described.
FIG. 8 is a conceptual diagram illustrating a second example of the trajectory image creation step.
As shown in FIG. 8, from a plurality of frame images Fi, Fj, and Fk extracted from the moving image data and stored in the frame memory 20, the background component Gi, Gj, to extract the Gk only. The background components Gi, Gj, and Gk are easily generated by deleting, from the frame images Fi, Fj, and Fk, the subject (vehicles Ci, Cj, and Ck) components whose motion has not been detected in the motion detection step. Then, the extracted background components Gi, Gj, and Gk are arranged in time series to generate a trajectory image. Further, in the center image setting step, the background included in the frame image (for example, Fk) set as the center image Based on a component (hereinafter, referred to as a reference background component) Gk, processing of a locus image is performed.
[0034]
Specifically, the luminance, the saturation, and the like of the reference background component Gk are processed so as to represent the largest degree of blur, and the plurality of background components constituting the trajectory image are arranged near the reference background component Gk. The trajectory image Lc is created by performing a blurring process by approximating the positioned object to the reference value, and adjusting the background component to have the original luminance and saturation as the distance increases.
Note that, similarly to the first example described above, the trajectory image creation processing includes not only the synthesis and processing of the background component, but also the line component expressing the moving (flowing) state of the background component.A combination of the additional processingIt may be the one to use.
[0035]
(5) Image synthesis step
In this step, the image combining unit 34 combines the center image and the trajectory image to generate a still image representing the running state of the vehicle, and outputs the still image via the monitor 50 or the printer 60.
9 and 10 are conceptual diagrams showing a first example of the image synthesizing step. Here, FIG. 9 is a conceptual diagram showing a case in which the trajectory image La created by the above-described first trajectory image creation process and the center image are combined, and FIG. FIG. 7 is a conceptual diagram showing a case where a locus image Lb created by the locus image creation process is combined with a center image.
[0036]
As shown in FIGS. 9 and 10, the frame image Fb set as the center image in the center image setting step and the trajectory images La and Lb created in the trajectory image creation step are combined to perform processing of the vehicle Cb. Still images ED1 and ED2 obtained by synthesizing the trajectory images La and Lb representing the traveling state are obtained. That is, the center image Fb is only a specific one of a series of frame images constituting moving image data, but the trajectory images La and Lb have the outline component and the center component based on the position of the vehicle Cb included in the center image Fb. Since the processing of the area has been performed, the traveling locus of the vehicle Cb is expressed in one frame image Fb by combining the two.
Then, the synthesized still images ED1 and ED2 are transferred to the monitor 50 and the printer 60 via the bus 80 and displayed and output.
[0037]
FIG. 11 is a conceptual diagram illustrating a second example of the image synthesizing step, and illustrates a case where the trajectory image Lc created by the trajectory image creation process illustrated in FIG. 8 and the image of the vehicle Ck are combined.
As shown in FIG. 11, the image component of the vehicle Ck included in the frame image Fk set in the center image in the center image setting step and the trajectory image Lc created in the trajectory image creation step are multiplexed and synthesized. A still image ED3 expressing the running state of the vehicle Ck in the background flow is obtained. That is, as in the first example described above, the center image Fk is only a specific one of a series of frame images constituting moving image data, but the trajectory image Lc includes a background component included in the center image Fk. Since the processing of the contour and the region is performed based on Gk, the traveling state of the vehicle Ck is represented by the flow of the background in one frame image Fk by combining the two.
According to the present embodiment having the above series of steps, by detecting a series of movements of the subject in the moving image data, creating a trajectory image corresponding to the position and movement of the subject, and performing synthesis processing with the center image, A still image in which the movement of the subject is accurately represented can be created. Therefore, since the motion of the moving object can be intuitively grasped with one still image, it can be effectively used as an index of moving image data.
[0038]
<Second embodiment>
Next, a second embodiment of the image processing apparatus according to the present invention will be described with reference to the drawings.
In the present embodiment, in the first embodiment described above, the movement (movement characteristics) of the subject detected by the movement detection unit 31 is analyzed, and the method of creating the locus image is changed according to, for example, the traveling speed of the vehicle. It is like that.
That is, in the image processing apparatus shown in FIG. 1, the trajectory image generation unit 32 analyzes the detection result such as the motion speed and the motion direction of the subject detected by the motion detection unit 31 and changes the trajectory image creation processing. Control function.
Specifically, as shown in FIG. 9, in the still image ED1 in which the locus image La created by the first locus image creation process is synthesized with the center image Fb, the movement of the vehicle Cb is recognized to be relatively slow. On the other hand, as shown in FIG. 10, in the still image ED2 obtained by synthesizing the locus image Lb created by the second locus image creating process with the center image Fb, the movement of the vehicle Cb is It is expressed as a relatively faster recognition. Therefore, based on such characteristics, the operation speed of the subject detected by the motion detection unit 31 is determined, for example, by comparing it with a predetermined threshold value to determine whether the operation is a low-speed operation or a high-speed operation. switching the first and second path image creation processing as appropriate.
[0039]
Here, the relationship between the movement speed of the subject and the trajectory will be described. When the subject is moving at a low speed, the contour of the moving object is grasped relatively clearly, which corresponds to the human visual (retinal) characteristic. Then, by performing multiple synthesis for the number of frame images without blurring the outline of the subject (moving object) included in each frame image, a low-speed operation state can be expressed, and the motion of the subject can be appropriately recognized. . In the present invention, in addition to the multiple synthesis of the contour components, the brightness and saturation of the contour near the subject included in the center image are approximated to those of the center image so that the line segments and colors are clearly displayed. In a contour far from the subject, processing is performed to blur the line segments and colors, and a processing process for expressing the movement of the subject more realistically is performed.
On the other hand, when the subject moves at a high speed, the outline of the moving object is grasped extremely vaguely. Thus, a high-speed operation state can be expressed, and the movement of the subject can be appropriately recognized.
[0040]
Hereinafter, the processing operation of the present embodiment will be described with reference to the flowchart of FIG. Steps equivalent to those in the above-described first embodiment will be simplified.
As shown in FIG. 12, in steps S201 and S202, a plurality of frame images are selected and extracted from the moving image data at predetermined time intervals, compression-encoded, and stored in a predetermined storage area of the frame memory 20. ThenStep S203In step S204, a center image is set from a plurality of frame images stored in the frame memory 20, and in step S204, a subject (moving object) included in the plurality of frame images is detected by applying the above-described block matching method or the like. At the same time, the motion characteristics such as the motion speed and direction of the subject are calculated.
In steps S205 to S207, the calculated operation speed is compared with a preset threshold speed. If the calculated operation speed is lower than the threshold, the subject is a low-speed moving object. Is determined, the above-described first trajectory image creation processing is selected, and processing is performed so that the contour components forming the trajectory image are relatively clearly expressed. On the other hand, when the calculated operation speed is higher than the threshold value, it is determined that the subject is a high-speed moving object, and the above-described second trajectory image creation processing is selected, and in addition to the multiple synthesis of the contour components, , A processing for superimposing a line component or the like expressing a motion direction or the like is performed.
ThenStep S208, S209In step (1), the center image and the trajectory image are combined to form one still image, which is displayed and output via the monitor 50 and the printer 60.
[0041]
According to the present embodiment having the above series of steps, a method of creating a locus image based on a series of detected movements of a subject, particularly an operating speed (moving speed)(Function to execute the locus image creation process; locus image generation function)Can be changed to execute a trajectory image creation process of creating a trajectory image corresponding to the operation speed, so that a still image that can intuitively recognize the movement of the subject can be created.
In the present embodiment, a case where the first and second trajectory image creation processes are used as the processing method selected according to the operation speed of the subject is described.It has been shown,The method for processing the background component shown in FIGS. 8 and 11 may be changed. In short, any method other than the above method may be used as long as it allows a viewer of the synthesized still image to accurately recognize the operation state of the subject. Also, as the processing for determining the operation speed of the subject, a case has been described where comparison processing with one preset threshold value is performed. However, multi-level determination based on a plurality of threshold values may be performed. The luminance and the saturation may be weighted using the speed as it is.
[0042]
<Third embodiment>
Next, a third embodiment of the image processing apparatus according to the present invention will be described with reference to the drawings.
In the present embodiment, selection and setting processing of the center image in the center image setting step is changed according to a command input from the input unit 70 or the like.
That is, in the image processing apparatus shown in FIG. 1, the central image setting unit 33 sends the central image setting unit 33 to the frame memory 20 in accordance with the central image selection command input from the input unit 70 or via a communication line (not shown). It has a function of extracting an arbitrary frame image from a plurality of stored frame images and setting the extracted frame image as a center image.
Specifically, a plurality of frame images stored in the frame memory 20 are displayed and output via the monitor 50 and the printer 60, and an input of a command for specifying a frame image to be selected as the center image is input to the user of the image processing apparatus. Prompt. The user browses the displayed and output frame images, selects an arbitrary frame image from the displayed frame images, inputs a center image selection command via an input unit 70 such as a key switch or a keyboard, and inputs the center image selection instruction to the frame memory 20. Header information indicating the center image is added to the information table area of the image.
[0043]
Therefore, the user can easily input the frame image that seems to be most appropriate for expressing the motion state of the subject or the frame image that is most appropriate for producing the special effect from the input unit 70 or the like, and can easily input the frame image. it can be set as the center image.
Hereinafter, the processing operation of the present embodiment will be described with reference to the flowchart of FIG. Steps equivalent to those in the above-described first or second embodiment will be simplified.
[0044]
As shown in FIG. 13, in steps S301 and S302, a plurality of frame images are selected and extracted from the moving image data at predetermined time intervals, subjected to compression encoding processing, and stored in a predetermined storage area of the frame memory 20. ThenStep S303, All or some of the plurality of frame images stored in the frame memory 20 are displayed and output via the monitor 50, the printer 60, etc., and the user is prompted to select a frame image to be set as the center image and to input a command. .
Here, the display output method of the frame images by the monitor 50 and the printer 60 may be a method of sequentially outputting the frame images in time series, or a method of outputting a plurality of frame images collectively on the divided screen. There may be. Further, the frame images to be displayed and output may be all the frame images stored in the frame memory 20, or may be some frame images. That is, in the frame images Fa, Fb, and Fc extracted in FIG. 5, all of these frame images may be displayed and output, or only some of the odd-numbered frame images Fa and Fc may be displayed and output. May be used. In short, what is necessary is just to display and output a frame image that can be used as a center image in the image synthesis processing.
[0045]
Next, in step S304, header information is set so that the frame image selected and designated by the user becomes the center image. Further, in step S305, the subject (moving object) included in the plurality of frame images is detected by applying the above-described block matching method or the like, and the operation state of the subject is output. Then, in step S306, a predetermined trajectory image is generated based on the operation state and the center image of the subject,Steps S307 and S308In step (1), the center image and the trajectory image are combined to form one still image, which is displayed and output via the monitor 50 and the printer 60.
According to the present embodiment having the above series of steps, the user does not univocally select and set the center image from among the plurality of frame images, but browses the displayed and output frame image and allows the user to freely select the center image. Since the frame image can be designated and set, it is possible to realize more various image expressions while accurately expressing the movement of the subject. Note that the trajectory image creation step is not limited to the method described in the first embodiment, but may be a method in which the processing method is appropriately changed according to the motion characteristics of the subject as described in the second embodiment. Good.
[0046]
<Fourth embodiment>
Next, a fourth embodiment of the image processing apparatus according to the present invention will be described with reference to the drawings.
In the present embodiment, the change of the trajectory image creation processing in the above-described second embodiment is not controlled based on the motion characteristics of the subject, but via the input unit 70 or the like according to the user of the image processing apparatus. it is obtained to be able to arbitrarily set.
That is, in the image processing apparatus shown in FIG. 1, the trajectory image generation unit 32 outputs a trajectory image according to a trajectory image creation process selection command input from the input unit 70 or via a communication line (not shown). It has a function of arbitrarily selecting a method of creating. The process of creating a trajectory image to be selected is a process of creating a trajectory image according to the motion characteristics of the subject, that is, the first and second trajectory image creation processes described above.And, background componentIn addition to the above-described processing, it is also possible to arbitrarily select a process of creating a special trajectory image that emphasizes a subject included in the center image or characterizes the subject.
[0047]
Here, an example of a process of creating and synthesizing a special trajectory image that emphasizes or characterizes a subject will be described with reference to the drawings.
FIG. 14 is a conceptual diagram illustrating an example of a special trajectory image creation process, and FIG. 15 is a conceptual diagram illustrating an example of a combining process of a special trajectory image and a center image.
As shown in FIG. 14, only a contour component of the vehicle is extracted from a plurality of frame images Fa to Fe stored in the frame memory 20 based on the movement of the vehicles Ca to Ce determined in the motion detection step, and (Multiple composition), a trajectory image expressing the entire movement of the vehicle is generated. Then, based on the position and the contour components of the vehicle Cc included in the frame image (for example, Fc) set as the center image, the contour components located in front of and behind the vehicle Cc are blurred as the distance from the vehicle Cc increases. The locus image LQ is created by performing processing to generate the locus image.
[0048]
Next, as shown in FIG. 15, by combining the frame image Fc set as the center image and the special trajectory image LQ, the vehicle Cc is emphasized in the entire motion trajectories of the vehicles Ca to Ce. special still image EDQ is obtained.
Accordingly, the user can easily set a desired still image by inputting and setting, for example, a method of creating a locus image that seems to be most appropriate for producing a special effect via the input unit 70 such as a key switch or a keyboard. Can be created.
Hereinafter, the processing operation of the present embodiment will be described with reference to the flowchart of FIG. Steps equivalent to those in the above-described first to third embodiments will be briefly described.
[0049]
As shown in FIG. 16, in steps S401 and S402, a plurality of frame images are selected and extracted from the moving image data at predetermined time intervals, subjected to compression encoding processing, and stored in a predetermined storage area of the frame memory 20. ThenStep S403In step S404, a center image is set from among a plurality of frame images stored in the frame memory 20, and in step S404, a subject (moving object) included in the plurality of frame images is detected by applying the above-described block matching method or the like. as well as to output the operation state of the subject.
Then, in steps S405 and S406, a predetermined trajectory image is generated based on the trajectory image creation method selected and set by the user,Steps S407 and S408In step (1), the center image and the trajectory image are combined to form one still image, which is displayed and output via the monitor 50 and the printer 60.
According to the present embodiment having the above series of steps, since the method of creating a locus image can be arbitrarily selected and set according to the user's will, a special locus image created using the motion locus of the subject Is synthesized with the center image, a still image exhibiting a special effect can be easily created.
It should be noted that the image processing apparatus of the present invention can be favorably applied to image processing apparatuses such as video players, facsimile apparatuses, and printers in addition to the above-described video cameras, electronic still cameras, and personal computers. Nor.
[0050]
【The invention's effect】
Claim1, 3, 5 or 6According to the described invention, since a trajectory image centering on the subject included in the frame image set as the reference image and according to the motion of the subject is generated, the intuition of the motion of the subject captured as the moving image information is intuitive. Still images that can be visually recognized can be easily created and output. In particular, a method of generating a trajectory image to be executed is selected based on at least the movement of the subject from among a plurality of different trajectory image generating methods (trajectory image generating function), and the contour components of the subject are multiplexed and synthesized. A contour image near the subject of the image is clearly displayed, and a still image (trajectory composite image) that accurately reflects the operation state of the subject is created by processing so that blurring or blurring occurs as the distance from the subject increases. be able to.
And claims4By having the image output means according to the described invention, the still image can be displayed and output on a television monitor or a monitor of a personal computer, or printed out by a printer or the like. Therefore, the moving image information can be expressed as a still image by a simple method and in various expression formats, and can be effectively used for purposes such as index information of the moving image information.
[0051]
In particular, claim 1According to the invention described above, the motion speed of the subject included in the frame image extracted from the moving image information is detected, and the method of generating the locus image (trajectory image generation function) is changed in accordance with the detection result. it is possible to generate the trajectory image corresponding to the operating speed of the. Therefore, since the sense of speed expressed by the locus image varies depending on the motion speed of the subject, the entire motion of the subject and the motion speed can be intuitively grasped only by looking at the created still image.
Claims2According to the described invention, a frame image serving as a reference image can be arbitrarily selected and set by a user (user) of the image processing apparatus, and a subject included in the reference image is centered, In addition, since a trajectory image is generated in accordance with the movement of the subject, a still image in which the subject located at an arbitrary position is emphasized can be easily created, and the movement of the subject can be accurately determined using a wider variety of expression formats. it is possible to grasp.
Claims3According to the described invention, a method of generating a trajectory image can be arbitrarily selected and set by a user (user) of the image processing apparatus, so that a wider variety of expression formats can be realized. , it is possible to create a still image with special effects easily. In particular, a trajectory image desired by the user can be generated by providing, as a method of generating a trajectory image, blurring of a contour component, gradation processing, addition of a specific image expressing speed, and the like.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a first embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a block diagram illustrating a schematic configuration of a moving image data capturing unit.
FIG. 3 is a conceptual diagram showing an internal area of a frame memory.
FIG. 4 is a flowchart illustrating a processing operation of the image processing apparatus according to the first embodiment.
FIG. 5 is a conceptual diagram showing a moving image data capturing step.
FIG. 6 is a conceptual diagram illustrating a block matching method applied to a motion detection step.
FIG. 7 is a conceptual diagram showing a first example of a trajectory image creation step.
FIG. 8 is a conceptual diagram showing a second example of the trajectory image creating step.
FIG. 9 is a conceptual diagram showing a case where a locus image created by a first locus image creation process and a center image are combined.
FIG. 10 is a conceptual diagram showing a case where a locus image created by a second locus image creation process and a center image are combined.
FIG. 11 is a conceptual diagram showing a second example of the image synthesizing step.
FIG. 12 is a flowchart illustrating a processing operation of the image processing apparatus according to the second embodiment.
FIG. 13 is a flowchart illustrating a processing operation of the image processing apparatus according to the third embodiment.
FIG. 14 is a conceptual diagram illustrating an example of a special trajectory image creation process applied to the fourth embodiment.
FIG. 15 is a conceptual diagram showing an example of a synthesis process of a special trajectory image and a center image applied to the fourth embodiment.
FIG. 16 is a flowchart illustrating a processing operation of the image processing apparatus according to the fourth embodiment.
FIG. 17 is a diagram showing the concept of a method of extracting and displaying one image from a plurality of frame images constituting moving image information.
FIG. 18 is a diagram showing the concept of a method of extracting a plurality of frames from a plurality of frame images constituting moving image information and collectively displaying them on a divided screen.
FIG. 19 is a conceptual diagram showing a conventional method of expressing moving image information as a still image.
[Explanation of symbols]
10 video data capturing unit (image information capturing means)
20 frame memory (storage means)
30 MPU
31 motion detection unit (motion detection means)
32 path image generating unit (trace image producing means)
33 center image setting unit (reference image setting means)
34 Image Synthesizing Unit (Image Synthesizing Means)
40 Hard Disk
50 monitor (image output means)
60 Printer (image output means)
70 input unit (reference image selecting means, the trajectory image selection means)
80 bus

Claims (6)

動画情報から複数のフレーム画像を抽出し、記憶手段に記憶する画像情報取込手段と、
前記記憶手段に記憶された前記複数のフレーム画像から特定のフレーム画像を選択し、基準画像として設定する基準画像設定手段と、
前記記憶手段に記憶された前記複数のフレーム画像の各々に含まれる被写体の動きを検出する動き検出手段と、
前記動き動作検出手段により検出された前記被写体の動作速度に基づいて、異なる複数の軌跡画像生成機能から実行する軌跡画像生成機能を選択する軌跡画像生成機能選択手段と、
前記軌跡画像生成機能選択手段により選択された前記軌跡画像生成機能を実行して、前記動き検出手段により検出された前記被写体の動作速度に対応した、前記被写体の動作軌跡を表現する軌跡画像を生成する軌跡画像生成手段と、
前記基準画像と前記軌跡画像とを合成して、軌跡合成画像を生成する画像合成手段と、
を備えたことを特徴とする画像処理装置。
An image information capturing unit that extracts a plurality of frame images from the moving image information and stores the extracted frame image in a storage unit;
A reference image setting unit that selects a specific frame image from the plurality of frame images stored in the storage unit and sets it as a reference image;
Motion detection means for detecting the motion of the subject included in each of the plurality of frame images stored in the storage means,
A trajectory image generation function selection unit that selects a trajectory image generation function to be executed from a plurality of different trajectory image generation functions based on the operation speed of the subject detected by the motion operation detection unit;
The trajectory image generation function selected by the trajectory image generation function selection means is executed to generate a trajectory image representing the motion trajectory of the subject corresponding to the motion speed of the subject detected by the motion detection means Trajectory image generating means,
Image combining means for combining the reference image and the trajectory image to generate a trajectory combined image,
An image processing apparatus comprising:
前記記憶手段に記憶された前記複数のフレーム画像から、画像処理装置の使用者が任意のフレーム画像を選択するための基準画像選択手段を有し、前記基準画像設定手段は、前記基準画像選択手段により選択された前記フレーム画像を前記基準画像として設定することを特徴とする請求項1記載の画像処理装置。The image processing apparatus further includes a reference image selection unit for selecting an arbitrary frame image from the plurality of frame images stored in the storage unit, and the reference image setting unit includes the reference image selection unit. The image processing apparatus according to claim 1, wherein the frame image selected by the following is set as the reference image. 動画情報から複数のフレーム画像を抽出し、記憶手段に記憶する画像情報取込手段と、Extracting a plurality of frame images from the moving image information, an image information acquisition means for storing in the storage means,
前記記憶手段に記憶された前記複数のフレーム画像から特定のフレーム画像を選択し、基準画像として設定する基準画像設定手段と、A reference image setting means for selecting a specific frame image from the stored plurality of frame images in the storage means is set as a reference image,
前記記憶手段に記憶された前記複数のフレーム画像の各々に含まれる被写体の動きを検出する動き検出手段と、Motion detection means for detecting a movement of an object included in each of the stored plurality of frame images in the storage means,
画像処理装置の使用者の指示に基づいて、異なる複数の軌跡画像生成機能から実行する軌跡画像生成機能を選択する軌跡画像生成機能選択手段と、A trajectory image generation function selecting unit that selects a trajectory image generation function to be executed from a plurality of different trajectory image generation functions based on an instruction of a user of the image processing apparatus;
前記軌跡画像生成機能選択手段により選択された前記軌跡画像生成機能を実行して、前記動き検出手段により検出された前記被写体の動きに対応した、前記被写体の動作軌跡を表現する軌跡画像を生成する軌跡画像生成手段と、The trajectory image generation function selected by the trajectory image generation function selection means is executed to generate a trajectory image representing the motion trajectory of the subject corresponding to the motion of the subject detected by the motion detection means. Trajectory image generation means,
前記基準画像と前記軌跡画像とを合成して、軌跡合成画像を生成する画像合成手段と、By combining said trajectory image and the reference image, an image synthesizing means for generating a trajectory composite image,
を備えたことを特徴とする画像処理装置。An image processing apparatus comprising:
前記画像合成手段により生成された前記軌跡合成画像を表示出力する画像出力手段を有していることを特徴とする請求項1、2、3記載の画像処理装置。The image processing apparatus according to claim 1, 2, 3, wherein the has an image output means for displaying and outputting the locus-synthesized image generated by the image synthesizing unit. 複数のフレーム画像からなる動画情報を記憶する記憶手段と、
前記記憶手段に記憶された前記複数のフレーム画像から特定のフレーム画像を選択し、基準画像として設定する基準画像設定手段と、
使用者の指示、あるいは被写体の動作速度に基づいて異なる複数の軌跡画像生成機能から実行する軌跡画像生成機能を選択する軌跡画像生成機能選択手段と、
前記軌跡画像生成機能選択手段の選択結果に基づいて、前記記憶手段に記憶された前記複数のフレーム画像を用いて、該複数のフレーム画像の各々に含まれる被写体の動作軌跡を表現する軌跡画像を生成する軌跡画像生成手段と、
前記基準画像と前記軌跡画像とを合成して、軌跡合成画像を生成する画像合成手段と、
を備えたことを特徴とする画像処理装置。
Storage means for storing moving image information composed of a plurality of frame images;
A reference image setting unit that selects a specific frame image from the plurality of frame images stored in the storage unit and sets it as a reference image;
Trajectory image generation function selection means for selecting a trajectory image generation function to be executed from a plurality of different trajectory image generation functions based on a user's instruction or an operation speed of a subject,
Based on the selection result of the trajectory image generation function selection means, using the plurality of frame images stored in the storage means, to generate a trajectory image expressing the motion trajectory of the subject included in each of the plurality of frame images Trajectory image generating means for generating,
Image combining means for combining the reference image and the trajectory image to generate a trajectory combined image,
An image processing apparatus comprising:
MPUによって実行される画像処理方法であって、
動画情報から複数のフレーム画像を抽出して記憶手段に記憶するステップと、
前記記憶手段に記憶された前記複数のフレーム画像からフレーム画像を選択し、基準画像として設定するステップと、
前記記憶手段に記憶された前記複数のフレーム画像の各々に含まれる被写体の動きを検出するステップと、
使用者の指示、あるいは検出された前記被写体の動作速度に基づいて異なる複数の軌跡画像生成機能から実行する軌跡画像生成機能を選択するステップと、
選択された軌跡画像生成機能、前記基準画像、及び、検出された前記被写体の動きに基づいて、前記複数のフレーム画像を加工し、前記被写体の動作軌跡を表現する軌跡画像を生成するステップと、
前記基準画像と前記軌跡画像とを合成して、軌跡合成画像を生成するステップと、
を含むことを特徴とする画像処理方法。
An image processing method executed by an MPU,
Extracting a plurality of frame images from the moving image information and storing the extracted frame images in a storage unit;
Selecting a frame image from the plurality of frame images stored in the storage means, and setting the frame image as a reference image;
Detecting a motion of a subject included in each of the plurality of frame images stored in the storage unit;
A step of selecting a trajectory image generation function to be executed from a plurality of different trajectory image generation functions based on a user's instruction or a detected operation speed of the subject,
Processing the plurality of frame images based on the selected trajectory image generation function, the reference image, and the detected movement of the subject, and generating a trajectory image expressing a motion trajectory of the subject;
Composing the reference image and the trajectory image to generate a trajectory composite image;
An image processing method comprising:
JP36582798A 1998-12-24 1998-12-24 Image processing apparatus and image processing method Expired - Fee Related JP3603629B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36582798A JP3603629B2 (en) 1998-12-24 1998-12-24 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36582798A JP3603629B2 (en) 1998-12-24 1998-12-24 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2000187478A JP2000187478A (en) 2000-07-04
JP3603629B2 true JP3603629B2 (en) 2004-12-22

Family

ID=18485217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36582798A Expired - Fee Related JP3603629B2 (en) 1998-12-24 1998-12-24 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3603629B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018578A (en) * 2001-06-27 2003-01-17 Sony Corp Communication equipment and method therefor, communication system, recording medium and program
JP4596227B2 (en) 2001-06-27 2010-12-08 ソニー株式会社 COMMUNICATION DEVICE AND METHOD, COMMUNICATION SYSTEM, RECORDING MEDIUM, AND PROGRAM
WO2005093654A2 (en) 2004-03-25 2005-10-06 Fatih Ozluturk Method and apparatus to correct digital image blur due to motion of subject or imaging device
JP2005316300A (en) * 2004-04-30 2005-11-10 Kyushu Institute Of Technology Semiconductor device having musical tone generation function, and mobile type electronic equipment, mobil phone, spectacles appliance and spectacles appliance set using the same
JP5003063B2 (en) * 2006-08-30 2012-08-15 セイコーエプソン株式会社 Moving image display apparatus and moving image display method.
JP2008167220A (en) * 2006-12-28 2008-07-17 Canon Inc Image processing apparatus and method, and program and recording medium
JP2008182312A (en) * 2007-01-23 2008-08-07 Xanavi Informatics Corp Picked-up image display device
WO2010035752A1 (en) 2008-09-24 2010-04-01 株式会社ニコン Image generation device, imaging device, image reproduction device, and image reproduction program
JP5483535B2 (en) * 2009-08-04 2014-05-07 アイシン精機株式会社 Vehicle periphery recognition support device
JP5293587B2 (en) * 2009-12-16 2013-09-18 ソニー株式会社 Display control apparatus, display control method, and program
JP2011176456A (en) * 2010-02-23 2011-09-08 Nikon Corp Camera and image reproducing device
JP5581728B2 (en) * 2010-02-24 2014-09-03 カシオ計算機株式会社 Image processing apparatus and method, and program
WO2013150829A1 (en) * 2012-04-03 2013-10-10 ソニー株式会社 Image processing device, image processing device control method, and program
JP6318547B2 (en) * 2013-10-28 2018-05-09 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
EP3023987B1 (en) 2014-11-20 2017-03-22 Axis AB Method and apparatus for visualizing information of a digital video stream
CN114968044B (en) * 2022-07-26 2023-01-24 安徽淘云科技股份有限公司 Picture display method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP2000187478A (en) 2000-07-04

Similar Documents

Publication Publication Date Title
JP3603629B2 (en) Image processing apparatus and image processing method
JP3569800B2 (en) Image processing apparatus and image processing method
US8627206B2 (en) Image processing device and image processing method for displaying images in a spiral form
US8559798B2 (en) Image frame processing method and device for displaying moving images to a variety of displays
US8768103B2 (en) Video processing apparatus and video display apparatus
JP4843753B2 (en) Three-dimensional image generation method and apparatus
US7535497B2 (en) Generation of static image data from multiple image data
US8218025B2 (en) Image capturing apparatus, image capturing method, and computer program product
GB2372658A (en) A method of creating moving video data from a static image
US20090262136A1 (en) Methods, Systems, and Products for Transforming and Rendering Media Data
CN102572502A (en) Selecting method of keyframe for video quality evaluation
CN114881921A (en) Event and video fusion based occlusion-removing imaging method and device
US8249425B2 (en) Method and apparatus for controlling image display
JP4240098B2 (en) Image processing apparatus and image processing method
US20070076978A1 (en) Moving image generating apparatus, moving image generating method and program therefor
JP3882824B2 (en) Image processing apparatus and image processing method
CN114339030B (en) Network live video image stabilizing method based on self-adaptive separable convolution
JP4189575B2 (en) Image processing apparatus, thumbnail movie creation method, and thumbnail movie creation program
JP4656199B2 (en) Image processing apparatus, thumbnail movie creation method, and thumbnail movie creation program
JP4881045B2 (en) MOVIE GENERATION DEVICE, MOVIE GENERATION METHOD, AND PROGRAM
JP6842194B2 (en) Display control device, display control method and display control program
JP4633594B2 (en) Movie generation device, movie generation method, and program
WO2020121844A1 (en) Image processing device, image processing method, and program
KR100225611B1 (en) Sports image effects apparatus
KR20040095831A (en) A device and a method of distinguishing native property for digital image

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040920

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071008

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081008

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081008

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091008

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091008

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101008

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101008

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111008

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111008

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121008

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121008

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees