JP2009188891A - Image processor, image processing method, and image processing program - Google Patents
Image processor, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2009188891A JP2009188891A JP2008028824A JP2008028824A JP2009188891A JP 2009188891 A JP2009188891 A JP 2009188891A JP 2008028824 A JP2008028824 A JP 2008028824A JP 2008028824 A JP2008028824 A JP 2008028824A JP 2009188891 A JP2009188891 A JP 2009188891A
- Authority
- JP
- Japan
- Prior art keywords
- image
- analysis
- information
- image sequence
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 15
- 238000012545 processing Methods 0.000 claims abstract description 166
- 238000010191 image analysis Methods 0.000 claims abstract description 92
- 238000011156 evaluation Methods 0.000 claims abstract description 72
- 238000000034 method Methods 0.000 claims description 124
- 238000004458 analytical method Methods 0.000 claims description 119
- 230000006870 function Effects 0.000 claims description 113
- 230000008569 process Effects 0.000 claims description 98
- 230000002441 reversible effect Effects 0.000 claims description 82
- 230000002123 temporal effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 30
- 239000010410 layer Substances 0.000 description 16
- 238000001914 filtration Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 6
- 230000001174 ascending effect Effects 0.000 description 5
- 238000007476 Maximum Likelihood Methods 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000008034 disappearance Effects 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000011229 interlayer Substances 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、動画像から所望の静止画像を抽出し、超解像処理によって抽出した静止画像よりも高精細な静止画像を生成するための画像処理を行う、画像処理装置、画像処理方法、および画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing apparatus for extracting a desired still image from a moving image and performing image processing for generating a still image with higher definition than the still image extracted by super-resolution processing. The present invention relates to an image processing program.
動画像から所望の静止画像を抽出する際に、所望の静止画像のフレーム位置の前後に存在する複数の画像フレームを利用して、より高い解像度に変換するための所定の超解像処理を行うことで、所望の静止画像を高解像度化する手法が多数存在している。超解像処理の効果を十分に発揮させるためには、動画像の中から超解像度に適した測光の検出レベルが安定し、ホワイトバランスの検出レベルが安定しているシーンの画像を探し出す必要がある。このような超解像処理に適した画像を容易に識別するために、超解像処理に係る所定の条件を満たすかを判定し、その判定結果に対応するフラグを各画像フレームに対して付加し、このフラグの有無により超解像処理の適否を判断するものがある。(例えば、特許文献1参照。)。
ところで、動画像の撮影中に、ユーザからの静止画像取得要求があった場合、ユーザが所望している静止画像は、必ずしもユーザからの要求があった時刻(撮影機器がユーザからの静止画像取得要求を検知した時刻)と同時刻もしくは最も近い過去の画像フレームであるとは限らない。つまり、ユーザは動画像の撮影を行っている際に、ユーザが気に入った情景や被写体を認知した後、シャッターボタンの押下といった、静止画像取得要求を行うために、多少なりとも時間的な差異が生じることに起因する。このような時間的な差異は、ユーザ毎に個人差があることから、一意的に静止画像取得要求の時刻を修正することは困難である。 By the way, when there is a still image acquisition request from the user during moving image shooting, the still image desired by the user is not necessarily the time at which the user requested (the shooting device acquires a still image from the user). It is not necessarily the past image frame at the same time or closest to the time when the request was detected. In other words, when shooting a moving image, the user recognizes a scene or subject that the user likes and then makes a still image acquisition request such as pressing the shutter button. Due to what happens. Since such a temporal difference has individual differences for each user, it is difficult to uniquely correct the time of the still image acquisition request.
また、動画像の再生中に、ユーザからの静止画像取得要求があった場合も同様に、ユーザが所望している静止画像は、必ずしもユーザからの要求があった時刻(再生機器がユーザからの静止画像取得要求を検知した時刻)と同時刻もしくは最も近接した画像フレームであるとは限らない。 Similarly, when there is a still image acquisition request from the user during playback of a moving image, the still image desired by the user is not necessarily the time when the user requests it (the playback device receives a request from the user). The image frame is not necessarily the same time or the closest image frame to the time when the still image acquisition request is detected.
ここで、このようなユーザが所望している静止画像のフレーム位置の周囲の複数の画像フレームを利用して超解像処理を行うことを考える。上述の従来法においては、動画像の各画像フレームに対して超解像処理の適否に対応したフラグ情報を付加し、このフラグ情報に基づいて超解像処理の可否を判断する。しかし、ユーザが所望している静止画像のフレーム位置およびその周辺のフレーム位置の画像フレームは、必ずしも超解像処理に適していることを示すフラグ情報が付加されているとは限らない。このような場合、特定されたフレーム位置から、過去側および未来側のどちらの方向を探索するかを何らかの方法で決定する必要がある。また、決定した方向で超解像処理に適していることを示すフラグ情報が付加されている画像フレームを特定しなければならない。しかし、このように特定された画像フレームは、必ずしもユーザが所望している静止画像に近いものであるとは限らない。 Here, it is considered that super-resolution processing is performed using a plurality of image frames around the still image frame position desired by the user. In the above-described conventional method, flag information corresponding to the suitability of super-resolution processing is added to each image frame of a moving image, and whether or not super-resolution processing is possible is determined based on the flag information. However, flag information indicating that the frame position of the still image desired by the user and the frame positions around the still image are suitable for super-resolution processing are not always added. In such a case, it is necessary to determine in some way whether to search the past side or the future side from the specified frame position. In addition, it is necessary to identify an image frame to which flag information indicating that it is suitable for super-resolution processing in the determined direction is added. However, the image frame specified in this way is not necessarily close to the still image desired by the user.
更に、従来法では、超解像処理に適すると判断されたフラグが連続する場合には、超解像処理に利用する画像フレームの枚数を決定するための何らかの指標が必要となる。また、利用する参照フレームの枚数を制限して高速化を図ろうとした場合に、どのフレームまでを利用すべきかを決定する指標が曖昧であり、通常は所定の範囲が設定され、処理対象となっている静止画像との間の所定の位置関係にある複数のフレームの中から、所定枚数にしたがって超解像処理を行うことになる。更に、超解像処理に利用する画像フレームの枚数は、必ずしも多いほど良いとは限らない。よって、何らかの適用順序および適用枚数に関する情報が必要となる。 Further, in the conventional method, when flags determined to be suitable for the super-resolution processing are continuous, some index is required for determining the number of image frames used for the super-resolution processing. Also, when trying to increase the speed by limiting the number of reference frames to be used, the index that determines which frame should be used is ambiguous, and usually a predetermined range is set and it becomes a processing target. Super-resolution processing is performed according to a predetermined number of frames out of a plurality of frames having a predetermined positional relationship with a still image. Furthermore, the number of image frames used for super-resolution processing is not necessarily better. Therefore, some information on the order of application and the number of applications is required.
そこで、本発明は、動画像から静止画像を抽出する際に、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出し、より高精細な静止画像を生成することができる画像処理装置、画像処理方法、および画像処理プログラムを提供することを目的とする。 Therefore, when extracting a still image from a moving image, the present invention extracts a still image that is closer to the actually desired still image and has a quality that can be appreciated as a still image. An object is to provide an image processing apparatus, an image processing method, and an image processing program capable of generating a still image.
上記目的を達成するため、本発明の画像処理装置、画像処理方法、および画像処理プログラムでは、入力される画像列を所定枚数分蓄積し、解析対象画像列の特定および供給を行い、前記解析対象画像列を取得し、時間が順方向の画像間解析を行い、順方向の画像間解析に基づく評価情報を生成する一方、前記解析対象画像列を取得し、時間が逆方向の画像間解析を行い、逆方向の画像間解析に基づく評価情報を生成し、順方向の画像間解析に基づく前記評価情報と、逆方向の画像間解析に基づく前記評価情報とに基づいて、順方向または逆方向のいずれの方向の画像間解析が有効であるかを判定し、その判定結果に基づいて蓄積された前記解析対象画像列のうち、少なくとも1枚の静止画像を抽出し、抽出した前記静止画像に対し所定の超解像拡大処理を行い高精細な静止画像を生成する。 To achieve the above object, the image processing apparatus, the image processing method, and the image processing program of the present invention accumulate a predetermined number of input image sequences, specify and supply the analysis target image sequence, and Image sequence is acquired, time analysis is performed between images in the forward direction, and evaluation information is generated based on the analysis between images in the forward direction, while the image sequence to be analyzed is acquired and analysis between images in the reverse direction is performed. And generating evaluation information based on reverse inter-image analysis, based on the evaluation information based on forward inter-image analysis and the evaluation information based on reverse inter-image analysis. In which direction the inter-image analysis is effective, and at least one still image is extracted from the analysis target image sequence accumulated based on the determination result, and the extracted still image is included in the extracted still image. Over the prescribed Generating a high-definition still image performs image enlargement process.
本発明では、入力される画像列を所定枚数分蓄積し、解析対象画像列の特定および供給を行い、解析対象画像列に対し順方向と逆方向の画像間解析を行い、順方向の画像間解析に基づく評価情報と逆方向の画像間解析に基づく評価情報とに基づいてどちらの方向の画像間解析が有効であったか否かを判定し、その判定結果に基づいて解析対象画像列から超解像処理に適した静止画像を抽出し、この静止画像に対し所定の超解像処理を行うことにより、従来よりも高品質な超解像拡大静止画像を得ることができる。 In the present invention, a predetermined number of input image sequences are accumulated, analysis target image sequences are specified and supplied, analysis between images in the forward direction and reverse direction is performed on the analysis target image sequence, Based on the evaluation information based on the analysis and the evaluation information based on the inter-image analysis in the reverse direction, it is determined whether the inter-image analysis in which direction is effective, and based on the determination result, the super solution is determined from the analysis target image sequence. By extracting a still image suitable for image processing and performing predetermined super-resolution processing on the still image, it is possible to obtain a super-resolution enlarged still image with higher quality than before.
実施形態1.
図1に、本発明の実施形態1を適用した画像処理装置の構成例を示す。ここでは話を簡単にするため、動画像の撮影中に、ユーザから通常得られる静止画像よりも高精細な静止画像の取得要求があった場合を考える。
FIG. 1 shows a configuration example of an image processing apparatus to which
図1において、実施形態1の画像処理装置は、少なくとも蓄積画像列管理器102、順方向画像間解析器103、逆方向画像間解析器104、判定器105、制御器106、超解像拡大器107を有する。
In FIG. 1, the image processing apparatus according to the first embodiment includes at least an accumulated
蓄積画像列管理器102は、制御器106から制御情報を取得する機能を有する。制御器106からの制御情報に応じて、動画像として撮影された画像フレームを画像列入力101として順次取得する機能を有する。所定枚数の画像フレームを蓄積し、蓄積時の時刻情報、蓄積された画像フレームを管理する機能を有する。蓄積されている画像フレームの枚数が所定枚数を満たしている場合には、画像フレームを新たに蓄積する際に、蓄積されている画像列のうち、最も古い画像フレームから破棄し、新たに画像列入力として取得した画像フレームを、蓄積されている画像列の最後尾の位置に追加するといったFIFO(First In - First Out)方式で画像列の蓄積状態を管理するような機能を備えていると良い。
The stored
また、蓄積画像列管理器102は、蓄積画像列管理情報に基づいて格納されている画像列の状態を管理する機能を有するとともに、必要に応じて、制御器106に対して蓄積画像列管理情報を供給する機能を有する。ここで、蓄積画像列管理情報には、処理の進捗状況を把握し、次に処理すべき画像列に関する情報や、現状で出力候補となっている代表画像のフレーム位置や、現在処理している階層の情報や、判定器105によって選択された順方向や逆方向の判定情報などが含まれると良い。また、このような画像間解析処理の過程で得られる画像列の依存関係、及び、どの画像が選択されてきたか示す選択履歴を、ツリー構造で管理できるよう蓄積画像列管理情報を構築すると良い。更に、ユーザが実際に要求を行った第1静止画像取得要求の時刻に対応するフレーム位置、およびこの位置から、所定の時刻、またはユーザがあらかじめ指定した時刻、または学習結果から特定された時刻のいずれかの分だけ過去にさかのぼった時点を、ユーザからの第2静止画像取得要求とし、その時刻に直近の動画像フレームを解析の開始位置とした解析開始位置などが含まれると更に良い構成となる。また、画像間解析の処理量を軽減するために、画像のクロッピング領域情報を含むと更に良い構成となる。
The accumulated image
また、蓄積画像列管理器102は、制御情報、蓄積画像列管理情報に基づいて供給すべき対象となっている画像列を特定し、必要に応じて順方向画像間解析器103、逆方向画像間解析器104に特定した少なくとも2枚の画像列を供給する機能を有する。ここで、順方向画像間解析器103に対しては、供給すべき画像列のうち、時間的に過去側のフレーム位置の画像を参照画像、時間的に未来側のフレーム位置の画像を対象画像として供給する機能を有する。逆方向画像間解析器104に対しては、供給すべき画像列のうち、時間的に未来側のフレーム位置の画像を参照画像、時間的に過去側のフレーム位置の画像を対象画像として供給する機能を有する。ここで、画像間解析の処理量を軽減するために、制御器106からの制御情報に応じて、供給する画像列に対し、画像のクロッピング領域情報に基づいて画像の切り抜き領域を特定し、切り抜き処理を行った上で、順方向画像間解析器103および逆方向画像間解析器104に供給する機能を備えると良い。また、蓄積画像列管理器102は、制御情報、蓄積画像列管理情報に基づいて、出力対象となっている画像を画像列出力107として供給する機能を有する。また、制御器106から制御情報を取得し、要求に基づいて現状で出力候補となっている代表画像が、動画像内のどの範囲の画像列から抽出されたものかを示す画像列の範囲情報を特定し、代表画像の画像列出力とともに画像列の範囲情報を出力する機能を有すると更に良い構成となる。
The accumulated
また、蓄積画像列管理器102は、制御器106からの制御情報に応じて、蓄積画像列管理情報に含まれる、画像列の依存関係を示すツリー構造の解析から得られている画像列の順位情報に従って、要求された枚数の観測画像である超解像処理前の低解像度画像を特定し、超解像処理対象となっている静止画像とともに要求された枚数の観測画像を超解像拡大器107に供給する機能を有する。また、必要であれば、制御器106から制御情報として取得した、超解像処理における拡大率に関する情報を超解像拡大器107に供給する機能を有する。更に、蓄積画像列管理器102は、超解像拡大器107によって生成された超解像画像の取得および管理を行い、必要に応じて格納された超解像画像を供給する機能を有する。
Further, the stored
順方向画像間解析器103は、蓄積画像列管理器102から解析対象となっている少なくとも2枚の画像列を参照画像および対象画像として取得し、取得した参照画像および対象画像に対して所定の画像間解析を行い、画像間の類似度を評価する機能を有する。また、評価結果である類似度情報を判定器105に供給する機能を有する。
The
逆方向画像間解析器104は、蓄積画像列管理器102から解析対象となっている少なくとも2枚の画像列を参照画像および対象画像として取得し、取得した参照画像および対象画像に対して所定の画像間解析を行い、画像間の類似度を評価する機能を有する。また、評価結果である類似度情報を判定器105に供給する機能を有する。
The backward image-to-
判定器105は、順方向画像間解析器103及び逆方向画像間解析器104から供給される順方向の類似度情報および逆方向の類似度情報を取得し、取得した順方向の類似度情報と逆方向の類似度情報とを比較し、順方向と逆方向のどちらの画像間解析が有効であったかを判定する機能を有する。類似度情報の判定結果である判定情報を制御器106に供給する機能を有する。ここで判定情報は、順方向が選択されたか、逆方向が選択されたかを特定することができる情報であれば良い。例えば、順方向と逆方向をそれぞれ+と−、または1と0などのフラグ情報で表現されたものが望ましい。
The
制御器106は、蓄積画像列管理器102に対して制御情報を供給する機能を有する。ここで、制御情報は、蓄積画像列管理器102に対して画像列入力の制御、画像列出力の制御、蓄積画像列管理情報の更新制御に関する情報を少なくとも含むと良い。ここで、制御器106は、ユーザからの直接的な解析開始要求である第1静止画像取得要求があった時刻に基づいて、ユーザが実際に要求を行った第1静止画像取得要求の時刻と、ユーザが実際に所望している静止画像を含む時刻との時間的なズレの時刻分だけ、第1静止画像取得要求があった時刻から過去にさかのぼった時刻を、ユーザからの第2静止画像取得要求として解析開始位置を特定する機能を有する。
The
例えば、図2のように、動画像の撮影中のある時刻において、ユーザが静止画像を取得したいと考えて、カメラのシャッターボタンを押下したとする。しかし、ユーザが静止画像を取得したいと考えた時刻のフレーム位置1401と、実際にユーザがシャッターボタンを押下した時刻のフレーム位置1402には、静止画像を認識して実際にシャッターボタンを操作するまでの時間差が少なからず生じる。この操作までの時間差を、図2において矢印1403の補正によってできる限り1401の位置に近づけるために、ユーザが実際に要求を行った第1静止画像取得要求の時刻に対応するフレーム位置1402、すなわちユーザによって実際にシャッターボタンが押下された位置から、所定の時刻、またはユーザからあらかじめ指定した時刻、または学習結果から特定された時刻のいずれかの分だけ過去にさかのぼった時点を、ユーザからの第2静止画像取得要求とし、その時刻に直近の動画像フレームを解析の開始位置とした解析開始位置1404を求める。
For example, as shown in FIG. 2, it is assumed that at a certain time during moving image shooting, the user presses the shutter button of the camera in order to acquire a still image. However, the
このようにして、制御器106は、解析開始位置を特定する機能を有すると良い。このような解析開始位置1404を特定し、図2の1405のように所定の画像間解析によって特定することで、ユーザが所望していた位置である画像1401に近く、また、静止画像として鑑賞に堪えうる品質を備えた画像1406が特定される。つまり、この特定された画像1406を静止画像1410として出力することで、第1静止画像取得要求があった時刻のフレーム位置1402に対応する画像を出力として得られる静止画像1408や、解析開始位置1404に対応する画像を出力として得られる静止画像1409よりも、画像内に含まれるノイズや、手ブレ、動きボケ等が少なく、より情報量が多い画像を得ることが可能となる。
In this way, the
このような機能の他に、制御器106は、特定した解析開始位置に関する情報を制御情報として蓄積画像列管理器102に供給する機能を有する。判定器105から判定情報を取得する機能を有する。また、取得した判定情報を制御情報として蓄積画像列管理器102に通知する機能を有する。制御器106は、蓄積画像列管理器102から蓄積画像列管理情報を取得し、現在の蓄積画像列管理器102内の画像列の格納状況を把握し、本発明の画像処理装置の動作状況を制御する機能を有する。つまり、制御器106は、蓄積画像列管理情報から、処理の進捗状況を把握し、次に処理すべき画像列の特定や、現状で出力候補となっている代表画像のフレーム位置や、処理の階層や、判定器105によって選択された順方向や逆方向の判定情報などを把握する機能を有する。また、現状で出力候補となっている代表画像が、動画像内のどの範囲の画像列から抽出されたものかを示す画像列の範囲情報を特定し、必要に応じて蓄積画像列管理器102に画像列出力とともに画像列の範囲情報を出力するように要求する制御情報を供給する機能を有すると更に良い構成となる。また、制御器106は、必要に応じて画像間解析の処理量を軽減するために、蓄積画像列管理器102が画像列を供給する際に、供給する画像列に対し、クロッピング領域に基づいて画面の切り抜き処理を行った上で供給するように制御するために、クロッピング領域に関する情報を伴った制御情報を蓄積画像列管理器102に供給する機能を有すると良い。
In addition to such a function, the
ここで、切り抜き領域であるクロッピング領域情報は、所定の領域をあらかじめ設定しておくようにしても構わない。また、例えば、図3の1501、1502、1503のように、フォーカスなどのカメラパラメータに連動してクロッピング領域の大きさや位置を変更することができるようにしても構わない。ここで、図3の1501は蓄積されている画像の全体、1502はクロッピング領域、1503はフォーカス位置を表している。 Here, a predetermined area may be set in advance for the cropping area information that is a cut-out area. Further, for example, as in 1501, 1502, and 1503 in FIG. 3, the size and position of the cropping area may be changed in conjunction with camera parameters such as focus. Here, 1501 in FIG. 3 indicates the entire accumulated image, 1502 indicates the cropping area, and 1503 indicates the focus position.
また、フォーカス位置とクロッピング領域との関係は、図3の1502と1503のように、クロッピング領域の中央にフォーカス位置がくるような位置関係であっても構わない。また、図3の1504、1505、1506のように、フォーカス位置とクロッピング領域との関係が所定の関係であっても構わない。ここで、図3の1504は蓄積されている画像の全体、1505はクロッピング領域、1506はフォーカス位置を表している。 Further, the relationship between the focus position and the cropping area may be such that the focus position is at the center of the cropping area, such as 1502 and 1503 in FIG. Further, as in 1504, 1505, and 1506 in FIG. 3, the relationship between the focus position and the cropping region may be a predetermined relationship. Here, 1504 in FIG. 3 indicates the entire accumulated image, 1505 indicates the cropping area, and 1506 indicates the focus position.
制御器106は、蓄積画像列管理器102から蓄積画像列管理情報を取得し、画像列の依存関係を示すツリー構造に対して所定のツリー構造解析処理を行い、得られる画像列の順位情報を蓄積画像列管理器102に供給する機能を有する。ここで、画像列の順位情報は、蓄積画像列管理情報に追加した上で蓄積画像列管理器102に供給されるように構成しても良い。更に、制御器106は、蓄積画像列管理器102に対して、超解像拡大器107における所定の超解像拡大処理を制御するための制御情報を供給する機能を有する。ここで、この制御情報には、超解像処理で利用する観測画像である超解像処理前の低解像度画像の枚数に関する情報、超解像処理における拡大率に関する情報が含まれるようにすると良い。観測画像の枚数に関する情報は、所定枚数であっても構わないし、ユーザからの要求に基づくものであっても構わない。また、本実施形態の画像処理装置の演算量を監視し、演算負荷の増減に応じて観測画像の枚数を調整したり、超解像拡大処理にかかる時間を測定し、所定の時間内で処理が終了するように観測画像の枚数を調整したりすることで、より良い構成にすることができる。超解像処理における拡大率に関する情報は、所定の拡大率情報であっても構わないし、ユーザからの要求に基づくものであっても構わない。
The
超解像拡大器107は、蓄積画像列管理器102から、超解像処理対象となっている静止画像および、少なくとも1枚の観測画像である超解像処理前の低解像度画像を取得し、取得した静止画像および観測画像を利用して所定の超解像拡大処理を行い、取得した静止画像よりも高精細な静止画像である超解像画像を生成し、蓄積画像列管理器102に供給する機能を有する。
The
次に、図4を用いて図1に示す画像処理装置の構成の動作について説明する。 Next, the operation of the configuration of the image processing apparatus shown in FIG. 1 will be described with reference to FIG.
図4は、図1に示す画像処理装置の動作を示すフローチャートである。 FIG. 4 is a flowchart showing the operation of the image processing apparatus shown in FIG.
まず、制御器106は、画像列の蓄積を開始させるための制御情報を蓄積画像列管理器102に供給する。動画像の撮影が開始されると、画像列入力101として順次撮影された画像列が蓄積画像列管理器102に供給される。
First, the
蓄積画像列管理器102は、画像列入力101として供給される画像列であるそれぞれの画像フレームを取得し、所定枚数になるまで蓄積を行う。所定枚数を超える場合には、FIFO方式で最も古い時刻に格納された画像フレームを破棄し、新たに取得した画像フレームを最後尾に追加する。このような処理により、入力された画像列を蓄積する(ステップS101)。
The accumulated
制御器106は、例えば動画像の撮影中にユーザが静止画像を記録したいと考えてシャッターボタンを押すなどの動作によって生じる、ユーザからの解析開始要求の有無を監視する。ユーザからの解析開始要求があった場合(ステップS102 YES)は、ステップS103に進む。また、ユーザからの解析開始要求がない場合(ステップS102 NO)は、ステップS101に戻り、画像列の蓄積が継続される。
The
制御器106によってユーザからの解析開始要求があったことを確認すると、制御器106は、画像列の蓄積を中断させるための制御情報を蓄積画像列管理器102に供給し、蓄積画像列管理器102は、取得した制御情報に応じて画像列の蓄積を中断し、蓄積画像列管理情報に対して初期化を行うことで解析処理の準備を行う。また、制御器106は、ユーザからの直接的な解析開始要求である第1静止画像取得要求があった時刻に基づいて、ユーザが実際に要求を行った第1静止画像取得要求の時刻と、ユーザが実際に所望している静止画像を含む時刻との時間的なズレの時刻分だけ、第1静止画像取得要求があった時刻から過去にさかのぼった時刻を、ユーザからの第2静止画像取得要求として解析開始位置を特定する。制御器106は、特定した解析開始位置を蓄積画像列管理器102に供給し、蓄積画像列管理器102は、取得した解析開始位置を蓄積画像列管理情報に反映する。これにより、解析開始位置をユーザが実際に所望した静止画像の時刻位置に近づけた上で、解析を開始することができる。
When the
次に、制御器106は、解析処理の実行を制御するために、蓄積画像列管理器102から蓄積画像列管理情報を取得し、次に処理すべき画像列を特定する。特定した画像列の情報に基づいて制御情報を蓄積画像列管理器102に供給する。
Next, the
蓄積画像列管理器102は、制御器106から次に処理すべき画像列に関する制御情報を取得し、解析対象となる少なくとも2枚の画像フレームを画像列として特定する。特定した画像列を、順方向画像間解析器103および逆方向画像間解析器104に供給する。特定した画像列を供給する際に、順方向画像間解析器103に対しては、供給すべき画像列のうち、時間的に過去側のフレーム位置の画像を参照画像、時間的に未来側のフレーム位置の画像を対象画像として供給する。また、逆方向画像間解析器104に対しては、供給すべき画像列のうち、時間的に未来側のフレーム位置の画像を参照画像、時間的に過去側のフレーム位置の画像を対象画像として供給する。
The accumulated
その後、順方向画像間解析器103および逆方向画像間解析器104は、それぞれ参照画像および対象画像を蓄積画像列管理部102から取得することで、解析対象画像列を取得する(ステップS103)。その後のステップS104およびステップS105は並列動作を行うように構成されているが、これらを順次動作によって処理を行うように構成することも可能であり、これらの構成によって特に限定されるものではないことに注意する。
Thereafter, the forward
解析対象画像列が取得されると、順方向画像間解析器103は、取得した参照画像および対象画像に対して所定の順方向画像間解析を行い(ステップS104)、画像間の類似度を評価し、評価結果である類似度情報を判定器105に供給する。
When the analysis target image sequence is acquired, the forward
同様に、逆方向画像間解析器104は、取得した参照画像および対象画像に対して所定の順方向画像間解析を行い(ステップS104)、画像間の類似度を評価し、評価結果である類似度情報を判定器105に供給する。
Similarly, the backward
その後、判定器105は、順方向画像間解析器103および逆方向画像間解析器104から順方向の類似度情報および逆方向の類似度情報を取得し、それぞれの類似度情報を比較して順方向と逆方向のどちらの画像間解析が有効であったかを判定する。この判定により、解析対象となっていた画像列から有効な画像フレームを選定し(ステップS106)、類似度情報の判定結果である判定情報を制御器106に供給する。
Thereafter, the
制御器106は、判定器105から取得した判定情報に基づき、解析対象となっていた画像列の判定情報を制御情報として蓄積画像列管理器102に供給する。
Based on the determination information acquired from the
蓄積画像列管理器102では、取得した判定情報に関する制御情報に基づいて、蓄積画像列管理情報に対して判定情報を反映させるとともに、現状において出力対象となる画像の位置情報を更新する(ステップS107)。その後、次の解析に備えるために、蓄積画像列管理情報を更新することで、画像列の管理情報を更新する(ステップS108)。
Based on the control information related to the acquired determination information, the stored
次に、制御器106は、蓄積画像列管理器102から蓄積画像列管理情報を取得し、次の解析対象画像列が存在するか否かを判定する(ステップS109)。ここで、次の解析対象画像列が存在する場合(ステップS109 YES)、ステップS103に進み、制御器106は、解析処理を継続する。
Next, the
これに対し、次の解析対象画像列が存在しない場合(ステップS109 NO)、制御器106は、蓄積画像列管理情報から、出力候補となっている代表画像のフレーム位置を特定するとともに、その代表画像が、動画像内のどの範囲の画像列から抽出されたものかを示す、画像列の範囲情報を特定する。この画像列の範囲情報に属する画像列は、超解像拡大器107で行われる超解像処理の観測画像として利用される。この観測画像として利用される画像列に対して、あらかじめ優先順位を決定するために、制御器106は、蓄積画像列管理情報に含まれる画像列の依存関係を示すツリー構造に対して、所定の探索モード、ツリー構造を構成するパスのコスト、ツリー構造を構成するノードのコストに基づいて所定のツリー構造解析処理を行い(ステップS110)、生成した順位情報を蓄積画像列管理情報に反映する。
On the other hand, when the next analysis target image sequence does not exist (NO in step S109), the
その後、制御器106は、蓄積画像列管理器102に対して、超解像拡大器107における所定の超解像拡大処理を制御するための制御情報を供給する。この制御情報には、観測画像の枚数に関する情報、超解像処理における拡大率に関する情報を含むと良い。
Thereafter, the
次に、蓄積画像列管理器102は、制御器106から超解像拡大処理に関する制御情報を取得し、蓄積画像列管理情報に含まれる、画像列の依存関係を示すツリー構造の解析から得られている画像列の順位情報に従って、要求された枚数の観測画像(超解像処理前の低解像度画像)を特定し、超解像処理対象となっている静止画像とともに要求された枚数の観測画像を超解像拡大器107に供給する。また、必要であれば、超解像処理における拡大率に関する情報も、超解像拡大器107に供給する。
Next, the accumulated
その後、超解像拡大器107では、蓄積画像列管理器102から超解像処理対象となっている静止画像と、少なくとも1枚の観測画像とを取得する。また、超解像処理における拡大率に関する情報が必要であれば、蓄積画像列管理器102から取得しても構わない。超解像拡大器107は、取得した静止画像および観測画像を利用して所定の超解像拡大処理を行い(ステップS111)、取得した静止画像よりも高解像度な静止画像である超解像画像を生成し、蓄積画像列管理器102に供給する。
Thereafter, the
超解像拡大処理が完了すると、制御器106は、生成された超解像画像を出力するために、画像列出力の制御を行うための制御情報を蓄積画像列管理器102に供給し、蓄積画像列管理器102では、制御器106から画像出力に関する制御情報を取得することで、出力すべき画像を特定し、画像を出力する(ステップS110)。また、画像列の範囲情報も必要に応じて出力する。ここでは、超解像処理によって高解像度化された超解像画像が出力すべき画像として特定され、画像出力される。
When the super-resolution enlargement process is completed, the
以上のようなステップに基づいて本発明の画像処理を行うことで、ユーザからのより高解像度な静止画像取得要求があった時刻から、必要に応じてユーザが実際に所望した静止画像が存在する時刻までのずれを補正して解析開始位置を特定し、所定の画像間の解析処理を行って、ユーザが実際に所望した静止画像により近く、静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出した上で超解像処理を施すことで、品質の高い超解像画像を生成することが可能となる。 By performing the image processing according to the present invention based on the steps as described above, there is a still image actually desired by the user as necessary from the time when a higher resolution still image acquisition request is received from the user. A still image with a quality that can be appreciated as a still image by correcting the deviation to the time, specifying the analysis start position, performing analysis processing between predetermined images, and being closer to the actually desired still image by the user It is possible to generate a high-resolution super-resolution image by performing super-resolution processing after extracting.
次に、本装置における所定のツリー構造解析処理について、図5及び図6を参照して説明する。 Next, a predetermined tree structure analysis process in this apparatus will be described with reference to FIGS.
図5は、図4のステップ110にて制御部106が実行する所定のツリー構造解析処理の詳細の処理手順を示すフローチャートである。
FIG. 5 is a flowchart showing a detailed processing procedure of a predetermined tree structure analysis process executed by the
つまり、まず、制御部106は、画像間解析により、例えば図6に示すような、画像列の依存関係を示すツリー構造を構成する(ステップS301)。
That is, first, the
このツリー構造を構成する場合には、まず、それぞれの画像に対して少なくとも1つのノードを割り当てる。ここでは、初回であるため0階層に属するノードとして、それぞれのノードが割り当てられる。この画像間解析処理の過程で選択された画像は、次の出力候補となる代表画像であり、次の階層における解析対象となる。よって、同じフレーム位置で1階層低い位置に新たにノードを追加し、このノードと依存関係のある1階層高いノードとの間をそれぞれパスによって関連付ける。 When configuring this tree structure, first, at least one node is assigned to each image. Here, since this is the first time, each node is assigned as a node belonging to the 0th hierarchy. The image selected in the process of the inter-image analysis process is a representative image that becomes the next output candidate, and becomes an analysis target in the next hierarchy. Therefore, a new node is newly added at a position lower by one layer at the same frame position, and this node is associated with a node having a dependency higher by one layer by a path.
例えば、ノードN00とN01に注目すると、これらのノードは0階層に属している。画像間解析によって、フレーム位置1の画像が選択されたことにより、フレーム位置1に対応するノードN01と同じフレーム位置で階層が1つ低いノードN11が追加される。
For example, when attention is paid to the nodes N00 and N01, these nodes belong to the 0th hierarchy. When the image at
このノードN11は、ノードN00とN01との間に依存関係があるものとして、ノードN11とノードN00、ノードN11とノードN01との間をそれぞれパスP00、P01によって関連付ける。このような関連付けを、画像間解析によって超解像処理対象となる静止画像が特定されるまで行うことによって、ツリー構造を構成する。 The node N11 assumes that there is a dependency between the nodes N00 and N01, and associates the nodes N11 and N00 and the nodes N11 and N01 with paths P00 and P01, respectively. A tree structure is configured by performing such association until a still image to be super-resolution processed is specified by inter-image analysis.
図6では、フレーム位置3の画像が超解像処理対象として特定されたため、フレーム位置3、−3階層に属するノードN33がツリー構造の頂点である基準ノードとなる。以上のようなツリー構造の構成は、図5ではステップS301にて行われるが、このツリー構造の構成処理を、あらかじめ画像間解析の過程で構成しておいても構わない。
In FIG. 6, since the image at the
制御部106は、画像列の依存関係を示すツリー構造が確定すると、画像列の依存関係を示すツリー構造を構成する各ノードに対し、中間ノードと候補ノードとの分類を行う(ステップS302)。図6では、灰色の四角で示されている、ノードN23,N13,N14,N01,N03,N04,N07をそれぞれ中間ノードとし、白抜きの四角で示されている、ノードN24,N11,N17,N00,N02,N05,N06をそれぞれ候補ノードとしている。このノードの分類は、同じフレーム位置に属するノードに注目し、最も階層が低いノードを候補ノードに分類する。この候補ノードと同じフレーム位置に属し、候補ノードの階層よりも高いノードを中間ノードに分類する。
When the tree structure indicating the dependency of the image sequence is determined, the
その後、制御部106は、ツリー構造の探索モードを特定する(ステップS303)。
Thereafter, the
図7は、ツリー構造の探索モードの一例を示している。 FIG. 7 shows an example of a tree structure search mode.
ここで、探索モードとして、例えば、図7に示すようなモードを少なくとも備えると良い。図7において、探索モードは、タイプと補助条件によって分類されている。タイプは、ツリー構造の探索を行う際に、どのような基準に基づいて探索を行うかを表す。また、補助条件は、タイプの条件において、更に細かい基準に基づいて探索ルールを決定するためのものである。 Here, as the search mode, for example, at least a mode as shown in FIG. 7 may be provided. In FIG. 7, search modes are classified by type and auxiliary condition. The type represents what kind of criteria is used for the search when the tree structure is searched. The auxiliary condition is for determining a search rule based on a finer criterion in the type condition.
図7において、探索モード0は、タイプは距離優先で、補助条件は下位階層優先により探索を行うモードである。ここで、距離優先とは、基準ノードが属するフレーム位置を基準フレーム位置として、基準フレーム位置と探索対象となっているノードが属するフレーム位置との間の距離である基準フレーム間距離が近いノードを優先的に探索することを意味する。また、下位階層優先とは、基準フレーム間距離が同一であるノードが複数存在する場合に、ノードの属している階層が低いものを優先的に探索することを意味する。
In FIG. 7, the
探索モード1は、タイプは距離優先で、補助条件は上位階層優先により探索を行うモードである。ここで、上位階層優先とは、基準フレーム間距離が同一であるノードが複数存在する場合に、ノードの属している階層が高いものを優先的に探索することを意味する。
The
探索モード2は、タイプは階層優先で、補助条件は近距離優先により探索を行うモードである。ここで、階層優先とは、基準ノードが属する階層を基準階層として、基準階層とノードが属する階層との間の距離が近いノードを優先的に探索することを意味する。また、近距離優先とは、基準階層からの階層間距離が同一であるノードが複数存在する場合に、基準フレーム間距離が近いノードを優先的に探索することを意味する。
探索モード3は、タイプは階層優先で、補助条件は遠距離優先により探索を行うモードである。ここで、遠距離優先とは、基準階層からの階層間距離が同一であるノードが複数存在する場合に、基準フレーム間距離が遠いノードを優先的に探索することを意味する。
探索モード4は、タイプがコスト優先であることにより探索を行うモードである。ここで、コストとは、パスやノードの選択のし易さを示す値であり、この値が小さければ選択され易く、大きければ選択され難いものとする。タイプがコスト優先であるということは、ノードと基準ノードまでの経路に注目し、この経路中のパスやノードのコストの合計が小さいノードを優先的に探索することを意味する。
The
探索モード5は、タイプが制限付コスト優先で、補助条件がdであることに基づいて探索を行うモードである。ここで、dは、探索範囲を制限するための値であり、基準フレーム間距離を表している。また、制限付コスト優先とは、コスト優先で探索を行う際に、基準フレーム位置からの距離がdまでの範囲に含まれるノードを探索し、その後、dよりも大きい距離までの範囲を探索することを意味する。
The
探索モード6は、タイプがN段制限付コスト優先で、補助条件がd1,d2,・・・,dNであることに基づいて探索を行うモードである。ここで、d1,d2,・・・,dNは、N段階に探索範囲を制限するための値であり、それぞれ基準フレーム間距離を表している。また、N段階制限付コスト優先とは、コスト優先で探索を行う際に、基準フレーム位置からの距離がd1までの範囲に含まれるノードを探索し、その後、d1より大きくd2までの範囲に含まれるノードを探索し、同様に順次探索範囲を拡大して、d2からd3、d4からd5、・・・、dN−1より大きくdNまでの範囲に含まれるノードを探索し、その後、dNよりも大きい距離までの範囲を探索することを意味する。
探索モード7は、タイプが探索優先で、補助条件は距離0優先により探索を行うモードである。ここで、距離0優先とは、パスのフレーム間距離が0であるものを優先的に探索することを意味する。
探索モード8は、タイプが探索優先で、補助条件は距離非0優先により探索を行うモードである。ここで、距離非0優先とは、パスのフレーム間距離が0でないものを優先的に探索することを意味する。
The
制御部106は、以上のような探索モードを特定した後、探索開始位置のノードを特定し、基準ノードとする(ステップS304)。
After specifying the search mode as described above, the
ここで、探索開始位置のノードは、本実施形態の画像間解析によって特定された、超解像対象の画像が属するフレーム位置と、探索モードのタイプ、補助条件に基づいて特定し、基準ノードにすると良い。例えば、探索モード0では、距離優先、下位階層優先であることから、ノードN33を基準ノードにすることが望ましい。探索モード1では、距離優先、上位階層優先であることから、ノードN03を基準ノードにすることが望ましい。その他の探索モードでは、ノードN33を基準ノードにすることが望ましい。
Here, the node of the search start position is specified based on the frame position to which the super-resolution target image specified by the inter-image analysis of this embodiment belongs, the type of search mode, and the auxiliary condition, and is set as the reference node. Good. For example, in the
次に、制御部106は、探索モードに応じてパスのコストを算出する(ステップS305)。
Next, the
図8は、探索モードに応じたパスのコストの一例を示す図である。 FIG. 8 is a diagram illustrating an example of a path cost according to the search mode.
ここで、パスのコストは、例えば、図8に示すように、階層やフレーム間距離に応じて、探索モードに対応した所定の距離コスト係数Dと階層コスト係数Lに基づいて算出するように構成することができる。 Here, for example, as shown in FIG. 8, the path cost is calculated based on a predetermined distance cost coefficient D and a hierarchy cost coefficient L corresponding to the search mode according to the hierarchy and the interframe distance. can do.
図9は、探索モードに応じたパスのコストの他の例を示す図である。 FIG. 9 is a diagram illustrating another example of the path cost according to the search mode.
この距離コスト係数と階層コスト係数は、例えば、図9に示すように、異なるフレーム間距離に応じて異なる距離コスト係数D0,D1,D2,D3,・・・、異なる階層間に応じて異なる階層コスト係数L0,L1,L2,・・・が探索モードによって特定され、パスのコストが算出されるように構成しても構わない。 For example, as shown in FIG. 9, the distance cost coefficient and the hierarchy cost coefficient are different distance cost coefficients D0, D1, D2, D3,... The cost coefficients L0, L1, L2,... May be specified by the search mode, and the path cost may be calculated.
その後、各パスのコストおよび各ノードのコストに基づいて、基準ノードから各ノードまでの経路を特定し、この経路に含まれるパスおよびノードのコストを合計することで、基準ノードから各ノードまでのコストを算出する(ステップS306)。 After that, the path from the reference node to each node is identified based on the cost of each path and the cost of each node, and the path and node costs included in this path are summed up to obtain the path from the reference node to each node. Cost is calculated (step S306).
各ノードまでのコストが求まると、基準ノードを開始位置として、パスやノードのコストに基づいてツリー構造の探索を行いながら、それぞれの候補ノードに対して優先順位を付けることにより、順位付け処理を行い(ステップS307)、全ての候補ノードに対して優先順位が確定した時点でツリー構造解析処理は終了する。 Once the cost to each node is obtained, the ranking process is performed by prioritizing each candidate node while searching the tree structure based on the path and the cost of the node, starting from the reference node. (Step S307), the tree structure analysis process ends when the priority order is determined for all candidate nodes.
次に、図10を用いて、探索モード0および1の順位付け処理の例を示す。
Next, an example of ranking processing in
探索モード0の場合、補助条件が下位階層優先であるため、基準ノードはN33が設定されるものとする。また、説明を簡単にするため、図8が適用されるものとする。ここでは仮に、距離コスト係数D=2、階層コスト係数L=1、各ノード自体のコストは0であるものとする。
In the
図11は、図6のツリー構造において、それぞれのパスがどのフレーム間距離と階層に属しているかを示す図である。 FIG. 11 is a diagram showing which frame distance and hierarchy each path belongs to in the tree structure of FIG.
この図11と図8を利用して、基準ノードから各ノードまでのコストが算出されているものとする。 It is assumed that the cost from the reference node to each node is calculated using FIG. 11 and FIG.
図12は、各ノードが、それぞれどの基準フレーム間距離に属し、どの階層に属しているかを示す図である。 FIG. 12 is a diagram showing to which reference frame distance each node belongs and which hierarchy each node belongs to.
探索モード0では、図12の基準フレーム間距離が近いノードの中から、階層が低いノードを優先して順位付けを行う。つまり、開始位置がN33であり、(N23),(N13),(N03)は中間ノードであるため、N24が1番目のノードとなる。その後、N02,N11,N05の順に順位付けが行われる。その後、N00,N06のように、基準フレーム間距離が同一なノードに対して順位付けを行う。ここで、このようなノードに対しては、同一の順位を付けることで、両方のノードに属する画像を超解像処理の観測画像に利用するように本発明を構成しても良い。また、これらのノードに対してコストが小さい順に順位付けを行うように本発明を構成することもできる。ここでは、N00のコストの方が小さいことから、N00,N06の順となる。その後、N17の順位が確定した時点で候補ノードの順位が確定し、順位付け処理が完了する。
In
探索モード1の場合、補助条件が上位階層優先であるため、基準ノードはN03が設定されるものとする。また、説明を簡単にするため、図8が適用されるものとする。ここでは仮に、距離コスト係数D=2、階層コスト係数L=1、各ノード自体のコストは0であるものとする。探索モード1では、図12の基準フレーム間距離が近いノードの中から、階層が高いノードを優先して順位付けを行う。つまり、開始位置が(N03)であり、(N13),(N23)は中間ノードであるため、N33が1番目のノードであるが、N33のノードが属するフレーム位置の画像は、超解像対象の画像であることから、観測画像からは除外する必要があるため、1番目とせずに次のノードを探索する。
In the
次に該当するノードは、N02,(N04)である。(N04)は中間ノードであるため、N02が1番目のノードとなる。その後、N24,N05,N11の順に順位付けが行われる。その後、N00,N06のように、基準フレーム間距離が同一なノードに対して順位付けを行う。ここで、このようなノードに対しては、同一の順位を付けることで、両方のノードに属する画像を超解像処理の観測画像に利用するように本発明を構成しても良い。また、これらのノードに対してコストが小さい順に順位付けを行うように本発明を構成することもできる。ここでは、N00のコストの方が小さいことから、N00,N06の順となる。その後、N17の順位が確定した時点で候補ノードの順位が確定し、順位付け処理が完了する。 The corresponding node is N02, (N04). Since (N04) is an intermediate node, N02 is the first node. Thereafter, ranking is performed in the order of N24, N05, and N11. Thereafter, ranking is performed for nodes having the same distance between the reference frames, such as N00 and N06. Here, the present invention may be configured such that images belonging to both nodes are used as observation images for super-resolution processing by assigning the same ranking to such nodes. In addition, the present invention can be configured so that these nodes are ranked in ascending order of cost. Here, since the cost of N00 is smaller, the order is N00 and N06. Thereafter, when the order of N17 is determined, the order of candidate nodes is determined, and the ranking process is completed.
次に、図13を用いて、探索モード2および3の順位付け処理の例を示す。
Next, an example of the ranking processing in
探索モード2の場合、基準ノードはN33が設定されるものとする。また、説明を簡単にするため、図8が適用されるものとする。ここでは仮に、距離コスト係数D=2、階層コスト係数L=1、各ノード自体のコストは0であるものとする。また、図11と図8を利用して、基準ノードから各ノードまでのコストが算出されているものとする。
In the
図14は、各ノードが、それぞれどの階層に属し、どの基準フレーム間距離に属しているかを示す図である。 FIG. 14 is a diagram showing to which hierarchy each node belongs and to which reference interframe distance.
探索モード2では、図14の階層が低いノードの中から、基準フレーム間距離が近いノードを優先して順位付けを行う。つまり、開始位置がN33であり、(N23)は中間ノードであるため、N24が1番目のノードとなる。その後、N11,N17,N02,N05の順に順位付けが行われる。その後、N00,N06のように、階層が同一なノードに対して順位付けを行う。ここで、このようなノードに対しては、同一の順位を付けることで、両方のノードに属する画像を超解像処理の観測画像に利用するように本発明を構成しても良い。また、これらのノードに対してコストが小さい順に順位付けを行うように本発明を構成することもできる。ここでは、N00のコストの方が小さいことから、N00,N06の順となる。この時点で候補ノードの順位が確定し、順位付け処理が完了する。
In
探索モード3の場合、基準ノードはN33が設定されるものとする。また、説明を簡単にするため、図8が適用されるものとする。ここでは仮に、距離コスト係数D=2、階層コスト係数L=1、各ノード自体のコストは0であるものとする。また、図11と図8を利用して、基準ノードから各ノードまでのコストが算出されているものとする。探索モード3では、図14の階層が低いノードの中から、基準フレーム間距離が遠いノードを優先して順位付けを行う。つまり、開始位置がN33であり、N24が1番目のノードとなる。その後、N17,N11の順に順位付けが行われる。その後、N00,N06のように、階層が同一なノードに対して順位付けを行う。ここで、このようなノードに対しては、同一の順位を付けることで、両方のノードに属する画像を超解像処理の観測画像に利用するように本発明を構成しても良い。また、これらのノードに対してコストが小さい順に順位付けを行うように本発明を構成することもできる。ここでは、N00のコストの方が小さいことから、N00,N06の順となる。その後、N05,N02の順位が確定した時点で候補ノードの順位が確定し、順位付け処理が完了する。
In
次に、図15を用いて、探索モード4、5、および6の順位付け処理の例を示す。
Next, an example of ranking processing in
探索モード4の場合、基準ノードはN33が設定されるものとする。また、説明を簡単にするため、図8が適用されるものとする。ここでは仮に、距離コスト係数D=2、階層コスト係数L=1、各ノード自体のコストは0であるものとする。図11は、図6のツリー構造において、それぞれのパスがどのフレーム間距離と階層に属しているかを示すものである。この図11と図8を利用して、基準ノードから各ノードまでのコストが算出されているものとする。各ノードのコストが確定したツリー構造を探索することによって、各候補ノードのコストを特定し、コストが小さい順に順位付けを行うように本発明を構成することができる。候補ノードのコストは、N00=9,N02=5,N05=7,N06=13,N11=6,N17=10,N24=3であることから、各ノードの優先順位は、N24,N02,N11,N05,N00,N17,N06となる。このように順位付けを行うことで候補ノードの順位が確定し、順位付け処理が完了する。
In
探索モード5の場合、タイプが制限付コスト優先で、補助条件がdであることに基づいて探索を行うモードであることから、ここでは仮に、補助条件d=1とする。つまり、図15の範囲1で示されるように、基準フレーム位置からの距離がd=1までの範囲に含まれるノードを探索し、その後、dよりも大きい距離までの範囲を探索する。候補ノードのコストを特定するまでは、探索モード4の場合と同様であるため、説明を省略する。図15の範囲1に含まれる候補ノードのコストは、N02=5,N24=3であるため、N24,N02のように順位付けを行う。その後、図15の範囲1よりも大きい距離に含まれる候補ノードのコストは、N00=9,N05=7,N06=13,N11=6,N17=10であるため、N11,N05,N00,N17,N06のように順位付けを行うことで候補ノードの順位が確定し、順位付け処理が完了する。
In the case of the
探索モード6の場合、タイプがN段制限付コスト優先で、補助条件がd1,d2,・・・,dNであることに基づいて探索を行うモードであることから、ここでは仮に、補助条件はd1=1,d2=3とする。つまり、図15の範囲1および範囲2で示されるように、基準フレーム位置から距離がd=1までの範囲に含まれるノードを探索し、その後、d1よりも大きくd2までの範囲に含まれるノードを探索し、その後、d2よりも大きい距離までの範囲を探索する。候補ノードのコストを特定するまでは、探索モード4の場合と同様であるため、説明を省略する。図15の範囲1に含まれる候補ノードのコストは、N02=5,N24=3であるため、N24,N02のように順位付けを行う。その後、図15の範囲1よりも大きく、範囲2の距離に含まれる候補ノードのコストは、N00=9,N05=7,N06=13,N11=6であるため、N11,N05,N00,N06のように順位付けを行う。その後、図15の範囲2よりも大きい距離に含まれる候補ノードはN17のみであることから順位付けを行うことで候補ノードの順位が確定し、順位付け処理が完了する。
In the case of the
次に、図16を用いて、探索モード7の順位付け処理の例を示す。
Next, an example of the ranking process in the
探索モード7の場合、タイプが探索優先で、補助条件は距離0優先により探索を行うモードである。つまり、パスのフレーム間距離が0であるものを優先的に探索し、探索経路内で、初めて通過した候補ノードに対して順位付けを行っていく。通過するノードが候補ノードであっても2度目以降の通過である場合には、順位付けは行わないことに注意する。
In the
図16の例において、全探索経路は、開始位置をN33とすると、(N23)→(N13)→(N03)→(N13)→N02→(N13)→(N23)→N11→(N01)→<N11>→N00→<N11>→(N23)→(N33)→N24→(N14)→(N04)→(N14)→N05→(N14)→<N24>→N17→(N07)→<N17>→N06→<N17>→<N24>→(N33)となる。ここで、(Nxx)は中間ノードを表し、<Nxx>は2度目以降に通過した候補ノードを表すものとする。ここでは、N33も中間ノードとして表記している。探索の終了条件は、開始位置のノードであるN33において、通過していないパスが存在しないことにより判断する。以上のような探索によって、N02,N11,N00,N24,N05,N17,N06のように候補ノードに対して順序付けを行うことで候補ノードの順位が確定し、順位付け処理が完了する。 In the example of FIG. 16, assuming that the start position of the all search route is N33, (N23) → (N13) → (N03) → (N13) → N02 → (N13) → (N23) → N11 → (N01) → <N11> → N00 → <N11> → (N23) → (N33) → N24 → (N14) → (N04) → (N14) → N05 → (N14) → <N24> → N17 → (N07) → <N17 > → N06 → <N17> → <N24> → (N33). Here, (Nxx) represents an intermediate node, and <Nxx> represents a candidate node passed after the second time. Here, N33 is also expressed as an intermediate node. The search end condition is determined by the absence of a path that has not passed through N33, which is the node at the start position. By performing the search as described above, the candidate nodes are ranked by ordering the candidate nodes such as N02, N11, N00, N24, N05, N17, and N06, and the ranking process is completed.
次に、図17を用いて、探索モード8の順位付け処理の例を示す。
Next, an example of the ranking process in
探索モード8の場合、タイプが探索優先で、補助条件は距離非0優先により探索を行うモードである。つまり、パスのフレーム間距離が0でないものを優先的に探索し、探索経路内で、初めて通過した候補ノードに対して順位付けを行っていく。通過するノードが候補ノードであっても2度目以降の通過である場合には、順位付けは行わないことに注意する。図17の例において、全探索経路は、開始位置をN33とすると、N24→N17→N06→<N17>→(N07)→<N17>→<N24>→(N14)→N05→(N14)→(N04)→(N14)→<N24>→(N33)→(N23)→N11→N00→<N11>→(N01)→<N11>→(N23)→(N13)→N02→(N13)→(N03)→(N13)→(N23)→(N33)となる。ここで、(Nxx)は中間ノードを表し、<Nxx>は2度目以降に通過した候補ノードを表すものとする。ここでは、N33も中間ノードとして表記している。探索の終了条件は、開始位置のノードであるN33において、通過していないパスが存在しないことにより判断する。以上のような探索によって、N24,N17,N06,N05,N11,N00,N02のように候補ノードに対して順序付けを行うことで候補ノードの順位が確定し、順位付け処理が完了する。
In the
次に、本装置の超解像拡大器107による所定の超解像拡大処理について説明する。
Next, a predetermined super-resolution enlargement process by the
一般に、超解像処理による画像の高解像度化は、単に位置ずれがある等といった、比較的画像間の相関が高い複数の低解像度画像から1枚の高解像度画像を推定することによって行われるものであり、近年数多くの研究で報告されている。例えば、「Sung C.P.、Min K.P.共著、Super-Resolution Image Reconstruction: A Technical Overview, IEEE SignalProc. Magazine, 第26巻, 第3号, p.21-36, 2003年」などがある。 In general, high resolution of an image by super-resolution processing is performed by estimating one high resolution image from a plurality of low resolution images having relatively high correlation between images, such as a positional shift. It has been reported in many studies in recent years. For example, “Sung C.P., Min K.P. Co-author, Super-Resolution Image Reconstruction: A Technical Overview, IEEE SignalProc. Magazine, Vol. 26, No. 3, p.21-36, 2003”.
また、「B.C.Tom, A.K.Katsaggelos共著、Reconstruction of a high-resolution image by simultaneous registration, restoration, and interpolation of low-resolution images, Proc. IEEE Int. Conf. Image Processing, 第2巻、p.539-542, 1995年」に開示されているML (Maximum-likelihood) 法というものが提案されている。このML法では、高解像度画像から推定された低解像度画像の画素値と実際に観測された画素値の二乗誤差を評価関数とし、評価関数を最小化するような高解像度画像を推定画像としている。この方法は、最尤推定の原理に基づいて超解像処理を行う方法である。
Also, "BCTom and AKKatsaggelos, Reconstruction of a high-resolution image by simultaneous registration, restoration, and interpolation of low-resolution images, Proc. IEEE Int. Conf. Image Processing,
また、「R.R.Schulz, R.L.Stevenson共著、Extraction of high-resolution frames from video sequences, IEEE Trans. Image Processing, 第5巻, p.996-1011, 1996年」に開示されているMAP (Maximum A Posterior) 法というものが提案されている。MAP法では、二乗誤差に高解像度画像の確率情報を付加した評価関数を最小化するような高解像度画像の推定を行う。この方法は、高解像度画像に対する何らかの先見情報を利用して、事後確率を最大化する最適化問題として高解像度画像の推定を行う超解像処理方法である。 Also, MAP (Maximum A Posterior) disclosed in “RR Schulz, RL Stevenson, Extraction of high-resolution frames from video sequences, IEEE Trans. Image Processing, Vol. 5, p. 996-1011, 1996”. A law has been proposed. In the MAP method, a high-resolution image is estimated so as to minimize an evaluation function obtained by adding probability information of a high-resolution image to a square error. This method is a super-resolution processing method that estimates a high-resolution image as an optimization problem that maximizes the posterior probability using some foresight information for the high-resolution image.
更に、「H.Stark, P.Oskoui共著、High resolution image recovery from image-plane arrays, using convex projections, J.Opt. Soc. Am. A, 第6巻, p.1715-1726, 1989年」に開示されているPOCS (Projection Onto Convex Sets) 法というものが提案されている。このPOCS法では、高解像度画像と低解像度画像の画素値に関して連立方程式を作成し、その方程式を逐次的に解くことにより、高解像度画像を得る超解像処理方法である。 Furthermore, "H. Stark, P. Oskoui, High resolution image recovery from image-plane arrays, using convex projections, J.Opt. Soc. Am. A, Vol. 6, p.1715-1726, 1989" A disclosed POCS (Projection Onto Convex Sets) method has been proposed. This POCS method is a super-resolution processing method for obtaining a high-resolution image by creating simultaneous equations for pixel values of a high-resolution image and a low-resolution image and sequentially solving the equations.
ここで、本実施形態では、所定の超解像拡大処理として、例えば上述のような超解像処理を適用するとともに、上述の画像間解析処理およびツリー構造解析処理によって、利用する際の優先順位が付けられた観測画像を、優先順位の高い観測画像から順番に所定枚数、または必要に応じた枚数を、超解像拡大処理において利用する低解像度の観測画像として利用するように本発明の画像処理装置を構成すると良い。 Here, in the present embodiment, as the predetermined super-resolution enlargement process, for example, the super-resolution process as described above is applied, and the priority order when using the inter-image analysis process and the tree structure analysis process is used. The images of the present invention are used so that a predetermined number of observation images with high priority are added in order from the observation image with the highest priority, or a required number is used as a low-resolution observation image used in the super-resolution enlargement process. A processing device may be configured.
以下、図18、図19および図20を用いて、本実施形態の超解像拡大器107の詳細構成および動作について説明する。
Hereinafter, the detailed configuration and operation of the
図18は、図1に示す本実施形態の超解像拡大器107の詳細構成例を示すブロック図、図19は、超解像拡大器107による超解像処理の様子を示すための概念図、図20は、超解像拡大器107による超解像処理の一例を示すフローチャートである。
18 is a block diagram showing a detailed configuration example of the
図18において、図1に示す本実施形態の超解像拡大器107は、位置合わせ器402、補間器403、推定画像生成器404、繰り返し判定器405を備える。
In FIG. 18, the
位置合わせ器402は、図19(a)に示すような、超解像拡大処理を行う際の基準となる基準画像と、少なくとも1枚の観測画像を取得する機能を有する。ここでは、図19(a)に示すように基準画像と観測画像1および観測画像2を取得するものとする。位置合わせ器402は、取得した基準画像と観測画像1,2の解像度よりも高解像度の画素位置への位置合わせを行い、不等間隔にサンプリングされた不均一高解像度画像を生成する機能を有する。また、生成した不均一高解像度画像を補間器403、繰り返し判定器405に供給する機能を有する。ここで、生成される不均一高解像度画像は、例えば、図19(b)で示されるように、基準画像の各画素を基準として観測画像の位置合わせを行い、基準画像との間の相関が最も高くなる位置に配置するようにすることが望ましい。また、位置合わせで適用される解像度は、超解像拡大処理後に得られる解像度よりも高い解像度で位置合わせを行うようにすることが望ましい。
The
補間器403は、生成された不均一高解像度画像を取得し、取得した不均一高解像度画像から所定の不均一補間処理を行うことで、所望の高解像度を持つ補間画像を生成し、推定画像生成器404に供給する機能を有する。また、補間器403は、繰り返し判定器405から処理を継続するための制御情報を取得する機能を有する。ここで、処理を継続するための制御情報には、推定画像生成器404によって生成された不均一推定画像が含まれると良い。また、補間器403は、制御情報に応じて繰り返し処理を行う場合には、所定の更新方法に従って不均一推定画像を利用し、位置合わせ器402から取得した不均一高解像度画像を更新するとともに、それぞれの補間画素を修正する機能を有すると良い。
The
推定画像生成器404は、生成された補間画像を取得し、所定のカメラモデルから得られる点広がり関数(PSF関数)を考慮して所定の復元処理を行い、必要であれば所定のノイズ除去処理を行うことで、例えば、図19(c)に示すような所望の解像度を持つ推定画像を生成し、推定画像に対してリサンプル処理を行うことで、不均一高解像度画像の各画素に対応する、不均一推定画像を生成し、繰り返し判定器405に供給する機能を有する。また、推定画像生成器404は、繰り返し判定器405から制御情報を取得するとともに、制御情報に応じて、生成した所望の解像度を持つ推定画像を高解像度画像として外部に対して出力する機能を有する。
The estimated
繰り返し判定器405は、位置合わせ器402から不均一高解像度画像を取得するとともに、推定画像生成器404から不均一推定画像を取得し、取得したそれぞれの画像を利用して、所定の判定方法に従って超解像拡大処理の繰り返しか必要か否かを判定し、所定の判定方法による判定の結果、繰り返しが必要な場合は補間器403に対して処理を継続するための制御情報を供給する機能を有する。また、所定の判定方法による判定の結果、繰り返しが必要ない場合には、推定画像生成器404に対して結果を出力するための制御情報を供給する機能を有する。
The
ここで、更に高速な超解像拡大処理を行う必要がある場合には、例えば、特許第3837575号で開示されているような、超解像処理の高速化方法を、本発明の画像処理装置に適用するようにすると、更に良い構成を実現することができる。 Here, when it is necessary to perform a higher-speed super-resolution enlargement process, for example, a method for increasing the speed of the super-resolution process as disclosed in Japanese Patent No. 3837575 is used. When applied to the above, a better configuration can be realized.
次に、図18に示す超解像拡大器107の動作を、図20のフローチャートを用いて説明する。
Next, the operation of the
まず、位置合わせ器402は、図19(a)に示すような低解像度の基準画像と、少なくとも1枚の観測画像を取得し(ステップS401)、図19(b)に示すように所望の高解像度よりも高い解像度によって、取得したそれぞれの画像の位置合わせを行う(ステップS402)。その際、基準画像の各画素を対応する位置に配置した後、この基準画像との相関が最も高くなるように観測画像の各画素を配置することで、不等間隔にサンプリングされた不均一高解像度画像を生成する。
First, the
その後、補間器403は、生成された不均一高解像度画像を取得し、所定の不均一補間処理を行うことで画素の補間を行う(ステップS403)。これにより、所望の高解像度を持つ補間画像を生成する。
Thereafter, the
次に、推定画像生成器404は、補間画像を取得し、所定の復元処理を行い、必要であれば所定のノイズ除去処理を行うことで、図19(c)に示すような所望の解像度を持つ推定画像を生成する(ステップS404)。また、推定画像に対してリサンプル処理を行うことで、不均一高解像度画像の各画素に対応する、不均一推定画像を生成する。
Next, the estimated
次に、繰り返し判定器405は、位置合わせ器402から不均一高解像度画像を取得するとともに、推定画像生成器404から不均一推定画像を取得し、取得したそれぞれの画像を利用して、所定の判定方法に従って超解像拡大処理の繰り返しか必要か否かを判定する(ステップS405)。
Next, the
ここで、超解像拡大処理の繰り返しが必要であると判定した場合(ステップS405 YES)、繰り返し判定器405は、補間器403に対して処理を継続するための制御情報を供給する。
If it is determined that the super-resolution enlargement process needs to be repeated (YES in step S405), the
これに対し、超解像拡大処理の繰り返しが必要でないと判定した場合(ステップS405 NO)、繰り返し判定器405は、推定画像生成器404に対して結果を出力するための制御情報を供給し、推定画像生成器404は制御情報に応じて、生成した所望の解像度を持つ推定画像を、超解像拡大処理によって得られた高解像度画像として出力する(ステップS406)。これにより、本実施形態1の超解像拡大処理が完了する。
On the other hand, when it is determined that it is not necessary to repeat the super-resolution enlargement process (NO in step S405), the
以上説明したように、本実施形態1の画像処理装置によれば、入力される画像列を所定枚数分蓄積し、解析対象画像列の特定および供給を行い、解析対象画像列に対し順方向と逆方向の画像間解析を行い、順方向の画像間解析に基づく評価情報と逆方向の画像間解析に基づく評価情報とに基づいてどちらの方向の画像間解析が有効であったか否かを判定し、その判定結果に基づいて解析対象画像列から超解像処理に適した静止画像を抽出し、この静止画像を基準として、複数の連続した画像列から少なくとも1枚の観測画像である超解像処理前の低解像度画像を利用して所定の超解像処理を行うようにしたので、動画像から静止画像を抽出する際に、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出した上で、従来よりも高品質な超解像拡大処理を施した静止画像を得ることができる。 As described above, according to the image processing apparatus of the first embodiment, a predetermined number of input image sequences are accumulated, the analysis target image sequence is specified and supplied, and the forward direction with respect to the analysis target image sequence is set. Perform reverse image analysis and determine whether the inter-image analysis was effective based on the evaluation information based on the forward image analysis and the evaluation information based on the reverse image analysis. Based on the determination result, a still image suitable for the super-resolution processing is extracted from the analysis target image sequence, and the super-resolution that is at least one observation image from a plurality of continuous image sequences with the still image as a reference. Predetermined super-resolution processing is performed using a low-resolution image before processing, so that when a still image is extracted from a moving image, it is closer to the user's desired still image and is viewed as a still image The quality that can withstand Still image in terms of extracting the can than conventional obtaining a still image subjected to high-quality super-resolution enlargement processing.
また、本実施形態1では、ユーザが実際に要求を行った第1静止画像取得要求の時刻から、ユーザがあらかじめ指定した時刻の分だけ過去にさかのぼった時点を、ユーザからの第2静止画像取得要求とし、その時刻に直近の動画像フレームを解析開始位置とすることにより、ユーザが本来静止画像として取得したかった内容に近いものを取得し、より高精細な静止画像を生成することができる。 Further, in the first embodiment, the second still image acquisition from the user is performed at a time point that goes back in the past by the time designated in advance by the user from the time of the first still image acquisition request actually requested by the user. By making a request and the latest moving image frame at that time as the analysis start position, it is possible to acquire a content close to what the user originally wanted to acquire as a still image and generate a higher-definition still image. .
ここで、本実施形態1では、第2静止画像取得要求を決定する際に、ユーザが実際に要求を行った第1静止画像取得要求の時刻と、ユーザが実際に所望している静止画像を含む時刻との時間的なズレを設定するようにしているので、ユーザ毎の個人差を解消できるとともに、解析開始位置をユーザが実際に所望した静止画像の時刻位置に近づけることが可能となり、解析開始位置の周囲を本発明により解析することによって、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出し、より高精細な静止画像を生成することができる。 Here, in the first embodiment, when determining the second still image acquisition request, the time of the first still image acquisition request actually requested by the user and the still image actually desired by the user are obtained. Since the time difference from the included time is set, individual differences for each user can be eliminated, and the analysis start position can be brought closer to the time position of the still image actually desired by the user. By analyzing the surroundings of the start position according to the present invention, a still image that is closer to the actually desired still image and that can be appreciated as a still image is extracted, and a higher-definition still image is generated. can do.
また、本実施形態1では、第2静止画像取得要求を決定する際に、ユーザが実際に要求を行った第1静止画像取得要求の時刻と、ユーザが実際に所望している静止画像を含む時刻との時間的なズレを、ユーザ毎に学習することにより、ユーザ毎の個人差を解消するとともに、解析開始位置をユーザが実際に所望した静止画像の時刻位置に近づけることが可能となり、また、解析開始位置の周囲を解析することによって、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出し、より高精細な静止画像を生成することができる。 In the first embodiment, when the second still image acquisition request is determined, the time of the first still image acquisition request actually requested by the user and the still image actually desired by the user are included. By learning the time difference from the time for each user, it is possible to eliminate individual differences for each user and bring the analysis start position closer to the time position of the still image actually desired by the user. By analyzing the surroundings of the analysis start position, a still image closer to the actually desired still image and extracted with a quality that can be appreciated as a still image is extracted, and a higher-definition still image is generated. be able to.
また、本実施形態1では、ユーザからの静止画像取得要求を考慮した解析開始位置を利用して行われる画像間解析処理では、解析対象となる動画像の解析対象画像列を2枚1組として扱い、組となった画像の片方のフレーム位置の画像を次の階層の解析対象として選定しながら、解析処理の階層が下がるにつれて必ずしも等間隔ではない動画像である不等間隔動画像の画像列となるように動画像内の解析対象画像列を制御し、解析対象となっている2枚の画像列に対し、どちらのフレーム位置の画像を次の階層の解析対象とすべきかを判断するために、過去から未来方向の予測によって画像の類似度を評価する順方向画像間解析と、未来から過去方向の予測によって画像の類似度を評価する逆方向画像間解析とを行い、解析開始位置から過去の動画像フレームに対して、順方向および逆方向の類似度の評価を行い、抽出すべき静止画像の候補を選択する処理を、類似度がある一定の値を下回って、比較する参照画像と対象画像との類似度が低いと評価された時点で処理を終了することにより、処理を終了した時点で選択されている動画像フレームを抽出すべき静止画像として出力できる。 Further, in the first embodiment, in the inter-image analysis process performed using the analysis start position in consideration of a still image acquisition request from the user, two analysis target image sequences of moving images to be analyzed are set as one set. An image sequence of non-uniformly spaced moving images that are not necessarily equally spaced as the analysis processing level is lowered while selecting an image at one frame position of the paired image as the analysis target of the next layer. The image sequence to be analyzed in the moving image is controlled so that the two image sequences to be analyzed are determined as to which frame position image should be analyzed in the next layer. In addition, forward image analysis that evaluates image similarity by prediction from the past to the future and reverse image analysis that evaluates image similarity by prediction of the past direction from the future are performed. past Evaluation of similarity in forward and backward direction for moving image frames, and selection of still image candidates to be extracted is compared with a reference image to be compared with a target value below a certain value. By terminating the process when it is evaluated that the degree of similarity with the image is low, it is possible to output the moving image frame selected when the process is terminated as a still image to be extracted.
また、本実施形態1では、静止画像の抽出過程で得られる画像列の依存関係をツリー構造によって管理し、所定の探索モードおよびツリー構造を構成するパスやノードに与えられたコストに基づいてツリー構造の解析を行い、解析対象画像列に対して順序付けを行い、この解析対象画像列の順位に基づいて、所定枚数の観測画像である超解像処理前の低解像度画像を特定した静止画像とともに所定の超解像処理を行うことにより、所定の超解像処理で利用する観測画像の枚数を、要求に応じて制限する際に、観測画像となる画像列から、超解像処理に有効で優先度の高い順番に、要求された必要な枚数の分だけ供給できる。これにより、超解像処理を行う際に、対象となっている画像列の全てを観測画像として利用することで、多くの演算量を費やすことなく、また超解像処理によってより高精細な静止画像を生成する際に、観測画像の枚数を制限することによる影響をより少なく抑えることができる。 In the first embodiment, the dependency of the image sequence obtained in the still image extraction process is managed by the tree structure, and the tree is determined based on the predetermined search mode and the cost given to the paths and nodes constituting the tree structure. Analyze the structure, order the analysis target image sequence, and based on the order of the analysis target image sequence, together with a still image that identifies a low-resolution image before super-resolution processing, which is a predetermined number of observation images By performing predetermined super-resolution processing, when limiting the number of observation images used in predetermined super-resolution processing as required, it is effective for super-resolution processing from the image sequence that becomes the observation image. The required number of sheets can be supplied in order of priority. As a result, when super-resolution processing is performed, all of the target image sequence is used as an observation image, so that a large amount of computation is not required and high-resolution stillness is achieved by super-resolution processing. When generating an image, it is possible to reduce the influence of limiting the number of observation images.
以上の結果、本実施形態1によれば、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出し、より高精細な静止画像を生成することができる。 As a result of the above, according to the first embodiment, a still image closer to the actually desired still image and having a quality that can be appreciated as a still image is extracted to generate a higher-definition still image. be able to.
実施形態2.
実施形態2は、図1に示す実施形態1の順方向画像間解析器103および逆方向画像間解析器104の詳細を、図21に示す順方向画像間解析器243および逆方向画像間解析器244のように詳細に構成したものである。なお、その他の構成は、図1に示す実施形態1のものと同様である。
In the second embodiment, details of the forward
図21において、順方向画像間解析器243は、第1画像列取得器203、第1ME器204、第1MC器205、第1A LPF器206、差分器207、第1Aノイズ除去器208、第1B LPF器209、差分器210、第1Bノイズ除去器211、第1L成分類似度評価器212、第1H成分類似度評価器213を有している。
In FIG. 21, the forward inter-image analyzer 243 includes a first image
同様に、図21において、逆方向画像間解析器244は、第2画像列取得器214、第2ME器215、第2MC器216、第2A LPF器217、差分器218、第2Aノイズ除去器219、第2B LPF器220、差分器221、第2Bノイズ除去器222、第2L成分類似度評価器223、第2H成分類似度評価器224を有している。
Similarly, in FIG. 21, the backward inter-image analyzer 244 includes a second image
ここで、図21における差分器207を、第1A HPF器に、差分器210を第1B HPF器に、差分器218を第2A HPF器に、差分器221を第2B HPF器によって代替した構成であっても構わない。これらは共に、供給された画像情報から高周波数成分を抽出し、H成分情報を生成するためのものである。本実施形態2におけるこれらの構成要素は、H成分情報を生成するための構成要素であれば良く、以後の説明では、図21で示される差分器によって構成されるものとして話を進める。また、図21における第1Aノイズ除去器208、第1Bノイズ除去器211、第2Aノイズ除去器219、第2Bノイズ除去器222は、必要に応じて所定のノイズ除去処理を行わない、もしくは上記の各ノイズ除去器を有さないように構成しても構わない。
Here, the
以後、本実施形態の詳細に関する説明は図21に基づいて進めるものとする。また、図1の構成要素と同等の機能を有する場合には説明を省略する。 Hereinafter, the description regarding the details of this embodiment will be made based on FIG. In addition, the description is omitted when it has the same function as the component of FIG.
図21の制御器226は、新たに第1画像列取得器203および第2画像列取得器214に関する動作を制御するために、それぞれに対して画像列を取得するための制御情報を供給する機能を有する。
The
蓄積画像列管理器202は、図1の順方向画像間解析器103、逆方向画像間解析器104に対して画像列を供給する代わりに、第1画像列取得器203および第2画像列取得器214に対して、処理対象となる画像列を供給する機能を有する。
The accumulated
第1画像列取得器203は、制御器226からの制御情報に応じて、蓄積画像列管理器202から、順方向の画像間解析処理を行うための参照画像、対象画像の画像列を取得する機能を有する。つまり、取得した画像列において、参照画像のフレーム位置は対象画像のフレーム位置よりも過去側の画像が得られている。取得した参照画像および対象画像を第1ME器204に供給する機能を有する。第1画像列取得器203は、参照画像を第1MC器205に供給する機能を有する。また、取得した対象画像を第1B LPF器209および差分器210に供給する機能を有する。
The first image
第1ME器204は、第1画像列取得器203から参照画像および対象画像を取得すると共に、所定の動き推定を行い、動きベクトル情報を生成する機能を有する。この所定の動き推定においては、例えばMPEG−1,MPEG−2,MPEG−4,同AVC/SVC等といった画像間相関を利用した動画像符号化において用いられるような、対象画像を重複なく所定の矩形領域に分割し、対応する動きベクトル情報を参照画像内から特定するような動き推定方法によるものであっても構わない。また、対象画像の領域分割を行う際に、所定の任意形状の領域分割を行った後に、対応する任意形状領域の動きベクトル情報を参照画像内から特定するような動き推定方法によるものであれば更に良い構成となる。第1ME器204は、生成した動きベクトル情報を第1MC器205に供給する機能を有する。
The
第1MC器205は、第1画像列取得器203から参照画像を取得するとともに、第1ME器204から、動きベクトル情報を取得し、取得した参照画像および動きベクトル情報に基づいて、所定の動き補償を行い、予測画像を生成する機能を有する。この所定の動き補償においては、動き推定と同様に、例えばMPEG−1,MPEG−2,MPEG−4,同AVC/SVC等といった画像間相関を利用した動画像符号化において用いられるような、動きベクトル情報を用いて参照画像から特定された領域を利用して予測画像を生成するような動き補償方法によるものであっても構わない。また、任意形状の領域分割情報と、任意形状領域に対応する動きベクトル情報によって、参照画像から対応する任意形状領域を特定し、このような領域を利用して予測画像を生成するような動き補償方法によるものであれば更に良い構成となる。また、領域分割情報は、第1ME器204から供給されるように構成しても良いし、また、第1画像列取得器203から対象画像を取得して、再度任意形状の領域分割処理を行うことで、生成しても良い。第1MC器205は、生成した予測画像を第1A LPF器206および差分器207に供給する機能を有する。
The
第1A LPF器206は、第1MC器205から予測画像を取得し、所定の低周波数帯域通過特性を持つフィルタを用いて予測画像に対してフィルタリング処理を行い、予測画像の低周波数成分情報(L成分情報)を生成する機能を有する。第1A LPF器206は、生成した予測画像のL成分情報を、差分器207および第1L成分類似度評価器212に供給する機能を有する。
The first
差分器207は、第1MC器205から予測画像を取得するとともに、第1A LPF器206から予測画像のL成分情報を取得し、予測画像から予測画像のL成分情報を減算することで予測画像に含まれる高周波数成分情報(H成分情報)を生成する機能を有する。この差分器207は、所定の高周波数帯域通過特性を持つフィルタを用いて予測画像に対してフィルタリング処理を行い、予測画像のH成分情報を生成する機能を有するような構成要素によって代用するような構成とすることもできる。差分器207は、生成した予測画像のH成分情報を第1Aノイズ除去器208に供給する機能を有する。ここで、生成した予測画像のH成分情報を、第1Aノイズ除去器208を機能させずに、第1H成分類似度評価器213に供給するような構成にしても構わない。
The
第1Aノイズ除去器208は、差分器207から予測画像のH成分情報を取得し、所定のノイズ除去処理を行った後に、ノイズ除去後の予測画像のH成分情報を、第1H成分類似度評価器213に供給する機能を有する。ここで、ノイズ除去処理は、所定の範囲を閾値とした、H成分情報に含まれる微小ノイズの除去ができることが望ましい。
The first
第1B LPF器209は、第1画像列取得器203から対象画像を取得し、所定の低周波数帯域通過特性を持つフィルタを用いて対象画像に対してフィルタリング処理を行い、対象画像のL成分情報を生成する機能を有する。第1B LPF器209は、生成した対象画像のL成分情報を、差分器210および第1L成分類似度評価器212に供給する機能を有する。
The first B LPF unit 209 acquires the target image from the first image
差分器210は、第1画像列取得器203から対象画像を取得するとともに、第1B LPF器209から対象画像のL成分情報を取得し、対象画像から対象画像のL成分情報を減算することで対象画像に含まれるH成分情報を生成する機能を有する。この差分器210は、所定の高周波数帯域通過特性を持つフィルタを用いて対象画像に対してフィルタリング処理を行い、対象画像のH成分情報を生成する機能を有するような構成要素によって代用するような構成とすることもできる。差分器210は、生成した対象画像のH成分情報を第1Bノイズ除去器211に供給する機能を有する。ここで、生成した対象画像のH成分情報を、第1Bノイズ除去器211を機能させずに、第1H成分類似度評価器213に供給するような構成にしても構わない。
The
第1Bノイズ除去器211は、差分器210から対象画像のH成分情報を取得し、所定のノイズ除去処理を行った後に、ノイズ除去後の対象画像のH成分情報を、第1H成分類似度評価器213に供給する機能を有する。ここで、ノイズ除去処理は、所定の範囲を閾値とした、H成分情報に含まれる微小ノイズの除去ができることが望ましい。
The first
第1L成分類似度評価器212は、第1A LPF器206から予測画像のL成分情報を取得するとともに、第1B LPF器209から対象画像のL成分情報を取得し、取得した予測画像のL成分情報と、対象画像のL成分情報とを、所定の類似度評価方法に基づいて、順方向におけるL成分情報の類似度情報(順方向L成分類似度情報)を生成し、判定器225に供給する機能を有する。ここで、所定の類似度評価方法としては、例えば予測画像のL成分情報と対象画像のL成分情報との差分値dLの二乗平均平方根(RMSE: Root Mean Squared Error)によって評価するようにすると良い。これは、差分値dLを二乗した上で相加平均し、平方根をとったものである。この値が大きいほど、類似度は低くなる。
The first L
また、計算を簡単にする必要がある場合には、誤差の絶対値和(SAD: Sum of Absolute Differences)によって評価するようにしても構わない。SADにおいても、値が大きいほど類似度は低くなる。これらの誤差の評価値を類似度情報とすると良い構成となる。また、必要に応じて、予測画像のL成分情報および対象画像のL成分情報のRMSEもしくはSADによって評価し、順方向予測L成分誤差情報、順方向対象L成分誤差情報として判定器225に供給するようにすると更に良い構成となる。
Further, when it is necessary to simplify the calculation, the evaluation may be performed by sum of absolute differences (SAD). Also in SAD, the greater the value, the lower the similarity. It is a good configuration if these error evaluation values are used as similarity information. Further, if necessary, evaluation is performed based on RMSE or SAD of the L component information of the predicted image and the L component information of the target image, and the result is supplied to the
ここで、予測画像のL成分情報および対象画像のL成分情報のRMSEもしくはSADによって評価を行う際に、予測画像のL成分情報と対象画像のL成分情報との平均画像を生成し、この平均画像と予測画像のL成分情報との差分画像に対してRMSEもしくはSADによって評価し、順方向予測L成分平均誤差情報を生成し、判定器225に供給するようにすると更に良い構成となる。同様に、この平均画像と対象画像のL成分情報との差分画像に対してRMSEもしくはSADによって評価し、順方向対象L成分平均誤差情報を生成し、判定器225に供給するようにすると更に良い構成となる。
Here, when evaluation is performed by RMSE or SAD of the L component information of the predicted image and the L component information of the target image, an average image of the L component information of the predicted image and the L component information of the target image is generated. It is more preferable that the difference image between the image and the L component information of the predicted image is evaluated by RMSE or SAD, and the forward predicted L component average error information is generated and supplied to the
ここで、L成分情報の類似度情報を生成する際の各成分情報に関する詳細を示す一例として、図22を参照しながら説明する。 Here, an example showing details regarding each component information when generating similarity information of L component information will be described with reference to FIG.
図22(a)は、予測画像のL成分情報の例を示す。この図22(a)で示される例では、解析対象となっている画像列には円形の動物体が含まれている。この図22(a)では、予測画像が生成される際に、動きベクトル情報に基づいて動き補償が行われることで、対象画像との画面内の空間的な位相差が抑えられている。しかし、この例では、参照画像内の物体の輪郭に動きブレが生じていたため、801の部分のように輪郭が不明瞭になっている。
FIG. 22A shows an example of L component information of a predicted image. In the example shown in FIG. 22A, a circular moving object is included in the image sequence to be analyzed. In FIG. 22A, when a predicted image is generated, motion compensation is performed based on motion vector information, so that a spatial phase difference in the screen with the target image is suppressed. However, in this example, motion blur has occurred in the contour of the object in the reference image, so that the contour is unclear as in the
図22(b)は、対象画像のL成分情報の例を示す。この図22(b)で示される例では、対象画像内の物体は、803の部分のようにブレの少ない輪郭になっている。このような予測画像のL成分情報と、対象画像のL成分情報との間で差分を行うと、図22(c)のような状態となる。
FIG. 22B shows an example of L component information of the target image. In the example shown in FIG. 22B, the object in the target image has a contour with little blur like the
図22(c)のような差分画像は、RMSEやSADによる評価を行う際に用いられる。 The difference image as shown in FIG. 22C is used when an evaluation by RMSE or SAD is performed.
図22(a)、図22(b)、および図22(c)における成分情報の推移を確認するため、同じ空間位置である808、810、812の領域内における同一ラインの成分情報をそれぞれ示したものが、図22(d)、図22(e)、図22(f)である。
In order to confirm the transition of the component information in FIGS. 22 (a), 22 (b), and 22 (c), the component information of the same line in the
図22(d)における成分情報809は、予測画像のL成分情報における領域808内の1ライン分であり、図22(e)における成分情報811は対象画像のL成分情報における領域810内の1ライン分、図22(f)における成分情報813は差分画像における領域812内の1ライン分を表している。
The
ここで、図22(d)における成分情報809は、動きボケ等を多く含んでいることから、輪郭周辺の信号が急峻ではなく、また全体的に信号成分が低くなっている。また、図22(e)における成分情報811は、動きボケが少ないため、輪郭部分の信号が比較的急峻であり、信号成分も比較的高い。このような成分情報809と成分情報811との間で差分を行うことで、図22(f)に示す成分情報813を得る。
Here, since the
成分情報813では、図22(f)に示すように、成分情報同士がより近い値であれば、得られる差分の成分情報の絶対値も小さくなる。この例のように、参照画像に動きボケや、動物体の変形や新たな物体の出現・消失などによる動き補償の失敗により成分情報が劣化しているものと差分を行うと、得られる差分の成分情報の絶対値は大きくなる。
In the
したがって、予測画像のL成分情報および対象画像のL成分情報との類似度評価を行うことによって、手ブレや動きボケ、動物体の変形や新たな物体の出現・消失などによって生じる、画面内の大局的な変化を評価することを可能にする。仮に、このL成分情報の類似度評価において、解析対象となっている画像間の類似度があまり高くないと判断された場合、予測画像のL成分情報から順方向予測L成分誤差情報もしくは順方向予測L成分平均誤差情報、対象画像のL成分情報から順方向対象L成分誤差情報もしくは順方向対象L成分平均誤差情報に基づいて、解析対象となっている画像列から、次の解析対象として重要となる画像を選択するようにすることが望ましい。 Therefore, by performing similarity evaluation between the L component information of the predicted image and the L component information of the target image, an in-screen generated due to camera shake, motion blur, deformation of a moving object, appearance / disappearance of a new object, and the like. Enables assessment of global changes. If it is determined in the similarity evaluation of the L component information that the similarity between the images to be analyzed is not so high, the forward prediction L component error information or the forward direction is determined from the L component information of the predicted image. Based on the predicted L component average error information, the L component information of the target image, and the forward target L component error information or the forward target L component average error information, it is important as the next analysis target from the image sequence being analyzed It is desirable to select an image to become.
第1H成分類似度評価器213は、第1Aノイズ除去器208からノイズ除去後の予測画像のH成分情報を取得するとともに、第1Bノイズ除去器211からノイズ除去後の対象画像のH成分情報を取得し、取得したノイズ除去後の予測画像のH成分情報と、ノイズ除去後の対象画像のH成分情報とを、所定の類似度評価方法に基づいて、順方向におけるH成分情報の類似度情報(順方向H成分類似度情報)を生成し、判定器225に供給する機能を有する。
The first H
ここで、所定の類似度評価方法としては、例えばノイズ除去後の予測画像のH成分情報とノイズ除去後の対象画像のH成分情報との差分値dHの二乗平均平方根(RMSE: Root Mean Squared Error)によって評価するようにすると良い。これは、差分値dHを二乗した上で相加平均し、平方根をとったものである。この値が大きいほど、類似度は低くなる。 Here, as a predetermined similarity evaluation method, for example, the root mean squared error (RMSE) of the difference value dH between the H component information of the predicted image after noise removal and the H component information of the target image after noise removal is used. ) To evaluate. This is an arithmetic mean obtained by squaring the difference value dH and taking a square root. The greater this value, the lower the similarity.
また、計算を簡単にする必要がある場合には、誤差の絶対値和(SAD: Sum of Absolute Differences)によって評価するようにしても構わない。SADにおいても、値が大きいほど類似度は低くなる。これらの誤差の評価値を類似度情報とすると良い構成となる。また、必要に応じて、予測画像のH成分情報および対象画像のH成分情報のRMSEもしくはSADによって評価し、順方向予測H成分誤差情報、順方向対象H成分誤差情報として判定器225に供給するようにすると更に良い構成となる。
Further, when it is necessary to simplify the calculation, the evaluation may be performed by sum of absolute differences (SAD). Also in SAD, the greater the value, the lower the similarity. It is a good configuration if these error evaluation values are used as similarity information. If necessary, the H component information of the predicted image and the RMS component or SAD of the H component information of the target image are evaluated and supplied to the
ここで、予測画像のH成分情報および対象画像のH成分情報のRMSEもしくはSADによって評価を行う際に、予測画像のH成分情報と対象画像のH成分情報との平均画像を生成し、この平均画像と予測画像のH成分情報との差分画像に対してRMSEもしくはSADによって評価し、順方向予測H成分平均誤差情報を生成し、判定器225に供給するような構成でも構わない。同様に、この平均画像と対象画像のH成分情報との差分画像に対してRMSEもしくはSADによって評価し、順方向対象H成分平均誤差情報を生成し、判定器225に供給するような構成でも構わない。
Here, when evaluation is performed by RMSE or SAD of the H component information of the predicted image and the H component information of the target image, an average image of the H component information of the predicted image and the H component information of the target image is generated. A difference image between the image and the H component information of the predicted image may be evaluated by RMSE or SAD, and forward predicted H component average error information may be generated and supplied to the
ここで、H成分情報の類似度情報を生成する際の、各成分情報に関する詳細を示す一例として、図23を参照しながら説明する。 Here, an example showing details regarding each component information when generating similarity information of H component information will be described with reference to FIG.
図23(a)は、予測画像のH成分情報の例を示す。この図23(a)で示される例では、解析対象となっている画像列には円形の動物体が含まれている。この図23(a)では、予測画像が生成される際に、動きベクトル情報に基づいて動き補償が行われることで、対象画像との画面内の空間的な位相差が抑えられている。しかしこの例では、参照画像内の物体の輪郭に動きブレが生じていたため、901の部分のように輪郭が不明瞭になっている。
FIG. 23A shows an example of H component information of a predicted image. In the example shown in FIG. 23A, a circular moving object is included in the image sequence to be analyzed. In FIG. 23A, when a predicted image is generated, motion compensation is performed based on motion vector information, so that a spatial phase difference in the screen with the target image is suppressed. However, in this example, motion blur has occurred in the contour of the object in the reference image, so that the contour is unclear as in the
図23(b)は、対象画像のH成分情報の例を示す。この図23(b)で示される例では、対象画像内の物体は、903の部分のようにブレの少ない輪郭になっている。このような予測画像のH成分情報と、対象画像のH成分情報との間で差分を行うと、図23(c)のような状態となる。
FIG. 23B shows an example of H component information of the target image. In the example shown in FIG. 23B, the object in the target image has a contour with little blur like the
図23(c)のような差分画像は、RMSEやSADによる評価を行う際に用いられる。図23(a)、図23(b)、および図23(c)における成分情報の推移を確認するため、同じ空間位置である908、910、912の領域内における同一ラインの成分情報をそれぞれ示したものが、図23(d)、図23(e)、図23(f)である。
The difference image as shown in FIG. 23C is used when an evaluation by RMSE or SAD is performed. In order to confirm the transition of the component information in FIGS. 23 (a), 23 (b), and 23 (c), the component information of the same line in the
図23(d)における成分情報909は、予測画像のH成分情報における領域908内の1ライン分であり、図23(e)における成分情報911は対象画像のH成分情報における領域910内の1ライン分、図23(f)における成分情報913は差分画像における領域912内の1ライン分を表している。
The
図23(d)における成分情報909は、動きボケ等を多く含んでいることから、輪郭周辺の信号が急峻ではなく、また信号成分が輪郭周辺に広く分布している。また、図23(e)における成分情報911は、動きボケが少ないため、輪郭部分の信号が比較的急峻であり、信号成分も大きく、また輪郭部分に集中している。このような成分情報909と成分情報911との間で差分を行うことで、図23(f)に示す成分情報913を得る。
Since the
図23(f)に示す成分情報913では、図示されるように、成分情報同士がより近い値であれば、得られる差分の成分情報の絶対値も小さくなる。この例のように、参照画像に動きボケや、動物体の変形や新たな物体の出現・消失などによる動き補償の失敗により成分情報が劣化しているものと差分を行うと、得られる差分の成分情報の絶対値は大きくなる。
In the
特に、この例のように成分情報909の最大値と成分情報911の最大値の位置がずれていると、差分を行った際に信号成分が十分相殺されず、得られる差分の成分情報の絶対値はより大きくなる。また、動きボケ等により、輪郭部分が不鮮明であると、成分情報909のようなH成分情報となる傾向が強い。このような成分情報との差分によって得られる成分情報913は、大きな値が比較的広い範囲に渡って分布する傾向が強い。このような特徴から、このH成分情報に対して類似度を評価することによって、画像間でどの程度手ブレや動きボケ、画面内のテクスチャ情報が変化しているかを判断することが可能である。
In particular, if the position of the maximum value of the
したがって、予測画像のH成分情報および対象画像のH成分情報との類似度評価を行うことによって、手ブレや動きボケ、動物体の変形や新たな物体の出現・消失などによって生じる、輪郭部分のズレや、動物体の変化といった、画面内の局所的な変化を評価することを可能にする。仮に、このH成分情報の類似度評価において、解析対象となっている画像間の類似度があまり高くないと判断された場合、予測画像のH成分情報から順方向予測H成分誤差情報もしくは順方向予測H成分平均誤差情報、対象画像のH成分情報から順方向対象H成分誤差情報もしくは順方向対象H成分平均誤差情報に基づいて、解析対象となっている画像列から、次の解析対象として重要となる画像を選択するようにすることが望ましい。また、重要となる画像を選択する際には、輪郭部分や画面内のテクスチャ情報がより鮮明なものを選択することが、静止画像としてより品質の高いものを選択することにつながる。よって、例えば順方向予測H成分誤差情報と順方向対象H成分誤差情報とを比較することによって画像を選択しなければならない場合には、これらの値が高い方を選択するように構成すると良い構成となる。 Therefore, by evaluating the similarity between the H component information of the predicted image and the H component information of the target image, the contour portion generated due to camera shake, motion blur, deformation of the moving object, appearance / disappearance of a new object, or the like. This makes it possible to evaluate local changes in the screen, such as displacement and changes in the animal body. If it is determined that the similarity between the images to be analyzed is not very high in the similarity evaluation of the H component information, the forward prediction H component error information or the forward direction is determined from the H component information of the predicted image. Based on the predicted H component average error information, the H component information of the target image, the forward target H component error information, or the forward target H component average error information, the analysis target image sequence is important as the next analysis target. It is desirable to select an image to become. Further, when selecting an important image, selecting an image with clearer contour information or texture information in the screen leads to selecting a higher quality image as a still image. Therefore, for example, when it is necessary to select an image by comparing the forward prediction H component error information and the forward target H component error information, it is preferable that the higher one of these values be selected. It becomes.
図21に戻り、第2画像列取得器214は、第1画像列取得器203と同等の機能を有する。また、第2画像列取得器214は、制御器226からの制御情報に応じて、蓄積画像列管理器202から、逆方向の画像間解析処理を行うための参照画像、対象画像の画像列を取得する機能を有する。つまり、取得した画像列において、参照画像のフレーム位置は対象画像のフレーム位置よりも未来側の画像が得られている。取得した参照画像および対象画像を第2ME器215に供給する機能を有する。さらに、第2画像列取得器214は、参照画像を第2MC器216に供給する機能を有する。また、取得した対象画像を第2B LPF器220および差分器221に供給する機能を有する。
Returning to FIG. 21, the second image
第2ME器215は、第1ME器204と同等の機能を有する。第2ME器215は、第2画像列取得器214から参照画像と対象画像を取得し、所定の動き推定を行うことにより動きベクトル情報を生成する機能を有する。また、生成した動きベクトル情報を第2MC器216に供給する機能を有する。
The
第2MC器216は、第1MC器205と同等の機能を有する。第2MC器216は、第2画像列取得器214から参照画像を取得するとともに、第2ME器215から動きベクトル情報を取得し、所定の動き補償を行うことにより、予測画像を生成する機能を有する。また、生成した予測画像を第2A LPF器217および差分器218に供給する機能を有する。
The
第2A LPF器217は、第1A LPF器206と同等の機能を有する。第2A LPF器217は、第2MC器216から予測画像を取得し、所定のフィルタリング処理を行うことで、予測画像のL成分情報を生成する機能を有する。また、生成したL成分情報を、差分器218および第2L成分類似度評価器223に供給する機能を有する。
The second
差分器218は、差分器207と同等の機能を有する。差分器218は、第2MC器216から予測画像を取得するとともに、第2A LPF器217から予測画像のL成分情報を取得する機能を有する。また、取得した予測画像から予測画像のL成分情報を減算することで、予測画像のH成分情報を生成し、第2Aノイズ除去器219に供給する機能を有する。ここで、生成した予測画像のH成分情報を、第2Aノイズ除去器219を機能させずに、第2H成分類似度評価器224に供給するような構成にしても構わない。
The
第2Aノイズ除去器219は、第1Aノイズ除去器208と同等の機能を有する。差分器218から予測画像のH成分情報を取得し、所定のノイズ除去処理を行った後、ノイズ除去後の予測画像のH成分情報を第2H成分類似度判定器224に供給する機能を有する。
The second
第2B LPF器220は、第1B LPF器209と同等の機能を有する。第2B LPF器220は、第2画像列取得器214から対象画像を取得し、所定のフィルタリング処理を行うことで対象画像のL成分情報を生成する機能を有する。また、生成した対象画像のL成分情報を差分器221および第2L成分類似度評価器223に供給する機能を有する。
The second
差分器221は、差分器210と同等の機能を有する。差分器221は、第2画像列取得器214から対象画像を取得するとともに、第2B LPF器220から対象画像のL成分情報を取得する機能を有する。また、取得した対象画像から対象画像のL成分情報を減算することで、対象画像のH成分情報を生成し、第2Bノイズ除去器222に供給する機能を有する。ここで、生成した対象画像のH成分情報を、第2Bノイズ除去器222を機能させずに、第2H成分類似度評価器223に供給するような構成にしても構わない。
The
第2Bノイズ除去器222は、第1Bノイズ除去器211と同等の機能を有する。第2Bノイズ除去器222は、差分器221から対象画像のH成分情報を取得し、所定のノイズ除去処理を行った後、ノイズ除去後の対象画像のH成分情報を第2H成分類似度評価器224に供給する機能を有する。
The second
第2L成分類似度評価器223は、第1L成分類似度評価器212と同等の機能を有する。第2L成分類似度評価器223は、第2A LPF器217から予測画像のL成分情報を取得するとともに、第2B LPF器220から対象画像のL成分情報を取得する機能を有する。また、取得した予測画像のL成分情報と、対象画像のL成分情報とを、所定の類似度評価方法に基づいて、逆方向におけるL成分情報の類似度情報(逆方向L成分類似度情報)を生成し、判定器225に供給する機能を有する。
The second L
第2H成分類似度評価器224は、第1H成分類似度評価器213と同等の機能を有する。第2H成分類似度評価器224は、第2Aノイズ除去器219からノイズ除去後の予測画像のH成分情報を取得するとともに、第2Bノイズ除去器222からノイズ除去後の対象画像のH成分情報を取得する機能を有する。また、取得したノイズ除去後の予測画像のH成分情報と、ノイズ除去後の対象画像のH成分情報とを、所定の類似度評価方法に基づいて、逆方向におけるH成分情報の類似度情報(逆方向H成分類似度情報)を生成し、判定器225に供給する機能を有する。
The second H
判定器225は、第1L成分類似度評価器212から順方向L成分類似度情報、第1H成分類似度評価器213から順方向H成分類似度情報、第2L成分類似度評価器223から逆方向L成分類似度情報、第2H成分類似度評価器224から逆方向H成分類似度情報を取得する機能を有する。また、判定器225は、必要に応じて、第1L成分類似度評価器212から順方向予測L成分誤差情報もしくは順方向予測L成分平均誤差情報、順方向対象L成分誤差情報もしくは順方向対象L成分平均誤差情報を取得する機能を有する。また、必要に応じて、判定器225は、第1H成分類似度評価器213から順方向予測H成分誤差情報もしくは順方向予測H成分平均誤差情報、順方向対象H成分誤差情報もしくは順方向対象H成分平均誤差情報を取得する機能を有する。また、必要に応じて、判定器225は、第2L成分類似度評価器223から逆方向予測L成分誤差情報もしくは逆方向予測L成分平均誤差情報、逆方向対象L成分誤差情報もしくは逆方向対象L成分平均誤差情報を取得する機能を有する。また、必要に応じて、第2H成分類似度評価器224から逆方向予測H成分誤差情報もしくは逆方向予測H成分平均誤差情報、逆方向対象H成分誤差情報もしくは逆方向対象H成分平均誤差情報を取得する機能を有する。
The
そして、判定器225は、取得した順方向のL成分およびH成分の類似度情報と、逆方向のL成分およびH成分の類似度情報とを比較し、順方向と逆方向の画像間解析のどちらが有効であったかを判定し、類似度情報の判定結果である判定情報を制御器226に供給する機能を有する。
The
ここで、判定方法は、例えば、L成分類似度情報とH成分類似度情報に対して所定の重み付け係数を乗算した後に加算することで、方向別の類似度情報を生成し、その後、生成した順方向の類似度情報と、逆方向の類似度情報とを比較することで有効な方向を判定するような方法であると良い。 Here, for example, the determination method generates the similarity information for each direction by multiplying the L component similarity information and the H component similarity information after multiplying by a predetermined weighting coefficient, and then generates the similarity information. It is preferable that the effective direction is determined by comparing the similarity information in the forward direction and the similarity information in the reverse direction.
また、判定情報は、順方向が選択されたか、逆方向が選択されたかを特定することができる情報であれば良い。例えば、順方向と逆方向をそれぞれ+と−、または1と0などのフラグ情報で表現されたものが望ましい。また、生成した類似度情報を用いて順方向と逆方向の類似度情報を比較する際に、所定の閾値と比較して類似度が高くないと判断された場合には、必要に応じて取得した、順方向側の処理から得られる、順方向予測L成分誤差情報もしくは順方向予測L成分平均誤差情報、順方向対象L成分誤差情報もしくは順方向対象L成分平均誤差情報、および、順方向予測H成分誤差情報もしくは順方向予測H成分平均誤差情報、順方向対象H成分誤差情報もしくは順方向対象H成分平均誤差情報、そして逆方向側の処理から得られる、逆方向予測L成分誤差情報もしくは逆方向予測L成分平均誤差情報、逆方向対象L成分誤差情報もしくは逆方向対象L成分平均誤差情報、および、逆方向予測H成分誤差情報もしくは逆方向予測H成分平均誤差情報、逆方向対象H成分誤差情報もしくは逆方向対象H成分平均誤差情報、に対して所定の重み付け係数を乗算した後に加算することで、方向別の誤差情報もしくは平均誤差情報を生成し、その後、生成した順方向の誤差情報もしくは平均誤差情報と、逆方向の誤差情報もしくは平均誤差情報と、を比較することで有効な方向を判定するような方法であると良い。 The determination information may be information that can specify whether the forward direction is selected or the reverse direction is selected. For example, it is desirable that the forward direction and the reverse direction are represented by flag information such as + and-, or 1 and 0, respectively. In addition, when comparing the similarity information in the forward direction and the backward direction using the generated similarity information, if it is determined that the similarity is not high compared to a predetermined threshold, it is acquired as necessary. The forward prediction L component error information or the forward prediction L component average error information, the forward target L component error information or the forward target L component average error information, and the forward prediction obtained from the processing on the forward direction side. H component error information or forward prediction H component average error information, forward target H component error information or forward target H component average error information, and reverse prediction L component error information or reverse obtained from processing on the reverse side Direction prediction L component average error information, reverse direction target L component error information or reverse direction target L component average error information, and reverse direction prediction H component error information or reverse direction prediction H component average error information, The direction target H component error information or the reverse direction target H component average error information is multiplied by a predetermined weighting coefficient and then added to generate direction-specific error information or average error information. It is preferable that the effective direction is determined by comparing the error information or average error information of the direction with the error information or average error information of the reverse direction.
次に、図21に示す実施形態2の順方向画像間解析器243および逆方向画像間解析器244に対応する各構成要素の動作について説明する。 Next, the operation of each component corresponding to the forward direction inter-image analyzer 243 and the reverse direction inter-image analyzer 244 of the second embodiment illustrated in FIG. 21 will be described.
図24は、図21において画像間解析を行う際の動作を説明したフローチャートである。 FIG. 24 is a flowchart for explaining the operation when the inter-image analysis is performed in FIG.
以下の説明では、順方向の画像間解析に関する動作の説明を行う。逆方向の画像間解析に関する動作に関しては、第2画像列取得器214が取得する画像列である参照画像と対象画像が異なるものの、それ以外の処理動作に関しては、順方向の画像間解析と同様であることから、説明を省略する。
In the following description, operations related to forward inter-image analysis will be described. Regarding the operation related to the inter-image analysis in the reverse direction, the reference image, which is the image sequence acquired by the second image
まず、制御器226は、解析処理の実行を制御するために、蓄積画像列管理器202から蓄積画像列管理情報を取得し、次に処理すべき画像列を特定する。特定した画像列の情報に基づいて制御情報を蓄積画像列管理器202に供給する。また、第1画像列取得器203および第2画像列取得器214に対して、制御情報を供給することで、動作開始の制御を行う。
First, the
蓄積画像列管理器202は、制御器226から次に処理すべき画像列に関する制御情報を取得し、解析対象となる少なくとも2枚の画像フレームを画像列として特定する。特定した画像列を、第1画像列取得器203および第2画像列取得器214に供給する。特定した画像列を供給する際に、順方向である第1画像列取得器203に対しては、供給すべき画像列のうち、時間的に過去側のフレーム位置の画像を参照画像、時間的に未来側のフレーム位置の画像を対象画像として供給する。また、逆方向である第2画像列取得器214に対しては、供給すべき画像列のうち、時間的に未来側のフレーム位置の画像を参照画像、時間的に過去側のフレーム位置の画像を対象画像として供給する。
The accumulated
その後、第1画像列取得器203は、制御器226からの要求に応じて、蓄積画像列管理器202から、参照画像および対象画像を取得する(ステップS201)。取得した参照画像および対象画像を第1ME器204に供給する。また、取得した参照画像を少なくとも第1MC器205に供給する。更に、取得した対象画像を第1B LPF器209および差分器210に供給する。
Thereafter, the first image
次に、第1ME器204が第1画像列取得器203から参照画像および対象画像を取得すると、これらの画像列を利用して所定の動き推定を行う(ステップS202)ことで動きベクトル情報を生成し、第1MC器205に供給する。
Next, when the
第1MC器205は、第1画像列取得器203から少なくとも参照画像を取得するとともに、第1ME器204から動きベクトル情報を取得する。取得した参照画像と動きベクトル情報を利用して、所定の動き補償を行う(ステップS203)ことで予測画像を生成し、第1A LPF器206および差分器207に供給する。
The
予測画像の生成が終わると、第1A LPF器206は、第1MC器205から予測画像を取得する。取得した予測画像に対して所定のフィルタリング処理を行うことで、予測画像のL成分情報を生成することで、予測画像の低周波数成分を抽出する(ステップS204)。その後、生成した予測画像のL成分情報を差分器207および第1L成分類似度評価器212に供給する。
When the generation of the predicted image ends, the first
その後、差分器207は、第1MC器205から予測画像を取得するとともに、第1A LPF器206から予測画像のL成分情報を取得する。取得した予測画像から予測画像のL成分情報を減算し、予測画像のH成分情報を生成することで、解析対象画像列の高周波数成分を抽出する(ステップS207)。その後、生成した予測画像のH成分情報を第1ノイズ除去器208に供給する。
Thereafter, the
次に、第1Aノイズ除去器208は、予測画像のH成分情報を取得し、所定のノイズ除去を行う(ステップS208)ことで、ノイズ除去後の予測画像のH成分情報を生成し、第1H成分類似度評価器213に供給する。
Next, the first A
以上のような予測画像に対する処理と並列して、以下の対象画像に対する処理が行われる。 In parallel with the process for the predicted image as described above, the following process for the target image is performed.
まず、第1B LPF器209において、第1画像列取得器203から対象画像を取得し、所定のフィルタリング処理を行って対象画像のL成分情報を生成することで、解析対象画像列の低周波数成分を抽出する(ステップS205)。その後、生成した対象成分のL成分情報を差分器210および第1L成分類似度評価器212に供給する。
First, in the 1B LPF unit 209, the target image is acquired from the first image
その後、差分器210は、第1画像列取得器203から対象画像を取得するとともに、第1B LPF器209から対象画像のL成分情報を取得する。取得した対象画像から対象画像のL成分情報を減算し、対象画像のH成分情報を生成することで、解析対象画像列の高周波数成分を抽出する(ステップS209)。その後、生成した対象画像のH成分情報を第1Bノイズ除去器211に供給する。
Thereafter, the
次に、第1Bノイズ除去器211は、対象画像のH成分情報を取得し、所定のノイズ除去を行う(ステップS210)ことで、ノイズ除去後の対象画像のH成分情報を生成し、第1H成分類似度評価器213に供給する。
Next, the first
それぞれのL成分情報が生成されると、第1L成分類似度評価器212は、第1A LPF器206から予測画像のL成分情報を取得するとともに、第1B LPF器209から対象画像のL成分情報を取得し、所定の類似度評価方法に基づいて、低周波数成分の類似度を評価する(ステップS206)。その後、評価結果である順方向のL成分類似度情報は、判定器225に供給される。
When the respective L component information is generated, the first L
同様に、それぞれのH成分情報が生成されると、第1H成分類似度評価器213は、第1Aノイズ除去器208からノイズ除去後の予測画像のH成分情報を取得するとともに、第1Bノイズ除去器211からノイズ除去後の対象画像のH成分情報を取得し、所定の類似度判定方法に基づいて、高周波数成分の類似度を評価する(ステップS211)。その後、評価結果である順方向のH成分類似度情報は、判定器225に供給される。
Similarly, when each H component information is generated, the first H
以上のような画像間解析処理を行って、順方向における類似度情報が生成される。同様に逆方向の画像間解析を行うことで、逆方向における類似度情報を生成することが可能となる。これらの順方向および逆方向の類似度情報に基づいて、判定器225は所定の判定を行うことで、解析対象となっている画像列の、どちら側からの画像間相関が高いかを特定し、どちらの画像を後の解析対象とすべきかを判断することができる。
By performing the inter-image analysis process as described above, similarity information in the forward direction is generated. Similarly, by performing inter-image analysis in the reverse direction, similarity information in the reverse direction can be generated. Based on the forward direction and reverse direction similarity information, the
次に、本発明の画像処理方法によって出力候補となる超解像前の代表画像が特定されていく手順をより詳細に説明するため、図25、図26、図27を用いて説明する。 Next, in order to describe in more detail a procedure for specifying a representative image before super-resolution as an output candidate by the image processing method of the present invention, a description will be given with reference to FIGS. 25, 26, and 27.
図25の501は、図21の蓄積画像列管理器202で保持されている画像列の状態の一例である。
蓄積画像列管理器202は、画像列入力を蓄積しておくための手段として、所定枚数の画像列を格納できるフレームバッファを備えており、制御器226の制御に応じて入力画像列を蓄積する。ここで、フレームバッファは、フレームバッファ内の格納位置を特定するためのフレーム位置に関する情報(フレーム位置情報もしくは単に、フレーム位置)に基づいて、格納された画像を管理する。
The accumulated
図25の501では、便宜上、解析開始位置に対応する画像をフレーム位置0とし、この画像よりも一つ前の過去の画像をフレーム位置1とするように、格納された時刻が過去に進むほど、順次フレーム位置の番号が増加するように番号付けされているものとする。
In FIG. 251, for convenience, as the stored time advances, the image corresponding to the analysis start position is set to frame
また、格納されている画像は、フレーム位置による管理の他に、画像が生成された時刻に関する時刻情報と関連付けられているものとする。つまり、蓄積画像列管理器202では、入力される画像列は、それぞれの時刻情報とともに蓄積される。図25の501では、はじめに、解析開始位置に対応するフレーム位置の画像が、代表画像の候補として設定される。
In addition to the management based on the frame position, the stored image is assumed to be associated with time information related to the time when the image was generated. That is, in the accumulated
図25では黒色のフレームで表現されている。ここでは、フレーム位置0の画像が代表画像の候補として選択される。次に、蓄積されている画像列において、時間方向に対して階層の概念を導入する。例えば、現在蓄積されている画像列は、毎秒30フレーム(30fps)のフレームレートで撮影されたものであるとする。この30fpsの時間間隔の階層を、ここでは0階層とする。このような画像列に対して、図25における501のように画像を2枚ずつ1組として扱い、この時間間隔で1枚分の画像を表現した場合には、15fpsの時間間隔で表現されることになる。このような時間間隔の階層を−1階層とする。つまり、このように階層が1つ下がる毎にフレームレートが半分になるように、画像列の組を構成することを、ここでは時間方向に対するディアディック(dyadic)な階層構造と称することにする。
In FIG. 25, it is represented by a black frame. Here, the image at
実施形態2の画像処理装置における画像間解析では、まず、解析対象となる少なくとも2枚の画像列を特定する必要があるため、まず、フレームバッファ内に保持されている画像列に対して、−1階層となるように、画像列の組を考える。最初の解析対象となる2枚の画像列は、図25における502のフレーム位置0とフレーム位置1である。この解析対象となっている画像列において、順方向の画像間解析を行う場合には、過去側のフレームであるフレーム位置1の画像を参照画像とし、未来側のフレームであるフレーム位置0の画像を対象画像とする。そして、これらの順方向の画像列に対して順方向の動き推定(ME)および動き補償(MC)を行うことで、図25における503aのような成分情報を得る。ここで、対象画像に対しては解析方向の特定を容易にするために、順方向を意味する「+」記号を付している。また、逆方向の画像間解析を行う場合には、未来側のフレームであるフレーム位置0の画像を参照画像とし、過去側のフレームであるフレーム位置1の画像を対象画像とする。
In the inter-image analysis in the image processing apparatus according to the second embodiment, since it is necessary to specify at least two image sequences to be analyzed, first, with respect to the image sequence held in the frame buffer, − Consider a set of image sequences so as to be one layer. The two image sequences to be analyzed first are
そして、これらの逆方向の画像列に対して逆方向のMEおよびMCを行うことで、図25の503bのような成分情報を得る。ここで、対象画像に対しては解析方向の特定を容易にするために、逆方向を意味する「−」記号を付している。 And component information like 503b of FIG. 25 is obtained by performing reverse ME and MC with respect to these reverse image sequences. Here, in order to easily specify the analysis direction, a “−” symbol indicating the reverse direction is attached to the target image.
その後、図25の503aおよび503bに対して所定の類似度評価および判定により、出力候補となる代表画像として有効な画像が含まれる方向の画像列を選択する。図25の504では、順方向の画像間解析が有効であったと判断されている。 Thereafter, an image sequence in a direction including an effective image as a representative image to be an output candidate is selected by predetermined similarity evaluation and determination with respect to 503a and 503b in FIG. In 504 of FIG. 25, it is determined that the forward inter-image analysis is effective.
その後、参照画像として設定されたフレーム位置1の画像を、次の解析対象の画像とする。ここでは、参照画像側のフレーム位置を次の解析対象の画像としている。これは、参照画像に対してMCを行った予測画像との類似度比較においても、十分対象画像との類似度が高いということから、より情報量が多く含まれていると考えられる参照画像側のフレーム位置の画像を選択する構成をとっている。
Thereafter, the image at
しかし、MCによる影響を受けていない対象画像側のフレーム位置を重視した構成とし、対象画像側のフレーム位置の画像を選択するような構成としても構わない。また、今回の組には、代表画像の候補となるフレーム位置が含まれているため、この代表画像候補位置を更新する。ここでは、フレーム位置1が新たな代表画像候補位置として新たに設定される。同様の処理を図25における506、510、514の画像列に対しても行う。ここで、図25における502に隣接している506以外の画像列は、代表画像候補位置の画像との画像間解析を行う必要が生じた時点で解析をするように動作を制御すると、処理に無駄のない、より良い構成となる。ここでは、説明を簡単にするため、同一階層の解析処理は全て行ったものとすると、図25における505、509、513、517のような、−1階層の画像列が得られる。
However, the configuration may be such that the frame position on the target image side that is not affected by the MC is emphasized, and the image at the frame position on the target image side is selected. Further, since the current set includes frame positions that are candidates for representative images, the representative image candidate positions are updated. Here,
図26は、−2階層の画像列を得るための処理を示すための図である。 FIG. 26 is a diagram for illustrating a process for obtaining an image sequence of the −2 hierarchy.
−2階層では、−1階層の画像列として得られた画像列で2枚ずつ1組として扱うことから、組となった2枚の画像列は、0階層においては4枚の画像列から選別された画像列となる。この様子を示したものが図26における601である。つまり、フレーム位置1とフレーム位置2の画像列は、フレーム位置0からフレーム位置3までの4枚の画像列から選別されたものであり、この画像列の範囲がフレーム位置1とフレーム位置2の画像列の影響範囲、つまり類似度が高いグループと考えることができる。
In the -2 hierarchy, the image sequence obtained as the -1 hierarchy image sequence is handled as a set of 2 images, so the 2 image sequences in the set are selected from the 4 image sequences in the 0 hierarchy. The resulting image sequence. This is indicated by
−2階層の画像列を得るための処理は図25と同様であり、−1階層の画像列において、2枚ずつ1組として扱い、図26における602が示すような解析対象画像列を特定する。図26の602では、フレーム位置1およびフレーム位置2の画像列が解析対象となる。その後、同様の画像間解析を行い、順方向の解析結果が選択され、順方向の参照画像に対応するフレーム位置の画像が選択される。また、今回の組には、代表画像の候補となるフレーム位置が含まれているため、この代表画像候補位置を更新する。ここでは、フレーム位置2が新たな代表画像候補位置として新たに設定される。同様の処理を図26の606の画像列に対しても行う。
The process for obtaining the -2 layer image sequence is the same as that in FIG. 25. In the -1 layer image sequence, two images are handled as one set, and the analysis target image sequence as indicated by 602 in FIG. . In 602 of FIG. 26, the image sequences at the
図27は、−3階層の画像列を得るための処理を示すための図である。−3階層では、−2階層の画像列として得られた画像列で2枚ずつ1組として扱うことから、組となった2枚の画像列は、0階層においては8枚の画像列から選別された画像列となる。この様子を示したものが図27の701である。つまり、フレーム位置2とフレーム位置7の画像列は、フレーム位置0からフレーム位置7までの8枚の画像列から選別されたものであり、この画像列の範囲がフレーム位置2とフレーム位置7の画像列の影響範囲、つまり類似度が高いグループと考えることができる。
FIG. 27 is a diagram illustrating a process for obtaining an image sequence of −3 layers. In the −3 hierarchy, the image sequence obtained as the −2 hierarchy image sequence is handled as a set of 2 images, so that the 2 image sequences in the set are selected from the 8 image sequences in the 0 hierarchy. The resulting image sequence. This is indicated by
−3階層の画像列を得るための処理は、図25および図26と同様であり、−2階層の画像列において、2枚ずつ1組として扱い、図27における702が示すような解析対象画像列を特定する。図27における702では、フレーム位置2およびフレーム位置7の画像列が解析対象となる。その後、同様の画像間解析を行い、逆方向の解析結果が選択され、逆方向の参照画像に対応するフレーム位置の画像が選択される。また、今回の組には、代表画像の候補となるフレーム位置が含まれているため、この代表画像候補位置を更新する。ここでは、前の階層、つまりここでは−2階層における代表画像候補位置がフレーム位置2と同じであるため、この代表画像候補位置を維持する。
The process for obtaining the -3 layer image sequence is the same as in FIG. 25 and FIG. 26. In the -2 layer image sequence, two images are treated as one set, and the analysis target image as indicated by 702 in FIG. Identify the column. In 702 in FIG. 27, the image sequences at the
本実施形態2の画像処理装置による画像間解析処理では、フレームバッファ内の画像列に対して画像間解析を行い、1枚の代表画像が特定された時点で少なくとも終了し、特定された代表画像と、必要に応じて代表画像の影響範囲である画像列の範囲に関する情報を出力する。図27では、代表画像はフレーム位置2の画像である。また、画像列の範囲は、現在の階層である−3階層よりも一つ上、つまりここでは−2階層の、フレーム位置2が属する画像列の範囲を特定し、必要に応じて代表画像とともに出力するようにすると良い。
In the inter-image analysis processing by the image processing apparatus according to the second embodiment, the inter-image analysis is performed on the image sequence in the frame buffer, and at least when one representative image is identified, the identified representative image is identified. If necessary, information on the range of the image sequence that is the influence range of the representative image is output. In FIG. 27, the representative image is an image at
図27における706が示すように、最終的に出力される代表画像のフレーム位置は、最初に設定されたフレーム位置である解析開始位置からずれた位置となっている。これは、本実施形態2の画像処理装置の画像間解析処理によって、最初の解析開始位置の画像が静止画像として十分な品質ではないと判断されて、より静止画像としてふさわしい、静止画像として鑑賞に堪えうる品質を備えた静止画像としてフレーム2の位置の画像が抽出された結果と言える。
As indicated by
従って、本実施形態2の画像処理装置によれば、上記実施形態1と同様に、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出し、より高精細な静止画像を生成することができる。 Therefore, according to the image processing apparatus of the second embodiment, as in the first embodiment, a still image having a quality that is closer to the actually desired still image and that can be appreciated as a still image is extracted. Therefore, a still image with higher definition can be generated.
特に、本実施形態2では、順方向および逆方向のそれぞれの方向に画像間解析する際に、解析対象画像列から対象画像を基準として参照画像内を所定の動きベクトル探索を行って、予測画像を生成し、生成した予測画像から予測画像の低周波数成分情報を生成すると共に、生成した予測画像からその予測画像の低周波数成分情報を減算して予測画像の高周波数成分情報を生成して所定のノイズ除去処理を施す一方、対象画像の低周波数成分情報を生成すると共に、解析対象画像列から生成した対象画像の低周波数成分情報を減算して対象画像の高周波数成分情報を生成して所定のノイズ処理を施し、予測画像低周波数成分情報と対象画像低周波数成分情報との間の類似度を評価して低周波数成分の類似度評価情報を生成すると共に、予測画像高周波数成分情報と対象画像高周波数成分情報との間の類似度を評価した高周波数成分の類似度評価情報を生成し、順方向における低周波数成分の類似度評価情報および前記高周波数成分の類似度評価情報と、逆方向における低周波数成分の類似度評価情報および高周波数成分の類似度評価情報とに基づいて、順方向または逆方向のいずれの方向の画像間解析が有効であるかを判定するようにしたので、ノイズ、手ブレ、動きボケなどがどの程度含まれているかを容易に評価することが可能となり、これらの評価結果に基づいて抽出候補となる画像を選定することで、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出し、より高精細な静止画像を生成することができる。 In particular, in the second embodiment, when performing inter-image analysis in each of the forward direction and the reverse direction, a predetermined motion vector search is performed in the reference image based on the target image from the analysis target image sequence, and the predicted image And generating the low-frequency component information of the predicted image from the generated predicted image, and subtracting the low-frequency component information of the predicted image from the generated predicted image to generate the high-frequency component information of the predicted image. In addition to generating the low-frequency component information of the target image, the low-frequency component information of the target image generated from the analysis target image sequence is subtracted to generate the high-frequency component information of the target image. Noise processing is performed, the similarity between the predicted image low frequency component information and the target image low frequency component information is evaluated to generate low frequency component similarity evaluation information, and the predicted image Generating high frequency component similarity evaluation information that evaluates the similarity between the frequency component information and the target image high frequency component information, and generating the similarity evaluation information of the low frequency component in the forward direction and the similarity of the high frequency component Based on the evaluation information and the similarity evaluation information of the low frequency component in the reverse direction and the similarity evaluation information of the high frequency component, it is determined whether the inter-image analysis in the forward direction or the reverse direction is effective. As a result, it is possible to easily evaluate how much noise, camera shake, motion blur, etc. are included, and by selecting images as extraction candidates based on these evaluation results, the user can It is possible to extract a still image that is closer to the desired still image and has a quality that can be appreciated as a still image, and generate a higher-definition still image.
実施形態3.
実施形態3は、上述の実施形態1,2の画像処理装置の機能を、図28および図29に示すコンピュータである中央処理制御装置1203、1303がプログラムの実行により実現するようにしたものである。
In the third embodiment, the functions of the image processing apparatuses in the first and second embodiments described above are realized by the central
図28は、本実施形態3の画像処理プログラムにより動作する情報処理装置の一例の構成図である。 FIG. 28 is a configuration diagram of an example of an information processing apparatus that operates according to the image processing program of the third embodiment.
同図において、情報処理装置1200は、各種の情報を入力するための入力装置1201と、各種の情報を出力するための出力装置1202と、本発明の画像処理プログラムにより動作する中央処理制御装置1203と、外部記憶装置1204と、中央処理制御装置1203による演算処理の際の作業領域など用いる一時記憶装置1205と、外部と通信するための通信装置1206とが、双方向のバス1207により接続された構成とされている。
In the figure, an
中央処理制御装置1203は、画像処理プログラムを記録媒体あるいは通信ネットワークを介して通信装置1206により取り込み、蓄積画像列管理器102に相当する蓄積画像列管理手段1208、順方向画像間解析器103に相当する順方向画像間解析手段1209、逆方向画像間解析器104に相当する逆方向画像間解析手段1210、判定器105に相当する判定手段1211、制御器106に相当する制御手段1212、超解像拡大器107に相当する超解像拡大手段1213の各機能を少なくとも有し、図1に示す画像処理装置と同様の動作をソフトウェア処理により実行する。
The central
図29は、実施形態3の画像処理プログラムにより動作する情報処理装置の別の一例の構成図である。 FIG. 29 is a configuration diagram of another example of an information processing apparatus that operates according to the image processing program of the third embodiment.
同図において、情報処理装置1300は、各種の情報を入力するための入力装置1301と、各種の情報を出力するための出力装置1302と、本発明の画像処理プログラムにより動作する中央処理制御装置1303と、外部記憶装置1304と、中央処理制御装置1303による演算処理の際の作業領域など用いる一時記憶装置1305と、外部と通信するための通信装置1306とが、双方向のバス1307により接続された構成とされている。
In the figure, an
中央処理制御装置1303は、画像処理プログラムを記録媒体あるいは通信ネットワークを介して通信装置1306により取り込み、蓄積画像列管理器202に相当する蓄積画像列管理手段1308、判定器225に相当する判定手段1311、制御器226に相当する制御手段1312、超解像拡大器227に相当する超解像拡大手段1323、を備え、更に順方向画像解析手段1309を構成する、第1画像列取得器203に対応する第1画像取得手段1321、逆方向画像解析手段1310を構成する、第2画像列取得器214に対応する第2画像列取得手段1322、また、順方向画像解析手段1309および逆方向画像解析手段1310を構成する、第1ME器204、第2ME器215を代用するためのME手段1313、第1MC器205、第2MC器216を代用するためのMC手段1314、第1A LPF器206、第1B LPF器209、第2A LPF器217、第2B LPF器220を代用するためのLPF手段1315、差分器207、差分器210、差分器218、差分器221を代用するためのHPF手段1316もしくは差分手段1317、第1Aノイズ除去器208、第1Bノイズ除去器211、第2Aノイズ除去器219、第2Bノイズ除去器222を代用するためのノイズ除去手段1318、第1L成分類似度評価器212、第2L成分類似度評価器223を代用するためのL成分類似度評価手段1319、第1H成分類似度評価器213、第2H成分類似度評価器224を代用するためのH成分類似度評価手段1320、の各機能を少なくとも有し、図21に示す画像処理装置と同様の動作をソフトウェア処理により実行する。
The central
従って、本実施形態3の画像処理装置でも、上記実施形態1,2と同様の画像間解析処理を、プログラムの実行により行うことにより、順方向における類似度情報を生成し、また、同様に逆方向の画像間解析を行うことで、逆方向における類似度情報を生成し、これらの順方向および逆方向の類似度情報に基づいて判定器が所定の判定を行うことで、解析対象となっている画像列の、どちら側からの画像間相関が高いかを特定し、どちらの画像を後の解析対象とすべきかを判断することができる。 Therefore, the image processing apparatus according to the third embodiment also generates the similarity information in the forward direction by performing the inter-image analysis process similar to the first and second embodiments by executing the program, and similarly reverses the same. By performing the inter-image analysis of the direction, the similarity information in the reverse direction is generated, and the determinator performs a predetermined determination based on the similarity information in the forward direction and the reverse direction. It is possible to identify which side of the image sequence from which the correlation between the images is high and to determine which image should be the later analysis target.
102、202 蓄積画像列管理器
103,243 順方向画像間解析器
104,244 逆方向画像間解析器
105、225 判定器
106、226 制御器
107、227 超解像拡大器
102, 202 Accumulated
Claims (8)
入力される画像列を所定枚数分蓄積し、解析対象画像列の特定および供給を行う蓄積画像列管理手段と、
前記蓄積画像列管理手段から供給された前記解析対象画像列を取得し、時間が順方向の画像間解析を行い、順方向の画像間解析に基づく評価情報を生成する順方向画像間解析手段と、
前記蓄積画像列管理手段から供給された前記解析対象画像列を取得し、時間が逆方向の画像間解析を行い、逆方向の画像間解析に基づく評価情報を生成する逆方向画像間解析手段と、
前記順方向画像間解析手段からの順方向の画像間解析に基づく前記評価情報と、前記逆方向画像間解析手段からの逆方向の画像間解析に基づく前記評価情報とに基づいて、順方向または逆方向のいずれの方向の画像間解析が有効であるかを判定する判定手段と、
前記判定手段の判定結果に基づいて前記蓄積画像列管理手段に蓄積された前記解析対象画像列のうち、少なくとも1枚の静止画像を抽出する制御手段と、
前記制御手段によって抽出された前記静止画像に対し所定の超解像拡大処理を行い高精細な静止画像を生成する超解像拡大手段と、
を有する画像処理装置。 An image processing apparatus for extracting at least one still image from a moving image composed of a plurality of continuous image sequences,
Accumulated image sequence management means for accumulating a predetermined number of input image sequences and specifying and supplying an analysis target image sequence;
A forward inter-image analysis unit that acquires the analysis target image sequence supplied from the accumulated image sequence management unit, performs time-to-forward image analysis, and generates evaluation information based on the forward image analysis; ,
Obtaining the analysis target image sequence supplied from the accumulated image sequence management means, performing an inter-image analysis in a reverse direction, and generating evaluation information based on the reverse inter-image analysis; ,
Based on the evaluation information based on the forward image analysis from the forward image analysis means and the evaluation information based on the reverse image analysis from the backward image analysis means, the forward direction or A determination means for determining whether the inter-image analysis in the opposite direction is effective;
Control means for extracting at least one still image from the analysis target image sequence stored in the stored image sequence management means based on the determination result of the determination means;
Super-resolution enlargement means for generating a high-definition still image by performing predetermined super-resolution enlargement processing on the still image extracted by the control means;
An image processing apparatus.
前記制御手段は、さらに、
ユーザが実際に要求を行った第1静止画像取得要求の時刻から、所定の時間間隔の分だけ過去にさかのぼった時点を、ユーザからの第2静止画像取得要求とし、その時刻に最も近い動画像フレームの位置を解析開始位置として特定する際、上記所定の時間間隔には、所定の初期値、ユーザが指定した時間間隔、または学習結果から特定された時間間隔のいずれかを用いて解析開始位置を特定し、特定した前記解析開始位置に基づいて前記蓄積画像列管理手段から前記順方向画像間解析手段および前記順方向画像間解析手段への前記解析対象画像列の供給を制御する、画像処理装置。 The image processing apparatus according to claim 1.
The control means further includes
A time point that goes back in the past by a predetermined time interval from the time of the first still image acquisition request that the user actually requested is the second still image acquisition request from the user, and the moving image closest to that time When specifying the position of the frame as the analysis start position, the predetermined time interval is an analysis start position using either a predetermined initial value, a time interval specified by the user, or a time interval specified from the learning result. Image processing for controlling the supply of the analysis target image sequence from the accumulated image sequence management unit to the forward image inter-analysis unit and the forward image inter-analysis unit based on the identified analysis start position apparatus.
前記制御手段は、さらに、
所定の指定領域であるクロッピング領域に基づいて、前記解析対象画像列に対して切抜き処理を行い、切り抜き処理を行った前記解析対象画像列を前記順方向画像間解析手段および前記逆方向画像間解析手段へ供給するように前記蓄積画像列管理手段を制御する、画像処理装置。 The image processing apparatus according to claim 1 or 2,
The control means further includes
Based on a cropping area which is a predetermined designated area, the analysis target image sequence is cut out, and the analysis target image sequence subjected to the cut processing is analyzed between the forward image analysis unit and the reverse image analysis. An image processing apparatus for controlling the stored image sequence managing means so as to be supplied to the means.
前記制御手段は、さらに、
前記蓄積画像列管理手段に蓄積されている画像列に対し時間に基づく階層が1つ下がる毎にフレームレートが半分になるように、画像列の組を構成するとともに、解析対象となる動画像の画像列を2枚1組として扱い、組となった画像の片方のフレーム位置の画像を次の階層の解析対象として選定しながら、解析処理の階層が下がるにつれて不等間隔部分を有する動画像の画像列となる前記解析対象画像列を特定するよう前記蓄積画像列管理手段を制御することにより処理すべき前記解析対象画像列を特定し、
特定した前記解析対象画像列の依存関係をツリー構造によって管理し、所定の探索モードと、ツリー構造を構成するパスのコストと、ツリー構造を構成するノードのコストとに基づいてツリー構造を解析して前記解析対象画像列の順位付けを行い、
前記解析対象画像列の順位に基づいて、所定枚数の観測画像を、特定した静止画像とともに前記超解像拡大手段に対し供給するように前記蓄積画像列管理手段を制御する、画像処理装置。 In the image processing device according to any one of claims 1 to 3,
The control means further includes
A set of image sequences is configured so that the frame rate is halved every time a hierarchy based on time is reduced by one with respect to the image sequence stored in the stored image sequence management means, and the moving image to be analyzed An image sequence is handled as a set of two images, and an image at one frame position of the paired image is selected as an analysis target of the next layer, and a moving image having unequal intervals as the analysis processing layer is lowered. Specifying the analysis target image sequence to be processed by controlling the accumulated image sequence management means to specify the analysis target image sequence to be an image sequence;
The dependency relation of the identified image sequence to be analyzed is managed by a tree structure, and the tree structure is analyzed based on a predetermined search mode, a cost of a path constituting the tree structure, and a cost of a node constituting the tree structure. To rank the image sequence to be analyzed,
An image processing apparatus that controls the accumulated image sequence management unit so as to supply a predetermined number of observed images together with the specified still image to the super-resolution enlargement unit based on the order of the analysis target image sequence.
前記超解像拡大手段は、
前記制御手段によって抽出された前記静止画像のうちから、超解像拡大処理を行う際の基準となる基準画像と、少なくとも1枚の観測画像を取得し、取得した前記基準画像と前記観測画像の解像度よりも高解像度の画素位置への位置合わせを行い、不等間隔にサンプリングされた不均一高解像度画像を生成する位置合わせ器と、
前記位置合わせ器によって生成された前記不均一高解像度画像を取得し、取得した不均一高解像度画像から所定の不均一補間処理を行って所望の高解像度を持つ補間画像を生成する補間器と、
前記補間器によって生成された前記補間画像を取得し、所定のカメラモデルから得られる点広がり関数を考慮して所定の復元処理を行い、所望の解像度を持つ推定画像を生成し、生成した推定画像に対してリサンプル処理を行って不均一推定画像を生成する推定画像生成器と、
前記位置合わせ器から前記不均一解像度画像を取得するとともに、前記推定画像生成器から前記不均一推定画像を取得し、取得したそれぞれの画像を利用して、所定の判定方法に従って超解像拡大処理の繰り返しが必要か否かを判定し、判定の結果、繰り返しが必要な場合は前記補間器に対して処理を継続させる一方、繰り返しが必要ない場合には、前記推定画像生成器に対して結果を出力させる繰り返し判定器と、
を有する、画像処理装置。 In the image processing apparatus according to any one of claims 1 to 4,
The super-resolution enlargement means includes
Among the still images extracted by the control means, a reference image serving as a reference when performing super-resolution enlargement processing and at least one observation image are acquired, and the acquired reference image and the observation image An aligner that performs alignment to pixel positions with a resolution higher than the resolution and generates non-uniform high-resolution images sampled at unequal intervals;
An interpolator that acquires the non-uniform high-resolution image generated by the aligner and performs a predetermined non-uniform interpolation process from the acquired non-uniform high-resolution image to generate an interpolated image having a desired high resolution;
Obtaining the interpolated image generated by the interpolator, performing a predetermined restoration process in consideration of a point spread function obtained from a predetermined camera model, generating an estimated image having a desired resolution, and generating the estimated image An estimated image generator that generates a non-uniform estimated image by performing a re-sampling process on
The non-uniform resolution image is acquired from the aligner, the non-uniform estimated image is acquired from the estimated image generator, and super-resolution expansion processing is performed according to a predetermined determination method using each acquired image If the result of determination is that repetition is necessary, the interpolator continues processing, whereas if repetition is not necessary, the result is output to the estimated image generator. A repeater for outputting
An image processing apparatus.
前記順方向画像間解析手段は、さらに、時間的に順方向の画像間解析を行うために、時間的に過去側にある画像を参照画像、時間的に未来側にある画像を対象画像として、前記蓄積画像列管理器手段から解析対象となる画像列を取得する第1画像列取得器を有する一方、
前記逆方向画像間解析手段は、さらに、時間的に逆方向の画像間解析を行うために、時間的に過去側にある画像を対象画像、時間的に未来側にある画像を参照画像として、前記蓄積画像列管理器手段から解析対象となる画像列を取得する第2画像列取得器を有し、
前記順方向画像間解析手段および前記逆方向画像間解析手段は、それぞれ、
前記第1画像列取得器または第2画像列取得器を介し前記蓄積画像列管理器手段から供給された時間的に順方向または逆方向の前記解析対象画像列から、対象画像を基準として参照画像内を所定の動きベクトル探索を行って、動きベクトル情報を生成する動き推定器と、
前記参照画像と、前記動き推定部によって生成された動きベクトル情報とから予測画像を生成する動き補償器と、
前記動き推定器によって生成された前記予測画像から、前記予測画像の低周波数成分情報を生成する予測画像低周波数成分生成器と、
前記動き推定器によって生成された前記予測画像から、前記予測画像の低周波数成分情報を減算して、前記予測画像の高周波数成分情報を生成する差分器と、
前記予測画像の高周波数成分情報に対し所定のノイズ除去処理を施す予測画像高周波数成分ノイズ除去器と、
前記第1画像列取得器または第2画像列取得器を介し前記蓄積画像列管理器手段から供給された時間的に順方向または逆方向の前記解析対象画像列から、対象画像の低周波数成分情報を生成する対象画像低周波数成分情報生成器と、
前記第1画像列取得器または第2画像列取得器を介し前記蓄積画像列管理器手段から供給された時間的に順方向または逆方向の前記解析対象画像列から、前記対象画像の低周波数成分情報を減算して、前記対象画像の高周波数成分情報を生成する差分器と、
前記対象画像の高周波数成分情報に対し所定のノイズ除去処理を施す対象画像高周波数成分ノイズ除去器と、
前記予測画像低周波数成分情報と、前記対象画像低周波数成分情報とを評価し、低周波数成分の類似度評価情報を生成する低周波数成分評価情報生成部と、
前記予測画像高周波数成分情報と、前記対象画像高周波数成分情報とを評価し、高周波数成分の類似度評価情報を生成する高周波数成分評価情報生成部と、を有し、
前記判定手段は、
前記順方向における前記低周波数成分の類似度評価情報および前記高周波数成分の類似度評価情報と、前記逆方向における前記低周波数成分の類似度評価情報および前記高周波数成分の類似度評価情報とに基づいて、順方向または逆方向のいずれの方向の画像間解析が有効であるかを判定する、画像処理装置。 In the image processing device according to any one of claims 1 to 5,
Further, the forward inter-image analysis means further performs temporal inter-image analysis as a reference image for an image on the past side in time, and an image on the future side in terms of time as a target image. While having a first image sequence acquisition unit for acquiring an image sequence to be analyzed from the stored image sequence management means,
The backward direction image analysis means further performs an image analysis in the reverse direction in time as a target image, and an image in the future side in time as a reference image, A second image sequence acquisition unit for acquiring an image sequence to be analyzed from the stored image sequence management means;
The forward direction image analyzing unit and the backward direction image analyzing unit are respectively
A reference image based on the target image from the temporally forward or reverse analysis target image sequence supplied from the stored image sequence manager means via the first image sequence acquisition unit or the second image sequence acquisition unit A motion estimator that performs a predetermined motion vector search and generates motion vector information;
A motion compensator that generates a predicted image from the reference image and the motion vector information generated by the motion estimation unit;
A predicted image low frequency component generator that generates low frequency component information of the predicted image from the predicted image generated by the motion estimator;
A subtractor that subtracts low frequency component information of the predicted image from the predicted image generated by the motion estimator to generate high frequency component information of the predicted image;
A predicted image high frequency component noise remover that performs a predetermined noise removal process on the high frequency component information of the predicted image;
Low frequency component information of the target image from the temporally forward or reverse analysis target image sequence supplied from the stored image sequence manager means via the first image sequence acquisition unit or the second image sequence acquisition unit A target image low frequency component information generator for generating
Low frequency components of the target image from the temporally forward or reverse analysis target image sequence supplied from the stored image sequence manager means via the first image sequence acquisition unit or the second image sequence acquisition unit A subtractor that subtracts information to generate high frequency component information of the target image;
A target image high frequency component noise remover that performs a predetermined noise removal process on the high frequency component information of the target image;
A low frequency component evaluation information generating unit that evaluates the predicted image low frequency component information and the target image low frequency component information and generates similarity evaluation information of the low frequency component;
A high frequency component evaluation information generating unit that evaluates the predicted image high frequency component information and the target image high frequency component information and generates similarity evaluation information of the high frequency component;
The determination means includes
The low frequency component similarity evaluation information and the high frequency component similarity evaluation information in the forward direction, and the low frequency component similarity evaluation information and the high frequency component similarity evaluation information in the reverse direction. An image processing apparatus that determines whether the inter-image analysis in the forward direction or the reverse direction is effective based on the image.
入力される画像列を所定枚数分蓄積し、解析対象画像列の特定および供給を行うステップと、
前記解析対象画像列を取得し、時間が順方向の画像間解析を行い、順方向の画像間解析に基づく評価情報を生成するステップと、
前記解析対象画像列を取得し、時間が逆方向の画像間解析を行い、逆方向の画像間解析に基づく評価情報を生成するステップと、
前記順方向の画像間解析に基づく前記評価情報と、前記逆方向の画像間解析に基づく前記評価情報とに基づいて、順方向または逆方向のいずれの方向の画像間解析が有効であるかを判定するステップと、
前記判定結果に基づいて前記蓄積画像列管理手段に蓄積された前記解析対象画像列のうち、少なくとも1枚の静止画像を抽出するステップと、
抽出された前記静止画像に対し所定の超解像拡大処理を行い高精細な静止画像を生成するステップと、
を有する画像処理方法。 An image processing method for extracting at least one still image from a moving image composed of a plurality of continuous image sequences,
Accumulating a predetermined number of input image sequences, specifying and supplying an analysis target image sequence;
Obtaining the analysis object image sequence, performing time-to-image analysis in the forward direction, and generating evaluation information based on the image analysis in the forward direction;
Obtaining the analysis target image sequence, performing an inter-image analysis in a reverse direction, and generating evaluation information based on the reverse inter-image analysis;
Based on the evaluation information based on the forward inter-image analysis and the evaluation information based on the reverse inter-image analysis, whether the inter-image analysis in the forward direction or the reverse direction is effective. A determining step;
Extracting at least one still image from the analysis target image sequence stored in the stored image sequence management means based on the determination result;
Performing a predetermined super-resolution enlargement process on the extracted still image to generate a high-definition still image;
An image processing method.
入力される画像列を所定枚数分蓄積し、解析対象画像列の特定および供給を行うステップと、
前記解析対象画像列を取得し、時間が順方向の画像間解析を行い、順方向の画像間解析に基づく評価情報を生成するステップと、
前記解析対象画像列を取得し、時間が逆方向の画像間解析を行い、逆方向の画像間解析に基づく評価情報を生成するステップと、
前記順方向の画像間解析に基づく前記評価情報と、前記逆方向の画像間解析に基づく前記評価情報とに基づいて、順方向または逆方向のいずれの方向の画像間解析が有効であるかを判定するステップと、
前記判定結果に基づいて前記蓄積画像列管理手段に蓄積された前記解析対象画像列のうち、少なくとも1枚の静止画像を抽出するステップと、
抽出された前記静止画像に対し所定の超解像拡大処理を行い高精細な静止画像を生成するステップと、
をコンピュータに実現させる画像処理プログラム。 An image processing program for causing a computer to implement an image processing method for extracting at least one still image from a moving image composed of a plurality of continuous image sequences,
Accumulating a predetermined number of input image sequences, specifying and supplying an analysis target image sequence;
Obtaining the analysis object image sequence, performing time-to-image analysis in the forward direction, and generating evaluation information based on the image analysis in the forward direction;
Obtaining the analysis target image sequence, performing an inter-image analysis in a reverse direction, and generating evaluation information based on the reverse inter-image analysis;
Based on the evaluation information based on the forward inter-image analysis and the evaluation information based on the reverse inter-image analysis, whether the inter-image analysis in the forward direction or the reverse direction is effective. A determining step;
Extracting at least one still image from the analysis target image sequence stored in the stored image sequence management means based on the determination result;
Performing a predetermined super-resolution enlargement process on the extracted still image to generate a high-definition still image;
An image processing program for realizing a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008028824A JP4894018B2 (en) | 2008-02-08 | 2008-02-08 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008028824A JP4894018B2 (en) | 2008-02-08 | 2008-02-08 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009188891A true JP2009188891A (en) | 2009-08-20 |
JP4894018B2 JP4894018B2 (en) | 2012-03-07 |
Family
ID=41071659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008028824A Active JP4894018B2 (en) | 2008-02-08 | 2008-02-08 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4894018B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011099648A1 (en) * | 2010-02-12 | 2011-08-18 | 国立大学法人東京工業大学 | Image processing device |
WO2011099647A1 (en) * | 2010-02-12 | 2011-08-18 | 国立大学法人東京工業大学 | Image processing device |
US8472745B2 (en) | 2010-02-16 | 2013-06-25 | Fujifilm Corporation | Image processing method, apparatus, program, and recording medium for the same |
JP2017224108A (en) * | 2016-06-14 | 2017-12-21 | 国立研究開発法人理化学研究所 | Data restoration device, microscopic system, and data restoration method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006180173A (en) * | 2004-12-22 | 2006-07-06 | Victor Co Of Japan Ltd | Device and method for encoding dynamic image, and device and method for decoding dynamic image |
JP2006245677A (en) * | 2005-02-28 | 2006-09-14 | Toshiba Corp | Image processor, image processing method, and image processing program |
JP2007000205A (en) * | 2005-06-21 | 2007-01-11 | Sanyo Electric Co Ltd | Image processing apparatus, image processing method, and image processing program |
-
2008
- 2008-02-08 JP JP2008028824A patent/JP4894018B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006180173A (en) * | 2004-12-22 | 2006-07-06 | Victor Co Of Japan Ltd | Device and method for encoding dynamic image, and device and method for decoding dynamic image |
JP2006245677A (en) * | 2005-02-28 | 2006-09-14 | Toshiba Corp | Image processor, image processing method, and image processing program |
JP2007000205A (en) * | 2005-06-21 | 2007-01-11 | Sanyo Electric Co Ltd | Image processing apparatus, image processing method, and image processing program |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011099648A1 (en) * | 2010-02-12 | 2011-08-18 | 国立大学法人東京工業大学 | Image processing device |
WO2011099647A1 (en) * | 2010-02-12 | 2011-08-18 | 国立大学法人東京工業大学 | Image processing device |
JP2011165043A (en) * | 2010-02-12 | 2011-08-25 | Tokyo Institute Of Technology | Image processing device |
JP2011165045A (en) * | 2010-02-12 | 2011-08-25 | Tokyo Institute Of Technology | Image processing device |
US8861895B2 (en) | 2010-02-12 | 2014-10-14 | Olympus Corporation | Image processing apparatus |
US8873889B2 (en) | 2010-02-12 | 2014-10-28 | Tokyo Institute Of Technology | Image processing apparatus |
US8472745B2 (en) | 2010-02-16 | 2013-06-25 | Fujifilm Corporation | Image processing method, apparatus, program, and recording medium for the same |
JP2017224108A (en) * | 2016-06-14 | 2017-12-21 | 国立研究開発法人理化学研究所 | Data restoration device, microscopic system, and data restoration method |
WO2017217325A1 (en) * | 2016-06-14 | 2017-12-21 | 国立研究開発法人理化学研究所 | Data recovery device, microscope system, and data recovery method |
US10866400B2 (en) | 2016-06-14 | 2020-12-15 | Riken | Data recovery device, microscope system, and data recovery method |
Also Published As
Publication number | Publication date |
---|---|
JP4894018B2 (en) | 2012-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5385969B2 (en) | Method and apparatus for super-resolution of images | |
KR100870115B1 (en) | Method for forming image using block matching and motion compensated interpolation | |
JP4666784B2 (en) | Video sequence key frame extraction method and video sequence key frame extraction device | |
JP4991712B2 (en) | Digital image processing apparatus, processing method, and computer program product | |
JP3538055B2 (en) | Motion vector detection device | |
KR101134668B1 (en) | Image generation method, device, its program and recording medium with program recorded therein | |
JPH10285602A (en) | Dynamic sprite for encoding video data | |
JP4564564B2 (en) | Moving picture reproducing apparatus, moving picture reproducing method, and moving picture reproducing program | |
JP2009147807A (en) | Image processing apparatus | |
JP2014511054A (en) | Coding method and image coding apparatus for compressing image sequence | |
WO2003077549A1 (en) | Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data | |
US20100182511A1 (en) | Image Processing | |
JP5844745B2 (en) | Method and apparatus for reducing vector quantization error through patch shifting | |
JP4894018B2 (en) | Image processing apparatus, image processing method, and image processing program | |
KR101538313B1 (en) | Block based image Registration for Super Resolution Image Reconstruction Method and Apparatus | |
JP2010232734A (en) | Image encoding apparatus, and image encoding method | |
JP2008294950A (en) | Image processing method and device, and electronic device with the same | |
Gangal et al. | An improved motion-compensated restoration method for damaged color motion picture films | |
JP2010250611A (en) | Image processor, image processing method and recording medium | |
JP4686200B2 (en) | Image conversion method and apparatus | |
JP2004064518A (en) | Moving image encoding method and device and its computer program | |
US9549205B2 (en) | Method and device for encoding video | |
JP5012521B2 (en) | Image processing apparatus, image processing method, and image processing program | |
KR100436593B1 (en) | Global motion compensation apparatus and method for detecting a motion of an object | |
JP2009004919A (en) | Motion vector processing device, motion vector detecting method, motion vector detecting program, and recording medium with the program recorded therein |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100617 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110906 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20111012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111125 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111208 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4894018 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150106 Year of fee payment: 3 |