JP2009188891A - Image processor, image processing method, and image processing program - Google Patents

Image processor, image processing method, and image processing program Download PDF

Info

Publication number
JP2009188891A
JP2009188891A JP2008028824A JP2008028824A JP2009188891A JP 2009188891 A JP2009188891 A JP 2009188891A JP 2008028824 A JP2008028824 A JP 2008028824A JP 2008028824 A JP2008028824 A JP 2008028824A JP 2009188891 A JP2009188891 A JP 2009188891A
Authority
JP
Japan
Prior art keywords
image
analysis
information
image sequence
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008028824A
Other languages
Japanese (ja)
Other versions
JP4894018B2 (en
Inventor
Satoshi Sakazume
智 坂爪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2008028824A priority Critical patent/JP4894018B2/en
Publication of JP2009188891A publication Critical patent/JP2009188891A/en
Application granted granted Critical
Publication of JP4894018B2 publication Critical patent/JP4894018B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate a higher definition still image by extracting a still image which is closer to a still image actually desired by a user and has quality worth viewing as a still image, when extracting a still image from a moving image. <P>SOLUTION: An image processor includes: an accumulated image sequence managing unit 102 for accumulating input image sequences for the predetermined number of pieces; a forward inter-image analyzer 103 which obtains an image sequence to be analyzed, performs forward inter-image analysis, and generates forward evaluation information; a backward inter-image analyzer 104 which obtains an image sequence to be analyzed, performs backward inter-image analysis, and generates backward evaluation information; a determining unit 105 which obtains forward and backward evaluation information and determines which inter-image analysis is effective; a controller 106 which extracts at least one still image from the accumulated image sequence managing unit 102 based on the result of the determination; and a super-resolving and expanding unit 107 which performs predetermined super-resolving and expanding processing of the extracted still image and generates a high-definition still image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、動画像から所望の静止画像を抽出し、超解像処理によって抽出した静止画像よりも高精細な静止画像を生成するための画像処理を行う、画像処理装置、画像処理方法、および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing apparatus for extracting a desired still image from a moving image and performing image processing for generating a still image with higher definition than the still image extracted by super-resolution processing. The present invention relates to an image processing program.

動画像から所望の静止画像を抽出する際に、所望の静止画像のフレーム位置の前後に存在する複数の画像フレームを利用して、より高い解像度に変換するための所定の超解像処理を行うことで、所望の静止画像を高解像度化する手法が多数存在している。超解像処理の効果を十分に発揮させるためには、動画像の中から超解像度に適した測光の検出レベルが安定し、ホワイトバランスの検出レベルが安定しているシーンの画像を探し出す必要がある。このような超解像処理に適した画像を容易に識別するために、超解像処理に係る所定の条件を満たすかを判定し、その判定結果に対応するフラグを各画像フレームに対して付加し、このフラグの有無により超解像処理の適否を判断するものがある。(例えば、特許文献1参照。)。
特開2007−151080号公報参照
When a desired still image is extracted from a moving image, a predetermined super-resolution process for converting to a higher resolution is performed using a plurality of image frames present before and after the frame position of the desired still image Thus, there are many techniques for increasing the resolution of a desired still image. In order to fully demonstrate the effects of super-resolution processing, it is necessary to find an image of a scene in which the photometric detection level suitable for super-resolution is stable and the white balance detection level is stable from moving images. is there. In order to easily identify an image suitable for such super-resolution processing, it is determined whether a predetermined condition relating to super-resolution processing is satisfied, and a flag corresponding to the determination result is added to each image frame. However, there are some that determine the suitability of the super-resolution processing based on the presence or absence of this flag. (For example, refer to Patent Document 1).
Refer to JP 2007-151080 A

ところで、動画像の撮影中に、ユーザからの静止画像取得要求があった場合、ユーザが所望している静止画像は、必ずしもユーザからの要求があった時刻(撮影機器がユーザからの静止画像取得要求を検知した時刻)と同時刻もしくは最も近い過去の画像フレームであるとは限らない。つまり、ユーザは動画像の撮影を行っている際に、ユーザが気に入った情景や被写体を認知した後、シャッターボタンの押下といった、静止画像取得要求を行うために、多少なりとも時間的な差異が生じることに起因する。このような時間的な差異は、ユーザ毎に個人差があることから、一意的に静止画像取得要求の時刻を修正することは困難である。   By the way, when there is a still image acquisition request from the user during moving image shooting, the still image desired by the user is not necessarily the time at which the user requested (the shooting device acquires a still image from the user). It is not necessarily the past image frame at the same time or closest to the time when the request was detected. In other words, when shooting a moving image, the user recognizes a scene or subject that the user likes and then makes a still image acquisition request such as pressing the shutter button. Due to what happens. Since such a temporal difference has individual differences for each user, it is difficult to uniquely correct the time of the still image acquisition request.

また、動画像の再生中に、ユーザからの静止画像取得要求があった場合も同様に、ユーザが所望している静止画像は、必ずしもユーザからの要求があった時刻(再生機器がユーザからの静止画像取得要求を検知した時刻)と同時刻もしくは最も近接した画像フレームであるとは限らない。   Similarly, when there is a still image acquisition request from the user during playback of a moving image, the still image desired by the user is not necessarily the time when the user requests it (the playback device receives a request from the user). The image frame is not necessarily the same time or the closest image frame to the time when the still image acquisition request is detected.

ここで、このようなユーザが所望している静止画像のフレーム位置の周囲の複数の画像フレームを利用して超解像処理を行うことを考える。上述の従来法においては、動画像の各画像フレームに対して超解像処理の適否に対応したフラグ情報を付加し、このフラグ情報に基づいて超解像処理の可否を判断する。しかし、ユーザが所望している静止画像のフレーム位置およびその周辺のフレーム位置の画像フレームは、必ずしも超解像処理に適していることを示すフラグ情報が付加されているとは限らない。このような場合、特定されたフレーム位置から、過去側および未来側のどちらの方向を探索するかを何らかの方法で決定する必要がある。また、決定した方向で超解像処理に適していることを示すフラグ情報が付加されている画像フレームを特定しなければならない。しかし、このように特定された画像フレームは、必ずしもユーザが所望している静止画像に近いものであるとは限らない。   Here, it is considered that super-resolution processing is performed using a plurality of image frames around the still image frame position desired by the user. In the above-described conventional method, flag information corresponding to the suitability of super-resolution processing is added to each image frame of a moving image, and whether or not super-resolution processing is possible is determined based on the flag information. However, flag information indicating that the frame position of the still image desired by the user and the frame positions around the still image are suitable for super-resolution processing are not always added. In such a case, it is necessary to determine in some way whether to search the past side or the future side from the specified frame position. In addition, it is necessary to identify an image frame to which flag information indicating that it is suitable for super-resolution processing in the determined direction is added. However, the image frame specified in this way is not necessarily close to the still image desired by the user.

更に、従来法では、超解像処理に適すると判断されたフラグが連続する場合には、超解像処理に利用する画像フレームの枚数を決定するための何らかの指標が必要となる。また、利用する参照フレームの枚数を制限して高速化を図ろうとした場合に、どのフレームまでを利用すべきかを決定する指標が曖昧であり、通常は所定の範囲が設定され、処理対象となっている静止画像との間の所定の位置関係にある複数のフレームの中から、所定枚数にしたがって超解像処理を行うことになる。更に、超解像処理に利用する画像フレームの枚数は、必ずしも多いほど良いとは限らない。よって、何らかの適用順序および適用枚数に関する情報が必要となる。   Further, in the conventional method, when flags determined to be suitable for the super-resolution processing are continuous, some index is required for determining the number of image frames used for the super-resolution processing. Also, when trying to increase the speed by limiting the number of reference frames to be used, the index that determines which frame should be used is ambiguous, and usually a predetermined range is set and it becomes a processing target. Super-resolution processing is performed according to a predetermined number of frames out of a plurality of frames having a predetermined positional relationship with a still image. Furthermore, the number of image frames used for super-resolution processing is not necessarily better. Therefore, some information on the order of application and the number of applications is required.

そこで、本発明は、動画像から静止画像を抽出する際に、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出し、より高精細な静止画像を生成することができる画像処理装置、画像処理方法、および画像処理プログラムを提供することを目的とする。   Therefore, when extracting a still image from a moving image, the present invention extracts a still image that is closer to the actually desired still image and has a quality that can be appreciated as a still image. An object is to provide an image processing apparatus, an image processing method, and an image processing program capable of generating a still image.

上記目的を達成するため、本発明の画像処理装置、画像処理方法、および画像処理プログラムでは、入力される画像列を所定枚数分蓄積し、解析対象画像列の特定および供給を行い、前記解析対象画像列を取得し、時間が順方向の画像間解析を行い、順方向の画像間解析に基づく評価情報を生成する一方、前記解析対象画像列を取得し、時間が逆方向の画像間解析を行い、逆方向の画像間解析に基づく評価情報を生成し、順方向の画像間解析に基づく前記評価情報と、逆方向の画像間解析に基づく前記評価情報とに基づいて、順方向または逆方向のいずれの方向の画像間解析が有効であるかを判定し、その判定結果に基づいて蓄積された前記解析対象画像列のうち、少なくとも1枚の静止画像を抽出し、抽出した前記静止画像に対し所定の超解像拡大処理を行い高精細な静止画像を生成する。   To achieve the above object, the image processing apparatus, the image processing method, and the image processing program of the present invention accumulate a predetermined number of input image sequences, specify and supply the analysis target image sequence, and Image sequence is acquired, time analysis is performed between images in the forward direction, and evaluation information is generated based on the analysis between images in the forward direction, while the image sequence to be analyzed is acquired and analysis between images in the reverse direction is performed. And generating evaluation information based on reverse inter-image analysis, based on the evaluation information based on forward inter-image analysis and the evaluation information based on reverse inter-image analysis. In which direction the inter-image analysis is effective, and at least one still image is extracted from the analysis target image sequence accumulated based on the determination result, and the extracted still image is included in the extracted still image. Over the prescribed Generating a high-definition still image performs image enlargement process.

本発明では、入力される画像列を所定枚数分蓄積し、解析対象画像列の特定および供給を行い、解析対象画像列に対し順方向と逆方向の画像間解析を行い、順方向の画像間解析に基づく評価情報と逆方向の画像間解析に基づく評価情報とに基づいてどちらの方向の画像間解析が有効であったか否かを判定し、その判定結果に基づいて解析対象画像列から超解像処理に適した静止画像を抽出し、この静止画像に対し所定の超解像処理を行うことにより、従来よりも高品質な超解像拡大静止画像を得ることができる。   In the present invention, a predetermined number of input image sequences are accumulated, analysis target image sequences are specified and supplied, analysis between images in the forward direction and reverse direction is performed on the analysis target image sequence, Based on the evaluation information based on the analysis and the evaluation information based on the inter-image analysis in the reverse direction, it is determined whether the inter-image analysis in which direction is effective, and based on the determination result, the super solution is determined from the analysis target image sequence. By extracting a still image suitable for image processing and performing predetermined super-resolution processing on the still image, it is possible to obtain a super-resolution enlarged still image with higher quality than before.

実施形態1.
図1に、本発明の実施形態1を適用した画像処理装置の構成例を示す。ここでは話を簡単にするため、動画像の撮影中に、ユーザから通常得られる静止画像よりも高精細な静止画像の取得要求があった場合を考える。
Embodiment 1.
FIG. 1 shows a configuration example of an image processing apparatus to which Embodiment 1 of the present invention is applied. Here, for the sake of simplicity, let us consider a case where a request for obtaining a still image with a higher definition than a still image normally obtained from a user is made during moving image shooting.

図1において、実施形態1の画像処理装置は、少なくとも蓄積画像列管理器102、順方向画像間解析器103、逆方向画像間解析器104、判定器105、制御器106、超解像拡大器107を有する。   In FIG. 1, the image processing apparatus according to the first embodiment includes at least an accumulated image sequence manager 102, a forward inter-image analyzer 103, a reverse inter-image analyzer 104, a determiner 105, a controller 106, and a super-resolution magnifier. 107.

蓄積画像列管理器102は、制御器106から制御情報を取得する機能を有する。制御器106からの制御情報に応じて、動画像として撮影された画像フレームを画像列入力101として順次取得する機能を有する。所定枚数の画像フレームを蓄積し、蓄積時の時刻情報、蓄積された画像フレームを管理する機能を有する。蓄積されている画像フレームの枚数が所定枚数を満たしている場合には、画像フレームを新たに蓄積する際に、蓄積されている画像列のうち、最も古い画像フレームから破棄し、新たに画像列入力として取得した画像フレームを、蓄積されている画像列の最後尾の位置に追加するといったFIFO(First In - First Out)方式で画像列の蓄積状態を管理するような機能を備えていると良い。   The stored image sequence manager 102 has a function of acquiring control information from the controller 106. In accordance with control information from the controller 106, it has a function of sequentially acquiring image frames taken as moving images as the image sequence input 101. It has a function of accumulating a predetermined number of image frames, managing time information at the time of accumulation, and the accumulated image frames. When the number of stored image frames satisfies the predetermined number, when an image frame is newly stored, the oldest image frame in the stored image sequence is discarded and a new image sequence is deleted. It is preferable to have a function for managing the storage state of an image sequence by using a FIFO (First In-First Out) method in which an image frame acquired as an input is added to the last position of the stored image sequence. .

また、蓄積画像列管理器102は、蓄積画像列管理情報に基づいて格納されている画像列の状態を管理する機能を有するとともに、必要に応じて、制御器106に対して蓄積画像列管理情報を供給する機能を有する。ここで、蓄積画像列管理情報には、処理の進捗状況を把握し、次に処理すべき画像列に関する情報や、現状で出力候補となっている代表画像のフレーム位置や、現在処理している階層の情報や、判定器105によって選択された順方向や逆方向の判定情報などが含まれると良い。また、このような画像間解析処理の過程で得られる画像列の依存関係、及び、どの画像が選択されてきたか示す選択履歴を、ツリー構造で管理できるよう蓄積画像列管理情報を構築すると良い。更に、ユーザが実際に要求を行った第1静止画像取得要求の時刻に対応するフレーム位置、およびこの位置から、所定の時刻、またはユーザがあらかじめ指定した時刻、または学習結果から特定された時刻のいずれかの分だけ過去にさかのぼった時点を、ユーザからの第2静止画像取得要求とし、その時刻に直近の動画像フレームを解析の開始位置とした解析開始位置などが含まれると更に良い構成となる。また、画像間解析の処理量を軽減するために、画像のクロッピング領域情報を含むと更に良い構成となる。   The accumulated image sequence management unit 102 has a function of managing the state of the image sequence stored based on the accumulated image sequence management information, and stores the accumulated image sequence management information with respect to the controller 106 as necessary. The function of supplying Here, the accumulated image sequence management information grasps the progress of processing, information on the image sequence to be processed next, the frame position of the representative image that is currently an output candidate, and the current processing It is preferable that the information of the hierarchy, the determination information in the forward direction and the reverse direction selected by the determination unit 105, and the like are included. Further, it is preferable to construct the accumulated image sequence management information so that the dependency relationship between the image sequences obtained in the process of the inter-image analysis process and the selection history indicating which image has been selected can be managed in a tree structure. Furthermore, the frame position corresponding to the time of the first still image acquisition request actually requested by the user, and the predetermined time, the time specified in advance by the user, or the time specified from the learning result from this position. The time point that goes back in the past is used as the second still image acquisition request from the user, and the analysis start position or the like with the latest moving image frame as the analysis start position is included at that time. Become. Further, in order to reduce the processing amount of the inter-image analysis, it is further improved if image cropping area information is included.

また、蓄積画像列管理器102は、制御情報、蓄積画像列管理情報に基づいて供給すべき対象となっている画像列を特定し、必要に応じて順方向画像間解析器103、逆方向画像間解析器104に特定した少なくとも2枚の画像列を供給する機能を有する。ここで、順方向画像間解析器103に対しては、供給すべき画像列のうち、時間的に過去側のフレーム位置の画像を参照画像、時間的に未来側のフレーム位置の画像を対象画像として供給する機能を有する。逆方向画像間解析器104に対しては、供給すべき画像列のうち、時間的に未来側のフレーム位置の画像を参照画像、時間的に過去側のフレーム位置の画像を対象画像として供給する機能を有する。ここで、画像間解析の処理量を軽減するために、制御器106からの制御情報に応じて、供給する画像列に対し、画像のクロッピング領域情報に基づいて画像の切り抜き領域を特定し、切り抜き処理を行った上で、順方向画像間解析器103および逆方向画像間解析器104に供給する機能を備えると良い。また、蓄積画像列管理器102は、制御情報、蓄積画像列管理情報に基づいて、出力対象となっている画像を画像列出力107として供給する機能を有する。また、制御器106から制御情報を取得し、要求に基づいて現状で出力候補となっている代表画像が、動画像内のどの範囲の画像列から抽出されたものかを示す画像列の範囲情報を特定し、代表画像の画像列出力とともに画像列の範囲情報を出力する機能を有すると更に良い構成となる。   The accumulated image sequence manager 102 identifies an image sequence to be supplied based on the control information and the accumulated image sequence management information, and if necessary, the forward image analyzer 103 and the backward image. The inter-analyzer 104 has a function of supplying at least two specified image sequences. Here, for the forward inter-image analyzer 103, an image at a frame position on the past side in time is a reference image, and an image at a frame position on the future side in time is a target image. It has the function to supply as. For the backward image analyzer 104, the image at the future frame position in time is supplied as the reference image, and the image at the past frame position in time is supplied as the target image. It has a function. Here, in order to reduce the processing amount of the inter-image analysis, in accordance with the control information from the controller 106, an image clipping region is specified based on the cropping region information of the image for the supplied image sequence, and the clipping is performed. It is preferable to provide a function to supply the forward direction inter-image analyzer 103 and the reverse direction inter-image analyzer 104 after processing. The accumulated image sequence manager 102 has a function of supplying an image to be output as an image sequence output 107 based on the control information and accumulated image sequence management information. Further, image sequence range information indicating from which range of image sequences in the moving image the representative image that is currently output as a candidate based on the request is extracted from the controller 106. And a function for outputting range information of the image sequence together with the output of the image sequence of the representative image.

また、蓄積画像列管理器102は、制御器106からの制御情報に応じて、蓄積画像列管理情報に含まれる、画像列の依存関係を示すツリー構造の解析から得られている画像列の順位情報に従って、要求された枚数の観測画像である超解像処理前の低解像度画像を特定し、超解像処理対象となっている静止画像とともに要求された枚数の観測画像を超解像拡大器107に供給する機能を有する。また、必要であれば、制御器106から制御情報として取得した、超解像処理における拡大率に関する情報を超解像拡大器107に供給する機能を有する。更に、蓄積画像列管理器102は、超解像拡大器107によって生成された超解像画像の取得および管理を行い、必要に応じて格納された超解像画像を供給する機能を有する。   Further, the stored image sequence manager 102 determines the order of the image sequences obtained from the analysis of the tree structure indicating the dependency relationship of the image sequences included in the stored image sequence management information in accordance with the control information from the controller 106. According to the information, the low-resolution image before super-resolution processing, which is the requested number of observation images, is identified, and the requested number of observation images together with the still image that is the super-resolution processing target is super-resolution magnifier 107 has a function to supply to 107. Further, if necessary, it has a function of supplying the super-resolution enlarger 107 with information on the enlargement ratio in the super-resolution processing acquired as control information from the controller 106. Furthermore, the stored image sequence manager 102 has a function of acquiring and managing the super-resolution image generated by the super-resolution enlarger 107 and supplying the stored super-resolution image as necessary.

順方向画像間解析器103は、蓄積画像列管理器102から解析対象となっている少なくとも2枚の画像列を参照画像および対象画像として取得し、取得した参照画像および対象画像に対して所定の画像間解析を行い、画像間の類似度を評価する機能を有する。また、評価結果である類似度情報を判定器105に供給する機能を有する。   The forward image inter-analyzer 103 acquires at least two image sequences to be analyzed from the accumulated image sequence manager 102 as reference images and target images, and performs predetermined processing on the acquired reference images and target images. It has a function of performing inter-image analysis and evaluating similarity between images. In addition, it has a function of supplying similarity information, which is an evaluation result, to the determiner 105.

逆方向画像間解析器104は、蓄積画像列管理器102から解析対象となっている少なくとも2枚の画像列を参照画像および対象画像として取得し、取得した参照画像および対象画像に対して所定の画像間解析を行い、画像間の類似度を評価する機能を有する。また、評価結果である類似度情報を判定器105に供給する機能を有する。   The backward image-to-image analyzer 104 acquires at least two image sequences to be analyzed from the accumulated image sequence manager 102 as reference images and target images, and performs predetermined processing on the acquired reference images and target images. It has a function of performing inter-image analysis and evaluating similarity between images. In addition, it has a function of supplying similarity information, which is an evaluation result, to the determiner 105.

判定器105は、順方向画像間解析器103及び逆方向画像間解析器104から供給される順方向の類似度情報および逆方向の類似度情報を取得し、取得した順方向の類似度情報と逆方向の類似度情報とを比較し、順方向と逆方向のどちらの画像間解析が有効であったかを判定する機能を有する。類似度情報の判定結果である判定情報を制御器106に供給する機能を有する。ここで判定情報は、順方向が選択されたか、逆方向が選択されたかを特定することができる情報であれば良い。例えば、順方向と逆方向をそれぞれ+と−、または1と0などのフラグ情報で表現されたものが望ましい。   The determination unit 105 acquires forward similarity information and reverse similarity information supplied from the forward image analyzer 103 and the backward image analyzer 104, and the acquired forward similarity information and It has a function of comparing the similarity information in the reverse direction and determining whether the inter-image analysis in the forward direction or the reverse direction was effective. It has a function of supplying determination information, which is a determination result of similarity information, to the controller 106. Here, the determination information may be information that can specify whether the forward direction is selected or the reverse direction is selected. For example, it is desirable that the forward direction and the reverse direction are represented by flag information such as + and-, or 1 and 0, respectively.

制御器106は、蓄積画像列管理器102に対して制御情報を供給する機能を有する。ここで、制御情報は、蓄積画像列管理器102に対して画像列入力の制御、画像列出力の制御、蓄積画像列管理情報の更新制御に関する情報を少なくとも含むと良い。ここで、制御器106は、ユーザからの直接的な解析開始要求である第1静止画像取得要求があった時刻に基づいて、ユーザが実際に要求を行った第1静止画像取得要求の時刻と、ユーザが実際に所望している静止画像を含む時刻との時間的なズレの時刻分だけ、第1静止画像取得要求があった時刻から過去にさかのぼった時刻を、ユーザからの第2静止画像取得要求として解析開始位置を特定する機能を有する。   The controller 106 has a function of supplying control information to the accumulated image sequence manager 102. Here, it is preferable that the control information includes at least information regarding control of image sequence input, control of image sequence output, and update control of stored image sequence management information for the accumulated image sequence manager 102. Here, the controller 106 determines the time of the first still image acquisition request that the user actually requested based on the time when the first still image acquisition request that is a direct analysis start request from the user was made. The time that goes back in the past from the time when the first still image acquisition request was made by the amount of time difference from the time including the still image that the user actually desires is the second still image from the user. It has a function of specifying the analysis start position as an acquisition request.

例えば、図2のように、動画像の撮影中のある時刻において、ユーザが静止画像を取得したいと考えて、カメラのシャッターボタンを押下したとする。しかし、ユーザが静止画像を取得したいと考えた時刻のフレーム位置1401と、実際にユーザがシャッターボタンを押下した時刻のフレーム位置1402には、静止画像を認識して実際にシャッターボタンを操作するまでの時間差が少なからず生じる。この操作までの時間差を、図2において矢印1403の補正によってできる限り1401の位置に近づけるために、ユーザが実際に要求を行った第1静止画像取得要求の時刻に対応するフレーム位置1402、すなわちユーザによって実際にシャッターボタンが押下された位置から、所定の時刻、またはユーザからあらかじめ指定した時刻、または学習結果から特定された時刻のいずれかの分だけ過去にさかのぼった時点を、ユーザからの第2静止画像取得要求とし、その時刻に直近の動画像フレームを解析の開始位置とした解析開始位置1404を求める。   For example, as shown in FIG. 2, it is assumed that at a certain time during moving image shooting, the user presses the shutter button of the camera in order to acquire a still image. However, the frame position 1401 at the time when the user wanted to acquire a still image and the frame position 1402 at the time when the user actually pressed the shutter button are recognized until the still image is recognized and the shutter button is actually operated. The time difference is not small. In order to make the time difference until this operation as close as possible to the position of 1401 by correcting the arrow 1403 in FIG. 2, the frame position 1402 corresponding to the time of the first still image acquisition request actually requested by the user, that is, the user From the position where the shutter button is actually pressed by the second time from the user, a time point that goes back in the past by a predetermined time, a time designated in advance by the user, or a time specified from the learning result. As a still image acquisition request, an analysis start position 1404 with the latest moving image frame at that time as the analysis start position is obtained.

このようにして、制御器106は、解析開始位置を特定する機能を有すると良い。このような解析開始位置1404を特定し、図2の1405のように所定の画像間解析によって特定することで、ユーザが所望していた位置である画像1401に近く、また、静止画像として鑑賞に堪えうる品質を備えた画像1406が特定される。つまり、この特定された画像1406を静止画像1410として出力することで、第1静止画像取得要求があった時刻のフレーム位置1402に対応する画像を出力として得られる静止画像1408や、解析開始位置1404に対応する画像を出力として得られる静止画像1409よりも、画像内に含まれるノイズや、手ブレ、動きボケ等が少なく、より情報量が多い画像を得ることが可能となる。   In this way, the controller 106 may have a function of specifying the analysis start position. By specifying such an analysis start position 1404 and specifying it by a predetermined inter-image analysis as indicated by reference numeral 1405 in FIG. 2, it is close to the image 1401 that is the position desired by the user, and can be viewed as a still image. An image 1406 with acceptable quality is identified. In other words, by outputting the specified image 1406 as a still image 1410, a still image 1408 obtained as an output corresponding to the frame position 1402 at the time when the first still image acquisition request was made, or an analysis start position 1404 Compared to a still image 1409 obtained by outputting an image corresponding to 1), it is possible to obtain an image with less information, noise, camera shake, motion blur, and the like, and a larger amount of information.

このような機能の他に、制御器106は、特定した解析開始位置に関する情報を制御情報として蓄積画像列管理器102に供給する機能を有する。判定器105から判定情報を取得する機能を有する。また、取得した判定情報を制御情報として蓄積画像列管理器102に通知する機能を有する。制御器106は、蓄積画像列管理器102から蓄積画像列管理情報を取得し、現在の蓄積画像列管理器102内の画像列の格納状況を把握し、本発明の画像処理装置の動作状況を制御する機能を有する。つまり、制御器106は、蓄積画像列管理情報から、処理の進捗状況を把握し、次に処理すべき画像列の特定や、現状で出力候補となっている代表画像のフレーム位置や、処理の階層や、判定器105によって選択された順方向や逆方向の判定情報などを把握する機能を有する。また、現状で出力候補となっている代表画像が、動画像内のどの範囲の画像列から抽出されたものかを示す画像列の範囲情報を特定し、必要に応じて蓄積画像列管理器102に画像列出力とともに画像列の範囲情報を出力するように要求する制御情報を供給する機能を有すると更に良い構成となる。また、制御器106は、必要に応じて画像間解析の処理量を軽減するために、蓄積画像列管理器102が画像列を供給する際に、供給する画像列に対し、クロッピング領域に基づいて画面の切り抜き処理を行った上で供給するように制御するために、クロッピング領域に関する情報を伴った制御情報を蓄積画像列管理器102に供給する機能を有すると良い。   In addition to such a function, the controller 106 has a function of supplying information relating to the specified analysis start position to the stored image sequence manager 102 as control information. It has a function of acquiring determination information from the determiner 105. Further, it has a function of notifying the stored image sequence manager 102 of the acquired determination information as control information. The controller 106 acquires accumulated image sequence management information from the accumulated image sequence manager 102, grasps the current storage status of the image sequence in the accumulated image sequence manager 102, and determines the operation status of the image processing apparatus of the present invention. It has a function to control. That is, the controller 106 grasps the processing progress status from the accumulated image sequence management information, specifies the image sequence to be processed next, the frame position of the representative image that is the current output candidate, It has a function of grasping the hierarchy, the determination information in the forward direction and the reverse direction selected by the determination unit 105, and the like. Further, the range information of the image sequence indicating from which range of image sequences in the moving image the representative image that is currently an output candidate is specified, and the accumulated image sequence manager 102 as necessary. It has a better structure if it has a function of supplying control information for requesting to output range information of an image sequence together with output of the image sequence. In addition, the controller 106 reduces the processing amount of the inter-image analysis as necessary, when the accumulated image sequence management unit 102 supplies the image sequence based on the cropping area. In order to perform control so as to be supplied after the screen clipping process is performed, it is preferable to have a function of supplying control information with information on the cropping area to the accumulated image sequence manager 102.

ここで、切り抜き領域であるクロッピング領域情報は、所定の領域をあらかじめ設定しておくようにしても構わない。また、例えば、図3の1501、1502、1503のように、フォーカスなどのカメラパラメータに連動してクロッピング領域の大きさや位置を変更することができるようにしても構わない。ここで、図3の1501は蓄積されている画像の全体、1502はクロッピング領域、1503はフォーカス位置を表している。   Here, a predetermined area may be set in advance for the cropping area information that is a cut-out area. Further, for example, as in 1501, 1502, and 1503 in FIG. 3, the size and position of the cropping area may be changed in conjunction with camera parameters such as focus. Here, 1501 in FIG. 3 indicates the entire accumulated image, 1502 indicates the cropping area, and 1503 indicates the focus position.

また、フォーカス位置とクロッピング領域との関係は、図3の1502と1503のように、クロッピング領域の中央にフォーカス位置がくるような位置関係であっても構わない。また、図3の1504、1505、1506のように、フォーカス位置とクロッピング領域との関係が所定の関係であっても構わない。ここで、図3の1504は蓄積されている画像の全体、1505はクロッピング領域、1506はフォーカス位置を表している。   Further, the relationship between the focus position and the cropping area may be such that the focus position is at the center of the cropping area, such as 1502 and 1503 in FIG. Further, as in 1504, 1505, and 1506 in FIG. 3, the relationship between the focus position and the cropping region may be a predetermined relationship. Here, 1504 in FIG. 3 indicates the entire accumulated image, 1505 indicates the cropping area, and 1506 indicates the focus position.

制御器106は、蓄積画像列管理器102から蓄積画像列管理情報を取得し、画像列の依存関係を示すツリー構造に対して所定のツリー構造解析処理を行い、得られる画像列の順位情報を蓄積画像列管理器102に供給する機能を有する。ここで、画像列の順位情報は、蓄積画像列管理情報に追加した上で蓄積画像列管理器102に供給されるように構成しても良い。更に、制御器106は、蓄積画像列管理器102に対して、超解像拡大器107における所定の超解像拡大処理を制御するための制御情報を供給する機能を有する。ここで、この制御情報には、超解像処理で利用する観測画像である超解像処理前の低解像度画像の枚数に関する情報、超解像処理における拡大率に関する情報が含まれるようにすると良い。観測画像の枚数に関する情報は、所定枚数であっても構わないし、ユーザからの要求に基づくものであっても構わない。また、本実施形態の画像処理装置の演算量を監視し、演算負荷の増減に応じて観測画像の枚数を調整したり、超解像拡大処理にかかる時間を測定し、所定の時間内で処理が終了するように観測画像の枚数を調整したりすることで、より良い構成にすることができる。超解像処理における拡大率に関する情報は、所定の拡大率情報であっても構わないし、ユーザからの要求に基づくものであっても構わない。   The controller 106 acquires the stored image sequence management information from the stored image sequence manager 102, performs a predetermined tree structure analysis process on the tree structure indicating the dependency relationship between the image sequences, and obtains the obtained image sequence order information. It has a function of supplying to the stored image sequence manager 102. Here, the image sequence order information may be added to the accumulated image sequence management information and then supplied to the accumulated image sequence manager 102. Further, the controller 106 has a function of supplying control information for controlling a predetermined super-resolution enlargement process in the super-resolution enlarger 107 to the accumulated image sequence manager 102. Here, the control information may include information on the number of low-resolution images before the super-resolution processing, which is an observation image used in the super-resolution processing, and information on the enlargement ratio in the super-resolution processing. . The information regarding the number of observation images may be a predetermined number or may be based on a request from the user. In addition, the calculation amount of the image processing apparatus of the present embodiment is monitored, the number of observation images is adjusted according to the increase or decrease of the calculation load, the time required for the super-resolution enlargement process is measured, and the processing is performed within a predetermined time. By adjusting the number of observation images so that the process ends, a better configuration can be obtained. The information regarding the enlargement ratio in the super-resolution processing may be predetermined enlargement ratio information or may be based on a request from the user.

超解像拡大器107は、蓄積画像列管理器102から、超解像処理対象となっている静止画像および、少なくとも1枚の観測画像である超解像処理前の低解像度画像を取得し、取得した静止画像および観測画像を利用して所定の超解像拡大処理を行い、取得した静止画像よりも高精細な静止画像である超解像画像を生成し、蓄積画像列管理器102に供給する機能を有する。   The super-resolution magnifier 107 acquires a still image that is a target for super-resolution processing and a low-resolution image before super-resolution processing that is at least one observation image from the accumulated image sequence manager 102, A predetermined super-resolution enlargement process is performed using the acquired still image and the observed image, and a super-resolution image that is a higher-definition still image than the acquired still image is generated and supplied to the accumulated image sequence manager 102 It has the function to do.

次に、図4を用いて図1に示す画像処理装置の構成の動作について説明する。   Next, the operation of the configuration of the image processing apparatus shown in FIG. 1 will be described with reference to FIG.

図4は、図1に示す画像処理装置の動作を示すフローチャートである。   FIG. 4 is a flowchart showing the operation of the image processing apparatus shown in FIG.

まず、制御器106は、画像列の蓄積を開始させるための制御情報を蓄積画像列管理器102に供給する。動画像の撮影が開始されると、画像列入力101として順次撮影された画像列が蓄積画像列管理器102に供給される。   First, the controller 106 supplies control information for starting accumulation of an image sequence to the accumulated image sequence manager 102. When shooting of a moving image is started, an image sequence sequentially captured as an image sequence input 101 is supplied to the accumulated image sequence manager 102.

蓄積画像列管理器102は、画像列入力101として供給される画像列であるそれぞれの画像フレームを取得し、所定枚数になるまで蓄積を行う。所定枚数を超える場合には、FIFO方式で最も古い時刻に格納された画像フレームを破棄し、新たに取得した画像フレームを最後尾に追加する。このような処理により、入力された画像列を蓄積する(ステップS101)。   The accumulated image sequence manager 102 acquires each image frame, which is an image sequence supplied as the image sequence input 101, and accumulates it until a predetermined number is reached. When the number exceeds the predetermined number, the image frame stored at the oldest time in the FIFO method is discarded, and the newly acquired image frame is added at the end. Through such processing, the input image sequence is accumulated (step S101).

制御器106は、例えば動画像の撮影中にユーザが静止画像を記録したいと考えてシャッターボタンを押すなどの動作によって生じる、ユーザからの解析開始要求の有無を監視する。ユーザからの解析開始要求があった場合(ステップS102 YES)は、ステップS103に進む。また、ユーザからの解析開始要求がない場合(ステップS102 NO)は、ステップS101に戻り、画像列の蓄積が継続される。   The controller 106 monitors the presence or absence of an analysis start request from the user, for example, caused by an operation such as pressing the shutter button when the user wants to record a still image while shooting a moving image. If there is an analysis start request from the user (YES in step S102), the process proceeds to step S103. When there is no analysis start request from the user (NO in step S102), the process returns to step S101 and the image sequence is continuously accumulated.

制御器106によってユーザからの解析開始要求があったことを確認すると、制御器106は、画像列の蓄積を中断させるための制御情報を蓄積画像列管理器102に供給し、蓄積画像列管理器102は、取得した制御情報に応じて画像列の蓄積を中断し、蓄積画像列管理情報に対して初期化を行うことで解析処理の準備を行う。また、制御器106は、ユーザからの直接的な解析開始要求である第1静止画像取得要求があった時刻に基づいて、ユーザが実際に要求を行った第1静止画像取得要求の時刻と、ユーザが実際に所望している静止画像を含む時刻との時間的なズレの時刻分だけ、第1静止画像取得要求があった時刻から過去にさかのぼった時刻を、ユーザからの第2静止画像取得要求として解析開始位置を特定する。制御器106は、特定した解析開始位置を蓄積画像列管理器102に供給し、蓄積画像列管理器102は、取得した解析開始位置を蓄積画像列管理情報に反映する。これにより、解析開始位置をユーザが実際に所望した静止画像の時刻位置に近づけた上で、解析を開始することができる。   When the controller 106 confirms that there is an analysis start request from the user, the controller 106 supplies control information for interrupting the accumulation of the image sequence to the accumulated image sequence manager 102, and the accumulated image sequence manager 102 interrupts the accumulation of the image sequence in accordance with the acquired control information, and prepares the analysis process by initializing the accumulated image sequence management information. Further, the controller 106, based on the time when there is a first still image acquisition request that is a direct analysis start request from the user, the time of the first still image acquisition request that the user actually requested, The second still image acquisition from the user is performed for a time that goes back in the past from the time when the first still image acquisition request has been made, by the time difference from the time including the still image that the user actually desires. The analysis start position is specified as a request. The controller 106 supplies the identified analysis start position to the accumulated image sequence manager 102, and the accumulated image sequence manager 102 reflects the acquired analysis start position in the accumulated image sequence management information. Accordingly, the analysis can be started after the analysis start position is brought close to the time position of the still image actually desired by the user.

次に、制御器106は、解析処理の実行を制御するために、蓄積画像列管理器102から蓄積画像列管理情報を取得し、次に処理すべき画像列を特定する。特定した画像列の情報に基づいて制御情報を蓄積画像列管理器102に供給する。   Next, the controller 106 acquires accumulated image sequence management information from the accumulated image sequence manager 102 in order to control execution of analysis processing, and specifies an image sequence to be processed next. Control information is supplied to the stored image sequence manager 102 based on the specified image sequence information.

蓄積画像列管理器102は、制御器106から次に処理すべき画像列に関する制御情報を取得し、解析対象となる少なくとも2枚の画像フレームを画像列として特定する。特定した画像列を、順方向画像間解析器103および逆方向画像間解析器104に供給する。特定した画像列を供給する際に、順方向画像間解析器103に対しては、供給すべき画像列のうち、時間的に過去側のフレーム位置の画像を参照画像、時間的に未来側のフレーム位置の画像を対象画像として供給する。また、逆方向画像間解析器104に対しては、供給すべき画像列のうち、時間的に未来側のフレーム位置の画像を参照画像、時間的に過去側のフレーム位置の画像を対象画像として供給する。   The accumulated image sequence manager 102 acquires control information regarding the next image sequence to be processed from the controller 106, and specifies at least two image frames to be analyzed as image sequences. The identified image sequence is supplied to the forward inter-image analyzer 103 and the reverse inter-image analyzer 104. When supplying the specified image sequence, the forward inter-image analyzer 103 is configured to supply the image of the frame position on the past side of the image sequence to be supplied as the reference image, and temporally on the future side. An image at the frame position is supplied as a target image. Also, for the backward image analyzer 104, an image at a future frame position in time is a reference image and an image at a past frame position in time is a target image in an image sequence to be supplied. Supply.

その後、順方向画像間解析器103および逆方向画像間解析器104は、それぞれ参照画像および対象画像を蓄積画像列管理部102から取得することで、解析対象画像列を取得する(ステップS103)。その後のステップS104およびステップS105は並列動作を行うように構成されているが、これらを順次動作によって処理を行うように構成することも可能であり、これらの構成によって特に限定されるものではないことに注意する。   Thereafter, the forward inter-image analyzer 103 and the reverse inter-image analyzer 104 acquire the analysis target image sequence by acquiring the reference image and the target image from the accumulated image sequence management unit 102, respectively (step S103). Subsequent Step S104 and Step S105 are configured to perform a parallel operation, but it is also possible to configure these to perform processing by sequential operation, and the configuration is not particularly limited by these configurations. Be careful.

解析対象画像列が取得されると、順方向画像間解析器103は、取得した参照画像および対象画像に対して所定の順方向画像間解析を行い(ステップS104)、画像間の類似度を評価し、評価結果である類似度情報を判定器105に供給する。   When the analysis target image sequence is acquired, the forward inter-image analyzer 103 performs a predetermined forward inter-image analysis on the acquired reference image and target image (step S104), and evaluates the similarity between the images. Then, the similarity information that is the evaluation result is supplied to the determination unit 105.

同様に、逆方向画像間解析器104は、取得した参照画像および対象画像に対して所定の順方向画像間解析を行い(ステップS104)、画像間の類似度を評価し、評価結果である類似度情報を判定器105に供給する。   Similarly, the backward inter-image analyzer 104 performs a predetermined forward inter-image analysis on the acquired reference image and target image (step S104), evaluates the similarity between the images, and determines the similarity as an evaluation result. The degree information is supplied to the determination unit 105.

その後、判定器105は、順方向画像間解析器103および逆方向画像間解析器104から順方向の類似度情報および逆方向の類似度情報を取得し、それぞれの類似度情報を比較して順方向と逆方向のどちらの画像間解析が有効であったかを判定する。この判定により、解析対象となっていた画像列から有効な画像フレームを選定し(ステップS106)、類似度情報の判定結果である判定情報を制御器106に供給する。   Thereafter, the determiner 105 acquires the forward similarity information and the backward similarity information from the forward inter-image analyzer 103 and the backward inter-image analyzer 104, compares the similarity information, and forwards the similarity information. It is determined whether the inter-image analysis in the direction or the reverse direction was effective. By this determination, an effective image frame is selected from the image sequence that has been analyzed (step S106), and determination information that is a determination result of similarity information is supplied to the controller 106.

制御器106は、判定器105から取得した判定情報に基づき、解析対象となっていた画像列の判定情報を制御情報として蓄積画像列管理器102に供給する。   Based on the determination information acquired from the determiner 105, the controller 106 supplies determination information of the image sequence that has been the analysis target to the accumulated image sequence manager 102 as control information.

蓄積画像列管理器102では、取得した判定情報に関する制御情報に基づいて、蓄積画像列管理情報に対して判定情報を反映させるとともに、現状において出力対象となる画像の位置情報を更新する(ステップS107)。その後、次の解析に備えるために、蓄積画像列管理情報を更新することで、画像列の管理情報を更新する(ステップS108)。   Based on the control information related to the acquired determination information, the stored image sequence manager 102 reflects the determination information on the stored image sequence management information, and updates the position information of the image that is currently the output target (step S107). ). Thereafter, in order to prepare for the next analysis, the management information of the image sequence is updated by updating the accumulated image sequence management information (step S108).

次に、制御器106は、蓄積画像列管理器102から蓄積画像列管理情報を取得し、次の解析対象画像列が存在するか否かを判定する(ステップS109)。ここで、次の解析対象画像列が存在する場合(ステップS109 YES)、ステップS103に進み、制御器106は、解析処理を継続する。   Next, the controller 106 acquires accumulated image sequence management information from the accumulated image sequence manager 102, and determines whether or not there is a next analysis target image sequence (step S109). If the next analysis target image sequence exists (YES in step S109), the process proceeds to step S103, and the controller 106 continues the analysis process.

これに対し、次の解析対象画像列が存在しない場合(ステップS109 NO)、制御器106は、蓄積画像列管理情報から、出力候補となっている代表画像のフレーム位置を特定するとともに、その代表画像が、動画像内のどの範囲の画像列から抽出されたものかを示す、画像列の範囲情報を特定する。この画像列の範囲情報に属する画像列は、超解像拡大器107で行われる超解像処理の観測画像として利用される。この観測画像として利用される画像列に対して、あらかじめ優先順位を決定するために、制御器106は、蓄積画像列管理情報に含まれる画像列の依存関係を示すツリー構造に対して、所定の探索モード、ツリー構造を構成するパスのコスト、ツリー構造を構成するノードのコストに基づいて所定のツリー構造解析処理を行い(ステップS110)、生成した順位情報を蓄積画像列管理情報に反映する。   On the other hand, when the next analysis target image sequence does not exist (NO in step S109), the controller 106 specifies the frame position of the representative image that is an output candidate from the accumulated image sequence management information, and displays the representative image sequence. The range information of the image sequence indicating which range of the image sequence in the moving image is extracted is specified. The image sequence belonging to the range information of the image sequence is used as an observation image of the super-resolution processing performed by the super-resolution enlarger 107. In order to determine the priority order in advance for the image sequence used as the observation image, the controller 106 determines a predetermined structure with respect to the tree structure indicating the dependency of the image sequence included in the accumulated image sequence management information. A predetermined tree structure analysis process is performed based on the search mode, the cost of the path constituting the tree structure, and the cost of the node constituting the tree structure (step S110), and the generated rank information is reflected in the accumulated image sequence management information.

その後、制御器106は、蓄積画像列管理器102に対して、超解像拡大器107における所定の超解像拡大処理を制御するための制御情報を供給する。この制御情報には、観測画像の枚数に関する情報、超解像処理における拡大率に関する情報を含むと良い。   Thereafter, the controller 106 supplies control information for controlling a predetermined super-resolution enlargement process in the super-resolution enlarger 107 to the accumulated image sequence manager 102. This control information may include information on the number of observation images and information on the enlargement ratio in the super-resolution processing.

次に、蓄積画像列管理器102は、制御器106から超解像拡大処理に関する制御情報を取得し、蓄積画像列管理情報に含まれる、画像列の依存関係を示すツリー構造の解析から得られている画像列の順位情報に従って、要求された枚数の観測画像(超解像処理前の低解像度画像)を特定し、超解像処理対象となっている静止画像とともに要求された枚数の観測画像を超解像拡大器107に供給する。また、必要であれば、超解像処理における拡大率に関する情報も、超解像拡大器107に供給する。   Next, the accumulated image sequence manager 102 obtains control information related to the super-resolution enlargement processing from the controller 106, and is obtained from the analysis of the tree structure indicating the dependency relationship of the image sequences included in the accumulated image sequence management information. The requested number of observation images (low-resolution image before super-resolution processing) is identified according to the order information of the image sequence, and the requested number of observation images together with the still image that is the super-resolution processing target Is supplied to the super-resolution magnifier 107. Further, if necessary, information on the enlargement ratio in the super-resolution processing is also supplied to the super-resolution enlarger 107.

その後、超解像拡大器107では、蓄積画像列管理器102から超解像処理対象となっている静止画像と、少なくとも1枚の観測画像とを取得する。また、超解像処理における拡大率に関する情報が必要であれば、蓄積画像列管理器102から取得しても構わない。超解像拡大器107は、取得した静止画像および観測画像を利用して所定の超解像拡大処理を行い(ステップS111)、取得した静止画像よりも高解像度な静止画像である超解像画像を生成し、蓄積画像列管理器102に供給する。   Thereafter, the super-resolution magnifier 107 acquires a still image that is a super-resolution processing target and at least one observation image from the accumulated image sequence manager 102. Further, if information regarding the enlargement ratio in the super-resolution processing is necessary, the information may be acquired from the accumulated image sequence manager 102. The super-resolution enlarger 107 performs a predetermined super-resolution enlargement process using the acquired still image and observation image (step S111), and a super-resolution image that is a still image having a higher resolution than the acquired still image. Is supplied to the stored image sequence manager 102.

超解像拡大処理が完了すると、制御器106は、生成された超解像画像を出力するために、画像列出力の制御を行うための制御情報を蓄積画像列管理器102に供給し、蓄積画像列管理器102では、制御器106から画像出力に関する制御情報を取得することで、出力すべき画像を特定し、画像を出力する(ステップS110)。また、画像列の範囲情報も必要に応じて出力する。ここでは、超解像処理によって高解像度化された超解像画像が出力すべき画像として特定され、画像出力される。   When the super-resolution enlargement process is completed, the controller 106 supplies control information for controlling image sequence output to the accumulated image sequence manager 102 in order to output the generated super-resolution image. The image sequence manager 102 acquires control information related to image output from the controller 106, thereby specifying an image to be output and outputting the image (step S110). Also, the range information of the image sequence is output as necessary. Here, the super-resolution image that has been increased in resolution by the super-resolution processing is specified as an image to be output, and the image is output.

以上のようなステップに基づいて本発明の画像処理を行うことで、ユーザからのより高解像度な静止画像取得要求があった時刻から、必要に応じてユーザが実際に所望した静止画像が存在する時刻までのずれを補正して解析開始位置を特定し、所定の画像間の解析処理を行って、ユーザが実際に所望した静止画像により近く、静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出した上で超解像処理を施すことで、品質の高い超解像画像を生成することが可能となる。   By performing the image processing according to the present invention based on the steps as described above, there is a still image actually desired by the user as necessary from the time when a higher resolution still image acquisition request is received from the user. A still image with a quality that can be appreciated as a still image by correcting the deviation to the time, specifying the analysis start position, performing analysis processing between predetermined images, and being closer to the actually desired still image by the user It is possible to generate a high-resolution super-resolution image by performing super-resolution processing after extracting.

次に、本装置における所定のツリー構造解析処理について、図5及び図6を参照して説明する。   Next, a predetermined tree structure analysis process in this apparatus will be described with reference to FIGS.

図5は、図4のステップ110にて制御部106が実行する所定のツリー構造解析処理の詳細の処理手順を示すフローチャートである。   FIG. 5 is a flowchart showing a detailed processing procedure of a predetermined tree structure analysis process executed by the control unit 106 in step 110 of FIG.

つまり、まず、制御部106は、画像間解析により、例えば図6に示すような、画像列の依存関係を示すツリー構造を構成する(ステップS301)。   That is, first, the control unit 106 configures a tree structure indicating the dependency relationship between the image sequences, for example, as illustrated in FIG. 6 by inter-image analysis (step S301).

このツリー構造を構成する場合には、まず、それぞれの画像に対して少なくとも1つのノードを割り当てる。ここでは、初回であるため0階層に属するノードとして、それぞれのノードが割り当てられる。この画像間解析処理の過程で選択された画像は、次の出力候補となる代表画像であり、次の階層における解析対象となる。よって、同じフレーム位置で1階層低い位置に新たにノードを追加し、このノードと依存関係のある1階層高いノードとの間をそれぞれパスによって関連付ける。   When configuring this tree structure, first, at least one node is assigned to each image. Here, since this is the first time, each node is assigned as a node belonging to the 0th hierarchy. The image selected in the process of the inter-image analysis process is a representative image that becomes the next output candidate, and becomes an analysis target in the next hierarchy. Therefore, a new node is newly added at a position lower by one layer at the same frame position, and this node is associated with a node having a dependency higher by one layer by a path.

例えば、ノードN00とN01に注目すると、これらのノードは0階層に属している。画像間解析によって、フレーム位置1の画像が選択されたことにより、フレーム位置1に対応するノードN01と同じフレーム位置で階層が1つ低いノードN11が追加される。   For example, when attention is paid to the nodes N00 and N01, these nodes belong to the 0th hierarchy. When the image at frame position 1 is selected by the inter-image analysis, a node N11 that is one level lower at the same frame position as the node N01 corresponding to frame position 1 is added.

このノードN11は、ノードN00とN01との間に依存関係があるものとして、ノードN11とノードN00、ノードN11とノードN01との間をそれぞれパスP00、P01によって関連付ける。このような関連付けを、画像間解析によって超解像処理対象となる静止画像が特定されるまで行うことによって、ツリー構造を構成する。   The node N11 assumes that there is a dependency between the nodes N00 and N01, and associates the nodes N11 and N00 and the nodes N11 and N01 with paths P00 and P01, respectively. A tree structure is configured by performing such association until a still image to be super-resolution processed is specified by inter-image analysis.

図6では、フレーム位置3の画像が超解像処理対象として特定されたため、フレーム位置3、−3階層に属するノードN33がツリー構造の頂点である基準ノードとなる。以上のようなツリー構造の構成は、図5ではステップS301にて行われるが、このツリー構造の構成処理を、あらかじめ画像間解析の過程で構成しておいても構わない。   In FIG. 6, since the image at the frame position 3 is specified as the super-resolution processing target, the node N33 belonging to the frame position 3 and −3 hierarchy is a reference node that is the apex of the tree structure. Although the configuration of the tree structure as described above is performed in step S301 in FIG. 5, the configuration processing of the tree structure may be configured in advance in the process of inter-image analysis.

制御部106は、画像列の依存関係を示すツリー構造が確定すると、画像列の依存関係を示すツリー構造を構成する各ノードに対し、中間ノードと候補ノードとの分類を行う(ステップS302)。図6では、灰色の四角で示されている、ノードN23,N13,N14,N01,N03,N04,N07をそれぞれ中間ノードとし、白抜きの四角で示されている、ノードN24,N11,N17,N00,N02,N05,N06をそれぞれ候補ノードとしている。このノードの分類は、同じフレーム位置に属するノードに注目し、最も階層が低いノードを候補ノードに分類する。この候補ノードと同じフレーム位置に属し、候補ノードの階層よりも高いノードを中間ノードに分類する。   When the tree structure indicating the dependency of the image sequence is determined, the control unit 106 classifies the intermediate node and the candidate node for each node constituting the tree structure indicating the dependency of the image sequence (step S302). In FIG. 6, nodes N23, N13, N14, N01, N03, N04, and N07, which are indicated by gray squares, are intermediate nodes, and nodes N24, N11, N17, which are indicated by white squares. N00, N02, N05, and N06 are set as candidate nodes. In this node classification, attention is paid to nodes belonging to the same frame position, and the node having the lowest hierarchy is classified as a candidate node. A node that belongs to the same frame position as this candidate node and is higher than the hierarchy of candidate nodes is classified as an intermediate node.

その後、制御部106は、ツリー構造の探索モードを特定する(ステップS303)。   Thereafter, the control unit 106 specifies a tree structure search mode (step S303).

図7は、ツリー構造の探索モードの一例を示している。   FIG. 7 shows an example of a tree structure search mode.

ここで、探索モードとして、例えば、図7に示すようなモードを少なくとも備えると良い。図7において、探索モードは、タイプと補助条件によって分類されている。タイプは、ツリー構造の探索を行う際に、どのような基準に基づいて探索を行うかを表す。また、補助条件は、タイプの条件において、更に細かい基準に基づいて探索ルールを決定するためのものである。   Here, as the search mode, for example, at least a mode as shown in FIG. 7 may be provided. In FIG. 7, search modes are classified by type and auxiliary condition. The type represents what kind of criteria is used for the search when the tree structure is searched. The auxiliary condition is for determining a search rule based on a finer criterion in the type condition.

図7において、探索モード0は、タイプは距離優先で、補助条件は下位階層優先により探索を行うモードである。ここで、距離優先とは、基準ノードが属するフレーム位置を基準フレーム位置として、基準フレーム位置と探索対象となっているノードが属するフレーム位置との間の距離である基準フレーム間距離が近いノードを優先的に探索することを意味する。また、下位階層優先とは、基準フレーム間距離が同一であるノードが複数存在する場合に、ノードの属している階層が低いものを優先的に探索することを意味する。   In FIG. 7, the search mode 0 is a mode in which the type is a distance priority and the auxiliary condition is a search with a lower hierarchy priority. Here, distance priority refers to a node having a short inter-reference frame distance, which is a distance between the reference frame position and the frame position to which the search target node belongs, with the frame position to which the reference node belongs as a reference frame position. It means to search with priority. Further, the lower hierarchy priority means that when there are a plurality of nodes having the same distance between the reference frames, a search with a lower hierarchy to which the node belongs is preferentially searched.

探索モード1は、タイプは距離優先で、補助条件は上位階層優先により探索を行うモードである。ここで、上位階層優先とは、基準フレーム間距離が同一であるノードが複数存在する場合に、ノードの属している階層が高いものを優先的に探索することを意味する。   The search mode 1 is a mode in which the search is performed with the priority given to the distance and the auxiliary condition given the higher hierarchy. Here, higher hierarchy priority means that when there are a plurality of nodes having the same distance between the reference frames, a higher hierarchy to which the node belongs is preferentially searched.

探索モード2は、タイプは階層優先で、補助条件は近距離優先により探索を行うモードである。ここで、階層優先とは、基準ノードが属する階層を基準階層として、基準階層とノードが属する階層との間の距離が近いノードを優先的に探索することを意味する。また、近距離優先とは、基準階層からの階層間距離が同一であるノードが複数存在する場合に、基準フレーム間距離が近いノードを優先的に探索することを意味する。   Search mode 2 is a mode in which search is performed with priority given to hierarchy and priority given to short distance priority. Here, hierarchy priority means preferentially searching for a node having a short distance between the reference hierarchy and the hierarchy to which the node belongs, with the hierarchy to which the reference node belongs as the reference hierarchy. The short distance priority means that when there are a plurality of nodes having the same inter-layer distance from the reference layer, a node having a short reference frame distance is preferentially searched.

探索モード3は、タイプは階層優先で、補助条件は遠距離優先により探索を行うモードである。ここで、遠距離優先とは、基準階層からの階層間距離が同一であるノードが複数存在する場合に、基準フレーム間距離が遠いノードを優先的に探索することを意味する。   Search mode 3 is a mode in which the type is hierarchical priority and the auxiliary condition is a long distance priority search. Here, the long distance priority means that when there are a plurality of nodes having the same inter-layer distance from the reference layer, a node having a long reference inter-frame distance is preferentially searched.

探索モード4は、タイプがコスト優先であることにより探索を行うモードである。ここで、コストとは、パスやノードの選択のし易さを示す値であり、この値が小さければ選択され易く、大きければ選択され難いものとする。タイプがコスト優先であるということは、ノードと基準ノードまでの経路に注目し、この経路中のパスやノードのコストの合計が小さいノードを優先的に探索することを意味する。   The search mode 4 is a mode in which a search is performed when the type is cost priority. Here, the cost is a value indicating the ease of selection of a path or a node, and it is easy to select if this value is small, and difficult to select if it is large. When the type is cost-first, it means that attention is paid to a route from the node to the reference node, and a path in the route and a node having a small total cost of the node are preferentially searched.

探索モード5は、タイプが制限付コスト優先で、補助条件がdであることに基づいて探索を行うモードである。ここで、dは、探索範囲を制限するための値であり、基準フレーム間距離を表している。また、制限付コスト優先とは、コスト優先で探索を行う際に、基準フレーム位置からの距離がdまでの範囲に含まれるノードを探索し、その後、dよりも大きい距離までの範囲を探索することを意味する。   The search mode 5 is a mode in which search is performed based on the fact that the type is priority on limited cost and the auxiliary condition is d. Here, d is a value for limiting the search range, and represents a reference interframe distance. In addition, with limited cost priority, when searching with cost priority, a search is made for a node whose distance from the reference frame position is within the range up to d, and then a range up to a distance greater than d is searched. Means that.

探索モード6は、タイプがN段制限付コスト優先で、補助条件がd1,d2,・・・,dNであることに基づいて探索を行うモードである。ここで、d1,d2,・・・,dNは、N段階に探索範囲を制限するための値であり、それぞれ基準フレーム間距離を表している。また、N段階制限付コスト優先とは、コスト優先で探索を行う際に、基準フレーム位置からの距離がd1までの範囲に含まれるノードを探索し、その後、d1より大きくd2までの範囲に含まれるノードを探索し、同様に順次探索範囲を拡大して、d2からd3、d4からd5、・・・、dN−1より大きくdNまでの範囲に含まれるノードを探索し、その後、dNよりも大きい距離までの範囲を探索することを意味する。   Search mode 6 is a mode in which search is performed based on the type having N-stage limited cost priority and the auxiliary conditions being d1, d2,..., DN. Here, d1, d2,..., DN are values for limiting the search range to N stages, each representing a reference interframe distance. In addition, N-level restricted cost priority means that when searching with cost priority, a search is made for a node whose distance from the reference frame position is in the range up to d1, and then included in the range from d1 to d2. In the same manner, the search range is sequentially expanded to search for nodes included in the range from d2 to d3, d4 to d5,..., DN−1 and larger than dN. This means searching for a range up to a large distance.

探索モード7は、タイプが探索優先で、補助条件は距離0優先により探索を行うモードである。ここで、距離0優先とは、パスのフレーム間距離が0であるものを優先的に探索することを意味する。   Search mode 7 is a mode in which search is performed with priority given to search by type and priority given to distance 0 as auxiliary conditions. Here, “distance 0 priority” means that a path having a distance between frames of 0 is preferentially searched.

探索モード8は、タイプが探索優先で、補助条件は距離非0優先により探索を行うモードである。ここで、距離非0優先とは、パスのフレーム間距離が0でないものを優先的に探索することを意味する。   The search mode 8 is a mode in which the search is performed with the search priority given to the type and the non-distance priority given to the auxiliary condition. Here, the distance non-zero priority means that a path whose interframe distance is not 0 is preferentially searched.

制御部106は、以上のような探索モードを特定した後、探索開始位置のノードを特定し、基準ノードとする(ステップS304)。   After specifying the search mode as described above, the control unit 106 specifies the node at the search start position and sets it as the reference node (step S304).

ここで、探索開始位置のノードは、本実施形態の画像間解析によって特定された、超解像対象の画像が属するフレーム位置と、探索モードのタイプ、補助条件に基づいて特定し、基準ノードにすると良い。例えば、探索モード0では、距離優先、下位階層優先であることから、ノードN33を基準ノードにすることが望ましい。探索モード1では、距離優先、上位階層優先であることから、ノードN03を基準ノードにすることが望ましい。その他の探索モードでは、ノードN33を基準ノードにすることが望ましい。   Here, the node of the search start position is specified based on the frame position to which the super-resolution target image specified by the inter-image analysis of this embodiment belongs, the type of search mode, and the auxiliary condition, and is set as the reference node. Good. For example, in the search mode 0, since the distance priority and the lower hierarchy priority are given, it is desirable to set the node N33 as a reference node. In search mode 1, since distance priority and higher hierarchy priority are given, it is desirable to make node N03 the reference node. In other search modes, it is desirable to use the node N33 as a reference node.

次に、制御部106は、探索モードに応じてパスのコストを算出する(ステップS305)。   Next, the control unit 106 calculates the cost of the path according to the search mode (step S305).

図8は、探索モードに応じたパスのコストの一例を示す図である。   FIG. 8 is a diagram illustrating an example of a path cost according to the search mode.

ここで、パスのコストは、例えば、図8に示すように、階層やフレーム間距離に応じて、探索モードに対応した所定の距離コスト係数Dと階層コスト係数Lに基づいて算出するように構成することができる。   Here, for example, as shown in FIG. 8, the path cost is calculated based on a predetermined distance cost coefficient D and a hierarchy cost coefficient L corresponding to the search mode according to the hierarchy and the interframe distance. can do.

図9は、探索モードに応じたパスのコストの他の例を示す図である。   FIG. 9 is a diagram illustrating another example of the path cost according to the search mode.

この距離コスト係数と階層コスト係数は、例えば、図9に示すように、異なるフレーム間距離に応じて異なる距離コスト係数D0,D1,D2,D3,・・・、異なる階層間に応じて異なる階層コスト係数L0,L1,L2,・・・が探索モードによって特定され、パスのコストが算出されるように構成しても構わない。   For example, as shown in FIG. 9, the distance cost coefficient and the hierarchy cost coefficient are different distance cost coefficients D0, D1, D2, D3,... The cost coefficients L0, L1, L2,... May be specified by the search mode, and the path cost may be calculated.

その後、各パスのコストおよび各ノードのコストに基づいて、基準ノードから各ノードまでの経路を特定し、この経路に含まれるパスおよびノードのコストを合計することで、基準ノードから各ノードまでのコストを算出する(ステップS306)。   After that, the path from the reference node to each node is identified based on the cost of each path and the cost of each node, and the path and node costs included in this path are summed up to obtain the path from the reference node to each node. Cost is calculated (step S306).

各ノードまでのコストが求まると、基準ノードを開始位置として、パスやノードのコストに基づいてツリー構造の探索を行いながら、それぞれの候補ノードに対して優先順位を付けることにより、順位付け処理を行い(ステップS307)、全ての候補ノードに対して優先順位が確定した時点でツリー構造解析処理は終了する。   Once the cost to each node is obtained, the ranking process is performed by prioritizing each candidate node while searching the tree structure based on the path and the cost of the node, starting from the reference node. (Step S307), the tree structure analysis process ends when the priority order is determined for all candidate nodes.

次に、図10を用いて、探索モード0および1の順位付け処理の例を示す。   Next, an example of ranking processing in search modes 0 and 1 will be described with reference to FIG.

探索モード0の場合、補助条件が下位階層優先であるため、基準ノードはN33が設定されるものとする。また、説明を簡単にするため、図8が適用されるものとする。ここでは仮に、距離コスト係数D=2、階層コスト係数L=1、各ノード自体のコストは0であるものとする。   In the search mode 0, since the auxiliary condition is lower layer priority, N33 is set as the reference node. Further, FIG. 8 is applied to simplify the description. Here, it is assumed that the distance cost coefficient D = 2, the hierarchical cost coefficient L = 1, and the cost of each node itself is 0.

図11は、図6のツリー構造において、それぞれのパスがどのフレーム間距離と階層に属しているかを示す図である。   FIG. 11 is a diagram showing which frame distance and hierarchy each path belongs to in the tree structure of FIG.

この図11と図8を利用して、基準ノードから各ノードまでのコストが算出されているものとする。   It is assumed that the cost from the reference node to each node is calculated using FIG. 11 and FIG.

図12は、各ノードが、それぞれどの基準フレーム間距離に属し、どの階層に属しているかを示す図である。   FIG. 12 is a diagram showing to which reference frame distance each node belongs and which hierarchy each node belongs to.

探索モード0では、図12の基準フレーム間距離が近いノードの中から、階層が低いノードを優先して順位付けを行う。つまり、開始位置がN33であり、(N23),(N13),(N03)は中間ノードであるため、N24が1番目のノードとなる。その後、N02,N11,N05の順に順位付けが行われる。その後、N00,N06のように、基準フレーム間距離が同一なノードに対して順位付けを行う。ここで、このようなノードに対しては、同一の順位を付けることで、両方のノードに属する画像を超解像処理の観測画像に利用するように本発明を構成しても良い。また、これらのノードに対してコストが小さい順に順位付けを行うように本発明を構成することもできる。ここでは、N00のコストの方が小さいことから、N00,N06の順となる。その後、N17の順位が確定した時点で候補ノードの順位が確定し、順位付け処理が完了する。   In search mode 0, priority is given to a node having a lower hierarchy from among nodes having a short reference frame distance in FIG. That is, since the start position is N33 and (N23), (N13), and (N03) are intermediate nodes, N24 is the first node. Thereafter, ranking is performed in the order of N02, N11, and N05. Thereafter, ranking is performed for nodes having the same distance between the reference frames, such as N00 and N06. Here, the present invention may be configured such that images belonging to both nodes are used as observation images for super-resolution processing by assigning the same ranking to such nodes. In addition, the present invention can be configured so that these nodes are ranked in ascending order of cost. Here, since the cost of N00 is smaller, the order is N00 and N06. Thereafter, when the order of N17 is determined, the order of candidate nodes is determined, and the ranking process is completed.

探索モード1の場合、補助条件が上位階層優先であるため、基準ノードはN03が設定されるものとする。また、説明を簡単にするため、図8が適用されるものとする。ここでは仮に、距離コスト係数D=2、階層コスト係数L=1、各ノード自体のコストは0であるものとする。探索モード1では、図12の基準フレーム間距離が近いノードの中から、階層が高いノードを優先して順位付けを行う。つまり、開始位置が(N03)であり、(N13),(N23)は中間ノードであるため、N33が1番目のノードであるが、N33のノードが属するフレーム位置の画像は、超解像対象の画像であることから、観測画像からは除外する必要があるため、1番目とせずに次のノードを探索する。   In the search mode 1, since the auxiliary condition is higher-order priority, N03 is set as the reference node. Further, FIG. 8 is applied to simplify the description. Here, it is assumed that the distance cost coefficient D = 2, the hierarchical cost coefficient L = 1, and the cost of each node itself is 0. In search mode 1, priority is given to a node having a higher hierarchy from among the nodes having a short distance between the reference frames in FIG. That is, since the start position is (N03) and (N13) and (N23) are intermediate nodes, N33 is the first node, but the image at the frame position to which the node of N33 belongs is a super-resolution target. Therefore, the next node is searched instead of the first one because it is necessary to exclude it from the observed image.

次に該当するノードは、N02,(N04)である。(N04)は中間ノードであるため、N02が1番目のノードとなる。その後、N24,N05,N11の順に順位付けが行われる。その後、N00,N06のように、基準フレーム間距離が同一なノードに対して順位付けを行う。ここで、このようなノードに対しては、同一の順位を付けることで、両方のノードに属する画像を超解像処理の観測画像に利用するように本発明を構成しても良い。また、これらのノードに対してコストが小さい順に順位付けを行うように本発明を構成することもできる。ここでは、N00のコストの方が小さいことから、N00,N06の順となる。その後、N17の順位が確定した時点で候補ノードの順位が確定し、順位付け処理が完了する。   The corresponding node is N02, (N04). Since (N04) is an intermediate node, N02 is the first node. Thereafter, ranking is performed in the order of N24, N05, and N11. Thereafter, ranking is performed for nodes having the same distance between the reference frames, such as N00 and N06. Here, the present invention may be configured such that images belonging to both nodes are used as observation images for super-resolution processing by assigning the same ranking to such nodes. In addition, the present invention can be configured so that these nodes are ranked in ascending order of cost. Here, since the cost of N00 is smaller, the order is N00 and N06. Thereafter, when the order of N17 is determined, the order of candidate nodes is determined, and the ranking process is completed.

次に、図13を用いて、探索モード2および3の順位付け処理の例を示す。   Next, an example of the ranking processing in search modes 2 and 3 will be shown using FIG.

探索モード2の場合、基準ノードはN33が設定されるものとする。また、説明を簡単にするため、図8が適用されるものとする。ここでは仮に、距離コスト係数D=2、階層コスト係数L=1、各ノード自体のコストは0であるものとする。また、図11と図8を利用して、基準ノードから各ノードまでのコストが算出されているものとする。   In the search mode 2, N33 is set as the reference node. Further, FIG. 8 is applied to simplify the description. Here, it is assumed that the distance cost coefficient D = 2, the hierarchical cost coefficient L = 1, and the cost of each node itself is 0. In addition, it is assumed that the cost from the reference node to each node is calculated using FIGS. 11 and 8.

図14は、各ノードが、それぞれどの階層に属し、どの基準フレーム間距離に属しているかを示す図である。   FIG. 14 is a diagram showing to which hierarchy each node belongs and to which reference interframe distance.

探索モード2では、図14の階層が低いノードの中から、基準フレーム間距離が近いノードを優先して順位付けを行う。つまり、開始位置がN33であり、(N23)は中間ノードであるため、N24が1番目のノードとなる。その後、N11,N17,N02,N05の順に順位付けが行われる。その後、N00,N06のように、階層が同一なノードに対して順位付けを行う。ここで、このようなノードに対しては、同一の順位を付けることで、両方のノードに属する画像を超解像処理の観測画像に利用するように本発明を構成しても良い。また、これらのノードに対してコストが小さい順に順位付けを行うように本発明を構成することもできる。ここでは、N00のコストの方が小さいことから、N00,N06の順となる。この時点で候補ノードの順位が確定し、順位付け処理が完了する。   In search mode 2, priority is given to a node having a short distance between the reference frames among the nodes having a lower hierarchy in FIG. That is, since the start position is N33 and (N23) is an intermediate node, N24 is the first node. Thereafter, ranking is performed in the order of N11, N17, N02, and N05. Thereafter, ranking is performed for nodes having the same hierarchy, such as N00 and N06. Here, the present invention may be configured such that images belonging to both nodes are used as observation images for super-resolution processing by assigning the same ranking to such nodes. In addition, the present invention can be configured so that these nodes are ranked in ascending order of cost. Here, since the cost of N00 is smaller, the order is N00 and N06. At this point, the ranks of candidate nodes are determined, and the ranking process is completed.

探索モード3の場合、基準ノードはN33が設定されるものとする。また、説明を簡単にするため、図8が適用されるものとする。ここでは仮に、距離コスト係数D=2、階層コスト係数L=1、各ノード自体のコストは0であるものとする。また、図11と図8を利用して、基準ノードから各ノードまでのコストが算出されているものとする。探索モード3では、図14の階層が低いノードの中から、基準フレーム間距離が遠いノードを優先して順位付けを行う。つまり、開始位置がN33であり、N24が1番目のノードとなる。その後、N17,N11の順に順位付けが行われる。その後、N00,N06のように、階層が同一なノードに対して順位付けを行う。ここで、このようなノードに対しては、同一の順位を付けることで、両方のノードに属する画像を超解像処理の観測画像に利用するように本発明を構成しても良い。また、これらのノードに対してコストが小さい順に順位付けを行うように本発明を構成することもできる。ここでは、N00のコストの方が小さいことから、N00,N06の順となる。その後、N05,N02の順位が確定した時点で候補ノードの順位が確定し、順位付け処理が完了する。   In search mode 3, N33 is set as the reference node. Further, FIG. 8 is applied to simplify the description. Here, it is assumed that the distance cost coefficient D = 2, the hierarchical cost coefficient L = 1, and the cost of each node itself is 0. In addition, it is assumed that the cost from the reference node to each node is calculated using FIGS. 11 and 8. In search mode 3, priority is given to a node having a long reference inter-frame distance among the nodes having a lower hierarchy in FIG. That is, the start position is N33, and N24 is the first node. Thereafter, ranking is performed in the order of N17 and N11. Thereafter, ranking is performed for nodes having the same hierarchy, such as N00 and N06. Here, the present invention may be configured such that images belonging to both nodes are used as observation images for super-resolution processing by assigning the same ranking to such nodes. In addition, the present invention can be configured so that these nodes are ranked in ascending order of cost. Here, since the cost of N00 is smaller, the order is N00 and N06. Thereafter, when the rankings of N05 and N02 are established, the ranking of candidate nodes is established, and the ranking processing is completed.

次に、図15を用いて、探索モード4、5、および6の順位付け処理の例を示す。   Next, an example of ranking processing in search modes 4, 5, and 6 will be shown using FIG.

探索モード4の場合、基準ノードはN33が設定されるものとする。また、説明を簡単にするため、図8が適用されるものとする。ここでは仮に、距離コスト係数D=2、階層コスト係数L=1、各ノード自体のコストは0であるものとする。図11は、図6のツリー構造において、それぞれのパスがどのフレーム間距離と階層に属しているかを示すものである。この図11と図8を利用して、基準ノードから各ノードまでのコストが算出されているものとする。各ノードのコストが確定したツリー構造を探索することによって、各候補ノードのコストを特定し、コストが小さい順に順位付けを行うように本発明を構成することができる。候補ノードのコストは、N00=9,N02=5,N05=7,N06=13,N11=6,N17=10,N24=3であることから、各ノードの優先順位は、N24,N02,N11,N05,N00,N17,N06となる。このように順位付けを行うことで候補ノードの順位が確定し、順位付け処理が完了する。   In search mode 4, N33 is set as the reference node. Further, FIG. 8 is applied to simplify the description. Here, it is assumed that the distance cost coefficient D = 2, the hierarchical cost coefficient L = 1, and the cost of each node itself is 0. FIG. 11 shows to which frame distance and hierarchy each path belongs in the tree structure of FIG. It is assumed that the cost from the reference node to each node is calculated using FIG. 11 and FIG. By searching a tree structure in which the cost of each node is determined, the cost of each candidate node can be specified, and the present invention can be configured so as to be ranked in ascending order of cost. Since the cost of the candidate nodes is N00 = 9, N02 = 5, N05 = 7, N06 = 13, N11 = 6, N17 = 10, N24 = 3, the priority order of each node is N24, N02, N11. , N05, N00, N17, N06. By ranking in this way, the ranking of candidate nodes is determined, and the ranking process is completed.

探索モード5の場合、タイプが制限付コスト優先で、補助条件がdであることに基づいて探索を行うモードであることから、ここでは仮に、補助条件d=1とする。つまり、図15の範囲1で示されるように、基準フレーム位置からの距離がd=1までの範囲に含まれるノードを探索し、その後、dよりも大きい距離までの範囲を探索する。候補ノードのコストを特定するまでは、探索モード4の場合と同様であるため、説明を省略する。図15の範囲1に含まれる候補ノードのコストは、N02=5,N24=3であるため、N24,N02のように順位付けを行う。その後、図15の範囲1よりも大きい距離に含まれる候補ノードのコストは、N00=9,N05=7,N06=13,N11=6,N17=10であるため、N11,N05,N00,N17,N06のように順位付けを行うことで候補ノードの順位が確定し、順位付け処理が完了する。   In the case of the search mode 5, since the type is a mode in which the search is based on the limited cost priority and the auxiliary condition is d, the auxiliary condition d = 1 is assumed here. That is, as indicated by a range 1 in FIG. 15, a node included in a range where the distance from the reference frame position is up to d = 1 is searched, and then a range up to a distance greater than d is searched. The process until the cost of the candidate node is specified is the same as in the search mode 4, and the description is omitted. Since the costs of the candidate nodes included in the range 1 in FIG. 15 are N02 = 5 and N24 = 3, ranking is performed as N24 and N02. Thereafter, the costs of the candidate nodes included in the distance larger than the range 1 in FIG. 15 are N00 = 9, N05 = 7, N06 = 13, N11 = 6, and N17 = 10, and thus N11, N05, N00, and N17. , N06, the ranking of candidate nodes is determined, and the ranking process is completed.

探索モード6の場合、タイプがN段制限付コスト優先で、補助条件がd1,d2,・・・,dNであることに基づいて探索を行うモードであることから、ここでは仮に、補助条件はd1=1,d2=3とする。つまり、図15の範囲1および範囲2で示されるように、基準フレーム位置から距離がd=1までの範囲に含まれるノードを探索し、その後、d1よりも大きくd2までの範囲に含まれるノードを探索し、その後、d2よりも大きい距離までの範囲を探索する。候補ノードのコストを特定するまでは、探索モード4の場合と同様であるため、説明を省略する。図15の範囲1に含まれる候補ノードのコストは、N02=5,N24=3であるため、N24,N02のように順位付けを行う。その後、図15の範囲1よりも大きく、範囲2の距離に含まれる候補ノードのコストは、N00=9,N05=7,N06=13,N11=6であるため、N11,N05,N00,N06のように順位付けを行う。その後、図15の範囲2よりも大きい距離に含まれる候補ノードはN17のみであることから順位付けを行うことで候補ノードの順位が確定し、順位付け処理が完了する。   In the case of the search mode 6, since the type is a mode in which priority is given to N-stage limited cost and the auxiliary conditions are d1, d2,..., DN, the auxiliary condition is temporarily assumed here. d1 = 1 and d2 = 3. That is, as shown by range 1 and range 2 in FIG. 15, a node included in the range from the reference frame position to the distance d = 1 is searched, and thereafter, the node included in the range greater than d1 and d2 Then, a range up to a distance larger than d2 is searched. The process until the cost of the candidate node is specified is the same as in the search mode 4, and the description is omitted. Since the costs of the candidate nodes included in the range 1 in FIG. 15 are N02 = 5 and N24 = 3, ranking is performed as N24 and N02. After that, the costs of the candidate nodes that are larger than the range 1 in FIG. 15 and included in the distance of the range 2 are N00 = 9, N05 = 7, N06 = 13, and N11 = 6, and thus N11, N05, N00, and N06. The ranking is performed as follows. Thereafter, since the only candidate node included in the distance larger than the range 2 in FIG. 15 is N17, the ranking of the candidate nodes is determined by ranking and the ranking process is completed.

次に、図16を用いて、探索モード7の順位付け処理の例を示す。   Next, an example of the ranking process in the search mode 7 is shown using FIG.

探索モード7の場合、タイプが探索優先で、補助条件は距離0優先により探索を行うモードである。つまり、パスのフレーム間距離が0であるものを優先的に探索し、探索経路内で、初めて通過した候補ノードに対して順位付けを行っていく。通過するノードが候補ノードであっても2度目以降の通過である場合には、順位付けは行わないことに注意する。   In the search mode 7, the type is a search priority, and the auxiliary condition is a mode in which a search is performed with a distance 0 priority. That is, a search is performed preferentially for a path having a distance between frames of 0, and ranking is performed for candidate nodes that have passed through the search path for the first time. Note that even if the passing node is a candidate node, ranking is not performed if it is the second or subsequent pass.

図16の例において、全探索経路は、開始位置をN33とすると、(N23)→(N13)→(N03)→(N13)→N02→(N13)→(N23)→N11→(N01)→<N11>→N00→<N11>→(N23)→(N33)→N24→(N14)→(N04)→(N14)→N05→(N14)→<N24>→N17→(N07)→<N17>→N06→<N17>→<N24>→(N33)となる。ここで、(Nxx)は中間ノードを表し、<Nxx>は2度目以降に通過した候補ノードを表すものとする。ここでは、N33も中間ノードとして表記している。探索の終了条件は、開始位置のノードであるN33において、通過していないパスが存在しないことにより判断する。以上のような探索によって、N02,N11,N00,N24,N05,N17,N06のように候補ノードに対して順序付けを行うことで候補ノードの順位が確定し、順位付け処理が完了する。   In the example of FIG. 16, assuming that the start position of the all search route is N33, (N23) → (N13) → (N03) → (N13) → N02 → (N13) → (N23) → N11 → (N01) → <N11> → N00 → <N11> → (N23) → (N33) → N24 → (N14) → (N04) → (N14) → N05 → (N14) → <N24> → N17 → (N07) → <N17 > → N06 → <N17> → <N24> → (N33). Here, (Nxx) represents an intermediate node, and <Nxx> represents a candidate node passed after the second time. Here, N33 is also expressed as an intermediate node. The search end condition is determined by the absence of a path that has not passed through N33, which is the node at the start position. By performing the search as described above, the candidate nodes are ranked by ordering the candidate nodes such as N02, N11, N00, N24, N05, N17, and N06, and the ranking process is completed.

次に、図17を用いて、探索モード8の順位付け処理の例を示す。   Next, an example of the ranking process in search mode 8 will be described with reference to FIG.

探索モード8の場合、タイプが探索優先で、補助条件は距離非0優先により探索を行うモードである。つまり、パスのフレーム間距離が0でないものを優先的に探索し、探索経路内で、初めて通過した候補ノードに対して順位付けを行っていく。通過するノードが候補ノードであっても2度目以降の通過である場合には、順位付けは行わないことに注意する。図17の例において、全探索経路は、開始位置をN33とすると、N24→N17→N06→<N17>→(N07)→<N17>→<N24>→(N14)→N05→(N14)→(N04)→(N14)→<N24>→(N33)→(N23)→N11→N00→<N11>→(N01)→<N11>→(N23)→(N13)→N02→(N13)→(N03)→(N13)→(N23)→(N33)となる。ここで、(Nxx)は中間ノードを表し、<Nxx>は2度目以降に通過した候補ノードを表すものとする。ここでは、N33も中間ノードとして表記している。探索の終了条件は、開始位置のノードであるN33において、通過していないパスが存在しないことにより判断する。以上のような探索によって、N24,N17,N06,N05,N11,N00,N02のように候補ノードに対して順序付けを行うことで候補ノードの順位が確定し、順位付け処理が完了する。   In the search mode 8, the type is search priority, and the auxiliary condition is a mode in which search is performed with distance non-zero priority. That is, a search is made with priority given to a path whose inter-frame distance is not 0, and ranking is performed for candidate nodes that have passed for the first time in the search route. Note that even if the passing node is a candidate node, ranking is not performed if it is the second or subsequent pass. In the example of FIG. 17, assuming that the start position is N33 in all search routes, N24 → N17 → N06 → <N17> → (N07) → <N17> → <N24> → (N14) → N05 → (N14) → (N04) → (N14) → <N24> → (N33) → (N23) → N11 → N00 → <N11> → (N01) → <N11> → (N23) → (N13) → N02 → (N13) → (N03) → (N13) → (N23) → (N33). Here, (Nxx) represents an intermediate node, and <Nxx> represents a candidate node passed after the second time. Here, N33 is also expressed as an intermediate node. The search end condition is determined by the absence of a path that has not passed through N33, which is the node at the start position. By performing the search as described above, the candidate nodes are ranked by ordering the candidate nodes such as N24, N17, N06, N05, N11, N00, and N02, and the ranking process is completed.

次に、本装置の超解像拡大器107による所定の超解像拡大処理について説明する。   Next, a predetermined super-resolution enlargement process by the super-resolution enlarger 107 of this apparatus will be described.

一般に、超解像処理による画像の高解像度化は、単に位置ずれがある等といった、比較的画像間の相関が高い複数の低解像度画像から1枚の高解像度画像を推定することによって行われるものであり、近年数多くの研究で報告されている。例えば、「Sung C.P.、Min K.P.共著、Super-Resolution Image Reconstruction: A Technical Overview, IEEE SignalProc. Magazine, 第26巻, 第3号, p.21-36, 2003年」などがある。   In general, high resolution of an image by super-resolution processing is performed by estimating one high resolution image from a plurality of low resolution images having relatively high correlation between images, such as a positional shift. It has been reported in many studies in recent years. For example, “Sung C.P., Min K.P. Co-author, Super-Resolution Image Reconstruction: A Technical Overview, IEEE SignalProc. Magazine, Vol. 26, No. 3, p.21-36, 2003”.

また、「B.C.Tom, A.K.Katsaggelos共著、Reconstruction of a high-resolution image by simultaneous registration, restoration, and interpolation of low-resolution images, Proc. IEEE Int. Conf. Image Processing, 第2巻、p.539-542, 1995年」に開示されているML (Maximum-likelihood) 法というものが提案されている。このML法では、高解像度画像から推定された低解像度画像の画素値と実際に観測された画素値の二乗誤差を評価関数とし、評価関数を最小化するような高解像度画像を推定画像としている。この方法は、最尤推定の原理に基づいて超解像処理を行う方法である。   Also, "BCTom and AKKatsaggelos, Reconstruction of a high-resolution image by simultaneous registration, restoration, and interpolation of low-resolution images, Proc. IEEE Int. Conf. Image Processing, Volume 2, p.539-542. The ML (Maximum-likelihood) method disclosed in 1995, has been proposed. In the ML method, a square error between a pixel value of a low-resolution image estimated from a high-resolution image and a pixel value actually observed is used as an evaluation function, and a high-resolution image that minimizes the evaluation function is used as an estimation image. . This method is a method for performing super-resolution processing based on the principle of maximum likelihood estimation.

また、「R.R.Schulz, R.L.Stevenson共著、Extraction of high-resolution frames from video sequences, IEEE Trans. Image Processing, 第5巻, p.996-1011, 1996年」に開示されているMAP (Maximum A Posterior) 法というものが提案されている。MAP法では、二乗誤差に高解像度画像の確率情報を付加した評価関数を最小化するような高解像度画像の推定を行う。この方法は、高解像度画像に対する何らかの先見情報を利用して、事後確率を最大化する最適化問題として高解像度画像の推定を行う超解像処理方法である。   Also, MAP (Maximum A Posterior) disclosed in “RR Schulz, RL Stevenson, Extraction of high-resolution frames from video sequences, IEEE Trans. Image Processing, Vol. 5, p. 996-1011, 1996”. A law has been proposed. In the MAP method, a high-resolution image is estimated so as to minimize an evaluation function obtained by adding probability information of a high-resolution image to a square error. This method is a super-resolution processing method that estimates a high-resolution image as an optimization problem that maximizes the posterior probability using some foresight information for the high-resolution image.

更に、「H.Stark, P.Oskoui共著、High resolution image recovery from image-plane arrays, using convex projections, J.Opt. Soc. Am. A, 第6巻, p.1715-1726, 1989年」に開示されているPOCS (Projection Onto Convex Sets) 法というものが提案されている。このPOCS法では、高解像度画像と低解像度画像の画素値に関して連立方程式を作成し、その方程式を逐次的に解くことにより、高解像度画像を得る超解像処理方法である。   Furthermore, "H. Stark, P. Oskoui, High resolution image recovery from image-plane arrays, using convex projections, J.Opt. Soc. Am. A, Vol. 6, p.1715-1726, 1989" A disclosed POCS (Projection Onto Convex Sets) method has been proposed. This POCS method is a super-resolution processing method for obtaining a high-resolution image by creating simultaneous equations for pixel values of a high-resolution image and a low-resolution image and sequentially solving the equations.

ここで、本実施形態では、所定の超解像拡大処理として、例えば上述のような超解像処理を適用するとともに、上述の画像間解析処理およびツリー構造解析処理によって、利用する際の優先順位が付けられた観測画像を、優先順位の高い観測画像から順番に所定枚数、または必要に応じた枚数を、超解像拡大処理において利用する低解像度の観測画像として利用するように本発明の画像処理装置を構成すると良い。   Here, in the present embodiment, as the predetermined super-resolution enlargement process, for example, the super-resolution process as described above is applied, and the priority order when using the inter-image analysis process and the tree structure analysis process is used. The images of the present invention are used so that a predetermined number of observation images with high priority are added in order from the observation image with the highest priority, or a required number is used as a low-resolution observation image used in the super-resolution enlargement process. A processing device may be configured.

以下、図18、図19および図20を用いて、本実施形態の超解像拡大器107の詳細構成および動作について説明する。   Hereinafter, the detailed configuration and operation of the super-resolution magnifier 107 according to the present embodiment will be described with reference to FIGS. 18, 19, and 20.

図18は、図1に示す本実施形態の超解像拡大器107の詳細構成例を示すブロック図、図19は、超解像拡大器107による超解像処理の様子を示すための概念図、図20は、超解像拡大器107による超解像処理の一例を示すフローチャートである。   18 is a block diagram showing a detailed configuration example of the super-resolution expander 107 of the present embodiment shown in FIG. 1, and FIG. 19 is a conceptual diagram showing the state of super-resolution processing by the super-resolution expander 107. FIG. 20 is a flowchart showing an example of super-resolution processing by the super-resolution magnifier 107.

図18において、図1に示す本実施形態の超解像拡大器107は、位置合わせ器402、補間器403、推定画像生成器404、繰り返し判定器405を備える。   In FIG. 18, the super-resolution enlarger 107 according to the present embodiment illustrated in FIG. 1 includes a position aligner 402, an interpolator 403, an estimated image generator 404, and an iterative determiner 405.

位置合わせ器402は、図19(a)に示すような、超解像拡大処理を行う際の基準となる基準画像と、少なくとも1枚の観測画像を取得する機能を有する。ここでは、図19(a)に示すように基準画像と観測画像1および観測画像2を取得するものとする。位置合わせ器402は、取得した基準画像と観測画像1,2の解像度よりも高解像度の画素位置への位置合わせを行い、不等間隔にサンプリングされた不均一高解像度画像を生成する機能を有する。また、生成した不均一高解像度画像を補間器403、繰り返し判定器405に供給する機能を有する。ここで、生成される不均一高解像度画像は、例えば、図19(b)で示されるように、基準画像の各画素を基準として観測画像の位置合わせを行い、基準画像との間の相関が最も高くなる位置に配置するようにすることが望ましい。また、位置合わせで適用される解像度は、超解像拡大処理後に得られる解像度よりも高い解像度で位置合わせを行うようにすることが望ましい。   The aligner 402 has a function of acquiring a reference image serving as a reference when performing super-resolution enlargement processing and at least one observation image as shown in FIG. Here, it is assumed that the reference image, the observation image 1 and the observation image 2 are acquired as shown in FIG. The aligner 402 has a function of aligning the acquired reference image and pixel positions with a resolution higher than the resolution of the observation images 1 and 2 and generating a non-uniform high resolution image sampled at unequal intervals. . In addition, it has a function of supplying the generated non-uniform high resolution image to the interpolator 403 and the iterative determiner 405. Here, for example, as shown in FIG. 19B, the generated non-uniform high-resolution image aligns the observed image with reference to each pixel of the reference image, and the correlation with the reference image is It is desirable to arrange at the highest position. In addition, it is desirable that the resolution applied in the alignment is higher than the resolution obtained after the super-resolution enlargement process.

補間器403は、生成された不均一高解像度画像を取得し、取得した不均一高解像度画像から所定の不均一補間処理を行うことで、所望の高解像度を持つ補間画像を生成し、推定画像生成器404に供給する機能を有する。また、補間器403は、繰り返し判定器405から処理を継続するための制御情報を取得する機能を有する。ここで、処理を継続するための制御情報には、推定画像生成器404によって生成された不均一推定画像が含まれると良い。また、補間器403は、制御情報に応じて繰り返し処理を行う場合には、所定の更新方法に従って不均一推定画像を利用し、位置合わせ器402から取得した不均一高解像度画像を更新するとともに、それぞれの補間画素を修正する機能を有すると良い。   The interpolator 403 obtains the generated non-uniform high resolution image, performs a predetermined non-uniform interpolation process from the obtained non-uniform high resolution image, generates an interpolated image having a desired high resolution, and estimates the estimated image. It has a function to supply to the generator 404. In addition, the interpolator 403 has a function of acquiring control information for continuing processing from the iterative determiner 405. Here, the control information for continuing the processing may include a non-uniform estimated image generated by the estimated image generator 404. In addition, when the interpolator 403 repeatedly performs processing according to the control information, the non-uniform estimated image is used according to a predetermined update method to update the non-uniform high resolution image acquired from the aligner 402, and It is preferable to have a function of correcting each interpolation pixel.

推定画像生成器404は、生成された補間画像を取得し、所定のカメラモデルから得られる点広がり関数(PSF関数)を考慮して所定の復元処理を行い、必要であれば所定のノイズ除去処理を行うことで、例えば、図19(c)に示すような所望の解像度を持つ推定画像を生成し、推定画像に対してリサンプル処理を行うことで、不均一高解像度画像の各画素に対応する、不均一推定画像を生成し、繰り返し判定器405に供給する機能を有する。また、推定画像生成器404は、繰り返し判定器405から制御情報を取得するとともに、制御情報に応じて、生成した所望の解像度を持つ推定画像を高解像度画像として外部に対して出力する機能を有する。   The estimated image generator 404 acquires the generated interpolation image, performs a predetermined restoration process in consideration of a point spread function (PSF function) obtained from a predetermined camera model, and performs a predetermined noise removal process if necessary. For example, an estimated image having a desired resolution as shown in FIG. 19C is generated, and resample processing is performed on the estimated image, so that each pixel of the non-uniform high-resolution image is handled. A non-uniform estimation image is generated and supplied to the iterative determination unit 405 repeatedly. Further, the estimated image generator 404 has a function of acquiring control information from the iterative determiner 405 and outputting the generated estimated image having a desired resolution to the outside as a high resolution image according to the control information. .

繰り返し判定器405は、位置合わせ器402から不均一高解像度画像を取得するとともに、推定画像生成器404から不均一推定画像を取得し、取得したそれぞれの画像を利用して、所定の判定方法に従って超解像拡大処理の繰り返しか必要か否かを判定し、所定の判定方法による判定の結果、繰り返しが必要な場合は補間器403に対して処理を継続するための制御情報を供給する機能を有する。また、所定の判定方法による判定の結果、繰り返しが必要ない場合には、推定画像生成器404に対して結果を出力するための制御情報を供給する機能を有する。   The iterative determiner 405 acquires a non-uniform high-resolution image from the aligner 402, acquires a non-uniform estimated image from the estimated image generator 404, and uses each acquired image according to a predetermined determination method. A function of determining whether or not the super-resolution enlargement process needs to be repeated, and supplying control information for continuing the process to the interpolator 403 when the determination is necessary as a result of the determination by a predetermined determination method. Have. In addition, as a result of the determination by the predetermined determination method, when it is not necessary to repeat, it has a function of supplying control information for outputting the result to the estimated image generator 404.

ここで、更に高速な超解像拡大処理を行う必要がある場合には、例えば、特許第3837575号で開示されているような、超解像処理の高速化方法を、本発明の画像処理装置に適用するようにすると、更に良い構成を実現することができる。   Here, when it is necessary to perform a higher-speed super-resolution enlargement process, for example, a method for increasing the speed of the super-resolution process as disclosed in Japanese Patent No. 3837575 is used. When applied to the above, a better configuration can be realized.

次に、図18に示す超解像拡大器107の動作を、図20のフローチャートを用いて説明する。   Next, the operation of the super-resolution magnifier 107 shown in FIG. 18 will be described using the flowchart of FIG.

まず、位置合わせ器402は、図19(a)に示すような低解像度の基準画像と、少なくとも1枚の観測画像を取得し(ステップS401)、図19(b)に示すように所望の高解像度よりも高い解像度によって、取得したそれぞれの画像の位置合わせを行う(ステップS402)。その際、基準画像の各画素を対応する位置に配置した後、この基準画像との相関が最も高くなるように観測画像の各画素を配置することで、不等間隔にサンプリングされた不均一高解像度画像を生成する。   First, the aligner 402 acquires a low-resolution reference image as shown in FIG. 19A and at least one observation image (step S401), and the desired height as shown in FIG. 19B. Each acquired image is aligned with a resolution higher than the resolution (step S402). At that time, after arranging each pixel of the reference image at the corresponding position, each pixel of the observation image is arranged so that the correlation with this reference image is the highest, so that the non-uniformly sampled non-uniformly sampled Generate a resolution image.

その後、補間器403は、生成された不均一高解像度画像を取得し、所定の不均一補間処理を行うことで画素の補間を行う(ステップS403)。これにより、所望の高解像度を持つ補間画像を生成する。   Thereafter, the interpolator 403 acquires the generated non-uniform high-resolution image, and performs pixel interpolation by performing predetermined non-uniform interpolation processing (step S403). Thereby, an interpolation image having a desired high resolution is generated.

次に、推定画像生成器404は、補間画像を取得し、所定の復元処理を行い、必要であれば所定のノイズ除去処理を行うことで、図19(c)に示すような所望の解像度を持つ推定画像を生成する(ステップS404)。また、推定画像に対してリサンプル処理を行うことで、不均一高解像度画像の各画素に対応する、不均一推定画像を生成する。   Next, the estimated image generator 404 acquires an interpolated image, performs a predetermined restoration process, and performs a predetermined noise removal process if necessary, thereby obtaining a desired resolution as shown in FIG. An estimated image is generated (step S404). In addition, by performing a resample process on the estimated image, a non-uniform estimated image corresponding to each pixel of the non-uniform high-resolution image is generated.

次に、繰り返し判定器405は、位置合わせ器402から不均一高解像度画像を取得するとともに、推定画像生成器404から不均一推定画像を取得し、取得したそれぞれの画像を利用して、所定の判定方法に従って超解像拡大処理の繰り返しか必要か否かを判定する(ステップS405)。   Next, the iterative determiner 405 acquires a non-uniform high resolution image from the aligner 402, acquires a non-uniform estimated image from the estimated image generator 404, and uses each acquired image to obtain a predetermined value. It is determined whether it is necessary to repeat the super-resolution enlargement process according to the determination method (step S405).

ここで、超解像拡大処理の繰り返しが必要であると判定した場合(ステップS405 YES)、繰り返し判定器405は、補間器403に対して処理を継続するための制御情報を供給する。   If it is determined that the super-resolution enlargement process needs to be repeated (YES in step S405), the repetition determiner 405 supplies control information for continuing the process to the interpolator 403.

これに対し、超解像拡大処理の繰り返しが必要でないと判定した場合(ステップS405 NO)、繰り返し判定器405は、推定画像生成器404に対して結果を出力するための制御情報を供給し、推定画像生成器404は制御情報に応じて、生成した所望の解像度を持つ推定画像を、超解像拡大処理によって得られた高解像度画像として出力する(ステップS406)。これにより、本実施形態1の超解像拡大処理が完了する。   On the other hand, when it is determined that it is not necessary to repeat the super-resolution enlargement process (NO in step S405), the repetition determination unit 405 supplies control information for outputting the result to the estimated image generator 404, The estimated image generator 404 outputs the generated estimated image having the desired resolution as a high-resolution image obtained by the super-resolution enlargement process according to the control information (step S406). Thereby, the super-resolution enlargement process of the first embodiment is completed.

以上説明したように、本実施形態1の画像処理装置によれば、入力される画像列を所定枚数分蓄積し、解析対象画像列の特定および供給を行い、解析対象画像列に対し順方向と逆方向の画像間解析を行い、順方向の画像間解析に基づく評価情報と逆方向の画像間解析に基づく評価情報とに基づいてどちらの方向の画像間解析が有効であったか否かを判定し、その判定結果に基づいて解析対象画像列から超解像処理に適した静止画像を抽出し、この静止画像を基準として、複数の連続した画像列から少なくとも1枚の観測画像である超解像処理前の低解像度画像を利用して所定の超解像処理を行うようにしたので、動画像から静止画像を抽出する際に、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出した上で、従来よりも高品質な超解像拡大処理を施した静止画像を得ることができる。   As described above, according to the image processing apparatus of the first embodiment, a predetermined number of input image sequences are accumulated, the analysis target image sequence is specified and supplied, and the forward direction with respect to the analysis target image sequence is set. Perform reverse image analysis and determine whether the inter-image analysis was effective based on the evaluation information based on the forward image analysis and the evaluation information based on the reverse image analysis. Based on the determination result, a still image suitable for the super-resolution processing is extracted from the analysis target image sequence, and the super-resolution that is at least one observation image from a plurality of continuous image sequences with the still image as a reference. Predetermined super-resolution processing is performed using a low-resolution image before processing, so that when a still image is extracted from a moving image, it is closer to the user's desired still image and is viewed as a still image The quality that can withstand Still image in terms of extracting the can than conventional obtaining a still image subjected to high-quality super-resolution enlargement processing.

また、本実施形態1では、ユーザが実際に要求を行った第1静止画像取得要求の時刻から、ユーザがあらかじめ指定した時刻の分だけ過去にさかのぼった時点を、ユーザからの第2静止画像取得要求とし、その時刻に直近の動画像フレームを解析開始位置とすることにより、ユーザが本来静止画像として取得したかった内容に近いものを取得し、より高精細な静止画像を生成することができる。   Further, in the first embodiment, the second still image acquisition from the user is performed at a time point that goes back in the past by the time designated in advance by the user from the time of the first still image acquisition request actually requested by the user. By making a request and the latest moving image frame at that time as the analysis start position, it is possible to acquire a content close to what the user originally wanted to acquire as a still image and generate a higher-definition still image. .

ここで、本実施形態1では、第2静止画像取得要求を決定する際に、ユーザが実際に要求を行った第1静止画像取得要求の時刻と、ユーザが実際に所望している静止画像を含む時刻との時間的なズレを設定するようにしているので、ユーザ毎の個人差を解消できるとともに、解析開始位置をユーザが実際に所望した静止画像の時刻位置に近づけることが可能となり、解析開始位置の周囲を本発明により解析することによって、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出し、より高精細な静止画像を生成することができる。   Here, in the first embodiment, when determining the second still image acquisition request, the time of the first still image acquisition request actually requested by the user and the still image actually desired by the user are obtained. Since the time difference from the included time is set, individual differences for each user can be eliminated, and the analysis start position can be brought closer to the time position of the still image actually desired by the user. By analyzing the surroundings of the start position according to the present invention, a still image that is closer to the actually desired still image and that can be appreciated as a still image is extracted, and a higher-definition still image is generated. can do.

また、本実施形態1では、第2静止画像取得要求を決定する際に、ユーザが実際に要求を行った第1静止画像取得要求の時刻と、ユーザが実際に所望している静止画像を含む時刻との時間的なズレを、ユーザ毎に学習することにより、ユーザ毎の個人差を解消するとともに、解析開始位置をユーザが実際に所望した静止画像の時刻位置に近づけることが可能となり、また、解析開始位置の周囲を解析することによって、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出し、より高精細な静止画像を生成することができる。   In the first embodiment, when the second still image acquisition request is determined, the time of the first still image acquisition request actually requested by the user and the still image actually desired by the user are included. By learning the time difference from the time for each user, it is possible to eliminate individual differences for each user and bring the analysis start position closer to the time position of the still image actually desired by the user. By analyzing the surroundings of the analysis start position, a still image closer to the actually desired still image and extracted with a quality that can be appreciated as a still image is extracted, and a higher-definition still image is generated. be able to.

また、本実施形態1では、ユーザからの静止画像取得要求を考慮した解析開始位置を利用して行われる画像間解析処理では、解析対象となる動画像の解析対象画像列を2枚1組として扱い、組となった画像の片方のフレーム位置の画像を次の階層の解析対象として選定しながら、解析処理の階層が下がるにつれて必ずしも等間隔ではない動画像である不等間隔動画像の画像列となるように動画像内の解析対象画像列を制御し、解析対象となっている2枚の画像列に対し、どちらのフレーム位置の画像を次の階層の解析対象とすべきかを判断するために、過去から未来方向の予測によって画像の類似度を評価する順方向画像間解析と、未来から過去方向の予測によって画像の類似度を評価する逆方向画像間解析とを行い、解析開始位置から過去の動画像フレームに対して、順方向および逆方向の類似度の評価を行い、抽出すべき静止画像の候補を選択する処理を、類似度がある一定の値を下回って、比較する参照画像と対象画像との類似度が低いと評価された時点で処理を終了することにより、処理を終了した時点で選択されている動画像フレームを抽出すべき静止画像として出力できる。   Further, in the first embodiment, in the inter-image analysis process performed using the analysis start position in consideration of a still image acquisition request from the user, two analysis target image sequences of moving images to be analyzed are set as one set. An image sequence of non-uniformly spaced moving images that are not necessarily equally spaced as the analysis processing level is lowered while selecting an image at one frame position of the paired image as the analysis target of the next layer. The image sequence to be analyzed in the moving image is controlled so that the two image sequences to be analyzed are determined as to which frame position image should be analyzed in the next layer. In addition, forward image analysis that evaluates image similarity by prediction from the past to the future and reverse image analysis that evaluates image similarity by prediction of the past direction from the future are performed. past Evaluation of similarity in forward and backward direction for moving image frames, and selection of still image candidates to be extracted is compared with a reference image to be compared with a target value below a certain value. By terminating the process when it is evaluated that the degree of similarity with the image is low, it is possible to output the moving image frame selected when the process is terminated as a still image to be extracted.

また、本実施形態1では、静止画像の抽出過程で得られる画像列の依存関係をツリー構造によって管理し、所定の探索モードおよびツリー構造を構成するパスやノードに与えられたコストに基づいてツリー構造の解析を行い、解析対象画像列に対して順序付けを行い、この解析対象画像列の順位に基づいて、所定枚数の観測画像である超解像処理前の低解像度画像を特定した静止画像とともに所定の超解像処理を行うことにより、所定の超解像処理で利用する観測画像の枚数を、要求に応じて制限する際に、観測画像となる画像列から、超解像処理に有効で優先度の高い順番に、要求された必要な枚数の分だけ供給できる。これにより、超解像処理を行う際に、対象となっている画像列の全てを観測画像として利用することで、多くの演算量を費やすことなく、また超解像処理によってより高精細な静止画像を生成する際に、観測画像の枚数を制限することによる影響をより少なく抑えることができる。   In the first embodiment, the dependency of the image sequence obtained in the still image extraction process is managed by the tree structure, and the tree is determined based on the predetermined search mode and the cost given to the paths and nodes constituting the tree structure. Analyze the structure, order the analysis target image sequence, and based on the order of the analysis target image sequence, together with a still image that identifies a low-resolution image before super-resolution processing, which is a predetermined number of observation images By performing predetermined super-resolution processing, when limiting the number of observation images used in predetermined super-resolution processing as required, it is effective for super-resolution processing from the image sequence that becomes the observation image. The required number of sheets can be supplied in order of priority. As a result, when super-resolution processing is performed, all of the target image sequence is used as an observation image, so that a large amount of computation is not required and high-resolution stillness is achieved by super-resolution processing. When generating an image, it is possible to reduce the influence of limiting the number of observation images.

以上の結果、本実施形態1によれば、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出し、より高精細な静止画像を生成することができる。   As a result of the above, according to the first embodiment, a still image closer to the actually desired still image and having a quality that can be appreciated as a still image is extracted to generate a higher-definition still image. be able to.

実施形態2.
実施形態2は、図1に示す実施形態1の順方向画像間解析器103および逆方向画像間解析器104の詳細を、図21に示す順方向画像間解析器243および逆方向画像間解析器244のように詳細に構成したものである。なお、その他の構成は、図1に示す実施形態1のものと同様である。
Embodiment 2. FIG.
In the second embodiment, details of the forward inter-image analyzer 103 and the reverse inter-image analyzer 104 of the first embodiment shown in FIG. 1 are described in detail, and the forward inter-image analyzer 243 and the reverse inter-image analyzer shown in FIG. It is configured in detail like 244. Other configurations are the same as those of the first embodiment shown in FIG.

図21において、順方向画像間解析器243は、第1画像列取得器203、第1ME器204、第1MC器205、第1A LPF器206、差分器207、第1Aノイズ除去器208、第1B LPF器209、差分器210、第1Bノイズ除去器211、第1L成分類似度評価器212、第1H成分類似度評価器213を有している。   In FIG. 21, the forward inter-image analyzer 243 includes a first image sequence acquisition unit 203, a first ME unit 204, a first MC unit 205, a first A LPF unit 206, a subtractor 207, a first A noise remover 208, and a first B. It has an LPF unit 209, a subtractor 210, a first B noise remover 211, a first L component similarity evaluator 212, and a first H component similarity evaluator 213.

同様に、図21において、逆方向画像間解析器244は、第2画像列取得器214、第2ME器215、第2MC器216、第2A LPF器217、差分器218、第2Aノイズ除去器219、第2B LPF器220、差分器221、第2Bノイズ除去器222、第2L成分類似度評価器223、第2H成分類似度評価器224を有している。   Similarly, in FIG. 21, the backward inter-image analyzer 244 includes a second image sequence acquisition unit 214, a second ME unit 215, a second MC unit 216, a second A LPF unit 217, a difference unit 218, and a second A noise removal unit 219. , A second B LPF unit 220, a difference unit 221, a second B noise remover 222, a second L component similarity evaluator 223, and a second H component similarity evaluator 224.

ここで、図21における差分器207を、第1A HPF器に、差分器210を第1B HPF器に、差分器218を第2A HPF器に、差分器221を第2B HPF器によって代替した構成であっても構わない。これらは共に、供給された画像情報から高周波数成分を抽出し、H成分情報を生成するためのものである。本実施形態2におけるこれらの構成要素は、H成分情報を生成するための構成要素であれば良く、以後の説明では、図21で示される差分器によって構成されるものとして話を進める。また、図21における第1Aノイズ除去器208、第1Bノイズ除去器211、第2Aノイズ除去器219、第2Bノイズ除去器222は、必要に応じて所定のノイズ除去処理を行わない、もしくは上記の各ノイズ除去器を有さないように構成しても構わない。   Here, the difference unit 207 in FIG. 21 is replaced by a first A HPF unit, the difference unit 210 is replaced by a first B HPF unit, the difference unit 218 is replaced by a second A HPF unit, and the difference unit 221 is replaced by a second B HPF unit. It does not matter. Both of these are for extracting high frequency components from the supplied image information and generating H component information. These constituent elements in the second embodiment may be constituent elements for generating the H component information, and in the following description, the description will be made assuming that the constituent elements are configured by the differentiator shown in FIG. Further, the first A noise remover 208, the first B noise remover 211, the second A noise remover 219, and the second B noise remover 222 in FIG. 21 do not perform predetermined noise removal processing as necessary, or You may comprise so that it may not have each noise remover.

以後、本実施形態の詳細に関する説明は図21に基づいて進めるものとする。また、図1の構成要素と同等の機能を有する場合には説明を省略する。   Hereinafter, the description regarding the details of this embodiment will be made based on FIG. In addition, the description is omitted when it has the same function as the component of FIG.

図21の制御器226は、新たに第1画像列取得器203および第2画像列取得器214に関する動作を制御するために、それぞれに対して画像列を取得するための制御情報を供給する機能を有する。   The controller 226 in FIG. 21 supplies a control information for acquiring an image sequence to each of the first image sequence acquiring unit 203 and the second image sequence acquiring unit 214 in order to newly control operations related to the first image sequence acquiring unit 203 and the second image sequence acquiring unit 214 Have

蓄積画像列管理器202は、図1の順方向画像間解析器103、逆方向画像間解析器104に対して画像列を供給する代わりに、第1画像列取得器203および第2画像列取得器214に対して、処理対象となる画像列を供給する機能を有する。   The accumulated image sequence manager 202 obtains the first image sequence acquisition unit 203 and the second image sequence instead of supplying the image sequence to the forward direction inter-image analyzer 103 and the reverse direction inter-image analyzer 104 in FIG. A function of supplying an image sequence to be processed to the device 214.

第1画像列取得器203は、制御器226からの制御情報に応じて、蓄積画像列管理器202から、順方向の画像間解析処理を行うための参照画像、対象画像の画像列を取得する機能を有する。つまり、取得した画像列において、参照画像のフレーム位置は対象画像のフレーム位置よりも過去側の画像が得られている。取得した参照画像および対象画像を第1ME器204に供給する機能を有する。第1画像列取得器203は、参照画像を第1MC器205に供給する機能を有する。また、取得した対象画像を第1B LPF器209および差分器210に供給する機能を有する。   The first image sequence acquisition unit 203 acquires, from the accumulated image sequence management unit 202, a reference image for performing inter-image analysis processing in the forward direction and an image sequence of the target image in accordance with control information from the controller 226. It has a function. That is, in the acquired image sequence, the frame position of the reference image is obtained in the past with respect to the frame position of the target image. A function of supplying the acquired reference image and target image to the first ME unit 204; The first image sequence acquisition unit 203 has a function of supplying a reference image to the first MC unit 205. The acquired target image has a function of supplying the first B LPF unit 209 and the subtractor 210.

第1ME器204は、第1画像列取得器203から参照画像および対象画像を取得すると共に、所定の動き推定を行い、動きベクトル情報を生成する機能を有する。この所定の動き推定においては、例えばMPEG−1,MPEG−2,MPEG−4,同AVC/SVC等といった画像間相関を利用した動画像符号化において用いられるような、対象画像を重複なく所定の矩形領域に分割し、対応する動きベクトル情報を参照画像内から特定するような動き推定方法によるものであっても構わない。また、対象画像の領域分割を行う際に、所定の任意形状の領域分割を行った後に、対応する任意形状領域の動きベクトル情報を参照画像内から特定するような動き推定方法によるものであれば更に良い構成となる。第1ME器204は、生成した動きベクトル情報を第1MC器205に供給する機能を有する。   The first ME unit 204 has a function of acquiring a reference image and a target image from the first image sequence acquisition unit 203, performing a predetermined motion estimation, and generating motion vector information. In this predetermined motion estimation, for example, the target image is used in a predetermined manner without duplication, such as used in moving image encoding using correlation between images such as MPEG-1, MPEG-2, MPEG-4, and AVC / SVC. It may be based on a motion estimation method that divides into rectangular regions and identifies the corresponding motion vector information from the reference image. In addition, when the target image is segmented, if the segmentation of a predetermined arbitrary shape is performed and then the motion vector information of the corresponding arbitrary shape region is specified from the reference image, the motion estimation method is used. Further, the configuration is better. The first ME device 204 has a function of supplying the generated motion vector information to the first MC device 205.

第1MC器205は、第1画像列取得器203から参照画像を取得するとともに、第1ME器204から、動きベクトル情報を取得し、取得した参照画像および動きベクトル情報に基づいて、所定の動き補償を行い、予測画像を生成する機能を有する。この所定の動き補償においては、動き推定と同様に、例えばMPEG−1,MPEG−2,MPEG−4,同AVC/SVC等といった画像間相関を利用した動画像符号化において用いられるような、動きベクトル情報を用いて参照画像から特定された領域を利用して予測画像を生成するような動き補償方法によるものであっても構わない。また、任意形状の領域分割情報と、任意形状領域に対応する動きベクトル情報によって、参照画像から対応する任意形状領域を特定し、このような領域を利用して予測画像を生成するような動き補償方法によるものであれば更に良い構成となる。また、領域分割情報は、第1ME器204から供給されるように構成しても良いし、また、第1画像列取得器203から対象画像を取得して、再度任意形状の領域分割処理を行うことで、生成しても良い。第1MC器205は、生成した予測画像を第1A LPF器206および差分器207に供給する機能を有する。   The first MC unit 205 acquires a reference image from the first image sequence acquisition unit 203, acquires motion vector information from the first ME unit 204, and performs predetermined motion compensation based on the acquired reference image and motion vector information. And has a function of generating a predicted image. In this predetermined motion compensation, as in motion estimation, for example, motion such as that used in moving image coding using inter-image correlation such as MPEG-1, MPEG-2, MPEG-4, and AVC / SVC is used. It may be based on a motion compensation method in which a predicted image is generated using an area specified from a reference image using vector information. Also, motion compensation that identifies a corresponding arbitrary shape region from a reference image based on region division information of an arbitrary shape and motion vector information corresponding to the arbitrary shape region, and generates a predicted image using such a region. If it is based on a method, it will become a still better structure. Further, the region division information may be configured to be supplied from the first ME unit 204. Alternatively, the target image is acquired from the first image sequence acquisition unit 203, and the region dividing process having an arbitrary shape is performed again. It may be generated. The first MC unit 205 has a function of supplying the generated predicted image to the first A LPF unit 206 and the difference unit 207.

第1A LPF器206は、第1MC器205から予測画像を取得し、所定の低周波数帯域通過特性を持つフィルタを用いて予測画像に対してフィルタリング処理を行い、予測画像の低周波数成分情報(L成分情報)を生成する機能を有する。第1A LPF器206は、生成した予測画像のL成分情報を、差分器207および第1L成分類似度評価器212に供給する機能を有する。   The first A LPF unit 206 acquires a predicted image from the first MC unit 205, performs a filtering process on the predicted image using a filter having a predetermined low frequency band pass characteristic, and performs low frequency component information (L Component information). The first A LPF unit 206 has a function of supplying the L component information of the generated predicted image to the difference unit 207 and the first L component similarity evaluator 212.

差分器207は、第1MC器205から予測画像を取得するとともに、第1A LPF器206から予測画像のL成分情報を取得し、予測画像から予測画像のL成分情報を減算することで予測画像に含まれる高周波数成分情報(H成分情報)を生成する機能を有する。この差分器207は、所定の高周波数帯域通過特性を持つフィルタを用いて予測画像に対してフィルタリング処理を行い、予測画像のH成分情報を生成する機能を有するような構成要素によって代用するような構成とすることもできる。差分器207は、生成した予測画像のH成分情報を第1Aノイズ除去器208に供給する機能を有する。ここで、生成した予測画像のH成分情報を、第1Aノイズ除去器208を機能させずに、第1H成分類似度評価器213に供給するような構成にしても構わない。   The differentiator 207 acquires the predicted image from the first MC unit 205, acquires the L component information of the predicted image from the first A LPF unit 206, and subtracts the L component information of the predicted image from the predicted image to the predicted image. It has a function of generating included high frequency component information (H component information). The subtractor 207 performs a filtering process on the predicted image using a filter having a predetermined high frequency band pass characteristic, and substitutes it with a component having a function of generating H component information of the predicted image. It can also be configured. The differentiator 207 has a function of supplying H component information of the generated predicted image to the first A noise remover 208. Here, the H component information of the generated predicted image may be supplied to the first H component similarity evaluator 213 without causing the first A noise remover 208 to function.

第1Aノイズ除去器208は、差分器207から予測画像のH成分情報を取得し、所定のノイズ除去処理を行った後に、ノイズ除去後の予測画像のH成分情報を、第1H成分類似度評価器213に供給する機能を有する。ここで、ノイズ除去処理は、所定の範囲を閾値とした、H成分情報に含まれる微小ノイズの除去ができることが望ましい。   The first A noise remover 208 acquires the H component information of the predicted image from the differentiator 207, performs a predetermined noise removal process, and then uses the H component information of the predicted image after noise removal as a first H component similarity evaluation. A function of supplying to the device 213. Here, it is desirable that the noise removal processing can remove minute noise included in the H component information with a predetermined range as a threshold.

第1B LPF器209は、第1画像列取得器203から対象画像を取得し、所定の低周波数帯域通過特性を持つフィルタを用いて対象画像に対してフィルタリング処理を行い、対象画像のL成分情報を生成する機能を有する。第1B LPF器209は、生成した対象画像のL成分情報を、差分器210および第1L成分類似度評価器212に供給する機能を有する。   The first B LPF unit 209 acquires the target image from the first image sequence acquisition unit 203, performs a filtering process on the target image using a filter having a predetermined low frequency band pass characteristic, and performs L component information on the target image. It has the function to generate. The first B LPF unit 209 has a function of supplying the L component information of the generated target image to the difference unit 210 and the first L component similarity evaluator 212.

差分器210は、第1画像列取得器203から対象画像を取得するとともに、第1B LPF器209から対象画像のL成分情報を取得し、対象画像から対象画像のL成分情報を減算することで対象画像に含まれるH成分情報を生成する機能を有する。この差分器210は、所定の高周波数帯域通過特性を持つフィルタを用いて対象画像に対してフィルタリング処理を行い、対象画像のH成分情報を生成する機能を有するような構成要素によって代用するような構成とすることもできる。差分器210は、生成した対象画像のH成分情報を第1Bノイズ除去器211に供給する機能を有する。ここで、生成した対象画像のH成分情報を、第1Bノイズ除去器211を機能させずに、第1H成分類似度評価器213に供給するような構成にしても構わない。   The subtractor 210 acquires the target image from the first image sequence acquisition unit 203, acquires the L component information of the target image from the first B LPF unit 209, and subtracts the L component information of the target image from the target image. A function of generating H component information included in the target image; The subtractor 210 performs a filtering process on the target image using a filter having a predetermined high frequency band pass characteristic, and substitutes it with a component having a function of generating H component information of the target image. It can also be configured. The differentiator 210 has a function of supplying the H component information of the generated target image to the first B noise remover 211. Here, the H component information of the generated target image may be supplied to the first H component similarity evaluator 213 without causing the first B noise remover 211 to function.

第1Bノイズ除去器211は、差分器210から対象画像のH成分情報を取得し、所定のノイズ除去処理を行った後に、ノイズ除去後の対象画像のH成分情報を、第1H成分類似度評価器213に供給する機能を有する。ここで、ノイズ除去処理は、所定の範囲を閾値とした、H成分情報に含まれる微小ノイズの除去ができることが望ましい。   The first B noise remover 211 acquires the H component information of the target image from the subtractor 210, performs a predetermined noise removal process, and then uses the H component information of the target image after noise removal to evaluate the first H component similarity. A function of supplying to the device 213. Here, it is desirable that the noise removal processing can remove minute noise included in the H component information with a predetermined range as a threshold.

第1L成分類似度評価器212は、第1A LPF器206から予測画像のL成分情報を取得するとともに、第1B LPF器209から対象画像のL成分情報を取得し、取得した予測画像のL成分情報と、対象画像のL成分情報とを、所定の類似度評価方法に基づいて、順方向におけるL成分情報の類似度情報(順方向L成分類似度情報)を生成し、判定器225に供給する機能を有する。ここで、所定の類似度評価方法としては、例えば予測画像のL成分情報と対象画像のL成分情報との差分値dLの二乗平均平方根(RMSE: Root Mean Squared Error)によって評価するようにすると良い。これは、差分値dLを二乗した上で相加平均し、平方根をとったものである。この値が大きいほど、類似度は低くなる。   The first L component similarity evaluator 212 acquires the L component information of the predicted image from the first A LPF unit 206, acquires the L component information of the target image from the first B LPF unit 209, and acquires the L component of the acquired predicted image. The information and the L component information of the target image are generated based on a predetermined similarity evaluation method, and the similarity information of the L component information in the forward direction (forward L component similarity information) is supplied to the determiner 225. It has the function to do. Here, as a predetermined similarity evaluation method, for example, the evaluation may be performed based on a root mean squared error (RMSE) of a difference value dL between the L component information of the predicted image and the L component information of the target image. . This is an arithmetic mean obtained by squaring the difference value dL and taking a square root. The greater this value, the lower the similarity.

また、計算を簡単にする必要がある場合には、誤差の絶対値和(SAD: Sum of Absolute Differences)によって評価するようにしても構わない。SADにおいても、値が大きいほど類似度は低くなる。これらの誤差の評価値を類似度情報とすると良い構成となる。また、必要に応じて、予測画像のL成分情報および対象画像のL成分情報のRMSEもしくはSADによって評価し、順方向予測L成分誤差情報、順方向対象L成分誤差情報として判定器225に供給するようにすると更に良い構成となる。   Further, when it is necessary to simplify the calculation, the evaluation may be performed by sum of absolute differences (SAD). Also in SAD, the greater the value, the lower the similarity. It is a good configuration if these error evaluation values are used as similarity information. Further, if necessary, evaluation is performed based on RMSE or SAD of the L component information of the predicted image and the L component information of the target image, and the result is supplied to the determiner 225 as forward predicted L component error information and forward target L component error information. By doing so, the configuration becomes even better.

ここで、予測画像のL成分情報および対象画像のL成分情報のRMSEもしくはSADによって評価を行う際に、予測画像のL成分情報と対象画像のL成分情報との平均画像を生成し、この平均画像と予測画像のL成分情報との差分画像に対してRMSEもしくはSADによって評価し、順方向予測L成分平均誤差情報を生成し、判定器225に供給するようにすると更に良い構成となる。同様に、この平均画像と対象画像のL成分情報との差分画像に対してRMSEもしくはSADによって評価し、順方向対象L成分平均誤差情報を生成し、判定器225に供給するようにすると更に良い構成となる。   Here, when evaluation is performed by RMSE or SAD of the L component information of the predicted image and the L component information of the target image, an average image of the L component information of the predicted image and the L component information of the target image is generated. It is more preferable that the difference image between the image and the L component information of the predicted image is evaluated by RMSE or SAD, and the forward predicted L component average error information is generated and supplied to the determiner 225. Similarly, a difference image between the average image and the L component information of the target image is evaluated by RMSE or SAD, and forward target L component average error information is generated and supplied to the determiner 225. It becomes composition.

ここで、L成分情報の類似度情報を生成する際の各成分情報に関する詳細を示す一例として、図22を参照しながら説明する。   Here, an example showing details regarding each component information when generating similarity information of L component information will be described with reference to FIG.

図22(a)は、予測画像のL成分情報の例を示す。この図22(a)で示される例では、解析対象となっている画像列には円形の動物体が含まれている。この図22(a)では、予測画像が生成される際に、動きベクトル情報に基づいて動き補償が行われることで、対象画像との画面内の空間的な位相差が抑えられている。しかし、この例では、参照画像内の物体の輪郭に動きブレが生じていたため、801の部分のように輪郭が不明瞭になっている。   FIG. 22A shows an example of L component information of a predicted image. In the example shown in FIG. 22A, a circular moving object is included in the image sequence to be analyzed. In FIG. 22A, when a predicted image is generated, motion compensation is performed based on motion vector information, so that a spatial phase difference in the screen with the target image is suppressed. However, in this example, motion blur has occurred in the contour of the object in the reference image, so that the contour is unclear as in the portion 801.

図22(b)は、対象画像のL成分情報の例を示す。この図22(b)で示される例では、対象画像内の物体は、803の部分のようにブレの少ない輪郭になっている。このような予測画像のL成分情報と、対象画像のL成分情報との間で差分を行うと、図22(c)のような状態となる。   FIG. 22B shows an example of L component information of the target image. In the example shown in FIG. 22B, the object in the target image has a contour with little blur like the portion 803. When a difference is performed between the L component information of the predicted image and the L component information of the target image, a state as illustrated in FIG.

図22(c)のような差分画像は、RMSEやSADによる評価を行う際に用いられる。   The difference image as shown in FIG. 22C is used when an evaluation by RMSE or SAD is performed.

図22(a)、図22(b)、および図22(c)における成分情報の推移を確認するため、同じ空間位置である808、810、812の領域内における同一ラインの成分情報をそれぞれ示したものが、図22(d)、図22(e)、図22(f)である。   In order to confirm the transition of the component information in FIGS. 22 (a), 22 (b), and 22 (c), the component information of the same line in the regions 808, 810, and 812 that are the same spatial positions is shown. FIG. 22D, FIG. 22E, and FIG.

図22(d)における成分情報809は、予測画像のL成分情報における領域808内の1ライン分であり、図22(e)における成分情報811は対象画像のL成分情報における領域810内の1ライン分、図22(f)における成分情報813は差分画像における領域812内の1ライン分を表している。   The component information 809 in FIG. 22D is for one line in the region 808 in the L component information of the predicted image, and the component information 811 in FIG. 22E is 1 in the region 810 in the L component information of the target image. The component information 813 in FIG. 22F represents one line in the region 812 in the difference image.

ここで、図22(d)における成分情報809は、動きボケ等を多く含んでいることから、輪郭周辺の信号が急峻ではなく、また全体的に信号成分が低くなっている。また、図22(e)における成分情報811は、動きボケが少ないため、輪郭部分の信号が比較的急峻であり、信号成分も比較的高い。このような成分情報809と成分情報811との間で差分を行うことで、図22(f)に示す成分情報813を得る。   Here, since the component information 809 in FIG. 22D includes a large amount of motion blur and the like, the signal around the contour is not steep, and the signal component is low overall. In addition, since the component information 811 in FIG. 22E has less motion blur, the signal of the contour portion is relatively steep and the signal component is also relatively high. By performing a difference between such component information 809 and component information 811, component information 813 shown in FIG. 22 (f) is obtained.

成分情報813では、図22(f)に示すように、成分情報同士がより近い値であれば、得られる差分の成分情報の絶対値も小さくなる。この例のように、参照画像に動きボケや、動物体の変形や新たな物体の出現・消失などによる動き補償の失敗により成分情報が劣化しているものと差分を行うと、得られる差分の成分情報の絶対値は大きくなる。   In the component information 813, as shown in FIG. 22F, if the component information is a closer value, the absolute value of the obtained component information of the difference is also reduced. As in this example, if the difference between the reference image and the component information is degraded due to motion compensation failure due to motion blur, the deformation of the moving object or the appearance / disappearance of a new object, the difference The absolute value of the component information increases.

したがって、予測画像のL成分情報および対象画像のL成分情報との類似度評価を行うことによって、手ブレや動きボケ、動物体の変形や新たな物体の出現・消失などによって生じる、画面内の大局的な変化を評価することを可能にする。仮に、このL成分情報の類似度評価において、解析対象となっている画像間の類似度があまり高くないと判断された場合、予測画像のL成分情報から順方向予測L成分誤差情報もしくは順方向予測L成分平均誤差情報、対象画像のL成分情報から順方向対象L成分誤差情報もしくは順方向対象L成分平均誤差情報に基づいて、解析対象となっている画像列から、次の解析対象として重要となる画像を選択するようにすることが望ましい。   Therefore, by performing similarity evaluation between the L component information of the predicted image and the L component information of the target image, an in-screen generated due to camera shake, motion blur, deformation of a moving object, appearance / disappearance of a new object, and the like. Enables assessment of global changes. If it is determined in the similarity evaluation of the L component information that the similarity between the images to be analyzed is not so high, the forward prediction L component error information or the forward direction is determined from the L component information of the predicted image. Based on the predicted L component average error information, the L component information of the target image, and the forward target L component error information or the forward target L component average error information, it is important as the next analysis target from the image sequence being analyzed It is desirable to select an image to become.

第1H成分類似度評価器213は、第1Aノイズ除去器208からノイズ除去後の予測画像のH成分情報を取得するとともに、第1Bノイズ除去器211からノイズ除去後の対象画像のH成分情報を取得し、取得したノイズ除去後の予測画像のH成分情報と、ノイズ除去後の対象画像のH成分情報とを、所定の類似度評価方法に基づいて、順方向におけるH成分情報の類似度情報(順方向H成分類似度情報)を生成し、判定器225に供給する機能を有する。   The first H component similarity evaluator 213 obtains the H component information of the predicted image after noise removal from the first A noise remover 208 and the H component information of the target image after noise removal from the first B noise remover 211. Based on a predetermined similarity evaluation method, the similarity information of the H component information in the forward direction is obtained based on the H component information of the obtained predicted image after noise removal and the H component information of the target image after noise removal. (Forward H component similarity information) is generated and supplied to the determiner 225.

ここで、所定の類似度評価方法としては、例えばノイズ除去後の予測画像のH成分情報とノイズ除去後の対象画像のH成分情報との差分値dHの二乗平均平方根(RMSE: Root Mean Squared Error)によって評価するようにすると良い。これは、差分値dHを二乗した上で相加平均し、平方根をとったものである。この値が大きいほど、類似度は低くなる。   Here, as a predetermined similarity evaluation method, for example, the root mean squared error (RMSE) of the difference value dH between the H component information of the predicted image after noise removal and the H component information of the target image after noise removal is used. ) To evaluate. This is an arithmetic mean obtained by squaring the difference value dH and taking a square root. The greater this value, the lower the similarity.

また、計算を簡単にする必要がある場合には、誤差の絶対値和(SAD: Sum of Absolute Differences)によって評価するようにしても構わない。SADにおいても、値が大きいほど類似度は低くなる。これらの誤差の評価値を類似度情報とすると良い構成となる。また、必要に応じて、予測画像のH成分情報および対象画像のH成分情報のRMSEもしくはSADによって評価し、順方向予測H成分誤差情報、順方向対象H成分誤差情報として判定器225に供給するようにすると更に良い構成となる。   Further, when it is necessary to simplify the calculation, the evaluation may be performed by sum of absolute differences (SAD). Also in SAD, the greater the value, the lower the similarity. It is a good configuration if these error evaluation values are used as similarity information. If necessary, the H component information of the predicted image and the RMS component or SAD of the H component information of the target image are evaluated and supplied to the determiner 225 as forward predicted H component error information and forward target H component error information. By doing so, the configuration becomes even better.

ここで、予測画像のH成分情報および対象画像のH成分情報のRMSEもしくはSADによって評価を行う際に、予測画像のH成分情報と対象画像のH成分情報との平均画像を生成し、この平均画像と予測画像のH成分情報との差分画像に対してRMSEもしくはSADによって評価し、順方向予測H成分平均誤差情報を生成し、判定器225に供給するような構成でも構わない。同様に、この平均画像と対象画像のH成分情報との差分画像に対してRMSEもしくはSADによって評価し、順方向対象H成分平均誤差情報を生成し、判定器225に供給するような構成でも構わない。   Here, when evaluation is performed by RMSE or SAD of the H component information of the predicted image and the H component information of the target image, an average image of the H component information of the predicted image and the H component information of the target image is generated. A difference image between the image and the H component information of the predicted image may be evaluated by RMSE or SAD, and forward predicted H component average error information may be generated and supplied to the determiner 225. Similarly, a difference image between the average image and the H component information of the target image is evaluated by RMSE or SAD, and forward target H component average error information is generated and supplied to the determiner 225. Absent.

ここで、H成分情報の類似度情報を生成する際の、各成分情報に関する詳細を示す一例として、図23を参照しながら説明する。   Here, an example showing details regarding each component information when generating similarity information of H component information will be described with reference to FIG.

図23(a)は、予測画像のH成分情報の例を示す。この図23(a)で示される例では、解析対象となっている画像列には円形の動物体が含まれている。この図23(a)では、予測画像が生成される際に、動きベクトル情報に基づいて動き補償が行われることで、対象画像との画面内の空間的な位相差が抑えられている。しかしこの例では、参照画像内の物体の輪郭に動きブレが生じていたため、901の部分のように輪郭が不明瞭になっている。   FIG. 23A shows an example of H component information of a predicted image. In the example shown in FIG. 23A, a circular moving object is included in the image sequence to be analyzed. In FIG. 23A, when a predicted image is generated, motion compensation is performed based on motion vector information, so that a spatial phase difference in the screen with the target image is suppressed. However, in this example, motion blur has occurred in the contour of the object in the reference image, so that the contour is unclear as in the portion 901.

図23(b)は、対象画像のH成分情報の例を示す。この図23(b)で示される例では、対象画像内の物体は、903の部分のようにブレの少ない輪郭になっている。このような予測画像のH成分情報と、対象画像のH成分情報との間で差分を行うと、図23(c)のような状態となる。   FIG. 23B shows an example of H component information of the target image. In the example shown in FIG. 23B, the object in the target image has a contour with little blur like the portion 903. When a difference is performed between the H component information of the predicted image and the H component information of the target image, a state as illustrated in FIG.

図23(c)のような差分画像は、RMSEやSADによる評価を行う際に用いられる。図23(a)、図23(b)、および図23(c)における成分情報の推移を確認するため、同じ空間位置である908、910、912の領域内における同一ラインの成分情報をそれぞれ示したものが、図23(d)、図23(e)、図23(f)である。   The difference image as shown in FIG. 23C is used when an evaluation by RMSE or SAD is performed. In order to confirm the transition of the component information in FIGS. 23 (a), 23 (b), and 23 (c), the component information of the same line in the regions 908, 910, and 912 that are the same spatial positions is shown. FIG. 23D, FIG. 23E, and FIG.

図23(d)における成分情報909は、予測画像のH成分情報における領域908内の1ライン分であり、図23(e)における成分情報911は対象画像のH成分情報における領域910内の1ライン分、図23(f)における成分情報913は差分画像における領域912内の1ライン分を表している。   The component information 909 in FIG. 23D is for one line in the region 908 in the H component information of the predicted image, and the component information 911 in FIG. 23E is 1 in the region 910 in the H component information of the target image. The component information 913 in FIG. 23F represents one line in the area 912 in the difference image.

図23(d)における成分情報909は、動きボケ等を多く含んでいることから、輪郭周辺の信号が急峻ではなく、また信号成分が輪郭周辺に広く分布している。また、図23(e)における成分情報911は、動きボケが少ないため、輪郭部分の信号が比較的急峻であり、信号成分も大きく、また輪郭部分に集中している。このような成分情報909と成分情報911との間で差分を行うことで、図23(f)に示す成分情報913を得る。   Since the component information 909 in FIG. 23D includes many motion blurs and the like, the signal around the contour is not steep, and the signal component is widely distributed around the contour. In addition, since the component information 911 in FIG. 23E has less motion blur, the signal of the contour portion is relatively steep, the signal component is large, and the signal is concentrated on the contour portion. By performing a difference between such component information 909 and component information 911, component information 913 shown in FIG.

図23(f)に示す成分情報913では、図示されるように、成分情報同士がより近い値であれば、得られる差分の成分情報の絶対値も小さくなる。この例のように、参照画像に動きボケや、動物体の変形や新たな物体の出現・消失などによる動き補償の失敗により成分情報が劣化しているものと差分を行うと、得られる差分の成分情報の絶対値は大きくなる。   In the component information 913 shown in FIG. 23 (f), as shown in the figure, if the component information is a closer value, the absolute value of the obtained difference component information is also reduced. As in this example, if the difference between the reference image and the component information is degraded due to motion compensation failure due to motion blur, the deformation of the moving object or the appearance / disappearance of a new object, the difference The absolute value of the component information increases.

特に、この例のように成分情報909の最大値と成分情報911の最大値の位置がずれていると、差分を行った際に信号成分が十分相殺されず、得られる差分の成分情報の絶対値はより大きくなる。また、動きボケ等により、輪郭部分が不鮮明であると、成分情報909のようなH成分情報となる傾向が強い。このような成分情報との差分によって得られる成分情報913は、大きな値が比較的広い範囲に渡って分布する傾向が強い。このような特徴から、このH成分情報に対して類似度を評価することによって、画像間でどの程度手ブレや動きボケ、画面内のテクスチャ情報が変化しているかを判断することが可能である。   In particular, if the position of the maximum value of the component information 909 and the maximum value of the component information 911 is shifted as in this example, the signal component is not sufficiently canceled when the difference is performed, and the absolute value of the component information of the obtained difference is obtained. The value will be larger. In addition, if the contour portion is unclear due to motion blur or the like, there is a strong tendency to become H component information such as component information 909. In the component information 913 obtained by the difference from such component information, a large value tends to be distributed over a relatively wide range. From such characteristics, it is possible to determine how much camera shake, motion blur, and texture information in the screen changes between images by evaluating the similarity to the H component information. .

したがって、予測画像のH成分情報および対象画像のH成分情報との類似度評価を行うことによって、手ブレや動きボケ、動物体の変形や新たな物体の出現・消失などによって生じる、輪郭部分のズレや、動物体の変化といった、画面内の局所的な変化を評価することを可能にする。仮に、このH成分情報の類似度評価において、解析対象となっている画像間の類似度があまり高くないと判断された場合、予測画像のH成分情報から順方向予測H成分誤差情報もしくは順方向予測H成分平均誤差情報、対象画像のH成分情報から順方向対象H成分誤差情報もしくは順方向対象H成分平均誤差情報に基づいて、解析対象となっている画像列から、次の解析対象として重要となる画像を選択するようにすることが望ましい。また、重要となる画像を選択する際には、輪郭部分や画面内のテクスチャ情報がより鮮明なものを選択することが、静止画像としてより品質の高いものを選択することにつながる。よって、例えば順方向予測H成分誤差情報と順方向対象H成分誤差情報とを比較することによって画像を選択しなければならない場合には、これらの値が高い方を選択するように構成すると良い構成となる。   Therefore, by evaluating the similarity between the H component information of the predicted image and the H component information of the target image, the contour portion generated due to camera shake, motion blur, deformation of the moving object, appearance / disappearance of a new object, or the like. This makes it possible to evaluate local changes in the screen, such as displacement and changes in the animal body. If it is determined that the similarity between the images to be analyzed is not very high in the similarity evaluation of the H component information, the forward prediction H component error information or the forward direction is determined from the H component information of the predicted image. Based on the predicted H component average error information, the H component information of the target image, the forward target H component error information, or the forward target H component average error information, the analysis target image sequence is important as the next analysis target. It is desirable to select an image to become. Further, when selecting an important image, selecting an image with clearer contour information or texture information in the screen leads to selecting a higher quality image as a still image. Therefore, for example, when it is necessary to select an image by comparing the forward prediction H component error information and the forward target H component error information, it is preferable that the higher one of these values be selected. It becomes.

図21に戻り、第2画像列取得器214は、第1画像列取得器203と同等の機能を有する。また、第2画像列取得器214は、制御器226からの制御情報に応じて、蓄積画像列管理器202から、逆方向の画像間解析処理を行うための参照画像、対象画像の画像列を取得する機能を有する。つまり、取得した画像列において、参照画像のフレーム位置は対象画像のフレーム位置よりも未来側の画像が得られている。取得した参照画像および対象画像を第2ME器215に供給する機能を有する。さらに、第2画像列取得器214は、参照画像を第2MC器216に供給する機能を有する。また、取得した対象画像を第2B LPF器220および差分器221に供給する機能を有する。   Returning to FIG. 21, the second image sequence acquisition unit 214 has the same function as the first image sequence acquisition unit 203. Further, the second image sequence acquisition unit 214 receives the reference image and the image sequence of the target image for performing the inter-image analysis processing in the reverse direction from the accumulated image sequence management unit 202 according to the control information from the controller 226. Has a function to acquire. In other words, in the acquired image sequence, the frame position of the reference image is a future image with respect to the frame position of the target image. It has a function of supplying the acquired reference image and target image to the second ME device 215. Further, the second image sequence acquisition unit 214 has a function of supplying a reference image to the second MC unit 216. In addition, it has a function of supplying the acquired target image to the second B LPF unit 220 and the differentiator 221.

第2ME器215は、第1ME器204と同等の機能を有する。第2ME器215は、第2画像列取得器214から参照画像と対象画像を取得し、所定の動き推定を行うことにより動きベクトル情報を生成する機能を有する。また、生成した動きベクトル情報を第2MC器216に供給する機能を有する。   The second ME device 215 has the same function as the first ME device 204. The second ME unit 215 has a function of acquiring the reference image and the target image from the second image sequence acquiring unit 214 and generating motion vector information by performing predetermined motion estimation. In addition, it has a function of supplying the generated motion vector information to the second MC device 216.

第2MC器216は、第1MC器205と同等の機能を有する。第2MC器216は、第2画像列取得器214から参照画像を取得するとともに、第2ME器215から動きベクトル情報を取得し、所定の動き補償を行うことにより、予測画像を生成する機能を有する。また、生成した予測画像を第2A LPF器217および差分器218に供給する機能を有する。   The second MC device 216 has a function equivalent to that of the first MC device 205. The second MC unit 216 has a function of acquiring a reference image from the second image sequence acquisition unit 214, acquiring motion vector information from the second ME unit 215, and generating a predicted image by performing predetermined motion compensation. . Further, it has a function of supplying the generated predicted image to the second A LPF unit 217 and the differentiator 218.

第2A LPF器217は、第1A LPF器206と同等の機能を有する。第2A LPF器217は、第2MC器216から予測画像を取得し、所定のフィルタリング処理を行うことで、予測画像のL成分情報を生成する機能を有する。また、生成したL成分情報を、差分器218および第2L成分類似度評価器223に供給する機能を有する。   The second A LPF unit 217 has a function equivalent to that of the first A LPF unit 206. The second A LPF unit 217 has a function of acquiring the predicted image from the second MC unit 216 and generating L component information of the predicted image by performing a predetermined filtering process. In addition, it has a function of supplying the generated L component information to the differentiator 218 and the second L component similarity evaluator 223.

差分器218は、差分器207と同等の機能を有する。差分器218は、第2MC器216から予測画像を取得するとともに、第2A LPF器217から予測画像のL成分情報を取得する機能を有する。また、取得した予測画像から予測画像のL成分情報を減算することで、予測画像のH成分情報を生成し、第2Aノイズ除去器219に供給する機能を有する。ここで、生成した予測画像のH成分情報を、第2Aノイズ除去器219を機能させずに、第2H成分類似度評価器224に供給するような構成にしても構わない。   The differencer 218 has a function equivalent to that of the differencer 207. The differentiator 218 has a function of acquiring a predicted image from the second MC unit 216 and acquiring L component information of the predicted image from the second A LPF unit 217. In addition, by subtracting the L component information of the predicted image from the acquired predicted image, the H component information of the predicted image is generated and supplied to the second A noise remover 219. Here, the H component information of the generated predicted image may be supplied to the second H component similarity evaluator 224 without causing the second A noise remover 219 to function.

第2Aノイズ除去器219は、第1Aノイズ除去器208と同等の機能を有する。差分器218から予測画像のH成分情報を取得し、所定のノイズ除去処理を行った後、ノイズ除去後の予測画像のH成分情報を第2H成分類似度判定器224に供給する機能を有する。   The second A noise remover 219 has a function equivalent to that of the first A noise remover 208. After obtaining the H component information of the predicted image from the differentiator 218 and performing a predetermined noise removal process, the H component information of the predicted image after noise removal is supplied to the second H component similarity determination unit 224.

第2B LPF器220は、第1B LPF器209と同等の機能を有する。第2B LPF器220は、第2画像列取得器214から対象画像を取得し、所定のフィルタリング処理を行うことで対象画像のL成分情報を生成する機能を有する。また、生成した対象画像のL成分情報を差分器221および第2L成分類似度評価器223に供給する機能を有する。   The second B LPF unit 220 has a function equivalent to that of the first B LPF unit 209. The second B LPF unit 220 has a function of acquiring the target image from the second image sequence acquiring unit 214 and generating L component information of the target image by performing a predetermined filtering process. Further, it has a function of supplying the L component information of the generated target image to the differentiator 221 and the second L component similarity evaluator 223.

差分器221は、差分器210と同等の機能を有する。差分器221は、第2画像列取得器214から対象画像を取得するとともに、第2B LPF器220から対象画像のL成分情報を取得する機能を有する。また、取得した対象画像から対象画像のL成分情報を減算することで、対象画像のH成分情報を生成し、第2Bノイズ除去器222に供給する機能を有する。ここで、生成した対象画像のH成分情報を、第2Bノイズ除去器222を機能させずに、第2H成分類似度評価器223に供給するような構成にしても構わない。   The differentiator 221 has a function equivalent to that of the differentiator 210. The differentiator 221 has a function of acquiring the target image from the second image sequence acquisition unit 214 and acquiring L component information of the target image from the second B LPF unit 220. Further, it has a function of generating the H component information of the target image by subtracting the L component information of the target image from the acquired target image and supplying it to the second B noise remover 222. Here, the H component information of the generated target image may be supplied to the second H component similarity evaluator 223 without causing the second B noise remover 222 to function.

第2Bノイズ除去器222は、第1Bノイズ除去器211と同等の機能を有する。第2Bノイズ除去器222は、差分器221から対象画像のH成分情報を取得し、所定のノイズ除去処理を行った後、ノイズ除去後の対象画像のH成分情報を第2H成分類似度評価器224に供給する機能を有する。   The second B noise remover 222 has a function equivalent to that of the first B noise remover 211. The second B noise remover 222 acquires the H component information of the target image from the subtractor 221, performs a predetermined noise removal process, and then uses the H component information of the target image after noise removal as a second H component similarity evaluator. 224 is provided.

第2L成分類似度評価器223は、第1L成分類似度評価器212と同等の機能を有する。第2L成分類似度評価器223は、第2A LPF器217から予測画像のL成分情報を取得するとともに、第2B LPF器220から対象画像のL成分情報を取得する機能を有する。また、取得した予測画像のL成分情報と、対象画像のL成分情報とを、所定の類似度評価方法に基づいて、逆方向におけるL成分情報の類似度情報(逆方向L成分類似度情報)を生成し、判定器225に供給する機能を有する。   The second L component similarity evaluator 223 has a function equivalent to that of the first L component similarity evaluator 212. The second L component similarity evaluator 223 has a function of acquiring the L component information of the predicted image from the second A LPF unit 217 and the L component information of the target image from the second B LPF unit 220. Further, the L component information of the predicted image and the L component information of the target image, based on a predetermined similarity evaluation method, the similarity information of the L component information in the reverse direction (reverse L component similarity information) Is generated and supplied to the determiner 225.

第2H成分類似度評価器224は、第1H成分類似度評価器213と同等の機能を有する。第2H成分類似度評価器224は、第2Aノイズ除去器219からノイズ除去後の予測画像のH成分情報を取得するとともに、第2Bノイズ除去器222からノイズ除去後の対象画像のH成分情報を取得する機能を有する。また、取得したノイズ除去後の予測画像のH成分情報と、ノイズ除去後の対象画像のH成分情報とを、所定の類似度評価方法に基づいて、逆方向におけるH成分情報の類似度情報(逆方向H成分類似度情報)を生成し、判定器225に供給する機能を有する。   The second H component similarity evaluator 224 has a function equivalent to that of the first H component similarity evaluator 213. The second H component similarity evaluator 224 obtains the H component information of the predicted image after noise removal from the second A noise remover 219 and the H component information of the target image after noise removal from the second B noise remover 222. Has a function to acquire. Further, the H component information of the predicted image after noise removal and the H component information of the target image after noise removal are based on similarity information of H component information in the reverse direction based on a predetermined similarity evaluation method ( The reverse direction H component similarity information) is generated and supplied to the determiner 225.

判定器225は、第1L成分類似度評価器212から順方向L成分類似度情報、第1H成分類似度評価器213から順方向H成分類似度情報、第2L成分類似度評価器223から逆方向L成分類似度情報、第2H成分類似度評価器224から逆方向H成分類似度情報を取得する機能を有する。また、判定器225は、必要に応じて、第1L成分類似度評価器212から順方向予測L成分誤差情報もしくは順方向予測L成分平均誤差情報、順方向対象L成分誤差情報もしくは順方向対象L成分平均誤差情報を取得する機能を有する。また、必要に応じて、判定器225は、第1H成分類似度評価器213から順方向予測H成分誤差情報もしくは順方向予測H成分平均誤差情報、順方向対象H成分誤差情報もしくは順方向対象H成分平均誤差情報を取得する機能を有する。また、必要に応じて、判定器225は、第2L成分類似度評価器223から逆方向予測L成分誤差情報もしくは逆方向予測L成分平均誤差情報、逆方向対象L成分誤差情報もしくは逆方向対象L成分平均誤差情報を取得する機能を有する。また、必要に応じて、第2H成分類似度評価器224から逆方向予測H成分誤差情報もしくは逆方向予測H成分平均誤差情報、逆方向対象H成分誤差情報もしくは逆方向対象H成分平均誤差情報を取得する機能を有する。   The determiner 225 receives forward L component similarity information from the first L component similarity evaluator 212, forward H component similarity information from the first H component similarity evaluator 213, and reverse direction from the second L component similarity evaluator 223. It has a function of acquiring backward component H similarity information from the L component similarity information and the second H component similarity evaluator 224. In addition, the determiner 225 receives the forward prediction L component error information or the forward prediction L component average error information, the forward target L component error information, or the forward target L from the first L component similarity evaluator 212 as necessary. It has a function to acquire component average error information. Further, as necessary, the determiner 225 receives the forward prediction H component error information or the forward prediction H component average error information, the forward target H component error information, or the forward target H from the first H component similarity evaluator 213. It has a function to acquire component average error information. Further, as necessary, the determiner 225 receives the backward prediction L component error information or the backward prediction L component average error information, the backward target L component error information, or the backward target L from the second L component similarity evaluator 223. It has a function to acquire component average error information. Further, the backward prediction H component error information or the backward prediction H component average error information, the backward target H component error information or the backward target H component average error information is obtained from the second H component similarity evaluator 224 as necessary. Has a function to acquire.

そして、判定器225は、取得した順方向のL成分およびH成分の類似度情報と、逆方向のL成分およびH成分の類似度情報とを比較し、順方向と逆方向の画像間解析のどちらが有効であったかを判定し、類似度情報の判定結果である判定情報を制御器226に供給する機能を有する。   The determiner 225 compares the acquired forward L component and H component similarity information with the backward L component and H component similarity information, and performs forward and backward image analysis. It has a function of determining which one is effective and supplying determination information which is a determination result of the similarity information to the controller 226.

ここで、判定方法は、例えば、L成分類似度情報とH成分類似度情報に対して所定の重み付け係数を乗算した後に加算することで、方向別の類似度情報を生成し、その後、生成した順方向の類似度情報と、逆方向の類似度情報とを比較することで有効な方向を判定するような方法であると良い。   Here, for example, the determination method generates the similarity information for each direction by multiplying the L component similarity information and the H component similarity information after multiplying by a predetermined weighting coefficient, and then generates the similarity information. It is preferable that the effective direction is determined by comparing the similarity information in the forward direction and the similarity information in the reverse direction.

また、判定情報は、順方向が選択されたか、逆方向が選択されたかを特定することができる情報であれば良い。例えば、順方向と逆方向をそれぞれ+と−、または1と0などのフラグ情報で表現されたものが望ましい。また、生成した類似度情報を用いて順方向と逆方向の類似度情報を比較する際に、所定の閾値と比較して類似度が高くないと判断された場合には、必要に応じて取得した、順方向側の処理から得られる、順方向予測L成分誤差情報もしくは順方向予測L成分平均誤差情報、順方向対象L成分誤差情報もしくは順方向対象L成分平均誤差情報、および、順方向予測H成分誤差情報もしくは順方向予測H成分平均誤差情報、順方向対象H成分誤差情報もしくは順方向対象H成分平均誤差情報、そして逆方向側の処理から得られる、逆方向予測L成分誤差情報もしくは逆方向予測L成分平均誤差情報、逆方向対象L成分誤差情報もしくは逆方向対象L成分平均誤差情報、および、逆方向予測H成分誤差情報もしくは逆方向予測H成分平均誤差情報、逆方向対象H成分誤差情報もしくは逆方向対象H成分平均誤差情報、に対して所定の重み付け係数を乗算した後に加算することで、方向別の誤差情報もしくは平均誤差情報を生成し、その後、生成した順方向の誤差情報もしくは平均誤差情報と、逆方向の誤差情報もしくは平均誤差情報と、を比較することで有効な方向を判定するような方法であると良い。   The determination information may be information that can specify whether the forward direction is selected or the reverse direction is selected. For example, it is desirable that the forward direction and the reverse direction are represented by flag information such as + and-, or 1 and 0, respectively. In addition, when comparing the similarity information in the forward direction and the backward direction using the generated similarity information, if it is determined that the similarity is not high compared to a predetermined threshold, it is acquired as necessary. The forward prediction L component error information or the forward prediction L component average error information, the forward target L component error information or the forward target L component average error information, and the forward prediction obtained from the processing on the forward direction side. H component error information or forward prediction H component average error information, forward target H component error information or forward target H component average error information, and reverse prediction L component error information or reverse obtained from processing on the reverse side Direction prediction L component average error information, reverse direction target L component error information or reverse direction target L component average error information, and reverse direction prediction H component error information or reverse direction prediction H component average error information, The direction target H component error information or the reverse direction target H component average error information is multiplied by a predetermined weighting coefficient and then added to generate direction-specific error information or average error information. It is preferable that the effective direction is determined by comparing the error information or average error information of the direction with the error information or average error information of the reverse direction.

次に、図21に示す実施形態2の順方向画像間解析器243および逆方向画像間解析器244に対応する各構成要素の動作について説明する。   Next, the operation of each component corresponding to the forward direction inter-image analyzer 243 and the reverse direction inter-image analyzer 244 of the second embodiment illustrated in FIG. 21 will be described.

図24は、図21において画像間解析を行う際の動作を説明したフローチャートである。   FIG. 24 is a flowchart for explaining the operation when the inter-image analysis is performed in FIG.

以下の説明では、順方向の画像間解析に関する動作の説明を行う。逆方向の画像間解析に関する動作に関しては、第2画像列取得器214が取得する画像列である参照画像と対象画像が異なるものの、それ以外の処理動作に関しては、順方向の画像間解析と同様であることから、説明を省略する。   In the following description, operations related to forward inter-image analysis will be described. Regarding the operation related to the inter-image analysis in the reverse direction, the reference image, which is the image sequence acquired by the second image sequence acquiring unit 214, is different from the target image, but the other processing operations are the same as those in the forward inter-image analysis. Therefore, the description is omitted.

まず、制御器226は、解析処理の実行を制御するために、蓄積画像列管理器202から蓄積画像列管理情報を取得し、次に処理すべき画像列を特定する。特定した画像列の情報に基づいて制御情報を蓄積画像列管理器202に供給する。また、第1画像列取得器203および第2画像列取得器214に対して、制御情報を供給することで、動作開始の制御を行う。   First, the controller 226 acquires the accumulated image sequence management information from the accumulated image sequence manager 202 and specifies the image sequence to be processed next in order to control the execution of the analysis process. Control information is supplied to the stored image sequence manager 202 based on the specified image sequence information. Also, the control of the operation start is performed by supplying control information to the first image sequence acquisition unit 203 and the second image sequence acquisition unit 214.

蓄積画像列管理器202は、制御器226から次に処理すべき画像列に関する制御情報を取得し、解析対象となる少なくとも2枚の画像フレームを画像列として特定する。特定した画像列を、第1画像列取得器203および第2画像列取得器214に供給する。特定した画像列を供給する際に、順方向である第1画像列取得器203に対しては、供給すべき画像列のうち、時間的に過去側のフレーム位置の画像を参照画像、時間的に未来側のフレーム位置の画像を対象画像として供給する。また、逆方向である第2画像列取得器214に対しては、供給すべき画像列のうち、時間的に未来側のフレーム位置の画像を参照画像、時間的に過去側のフレーム位置の画像を対象画像として供給する。   The accumulated image sequence manager 202 acquires control information regarding the next image sequence to be processed from the controller 226, and specifies at least two image frames to be analyzed as image sequences. The identified image sequence is supplied to the first image sequence acquisition unit 203 and the second image sequence acquisition unit 214. When supplying the specified image sequence, the first image sequence acquisition unit 203 that is in the forward direction, among the image sequences to be supplied, the image of the frame position on the past side in time is referred to as the reference image, temporal The image at the future frame position is supplied as the target image. Also, for the second image sequence acquisition unit 214 in the reverse direction, the image at the future frame position in terms of time of the image sequence to be supplied is the reference image, and the image at the frame position of the past side in terms of time. Is supplied as a target image.

その後、第1画像列取得器203は、制御器226からの要求に応じて、蓄積画像列管理器202から、参照画像および対象画像を取得する(ステップS201)。取得した参照画像および対象画像を第1ME器204に供給する。また、取得した参照画像を少なくとも第1MC器205に供給する。更に、取得した対象画像を第1B LPF器209および差分器210に供給する。   Thereafter, the first image sequence acquisition unit 203 acquires a reference image and a target image from the accumulated image sequence management unit 202 in response to a request from the controller 226 (step S201). The acquired reference image and target image are supplied to the first ME device 204. Further, the acquired reference image is supplied to at least the first MC unit 205. Further, the acquired target image is supplied to the 1B LPF unit 209 and the difference unit 210.

次に、第1ME器204が第1画像列取得器203から参照画像および対象画像を取得すると、これらの画像列を利用して所定の動き推定を行う(ステップS202)ことで動きベクトル情報を生成し、第1MC器205に供給する。   Next, when the first ME unit 204 acquires the reference image and the target image from the first image sequence acquisition unit 203, motion vector information is generated by performing predetermined motion estimation using these image sequences (step S202). And supplied to the first MC unit 205.

第1MC器205は、第1画像列取得器203から少なくとも参照画像を取得するとともに、第1ME器204から動きベクトル情報を取得する。取得した参照画像と動きベクトル情報を利用して、所定の動き補償を行う(ステップS203)ことで予測画像を生成し、第1A LPF器206および差分器207に供給する。   The first MC unit 205 acquires at least a reference image from the first image sequence acquisition unit 203 and acquires motion vector information from the first ME unit 204. Predicted images are generated by performing predetermined motion compensation using the acquired reference image and motion vector information (step S203), and supplied to the first A LPF unit 206 and the difference unit 207.

予測画像の生成が終わると、第1A LPF器206は、第1MC器205から予測画像を取得する。取得した予測画像に対して所定のフィルタリング処理を行うことで、予測画像のL成分情報を生成することで、予測画像の低周波数成分を抽出する(ステップS204)。その後、生成した予測画像のL成分情報を差分器207および第1L成分類似度評価器212に供給する。   When the generation of the predicted image ends, the first A LPF unit 206 acquires the predicted image from the first MC unit 205. A predetermined filtering process is performed on the acquired predicted image to generate L component information of the predicted image, thereby extracting a low frequency component of the predicted image (step S204). Thereafter, the L component information of the generated predicted image is supplied to the differentiator 207 and the first L component similarity evaluator 212.

その後、差分器207は、第1MC器205から予測画像を取得するとともに、第1A LPF器206から予測画像のL成分情報を取得する。取得した予測画像から予測画像のL成分情報を減算し、予測画像のH成分情報を生成することで、解析対象画像列の高周波数成分を抽出する(ステップS207)。その後、生成した予測画像のH成分情報を第1ノイズ除去器208に供給する。   Thereafter, the differentiator 207 acquires the prediction image from the first MC unit 205 and also acquires the L component information of the prediction image from the first A LPF unit 206. The high frequency component of the analysis target image sequence is extracted by subtracting the L component information of the predicted image from the acquired predicted image to generate H component information of the predicted image (step S207). Thereafter, the H component information of the generated predicted image is supplied to the first noise remover 208.

次に、第1Aノイズ除去器208は、予測画像のH成分情報を取得し、所定のノイズ除去を行う(ステップS208)ことで、ノイズ除去後の予測画像のH成分情報を生成し、第1H成分類似度評価器213に供給する。   Next, the first A noise remover 208 acquires the H component information of the predicted image and performs predetermined noise removal (step S208), thereby generating H component information of the predicted image after noise removal. This is supplied to the component similarity evaluator 213.

以上のような予測画像に対する処理と並列して、以下の対象画像に対する処理が行われる。   In parallel with the process for the predicted image as described above, the following process for the target image is performed.

まず、第1B LPF器209において、第1画像列取得器203から対象画像を取得し、所定のフィルタリング処理を行って対象画像のL成分情報を生成することで、解析対象画像列の低周波数成分を抽出する(ステップS205)。その後、生成した対象成分のL成分情報を差分器210および第1L成分類似度評価器212に供給する。   First, in the 1B LPF unit 209, the target image is acquired from the first image sequence acquisition unit 203, and L component information of the target image is generated by performing a predetermined filtering process, whereby the low frequency component of the analysis target image sequence is generated. Is extracted (step S205). Thereafter, the generated L component information of the target component is supplied to the subtractor 210 and the first L component similarity evaluator 212.

その後、差分器210は、第1画像列取得器203から対象画像を取得するとともに、第1B LPF器209から対象画像のL成分情報を取得する。取得した対象画像から対象画像のL成分情報を減算し、対象画像のH成分情報を生成することで、解析対象画像列の高周波数成分を抽出する(ステップS209)。その後、生成した対象画像のH成分情報を第1Bノイズ除去器211に供給する。   Thereafter, the differentiator 210 acquires the target image from the first image sequence acquisition unit 203 and acquires the L component information of the target image from the first B LPF unit 209. By subtracting the L component information of the target image from the acquired target image and generating H component information of the target image, the high frequency component of the analysis target image sequence is extracted (step S209). Thereafter, the H component information of the generated target image is supplied to the 1B noise remover 211.

次に、第1Bノイズ除去器211は、対象画像のH成分情報を取得し、所定のノイズ除去を行う(ステップS210)ことで、ノイズ除去後の対象画像のH成分情報を生成し、第1H成分類似度評価器213に供給する。   Next, the first B noise remover 211 acquires the H component information of the target image and performs predetermined noise removal (step S210), thereby generating H component information of the target image after noise removal, and the first H This is supplied to the component similarity evaluator 213.

それぞれのL成分情報が生成されると、第1L成分類似度評価器212は、第1A LPF器206から予測画像のL成分情報を取得するとともに、第1B LPF器209から対象画像のL成分情報を取得し、所定の類似度評価方法に基づいて、低周波数成分の類似度を評価する(ステップS206)。その後、評価結果である順方向のL成分類似度情報は、判定器225に供給される。   When the respective L component information is generated, the first L component similarity evaluator 212 acquires the L component information of the predicted image from the first A LPF unit 206 and the L component information of the target image from the first B LPF unit 209. And the similarity of the low frequency component is evaluated based on a predetermined similarity evaluation method (step S206). Thereafter, the forward direction L component similarity information, which is the evaluation result, is supplied to the determiner 225.

同様に、それぞれのH成分情報が生成されると、第1H成分類似度評価器213は、第1Aノイズ除去器208からノイズ除去後の予測画像のH成分情報を取得するとともに、第1Bノイズ除去器211からノイズ除去後の対象画像のH成分情報を取得し、所定の類似度判定方法に基づいて、高周波数成分の類似度を評価する(ステップS211)。その後、評価結果である順方向のH成分類似度情報は、判定器225に供給される。   Similarly, when each H component information is generated, the first H component similarity evaluator 213 obtains the H component information of the predicted image after the noise removal from the first A noise remover 208 and also removes the first B noise. The H component information of the target image after noise removal is acquired from the device 211, and the similarity of the high frequency component is evaluated based on a predetermined similarity determination method (step S211). Thereafter, the forward direction H component similarity information, which is the evaluation result, is supplied to the determiner 225.

以上のような画像間解析処理を行って、順方向における類似度情報が生成される。同様に逆方向の画像間解析を行うことで、逆方向における類似度情報を生成することが可能となる。これらの順方向および逆方向の類似度情報に基づいて、判定器225は所定の判定を行うことで、解析対象となっている画像列の、どちら側からの画像間相関が高いかを特定し、どちらの画像を後の解析対象とすべきかを判断することができる。   By performing the inter-image analysis process as described above, similarity information in the forward direction is generated. Similarly, by performing inter-image analysis in the reverse direction, similarity information in the reverse direction can be generated. Based on the forward direction and reverse direction similarity information, the determiner 225 performs a predetermined determination to identify which side of the image sequence being analyzed has higher correlation between images. It is possible to determine which image should be analyzed later.

次に、本発明の画像処理方法によって出力候補となる超解像前の代表画像が特定されていく手順をより詳細に説明するため、図25、図26、図27を用いて説明する。   Next, in order to describe in more detail a procedure for specifying a representative image before super-resolution as an output candidate by the image processing method of the present invention, a description will be given with reference to FIGS. 25, 26, and 27.

図25の501は、図21の蓄積画像列管理器202で保持されている画像列の状態の一例である。   Reference numeral 501 in FIG. 25 is an example of the state of the image sequence held by the stored image sequence manager 202 in FIG.

蓄積画像列管理器202は、画像列入力を蓄積しておくための手段として、所定枚数の画像列を格納できるフレームバッファを備えており、制御器226の制御に応じて入力画像列を蓄積する。ここで、フレームバッファは、フレームバッファ内の格納位置を特定するためのフレーム位置に関する情報(フレーム位置情報もしくは単に、フレーム位置)に基づいて、格納された画像を管理する。   The accumulated image sequence manager 202 includes a frame buffer capable of storing a predetermined number of image sequences as means for accumulating image sequence inputs, and accumulates input image sequences in accordance with the control of the controller 226. . Here, the frame buffer manages the stored image based on the information (frame position information or simply the frame position) regarding the frame position for specifying the storage position in the frame buffer.

図25の501では、便宜上、解析開始位置に対応する画像をフレーム位置0とし、この画像よりも一つ前の過去の画像をフレーム位置1とするように、格納された時刻が過去に進むほど、順次フレーム位置の番号が増加するように番号付けされているものとする。   In FIG. 251, for convenience, as the stored time advances, the image corresponding to the analysis start position is set to frame position 0 and the previous image before this image is set to frame position 1. Assume that the numbers of the frame positions are sequentially increased.

また、格納されている画像は、フレーム位置による管理の他に、画像が生成された時刻に関する時刻情報と関連付けられているものとする。つまり、蓄積画像列管理器202では、入力される画像列は、それぞれの時刻情報とともに蓄積される。図25の501では、はじめに、解析開始位置に対応するフレーム位置の画像が、代表画像の候補として設定される。   In addition to the management based on the frame position, the stored image is assumed to be associated with time information related to the time when the image was generated. That is, in the accumulated image sequence manager 202, the input image sequence is accumulated together with each time information. In 501 of FIG. 25, first, an image at a frame position corresponding to the analysis start position is set as a representative image candidate.

図25では黒色のフレームで表現されている。ここでは、フレーム位置0の画像が代表画像の候補として選択される。次に、蓄積されている画像列において、時間方向に対して階層の概念を導入する。例えば、現在蓄積されている画像列は、毎秒30フレーム(30fps)のフレームレートで撮影されたものであるとする。この30fpsの時間間隔の階層を、ここでは0階層とする。このような画像列に対して、図25における501のように画像を2枚ずつ1組として扱い、この時間間隔で1枚分の画像を表現した場合には、15fpsの時間間隔で表現されることになる。このような時間間隔の階層を−1階層とする。つまり、このように階層が1つ下がる毎にフレームレートが半分になるように、画像列の組を構成することを、ここでは時間方向に対するディアディック(dyadic)な階層構造と称することにする。   In FIG. 25, it is represented by a black frame. Here, the image at frame position 0 is selected as a representative image candidate. Next, the concept of hierarchy is introduced in the time direction in the stored image sequence. For example, it is assumed that the currently stored image sequence is taken at a frame rate of 30 frames per second (30 fps). The hierarchy of the time interval of 30 fps is assumed to be 0 hierarchy here. For such an image sequence, when two images are treated as one set as indicated by 501 in FIG. 25 and one image is expressed at this time interval, it is expressed at a time interval of 15 fps. It will be. Such a hierarchy of time intervals is set to -1. That is, in this case, configuring a set of image sequences so that the frame rate is halved every time one layer is lowered is referred to as a dyadic hierarchical structure in the time direction.

実施形態2の画像処理装置における画像間解析では、まず、解析対象となる少なくとも2枚の画像列を特定する必要があるため、まず、フレームバッファ内に保持されている画像列に対して、−1階層となるように、画像列の組を考える。最初の解析対象となる2枚の画像列は、図25における502のフレーム位置0とフレーム位置1である。この解析対象となっている画像列において、順方向の画像間解析を行う場合には、過去側のフレームであるフレーム位置1の画像を参照画像とし、未来側のフレームであるフレーム位置0の画像を対象画像とする。そして、これらの順方向の画像列に対して順方向の動き推定(ME)および動き補償(MC)を行うことで、図25における503aのような成分情報を得る。ここで、対象画像に対しては解析方向の特定を容易にするために、順方向を意味する「+」記号を付している。また、逆方向の画像間解析を行う場合には、未来側のフレームであるフレーム位置0の画像を参照画像とし、過去側のフレームであるフレーム位置1の画像を対象画像とする。   In the inter-image analysis in the image processing apparatus according to the second embodiment, since it is necessary to specify at least two image sequences to be analyzed, first, with respect to the image sequence held in the frame buffer, − Consider a set of image sequences so as to be one layer. The two image sequences to be analyzed first are frame position 0 and frame position 1 in 502 in FIG. In the case of performing an inter-image analysis in the forward direction in the image sequence to be analyzed, an image at frame position 1 that is a past frame is used as a reference image, and an image at frame position 0 that is a future frame. Is the target image. Then, by performing forward motion estimation (ME) and motion compensation (MC) on these forward image sequences, component information such as 503a in FIG. 25 is obtained. Here, in order to make it easy to specify the analysis direction, a “+” sign indicating a forward direction is attached to the target image. Further, when performing inter-image analysis in the reverse direction, an image at frame position 0, which is a future frame, is used as a reference image, and an image at frame position 1, which is a past frame, is used as a target image.

そして、これらの逆方向の画像列に対して逆方向のMEおよびMCを行うことで、図25の503bのような成分情報を得る。ここで、対象画像に対しては解析方向の特定を容易にするために、逆方向を意味する「−」記号を付している。   And component information like 503b of FIG. 25 is obtained by performing reverse ME and MC with respect to these reverse image sequences. Here, in order to easily specify the analysis direction, a “−” symbol indicating the reverse direction is attached to the target image.

その後、図25の503aおよび503bに対して所定の類似度評価および判定により、出力候補となる代表画像として有効な画像が含まれる方向の画像列を選択する。図25の504では、順方向の画像間解析が有効であったと判断されている。   Thereafter, an image sequence in a direction including an effective image as a representative image to be an output candidate is selected by predetermined similarity evaluation and determination with respect to 503a and 503b in FIG. In 504 of FIG. 25, it is determined that the forward inter-image analysis is effective.

その後、参照画像として設定されたフレーム位置1の画像を、次の解析対象の画像とする。ここでは、参照画像側のフレーム位置を次の解析対象の画像としている。これは、参照画像に対してMCを行った予測画像との類似度比較においても、十分対象画像との類似度が高いということから、より情報量が多く含まれていると考えられる参照画像側のフレーム位置の画像を選択する構成をとっている。   Thereafter, the image at frame position 1 set as the reference image is set as the next image to be analyzed. Here, the frame position on the reference image side is set as the next analysis target image. This is because the reference image side which is considered to contain a larger amount of information because the similarity with the target image is sufficiently high in the similarity comparison with the prediction image obtained by performing MC on the reference image. The image is selected at the frame position.

しかし、MCによる影響を受けていない対象画像側のフレーム位置を重視した構成とし、対象画像側のフレーム位置の画像を選択するような構成としても構わない。また、今回の組には、代表画像の候補となるフレーム位置が含まれているため、この代表画像候補位置を更新する。ここでは、フレーム位置1が新たな代表画像候補位置として新たに設定される。同様の処理を図25における506、510、514の画像列に対しても行う。ここで、図25における502に隣接している506以外の画像列は、代表画像候補位置の画像との画像間解析を行う必要が生じた時点で解析をするように動作を制御すると、処理に無駄のない、より良い構成となる。ここでは、説明を簡単にするため、同一階層の解析処理は全て行ったものとすると、図25における505、509、513、517のような、−1階層の画像列が得られる。   However, the configuration may be such that the frame position on the target image side that is not affected by the MC is emphasized, and the image at the frame position on the target image side is selected. Further, since the current set includes frame positions that are candidates for representative images, the representative image candidate positions are updated. Here, frame position 1 is newly set as a new representative image candidate position. Similar processing is performed for the image strings 506, 510, and 514 in FIG. Here, when the operation is controlled so that an image sequence other than 506 adjacent to 502 in FIG. 25 needs to be subjected to an inter-image analysis with the image at the representative image candidate position, processing is performed. A better configuration without waste. Here, in order to simplify the description, assuming that all the analysis processing of the same layer is performed, an image sequence of −1 layer such as 505, 509, 513, and 517 in FIG. 25 is obtained.

図26は、−2階層の画像列を得るための処理を示すための図である。   FIG. 26 is a diagram for illustrating a process for obtaining an image sequence of the −2 hierarchy.

−2階層では、−1階層の画像列として得られた画像列で2枚ずつ1組として扱うことから、組となった2枚の画像列は、0階層においては4枚の画像列から選別された画像列となる。この様子を示したものが図26における601である。つまり、フレーム位置1とフレーム位置2の画像列は、フレーム位置0からフレーム位置3までの4枚の画像列から選別されたものであり、この画像列の範囲がフレーム位置1とフレーム位置2の画像列の影響範囲、つまり類似度が高いグループと考えることができる。   In the -2 hierarchy, the image sequence obtained as the -1 hierarchy image sequence is handled as a set of 2 images, so the 2 image sequences in the set are selected from the 4 image sequences in the 0 hierarchy. The resulting image sequence. This is indicated by reference numeral 601 in FIG. That is, the image sequence at the frame position 1 and the frame position 2 is selected from the four image sequences from the frame position 0 to the frame position 3, and the range of the image sequence is the frame position 1 and the frame position 2. It can be considered as a group having a high influence range of an image sequence, that is, a similarity.

−2階層の画像列を得るための処理は図25と同様であり、−1階層の画像列において、2枚ずつ1組として扱い、図26における602が示すような解析対象画像列を特定する。図26の602では、フレーム位置1およびフレーム位置2の画像列が解析対象となる。その後、同様の画像間解析を行い、順方向の解析結果が選択され、順方向の参照画像に対応するフレーム位置の画像が選択される。また、今回の組には、代表画像の候補となるフレーム位置が含まれているため、この代表画像候補位置を更新する。ここでは、フレーム位置2が新たな代表画像候補位置として新たに設定される。同様の処理を図26の606の画像列に対しても行う。   The process for obtaining the -2 layer image sequence is the same as that in FIG. 25. In the -1 layer image sequence, two images are handled as one set, and the analysis target image sequence as indicated by 602 in FIG. . In 602 of FIG. 26, the image sequences at the frame position 1 and the frame position 2 are to be analyzed. Thereafter, the same inter-image analysis is performed, the analysis result in the forward direction is selected, and the image at the frame position corresponding to the reference image in the forward direction is selected. Further, since the current set includes frame positions that are candidates for representative images, the representative image candidate positions are updated. Here, frame position 2 is newly set as a new representative image candidate position. Similar processing is performed for the image sequence 606 in FIG.

図27は、−3階層の画像列を得るための処理を示すための図である。−3階層では、−2階層の画像列として得られた画像列で2枚ずつ1組として扱うことから、組となった2枚の画像列は、0階層においては8枚の画像列から選別された画像列となる。この様子を示したものが図27の701である。つまり、フレーム位置2とフレーム位置7の画像列は、フレーム位置0からフレーム位置7までの8枚の画像列から選別されたものであり、この画像列の範囲がフレーム位置2とフレーム位置7の画像列の影響範囲、つまり類似度が高いグループと考えることができる。   FIG. 27 is a diagram illustrating a process for obtaining an image sequence of −3 layers. In the −3 hierarchy, the image sequence obtained as the −2 hierarchy image sequence is handled as a set of 2 images, so that the 2 image sequences in the set are selected from the 8 image sequences in the 0 hierarchy. The resulting image sequence. This is indicated by reference numeral 701 in FIG. In other words, the image sequence at the frame position 2 and the frame position 7 is selected from the eight image sequences from the frame position 0 to the frame position 7, and the range of the image sequence is the range of the frame position 2 and the frame position 7. It can be considered as a group having a high influence range of an image sequence, that is, a similarity.

−3階層の画像列を得るための処理は、図25および図26と同様であり、−2階層の画像列において、2枚ずつ1組として扱い、図27における702が示すような解析対象画像列を特定する。図27における702では、フレーム位置2およびフレーム位置7の画像列が解析対象となる。その後、同様の画像間解析を行い、逆方向の解析結果が選択され、逆方向の参照画像に対応するフレーム位置の画像が選択される。また、今回の組には、代表画像の候補となるフレーム位置が含まれているため、この代表画像候補位置を更新する。ここでは、前の階層、つまりここでは−2階層における代表画像候補位置がフレーム位置2と同じであるため、この代表画像候補位置を維持する。   The process for obtaining the -3 layer image sequence is the same as in FIG. 25 and FIG. 26. In the -2 layer image sequence, two images are treated as one set, and the analysis target image as indicated by 702 in FIG. Identify the column. In 702 in FIG. 27, the image sequences at the frame position 2 and the frame position 7 are to be analyzed. Thereafter, the same inter-image analysis is performed, the analysis result in the reverse direction is selected, and the image at the frame position corresponding to the reference image in the reverse direction is selected. Further, since the current set includes frame positions that are candidates for representative images, the representative image candidate positions are updated. Here, since the representative image candidate position in the previous hierarchy, that is, the −2 hierarchy here is the same as the frame position 2, this representative image candidate position is maintained.

本実施形態2の画像処理装置による画像間解析処理では、フレームバッファ内の画像列に対して画像間解析を行い、1枚の代表画像が特定された時点で少なくとも終了し、特定された代表画像と、必要に応じて代表画像の影響範囲である画像列の範囲に関する情報を出力する。図27では、代表画像はフレーム位置2の画像である。また、画像列の範囲は、現在の階層である−3階層よりも一つ上、つまりここでは−2階層の、フレーム位置2が属する画像列の範囲を特定し、必要に応じて代表画像とともに出力するようにすると良い。   In the inter-image analysis processing by the image processing apparatus according to the second embodiment, the inter-image analysis is performed on the image sequence in the frame buffer, and at least when one representative image is identified, the identified representative image is identified. If necessary, information on the range of the image sequence that is the influence range of the representative image is output. In FIG. 27, the representative image is an image at frame position 2. Further, the range of the image sequence is one level higher than the current level −3, that is, the level −2 in this case, and the range of the image sequence to which the frame position 2 belongs is specified. It is good to output.

図27における706が示すように、最終的に出力される代表画像のフレーム位置は、最初に設定されたフレーム位置である解析開始位置からずれた位置となっている。これは、本実施形態2の画像処理装置の画像間解析処理によって、最初の解析開始位置の画像が静止画像として十分な品質ではないと判断されて、より静止画像としてふさわしい、静止画像として鑑賞に堪えうる品質を備えた静止画像としてフレーム2の位置の画像が抽出された結果と言える。   As indicated by reference numeral 706 in FIG. 27, the frame position of the representative image that is finally output is shifted from the analysis start position, which is the frame position that was initially set. This is because the image at the first analysis start position is determined not to have sufficient quality as a still image by the inter-image analysis processing of the image processing apparatus according to the second embodiment, and is more suitable as a still image for viewing as a still image. It can be said that the image of the position of the frame 2 is extracted as a still image having satisfactory quality.

従って、本実施形態2の画像処理装置によれば、上記実施形態1と同様に、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出し、より高精細な静止画像を生成することができる。   Therefore, according to the image processing apparatus of the second embodiment, as in the first embodiment, a still image having a quality that is closer to the actually desired still image and that can be appreciated as a still image is extracted. Therefore, a still image with higher definition can be generated.

特に、本実施形態2では、順方向および逆方向のそれぞれの方向に画像間解析する際に、解析対象画像列から対象画像を基準として参照画像内を所定の動きベクトル探索を行って、予測画像を生成し、生成した予測画像から予測画像の低周波数成分情報を生成すると共に、生成した予測画像からその予測画像の低周波数成分情報を減算して予測画像の高周波数成分情報を生成して所定のノイズ除去処理を施す一方、対象画像の低周波数成分情報を生成すると共に、解析対象画像列から生成した対象画像の低周波数成分情報を減算して対象画像の高周波数成分情報を生成して所定のノイズ処理を施し、予測画像低周波数成分情報と対象画像低周波数成分情報との間の類似度を評価して低周波数成分の類似度評価情報を生成すると共に、予測画像高周波数成分情報と対象画像高周波数成分情報との間の類似度を評価した高周波数成分の類似度評価情報を生成し、順方向における低周波数成分の類似度評価情報および前記高周波数成分の類似度評価情報と、逆方向における低周波数成分の類似度評価情報および高周波数成分の類似度評価情報とに基づいて、順方向または逆方向のいずれの方向の画像間解析が有効であるかを判定するようにしたので、ノイズ、手ブレ、動きボケなどがどの程度含まれているかを容易に評価することが可能となり、これらの評価結果に基づいて抽出候補となる画像を選定することで、ユーザが実際に所望した静止画像により近く、また静止画像として鑑賞に堪えうる品質を備えた静止画像を抽出し、より高精細な静止画像を生成することができる。   In particular, in the second embodiment, when performing inter-image analysis in each of the forward direction and the reverse direction, a predetermined motion vector search is performed in the reference image based on the target image from the analysis target image sequence, and the predicted image And generating the low-frequency component information of the predicted image from the generated predicted image, and subtracting the low-frequency component information of the predicted image from the generated predicted image to generate the high-frequency component information of the predicted image. In addition to generating the low-frequency component information of the target image, the low-frequency component information of the target image generated from the analysis target image sequence is subtracted to generate the high-frequency component information of the target image. Noise processing is performed, the similarity between the predicted image low frequency component information and the target image low frequency component information is evaluated to generate low frequency component similarity evaluation information, and the predicted image Generating high frequency component similarity evaluation information that evaluates the similarity between the frequency component information and the target image high frequency component information, and generating the similarity evaluation information of the low frequency component in the forward direction and the similarity of the high frequency component Based on the evaluation information and the similarity evaluation information of the low frequency component in the reverse direction and the similarity evaluation information of the high frequency component, it is determined whether the inter-image analysis in the forward direction or the reverse direction is effective. As a result, it is possible to easily evaluate how much noise, camera shake, motion blur, etc. are included, and by selecting images as extraction candidates based on these evaluation results, the user can It is possible to extract a still image that is closer to the desired still image and has a quality that can be appreciated as a still image, and generate a higher-definition still image.

実施形態3.
実施形態3は、上述の実施形態1,2の画像処理装置の機能を、図28および図29に示すコンピュータである中央処理制御装置1203、1303がプログラムの実行により実現するようにしたものである。
Embodiment 3. FIG.
In the third embodiment, the functions of the image processing apparatuses in the first and second embodiments described above are realized by the central processing control devices 1203 and 1303 which are computers shown in FIGS. 28 and 29 by executing a program. .

図28は、本実施形態3の画像処理プログラムにより動作する情報処理装置の一例の構成図である。   FIG. 28 is a configuration diagram of an example of an information processing apparatus that operates according to the image processing program of the third embodiment.

同図において、情報処理装置1200は、各種の情報を入力するための入力装置1201と、各種の情報を出力するための出力装置1202と、本発明の画像処理プログラムにより動作する中央処理制御装置1203と、外部記憶装置1204と、中央処理制御装置1203による演算処理の際の作業領域など用いる一時記憶装置1205と、外部と通信するための通信装置1206とが、双方向のバス1207により接続された構成とされている。   In the figure, an information processing device 1200 includes an input device 1201 for inputting various types of information, an output device 1202 for outputting various types of information, and a central processing control device 1203 that operates according to the image processing program of the present invention. A two-way bus 1207 is connected to the external storage device 1204, a temporary storage device 1205 used for a work area in arithmetic processing by the central processing control device 1203, and a communication device 1206 for communicating with the outside. It is configured.

中央処理制御装置1203は、画像処理プログラムを記録媒体あるいは通信ネットワークを介して通信装置1206により取り込み、蓄積画像列管理器102に相当する蓄積画像列管理手段1208、順方向画像間解析器103に相当する順方向画像間解析手段1209、逆方向画像間解析器104に相当する逆方向画像間解析手段1210、判定器105に相当する判定手段1211、制御器106に相当する制御手段1212、超解像拡大器107に相当する超解像拡大手段1213の各機能を少なくとも有し、図1に示す画像処理装置と同様の動作をソフトウェア処理により実行する。   The central processing control device 1203 captures an image processing program by the communication device 1206 via a recording medium or a communication network, and corresponds to the accumulated image sequence management means 1208 corresponding to the accumulated image sequence manager 102 and the forward direction inter-image analyzer 103. Forward image inter-analysis means 1209, reverse image inter-analysis means 1210 corresponding to the reverse image analyzer 104, determination means 1211 corresponding to the determiner 105, control means 1212 equivalent to the controller 106, super-resolution It has at least each function of the super-resolution enlarging means 1213 corresponding to the enlarging device 107, and executes the same operation as that of the image processing apparatus shown in FIG. 1 by software processing.

図29は、実施形態3の画像処理プログラムにより動作する情報処理装置の別の一例の構成図である。   FIG. 29 is a configuration diagram of another example of an information processing apparatus that operates according to the image processing program of the third embodiment.

同図において、情報処理装置1300は、各種の情報を入力するための入力装置1301と、各種の情報を出力するための出力装置1302と、本発明の画像処理プログラムにより動作する中央処理制御装置1303と、外部記憶装置1304と、中央処理制御装置1303による演算処理の際の作業領域など用いる一時記憶装置1305と、外部と通信するための通信装置1306とが、双方向のバス1307により接続された構成とされている。   In the figure, an information processing device 1300 includes an input device 1301 for inputting various types of information, an output device 1302 for outputting various types of information, and a central processing control device 1303 that operates according to the image processing program of the present invention. And an external storage device 1304, a temporary storage device 1305 used as a work area for arithmetic processing by the central processing control device 1303, and a communication device 1306 for communicating with the outside are connected by a bidirectional bus 1307. It is configured.

中央処理制御装置1303は、画像処理プログラムを記録媒体あるいは通信ネットワークを介して通信装置1306により取り込み、蓄積画像列管理器202に相当する蓄積画像列管理手段1308、判定器225に相当する判定手段1311、制御器226に相当する制御手段1312、超解像拡大器227に相当する超解像拡大手段1323、を備え、更に順方向画像解析手段1309を構成する、第1画像列取得器203に対応する第1画像取得手段1321、逆方向画像解析手段1310を構成する、第2画像列取得器214に対応する第2画像列取得手段1322、また、順方向画像解析手段1309および逆方向画像解析手段1310を構成する、第1ME器204、第2ME器215を代用するためのME手段1313、第1MC器205、第2MC器216を代用するためのMC手段1314、第1A LPF器206、第1B LPF器209、第2A LPF器217、第2B LPF器220を代用するためのLPF手段1315、差分器207、差分器210、差分器218、差分器221を代用するためのHPF手段1316もしくは差分手段1317、第1Aノイズ除去器208、第1Bノイズ除去器211、第2Aノイズ除去器219、第2Bノイズ除去器222を代用するためのノイズ除去手段1318、第1L成分類似度評価器212、第2L成分類似度評価器223を代用するためのL成分類似度評価手段1319、第1H成分類似度評価器213、第2H成分類似度評価器224を代用するためのH成分類似度評価手段1320、の各機能を少なくとも有し、図21に示す画像処理装置と同様の動作をソフトウェア処理により実行する。   The central processing control device 1303 fetches the image processing program by the communication device 1306 via a recording medium or a communication network, and the accumulated image sequence management unit 1308 corresponding to the accumulated image sequence manager 202 and the determination unit 1311 corresponding to the determiner 225. Corresponding to the first image sequence acquisition unit 203, which includes a control unit 1312 corresponding to the controller 226 and a super-resolution expansion unit 1323 corresponding to the super-resolution expander 227, and further constitutes a forward image analysis unit 1309. Second image sequence acquisition unit 1322 corresponding to the second image sequence acquisition unit 214 constituting the first image acquisition unit 1321 and the reverse direction image analysis unit 1310, and the forward direction image analysis unit 1309 and the reverse direction image analysis unit. ME means 1313 for replacing the first ME unit 204 and the second ME unit 215 constituting the 1310, the first MC unit 205, MC unit 1314 for substituting the second MC unit 216, 1A LPF unit 206, 1B LPF unit 209, 2A LPF unit 217, LPF unit 1315 for substituting the 2B LPF unit 220, difference Substitute 207, subtractor 210, subtractor 218, HPF means 1316 or subtractor 1317 for substituting subtractor 221, first A noise remover 208, first B noise remover 211, second A noise remover 219, second B Noise removing means 1318 for substituting the noise remover 222, first L component similarity evaluator 212, L component similarity evaluating means 1319 for substituting the second L component similarity evaluator 223, and first H component similarity evaluation Each function of the H component similarity evaluation means 1320 for substituting the second H component similarity evaluator 224 is reduced. The operation similar to that of the image processing apparatus shown in FIG. 21 is executed by software processing.

従って、本実施形態3の画像処理装置でも、上記実施形態1,2と同様の画像間解析処理を、プログラムの実行により行うことにより、順方向における類似度情報を生成し、また、同様に逆方向の画像間解析を行うことで、逆方向における類似度情報を生成し、これらの順方向および逆方向の類似度情報に基づいて判定器が所定の判定を行うことで、解析対象となっている画像列の、どちら側からの画像間相関が高いかを特定し、どちらの画像を後の解析対象とすべきかを判断することができる。   Therefore, the image processing apparatus according to the third embodiment also generates the similarity information in the forward direction by performing the inter-image analysis process similar to the first and second embodiments by executing the program, and similarly reverses the same. By performing the inter-image analysis of the direction, the similarity information in the reverse direction is generated, and the determinator performs a predetermined determination based on the similarity information in the forward direction and the reverse direction. It is possible to identify which side of the image sequence from which the correlation between the images is high and to determine which image should be the later analysis target.

本発明の実施形態を適用した画像処理装置の基本構成を示すブロック図である。1 is a block diagram illustrating a basic configuration of an image processing apparatus to which an embodiment of the present invention is applied. 本発明の画像処理装置における、解析開始位置の導出例を示す概念図である。It is a conceptual diagram which shows the derivation | leading-out example of the analysis start position in the image processing apparatus of this invention. 本発明の画像処理装置における、クロッピング領域の設定例を示す概念図である。It is a conceptual diagram which shows the example of a setting of the cropping area | region in the image processing apparatus of this invention. 図1に示す本発明の画像処理装置の動作を示すフローチャートである。2 is a flowchart showing the operation of the image processing apparatus of the present invention shown in FIG. 図4に示す本発明のツリー構造解析処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the tree structure analysis process of this invention shown in FIG. 本発明の画像処理装置における、ツリー構造解析処理で用いるツリー構造を示す概念図である。It is a conceptual diagram which shows the tree structure used by the tree structure analysis process in the image processing apparatus of this invention. ツリー構造の探索モードの一例を示している。An example of a tree structure search mode is shown. 探索モードに応じたパスのコストの一例を示す図である。It is a figure which shows an example of the cost of the path | pass according to search mode. 探索モードに応じたパスのコストの他の例を示す図である。It is a figure which shows the other example of the cost of the path | pass according to search mode. 本発明の画像処理装置における、順位付け処理で用いるツリー構造の例を示す概念図である。It is a conceptual diagram which shows the example of the tree structure used by the ranking process in the image processing apparatus of this invention. 図6のツリー構造において、それぞれのパスがどのフレーム間距離と階層に属しているかを示す図である。FIG. 7 is a diagram showing which interframe distance and hierarchy each path belongs to in the tree structure of FIG. 6. 各ノードが、それぞれどの基準フレーム間距離に属し、どの階層に属しているかを示す図である。It is a figure which shows to which hierarchy each node belongs to which reference | standard frame distance each belongs to which hierarchy. 本発明の画像処理装置における、順位付け処理で用いるツリー構造の別の例を示す概念図である。It is a conceptual diagram which shows another example of the tree structure used by the ranking process in the image processing apparatus of this invention. 各ノードが、それぞれどの階層に属し、どの基準フレーム間距離に属しているかを示す図である。It is a figure which shows to which hierarchy each node each belongs, and which reference | standard frame distance belongs. 実施形態1の画像処理装置における、順位付け処理で用いるツリー構造の別の例を示す概念図である。FIG. 6 is a conceptual diagram illustrating another example of a tree structure used in ranking processing in the image processing apparatus according to the first embodiment. 実施形態1の画像処理装置における、順位付け処理で用いるツリー構造の別の例を示す概念図である。FIG. 6 is a conceptual diagram illustrating another example of a tree structure used in ranking processing in the image processing apparatus according to the first embodiment. 実施形態1の画像処理装置における、順位付け処理で用いるツリー構造の別の例を示す概念図である。FIG. 6 is a conceptual diagram illustrating another example of a tree structure used in ranking processing in the image processing apparatus according to the first embodiment. 実施形態1の超解像拡大器の詳細構成を示すブロック図である。2 is a block diagram illustrating a detailed configuration of a super-resolution magnifier according to Embodiment 1. FIG. 実施形態1における超解像処理の様子を示すための概念図である。FIG. 3 is a conceptual diagram for illustrating a state of super-resolution processing in the first embodiment. 図18に示す本発明の超解像拡大処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the super-resolution expansion process of this invention shown in FIG. 実施形態2の画像処理装置における順方向画像間解析器および逆方向画像間解析器の構成例を示す図である。It is a figure which shows the structural example of the forward direction image analyzer and reverse direction image analyzer in the image processing apparatus of Embodiment 2. FIG. 実施形態2の画像処理装置画像処理方法における低周波数成分の変化を示す概念図である。It is a conceptual diagram which shows the change of the low frequency component in the image processing apparatus image processing method of Embodiment 2. 実施形態2の画像処理方法における、高周波数成分の変化を示す概念図である。It is a conceptual diagram which shows the change of the high frequency component in the image processing method of Embodiment 2. 実施形態2の画像処理装置の動作を示すフローチャートである。10 is a flowchart illustrating an operation of the image processing apparatus according to the second embodiment. 実施形態2の画像処理方法を示す概念図(その1)である。FIG. 6 is a conceptual diagram (part 1) illustrating an image processing method according to a second embodiment. 実施形態2の画像処理方法を示す概念図(その2)である。FIG. 10 is a conceptual diagram (part 2) illustrating an image processing method according to the second embodiment. 実施形態2の画像処理方法を示す概念図(その3)である。FIG. 9 is a conceptual diagram (part 3) illustrating an image processing method according to the second embodiment. 画像処理プログラムを実行する情実施形態3の報処理装置の一例を示すブロック図である。It is a block diagram which shows an example of the information processing apparatus of the information Embodiment 3 which performs an image processing program. 画像処理プログラムを実行する実施形態3の情報処理装置の別の一例を示すブロック図である。It is a block diagram which shows another example of the information processing apparatus of Embodiment 3 which performs an image processing program.

符号の説明Explanation of symbols

102、202 蓄積画像列管理器
103,243 順方向画像間解析器
104,244 逆方向画像間解析器
105、225 判定器
106、226 制御器
107、227 超解像拡大器
102, 202 Accumulated image sequence manager 103, 243 Forward inter-image analyzer 104, 244 Reverse inter-image analyzer 105, 225 Judgment unit 106, 226 Controller 107, 227 Super-resolution enlarger

Claims (8)

複数の連続した画像列により構成される動画像から、少なくとも1枚の静止画像を抽出する画像処理装置であって、
入力される画像列を所定枚数分蓄積し、解析対象画像列の特定および供給を行う蓄積画像列管理手段と、
前記蓄積画像列管理手段から供給された前記解析対象画像列を取得し、時間が順方向の画像間解析を行い、順方向の画像間解析に基づく評価情報を生成する順方向画像間解析手段と、
前記蓄積画像列管理手段から供給された前記解析対象画像列を取得し、時間が逆方向の画像間解析を行い、逆方向の画像間解析に基づく評価情報を生成する逆方向画像間解析手段と、
前記順方向画像間解析手段からの順方向の画像間解析に基づく前記評価情報と、前記逆方向画像間解析手段からの逆方向の画像間解析に基づく前記評価情報とに基づいて、順方向または逆方向のいずれの方向の画像間解析が有効であるかを判定する判定手段と、
前記判定手段の判定結果に基づいて前記蓄積画像列管理手段に蓄積された前記解析対象画像列のうち、少なくとも1枚の静止画像を抽出する制御手段と、
前記制御手段によって抽出された前記静止画像に対し所定の超解像拡大処理を行い高精細な静止画像を生成する超解像拡大手段と、
を有する画像処理装置。
An image processing apparatus for extracting at least one still image from a moving image composed of a plurality of continuous image sequences,
Accumulated image sequence management means for accumulating a predetermined number of input image sequences and specifying and supplying an analysis target image sequence;
A forward inter-image analysis unit that acquires the analysis target image sequence supplied from the accumulated image sequence management unit, performs time-to-forward image analysis, and generates evaluation information based on the forward image analysis; ,
Obtaining the analysis target image sequence supplied from the accumulated image sequence management means, performing an inter-image analysis in a reverse direction, and generating evaluation information based on the reverse inter-image analysis; ,
Based on the evaluation information based on the forward image analysis from the forward image analysis means and the evaluation information based on the reverse image analysis from the backward image analysis means, the forward direction or A determination means for determining whether the inter-image analysis in the opposite direction is effective;
Control means for extracting at least one still image from the analysis target image sequence stored in the stored image sequence management means based on the determination result of the determination means;
Super-resolution enlargement means for generating a high-definition still image by performing predetermined super-resolution enlargement processing on the still image extracted by the control means;
An image processing apparatus.
請求項1記載の画像処理装置において、
前記制御手段は、さらに、
ユーザが実際に要求を行った第1静止画像取得要求の時刻から、所定の時間間隔の分だけ過去にさかのぼった時点を、ユーザからの第2静止画像取得要求とし、その時刻に最も近い動画像フレームの位置を解析開始位置として特定する際、上記所定の時間間隔には、所定の初期値、ユーザが指定した時間間隔、または学習結果から特定された時間間隔のいずれかを用いて解析開始位置を特定し、特定した前記解析開始位置に基づいて前記蓄積画像列管理手段から前記順方向画像間解析手段および前記順方向画像間解析手段への前記解析対象画像列の供給を制御する、画像処理装置。
The image processing apparatus according to claim 1.
The control means further includes
A time point that goes back in the past by a predetermined time interval from the time of the first still image acquisition request that the user actually requested is the second still image acquisition request from the user, and the moving image closest to that time When specifying the position of the frame as the analysis start position, the predetermined time interval is an analysis start position using either a predetermined initial value, a time interval specified by the user, or a time interval specified from the learning result. Image processing for controlling the supply of the analysis target image sequence from the accumulated image sequence management unit to the forward image inter-analysis unit and the forward image inter-analysis unit based on the identified analysis start position apparatus.
請求項1または請求項2記載の画像処理装置において、
前記制御手段は、さらに、
所定の指定領域であるクロッピング領域に基づいて、前記解析対象画像列に対して切抜き処理を行い、切り抜き処理を行った前記解析対象画像列を前記順方向画像間解析手段および前記逆方向画像間解析手段へ供給するように前記蓄積画像列管理手段を制御する、画像処理装置。
The image processing apparatus according to claim 1 or 2,
The control means further includes
Based on a cropping area which is a predetermined designated area, the analysis target image sequence is cut out, and the analysis target image sequence subjected to the cut processing is analyzed between the forward image analysis unit and the reverse image analysis. An image processing apparatus for controlling the stored image sequence managing means so as to be supplied to the means.
請求項1〜請求項3のいずれか一の請求項に記載の画像処理装置において、
前記制御手段は、さらに、
前記蓄積画像列管理手段に蓄積されている画像列に対し時間に基づく階層が1つ下がる毎にフレームレートが半分になるように、画像列の組を構成するとともに、解析対象となる動画像の画像列を2枚1組として扱い、組となった画像の片方のフレーム位置の画像を次の階層の解析対象として選定しながら、解析処理の階層が下がるにつれて不等間隔部分を有する動画像の画像列となる前記解析対象画像列を特定するよう前記蓄積画像列管理手段を制御することにより処理すべき前記解析対象画像列を特定し、
特定した前記解析対象画像列の依存関係をツリー構造によって管理し、所定の探索モードと、ツリー構造を構成するパスのコストと、ツリー構造を構成するノードのコストとに基づいてツリー構造を解析して前記解析対象画像列の順位付けを行い、
前記解析対象画像列の順位に基づいて、所定枚数の観測画像を、特定した静止画像とともに前記超解像拡大手段に対し供給するように前記蓄積画像列管理手段を制御する、画像処理装置。
In the image processing device according to any one of claims 1 to 3,
The control means further includes
A set of image sequences is configured so that the frame rate is halved every time a hierarchy based on time is reduced by one with respect to the image sequence stored in the stored image sequence management means, and the moving image to be analyzed An image sequence is handled as a set of two images, and an image at one frame position of the paired image is selected as an analysis target of the next layer, and a moving image having unequal intervals as the analysis processing layer is lowered. Specifying the analysis target image sequence to be processed by controlling the accumulated image sequence management means to specify the analysis target image sequence to be an image sequence;
The dependency relation of the identified image sequence to be analyzed is managed by a tree structure, and the tree structure is analyzed based on a predetermined search mode, a cost of a path constituting the tree structure, and a cost of a node constituting the tree structure. To rank the image sequence to be analyzed,
An image processing apparatus that controls the accumulated image sequence management unit so as to supply a predetermined number of observed images together with the specified still image to the super-resolution enlargement unit based on the order of the analysis target image sequence.
請求項1〜請求項4のいずれか一の請求項に記載の画像処理装置において、
前記超解像拡大手段は、
前記制御手段によって抽出された前記静止画像のうちから、超解像拡大処理を行う際の基準となる基準画像と、少なくとも1枚の観測画像を取得し、取得した前記基準画像と前記観測画像の解像度よりも高解像度の画素位置への位置合わせを行い、不等間隔にサンプリングされた不均一高解像度画像を生成する位置合わせ器と、
前記位置合わせ器によって生成された前記不均一高解像度画像を取得し、取得した不均一高解像度画像から所定の不均一補間処理を行って所望の高解像度を持つ補間画像を生成する補間器と、
前記補間器によって生成された前記補間画像を取得し、所定のカメラモデルから得られる点広がり関数を考慮して所定の復元処理を行い、所望の解像度を持つ推定画像を生成し、生成した推定画像に対してリサンプル処理を行って不均一推定画像を生成する推定画像生成器と、
前記位置合わせ器から前記不均一解像度画像を取得するとともに、前記推定画像生成器から前記不均一推定画像を取得し、取得したそれぞれの画像を利用して、所定の判定方法に従って超解像拡大処理の繰り返しが必要か否かを判定し、判定の結果、繰り返しが必要な場合は前記補間器に対して処理を継続させる一方、繰り返しが必要ない場合には、前記推定画像生成器に対して結果を出力させる繰り返し判定器と、
を有する、画像処理装置。
In the image processing apparatus according to any one of claims 1 to 4,
The super-resolution enlargement means includes
Among the still images extracted by the control means, a reference image serving as a reference when performing super-resolution enlargement processing and at least one observation image are acquired, and the acquired reference image and the observation image An aligner that performs alignment to pixel positions with a resolution higher than the resolution and generates non-uniform high-resolution images sampled at unequal intervals;
An interpolator that acquires the non-uniform high-resolution image generated by the aligner and performs a predetermined non-uniform interpolation process from the acquired non-uniform high-resolution image to generate an interpolated image having a desired high resolution;
Obtaining the interpolated image generated by the interpolator, performing a predetermined restoration process in consideration of a point spread function obtained from a predetermined camera model, generating an estimated image having a desired resolution, and generating the estimated image An estimated image generator that generates a non-uniform estimated image by performing a re-sampling process on
The non-uniform resolution image is acquired from the aligner, the non-uniform estimated image is acquired from the estimated image generator, and super-resolution expansion processing is performed according to a predetermined determination method using each acquired image If the result of determination is that repetition is necessary, the interpolator continues processing, whereas if repetition is not necessary, the result is output to the estimated image generator. A repeater for outputting
An image processing apparatus.
請求項1〜請求項5のいずれか一の請求項に記載の画像処理装置において、
前記順方向画像間解析手段は、さらに、時間的に順方向の画像間解析を行うために、時間的に過去側にある画像を参照画像、時間的に未来側にある画像を対象画像として、前記蓄積画像列管理器手段から解析対象となる画像列を取得する第1画像列取得器を有する一方、
前記逆方向画像間解析手段は、さらに、時間的に逆方向の画像間解析を行うために、時間的に過去側にある画像を対象画像、時間的に未来側にある画像を参照画像として、前記蓄積画像列管理器手段から解析対象となる画像列を取得する第2画像列取得器を有し、
前記順方向画像間解析手段および前記逆方向画像間解析手段は、それぞれ、
前記第1画像列取得器または第2画像列取得器を介し前記蓄積画像列管理器手段から供給された時間的に順方向または逆方向の前記解析対象画像列から、対象画像を基準として参照画像内を所定の動きベクトル探索を行って、動きベクトル情報を生成する動き推定器と、
前記参照画像と、前記動き推定部によって生成された動きベクトル情報とから予測画像を生成する動き補償器と、
前記動き推定器によって生成された前記予測画像から、前記予測画像の低周波数成分情報を生成する予測画像低周波数成分生成器と、
前記動き推定器によって生成された前記予測画像から、前記予測画像の低周波数成分情報を減算して、前記予測画像の高周波数成分情報を生成する差分器と、
前記予測画像の高周波数成分情報に対し所定のノイズ除去処理を施す予測画像高周波数成分ノイズ除去器と、
前記第1画像列取得器または第2画像列取得器を介し前記蓄積画像列管理器手段から供給された時間的に順方向または逆方向の前記解析対象画像列から、対象画像の低周波数成分情報を生成する対象画像低周波数成分情報生成器と、
前記第1画像列取得器または第2画像列取得器を介し前記蓄積画像列管理器手段から供給された時間的に順方向または逆方向の前記解析対象画像列から、前記対象画像の低周波数成分情報を減算して、前記対象画像の高周波数成分情報を生成する差分器と、
前記対象画像の高周波数成分情報に対し所定のノイズ除去処理を施す対象画像高周波数成分ノイズ除去器と、
前記予測画像低周波数成分情報と、前記対象画像低周波数成分情報とを評価し、低周波数成分の類似度評価情報を生成する低周波数成分評価情報生成部と、
前記予測画像高周波数成分情報と、前記対象画像高周波数成分情報とを評価し、高周波数成分の類似度評価情報を生成する高周波数成分評価情報生成部と、を有し、
前記判定手段は、
前記順方向における前記低周波数成分の類似度評価情報および前記高周波数成分の類似度評価情報と、前記逆方向における前記低周波数成分の類似度評価情報および前記高周波数成分の類似度評価情報とに基づいて、順方向または逆方向のいずれの方向の画像間解析が有効であるかを判定する、画像処理装置。
In the image processing device according to any one of claims 1 to 5,
Further, the forward inter-image analysis means further performs temporal inter-image analysis as a reference image for an image on the past side in time, and an image on the future side in terms of time as a target image. While having a first image sequence acquisition unit for acquiring an image sequence to be analyzed from the stored image sequence management means,
The backward direction image analysis means further performs an image analysis in the reverse direction in time as a target image, and an image in the future side in time as a reference image, A second image sequence acquisition unit for acquiring an image sequence to be analyzed from the stored image sequence management means;
The forward direction image analyzing unit and the backward direction image analyzing unit are respectively
A reference image based on the target image from the temporally forward or reverse analysis target image sequence supplied from the stored image sequence manager means via the first image sequence acquisition unit or the second image sequence acquisition unit A motion estimator that performs a predetermined motion vector search and generates motion vector information;
A motion compensator that generates a predicted image from the reference image and the motion vector information generated by the motion estimation unit;
A predicted image low frequency component generator that generates low frequency component information of the predicted image from the predicted image generated by the motion estimator;
A subtractor that subtracts low frequency component information of the predicted image from the predicted image generated by the motion estimator to generate high frequency component information of the predicted image;
A predicted image high frequency component noise remover that performs a predetermined noise removal process on the high frequency component information of the predicted image;
Low frequency component information of the target image from the temporally forward or reverse analysis target image sequence supplied from the stored image sequence manager means via the first image sequence acquisition unit or the second image sequence acquisition unit A target image low frequency component information generator for generating
Low frequency components of the target image from the temporally forward or reverse analysis target image sequence supplied from the stored image sequence manager means via the first image sequence acquisition unit or the second image sequence acquisition unit A subtractor that subtracts information to generate high frequency component information of the target image;
A target image high frequency component noise remover that performs a predetermined noise removal process on the high frequency component information of the target image;
A low frequency component evaluation information generating unit that evaluates the predicted image low frequency component information and the target image low frequency component information and generates similarity evaluation information of the low frequency component;
A high frequency component evaluation information generating unit that evaluates the predicted image high frequency component information and the target image high frequency component information and generates similarity evaluation information of the high frequency component;
The determination means includes
The low frequency component similarity evaluation information and the high frequency component similarity evaluation information in the forward direction, and the low frequency component similarity evaluation information and the high frequency component similarity evaluation information in the reverse direction. An image processing apparatus that determines whether the inter-image analysis in the forward direction or the reverse direction is effective based on the image.
複数の連続した画像列により構成される動画像から、少なくとも1枚の静止画像を抽出する画像処理方法であって、
入力される画像列を所定枚数分蓄積し、解析対象画像列の特定および供給を行うステップと、
前記解析対象画像列を取得し、時間が順方向の画像間解析を行い、順方向の画像間解析に基づく評価情報を生成するステップと、
前記解析対象画像列を取得し、時間が逆方向の画像間解析を行い、逆方向の画像間解析に基づく評価情報を生成するステップと、
前記順方向の画像間解析に基づく前記評価情報と、前記逆方向の画像間解析に基づく前記評価情報とに基づいて、順方向または逆方向のいずれの方向の画像間解析が有効であるかを判定するステップと、
前記判定結果に基づいて前記蓄積画像列管理手段に蓄積された前記解析対象画像列のうち、少なくとも1枚の静止画像を抽出するステップと、
抽出された前記静止画像に対し所定の超解像拡大処理を行い高精細な静止画像を生成するステップと、
を有する画像処理方法。
An image processing method for extracting at least one still image from a moving image composed of a plurality of continuous image sequences,
Accumulating a predetermined number of input image sequences, specifying and supplying an analysis target image sequence;
Obtaining the analysis object image sequence, performing time-to-image analysis in the forward direction, and generating evaluation information based on the image analysis in the forward direction;
Obtaining the analysis target image sequence, performing an inter-image analysis in a reverse direction, and generating evaluation information based on the reverse inter-image analysis;
Based on the evaluation information based on the forward inter-image analysis and the evaluation information based on the reverse inter-image analysis, whether the inter-image analysis in the forward direction or the reverse direction is effective. A determining step;
Extracting at least one still image from the analysis target image sequence stored in the stored image sequence management means based on the determination result;
Performing a predetermined super-resolution enlargement process on the extracted still image to generate a high-definition still image;
An image processing method.
複数の連続した画像列により構成される動画像から、少なくとも1枚の静止画像を抽出する画像処理方法をコンピュータに実現させるための画像処理プログラムであって、
入力される画像列を所定枚数分蓄積し、解析対象画像列の特定および供給を行うステップと、
前記解析対象画像列を取得し、時間が順方向の画像間解析を行い、順方向の画像間解析に基づく評価情報を生成するステップと、
前記解析対象画像列を取得し、時間が逆方向の画像間解析を行い、逆方向の画像間解析に基づく評価情報を生成するステップと、
前記順方向の画像間解析に基づく前記評価情報と、前記逆方向の画像間解析に基づく前記評価情報とに基づいて、順方向または逆方向のいずれの方向の画像間解析が有効であるかを判定するステップと、
前記判定結果に基づいて前記蓄積画像列管理手段に蓄積された前記解析対象画像列のうち、少なくとも1枚の静止画像を抽出するステップと、
抽出された前記静止画像に対し所定の超解像拡大処理を行い高精細な静止画像を生成するステップと、
をコンピュータに実現させる画像処理プログラム。
An image processing program for causing a computer to implement an image processing method for extracting at least one still image from a moving image composed of a plurality of continuous image sequences,
Accumulating a predetermined number of input image sequences, specifying and supplying an analysis target image sequence;
Obtaining the analysis object image sequence, performing time-to-image analysis in the forward direction, and generating evaluation information based on the image analysis in the forward direction;
Obtaining the analysis target image sequence, performing an inter-image analysis in a reverse direction, and generating evaluation information based on the reverse inter-image analysis;
Based on the evaluation information based on the forward inter-image analysis and the evaluation information based on the reverse inter-image analysis, whether the inter-image analysis in the forward direction or the reverse direction is effective. A determining step;
Extracting at least one still image from the analysis target image sequence stored in the stored image sequence management means based on the determination result;
Performing a predetermined super-resolution enlargement process on the extracted still image to generate a high-definition still image;
An image processing program for realizing a computer.
JP2008028824A 2008-02-08 2008-02-08 Image processing apparatus, image processing method, and image processing program Active JP4894018B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008028824A JP4894018B2 (en) 2008-02-08 2008-02-08 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008028824A JP4894018B2 (en) 2008-02-08 2008-02-08 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2009188891A true JP2009188891A (en) 2009-08-20
JP4894018B2 JP4894018B2 (en) 2012-03-07

Family

ID=41071659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008028824A Active JP4894018B2 (en) 2008-02-08 2008-02-08 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP4894018B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011099648A1 (en) * 2010-02-12 2011-08-18 国立大学法人東京工業大学 Image processing device
WO2011099647A1 (en) * 2010-02-12 2011-08-18 国立大学法人東京工業大学 Image processing device
US8472745B2 (en) 2010-02-16 2013-06-25 Fujifilm Corporation Image processing method, apparatus, program, and recording medium for the same
JP2017224108A (en) * 2016-06-14 2017-12-21 国立研究開発法人理化学研究所 Data restoration device, microscopic system, and data restoration method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006180173A (en) * 2004-12-22 2006-07-06 Victor Co Of Japan Ltd Device and method for encoding dynamic image, and device and method for decoding dynamic image
JP2006245677A (en) * 2005-02-28 2006-09-14 Toshiba Corp Image processor, image processing method, and image processing program
JP2007000205A (en) * 2005-06-21 2007-01-11 Sanyo Electric Co Ltd Image processing apparatus, image processing method, and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006180173A (en) * 2004-12-22 2006-07-06 Victor Co Of Japan Ltd Device and method for encoding dynamic image, and device and method for decoding dynamic image
JP2006245677A (en) * 2005-02-28 2006-09-14 Toshiba Corp Image processor, image processing method, and image processing program
JP2007000205A (en) * 2005-06-21 2007-01-11 Sanyo Electric Co Ltd Image processing apparatus, image processing method, and image processing program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011099648A1 (en) * 2010-02-12 2011-08-18 国立大学法人東京工業大学 Image processing device
WO2011099647A1 (en) * 2010-02-12 2011-08-18 国立大学法人東京工業大学 Image processing device
JP2011165043A (en) * 2010-02-12 2011-08-25 Tokyo Institute Of Technology Image processing device
JP2011165045A (en) * 2010-02-12 2011-08-25 Tokyo Institute Of Technology Image processing device
US8861895B2 (en) 2010-02-12 2014-10-14 Olympus Corporation Image processing apparatus
US8873889B2 (en) 2010-02-12 2014-10-28 Tokyo Institute Of Technology Image processing apparatus
US8472745B2 (en) 2010-02-16 2013-06-25 Fujifilm Corporation Image processing method, apparatus, program, and recording medium for the same
JP2017224108A (en) * 2016-06-14 2017-12-21 国立研究開発法人理化学研究所 Data restoration device, microscopic system, and data restoration method
WO2017217325A1 (en) * 2016-06-14 2017-12-21 国立研究開発法人理化学研究所 Data recovery device, microscope system, and data recovery method
US10866400B2 (en) 2016-06-14 2020-12-15 Riken Data recovery device, microscope system, and data recovery method

Also Published As

Publication number Publication date
JP4894018B2 (en) 2012-03-07

Similar Documents

Publication Publication Date Title
JP5385969B2 (en) Method and apparatus for super-resolution of images
KR100870115B1 (en) Method for forming image using block matching and motion compensated interpolation
JP4666784B2 (en) Video sequence key frame extraction method and video sequence key frame extraction device
JP4991712B2 (en) Digital image processing apparatus, processing method, and computer program product
JP3538055B2 (en) Motion vector detection device
KR101134668B1 (en) Image generation method, device, its program and recording medium with program recorded therein
JPH10285602A (en) Dynamic sprite for encoding video data
JP4564564B2 (en) Moving picture reproducing apparatus, moving picture reproducing method, and moving picture reproducing program
JP2009147807A (en) Image processing apparatus
JP2014511054A (en) Coding method and image coding apparatus for compressing image sequence
WO2003077549A1 (en) Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data
US20100182511A1 (en) Image Processing
JP5844745B2 (en) Method and apparatus for reducing vector quantization error through patch shifting
JP4894018B2 (en) Image processing apparatus, image processing method, and image processing program
KR101538313B1 (en) Block based image Registration for Super Resolution Image Reconstruction Method and Apparatus
JP2010232734A (en) Image encoding apparatus, and image encoding method
JP2008294950A (en) Image processing method and device, and electronic device with the same
Gangal et al. An improved motion-compensated restoration method for damaged color motion picture films
JP2010250611A (en) Image processor, image processing method and recording medium
JP4686200B2 (en) Image conversion method and apparatus
JP2004064518A (en) Moving image encoding method and device and its computer program
US9549205B2 (en) Method and device for encoding video
JP5012521B2 (en) Image processing apparatus, image processing method, and image processing program
KR100436593B1 (en) Global motion compensation apparatus and method for detecting a motion of an object
JP2009004919A (en) Motion vector processing device, motion vector detecting method, motion vector detecting program, and recording medium with the program recorded therein

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111208

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4894018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3