JP2005160015A - Image processing unit, method, and program - Google Patents

Image processing unit, method, and program Download PDF

Info

Publication number
JP2005160015A
JP2005160015A JP2004124271A JP2004124271A JP2005160015A JP 2005160015 A JP2005160015 A JP 2005160015A JP 2004124271 A JP2004124271 A JP 2004124271A JP 2004124271 A JP2004124271 A JP 2004124271A JP 2005160015 A JP2005160015 A JP 2005160015A
Authority
JP
Japan
Prior art keywords
motion vector
pixel
unit
correction
target pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004124271A
Other languages
Japanese (ja)
Other versions
JP4539152B2 (en
JP2005160015A5 (en
Inventor
Shinichiro Gomi
信一郎 五味
Toru Nishi
亨 西
Kazuki Yokoyama
一樹 横山
Mitsuyasu Asano
光康 浅野
Masami Ogata
昌美 緒形
Kazuhiko Ueda
和彦 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004124271A priority Critical patent/JP4539152B2/en
Priority to EP05250938A priority patent/EP1589763A2/en
Priority to US11/065,523 priority patent/US20050232356A1/en
Priority to KR1020050016135A priority patent/KR101098723B1/en
Priority to CNB2005100741442A priority patent/CN100440977C/en
Publication of JP2005160015A publication Critical patent/JP2005160015A/en
Publication of JP2005160015A5 publication Critical patent/JP2005160015A5/ja
Application granted granted Critical
Publication of JP4539152B2 publication Critical patent/JP4539152B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Image Analysis (AREA)
  • Picture Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make it possible to easily detect a motion vector taking harmony with the ambient. <P>SOLUTION: A histogram part 35 determines a motion vector candidate with the highest frequency out of motion vector candidates in an attention pixel and respective surrounding pixels supplied from a template matching part 34 as a motion vector in the attention pixel, and supplies it to a motion vector correction part 36. The motion vector correction part 36 evaluates reliability of the motion vector supplied from the histogram part 35 based on a luminance slope of surrounding pixels of the attention pixel detected by the luminance slope detection part 33 and a control signal which is supplied from the template matching part 34, and orders to execute correction or not. If the unit evaluates that the reliability of the motion vector is low, the unit corrects the motion vector. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、周囲と調和の取れた動きベクトルを容易に検出することができる、画像処理装置および方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program that can easily detect a motion vector that is in harmony with the surroundings.

動画像の表示装置として、従来、CRT(Cathode Ray Tub)が普及しているが、近年、液晶型表示装置(例えば、特許文献1参照)の普及も著しい。   Conventionally, a CRT (Cathode Ray Tub) has been widely used as a moving image display device, but in recent years, a liquid crystal display device (see, for example, Patent Document 1) has also become widespread.

CRTは、動画像を構成する複数のフレームのうちの所定の1つの表示が指示されると、内蔵する電子銃を、CRTの画面を構成する複数の水平ライン(走査線)のそれぞれに沿って順次走査させることで、指示されたフレーム(以下、表示が指示されたフレームを、表示対象フレームと称する)を画面に表示させる。   When the display of a predetermined one of a plurality of frames constituting a moving image is instructed, the CRT moves the built-in electron gun along each of a plurality of horizontal lines (scanning lines) constituting the CRT screen. By sequentially scanning, the instructed frame (hereinafter, the frame instructed to display is referred to as a display target frame) is displayed on the screen.

従って、表示対象フレームを構成する複数の画素のそれぞれに注目すると、複数の画素のそれぞれは、時間方向においてインパルス状に表示される(電子銃が走査して来て、対応する位置に来た瞬間のみ表示される)ことになる。なお、以下、このようなCRTと同様の表示方式を採用する表示装置を総称して、インパルス型表示装置と称する。   Accordingly, when attention is paid to each of the plurality of pixels constituting the display target frame, each of the plurality of pixels is displayed in an impulse shape in the time direction (the moment when the electron gun scans and reaches the corresponding position) Will be displayed only). Hereinafter, display devices that employ a display method similar to that of the CRT are collectively referred to as an impulse display device.

これに対して、液晶型表示装置は、動画像を構成する複数のフレームのうちの所定の1つ(表示対象フレーム)の表示が指示されてから、次のフレームの表示が指示されるまで、その画面を構成する全ての液晶の表示を保持させることで、表示対象フレームを画面に表示させる。   On the other hand, the liquid crystal display device is instructed to display a predetermined one (display target frame) of a plurality of frames constituting a moving image until a display of the next frame is instructed. The display target frame is displayed on the screen by holding all the liquid crystal displays constituting the screen.

詳細には、例えば、1つの液晶に1つの画素が対応付けられているとする。この場合、フレームの表示の指示として、その表示対象フレームを構成する各画素の画素値のそれぞれが液晶型表示装置に指示される。すると、液晶型表示装置は、その画面を構成する各液晶(各画素のそれぞれに対応する各液晶)のそれぞれに対して、指示された画素値に対応するレベルの電圧を印加する。これにより、各液晶のそれぞれは、印加された電圧に応じた光を出力する。即ち、所定の液晶から出力される光のレベルは、その液晶に印加された電圧のレベルに対応する。   Specifically, for example, it is assumed that one pixel is associated with one liquid crystal. In this case, as an instruction to display a frame, each pixel value of each pixel constituting the display target frame is instructed to the liquid crystal display device. Then, the liquid crystal display device applies a voltage of a level corresponding to the instructed pixel value to each liquid crystal (each liquid crystal corresponding to each pixel) constituting the screen. Thereby, each liquid crystal outputs light according to the applied voltage. That is, the level of light output from a predetermined liquid crystal corresponds to the level of voltage applied to the liquid crystal.

その後、少なくとも次のフレームの表示が指示されるまでの間、各液晶のそれぞれには同一レベルの電圧が印加され続けるので、各液晶のそれぞれは一定レベルの光を出力し続ける。即ち、各液晶のそれぞれには、指示された画素値を有する画素が表示され続ける。   Thereafter, at least until the display of the next frame is instructed, the same level of voltage is continuously applied to each of the liquid crystals, so that each of the liquid crystals continues to output a certain level of light. That is, each liquid crystal continues to display pixels having the designated pixel value.

そして、次のフレームの表示が指示されて、所定の画素の画素値の変更が必要となった場合、その画素に対応する液晶には、変更された画素値に対応するレベルの電圧が印加されるので(印加される電圧のレベルが変化するので)、その液晶の出力レベル(光のレベル)も変化することになる。   When the display of the next frame is instructed and the pixel value of a predetermined pixel needs to be changed, the voltage corresponding to the changed pixel value is applied to the liquid crystal corresponding to the pixel. Therefore (because the level of the applied voltage changes), the output level (light level) of the liquid crystal also changes.

このように、液晶型表示装置は、CRT等のインパルス型表示装置とは異なる表示方式を採用しているので、インパルス型表示装置と比較して、設置スペースが少なくて済む、消費電力が少ない、および、歪みが生じにくいといった特長を有している。
特開2002−219811号公報
Thus, since the liquid crystal display device employs a display method different from the impulse display device such as a CRT, the installation space is small and the power consumption is small compared to the impulse display device. And it has the feature that distortion hardly occurs.
JP 2002-219811 A

しかしながら、液晶型表示装置は、動画像を表示する場合、インパルス型表示装置と比較して動きボケの発生頻度が多いという第1の課題がある。   However, the liquid crystal display device has a first problem in that when moving images are displayed, motion blur is generated more frequently than the impulse display device.

従来、この第1の課題の発生、即ち、液晶型表示装置における動きボケの発生は、液晶の応答速度の遅さが原因であると考えられていた。即ち、液晶型表示装置では、各液晶のそれぞれの出力レベルが、指示された目標レベル(例えば、1つの液晶に1つの画素が対応付けられている場合、指示された画素値に対応するレベル)に到達するまでに時間がかかるため、動きボケが発生してしまうと考えられていた。   Conventionally, the occurrence of the first problem, that is, the occurrence of motion blur in a liquid crystal display device, was considered to be caused by the slow response speed of the liquid crystal. In other words, in the liquid crystal display device, the output level of each liquid crystal is the instructed target level (for example, when one pixel is associated with one liquid crystal, the level corresponding to the instructed pixel value). Since it takes time to reach, it was thought that motion blur would occur.

そこで、この第1の課題を解決するために、即ち、液晶型表示装置における動きボケの発生を抑制するために、特許文献1には次のような手法が開示されている。即ち、特許文献1に開示されている手法とは、各液晶(各画素)のそれぞれに対して、目標レベルよりも高いレベルの電圧を印加する手法(以下、オーバドライブ方式と称する)である。換言すると、オーバドライブ方式は、目標レベルとして、いままでのレベルよりも高いレベルを設定する手法、即ち、目標レベルを補正する手法である。   Therefore, in order to solve the first problem, that is, to suppress the occurrence of motion blur in the liquid crystal display device, Patent Document 1 discloses the following technique. That is, the technique disclosed in Patent Document 1 is a technique (hereinafter referred to as an overdrive method) in which a voltage higher than a target level is applied to each liquid crystal (each pixel). In other words, the overdrive method is a method of setting a target level higher than the conventional level, that is, a method of correcting the target level.

しかしながら、このようなオーバドライブ方式を適用しても、動きボケの発生を依然として抑制することができない状況であった。換言すると、液晶型表示装置における、動画像の動きボケを抑制させる手法として効果的な手法が存在せず、この第1の課題を解決することができない状況であった。   However, even when such an overdrive method is applied, the occurrence of motion blur cannot be suppressed. In other words, there is no effective technique for suppressing the motion blur of moving images in the liquid crystal display device, and the first problem cannot be solved.

そこで、本願出願人は、このような状況に鑑みて、従来のオーバドライブ方式を適用しても第1の課題を解決することができない要因、即ち、液晶型表示装置における動きボケの発生を抑制することができない要因について解析し、その解析結果に基づいて、第1の課題を解決することが可能な画像処理装置を発明した。なお、この発明は、本願出願人により先に出願されている(特願2003−270965号)。   Therefore, in view of such circumstances, the applicant of the present application suppresses the factor that cannot solve the first problem even when the conventional overdrive method is applied, that is, the occurrence of motion blur in the liquid crystal display device. The factor which cannot be analyzed was analyzed, and the image processing apparatus which can solve the first problem based on the analysis result was invented. This invention has been filed earlier by the applicant of the present application (Japanese Patent Application No. 2003-270965).

即ち、上述したように、液晶型表示装置において、動きボケが発生する原因の1つは液晶(画素)の応答速度が遅いことであり、オーバドライブ方式はこの原因を考慮した手法である。   That is, as described above, in the liquid crystal display device, one of the causes of motion blur is the slow response speed of the liquid crystal (pixels), and the overdrive method is a method that takes this cause into consideration.

しかしながら、液晶型表示装置における動きボケの発生は、液晶の応答の遅さだけが原因ではなく、人間(液晶型表示装置を見るユーザ)の目が有する追従視と称される特性もその原因の1つである。それにも関わらず、従来のオーバドライブ方式では追従視について全く考慮しておらず、このため、動きボケの発生を抑制することができないでいる、と本願出願人は解析した。なお、追従視とは、網膜残像とも称される特性であって、物体が動いている場合、人間の目が無意識のうちにその物体に追従してしまう特性を指す。   However, the occurrence of motion blur in the liquid crystal display device is not only due to the slow response of the liquid crystal, but also due to a characteristic called human vision (a user viewing the liquid crystal display device) called “following vision”. One. Nevertheless, the Applicant has analyzed that the conventional overdrive method does not consider tracking vision at all, and thus it is impossible to suppress the occurrence of motion blur. Note that the tracking vision is a characteristic also called a retina afterimage, and refers to a characteristic that the human eye unconsciously follows the object when the object is moving.

換言すると、人間の目は追従視という特性を有しているので、従来のオーバドライブ方式のように、動いているオブジェクトを表示する液晶(画素)の全ての画素値(それに対応する、液晶に印加される電圧のレベル)を補正しても、即ち、液晶の出力レベルの時間応答だけを改善しても、動きボケを解消することはできない、と本願出願人は解析した。   In other words, since the human eye has the characteristic of following vision, all the pixel values of the liquid crystal (pixel) that displays the moving object (corresponding to the liquid crystal corresponding thereto) as in the conventional overdrive method. The present applicant has analyzed that the motion blur cannot be eliminated even if the applied voltage level is corrected, that is, only the time response of the output level of the liquid crystal is improved.

そこで、上述したように、本願出願人は、液晶の応答の遅さのみならず追従視も考慮した画像処理を実行する画像処理装置を発明した。   Therefore, as described above, the applicant of the present application has invented an image processing apparatus that executes image processing in consideration of not only the slow response of the liquid crystal but also the follow-up vision.

即ち、この本願出願人により発明された画像処理装置は、表示対象フレームを構成する各画素のうちの処理の対象として注目する画素(以下、注目画素と称する)が、動きのあるオブジェクトのエッジ部分に対応する場合、注目画素の動きベクトル(方向と大きさ)に応じて注目画素の画素値を補正することで、追従視による動きボケの抑制を可能にしている。   In other words, the image processing apparatus invented by the applicant of the present application uses an edge portion of an object in which a pixel of interest (hereinafter, referred to as a pixel of interest) as a processing target among pixels constituting a display target frame is a moving object. , By correcting the pixel value of the target pixel according to the motion vector (direction and size) of the target pixel, it is possible to suppress motion blur due to follow-up vision.

しかしながら、このとき、注目画素の動きベクトルとして、注目画素の周囲の画素の動きベクトルに対して異質なベクトルが使用されてしまうと(周囲と調和の取れた動きベクトルが使用されないと)、最終的に得られる補正画像(表示対象フレーム)において、注目画素の画素値(補正値)も、その周囲の画素の画素値(補正値)に対して異質な値となってしまうという第2の課題が発生してしまう。換言すると、最終的に得られる補正画像の注目画素が、その周囲の他の画素に対して異質な画素となってしまい、画質の低下が生じてしまうという第2の課題が発生してしまう。   However, at this time, if a vector that is different from the motion vector of the surrounding pixels of the pixel of interest is used as the motion vector of the pixel of interest (if a motion vector that is in harmony with the surroundings is not used), the final The second problem is that the pixel value (correction value) of the pixel of interest also becomes a different value from the pixel values (correction values) of the surrounding pixels in the corrected image (display target frame) obtained in the above. Will occur. In other words, the pixel of interest in the finally obtained corrected image becomes a pixel that is different from the surrounding pixels, and a second problem occurs that the image quality is degraded.

以上、液晶型表示装置が有する課題として説明したが、このような第1の課題と第2の課題は、液晶型表示装置のみならず次の特徴を有する表示装置全体が有する課題である。即ち、第1の課題と第2の課題を有する表示装置の特徴とは、目標レベルが指示されてから、出力レベルがその目標レベルに到達するまでに、所定の時間を要する表示素子を複数個有し、複数の表示素子のそれぞれが、フレームまたはフィールドを構成する画素のうちの所定の1つの少なくとも一部分に対応付けられている、という特徴である。   Although the liquid crystal display device has been described as a problem, the first problem and the second problem are problems not only for the liquid crystal display device but also for the entire display device having the following characteristics. That is, the feature of the display device having the first problem and the second problem is that a plurality of display elements that require a predetermined time from when the target level is designated until the output level reaches the target level. And each of the plurality of display elements is associated with at least a part of a predetermined one of the pixels constituting the frame or the field.

なお、このような特徴を有する表示装置においては、所定のフレームまたはフィールドの表示が指示されてから、所定の時間(例えば、次のフレームまたはフィールドの表示が指示されるまでの時間)の間、画面を構成する各表示素子のうちの少なくとも一部の表示をホールドさせる表示方式が採用されていることが多い。なお、以下、液晶型表示装置等、このような表示方式を採用する表示装置をまとめて、ホールド型表示装置と称する。また、ホールド型表示装置の画面を構成する各表示素子(液晶型表示装置の場合には液晶)のそれぞれの表示の形態を、ホールド表示と称する。即ち、第1の課題と第2の課題は、ホールド型表示装置が有する課題であるとも言える。   In the display device having such a feature, for a predetermined time (for example, a time until the display of the next frame or field is instructed) after the display of the predetermined frame or field is instructed, In many cases, a display method for holding at least a part of the display elements constituting the screen is employed. Hereinafter, display devices that employ such a display method, such as a liquid crystal display device, are collectively referred to as a hold-type display device. The display form of each display element (liquid crystal in the case of a liquid crystal display device) constituting the screen of the hold type display device is referred to as a hold display. That is, it can be said that the first problem and the second problem are problems that the hold type display device has.

本発明は、このような状況に鑑みてなされたものであり、周囲と調和の取れた動きベクトルを容易に検出することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to easily detect a motion vector in harmony with the surroundings.

本発明の第1の画像処理装置は、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、第1のアクセスユニットと、第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、注目画素における動きベクトル候補を生成する候補生成手段と、候補生成手段により生成された注目画素とその周辺の画素のそれぞれにおける動きベクトル候補のうちの頻度が最も高い動きベクトル候補を、注目画素における動きベクトルとして決定する動きベクトル決定手段と、注目画素周辺の輝度の変化の度合を演算する輝度変化演算手段と、輝度変化演算手段と候補生成手段との処理結果に基づいて、動きベクトル決定手段により決定された動きベクトルの信頼度を評価し、動きベクトルの信頼度が低いと評価した場合、動きベクトルを補正する補正手段とを備えることを特徴とする。   The first image processing apparatus according to the present invention sets a predetermined pixel among the pixels constituting the first access unit as a target pixel, the first access unit, and the second just before the first access unit. The frequency of the motion vector candidates in each of the target pixel generated by the candidate generation unit and its surrounding pixels is the highest. Processing results of a motion vector determination unit that determines a high motion vector candidate as a motion vector in the target pixel, a luminance change calculation unit that calculates the degree of change in luminance around the target pixel, a luminance change calculation unit, and a candidate generation unit Based on the above, the reliability of the motion vector determined by the motion vector determination means is evaluated, and if the reliability of the motion vector is low If you value, characterized in that it comprises a correcting means for correcting the motion vector.

補正手段は、輝度変化演算手段により演算された輝度の変化の度合が閾値未満の場合、動きベクトルの信頼度が低いと評価して、動きベクトルを補正するようにすることができる。   The correction means can correct the motion vector by evaluating that the reliability of the motion vector is low when the degree of change in brightness calculated by the brightness change calculation means is less than a threshold value.

候補生成手段は、注目画素の配置位置に対応する第2のアクセスユニット内の位置に配置される第1の画素の対応画素として、第1のアクセスユニットから第2の画素を検出し、注目画素を起点とし第2の画素を終点とするベクトルを、注目画素における動きベクトル候補として生成するようにすることができる。   The candidate generating means detects the second pixel from the first access unit as the corresponding pixel of the first pixel arranged at the position in the second access unit corresponding to the arrangement position of the target pixel, and A vector starting from the second pixel and ending at the second pixel can be generated as a motion vector candidate at the target pixel.

候補生成手段はさらに、第1のアクセスユニットの中に対応画素の候補が複数個存在すると判定した場合、または、第2の画素が対応画素であることの信頼度が低いと判定した場合、動きベクトルの補正指令を示す第1の情報を補正手段に提供し、補正手段は、候補生成手段から第1の情報が提供された場合、動きベクトルの信頼度が低いと評価して、動きベクトルを補正するようにすることができる。   If the candidate generating means further determines that there are a plurality of corresponding pixel candidates in the first access unit, or if it is determined that the reliability of the second pixel being a corresponding pixel is low, First information indicating a vector correction command is provided to the correction unit. When the first information is provided from the candidate generation unit, the correction unit evaluates that the reliability of the motion vector is low and determines the motion vector. It can be corrected.

候補生成手段はさらに、複数の対応画素の候補の中に注目画素自身が含まれている場合、そのことを示す第2の情報を補正手段に提供し、補正手段は、候補生成手段から第2の情報が提供された場合、動きベクトルの信頼度が低いと評価して、動きベクトルを0ベクトルに補正するようにすることができる。   The candidate generation means further provides the correction means with second information indicating that, when the target pixel itself is included in the plurality of corresponding pixel candidates, the correction means receives the second information from the candidate generation means. If this information is provided, it can be evaluated that the reliability of the motion vector is low, and the motion vector can be corrected to a zero vector.

本発明の第1の画像処理方法は、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、第1のアクセスユニットと、第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、注目画素における動きベクトル候補を生成する候補生成ステップと、候補生成ステップの処理により生成された注目画素とその周辺の画素のそれぞれにおける動きベクトル候補のうちの頻度が最も高い動きベクトル候補を、注目画素における動きベクトルとして決定する動きベクトル決定ステップと、注目画素周辺の輝度の変化の度合を演算する輝度変化演算ステップと、輝度変化演算ステップと候補生成ステップとの処理結果に基づいて、動きベクトル決定ステップの処理により決定された動きベクトルの信頼度を評価し、動きベクトルの信頼度が低いと評価した場合、動きベクトルを補正する補正ステップとを含むことを特徴とする。   According to the first image processing method of the present invention, a predetermined pixel among the pixels constituting the first access unit is set as a target pixel, and the first access unit and the second just before the first access unit are set. A candidate generation step for generating a motion vector candidate at the target pixel by comparing the access unit with the access unit, and the frequency of the motion vector candidates at each of the target pixel generated by the processing of the candidate generation step and its surrounding pixels A motion vector determination step for determining a motion vector candidate having the highest value as a motion vector at the target pixel, a luminance change calculation step for calculating the degree of change in luminance around the target pixel, a luminance change calculation step, and a candidate generation step. The reliability of the motion vector determined by the processing of the motion vector determination step based on the processing result Evaluates, when assessed to be low reliability of the motion vector, characterized in that it comprises a step of correcting a motion vector.

本発明の第1のプログラムは、コンピュータに実行させるプログラムであって、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、注目画素を単位とする画像処理をコンピュータに実行させるプログラムであって、第1のアクセスユニットと、第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、注目画素における動きベクトル候補を生成する候補生成ステップと、候補生成ステップの処理により生成された注目画素とその周辺の画素のそれぞれにおける動きベクトル候補のうちの頻度が最も高い動きベクトル候補を、注目画素における動きベクトルとして決定する動きベクトル決定ステップと、注目画素周辺の輝度の変化の度合を演算する輝度変化演算ステップと、輝度変化演算ステップと候補生成ステップとの処理結果に基づいて、動きベクトル決定ステップの処理により決定された動きベクトルの信頼度を評価し、動きベクトルの信頼度が低いと評価した場合、動きベクトルを補正する補正ステップとを含むことを特徴とする。   A first program according to the present invention is a program to be executed by a computer, wherein a predetermined pixel among pixels constituting the first access unit is set as a target pixel, and image processing in units of the target pixel is performed by the computer. A candidate generation step of generating a motion vector candidate at the pixel of interest by comparing the first access unit and the second access unit immediately before the first access unit, A motion vector determination step for determining a motion vector candidate having the highest frequency among motion vector candidates in each of the target pixel and the surrounding pixels generated by the processing of the generation step as a motion vector in the target pixel; Brightness change calculation step to calculate the degree of brightness change of Based on the processing results of the step and the candidate generation step, the reliability of the motion vector determined by the processing of the motion vector determination step is evaluated, and if the reliability of the motion vector is evaluated to be low, the correction for correcting the motion vector And a step.

本発明の第1の画像処理装置および方法、並びに、第1のプログラムにおいては、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定され、注目画素を単位とする画像処理が実行される。即ち、第1のアクセスユニットと、第1のアクセスユニットの直前の第2のアクセスユニットとが比較され、その比較結果に基づいて注目画素における動きベクトル候補が生成される。このような動きベクトル候補は、注目画素のみならずその周辺の画素のそれぞれについても生成される。次に、このようにして生成された注目画素とその周辺の画素のそれぞれにおける動きベクトル候補のうちの頻度が最も高い動きベクトル候補が、注目画素における動きベクトルとして決定される。そして、注目画素周辺の輝度の変化の度合と、動きベクトル候補が生成された際の処理結果とに基づいて動きベクトルの信頼度が評価され、動きベクトルの信頼度が低いと評価された場合、動きベクトルが補正される。   In the first image processing apparatus and method and the first program of the present invention, an image in which a predetermined pixel among the pixels constituting the first access unit is set as a target pixel, and the target pixel is a unit. Processing is executed. That is, the first access unit and the second access unit immediately before the first access unit are compared, and a motion vector candidate at the target pixel is generated based on the comparison result. Such motion vector candidates are generated not only for the pixel of interest but also for each of the surrounding pixels. Next, the motion vector candidate having the highest frequency among the motion vector candidates in the pixel of interest generated in this manner and the surrounding pixels is determined as the motion vector in the pixel of interest. Then, when the reliability of the motion vector is evaluated based on the degree of change in luminance around the pixel of interest and the processing result when the motion vector candidate is generated, and the reliability of the motion vector is evaluated as low, The motion vector is corrected.

本発明の第2の画像処理装置は、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、第1のアクセスユニットと、第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、注目画素における動きベクトル候補を生成する候補生成手段と、候補生成手段により生成された注目画素とその周辺の画素のそれぞれにおける動きベクトル候補のうちの頻度が最も高い動きベクトル候補を、注目画素における動きベクトルとして決定する動きベクトル決定手段と、動きベクトル決定手段により決定された動きベクトルを補正する補正手段と、補正手段により補正された動きベクトルを利用して、所定の処理を実行する処理実行手段とを備え、補正手段は、処理実行手段の所定の処理の特徴に基づく第1の補正方法を利用して、動きベクトルを補正することを特徴とする。   The second image processing apparatus of the present invention sets a predetermined pixel of the pixels constituting the first access unit as a target pixel, and the first access unit and the second just before the first access unit. The frequency of the motion vector candidates in each of the target pixel generated by the candidate generation unit and its surrounding pixels is the highest. Using a motion vector determination unit that determines a high motion vector candidate as a motion vector at the target pixel, a correction unit that corrects the motion vector determined by the motion vector determination unit, and a motion vector corrected by the correction unit, Process executing means for executing a predetermined process, and the correcting means is based on characteristics of the predetermined process of the process executing means. By using the first correction method, and corrects the motion vector.

注目画素周辺の輝度の変化の度合を演算する輝度変化演算手段をさらに設け、補正手段は、さらに、輝度変化演算手段と候補生成手段との処理結果に基づいて、動きベクトル決定手段により決定された動きベクトルの信頼度を評価し、動きベクトルの信頼度が低いと評価した場合、第1の補正方法により補正された動きベクトルを、第2の補正方法によりさらに補正するようにすることができる。   Further provided is a luminance change calculating means for calculating the degree of luminance change around the target pixel, and the correcting means is further determined by the motion vector determining means based on the processing results of the luminance change calculating means and the candidate generating means. When the reliability of the motion vector is evaluated and it is determined that the reliability of the motion vector is low, the motion vector corrected by the first correction method can be further corrected by the second correction method.

本発明の第2の情報処理装置の第2の情報処理方法は、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、第1のアクセスユニットと、第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、注目画素における動きベクトル候補を生成する候補生成ステップと、候補生成ステップの処理により生成された注目画素とその周辺の画素のそれぞれにおける動きベクトル候補のうちの頻度が最も高い動きベクトル候補を、注目画素における動きベクトルとして決定する動きベクトル決定ステップと、動きベクトル決定ステップの処理により決定された動きベクトルを補正する補正ステップと、補正ステップの処理により補正された動きベクトルを利用した所定の処理を第2の情報処理装置が実行することを制御する処理制御ステップとを含み、補正ステップは、処理制御ステップの制御により情報処理装置が実行する所定の処理の特徴に基づく第1の補正方法を利用して、動きベクトルを補正するステップを少なくとも含むことを特徴とする。   According to a second information processing method of the second information processing apparatus of the present invention, a predetermined pixel among pixels constituting the first access unit is set as a target pixel, and the first access unit, By comparing with the second access unit immediately before the access unit, a candidate generation step for generating a motion vector candidate at the target pixel, and at each of the target pixel generated by the processing of the candidate generation step and its surrounding pixels A motion vector determination step for determining a motion vector candidate having the highest frequency among the motion vector candidates as a motion vector in the target pixel, a correction step for correcting the motion vector determined by the processing of the motion vector determination step, and a correction step Predetermined processing using the motion vector corrected by the processing in the second information processing apparatus A correction control step that corrects the motion vector using a first correction method based on characteristics of a predetermined process executed by the information processing apparatus under the control of the process control step. Including at least the step of:

本発明の第2のプログラムは、動画像を構成する複数のアクセスユニットのうちの所定の1つを処理対象として、処理対象のアクセスユニットを構成する各画素のそれぞれにおける動きベクトルを利用する所定の処理を実行する処理実行装置を制御するコンピュータに実行させるプログラムであって、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、第1のアクセスユニットと、第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、注目画素における動きベクトル候補を生成する候補生成ステップと、候補生成ステップの処理により生成された注目画素とその周辺の画素のそれぞれにおける動きベクトル候補のうちの頻度が最も高い動きベクトル候補を、注目画素における動きベクトルとして決定する動きベクトル決定ステップと、動きベクトル決定ステップの処理により決定された動きベクトルを補正する補正ステップと、補正ステップの処理により補正された動きベクトルを利用して所定の処理を処理実行装置が実行することを制御する処理制御ステップとを含み、補正ステップは、処理制御ステップの制御により処理実行装置が実行する所定の処理の特徴に基づく第1の補正方法を利用して、動きベクトルを補正するステップを少なくとも含むことを特徴とする。   The second program of the present invention uses a predetermined one of a plurality of access units constituting a moving image as a processing target, and uses a motion vector in each of the pixels constituting the processing target access unit. A program that is executed by a computer that controls a processing execution apparatus that executes processing, wherein a predetermined pixel among pixels constituting the first access unit is set as a target pixel, and the first access unit, A candidate generation step for generating a motion vector candidate at the pixel of interest by comparing with the second access unit immediately before the access unit, and each of the pixel of interest generated by the processing of the candidate generation step and its surrounding pixels The motion vector candidate with the highest frequency among the motion vector candidates in A motion vector determination step for determining as a vector, a correction step for correcting the motion vector determined by the processing of the motion vector determination step, and a predetermined processing using the motion vector corrected by the processing of the correction step A correction control step using a first correction method based on characteristics of a predetermined process executed by the process execution device under the control of the process control step. It includes at least a correcting step.

本発明の第2の情報処理装置および方法、並びに第2のプログラムにおいては、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定され、第1のアクセスユニットと、第1のアクセスユニットの直前の第2のアクセスユニットとが比較され、その比較の結果に基づいて、注目画素における動きベクトル候補が生成され、生成された注目画素とその周辺の画素のそれぞれにおける動きベクトル候補のうちの頻度が最も高い動きベクトル候補が、注目画素における動きベクトルとして決定され、決定された動きベクトルが補正されて、補正された動きベクトルを利用して所定の処理が実行される。このとき実行される所定の処理で利用される動きベクトルは、その所定の処理の特徴に基づく第1の補正方法を利用して補正された動きベクトルとされる。   In the second information processing apparatus and method and the second program of the present invention, a predetermined pixel among the pixels constituting the first access unit is set as a target pixel, and the first access unit, The second access unit immediately before one access unit is compared, a motion vector candidate at the target pixel is generated based on the comparison result, and the generated motion vector at each of the generated target pixel and its surrounding pixels The motion vector candidate having the highest frequency among the candidates is determined as a motion vector in the target pixel, the determined motion vector is corrected, and a predetermined process is performed using the corrected motion vector. The motion vector used in the predetermined process executed at this time is a motion vector corrected using the first correction method based on the feature of the predetermined process.

以上のごとく、本発明によれば、液晶型表示装置等のホールド型表示装置で発生する動きボケ(特に、人間の追従視に起因する動きボケ)を抑制する画像処理において利用される、注目画素の動きベクトルを検出することができる。特に、周囲と調和の取れた動きベクトルを容易に検出することができる。   As described above, according to the present invention, a pixel of interest used in image processing that suppresses motion blur (particularly motion blur caused by human follow-up) generated in a hold-type display device such as a liquid crystal display device. Motion vectors can be detected. In particular, it is possible to easily detect a motion vector in harmony with the surroundings.

以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Therefore, even if there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.

さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。   Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.

本発明によれば第1の画像処理装置が提供される。この第1の画像処理装置(例えば、図1の画像処理装置1のうちの動き検出部14であって、詳細な構成例は図2)は、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、前記第1のアクセスユニットと、前記第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、前記注目画素における動きベクトル候補を生成する候補生成手段(例えば、図2のテンプレートマッチング部34)と、前記候補生成手段により生成された前記注目画素とその周辺の画素のそれぞれにおける前記動きベクトル候補(例えば、図11の領域95内の各画素(枠)内のそれぞれの数値)のうちの頻度が最も高い前記動きベクトル候補(例えば、図12のヒストグラムの頻度が最も高い「+4」)を、前記注目画素における動きベクトルとして決定する動きベクトル決定手段(例えば、図2のヒストグラム部35)と、前記注目画素周辺の輝度の変化の度合(例えば、後述する輝度勾配であって、具体的には、例えば、後述する式(2)で示される値slope)を演算する輝度変化演算手段(例えば、図2の輝度勾配検出部33)と、前記輝度変化演算手段と前記候補生成手段との処理結果に基づいて、前記動きベクトル決定手段により決定された前記動きベクトルの信頼度を評価し、前記動きベクトルの信頼度が低いと評価した場合(例えば、後述する不等式(9)が成立するという第3の条件と、図2のテンプレートマッチング部34より供給される制御信号flagが「1」であるという第4の条件とのうちの少なくとも一方が満たされている場合)、前記動きベクトルを補正する補正手段(例えば、図2の動きベクトル補正部36であって、図13の動きベクトル補正部36Aまたは図19の動きベクトル補正部36C)とを備えることを特徴とする。   According to the present invention, a first image processing apparatus is provided. This first image processing apparatus (for example, the motion detection unit 14 in the image processing apparatus 1 in FIG. 1 and the detailed configuration example is shown in FIG. 2) is included in the pixels constituting the first access unit. A candidate for generating a motion vector candidate at the target pixel by setting a predetermined pixel as the target pixel and comparing the first access unit with the second access unit immediately before the first access unit. The motion vector candidates (for example, each pixel in the region 95 in FIG. 11) in the generation unit (for example, the template matching unit 34 in FIG. 2) and the pixel of interest generated by the candidate generation unit and the surrounding pixels, respectively. Among the motion vector candidates (for example, “+4” having the highest frequency in the histogram of FIG. 12) The motion vector determining means (for example, the histogram unit 35 in FIG. 2) that determines the motion vector in the eye pixel, and the degree of change in luminance around the target pixel (for example, a luminance gradient described later, specifically, For example, the processing result of the luminance change calculating means (for example, the luminance gradient detecting unit 33 in FIG. 2) for calculating a value slope expressed by equation (2) described later, the luminance change calculating means, and the candidate generating means On the basis of this, when the reliability of the motion vector determined by the motion vector determination means is evaluated and the reliability of the motion vector is evaluated to be low (for example, a third inequality (9) described later holds) When at least one of the condition and the fourth condition that the control signal flag supplied from the template matching unit 34 in FIG. 2 is “1” is satisfied) It said correcting means for correcting the motion vector (e.g., a motion vector correction unit 36 of FIG. 2, the motion vector correction unit 36C of the motion vector correction unit 36A or 19 in FIG. 13), characterized in that it comprises a.

この第1の画像処理装置の前記補正手段は、前記輝度変化演算手段により演算された前記輝度の変化の度合が閾値未満の場合(例えば、後述する不等式(9)が成立するという第3の条件を満たした場合)、前記動きベクトルの信頼度が低いと評価して、前記動きベクトルを補正することができる。   The correction unit of the first image processing apparatus may be configured such that a third condition that an inequality (9) described later is satisfied when the degree of change in luminance calculated by the luminance change calculation unit is less than a threshold value. ), The motion vector can be corrected by evaluating that the reliability of the motion vector is low.

この第1の画像処理装置の前記候補生成手段は、前記注目画素(例えば、図5の注目画素51)の配置位置に対応する前記第2のアクセスユニット内の位置(例えば、図5の位置i)に配置される第1の画素(例えば、図5の画素71)の対応画素として、前記第1のアクセスユニットから第2の画素(例えば、図5の探索範囲i-6乃至i+6のうちのいずれかの画素)を検出し、前記注目画素を起点とし前記第2の画素を終点とするベクトル(例えば、第2の画素として、図5の画素群73−(+6)の中心画素、即ち、配置位置i+6の画素が検出された場合、「+6」)を、前記注目画素における前記動きベクトル候補として生成することができる。   The candidate generation means of the first image processing apparatus is configured to select a position (for example, a position i in FIG. 5) in the second access unit corresponding to the arrangement position of the target pixel (for example, the target pixel 51 in FIG. 5). ) As the corresponding pixel of the first pixel (for example, the pixel 71 in FIG. 5), the second pixel (for example, the search range i-6 to i + 6 in FIG. 5) from the first access unit. Any one of the pixels) and a vector starting from the target pixel and ending at the second pixel (for example, as a second pixel, the center pixel of the pixel group 73-(+ 6) in FIG. That is, when the pixel at the arrangement position i + 6 is detected, “+6”) can be generated as the motion vector candidate in the target pixel.

この第1の画像処理装置の前記候補生成手段はさらに、前記第1のアクセスユニットの中に前記対応画素の候補が複数個存在すると判定した場合(例えば、図9に示されるように、探索位置i-1の画素と探索位置i+5の画素が対応画素の候補である場合であって、具体的には、例えば、後述する不等式(5)乃至不等式(7)の全てが成立するといった第1の条件が満たされる場合。なお、不等式(5)乃至不等式(7)の各パラメータは、図10参照)、または、検出した前記第2の画素の信頼度が低いと判定した場合(例えば、後述する不等式(8)が成立するといった第2の条件が満たされる場合。なお、不等式(8)のmin1は、図10参照)、前記動きベクトルの補正指令を示す第1の情報(後述するように、制御信号flagとして「1」)を前記補正手段に提供し、前記補正手段は、前記候補生成手段から前記第1の情報が提供された場合(図2のテンプレートマッチング部34より供給される制御信号flagが「1」であるという後述する第4の条件が満たされている場合)、前記動きベクトルの信頼度が低いと評価して、前記動きベクトルを補正することができる。   The candidate generating means of the first image processing apparatus further determines that there are a plurality of corresponding pixel candidates in the first access unit (for example, as shown in FIG. 9, the search position This is a case where the pixel at i-1 and the pixel at the search position i + 5 are candidates for the corresponding pixel. Specifically, for example, all of inequality (5) to inequality (7) described later hold. When the condition of 1 is satisfied, the parameters of inequality (5) to inequality (7) (see FIG. 10), or when the reliability of the detected second pixel is determined to be low (for example, When a second condition such that inequality (8) described later is satisfied is satisfied (min1 of inequality (8) is shown in FIG. 10), first information indicating the motion vector correction command (as described later) And “1” as the control signal flag) When the first information is provided from the candidate generation unit (the control signal flag supplied from the template matching unit 34 in FIG. 2 is “1”, which will be described later). If the fourth condition is satisfied), the motion vector can be corrected by evaluating that the reliability of the motion vector is low.

この第1の画像処理装置の前記候補生成手段はさらに、複数の前記対応画素の候補の中に前記注目画素自身が含まれている場合(例えば、図17に示されるように、2番目に小さいSAD、即ち、極小値min2に対応する探索位置pos2が、注目画素の配置位置iである場合)、そのことを示す第2の情報を前記補正手段に提供し、前記補正手段は、前記候補生成手段から前記第2の情報が提供された場合(後述する第5の条件が満たされた場合)、前記動きベクトルの信頼度が低いと評価して、前記動きベクトルを0ベクトルに補正することができる。   The candidate generation means of the first image processing apparatus further includes the second smallest pixel when the pixel of interest itself is included in a plurality of candidate corresponding pixels (for example, as shown in FIG. 17). SAD, that is, when the search position pos2 corresponding to the minimum value min2 is the arrangement position i of the pixel of interest), the correction means provides the correction means with the second information indicating that, and the correction means When the second information is provided from the means (when a fifth condition to be described later is satisfied), it is evaluated that the reliability of the motion vector is low, and the motion vector is corrected to a zero vector. it can.

本発明によれば、第1の画像処理方法が提供される。この第1の画像処理方法(例えば、図2の動き検出部14の画像処理方法)は、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、前記第1のアクセスユニットと、前記第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、前記注目画素における動きベクトル候補を生成する候補生成ステップ(例えば、図21のステップS22の処理)と、前記候補生成ステップの処理により生成された前記注目画素とその周辺の画素のそれぞれにおける前記動きベクトル候補のうちの頻度が最も高い前記動きベクトル候補を、前記注目画素における動きベクトルとして決定する動きベクトル決定ステップ(例えば、図21のステップS24の処理)と、前記注目画素周辺の輝度の変化の度合を演算する輝度変化演算ステップ(例えば、図21のステップS21の処理)と、前記輝度変化演算ステップと前記候補生成ステップとの処理結果(例えば、図21のステップS21とS23との処理結果)に基づいて、前記動きベクトル決定ステップの処理により決定された前記動きベクトルの信頼度を評価し、前記動きベクトルの信頼度が低いと評価した場合、前記動きベクトルを補正する補正ステップ(例えば、図21のステップS26乃至S28の処理)とを含むことを特徴とする。   According to the present invention, a first image processing method is provided. In the first image processing method (for example, the image processing method of the motion detection unit 14 in FIG. 2), a predetermined pixel among the pixels constituting the first access unit is set as a target pixel, and the first A candidate generation step (for example, the process of step S22 in FIG. 21) that generates a motion vector candidate at the target pixel by comparing the access unit with the second access unit immediately before the first access unit. , A motion vector that determines the motion vector candidate having the highest frequency among the motion vector candidates in each of the target pixel and its surrounding pixels generated by the candidate generation step as a motion vector in the target pixel. The determination step (for example, the process of step S24 in FIG. 21) and the degree of change in luminance around the target pixel are determined. Based on the luminance change calculation step to be calculated (for example, the processing of step S21 in FIG. 21) and the processing results of the luminance change calculation step and the candidate generation step (for example, the processing results of steps S21 and S23 in FIG. 21). Then, when the reliability of the motion vector determined by the processing of the motion vector determination step is evaluated and it is evaluated that the reliability of the motion vector is low, a correction step (for example, FIG. 21) corrects the motion vector. Steps S26 to S28).

本発明によれば、第1のプログラムが提供される。この第1のプログラムは、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、前記注目画素を単位とする画像処理をコンピュータ(例えば、図23のCPU201)に実行させるプログラムであって、前記第1のアクセスユニットと、前記第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、前記注目画素における動きベクトル候補を生成する候補生成ステップ(例えば、図21のステップS22の処理)と、前記候補生成ステップの処理により生成された前記注目画素とその周辺の画素のそれぞれにおける前記動きベクトル候補のうちの頻度が最も高い前記動きベクトル候補を、前記注目画素における動きベクトルとして決定する動きベクトル決定ステップ(例えば、図21のステップS24の処理)と、前記注目画素周辺の輝度の変化の度合を演算する輝度変化演算ステップ(例えば、図21のステップS21の処理)と、前記輝度変化演算ステップと前記候補生成ステップとの処理結果(例えば、図21のステップS21とS23との処理結果)に基づいて、前記動きベクトル決定ステップの処理により決定された前記動きベクトルの信頼度を評価し、前記動きベクトルの信頼度が低いと評価した場合、前記動きベクトルを補正する補正ステップ(例えば、図21のステップS26乃至S28の処理)とを含むことを特徴とする。   According to the present invention, a first program is provided. The first program sets a predetermined pixel among pixels constituting the first access unit as a target pixel, and executes image processing in units of the target pixel on a computer (for example, the CPU 201 in FIG. 23). A candidate generating step (eg, generating a motion vector candidate at the pixel of interest by comparing the first access unit and the second access unit immediately before the first access unit). , The process of step S22 in FIG. 21), and the motion vector candidate having the highest frequency among the motion vector candidates in each of the target pixel and its surrounding pixels generated by the process of the candidate generation step, A motion vector determination step (for example, a step in FIG. 21) determined as a motion vector at the target pixel. Processing in step S24), luminance change calculation step for calculating the degree of change in luminance around the target pixel (for example, step S21 in FIG. 21), processing in the luminance change calculation step, and candidate generation step Based on the result (for example, the processing results of steps S21 and S23 in FIG. 21), the reliability of the motion vector determined by the processing of the motion vector determination step is evaluated, and the reliability of the motion vector is low When the evaluation is made, the method includes a correction step for correcting the motion vector (for example, processing in steps S26 to S28 in FIG. 21).

本発明によれば第2の画像処理装置が提供される。この第2の画像処理装置(例えば、図1の画像処理装置1のうちの動き検出部14と画像処理部12であって、動き検出部14の詳細な構成例は図2)は、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、前記第1のアクセスユニットと、前記第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、前記注目画素における動きベクトル候補を生成する候補生成手段(例えば、図2のテンプレートマッチング部34)と、前記候補生成手段により生成された前記注目画素とその周辺の画素のそれぞれにおける前記動きベクトル候補のうちの頻度が最も高い前記動きベクトル候補を、前記注目画素における動きベクトルとして決定する動きベクトル決定手段(例えば、図2のヒストグラム部35)と、前記動きベクトル決定手段により決定された前記動きベクトルを補正する補正手段(例えば、図2の動きベクトル補正部36であって、図13の動きベクトル補正部36Aまたは図18の動きベクトル補正部36B)と、前記補正手段により補正された前記動きベクトルを利用して、所定の処理を実行する処理実行手段(例えば、図1の画像処理12の補正部22と)を備え、前記補正手段は、前記処理実行手段の前記所定の処理の特徴に基づく第1の補正方法(例えば、図15または図16に示される方法)を利用して、前記動きベクトルを補正する(例えば、図13または図18の後段処理用補正部101がその処理を実行する)ことを特徴とする。   According to the present invention, a second image processing apparatus is provided. The second image processing apparatus (for example, the motion detection unit 14 and the image processing unit 12 in the image processing apparatus 1 of FIG. 1, and a detailed configuration example of the motion detection unit 14 is shown in FIG. 2) A predetermined pixel among the pixels constituting the access unit is set as a target pixel, and the first access unit is compared with the second access unit immediately before the first access unit, Of the motion vector candidates in each of the target pixel generated by the candidate generating unit (for example, the template matching unit 34 in FIG. 2) and the surrounding pixels generated by the candidate generating unit (for example, the template matching unit 34 in FIG. 2). Motion vector determination means for determining the motion vector candidate having the highest frequency as a motion vector in the target pixel (for example, the histogram of FIG. 35) and correction means for correcting the motion vector determined by the motion vector determination means (for example, the motion vector correction section 36 in FIG. 2 and the motion vector correction section 36A in FIG. 13 or FIG. 18). A motion vector correction unit 36B) and a processing execution unit (for example, the correction unit 22 of the image processing 12 in FIG. 1) that executes a predetermined process using the motion vector corrected by the correction unit; The correction unit corrects the motion vector by using a first correction method (for example, the method shown in FIG. 15 or FIG. 16) based on the characteristics of the predetermined process of the process execution unit (for example, The post-processing correction unit 101 in FIG. 13 or FIG. 18 executes the processing).

この第2の画像処理装置において、前記注目画素周辺の輝度の変化の度合を演算する輝度変化演算手段(例えば、図2の輝度勾配検出部33)をさらに設け、前記補正手段は、さらに、前記輝度変化演算手段と前記候補生成手段との処理結果に基づいて、前記動きベクトル決定手段により決定された前記動きベクトルの信頼度を評価し(例えば、図13の信頼度評価部103がその処理を実行し)、前記動きベクトルの信頼度が低いと評価した場合、前記第1の補正方法により補正された前記動きベクトルを、第2の補正方法(例えば、後述する式(10)で示される方法)によりさらに補正する(例えば、図13の信頼度用補正部104がその処理を実行する)ようにすることができる。   In the second image processing apparatus, a luminance change calculating means (for example, a luminance gradient detecting unit 33 in FIG. 2) for calculating the degree of change in luminance around the target pixel is further provided, and the correcting means further includes the Based on the processing results of the luminance change calculation means and the candidate generation means, the reliability of the motion vector determined by the motion vector determination means is evaluated (for example, the reliability evaluation unit 103 in FIG. When the reliability of the motion vector is evaluated to be low, the motion vector corrected by the first correction method is converted into a second correction method (for example, a method represented by Expression (10) described later). ) Can be further corrected (for example, the reliability correction unit 104 in FIG. 13 executes the process).

本発明によれば、第2の情報処理方法が提供される。この第2の情報処理装置は、情報処理装置(例えば、図1の画像処理装置1)の情報処理方法であって、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、前記第1のアクセスユニットと、前記第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、前記注目画素における動きベクトル候補を生成する候補生成ステップ(例えば、図21のステップS22の処理)と、前記候補生成ステップの処理により生成された前記注目画素とその周辺の画素のそれぞれにおける前記動きベクトル候補のうちの頻度が最も高い前記動きベクトル候補を、前記注目画素における動きベクトルとして決定する動きベクトル決定ステップ(例えば、図21のステップS24の処理)と、前記動きベクトル決定ステップの処理により決定された前記動きベクトルを補正する補正ステップ(例えば、図21のステップS25乃至S28の処理)と、前記補正ステップの処理により補正された前記動きベクトルを利用した所定の処理を前記情報処理装置が実行することを制御する処理制御ステップ(図21に対応する図20のステップS3の動きベクトル演算処理の後に実行されるステップS7の処理等)とを含み、前記補正ステップは、前記処理制御ステップの制御により前記情報処理装置が実行する前記所定の処理の特徴に基づく補正方法を利用して、前記動きベクトルを補正するステップ(例えば、図21のステップS25の処理)を少なくとも含むことを特徴とする。   According to the present invention, a second information processing method is provided. This second information processing apparatus is an information processing method of an information processing apparatus (for example, the image processing apparatus 1 in FIG. 1), and a predetermined pixel among pixels constituting the first access unit is used as a target pixel. A candidate generation step of generating a motion vector candidate at the pixel of interest by setting and comparing the first access unit and the second access unit immediately before the first access unit (for example, FIG. 21). In step S22), and the motion vector candidate having the highest frequency among the motion vector candidates in each of the target pixel generated by the processing of the candidate generation step and the surrounding pixels is determined in the target pixel. A motion vector determination step (for example, the process of step S24 in FIG. 21) to be determined as a motion vector, and the motion vector A correction step for correcting the motion vector determined by the processing of the determination step (for example, the processing of steps S25 to S28 in FIG. 21), and a predetermined process using the motion vector corrected by the processing of the correction step. Including a process control step for controlling the execution of the information processing apparatus (the process of step S7 executed after the motion vector calculation process of step S3 of FIG. 20 corresponding to FIG. 21), At least a step of correcting the motion vector by using a correction method based on the characteristics of the predetermined processing executed by the information processing apparatus under the control of the processing control step (for example, the processing of step S25 in FIG. 21). It is characterized by that.

本発明によれば、第2のプログラムが提供される。この第2のプログラムは、動画像を構成する複数のアクセスユニットのうちの所定の1つを処理対象として、処理対象の前記アクセスユニットを構成する各画素のそれぞれにおける動きベクトルを利用する所定の処理を実行する処理実行装置(例えば、図1の画像処理装置1)を制御するコンピュータ(例えば、図23のCPU201)に実行させるプログラムであって、第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、前記第1のアクセスユニットと、前記第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、前記注目画素における動きベクトル候補を生成する候補生成ステップ(例えば、図21のステップS22の処理)と、前記候補生成ステップの処理により生成された前記注目画素とその周辺の画素のそれぞれにおける前記動きベクトル候補のうちの頻度が最も高い前記動きベクトル候補を、前記注目画素における動きベクトルとして決定する動きベクトル決定ステップ(例えば、図21のステップS24の処理)と、前記動きベクトル決定ステップの処理により決定された前記動きベクトルを補正する補正ステップ(例えば、図21のステップS25乃至S28の処理)と、前記補正ステップの処理により補正された前記動きベクトルを利用して前記所定の処理を前記処理実行装置が実行することを制御する処理制御ステップ(図21に対応する図20のステップS3の動きベクトル演算処理の後に実行されるステップS7の処理等)とを含み、前記補正ステップは、前記処理制御ステップの制御により前記処理実行装置が実行する前記所定の処理の特徴に基づく補正方法を利用して、前記動きベクトルを補正するステップ(例えば、図21のステップS25の処理)を少なくとも含むことを特徴とする。   According to the present invention, a second program is provided. The second program uses a predetermined one of a plurality of access units constituting a moving image as a processing target, and performs a predetermined process using a motion vector in each pixel constituting the access unit to be processed. Is a program to be executed by a computer (for example, the CPU 201 in FIG. 23) that controls the processing execution apparatus (for example, the image processing apparatus 1 in FIG. 1), and is a predetermined one of the pixels constituting the first access unit. Candidate generation for generating a motion vector candidate at the target pixel by comparing the first access unit with the second access unit immediately before the first access unit. Generated by the step (for example, the process of step S22 in FIG. 21) and the process of the candidate generation step. A motion vector determination step for determining the motion vector candidate having the highest frequency among the motion vector candidates in each of the eye pixel and the surrounding pixels as a motion vector in the target pixel (for example, the process in step S24 in FIG. 21). ), A correction step for correcting the motion vector determined by the processing of the motion vector determination step (for example, processing of steps S25 to S28 in FIG. 21), and the motion vector corrected by the processing of the correction step. A process control step for controlling the execution of the predetermined process by the process execution device (the process of step S7 executed after the motion vector calculation process of step S3 of FIG. 20 corresponding to FIG. 21); And the correction step is performed under the control of the processing control step. Using the correction method based on the feature of the predetermined processing execution unit executes the step of correcting the motion vector (for example, step S25 in FIG. 21), characterized in that it comprises at least a.

以下、図面を参照して、本発明が適用される画像処理装置について説明する。   Hereinafter, an image processing apparatus to which the present invention is applied will be described with reference to the drawings.

図1は、本発明が適用される画像処理装置の構成例を表している。   FIG. 1 shows a configuration example of an image processing apparatus to which the present invention is applied.

図1において、画像処理装置1は、液晶型表示装置等として構成されるホールド型表示装置2に対して、動画像の表示を制御する。即ち、画像処理装置1は、動画像を構成する複数のフレームのそれぞれの表示を順次指示する。これにより、ホールド型表示装置2は、上述したように、第1のフレームの表示が指示されてから所定の時間の間、第1のフレームを構成する複数の画素のそれぞれを対応する表示素子(図示せず)に表示させ、それら表示素子のうちの少なくとも一部の表示を保持させる。即ち、所定の時間、各表示素子のうちの少なくとも一部はホールド表示する。   In FIG. 1, an image processing apparatus 1 controls the display of a moving image with respect to a hold type display apparatus 2 configured as a liquid crystal display apparatus or the like. In other words, the image processing apparatus 1 sequentially instructs display of each of a plurality of frames constituting the moving image. Thereby, as described above, the hold-type display device 2 displays each of a plurality of pixels constituting the first frame for a predetermined time after the display of the first frame is instructed. (Not shown) and display of at least some of the display elements is held. That is, at least a part of each display element is hold-displayed for a predetermined time.

なお、画像処理装置1の処理単位(動画像の単位)は、ここでは説明の簡略上、上述したようにフレームであるとして説明するが、フィールドを単位とすることも勿論可能である。即ち、本明細書において、フレームやフィールドのような単位をアクセスユニットとも称するが、画像処理装置1は、このアクセスユニットを単位とする画像処理を行うことができる。ただし、以下の説明においては、画像処理装置1は、アクセスユニットのうちの特にフレームを単位とする画像処理を行うとする。   The processing unit (moving image unit) of the image processing apparatus 1 is described here as a frame as described above for the sake of brevity of description, but it is of course possible to use a field as a unit. That is, in this specification, a unit such as a frame or a field is also referred to as an access unit, but the image processing apparatus 1 can perform image processing using this access unit as a unit. However, in the following description, it is assumed that the image processing apparatus 1 performs image processing in units of frames, among the access units.

また、以下、ホールド型表示装置2は、第1のフレームの表示が指示されてから、その次の第2のフレームの表示が指示されるまでの間、第1のフレームを構成する全ての画素のそれぞれを対応する表示素子(図示せず)に表示させ、それら全ての表示素子の表示を保持させる(全ての表示素子がホールド表示する)とする。   Further, hereinafter, the hold-type display device 2 is configured to display all pixels constituting the first frame from when the display of the first frame is instructed until the display of the next second frame is instructed. Are displayed on corresponding display elements (not shown), and display of all the display elements is held (all display elements hold display).

詳細には、画像処理装置1には、動画像を構成する複数のフレームのそれぞれの画像データが順次入力される。即ち、画像処理装置1には、表示対象フレームの画像データ(例えば、表示対象フレームを構成する全ての画素の画素値)が入力される。具体的には、表示対象フレームの画像データは、画像処理部11、画像処理部12、参照画像記憶部13、および、動き検出部14のそれぞれに入力される。   Specifically, the image processing apparatus 1 sequentially receives image data of a plurality of frames constituting a moving image. That is, the image processing apparatus 1 receives image data of a display target frame (for example, pixel values of all the pixels constituting the display target frame). Specifically, the image data of the display target frame is input to each of the image processing unit 11, the image processing unit 12, the reference image storage unit 13, and the motion detection unit 14.

画像処理部11は、表示対象フレームの画像データに対して画素を単位とする所定の画像処理を施して、切替部15に出力する。即ち、画像処理部11は、表示対象フレームを構成する複数の画素のそれぞれに対して所定の画像処理を施すことで、それらの画素の画素値を補正し、補正した画素値を切替部15に所定の順番で順次出力する。   The image processing unit 11 performs predetermined image processing in units of pixels on the image data of the display target frame and outputs the processed image data to the switching unit 15. That is, the image processing unit 11 performs predetermined image processing on each of the plurality of pixels constituting the display target frame, thereby correcting the pixel values of those pixels, and supplying the corrected pixel values to the switching unit 15. Output sequentially in a predetermined order.

なお、画像処理部11が実行する画像処理は特に限定されない。例えば、図1の例では、画像処理部11には、後述する参照画像記憶部13から出力される参照画像(表示対象フレームの直前のフレームであって、以下、単に直前フレームと称する)の画像データ、および、後述する動き検出部14の検出結果(表示対象フレームを構成する各画素のそれぞれの動きベクトル)、といった2つの情報が入力される。この場合、画像処理部11は、これらの2つの情報を全て利用する画像処理を行ってもよいし、いずれか一方の情報を利用する画像処理を行ってもよいし、或いは、いずれの情報も利用しない画像処理を行ってもよい。具体的には、例えば、画像処理部11は、表示対象フレームを構成する各画素のそれぞれの画素値を所定の規則のテーブル(図示せず)に従って補正することができる。   Note that the image processing executed by the image processing unit 11 is not particularly limited. For example, in the example of FIG. 1, the image processing unit 11 includes an image of a reference image (a frame immediately before a display target frame, hereinafter simply referred to as a previous frame) output from a reference image storage unit 13 described later. Two pieces of information are input, such as data and a detection result (a motion vector of each pixel constituting the display target frame) described later. In this case, the image processing unit 11 may perform image processing using all of these two pieces of information, may perform image processing using any one piece of information, or both pieces of information. Image processing that is not used may be performed. Specifically, for example, the image processing unit 11 can correct each pixel value of each pixel constituting the display target frame according to a predetermined rule table (not shown).

また、画像処理部11は、画像処理装置1にとって必須な構成要素ではなく、省略されてもよい。この場合、表示対象フレームの画像データは、画像処理部12、参照画像記憶部13、動き検出部14、および、切替部15の入力端(2つの入力端のうちの、図1の画像処理装置11に接続された方の入力端)のそれぞれに入力されることになる。   Further, the image processing unit 11 is not an essential component for the image processing apparatus 1 and may be omitted. In this case, the image data of the display target frame is the image processing unit 12, the reference image storage unit 13, the motion detection unit 14, and the input end of the switching unit 15 (the image processing apparatus of FIG. 11 is input to each of the input terminals connected to 11.

画像処理部12は、表示対象フレームの画像データ(各画素の画素値)のうちの、動きのあるオブジェクトに対応する画素(例えば、動き検出部14により検出された動きベクトルの大きさが閾値以上の画素)の画素値を補正し(0補正含む)、補正した画素値を切替部15に出力する。   The image processing unit 12 includes pixels corresponding to a moving object (for example, the magnitude of the motion vector detected by the motion detection unit 14 is greater than or equal to a threshold value) in the image data (pixel value of each pixel) of the display target frame. Pixel value) is corrected (including 0 correction), and the corrected pixel value is output to the switching unit 15.

なお、画像処理部12は、表示対象フレーム内の任意の空間方向に動くオブジェクトを処理対象とし、そのオブジェクトに対応する画素の画素値を補正することが可能である。ただし、以下、説明の簡略上、表示対象フレームの左上端の画素を基準とした場合、その基準画素に対して右(横)方向X(以下、空間方向Xと称する)またはその逆方向に動くオブジェクトが、画像処理部12の処理対象とされる。従って、後述するように、動き検出部14により検出される注目画素の動きベクトルの方向も、フレーム内の任意の空間方向となり得るが、以下、説明の簡略上、空間方向Xまたはその逆方向とされる。   Note that the image processing unit 12 can set an object moving in an arbitrary spatial direction in the display target frame as a processing target, and can correct a pixel value of a pixel corresponding to the object. However, for the sake of simplicity, when the pixel at the upper left corner of the display target frame is used as a reference, it moves in the right (lateral) direction X (hereinafter referred to as the spatial direction X) or the opposite direction with respect to the reference pixel. The object is a processing target of the image processing unit 12. Therefore, as will be described later, the direction of the motion vector of the target pixel detected by the motion detection unit 14 can also be an arbitrary spatial direction in the frame. Is done.

詳細には、画像処理部12は、ステップエッジ検出部21と補正部22とから構成される。   Specifically, the image processing unit 12 includes a step edge detection unit 21 and a correction unit 22.

ステップエッジ検出部21は、動き検出部14の検出結果(動きベクトル)に基づいて、表示対象フレームの画像データの中から、動きのあるオブジェクトのエッジ部分に対応する画素を検出し、その検出結果を補正部22に供給する。   The step edge detection unit 21 detects pixels corresponding to the edge portion of the moving object from the image data of the display target frame based on the detection result (motion vector) of the motion detection unit 14, and the detection result Is supplied to the correction unit 22.

具体的には、例えば、ステップエッジ検出部21は、ステップエッジをオブジェクトして捉え、表示対象フレームの画像データを、空間方向Xに形成される複数のステップエッジの画像データの集合体に分解した上、複数のステップエッジのそれぞれのエッジ部分に対応する画素を検出し、その検出結果を補正部22に供給する。   Specifically, for example, the step edge detection unit 21 captures the step edge as an object, and decomposes the image data of the display target frame into an aggregate of image data of a plurality of step edges formed in the spatial direction X. In addition, pixels corresponding to edge portions of the plurality of step edges are detected, and the detection results are supplied to the correction unit 22.

なお、ステップエッジとは、第1の画素値を有する画素が所定の方向(ここでは、空間方向X)に連続して並び、所定の画素を境に、第1の画素値とは異なる第2の画素値を有する画素がその方向に連続して並んで形成される画素の集合体を指す。   Note that the step edge is a second that is different from the first pixel value, with pixels having the first pixel value continuously arranged in a predetermined direction (here, the spatial direction X), with the predetermined pixel as a boundary. A pixel group in which pixels having the pixel value of are formed in a line continuously in that direction.

即ち、ステップエッジ検出部21は、注目画素の画素値と、それに隣接する画素のうちの予め定められた方(いまの場合、空間方向Xとその逆方向とのうちの予め定められた方)の画素値との差分を演算する。そして、ステップエッジ検出部21は、例えば、その演算結果(差分値)が0でない場合、ステップエッジのエッジ部分に対応する画素として注目画素を検出する。   That is, the step edge detection unit 21 determines a pixel value of the target pixel and a predetermined one of the adjacent pixels (in this case, a predetermined one of the spatial direction X and the opposite direction). The difference from the pixel value is calculated. For example, when the calculation result (difference value) is not 0, the step edge detection unit 21 detects the target pixel as a pixel corresponding to the edge portion of the step edge.

ただし、ここでは、動きボケを抑制することが主目的とされているので、エッジ部分が検出される対象は動きのあるステップエッジのみで足りる。   However, since the main purpose is to suppress motion blur here, only a step edge with motion is sufficient as an object for which an edge portion is detected.

そこで、ステップエッジ検出部21は、例えば、動き検出部14より供給された注目画素の動きベクトルの大きさが閾値以上であった場合、その注目画素を一構成要素とするステップエッジは動いていると判断し、その処理を実行する。即ち、ステップエッジ検出部21は、注目画素の画素値とそれに隣接する画素の画素値との差分値(以下、単に差分値と称する)を演算し、その差分値と注目画素の画素値とを検出結果として補正部22に供給する。   Therefore, for example, when the magnitude of the motion vector of the target pixel supplied from the motion detection unit 14 is greater than or equal to the threshold value, the step edge detection unit 21 moves the step edge having the target pixel as one constituent element. And the process is executed. That is, the step edge detection unit 21 calculates a difference value (hereinafter, simply referred to as a difference value) between a pixel value of a target pixel and a pixel value of a pixel adjacent thereto, and calculates the difference value and the pixel value of the target pixel. The detection result is supplied to the correction unit 22.

これに対して、ステップエッジ検出部21は、例えば、動き検出部14より供給された注目画素の動きベクトルの大きさが閾値未満であった場合、その注目画素を一構成要素とするステップエッジは動いていないと判断し、その処理の実行を禁止する。   On the other hand, for example, when the magnitude of the motion vector of the target pixel supplied from the motion detection unit 14 is less than the threshold, the step edge detection unit 21 uses the target pixel as one constituent element. Judge that it is not moving and prohibit the execution of the process.

補正部22は、例えば、動き検出部14より供給された注目画素の動きベクトルの大きさが閾値以上であった場合(即ち、注目画素を一構成要素とするステップエッジが空間方向Xまたはその逆方向に動いている場合)、ステップエッジ検出部21より供給された注目画素の画素値を補正する(0補正を含む)。このとき、補正部22は、動き検出部14より供給された注目画素の動きベクトル(ステップエッジの移動方向と移動量)と、ステップエッジ検出部21より供給された差分値(ステップエッジの高さ)とに基づいて、注目画素の画素値を補正する。   For example, when the magnitude of the motion vector of the target pixel supplied from the motion detection unit 14 is greater than or equal to a threshold value (ie, the step edge having the target pixel as one component is the spatial direction X or vice versa) When moving in the direction), the pixel value of the target pixel supplied from the step edge detection unit 21 is corrected (including 0 correction). At this time, the correction unit 22 uses the motion vector (the movement direction and the movement amount of the step edge) of the target pixel supplied from the motion detection unit 14 and the difference value (the height of the step edge) supplied from the step edge detection unit 21. ) And the pixel value of the target pixel is corrected.

即ち、補正部22は、例えば、供給された差分値が0でなく、かつ、供給された動きベクトルの大きさが閾値以上であった場合、注目画素は、動きのあるステップエッジのエッジ部分に対応する画素であると判断し、供給された差分値と動きベクトルとに基づいて注目画素の画素値を補正する。   That is, for example, when the supplied difference value is not 0 and the magnitude of the supplied motion vector is equal to or larger than the threshold value, the correcting unit 22 sets the target pixel at the edge portion of the step edge that moves. The pixel is determined to be a corresponding pixel, and the pixel value of the pixel of interest is corrected based on the supplied difference value and motion vector.

これに対して、補正部22は、例えば、供給された差分値が0であり、かつ、供給された動きベクトルの大きさが閾値以上であった場合、注目画素は、動きのあるステップエッジの一構成要素ではあるがエッジ部分に対応する画素ではない(それ以外の部分に対応する画素である)と判断し、注目画素の画素値を0補正する(補正しない)。   On the other hand, for example, when the supplied difference value is 0 and the magnitude of the supplied motion vector is equal to or greater than a threshold value, the correcting unit 22 determines that the target pixel is a step edge having motion. It is determined that the pixel is one component but not the pixel corresponding to the edge portion (the pixel corresponding to the other portion), and the pixel value of the target pixel is corrected to 0 (not corrected).

また、補正部22は、例えば、供給された動きベクトルの大きさが閾値未満である場合、ステップエッジ検出部21と同様に、その注目画素を一構成要素とするステップエッジは動いていないと判断し、その処理自体を禁止する(0補正も含めた補正の処理を禁止する)。   For example, when the magnitude of the supplied motion vector is less than the threshold value, the correction unit 22 determines that the step edge having the target pixel as one constituent element is not moving, as in the step edge detection unit 21. Then, the processing itself is prohibited (correction processing including zero correction is prohibited).

なお、補正部22の画素値の補正方法は、動きのあるステップエッジのエッジ部分に対応する注目画素の画素値を、動き検出部14により検出された注目画素の動きベクトルに基づいて補正する方法であれば、特に限定されない。具体的には、例えば、次のような補正方法を適用することもできる。   The correction method of the pixel value of the correction unit 22 is a method of correcting the pixel value of the target pixel corresponding to the edge portion of the step edge with motion based on the motion vector of the target pixel detected by the motion detection unit 14. If it is, it will not be specifically limited. Specifically, for example, the following correction method can be applied.

即ち、補正部22は、次の式(1)の右辺を演算することで左辺の補正値Rを求め、その補正値Rを注目画素の画素値に加算することで、注目画素の画素値を補正する。   That is, the correction unit 22 calculates a right side correction value R by calculating the right side of the following equation (1), and adds the correction value R to the pixel value of the target pixel to obtain the pixel value of the target pixel. to correct.

Figure 2005160015
・・・(1)
Figure 2005160015
... (1)

なお、式(1)において、Erは、ステップエッジ検出部21より供給される差分値を、Vは、動き検出部14より供給される動きベクトルの大きさを、それぞれ示している。また、式(1)は、ホールド型表示装置2の全ての表示素子(例えば、ホールド型表示装置2が液晶型表示装置である場合、全ての液晶)の時間応答が時定数一定の一次遅れ要素であると仮定した場合の式であり、式(1)においては、この時定数がτで示されている。また、Tは表示対象フレームの表示時間(表示対象フレームの表示が指示されてから、次のフレームの表示が指示されるまでの時間)を示している。なお、以下、このような時間Tをフレーム時間Tと称する。液晶型表示装置においては、フレーム時間Tは一般的に16.6msとされている。   In Equation (1), Er represents the difference value supplied from the step edge detection unit 21, and V represents the magnitude of the motion vector supplied from the motion detection unit 14. Equation (1) is a first-order lag element in which the time response of all display elements of the hold-type display device 2 (for example, all liquid crystals when the hold-type display device 2 is a liquid crystal display device) is constant in time constant. In the equation (1), this time constant is indicated by τ. T indicates the display time of the display target frame (the time from when the display of the display target frame is instructed until the display of the next frame is instructed). Hereinafter, such a time T is referred to as a frame time T. In the liquid crystal display device, the frame time T is generally set to 16.6 ms.

参照画像記憶部13は、表示対象フレームの画像データを、その次の(直後の)フレームに対する参照画像の画像データとして記憶する。   The reference image storage unit 13 stores the image data of the display target frame as the image data of the reference image for the next (immediately following) frame.

即ち、動き検出部14(および上述した画像処理部11)は、新たなフレームの画像データが表示対象フレームの画像データとして入力された場合、参照画像記憶部13に記憶されている直前フレーム(直前に表示対象フレームであったフレーム)の画像データを、表示対象フレームに対する参照画像の画像データとして取得する。そして、動き検出部14は、表示対象フレームの画像データと参照画像の画像データとを比較することで、表示対象フレームの注目画素の動きベクトルを検出し、画像処理部11、画像処理部12(ステップエッジ検出部21と補正部22)、および、切替部15のそれぞれに供給する。   That is, the motion detection unit 14 (and the image processing unit 11 described above), when image data of a new frame is input as image data of a display target frame, immediately preceding frame (previous frame stored in the reference image storage unit 13). Image data of a frame that was a display target frame) is acquired as image data of a reference image for the display target frame. Then, the motion detection unit 14 compares the image data of the display target frame with the image data of the reference image to detect the motion vector of the target pixel of the display target frame, and the image processing unit 11, the image processing unit 12 ( Step edge detection unit 21 and correction unit 22) and switching unit 15 are supplied.

なお、動き検出部14は、実際には、空間方向Xと空間方向Yとに平行な2次元平面上の任意の方向を有する動きベクトルを検出することが可能である。即ち、動きベクトルの方向は、実際には、この2次元平面上の任意の方向となり得る。ただし、ここでは、上述したように、説明の簡略上、空間方向Xまたはその逆方向に動くステップエッジが処理の対象とされているため、動きベクトルの方向も空間方向Xまたはその逆方向とされる。   Note that the motion detection unit 14 can actually detect a motion vector having an arbitrary direction on a two-dimensional plane parallel to the spatial direction X and the spatial direction Y. That is, the direction of the motion vector can actually be an arbitrary direction on the two-dimensional plane. However, as described above, since the step edge moving in the spatial direction X or in the opposite direction is the object of processing, as described above, the direction of the motion vector is also in the spatial direction X or the opposite direction. The

具体的には、例えば、ステップエッジが1フレームの間に空間方向XにN(Nは任意の正の整数値)画素分だけ移動した場合、動き検出部14は、そのステップエッジの動きベクトル(ステップエッジの一構成要素である注目画素における動きベクトル)として「+N」を検出する。一方、ステップエッジが1フレームの間に空間方向Xの逆方向にN画素分だけ移動した場合、動き検出部14は、そのステップエッジの動きベクトルとして「−N」を検出する。このように、ここでは、動きベクトルの方向は、空間方向Xの場合「+」で表現され、空間方向Xの逆方向の場合「−」で表現される。   Specifically, for example, when the step edge moves by N (N is an arbitrary positive integer value) pixels in the spatial direction X during one frame, the motion detection unit 14 moves the motion vector ( “+ N” is detected as the motion vector of the target pixel, which is one component of the step edge. On the other hand, when the step edge moves by N pixels in the opposite direction of the spatial direction X during one frame, the motion detection unit 14 detects “−N” as the motion vector of the step edge. Thus, here, the direction of the motion vector is represented by “+” in the case of the spatial direction X, and is represented by “−” in the case of the reverse direction of the spatial direction X.

切替部15は、動き検出部14の検出結果(動きベクトル)に応じて、その入力を切り替える。   The switching unit 15 switches the input according to the detection result (motion vector) of the motion detection unit 14.

即ち、動き検出部14より供給された注目画素の動きベクトルの大きさが閾値未満である場合(注目画素が、動きのあるステップエッジに対応する画素ではない場合)、切替部15は、その入力を画像処理部11側の端に切り替え、画像処理部11より供給される注目画素のデータ(画素値)を表示制御部16に供給する。   That is, when the magnitude of the motion vector of the target pixel supplied from the motion detection unit 14 is less than the threshold (when the target pixel is not a pixel corresponding to a step edge with motion), the switching unit 15 Is switched to the end on the image processing unit 11 side, and the data (pixel value) of the pixel of interest supplied from the image processing unit 11 is supplied to the display control unit 16.

これに対して、動き検出部14より供給された注目画素の動きベクトルの大きさが閾値以上である場合(注目画素が、動きのあるステップエッジに対応する画素である場合)、切替部15は、その入力を画像処理部12の補正部22側の端に切り替え、補正部22より供給される注目画素のデータ(画素値)を表示制御部16に供給する。   On the other hand, when the magnitude of the motion vector of the target pixel supplied from the motion detection unit 14 is greater than or equal to the threshold value (when the target pixel is a pixel corresponding to a step edge with motion), the switching unit 15 The input is switched to the end of the image processing unit 12 on the correction unit 22 side, and the data (pixel value) of the target pixel supplied from the correction unit 22 is supplied to the display control unit 16.

表示制御部16は、切替部15より順次供給されてくる、表示対象フレームを構成する各画素のデータ(画素値)のそれぞれを、所定の形式の信号(ホールド型表示装置2における、対応付けられた表示素子の目標レベルのそれぞれを示す信号)に変換した後、ホールド型表示装置2に出力する。即ち、表示制御部16は、このような処理を行うことで、表示対象フレームの表示をホールド型表示装置2に指示する。   The display control unit 16 associates each pixel data (pixel value) included in the display target frame sequentially supplied from the switching unit 15 with a signal of a predetermined format (in the hold type display device 2). Are converted to signals indicating the target levels of the display elements) and then output to the hold type display device 2. That is, the display control unit 16 instructs the hold-type display device 2 to display the display target frame by performing such processing.

このように、本実施の形態の画像処理装置1においては、注目画素の画素値が、動き検出部14により検出された動きベクトルに基づいて補正される。ここで注目すべき点は、この動きベクトルは、注目画素の周囲の画素における他の動きベクトルと調和が取れている点である。換言すると、本実施の形態の動き検出部14は、周囲と調和の取れた動きベクトルを容易に検出するために、即ち、上述した従来の第2の課題を解決するために、例えば、図2の構成を有している点である。そこで、以下、図2を参照して、本実施の形態の動き検出部14の詳細について説明する。   As described above, in the image processing apparatus 1 according to the present embodiment, the pixel value of the target pixel is corrected based on the motion vector detected by the motion detection unit 14. What should be noted here is that this motion vector is in harmony with other motion vectors in pixels around the target pixel. In other words, the motion detection unit 14 according to the present embodiment detects, for example, a motion vector in harmony with the surroundings, that is, in order to solve the above-described second conventional problem, for example, FIG. It is the point which has the structure of. Therefore, details of the motion detection unit 14 of the present embodiment will be described below with reference to FIG.

図2に示されるように、本実施の形態の動き検出部14は、ローパスフィルタ(以下、LPFと記述する)31、LPF32、輝度勾配検出部33、テンプレートマッチング部34、ヒストグラム部35、動きベクトル補正部36、および、LPF37から構成される。   As shown in FIG. 2, the motion detection unit 14 of the present embodiment includes a low-pass filter (hereinafter referred to as LPF) 31, an LPF 32, a luminance gradient detection unit 33, a template matching unit 34, a histogram unit 35, a motion vector. It is comprised from the correction | amendment part 36 and LPF37.

入力画像(画像データ)、即ち、表示対象フレームの画像データは、LPF31を介して輝度勾配検出部33とテンプレートマッチング部34のそれぞれに供給される。   An input image (image data), that is, image data of a display target frame is supplied to each of the luminance gradient detection unit 33 and the template matching unit 34 via the LPF 31.

輝度勾配検出部33は、表示対象フレームの注目画素の配置位置における輝度勾配を検出する。   The luminance gradient detection unit 33 detects the luminance gradient at the arrangement position of the target pixel in the display target frame.

なお、輝度勾配とは次の値を指す。即ち、例えば、所定の方向の座標値(例えば、ここでは、空間方向Xの座標x)がパラメータとして入力され、入力された座標xの輝度(画素値)を出力する関数f(x)が存在した場合、注目画素の配置位置i(iは、空間方向Xの座標値)における関数f(x)の1次微分値の絶対値、即ち、|f'(i)|が、輝度勾配である。   The luminance gradient indicates the following value. That is, for example, there is a function f (x) in which a coordinate value in a predetermined direction (for example, the coordinate x in the spatial direction X) is input as a parameter and the luminance (pixel value) of the input coordinate x is output. In this case, the absolute value of the first-order differential value of the function f (x) at the arrangement position i (i is the coordinate value in the spatial direction X) of the target pixel, that is, | f ′ (i) | is the luminance gradient. .

ただし、このような関数f(x)の生成や、その関数f(x)を利用する1次微分値の演算は、輝度勾配検出部33にとって負荷の重い処理となる。そこで、ここでは、例えば、次の式(2)で示される値slopeを輝度勾配として定義する。即ち、輝度勾配検出部33がこの式(2)の右辺を演算することで輝度勾配slopeを求める。これにより、輝度勾配検出部33は、表示対象フレームの注目画素(例えば、図3に示される画素51)の配置位置における輝度勾配slopeを簡単に(軽負荷で)演算することができる。   However, the generation of such a function f (x) and the calculation of the primary differential value using the function f (x) are heavy processing for the luminance gradient detector 33. Therefore, here, for example, a value slope represented by the following equation (2) is defined as a luminance gradient. That is, the luminance gradient detector 33 calculates the luminance gradient slope by calculating the right side of the equation (2). Thereby, the luminance gradient detection unit 33 can easily (at a light load) calculate the luminance gradient slope at the arrangement position of the target pixel (for example, the pixel 51 shown in FIG. 3) of the display target frame.

Figure 2005160015
・・・(2)
Figure 2005160015
... (2)

なお、式(2)において、Yiは、図3に示されるように、配置位置iの注目画素51の輝度(画素値)を示している。Yi-1は、注目画素51の左隣の画素52(空間方向Xと逆方向に注目画素51と隣接する、配置位置i-1の画素52)の輝度(画素値)を示している。Yi+1は、注目画素51の右隣の画素53(空間方向Xに注目画素51と隣接する、配置位置i+1の画素53)の輝度(画素値)を示している。また、max(A,B,・・・,N)は、数値A乃至数値Nのそれぞれがパラメータとして入力され、入力された数値A乃至数値Nのうちの最大値を出力する関数を示している。なお、この関数max()に入力されるパラメータの個数(数値A乃至数値Nの個数)は特に限定されない。 In Expression (2), Y i indicates the luminance (pixel value) of the target pixel 51 at the arrangement position i, as shown in FIG. Y i-1 indicates the luminance (pixel value) of the pixel 52 adjacent to the left of the target pixel 51 (the pixel 52 at the arrangement position i-1 adjacent to the target pixel 51 in the direction opposite to the spatial direction X). Y i + 1 indicates the luminance (pixel value) of the pixel 53 on the right side of the target pixel 51 (the pixel 53 at the arrangement position i + 1 adjacent to the target pixel 51 in the spatial direction X). Max (A, B,..., N) indicates a function in which each of numerical values A to N is input as a parameter, and the maximum value among the input numerical values A to N is output. . Note that the number of parameters (number A to number N) input to the function max () is not particularly limited.

即ち、輝度勾配検出部33は、注目画素51の輝度Yiとその左隣の画素52の輝度Yi-1との差分絶対値Aと、注目画素51の輝度Yiとその右隣の画素53の輝度Yi+1との差分絶対値Bとのそれぞれを演算し、差分絶対値Aと差分絶対値Bとのうちの値が大きい方(最大値)を、注目画素51の配置位置における輝度勾配slopeとして動きベクトル補正部36に供給する。 That is, the brightness gradient detecting unit 33, the luminance Y i and the difference absolute value A of the luminance Y i-1 of the pixel 52 of the left side, the luminance Y i and the pixel on the right side of the target pixel 51 of the pixel of interest 51 The difference absolute value B with the luminance Y i + 1 of 53 is calculated, and the larger one of the difference absolute value A and the difference absolute value B (maximum value) is calculated at the position where the target pixel 51 is arranged. The luminance gradient slope is supplied to the motion vector correction unit 36.

ところで、表示対象フレームの画像データは、上述したように、LPF31を介してテンプレートマッチング部34にも供給される。このとき、テンプレートマッチング部34にはさらに、参照画像記憶部13に記憶されている直前フレーム(直前に表示対象フレームであったフレーム)の画像データが、表示対象フレームに対する参照画像の画像データとしてLPF32を介して供給される。   Incidentally, the image data of the display target frame is also supplied to the template matching unit 34 via the LPF 31 as described above. At this time, the template matching unit 34 further receives the image data of the immediately previous frame (the frame that was the display target frame immediately before) stored in the reference image storage unit 13 as the image data of the reference image for the display target frame. Is supplied through.

すると、テンプレートマッチング部34は、直前フレームの中から、注目画素の配置位置に対応する位置を少なくとも含む所定の領域(以下、このような領域をウィンドウと称する)を切り出し、そのウィンドウが表示対象フレームのどの領域とマッチングするのかを求め、そのマッチング結果に基づいて注目画素の動きベクトル候補pvecを決定し、ヒストグラム部35に供給する。   Then, the template matching unit 34 cuts out a predetermined area including at least a position corresponding to the arrangement position of the target pixel (hereinafter, such area is referred to as a window) from the previous frame, and the window is a display target frame. Which region is to be matched is determined, the motion vector candidate pvec of the pixel of interest is determined based on the matching result, and is supplied to the histogram unit 35.

また、テンプレートマッチング部34は、動きベクトル補正部36が使用する制御信号flagを生成し、動きベクトル補正部36に供給する。なお、制御信号flagの詳細については後述する。   Further, the template matching unit 34 generates a control signal flag used by the motion vector correction unit 36 and supplies the control signal flag to the motion vector correction unit 36. Details of the control signal flag will be described later.

このテンプレートマッチング部34の詳細について、以下、図4乃至図10を参照して説明する。   Details of the template matching unit 34 will be described below with reference to FIGS.

図4は、本実施の形態のテンプレートマッチング部34の詳細な構成例を示している。   FIG. 4 shows a detailed configuration example of the template matching unit 34 of the present embodiment.

図4に示されるように、本実施の形態のテンプレートマッチング部34は、SAD(Sum of Absolute Difference)演算部61、SAD極小値検出部62、および、SAD極小値評価部63から構成される。   As shown in FIG. 4, the template matching unit 34 of the present embodiment includes a SAD (Sum of Absolute Difference) calculation unit 61, a SAD minimum value detection unit 62, and a SAD minimum value evaluation unit 63.

SAD演算部61は、例えば、図5に示されるように、直前フレームの中から、表示対象フレームの注目画素51の配置位置i(iは、上述したように、空間方向Xの座標値を示す)に対応する位置iに配置された画素71を中心とする、空間方向Xに連続して並ぶ所定の個数(図5の例では、5個)の画素から構成されるウィンドウ72を切り出す。   For example, as shown in FIG. 5, the SAD calculation unit 61 arranges the position i (i is the coordinate value in the spatial direction X of the target pixel 51 of the display target frame from the immediately preceding frame, as described above. ), A window 72 composed of a predetermined number (5 in the example of FIG. 5) of pixels arranged continuously in the spatial direction X, with the pixel 71 arranged at the position i corresponding to) as the center.

また、SAD演算部61は、表示対象フレームの中から次のような領域(なお、このような領域をウィンドウと区別するために、比較領域と称する)を切り出す。即ち、注目画素の配置位置iから空間方向Xまたはその逆方向にn(nは、予め設定された範囲内の整数値であり、図5の例では、-6乃至(+6)のうちのいずれかの整数値)だけ離間した位置i+n(以下、探索位置i+nと称する)に配置された画素を中心とする、空間方向Xに連続して並ぶ所定の個数(ウィンドウ72と同一の個数であって、図5の例では、5個)の画素から構成される比較領域73−nが切り出される。なお、探索位置i-6に対応する比較領域73−(−6)と、探索位置i+6に対応する比較領域73−(+6)のみが図示されているが、ここでは(図5の例では)、実際には、比較領域73−(−6)と比較領域73−(+6)とを含めた、13個の比較領域73−nのそれぞれが所定の順番で順次切り出される。   In addition, the SAD computing unit 61 cuts out the following area (referred to as a comparison area in order to distinguish such an area from a window) from the display target frame. That is, n (n is an integer value within a preset range from the arrangement position i of the target pixel in the spatial direction X or in the opposite direction, and in the example of FIG. 5 -6 to (+6) A predetermined number (same as the window 72) continuously arranged in the spatial direction X around the pixel arranged at the position i + n (hereinafter referred to as the search position i + n) separated by any integer value) The comparison region 73-n including 5 pixels in the example of FIG. 5 is cut out. Note that only the comparison area 73-(-6) corresponding to the search position i-6 and the comparison area 73-(+ 6) corresponding to the search position i + 6 are illustrated, but here (example of FIG. 5). Actually, each of the 13 comparison regions 73-n including the comparison region 73-(-6) and the comparison region 73-(+ 6) is sequentially cut out in a predetermined order.

そして、SAD演算部61は、ウィンドウ72と、13個の比較領域73−n(比較領域73−(−6)乃至比較領域73−(+6))のそれぞれとの相関を所定の評価関数を用いて演算し、各演算結果のそれぞれをSAD極小値検出部62に供給する。   Then, the SAD computing unit 61 uses a predetermined evaluation function to correlate the window 72 and each of the 13 comparison regions 73-n (comparison region 73-(-6) to comparison region 73-(+ 6)). And each of the calculation results is supplied to the SAD minimum value detector 62.

なお、SAD演算部61が利用する評価関数については特に限定されず、例えば、SAD演算部61は、正規化相関関数やSSD(Sum of Squared Difference)等を利用することもできる。ただし、ここでは、SAD演算部61は、SADを利用するとして説明する。   The evaluation function used by the SAD calculation unit 61 is not particularly limited. For example, the SAD calculation unit 61 can use a normalized correlation function, an SSD (Sum of Squared Difference), or the like. However, here, the SAD calculation unit 61 will be described as using SAD.

即ち、SAD演算部61は、次の式(3)の右辺を演算することで、ウィンドウ72と各比較領域73−nのそれぞれとの相関値SAD(j)(jはi+nである。即ち、ここでは、jは、図5の探索範囲i-6乃至i+6のうちのいずれかの整数値)のそれぞれを求め、SAD極小値検出部62にそれぞれ供給する。   That is, the SAD computing unit 61 computes the right side of the following equation (3), whereby the correlation value SAD (j) (j is i + n) between the window 72 and each comparison region 73-n. That is, here, j is determined for each of the search ranges i−6 to i + 6 in FIG. 5, and supplied to the SAD minimum value detector 62.

Figure 2005160015
・・・(3)
Figure 2005160015
... (3)

なお、式(3)において、Ck jは、図5に示されるように、探索位置j(j=i+n)における比較領域73−nを構成する5つの画素のうちの、図中左からk番目の画素の輝度(画素値)を示している。Pk iは、図5に示されるように、配置位置iの画素71を中心とするウィンドウ72を構成する5つの画素のうちの、図中左からk番目の画素の輝度(画素値)を示している。 In Expression (3), C k j is, as shown in FIG. 5, left in the figure among the five pixels constituting the comparison region 73-n at the search position j (j = i + n). The luminance (pixel value) of the k-th pixel is shown. As shown in FIG. 5, P k i represents the luminance (pixel value) of the kth pixel from the left in the figure among the five pixels that constitute the window 72 centered on the pixel 71 at the arrangement position i. Show.

具体的には、例えば、いま、図6に示されるように、表示対象フレームの空間方向Xにおける輝度(画素値)の変化が曲線81とされ、その直前フレームの空間方向Xにおける輝度(画素値)の変化が曲線82とされたとする。なお、図6において、縦軸は輝度(画素値)を示しており、横軸は画素位置(配置位置)を示している。また、画素位置iは、上述したように、注目画素51の配置位置を示している。   Specifically, for example, as shown in FIG. 6, the change in luminance (pixel value) in the spatial direction X of the display target frame is a curve 81, and the luminance (pixel value) in the spatial direction X of the immediately preceding frame is shown. ) Is a curve 82. In FIG. 6, the vertical axis represents luminance (pixel value), and the horizontal axis represents pixel position (arrangement position). The pixel position i indicates the arrangement position of the target pixel 51 as described above.

この場合におけるSAD演算部61の演算結果、即ち、各相関値SAD(j(=i+n))のそれぞれが図7に示されている。なお、図7において、縦軸は相関値SAD(j)を示しており、横軸は探索位置(配置位置)を示している。即ち、図7は、図6の曲線82に示される画素値(輝度)を有する5つの画素から構成されるウィンドウ72と、図6の曲線81に示される画素値(輝度)を有する5つの画素から構成される各比較領域73−nのそれぞれとの、探索位置i+nにおけるSAD(i+n(=j))を示している。   FIG. 7 shows the calculation result of the SAD calculation unit 61 in this case, that is, each correlation value SAD (j (= i + n)). In FIG. 7, the vertical axis indicates the correlation value SAD (j), and the horizontal axis indicates the search position (arrangement position). That is, FIG. 7 shows a window 72 composed of five pixels having the pixel value (luminance) shown by the curve 82 in FIG. 6 and five pixels having the pixel value (luminance) shown by the curve 81 in FIG. SAD (i + n (= j)) at the search position i + n with each of the comparison regions 73-n configured by

図4に戻り、相関値SAD(j)が小さいほど相関が高いことを表すので、SAD極小値検出部62は、SAD演算部61より供給された各相関値SAD(j(=i+n))のそれぞれの中から最小値minを検出し、最小値minに対応する探索位置pos(図7の例では、pos=i+3)をSAD極小値評価部63とヒストグラム部35のそれぞれに供給する。   Returning to FIG. 4, the smaller the correlation value SAD (j) is, the higher the correlation is. Therefore, the SAD minimum value detection unit 62 receives each correlation value SAD (j (= i + n)) supplied from the SAD calculation unit 61. ) To detect the minimum value min and supply the search position pos (pos = i + 3 in the example of FIG. 7) corresponding to the minimum value min to each of the SAD minimum value evaluation unit 63 and the histogram unit 35. To do.

なお、最小値minは、各相関値SAD(j)のそれぞれを結んだ曲線の極小点(z,SAD(z))(zは、ここでは、i-6乃至i+6のうちのいずれかの整数値)における相関値SAD(z)、具体的には、例えば、図7の例では、極小点(i+3,SAD(i+3))における相関値SAD(i+3)(=約40)となる。そこで、以下、最小値minを極小値minとも称する。   Note that the minimum value min is the minimum point (z, SAD (z)) (z is any one of i-6 to i + 6 in this case) connecting each correlation value SAD (j). The correlation value SAD (z) at the minimum point (i + 3, SAD (i + 3)) in the example of FIG. About 40). Therefore, hereinafter, the minimum value min is also referred to as a minimum value min.

以上のSAD演算部61とSAD極小値検出部62との処理を要約すると次の通りとなる。即ち、SAD演算部61は、直前フレームの中から、注目画素51の配置位置に対応する位置iに配置される画素71を検出し、その画素71を少なくとも含むウィンドウ72を切りだす。次に、SAD演算部61は、そのウィンドウ72を、表示対象フレームにおける注目画素51を含む水平ライン(空間方向Xに平行なライン)上で順次変移させる。このとき、SAD演算部61は、ウィンドウ72の各変移位置(探索位置)i+nのそれぞれにおいて、ウィンドウ72とそれと重なり合う領域(比較領域)73−nとの間で一致度(相関)を、所定の評価関数(ここではSAD)を用いて演算する。そして、SAD極小値検出部62は、もっとも一致度(相関)が高いと判断される(即ち、極小値minを有する)比較領域73−nの中心画素を、ウィンドウ72の中心画素71(注目画素51に対応する画素71)の対応画素として設定する。即ち、表示対象フレームを構成する各画素のうちの、極小値minに対応する探索位置posに配置される画素が、ウィンドウ72の中心画素71の対応画素として設定される。   The above-described processes performed by the SAD calculation unit 61 and the SAD minimum value detection unit 62 are summarized as follows. That is, the SAD computing unit 61 detects the pixel 71 arranged at the position i corresponding to the arrangement position of the target pixel 51 from the immediately preceding frame, and cuts out the window 72 including at least the pixel 71. Next, the SAD calculation unit 61 sequentially shifts the window 72 on a horizontal line (a line parallel to the spatial direction X) including the target pixel 51 in the display target frame. At this time, the SAD computing unit 61 calculates the degree of coincidence (correlation) between the window 72 and the overlapping area (comparison area) 73-n at each transition position (search position) i + n of the window 72. Calculation is performed using a predetermined evaluation function (here, SAD). Then, the SAD minimum value detection unit 62 determines the central pixel of the comparison region 73-n that has the highest degree of matching (correlation) (that is, has the minimum value min) as the central pixel 71 (target pixel) of the window 72. 51 is set as the corresponding pixel of the pixel 71) corresponding to 51. That is, the pixel arranged at the search position pos corresponding to the minimum value min among the pixels constituting the display target frame is set as the corresponding pixel of the center pixel 71 of the window 72.

なお、このようなSAD演算部61とSAD極小値検出部62とが実行する手法は、ウィンドウマッチング手法、エリアベースマッチング手法、或いは、テンプレートマッチング手法等と称されている。また、対応画素は、対応点とも称される。   Note that the method executed by the SAD calculation unit 61 and the SAD minimum value detection unit 62 is referred to as a window matching method, an area-based matching method, a template matching method, or the like. The corresponding pixel is also referred to as a corresponding point.

ただし、正確には、ヒストグラム部35には、注目画素51の配置位置iを起点とし探索位置pos(=i+n)を終点とするベクトルn(ウィンドウ72の基準位置iからの変移量と変移方向を示す値n)が、動きベクトル候補pvecとして供給される。即ち、ここでは、上述したように、値nの絶対値が、ベクトル(動きベクトル候補pvec)の大きさを示し、値nの正負が、ベクトル(動きベクトル候補pvec)の方向を示すことになる。詳細には、値nが正の場合、動きベクトル候補pvecの方向は、空間方向X、即ち、注目画素51に対して図5中右方向となる。一方、値nが負の場合、動きベクトル候補pvecの方向は、空間方向Xと逆方向、即ち、注目画素51に対して図5中左方向となる。具体的には、例えば、図7の例では、注目画素51の動きベクトル候補pvecとして「+3」がヒストグラム部35に供給される。   However, to be precise, the histogram unit 35 has a vector n (amount of change from the reference position i of the window 72 and the amount of change) starting from the arrangement position i of the target pixel 51 and ending at the search position pos (= i + n). A value n) indicating the direction is supplied as a motion vector candidate pvec. That is, here, as described above, the absolute value of the value n indicates the magnitude of the vector (motion vector candidate pvec), and the sign of the value n indicates the direction of the vector (motion vector candidate pvec). . Specifically, when the value n is positive, the direction of the motion vector candidate pvec is the spatial direction X, that is, the right direction in FIG. On the other hand, when the value n is negative, the direction of the motion vector candidate pvec is opposite to the spatial direction X, that is, the left direction in FIG. Specifically, for example, in the example of FIG. 7, “+3” is supplied to the histogram unit 35 as the motion vector candidate pvec of the target pixel 51.

より正確には、後述するように、ヒストグラム部35は、注目画素51とその周辺の複数の画素のそれぞれの動きベクトル候補pvecのヒストグラムを生成し、このヒストグラムに基づいて注目画素51の動きベクトルvecを決定する。そこで、SAD演算部61とSAD極小値検出部62は、注目画素51の動きベクトル候補pvecだけではなく、注目画素51を中心としてX方向に連続して並ぶ所定の個数の画素から構成される領域(例えば、後述する図11の領域95)を設定し、この領域を構成する各画素のそれぞれの動きベクトル候補pvecを求め(求め方は上述した手法と全く同様の手法)、ヒストグラム部35にそれぞれ供給する。   More precisely, as will be described later, the histogram unit 35 generates a histogram of the motion vector candidate pvec of each of the target pixel 51 and a plurality of surrounding pixels, and the motion vector vec of the target pixel 51 based on this histogram. To decide. Therefore, the SAD calculation unit 61 and the SAD minimum value detection unit 62 are not only the motion vector candidate pvec of the pixel of interest 51 but also an area configured by a predetermined number of pixels lined up continuously in the X direction with the pixel of interest 51 as the center. (For example, an area 95 in FIG. 11 described later) is set, and motion vector candidate pvec of each pixel constituting this area is obtained (the method is exactly the same as the above-described method), and each of the histogram units 35 is obtained. Supply.

ところで、例えば、いま、図8に示されるように、表示対象フレームの空間方向Xにおける輝度(画素値)の変化が曲線91とされ、その直前フレームの空間方向Xにおける輝度(画素値)の変化が曲線92とされたとする。なお、図8において、縦軸は輝度(画素値)を示しており、横軸は画素位置(配置位置)を示している。また、画素位置iは、上述したように、注目画素51の配置位置を示している。   By the way, for example, as shown in FIG. 8, the change in luminance (pixel value) in the spatial direction X of the display target frame is a curve 91, and the change in luminance (pixel value) in the spatial direction X of the immediately preceding frame. Is a curve 92. In FIG. 8, the vertical axis represents luminance (pixel value), and the horizontal axis represents pixel position (arrangement position). The pixel position i indicates the arrangement position of the target pixel 51 as described above.

この場合におけるSAD演算部61の演算結果、即ち、各相関値SAD(j(=i+n))のそれぞれが図9に示されている。なお、図9において、縦軸は相関値SAD(j)を示しており、横軸は探索位置(配置位置)を示している。即ち、図9は、図8の曲線92に示される画素値(輝度)を有する5つの画素から構成されるウィンドウ72と、図8の曲線91に示される画素値(輝度)を有する5つの画素から構成される各比較領域73−nのそれぞれとの、探索位置i+nにおけるSAD(i+n)を示している。   The calculation result of the SAD calculation unit 61 in this case, that is, each correlation value SAD (j (= i + n)) is shown in FIG. In FIG. 9, the vertical axis represents the correlation value SAD (j), and the horizontal axis represents the search position (arrangement position). That is, FIG. 9 shows a window 72 composed of five pixels having the pixel value (luminance) shown by the curve 92 in FIG. 8 and five pixels having the pixel value (luminance) shown by the curve 91 in FIG. SAD (i + n) at the search position i + n with each of the comparison regions 73-n constituted by

図9においては、各相関値SAD(j)のそれぞれを結んだ曲線の極小点は、点(i-1,SAD(i-1))と点(i+5,SAD(i+5))である。即ち、図9の例では、2つの極小点が存在する。このように複数の極小点が存在する場合、SAD演算部61は、複数の極小点のそれぞれに対応する相関値SAD(j)のうちの最小値、即ち、全てのSAD(j)の中での最小値を極小値minとして適用する。具体的には、例えば、図9の例では、極小点(i+5,SAD(i+5))における相関値SAD(i+5)(=約27)が極小値minとして適用される。従って、比較領域73−5(図示せず)の中心画素、即ち、表示対象フレーム内の配置位置i+5の画素が、ウィンドウ72の中心画素71の対応画素(対応点)として設定される。即ち、注目画素51の動きベクトル候補pvecとして「+5」がヒストグラム部35に供給される。   In FIG. 9, the minimum points of the curve connecting the correlation values SAD (j) are the point (i-1, SAD (i-1)) and the point (i + 5, SAD (i + 5)). It is. That is, in the example of FIG. 9, there are two local minimum points. When there are a plurality of minimum points in this way, the SAD computing unit 61, among the correlation values SAD (j) corresponding to each of the plurality of minimum points, that is, among all SAD (j). The minimum value of is applied as the minimum value min. Specifically, for example, in the example of FIG. 9, the correlation value SAD (i + 5) (= about 27) at the minimum point (i + 5, SAD (i + 5)) is applied as the minimum value min. Therefore, the center pixel of the comparison region 73-5 (not shown), that is, the pixel at the arrangement position i + 5 in the display target frame is set as a corresponding pixel (corresponding point) of the center pixel 71 of the window 72. That is, “+5” is supplied to the histogram unit 35 as the motion vector candidate pvec of the target pixel 51.

しかしながら、図9に示されるように、この極小値min、即ち、極小点(i+5,SAD(i+5))における相関値SAD(i+5)(=約27)と、極小点(i-1,SAD(i-1))における相関値SAD(i-1)(=約30)とは差異が小さく、ウィンドウ72の中心画素71の対応画素(対応点)は、配置位置i+5の画素であるとは一概に言えない。即ち、ウィンドウ72の中心画素71の対応画素(対応点)は、配置位置i-1の画素である可能性もある。   However, as shown in FIG. 9, this minimum value min, that is, the correlation value SAD (i + 5) (= about 27) at the minimum point (i + 5, SAD (i + 5)) and the minimum point ( i−1, SAD (i−1)) has a small difference from the correlation value SAD (i−1) (= about 30), and the corresponding pixel (corresponding point) of the center pixel 71 of the window 72 is the arrangement position i +. It cannot be said that it is 5 pixels. That is, the corresponding pixel (corresponding point) of the center pixel 71 of the window 72 may be a pixel at the arrangement position i-1.

このように、ウィンドウ72の中心画素71の対応画素(対応点)の候補が2以上存在する場合(図9に示されるように、グラフ化されたSAD(j)において2以上の極小点が存在し、各極小点のそれぞれに対応する各相関値SAD(j)間の差異が小さい場合)、設定された対応画素(最下点の極小点に対応する画素)の信頼度、即ち、ヒストグラム部35に供給された注目画素51の動きベクトル候補pvecの信頼度が低いと言える。   Thus, when there are two or more candidates for the corresponding pixel (corresponding point) of the center pixel 71 of the window 72 (as shown in FIG. 9, there are two or more minimum points in the graphed SAD (j)). When the difference between each correlation value SAD (j) corresponding to each local minimum point is small), the reliability of the set corresponding pixel (the pixel corresponding to the lowest local minimum point), that is, the histogram portion It can be said that the reliability of the motion vector candidate pvec of the target pixel 51 supplied to 35 is low.

また、たとえ、ウィンドウ72の中心画素71の対応画素(対応点)の候補が1つだけの場合(図7に示されるように、グラフ化されたSAD(j)において1つの極小点だけが存在する場合、或いは、図示はしないが、グラフ化されたSAD(j)において2以上の極小点が存在するが、最小の相関値SAD(j)(=極小値min)と、他の相関値SAD(j)との間の差異が大きい場合)であっても、設定された対応画素の相関値SAD(j)(=極小値min)が十分に小さくないとき、その対応画素の信頼度、即ち、ヒストグラム部35に供給された注目画素51の動きベクトル候補pvecの信頼度が低いと言える。   Also, even if there is only one candidate for the corresponding pixel (corresponding point) of the center pixel 71 of the window 72 (as shown in FIG. 7, only one local minimum point exists in the graphed SAD (j). Or, although not shown, there are two or more minimum points in the graphed SAD (j), but the minimum correlation value SAD (j) (= minimum value min) and other correlation values SAD If the correlation value SAD (j) (= minimum value min) of the set corresponding pixel is not sufficiently small even when the difference from (j) is large), the reliability of the corresponding pixel, that is, It can be said that the reliability of the motion vector candidate pvec of the target pixel 51 supplied to the histogram unit 35 is low.

そこで、このような極小値minの評価、即ち、極小値minに対応する画素が対応画素であることの信頼度(ヒストグラム部35に供給された注目画素51の動きベクトル候補pvecの信頼度)の評価を行うために、本実施の形態のテンプレートマッチング部34は、図4に示される構成を有している。即ち、図4に示されるように、本実施の形態のテンプレートマッチング部34には、上述したSAD演算部61とSAD極小値検出部62の他にさらに、SAD極小値評価部63が設けられている。   Therefore, the evaluation of such a minimum value min, that is, the reliability of the pixel corresponding to the minimum value min being the corresponding pixel (the reliability of the motion vector candidate pvec of the target pixel 51 supplied to the histogram unit 35). In order to perform the evaluation, the template matching unit 34 of the present embodiment has a configuration shown in FIG. That is, as shown in FIG. 4, the template matching unit 34 of the present embodiment is provided with a SAD minimum value evaluation unit 63 in addition to the SAD calculation unit 61 and the SAD minimum value detection unit 62 described above. Yes.

このSAD極小値評価部63は、極小値minに対応する画素が対応画素であることの信頼度(ヒストグラム部35に供給された注目画素51の動きベクトル候補pvecの信頼度)の評価を行い、その評価が低いと判断した場合、上述した制御信号flagとして、例えば、「1」を動きベクトル修正部36に供給する。このとき、後述するように、動きベクトル修正部36は、注目画素51の動きベクトルvecを補正する。   The SAD minimum value evaluation unit 63 evaluates the reliability (the reliability of the motion vector candidate pvec of the target pixel 51 supplied to the histogram unit 35) that the pixel corresponding to the minimum value min is a corresponding pixel, When it is determined that the evaluation is low, for example, “1” is supplied to the motion vector correction unit 36 as the control signal flag described above. At this time, as will be described later, the motion vector correction unit 36 corrects the motion vector vec of the target pixel 51.

これに対して、SAD極小値評価部63は、上述した評価が高いと判断した場合、制御信号flagとして、例えば、「0」を動きベクトル修正部36に供給する。このとき、後述するように、動きベクトル修正部36は、注目画素51の動きベクトルvecの補正を禁止する(補正しない)。   On the other hand, when the SAD minimum value evaluation unit 63 determines that the above-described evaluation is high, the SAD minimum value evaluation unit 63 supplies, for example, “0” to the motion vector correction unit 36 as the control signal flag. At this time, as described later, the motion vector correction unit 36 prohibits (does not correct) the correction of the motion vector vec of the target pixel 51.

具体的には、例えば、本実施の形態においては、SAD極小値評価部63が上述した評価を行うために必要な値が、SAD極小値検出部62により演算または検出され、SAD極小値評価部36に供給される。   Specifically, for example, in the present embodiment, a value necessary for the SAD minimum value evaluation unit 63 to perform the above-described evaluation is calculated or detected by the SAD minimum value detection unit 62, and the SAD minimum value evaluation unit 36.

即ち、本実施の形態において、SAD極小値検出部62が検出する値とは、上述した極小値min、即ち、相関値SAD(j)の最小値min(ただし、以下、後述する値min2と区別するために、極小値min1と称する)の他にさらに、図10に示されるように、その極小値min1に対応する探索位置pos1、極小値min1の次に小さい相関値SAD(j)(即ち、全ての相関値SAD(j)の中で2番目に小さい値であって、以下、極小値min2と記述する)、および、その極小値min2に対応する探索位置pos2である。   That is, in the present embodiment, the value detected by the SAD minimum value detection unit 62 is the minimum value min described above, that is, the minimum value min of the correlation value SAD (j) (however, it is distinguished from the value min2 described below). In addition to the minimum value min1, the search position pos1 corresponding to the minimum value min1 and the next smallest correlation value SAD (j) (ie, the minimum value min1) are shown in FIG. This is the second smallest value among all the correlation values SAD (j), and is hereinafter referred to as a minimum value min2, and the search position pos2 corresponding to the minimum value min2.

また、本実施の形態において、SAD極小値検出部62が演算する値とは、探索範囲(図5の例では、探索位置i-6乃至i+6の範囲)における各相関値SAD(j)の平均値SADaveと極小値min1との差分値eval1(平均値SADaveから極小値min1までの深さeval1)、および、平均値SADaveと極小値min2との差分値eval2(平均値SADaveから極小値min2までの深さeval2)である。 In the present embodiment, the value calculated by the SAD minimum value detector 62 is the correlation value SAD (j) in the search range (in the example of FIG. 5, the range of search positions i-6 to i + 6). The difference value eval1 between the average value SAD ave and the minimum value min1 (depth eval1 from the average value SAD ave to the minimum value min1) and the difference value eval2 between the average value SAD ave and the minimum value min2 (average value SAD ave To the minimum value min2 (eval2).

なお、いまの場合(探索範囲が探索位置i-6乃至i+6の場合)、平均値SADaveは次の式(4)により演算される。 In this case (when the search range is search positions i−6 to i + 6), the average value SAD ave is calculated by the following equation (4).

Figure 2005160015
・・・(4)
Figure 2005160015
... (4)

図4に戻り、このような各値(極小値min1、その探索位置pos1、および、その深さeval1、並びに、極小値min2,その探索位置pos2、および、その深さeval2)がSAD極小値検出部62から供給されると、SAD極小値評価部63は、次の第1の条件または第2の条件が満たされるか否かを判定する。   Returning to FIG. 4, each such value (minimum value min1, its search position pos1, and its depth eval1, and its minimum value min2, its search position pos2, and its depth eval2) is detected as a SAD minimum value. When supplied from the unit 62, the SAD minimum value evaluation unit 63 determines whether or not the following first condition or second condition is satisfied.

即ち、第1の条件とは、次の不等式(5)乃至不等式(7)の全てが成立することである。   That is, the first condition is that all of the following inequalities (5) to (7) are satisfied.

eval1 > eval_thresh ・・・(5)
eval2 > eval_thresh ・・・(6)
|pos1−pos2| > pos_thresh ・・・(7)
eval1> eval_thresh (5)
eval2> eval_thresh (6)
| Pos1-pos2 |> pos_thresh (7)

なお、不等式(5)と不等式(6)において、eval_threshは所定の閾値を示しており、予め設定されている値である。同様に、不等式(7)において、pos_threshは所定の閾値を示しており、予め設定されている値である。   In inequality (5) and inequality (6), eval_thresh indicates a predetermined threshold and is a preset value. Similarly, in inequality (7), pos_thresh represents a predetermined threshold and is a preset value.

不等式(5)乃至不等式(7)から容易にわかることであるが、結局、上述した図9に示されるような場合(極小点が2以上存在し、それらに対応する各相関値S(j)の差異が小さい場合)、即ち、ウィンドウ72の中心画素71の対応画素(対応点)の候補が2以上存在し、はっきりとした対応画素が見つけられない場合(図9の例では、探索位置i+5と探索位置i-1のそれぞれに配置される画素が、対応画素の候補となる)、第1の条件が満たされることになる。   As can be easily understood from the inequality (5) to the inequality (7), as shown in FIG. 9 as described above (two or more minimum points exist, and each correlation value S (j) corresponding to them exists. ), That is, when there are two or more candidates for the corresponding pixel (corresponding point) of the center pixel 71 of the window 72 and no clear corresponding pixel is found (in the example of FIG. 9, the search position i The pixels arranged at +5 and the search position i−1 are candidates for corresponding pixels), and the first condition is satisfied.

一方、第2の条件とは、次の不等式(8)が成立することである。   On the other hand, the second condition is that the following inequality (8) holds.

min1 > min_thresh ・・・(8)   min1> min_thresh (8)

なお、不等式(8)において、min_threshは所定の閾値を示しており、予め設定されている値である。   In inequality (8), min_thresh indicates a predetermined threshold value, which is a preset value.

不等式(8)から容易にわかることであるが、結局、極小値min1が十分に小さくない場合、即ち、ウィンドウ72と、極小値min1に対応する比較領域73−nとの対応がしっかりと取れていない場合、第2の条件が満たされることになる。   As can be easily understood from the inequality (8), in the end, when the minimum value min1 is not sufficiently small, that is, the correspondence between the window 72 and the comparison region 73-n corresponding to the minimum value min1 is firmly established. If not, the second condition will be met.

従って、第1の条件と第2の条件のうちの少なくとも一方が満たされたと判定した場合、SAD極小値評価部63は、極小値min1に対応する画素が対応画素であることの信頼度(ヒストグラム部35に供給された注目画素51の動きベクトル候補pvecの信頼度)が低いと評価し、制御信号flagとして「1」を動きベクトル修正部36に出力する。   Therefore, when it is determined that at least one of the first condition and the second condition is satisfied, the SAD minimum value evaluation unit 63 determines the reliability (histogram) that the pixel corresponding to the minimum value min1 is the corresponding pixel. The reliability of the motion vector candidate pvec of the target pixel 51 supplied to the unit 35 is evaluated to be low, and “1” is output to the motion vector correction unit 36 as the control signal flag.

これに対して、第1の条件と第2の条件とのいずれも満たされていないと判定した場合、SAD極小値評価部63は、極小値min1に対応する画素が対応画素であることの信頼度(ヒストグラム部35に供給された注目画素51の動きベクトル候補pvecの信頼度)が高いと評価し、制御信号flagとして「0」を動きベクトル修正部36に出力する。   On the other hand, if it is determined that neither the first condition nor the second condition is satisfied, the SAD minimum value evaluation unit 63 determines that the pixel corresponding to the minimum value min1 is a corresponding pixel. It is evaluated that the degree (the reliability of the motion vector candidate pvec of the target pixel 51 supplied to the histogram unit 35) is high, and “0” is output to the motion vector correction unit 36 as the control signal flag.

図2に戻り、ヒストグラム部35には、表示対象フレームのうちの注目画素51を含む複数の画素から構成される領域に対する、テンプレートマッチング部34の出力結果が供給される。即ち、その領域を構成する複数の画素のそれぞれの動きベクトル候補pvecがヒストグラム部35に供給される。そこで、ヒストグラム部35は、供給された複数の動きベクトル候補pvecのヒストグラムを生成し、そのヒストグラムを参照して最も頻度の高い動きベクトル候補pvecを検出し、検出した動きベクトル候補pvecを注目画素51の動きベクトルvecとして動きベクトル補正部36に供給する。   Returning to FIG. 2, the histogram unit 35 is supplied with the output result of the template matching unit 34 for an area composed of a plurality of pixels including the target pixel 51 in the display target frame. That is, the motion vector candidates pvec of the plurality of pixels constituting the area are supplied to the histogram unit 35. Therefore, the histogram unit 35 generates a histogram of the supplied plurality of motion vector candidates pvec, detects the most frequent motion vector candidate pvec with reference to the histogram, and uses the detected motion vector candidate pvec as the target pixel 51. To the motion vector correction unit 36 as a motion vector vec.

なお、ヒストグラムが生成される対象領域は、注目画素51を含む領域であれば特に限定されない。即ち、その領域を構成する画素の個数や、その領域内の注目画素51の位置は特に限定されない。ただし、ここでは、例えば、注目画素51を中心として空間方向Xに連続して並ぶ17個の画素から構成される領域、即ち、注目画素51の左方(空間方向Xの逆方向)に連続して並ぶ8個の画素、注目画素51、および、注目画素51の右方(空間方向X)に連続して並ぶ8個の画素から構成される領域が、ヒストグラムが生成される対象領域とされる。   The target region for generating the histogram is not particularly limited as long as it is a region including the target pixel 51. That is, the number of pixels constituting the area and the position of the target pixel 51 in the area are not particularly limited. However, here, for example, an area composed of 17 pixels arranged continuously in the spatial direction X with the target pixel 51 as the center, that is, continuous to the left of the target pixel 51 (opposite to the spatial direction X). A region composed of eight pixels lined up in parallel, a target pixel 51, and eight pixels lined up continuously to the right of the target pixel 51 (spatial direction X) is a target region for generating a histogram. .

具体的には、例えば、いま、テンプレートマッチング部34から、図11に示されるような領域95を構成する各画素のそれぞれのベクトル候補pvecが出力されたとする。なお、図11の領域95において、17個に区分された小領域のそれぞれは各画素のそれぞれを示しており、それらの17個の小領域のうちの中心の小領域は注目画素51を示している。また、各画素(各小領域)のそれぞれの中に記載された値が、対応する画素の動きベクトル候補pvec例を示している。ただし、「+」は省略されている。   Specifically, for example, it is assumed that the vector candidate pvec of each pixel constituting the region 95 as shown in FIG. In the area 95 of FIG. 11, each of the 17 small areas indicates each pixel, and the central small area among the 17 small areas indicates the target pixel 51. Yes. In addition, the value described in each pixel (each small region) indicates an example of a motion vector candidate pvec of the corresponding pixel. However, “+” is omitted.

この場合、ヒストグラム部35は、図12に示されるようなヒストグラムを生成する。図12の例では、最も頻度の高い(頻度7の)動きベクトル候補pvecは「+4」とされているので、ヒストグラム部35は、「+4」を注目画素51の動きベクトルvecとして決定し、図2の動きベクトル補正部36に供給する。   In this case, the histogram unit 35 generates a histogram as shown in FIG. In the example of FIG. 12, since the motion vector candidate pvec with the highest frequency (frequency 7) is “+4”, the histogram unit 35 determines “+4” as the motion vector vec of the pixel 51 of interest. 2 motion vector correction unit 36.

動きベクトル補正部36は、後段の処理内容(例えば、ここでは、上述した図1の画像処理部12の処理内容等)、若しくは、輝度勾配検出部33とテンプレートマッチング部34の処理結果(例えば、ここでは、上述した輝度勾配slopeや制御信号flag)、またはそれらの組み合わせに基づいて、ヒストグラム部35から供給された注目画素51の動きベクトルvecを、注目画素51の周囲の画素における他の動きベクトルと調和が取れるように適切に補正する。   The motion vector correction unit 36 processes the subsequent processing (for example, the processing content of the image processing unit 12 in FIG. 1 described above) or the processing results (for example, the luminance gradient detection unit 33 and the template matching unit 34). Here, the motion vector vec of the target pixel 51 supplied from the histogram unit 35 based on the above-described luminance gradient (slope, control signal flag), or a combination thereof is used as another motion vector in pixels around the target pixel 51. Correct so that it is in harmony.

動きベクトル補正部36により補正された注目画素51の動きベクトルvecは、LPF37を介して外部に出力される。   The motion vector vec of the target pixel 51 corrected by the motion vector correction unit 36 is output to the outside via the LPF 37.

この動きベクトル補正部36の詳細について、以下、図13乃至図19を参照して説明する。   Details of the motion vector correction unit 36 will be described below with reference to FIGS.

図13は、本実施の形態の動きベクトル補正部36の詳細な構成の一例を示している。   FIG. 13 shows an example of a detailed configuration of the motion vector correction unit 36 of the present embodiment.

なお、後述する図18や図19に示されるように、動きベクトル補正部36は、様々な形態を取ることが可能である。そこで、動きベクトル補正部36が取り得る様々な形態のうちの、図13、図18、および図19のそれぞれの形態を、個々に区別する必要がある場合、以下、動きベクトル補正部36A、動きベクトル補正部36B、および、動きベクトル補正部36Cのそれぞれと称する。一方、動きベクトル補正部36A、動きベクトル補正部36B、および、動きベクトル補正部36Cのそれぞれを、個々に区別する必要が無い場合、それらを総称して動きベクトル補正部36と称する。   As shown in FIG. 18 and FIG. 19 described later, the motion vector correction unit 36 can take various forms. Therefore, when it is necessary to individually distinguish each of the forms shown in FIGS. 13, 18, and 19 among the various forms that the motion vector correction unit 36 can take, hereinafter, the motion vector correction unit 36A, the motion These are referred to as a vector correction unit 36B and a motion vector correction unit 36C, respectively. On the other hand, when it is not necessary to distinguish each of the motion vector correction unit 36A, the motion vector correction unit 36B, and the motion vector correction unit 36C, they are collectively referred to as a motion vector correction unit 36.

図13に示されるように、動きベクトル補正部36Aは、後段処理用補正部101、切替部102、信頼度評価部103、および、信頼度用補正部104のそれぞれから構成される。   As illustrated in FIG. 13, the motion vector correction unit 36 </ b> A includes a post-processing correction unit 101, a switching unit 102, a reliability evaluation unit 103, and a reliability correction unit 104.

後段処理用補正部101は、後段の処理内容、例えば、ここでは、上述した図1の画像処理部12の処理内容の特徴に基づいて、注目画素51の動きベクトルvecを補正する。   The post-processing correction unit 101 corrects the motion vector vec of the target pixel 51 based on the processing content of the post-processing, for example, the feature of the processing content of the image processing unit 12 of FIG. 1 described above.

なお、以下、補正前の動きベクトルvec、後段処理用補正部101により補正された動きベクトルvec、および、後述する信頼度用補正部104によりさらに補正される動きベクトルvecのそれぞれを、個々に区別する必要がある場合、動きベクトルvec、動きベクトルvec'、および、動きベクトルvec''のそれぞれと称する。一方、動きベクトルvec、動きベクトルvec'、および、動きベクトルvec''のそれぞれを、個々に区別する必要がない場合、それらを総称して動きベクトルvecと称する。   Hereinafter, the motion vector vec before correction, the motion vector vec corrected by the post-processing correction unit 101, and the motion vector vec further corrected by the reliability correction unit 104 described later are individually distinguished. Are referred to as motion vector vec, motion vector vec ′, and motion vector vec ″, respectively. On the other hand, when it is not necessary to distinguish each of the motion vector vec, the motion vector vec ′, and the motion vector vec ″, they are collectively referred to as a motion vector vec.

即ち、後段処理用補正部101からは、補正された動きベクトルvec'が出力されて、切替部102に供給される。   That is, the corrected motion vector vec ′ is output from the post-processing correction unit 101 and supplied to the switching unit 102.

なお、後段処理用補正部101の補正方法については特に限定されず、後段の処理内容の特徴に応じて可変することが可能である。   The correction method of the post-processing correction unit 101 is not particularly limited, and can be varied according to the characteristics of the processing content of the post-stage.

具体的には、例えば、ここでの後段の処理のひとつである、図1の補正部22の処理に適した補正方法として、次のような方法を適用することができる。   Specifically, for example, the following method can be applied as a correction method suitable for the processing of the correction unit 22 in FIG.

即ち、例えば、上述したように、補正部22は、図1のステップエッジ検出部21より供給された注目画素51の画素値を補正する(0補正を含む)。このとき、補正部22は、動き検出部14より供給された注目画素51の動きベクトルvec(実際には、補正された動きベクトルvec'または動きベクトルvec'')に基づいて、注目画素51の画素値を補正することになる。   That is, for example, as described above, the correction unit 22 corrects the pixel value of the target pixel 51 supplied from the step edge detection unit 21 in FIG. 1 (including 0 correction). At this time, the correction unit 22 uses the motion vector vec of the target pixel 51 supplied from the motion detection unit 14 (actually, the corrected motion vector vec ′ or motion vector vec ″). The pixel value is corrected.

なお、動き検出部14の後段、例えば、画像処理部12等から見た場合、動きベクトルvec、動きベクトルvec'、および、動きベクトルvec''のそれぞれを、個々に区別する必要がない。従って、以下、動き検出部14の後段から見た場合の説明、即ち、動き検出部14の後段の処理内容の説明等においては、単に動きベクトルvecと称して説明していく。   Note that when viewed from the subsequent stage of the motion detection unit 14, for example, the image processing unit 12 or the like, it is not necessary to individually distinguish each of the motion vector vec, the motion vector vec ′, and the motion vector vec ″. Therefore, hereinafter, in the description when viewed from the subsequent stage of the motion detection unit 14, that is, the description of the processing content at the subsequent stage of the motion detection unit 14, the description will be simply referred to as the motion vector vec.

例えば、いま、補正部22が、注目画素51の画素値の補正量(値)を決定する場合、上述した式(1)の演算結果である補正値Rを使用するのではなく、図14に示されるような関係に従って補正量を決定するとする。   For example, when the correction unit 22 determines the correction amount (value) of the pixel value of the target pixel 51, instead of using the correction value R that is the calculation result of the above equation (1), FIG. It is assumed that the correction amount is determined according to the relationship as shown.

即ち、図14は、補正部22における、注目画素51の画素値の補正量の決定方法の一例を示す図であって、上述した例(式(1)を利用する例)とは異なる例を示す図である。   That is, FIG. 14 is a diagram illustrating an example of a method for determining the correction amount of the pixel value of the target pixel 51 in the correction unit 22, and is an example different from the above-described example (an example using Expression (1)). FIG.

図14の補正方法(補正部22の処理内容)の例では、動きベクトルvecの大きさ(絶対値)が、探索範囲である6(「−6」または「+6」)になるまでは、画素値の補正量がリニアに増加していくのに対して、この探索範囲である6を境にして、それ以降、画素値の補正量は0となってしまう(即ち、補正が禁止されてしまう)。   In the example of the correction method in FIG. 14 (processing contents of the correction unit 22), the pixel until the magnitude (absolute value) of the motion vector vec reaches 6 (“−6” or “+6”) which is the search range. While the correction amount of the value increases linearly, the correction amount of the pixel value thereafter becomes 0 after the search range 6 as a boundary (that is, the correction is prohibited). ).

従って、注目画素51とその近傍の画素における動きベクトルvecとして、大きさが6前後の動きベクトルvecが動き検出部14から出力されてしまうと、注目画素51とその近傍からなる画像の範囲において、画素値が最大補正量で補正される画素と、画素値が全く補正されない画素とが混在してしまう。   Therefore, if a motion vector vec having a size of about 6 is output from the motion detection unit 14 as a motion vector vec for the pixel of interest 51 and its neighboring pixels, in the range of the image consisting of the pixel of interest 51 and its neighborhood, Pixels whose pixel values are corrected with the maximum correction amount and pixels whose pixel values are not corrected at all are mixed.

具体的には、例えば、仮に、注目画素51の動きベクトルvecとして「+6」が動き検出部14から出力され、一方、その近傍の他の画素の動きベクトルvecとして「+7」が動き検出部14から出力されたとする。   Specifically, for example, “+6” is output from the motion detection unit 14 as the motion vector vec of the target pixel 51, while “+7” is the motion vector vec of other pixels in the vicinity thereof. Output from.

この場合、注目画素51の画素値だけが最大補正量で補正され、その近傍の他の画素の画素値は全く補正されないことになり、最終的に得られる補正画像(表示対象フレーム)において、注目画素51の画素値(補正値)は、その周囲の画素の画素値(補正が禁止された値)に対して異質な値となってしまう。即ち、上述した従来の第2の課題が発生してしまうことになる。   In this case, only the pixel value of the target pixel 51 is corrected with the maximum correction amount, and the pixel values of other pixels near the target pixel 51 are not corrected at all. In the finally obtained corrected image (display target frame), The pixel value (correction value) of the pixel 51 is different from the pixel value (value for which correction is prohibited) of the surrounding pixels. That is, the conventional second problem described above occurs.

換言すると、注目画素51の動きベクトルvecである「+6」は、その近傍の他の画素の動きベクトルvecである「+7」に対して異質なベクトルとなってしまう。即ち、注目画素51の動きベクトルvecである「+6」は、周囲と調和の取れていない動きベクトルとなってしまう。   In other words, “+6”, which is the motion vector vec of the pixel 51 of interest, becomes a different vector from “+7”, which is the motion vector vec of other pixels in the vicinity thereof. That is, “+6”, which is the motion vector vec of the pixel of interest 51, becomes a motion vector that is not in harmony with the surroundings.

そこで、このような周囲と調和の取れていない動きベクトルvecの動き検出部14からの出力数を軽減させるために、即ち、補正部22の動きベクトルvecの探索範囲を超えたところで発生する、上述したような画素値の補正量の不連続性を発生させないために、図13の後段処理用補正部101は、例えば、図15に示されるような関係に従って、動きベクトルvecを動きベクトルvec'に補正することができる。   Therefore, in order to reduce the number of outputs from the motion detection unit 14 of such motion vectors vec that are not in harmony with the surroundings, that is, the motion vector vec generated by the correction unit 22 exceeds the search range. In order not to generate the discontinuity of the correction amount of the pixel value as described above, the post-processing correction unit 101 in FIG. 13 changes the motion vector vec to the motion vector vec ′ according to the relationship shown in FIG. It can be corrected.

即ち、図15は、後段処理用補正部101における、注目画素51の動きベクトルvecの補正方法の一例を示している。   That is, FIG. 15 shows an example of a method for correcting the motion vector vec of the target pixel 51 in the post-processing correction unit 101.

図15の補正方法の例では、補正前の動きベクトルvec、即ち、ヒストグラム部35から供給された動きベクトルvecの大きさ(絶対値)が、3(「−3」または「+3」)になるまでは、「vec'=vec」の関係で補正され(即ち、補正が禁止され)、その3を境にしてそれ以降、6(「−6」または「+6」)になるまでは、「vec'=-vec+6 or -6」の関係で補正され、6以降、「vec'=0」の関係で補正されることになる。   In the example of the correction method in FIG. 15, the motion vector vec before correction, that is, the magnitude (absolute value) of the motion vector vec supplied from the histogram unit 35 is 3 (“−3” or “+3”). Up to, the correction is made in the relationship of “vec ′ = vec” (that is, the correction is prohibited), and after that, until “6” (“−6” or “+6”) Correction is made in the relationship of '= -vec + 6 or -6', and after 6 the correction is made in the relationship of 'vec' = 0 '.

従って、検出部14から、このような図15の関係に従って補正された動きベクトルvec'が出力されれば、その動きベクトルvec'の大きさ(絶対値)は最大でも3となり、その大きさが6前後となる動きベクトルvecが出力されることはなくなり、その結果、上述したような画素値の補正量の不連続性の発生を防止することが可能になる。即ち、従来の第2の課題を解決することが可能になる。   Therefore, if the motion vector vec ′ corrected according to the relationship of FIG. 15 is output from the detection unit 14, the magnitude (absolute value) of the motion vector vec ′ is 3 at the maximum, and the magnitude is The motion vector vec of about 6 is not output, and as a result, it is possible to prevent the occurrence of discontinuity in the correction amount of the pixel value as described above. That is, the conventional second problem can be solved.

なお、図13の後段処理用補正部101が、図15の関係に従って補正を行う場合、図15に示されるようなテーブルを保持し、そのテーブルを参照して動きベクトルvecを補正してもよい。或いは、後段処理用補正部101は、上述したような関数、即ち、「vec'=vec : -3≦vec≦3」,「vec'=-vec-6 : -6≦vec<-3」,「vec'=-vec+6 : 3<vec≦-6」,「vec'=0 : vec<-6,6<vec」のような関数を保持し、対応する関数に動きベクトルvecを代入して演算し、その関数の出力値を、補正された動きベクトルvec'として出力してもよい。   When the post-processing correction unit 101 in FIG. 13 performs correction in accordance with the relationship in FIG. 15, a table as shown in FIG. 15 may be held and the motion vector vec may be corrected with reference to the table. . Alternatively, the post-processing correction unit 101 can use the functions as described above, ie, “vec ′ = vec: −3 ≦ vec ≦ 3”, “vec ′ = − vec-6: −6 ≦ vec <−3”, Holds functions such as “vec '=-vec + 6: 3 <vec ≦ -6”, “vec' = 0: vec <-6, 6 <vec”, and substitutes the motion vector vec for the corresponding function. And the output value of the function may be output as a corrected motion vector vec ′.

また、繰り替えしになるが、図15に示される例は、後段処理用補正部101における、注目画素51の動きベクトルvecの様々な補正方法のうちの、後段の処理である図1の補正部22の処理が上述した図14に示されるような特徴を有している場合に適した補正方法の一例である。   In addition, the example shown in FIG. 15 is repeated, but the correction unit in FIG. 1 is a subsequent process among various correction methods of the motion vector vec of the pixel of interest 51 in the subsequent process correction unit 101. This is an example of a correction method suitable for the case where the process 22 has the characteristics shown in FIG. 14 described above.

即ち、ここで重要な点は、後段処理用補正部101の補正方法は、単に、後段の処理内容の特徴に適した補正方法とすればよく、このため、後段の処理内容の特徴に応じて可変できるという点である。   That is, the important point here is that the correction method of the post-processing correction unit 101 is simply a correction method suitable for the characteristics of the subsequent processing contents. This is a variable.

例えば、いま、図示せぬ後段の処理内容が、動き検出部14より出力された注目画素51の動きベクトルvecのうちの、その大きさ(絶対値)が中程度(例えば、3)の動きベクトルvecに着目する処理であって、中程度の動きベクトルvecの影響を大きくする必要がある処理である、といった特徴を有しているとする。   For example, the processing content of the subsequent stage (not shown) is a motion vector whose magnitude (absolute value) is medium (for example, 3) among the motion vectors vec of the target pixel 51 output from the motion detection unit 14. It is assumed that the processing is focused on vec and has a characteristic that the influence of the medium motion vector vec needs to be increased.

このような場合、後段処理用補正部101は、例えば、図16に示されるような関係に従って、動きベクトルvecを動きベクトルvec'に補正することができる。   In such a case, the post-processing correction unit 101 can correct the motion vector vec to the motion vector vec ′, for example, according to the relationship shown in FIG.

即ち、図16は、後段処理用補正部101における、注目画素51の動きベクトルvecの補正方法の他の例(図15とは異なる例)を示している。   That is, FIG. 16 shows another example (an example different from FIG. 15) of the correction method of the motion vector vec of the pixel of interest 51 in the post-processing correction unit 101.

図16の補正方法の例では、補正前の動きベクトルvec、即ち、ヒストグラム部35から供給された動きベクトルvecの大きさ(絶対値)が、3(「−3」または「+3」)になるまでは、「vec'=2vec」の関係で補正され、その3を境にしてそれ以降、6(「−6」または「+6」)になるまでは、「vec'=-2vec+12 or -12」の関係で補正され、6以降、「vec'=0」の関係で補正されることになる。   In the example of the correction method in FIG. 16, the magnitude (absolute value) of the motion vector vec before correction, that is, the motion vector vec supplied from the histogram unit 35 is 3 (“−3” or “+3”). Is corrected according to the relationship of “vec '= 2vec”, and after that point, until “6” (“−6” or “+6”), “vec ′ = − 2vec + 12 or −” It is corrected in the relationship of “12”, and after 6 it is corrected in the relationship of “vec ′ = 0”.

なお、後段処理用補正部101が、図16の関係に従って補正を行う場合、図15の例と同様に、図16に示されるようなテーブルを保持し、そのテーブルを参照して動きベクトルvecを補正してもよい。或いは、後段処理用補正部101は、上述したような関数、即ち、「vec'=2vec : -3≦vec≦3」,「vec'=-2vec-12 : -6≦vec<-3」,「vec'=-2vec+12 : 3<vec≦-6」,「vec'=0 : vec<-6,6<vec」のような関数を保持し、対応する関数に動きベクトルvecを代入して演算し、その関数の出力値を、補正された動きベクトルvec'として出力してもよい。   When the post-processing correction unit 101 performs correction according to the relationship of FIG. 16, similarly to the example of FIG. 15, a table as shown in FIG. 16 is held, and the motion vector vec is referred to by referring to the table. It may be corrected. Alternatively, the post-processing correction unit 101 can use the functions described above, that is, “vec ′ = 2vec: −3 ≦ vec ≦ 3”, “vec ′ = − 2vec-12: −6 ≦ vec <−3”, Holds functions such as “vec '=-2vec + 12: 3 <vec ≦ -6”, “vec' = 0: vec <-6, 6 <vec”, and substitutes the motion vector vec for the corresponding function. And the output value of the function may be output as a corrected motion vector vec ′.

また、後段の処理が複数存在する場合、或いは、複数になる可能性がある場合、後段処理用補正部101は、その補正方法を適宜切り替えて、動きベクトルvecを補正することもできる。即ち、後段の処理がQ個(Qは、1以上の任意の整数値)存在する場合、後段処理用補正部101は、注目画素51の1つの動きベクトルvecを、Q種類の補正方法のそれぞれに従って補正し、その結果得られるQ個の動きベクトルvec'のそれぞれを個別に出力することもできる。   Further, when there are a plurality of subsequent processes or there is a possibility that there are a plurality of processes, the post-processing correction unit 101 can also correct the motion vector vec by appropriately switching the correction method. That is, when there are Q processes in the subsequent stage (Q is an arbitrary integer value equal to or greater than 1), the post-process correction unit 101 converts one motion vector vec of the pixel of interest 51 into each of Q types of correction methods. The Q motion vectors vec ′ obtained as a result of the correction can be output individually.

図13に戻り、ヒストグラム部35から出力された、注目画素51の動きベクトルvecは、このようにして、後段処理用補正部101により補正されて動きベクトルvec'となり、切替部102に供給される。   Returning to FIG. 13, the motion vector vec of the target pixel 51 output from the histogram unit 35 is corrected by the post-processing correction unit 101 in this way to become a motion vector vec ′, and is supplied to the switching unit 102. .

切替部102は、信頼度評価部103の制御に基づいて、その出力先を、外部のLPF37側と信頼度用補正部104側のうちのいずれか一方の側に切り替える。   Based on the control of the reliability evaluation unit 103, the switching unit 102 switches the output destination to one of the external LPF 37 side and the reliability correction unit 104 side.

信頼度評価部103は、輝度勾配検出部33より供給された輝度勾配slopeとテンプレートマッチング部34より供給された制御信号flagに基づいて、ヒストグラム部35より供給された注目画素51の動きベクトルvecの信頼度を評価する。   The reliability evaluation unit 103 determines the motion vector vec of the pixel of interest 51 supplied from the histogram unit 35 based on the luminance gradient slope supplied from the luminance gradient detection unit 33 and the control signal flag supplied from the template matching unit 34. Evaluate confidence.

そして、信頼度評価部103は、注目画素51の動きベクトルvecの信頼度が低いと評価した場合、切替部102の出力先を信頼度用補正部104側に切り替える。   When the reliability evaluation unit 103 evaluates that the reliability of the motion vector vec of the pixel of interest 51 is low, the reliability evaluation unit 103 switches the output destination of the switching unit 102 to the reliability correction unit 104 side.

従って、信頼度評価部103により注目画素51の動きベクトルvecの信頼度が低いと評価された場合、後段処理用補正部101により補正されて出力された動きベクトルvec'は、信頼度用補正部104に供給される。そして、後述するように、後段処理用補正部101により補正された動きベクトルvec'は、信頼度用補正部104によりさらに補正されて動きベクトルvec''となり、この動きベクトルvec''が、LPF37を介して動き検出部14の外部(図1の画像処理部11、画像処理部12、および、切替部15)に供給されることになる。   Accordingly, when the reliability evaluation unit 103 evaluates that the reliability of the motion vector vec of the target pixel 51 is low, the motion vector vec ′ corrected and output by the post-processing correction unit 101 is output as the reliability correction unit. 104. As will be described later, the motion vector vec ′ corrected by the post-processing correction unit 101 is further corrected by the reliability correction unit 104 to become a motion vector vec ″, and this motion vector vec ″ is converted to the LPF 37. To the outside of the motion detection unit 14 (the image processing unit 11, the image processing unit 12, and the switching unit 15 in FIG. 1).

これに対して、信頼度評価部103は、注目画素51の動きベクトルvecの信頼度が高いと評価した場合、切替部102の出力先を外部のLPF37側に切り替える。 In contrast, when the reliability evaluation unit 103 evaluates that the reliability of the motion vector vec of the target pixel 51 is high, the reliability evaluation unit 103 switches the output destination of the switching unit 102 to the external LPF 37 side.

従って、信頼度評価部103により注目画素51の動きベクトルvecの信頼度が高いと評価された場合、後段処理用補正部101により補正されて出力された動きベクトルvec'は、信頼度用補正部104には供給されずに、そのまま、LPF37を介して動き検出部14の外部に供給されることになる。   Therefore, when the reliability evaluation unit 103 evaluates that the reliability of the motion vector vec of the target pixel 51 is high, the motion vector vec ′ corrected and output by the post-processing correction unit 101 is output as the reliability correction unit. Instead of being supplied to 104, it is supplied as it is to the outside of the motion detector 14 via the LPF 37.

詳細には、例えば、信頼度評価部103は、次の不等式(9)が成立するという第3の条件と、制御信号flagが「1」であるという第4の条件とのうちの少なくとも一方が満たされている場合、ヒストグラム部35より供給された注目画素51の動きベクトルvecの信頼度が低いと評価し、切替部102の出力先を信頼度用補正部104側に切り替える。。   Specifically, for example, the reliability evaluation unit 103 determines that at least one of the third condition that the following inequality (9) is satisfied and the fourth condition that the control signal flag is “1” is When it is satisfied, it is evaluated that the reliability of the motion vector vec of the target pixel 51 supplied from the histogram unit 35 is low, and the output destination of the switching unit 102 is switched to the reliability correction unit 104 side. .

これに対して、動きベクトル補正部36は、第3の条件と第4の条件とのいずれも満たされていない場合、ヒストグラム部35より供給された注目画素51の動きベクトルvecの信頼度が高いと評価し、切替部102の出力先を外部のLPF37側に切り替える。   On the other hand, when neither the third condition nor the fourth condition is satisfied, the motion vector correction unit 36 has high reliability of the motion vector vec of the target pixel 51 supplied from the histogram unit 35. And the output destination of the switching unit 102 is switched to the external LPF 37 side.

slope < slope_thresh ・・・(9)   slope <slope_thresh (9)

不等式(9)において、slope_threshは所定の閾値を示しており、予め設定されている値である。   In the inequality (9), slope_thresh indicates a predetermined threshold and is a preset value.

不等式(9)から容易にわかることであるが、結局、注目画素51における輝度勾配が低い場合、即ち、注目画素51が、上述したステップエッジのエッジ部分のような特徴的な部分に対応していない場合、第3の条件が満たされることになる。   As can be easily understood from the inequality (9), in the end, when the luminance gradient in the target pixel 51 is low, that is, the target pixel 51 corresponds to a characteristic portion such as the edge portion of the step edge described above. If not, the third condition will be met.

また、制御信号flagは、上述したように、テンプレートマッチング部34における注目画像51の動きベクトルvecの信頼度の評価結果を示す信号であるとも言えるので、制御信号flagが「1」の場合、即ち、テンプレートマッチング部34が注目画像51の動きベクトルvecの信頼度が低いと既に評価している場合、第4の条件が満たされることになる。   Further, as described above, the control signal flag can also be said to be a signal indicating the evaluation result of the reliability of the motion vector vec of the target image 51 in the template matching unit 34. Therefore, when the control signal flag is “1”, that is, When the template matching unit 34 has already evaluated that the reliability of the motion vector vec of the target image 51 is low, the fourth condition is satisfied.

信頼度用補正部104は、切替部102の出力先が自分自身の側に切り替えられている場合、後段処理用補正部101から出力された動きベクトルvec'、即ち、ヒストグラム部35より入力された動きベクトルvec'が後段処理用補正部101により補正された結果として出力される動きベクトルvec'を、所定の補正方法でさらに補正し、その結果得られる動きベクトルvec''を、LPF37を介して動き検出部14の外部(図1の画像処理部11、画像処理部12、および、切替部15)に出力する。   The reliability correction unit 104, when the output destination of the switching unit 102 is switched to its own side, the motion vector vec 'output from the post-processing correction unit 101, that is, input from the histogram unit 35. The motion vector vec ′ output as a result of correcting the motion vector vec ′ by the post-processing correction unit 101 is further corrected by a predetermined correction method, and the resulting motion vector vec ″ is obtained via the LPF 37. The data is output to the outside of the motion detection unit 14 (the image processing unit 11, the image processing unit 12, and the switching unit 15 in FIG. 1).

この信頼度用補正部104の補正方法も特に限定されず、様々な方法を適用することができる。   The correction method of the reliability correction unit 104 is not particularly limited, and various methods can be applied.

具体的には、例えば、注目画素51の動きベクトルvecは、ここでは、上述した画像処理部12により利用される。即ち、画像処理部12は、注目画素51の動きベクトルvecの方向や大きさに応じて、注目画素51の画素値を補正する(画像強調する方向に補正する)。このような場合、信頼度の低い注目画素51の動きベクトルvecが利用されると、注目画素51の画素値は過補正されてしまうといった課題が発生する。   Specifically, for example, the motion vector vec of the target pixel 51 is used here by the image processing unit 12 described above. That is, the image processing unit 12 corrects the pixel value of the target pixel 51 according to the direction and size of the motion vector vec of the target pixel 51 (corrects in the direction of image enhancement). In such a case, when the motion vector vec of the pixel of interest 51 with low reliability is used, there arises a problem that the pixel value of the pixel of interest 51 is overcorrected.

そこで、この課題を解決するために、例えば、信頼度用補正部104は、注目画素51の動きベクトルvecが後段処理用補正部101により補正された結果得られる動きベクトルvec'に対して次の式(10)の右辺に示されるような補正を行い、その補正結果、即ち、式(10)の左辺の値vec''を、注目画素51の最終的な(補正された)動きベクトルとして、LPF37を介して動き検出部14の外部に出力することができる。   In order to solve this problem, for example, the reliability correction unit 104 performs the following on the motion vector vec ′ obtained as a result of correcting the motion vector vec of the target pixel 51 by the post-processing processing correction unit 101. The correction as shown on the right side of Expression (10) is performed, and the correction result, that is, the value vec '' on the left side of Expression (10) is used as the final (corrected) motion vector of the pixel 51 of interest. It can be output to the outside of the motion detector 14 via the LPF 37.

vec'' = α×vec' ・・・(10)   vec '' = α × vec '(10)

なお、式(10)において、αは補正係数を示している。この補正係数αは、0乃至1の範囲で任意に設定可能な値である。   In Expression (10), α indicates a correction coefficient. The correction coefficient α is a value that can be arbitrarily set in the range of 0 to 1.

ところで、信頼度評価部103は、上述した第3の条件と第4の条件以外の条件に基づいて、ヒストグラム部35より供給された注目画素51の動きベクトルvecの信頼度を評価することも可能である。   By the way, the reliability evaluation unit 103 can also evaluate the reliability of the motion vector vec of the pixel of interest 51 supplied from the histogram unit 35 based on conditions other than the third condition and the fourth condition described above. It is.

具体的には、例えば、極小値min1の次に小さい相関値SAD(j)、即ち、極小値min2に対応する探索位置pos2が、図17に示されるように、注目画素51の配置位置iである場合、ウィンドウ72の中心画素71の対応画素(対応点)は、極小値min1に対応する探索位置pos1の画素ではなく、配置位置i(探索位置pos2)の注目画素51であることが多い。   Specifically, for example, the next smallest correlation value SAD (j) after the minimum value min1, that is, the search position pos2 corresponding to the minimum value min2 is the arrangement position i of the pixel 51 of interest as shown in FIG. In some cases, the corresponding pixel (corresponding point) of the center pixel 71 of the window 72 is not the pixel at the search position pos1 corresponding to the minimum value min1 but the target pixel 51 at the arrangement position i (search position pos2) in many cases.

そこで、例えば、極小値min2に対応する探索位置pos2が注目画素51の配置位置iであることを第5の条件に加え、その第5の条件が満たされている場合、図13の信頼度評価部103は、ヒストグラム部35より供給された注目画素51の動きベクトルvecの信頼度が低いと評価し、切替部102の出力先を信頼度用補正部104側に切り替えることもできる。これにより、信頼度用補正部104は、その動きベクトルvecが後段処理用補正部101により補正された結果得られる動きベクトvec'をさらに補正することになる。   Therefore, for example, in addition to the fifth condition that the search position pos2 corresponding to the minimum value min2 is the arrangement position i of the target pixel 51, and when the fifth condition is satisfied, the reliability evaluation of FIG. The unit 103 can evaluate that the reliability of the motion vector vec of the target pixel 51 supplied from the histogram unit 35 is low, and can switch the output destination of the switching unit 102 to the reliability correction unit 104 side. As a result, the reliability correction unit 104 further corrects the motion vector vec ′ obtained as a result of correcting the motion vector vec by the post-processing correction unit 101.

なお、第5の条件が満たされた場合、図示はしないが、信頼度評価部103がそのことを信頼度用補正部104に通知することで、信頼度用補正部104は、ウィンドウ72の中心画素71の対応画素(対応点)は配置位置i(探索位置pos2)の注目画素51であるとみなし、即ち、注目画素51の配置位置iにおける動きはないとみなし、後段処理用補正部101により補正された注目画素51の動きベクトルvec'を「0」に置き換える。或いは、信頼度用補正部104は、上述した式(10)の補正係数αを0に設定して、後段処理用補正部101により補正された注目画素51の動きベクトルvec'を補正すると捉えてもよい。即ち、第5の条件が満たされた場合、信頼度用補正部104は、後段処理用補正部101により補正された注目画素51の動きベクトルvec'を0ベクトルに補正する。   When the fifth condition is satisfied, although not shown, the reliability evaluation unit 103 notifies the reliability correction unit 104 of the fact, so that the reliability correction unit 104 is centered on the window 72. The corresponding pixel (corresponding point) of the pixel 71 is regarded as the target pixel 51 at the arrangement position i (search position pos2), that is, it is considered that there is no movement at the arrangement position i of the target pixel 51, and the correction processing unit 101 for subsequent processing The corrected motion vector vec ′ of the target pixel 51 is replaced with “0”. Alternatively, the reliability correction unit 104 sets the correction coefficient α in the above-described equation (10) to 0 and corrects the motion vector vec ′ of the target pixel 51 corrected by the post-processing correction unit 101. Also good. That is, when the fifth condition is satisfied, the reliability correction unit 104 corrects the motion vector vec ′ of the pixel of interest 51 corrected by the post-processing correction unit 101 to a zero vector.

ただし、この場合、テンプレートマッチング部34(図4のSAD極小値評価部63)は、制御信号flagの他に、この探索位置pos2を信頼度評価部103に供給する必要がある。   However, in this case, the template matching unit 34 (SAD minimum value evaluation unit 63 in FIG. 4) needs to supply the search position pos2 to the reliability evaluation unit 103 in addition to the control signal flag.

或いは、SAD極小値評価部63が、第5の条件が満たされた場合、制御信号flagとして「1」を強制的に出力するようにしてもよい。   Alternatively, the SAD minimum value evaluation unit 63 may forcibly output “1” as the control signal flag when the fifth condition is satisfied.

以上、図2の動きベクトル補正部36が取り得る様々な実施形態のうちの、図13に示される実施形態の動きベクトル補正部36Aの構成例について説明した。   The configuration example of the motion vector correction unit 36A of the embodiment shown in FIG. 13 among the various embodiments that the motion vector correction unit 36 of FIG. 2 can take has been described above.

図2の動きベクトル補正部36はまた、例えば、図18に示される動きベクトル補正部36Bや、図19に示される動きベクトル補正部36Cとして構成することもできる。   The motion vector correction unit 36 in FIG. 2 can also be configured, for example, as a motion vector correction unit 36B shown in FIG. 18 or a motion vector correction unit 36C shown in FIG.

図18の動きベクトル補正部36Bは、後段処理用補正部101から構成されている。この講談処理用補正部101は、図13の動きベクトル補正部36Aの対応するそれと基本的に同様の機能と構成を有している。従って、図18の動きベクトル補正部36Bは、ヒストグラム部35から入力された動きベクトルvecに対して、図13の信頼度用補正部104に対応する補正処理は施さずに、後段処理用補正部101による補正処理のみを施すことになる。   The motion vector correction unit 36B of FIG. 18 includes a post-processing processing correction unit 101. The talk processing correction unit 101 has basically the same function and configuration as the corresponding one of the motion vector correction unit 36A of FIG. Accordingly, the motion vector correction unit 36B in FIG. 18 does not perform the correction processing corresponding to the reliability correction unit 104 in FIG. 13 on the motion vector vec input from the histogram unit 35, and performs the subsequent-stage processing correction unit. Only the correction processing by 101 is performed.

これに対して、図19の動きベクトル補正部36Cの構成は、図13の動きベクトル補正部36Aの構成に対して、後段処理用補正部101が省略された構成となっている。従って、図19の動きベクトル補正部36Cは、ヒストグラム部35から入力された動きベクトルvecに対して、図13の後段処理用補正部101に対応する補正処理は施さずに、信頼度用補正部104による補正処理のみを施す(ただし、信頼度評価部103により、動きベクトルvecの信頼度が低いと判定された場合)ことになる。   On the other hand, the configuration of the motion vector correction unit 36C in FIG. 19 is configured such that the post-processing correction unit 101 is omitted from the configuration of the motion vector correction unit 36A in FIG. Accordingly, the motion vector correction unit 36C in FIG. 19 does not perform the correction process corresponding to the subsequent-stage processing correction unit 101 in FIG. 13 on the motion vector vec input from the histogram unit 35, and the reliability correction unit 36C. Only the correction process according to 104 is performed (however, when the reliability evaluation unit 103 determines that the reliability of the motion vector vec is low).

以上、図2乃至図19を参照して、図2の動き検出部14の構成例について説明したが、その説明の内容をまとめると、次のようになる。   The configuration example of the motion detection unit 14 in FIG. 2 has been described with reference to FIGS. 2 to 19. The contents of the description are summarized as follows.

即ち、本実施の形態の動き検出部14においては、表示対象フレームを構成する画素のうちの所定の画素を注目画素として設定し、その注目画素における動きベクトルを生成し、その動きベクトルの信頼性や後段の処理内容の特徴に基づいて補正した上、外部(図1の画像処理部11、画像処理部12、および、切替部15)に出力することができる。   That is, in the motion detection unit 14 according to the present embodiment, a predetermined pixel of the pixels constituting the display target frame is set as a target pixel, a motion vector at the target pixel is generated, and the reliability of the motion vector is determined. In addition, it can be corrected based on the characteristics of the processing contents of the subsequent stage and output to the outside (image processing unit 11, image processing unit 12, and switching unit 15 in FIG. 1).

詳細には、テンプレートマッチング部34は、表示対象フレーム(画像データ)とその直前フレーム(画像データ)とを比較することで、注目画素における動きベクトル候補pvecを生成し、ヒストグラム部35に提供する。   Specifically, the template matching unit 34 generates a motion vector candidate pvec at the target pixel by comparing the display target frame (image data) with the immediately preceding frame (image data), and provides the motion vector candidate pvec to the histogram unit 35.

換言すると、テンプレートマッチング部34は、注目画素の配置位置に対応する直前フレーム内の位置に配置される第1の画素(例えば、図5に示されるように、注目画素として画素51が設定されている場合、配置位置iの画素71)の対応画素として、表示対象フレームから第2の画素(例えば、図5の探索範囲i-6乃至i+6のうちのいずれかの画素)を検出し、注目画素を起点とし第2の画素を終点とするベクトル(例えば、図5に示されるように、注目画素として画素51が設定され、第2の画素として、画素群72−(+6)の中心画素、即ち、配置位置i+6の画素が検出された場合、「+6」)を、注目画素における動きベクトル候補pvecとして生成し、ヒストグラム部35に提供する。   In other words, the template matching unit 34 sets the first pixel (for example, as shown in FIG. 5, the pixel 51 is set as the target pixel) arranged at the position in the immediately preceding frame corresponding to the arrangement position of the target pixel. The second pixel (for example, any one of the search ranges i-6 to i + 6 in FIG. 5) is detected from the display target frame as the corresponding pixel of the pixel 71) at the arrangement position i. A vector starting from the target pixel and ending at the second pixel (for example, as shown in FIG. 5, the pixel 51 is set as the target pixel, and the center pixel of the pixel group 72-(+ 6) is set as the second pixel. That is, when a pixel at the arrangement position i + 6 is detected, “+6”) is generated as a motion vector candidate pvec at the target pixel and provided to the histogram unit 35.

さらに、このとき、テンプレートマッチング部34は、表示対象フレームの中に対応画素の候補が複数個存在すると判定した場合(例えば、図9に示されるように、探索位置i-1の画素と探索位置i+5の画素が対応画素の候補である場合であって、具体的には、例えば、上述した不等式(5)乃至不等式(7)の全てが成立するといった第1の条件が満たされる場合)、または、第2の画素が対応画素であることの信頼度が低いと判定した場合(例えば、上述した不等式(8)が成立するといった第2の条件が満たされる場合)、動きベクトルの補正指令を示す第1の情報(即ち、ここでは、制御信号flagとして「1」)を動きベクトル補正部36に提供する。   Further, at this time, the template matching unit 34 determines that there are a plurality of corresponding pixel candidates in the display target frame (for example, as shown in FIG. 9, the pixel at the search position i-1 and the search position This is a case where the pixel of i + 5 is a candidate for the corresponding pixel, and specifically, for example, when the first condition that all of the above inequality (5) to inequality (7) are satisfied is satisfied) Or, when it is determined that the reliability of the second pixel being a corresponding pixel is low (for example, when the second condition that the above inequality (8) is satisfied) is satisfied, a motion vector correction command Is provided to the motion vector correction unit 36 (that is, “1” as the control signal flag here).

ヒストグラム部35は、テンプレートマッチング部34により生成された注目画素とその周辺の画素のそれぞれにおける動きベクトル候補pvec(例えば、図11の領域95内の各画素(枠)内のそれぞれの数値)のうちの頻度が最も高い動きベクトル候補(例えば、図12のヒストグラムの頻度が最も高い「+4」)を、注目画素における動きベクトルvecとして決定し、動きベクトル補正部36に出力する。   The histogram unit 35 is a motion vector candidate pvec (for example, each numerical value in each pixel (frame) in the region 95 in FIG. 11) in each of the target pixel and the surrounding pixels generated by the template matching unit 34. The motion vector candidate having the highest frequency (for example, “+4” having the highest frequency in the histogram of FIG. 12) is determined as the motion vector vec for the target pixel, and is output to the motion vector correction unit 36.

輝度勾配検出部33は、注目画素周辺の輝度の変化の度合(例えば、上述した輝度勾配であって、具体的には、例えば、上述した式(2)で示される値slope)を演算し、動きベクトル補正部36に提供する。   The luminance gradient detection unit 33 calculates the degree of change in luminance around the target pixel (for example, the luminance gradient described above, specifically, for example, the value slope represented by the above-described equation (2)), This is provided to the motion vector correction unit 36.

動きベクトル補正部36は、後段(例えば、図1の補正部22等)の処理内容の特徴に基づいて、ヒストグラム部35より供給された動きベクトルvecを補正し、その結果得られる特徴ベクトルvec'を、そのまま外部(図1の画像処理部11、画像処理部12、および、切替部15)に出力することができるし、次のような補正処理をさらに施した上で、外部に出力することもできる。   The motion vector correction unit 36 corrects the motion vector vec supplied from the histogram unit 35 based on the feature of the processing content of the subsequent stage (for example, the correction unit 22 of FIG. 1), and the feature vector vec ′ obtained as a result thereof Can be directly output to the outside (the image processing unit 11, the image processing unit 12, and the switching unit 15 in FIG. 1), and can be output to the outside after further performing the following correction processing. You can also.

即ち、動きベクトル補正部36は、輝度勾配検出部33の処理結果(ここでは、輝度勾配slope)と、テンプレートマッチング部34の処理結果(ここでは、制御信号flag)に基づいて、ヒストグラム部35より供給された動きベクトルvecの信頼度を評価し、動きベクトルvecの信頼度が低いと評価した場合、具体的には、例えば、上述した不等式(9)が成立するという第3の条件と、図2のテンプレートマッチング部34より供給される制御信号flagが「1」であるという第4の条件とのうちの少なくとも一方が満たされている場合、後段の処理内容に応じて補正された動きベクトルvec'をさらに補正し、その結果得られる動きベクトルvec''を、外部(図1の画像処理部11、画像処理部12、および、切替部15)に出力することもできる。   That is, the motion vector correction unit 36 is based on the processing result of the luminance gradient detection unit 33 (here, the luminance gradient slope) and the processing result of the template matching unit 34 (here, the control signal flag) from the histogram unit 35. When the reliability of the supplied motion vector vec is evaluated and it is determined that the reliability of the motion vector vec is low, specifically, for example, the third condition that the inequality (9) described above is satisfied, and FIG. When at least one of the fourth condition that the control signal flag supplied from the second template matching unit 34 is “1” is satisfied, the motion vector vec corrected according to the processing content of the subsequent stage 'Can be further corrected, and the resulting motion vector vec' 'can be output to the outside (the image processing unit 11, the image processing unit 12, and the switching unit 15 in FIG. 1).

或いは、動きベクトル補正部36は、後段の処理内容に応じた補正の処理を行わずに、輝度勾配検出部33の処理結果と、テンプレートマッチング部34の処理結果に基づいて、ヒストグラム部35より供給された動きベクトルvecの信頼度を評価し、動きベクトルvecの信頼度が低いと評価した場合、ヒストグラム部35より供給された動きベクトルvecを補正し、外部(図1の画像処理部11、画像処理部12、および、切替部15)に出力することもできる。   Alternatively, the motion vector correction unit 36 is supplied from the histogram unit 35 based on the processing result of the luminance gradient detection unit 33 and the processing result of the template matching unit 34 without performing the correction process according to the processing content of the subsequent stage. When the reliability of the motion vector vec is evaluated and it is determined that the reliability of the motion vector vec is low, the motion vector vec supplied from the histogram unit 35 is corrected and externally (the image processing unit 11 in FIG. It is also possible to output to the processing unit 12 and the switching unit 15).

このようにして、本実施の形態の動き検出部14は、周囲と調和の取れた動きベクトvec(実際には、補正された動きベクトルvec'または動きベクトルvec'')を出力することが可能になる。その結果、例えば、図1の画像処理部12等は、ホールド型表示装置2において発生する動きボケ(特に、追従視に起因する動きボケ)を、周囲との違和感のないように精度よく抑制することが可能になる。   In this way, the motion detection unit 14 of the present embodiment can output a motion vector vec (actually, a corrected motion vector vec ′ or motion vector vec ″) that is in harmony with the surroundings. become. As a result, for example, the image processing unit 12 or the like in FIG. 1 accurately suppresses motion blur (particularly motion blur caused by follow-up vision) that occurs in the hold-type display device 2 so that there is no sense of discomfort with the surroundings. It becomes possible.

次に、図20のフローチャートを参照して、本実施の形態の画像処理装置1(図1)の画像処理について説明する。   Next, image processing of the image processing apparatus 1 (FIG. 1) of the present embodiment will be described with reference to the flowchart of FIG.

はじめに、ステップS1において、画像処理装置1は、表示対象フレームの画像データを入力する。詳細には、表示対象フレームの画像データは、画像処理部11、画像処理部12、参照画像記憶部13、および、動き検出部14のそれぞれに入力される。   First, in step S1, the image processing apparatus 1 inputs image data of a display target frame. Specifically, the image data of the display target frame is input to each of the image processing unit 11, the image processing unit 12, the reference image storage unit 13, and the motion detection unit 14.

ステップS2において、画像処理装置1(画像処理部11、画像処理部12、および、動き検出部14等)は、表示対象フレームを構成する複数の画素の中から、注目画素を設定する。   In step S <b> 2, the image processing apparatus 1 (the image processing unit 11, the image processing unit 12, the motion detection unit 14, and the like) sets a target pixel from among a plurality of pixels that constitute the display target frame.

ステップS3において、動き検出部14は、表示対象フレームの画像データと、参照画像記憶部23に記憶されている参照画像(直前フレーム)の画像データとを比較することで、注目画素の動きベクトルvecを演算し、必要に応じてその動きベクトルvecを補正し、画像処理部11、画像処理部12、および、切替部15のそれぞれに供給する。   In step S <b> 3, the motion detection unit 14 compares the image data of the display target frame with the image data of the reference image (previous frame) stored in the reference image storage unit 23, so that the motion vector vec of the target pixel is obtained. And the motion vector vec is corrected if necessary, and supplied to each of the image processing unit 11, the image processing unit 12, and the switching unit 15.

このような動き検出部14の処理(ステップS3の処理)を、以下、「動きベクトル演算処理」と称する。なお、「動きベクトル演算処理」の詳細については図21のフローチャートを参照して後述する。   Such processing of the motion detection unit 14 (processing of step S3) is hereinafter referred to as “motion vector calculation processing”. The details of the “motion vector calculation process” will be described later with reference to the flowchart of FIG.

ステップS4において、画像処理装置1(画像処理部11、画像処理部12、および、切替部15等)は、注目画素の動きベクトルvecの大きさが閾値以上であるか否かを判定する。   In step S <b> 4, the image processing apparatus 1 (the image processing unit 11, the image processing unit 12, the switching unit 15, etc.) determines whether or not the magnitude of the motion vector vec of the target pixel is equal to or greater than a threshold value.

なお、実際には、ステップS4乃至S7の処理では、動き検出部14のステップS3の処理である「動きベクトル演算処理」の結果として、注目画素の補正された動きベクトルvec'または動きベクトルvec''を利用することになるが、ステップS4乃至S7の処理の説明では、これらを個々に区別する必要がないので、上述したように、単に動きベクトルvecと称する。   Actually, in the processing of steps S4 to S7, as a result of the “motion vector calculation processing” that is the processing of step S3 of the motion detection unit 14, the motion vector vec ′ or the motion vector vec ′ of the pixel of interest corrected. 'Will be used, but in the description of the processing of steps S4 to S7, since it is not necessary to distinguish them individually, as described above, they are simply referred to as motion vectors vec.

ステップS4において、動きベクトルvecの大きさが閾値未満であると判定された場合(動きベクトルvecの大きさが閾値以上ではないと判定された場合)、即ち、注目画素に動きがない場合、切替部15は、その入力を画像処理部11側の端に切り替える。すると、ステップS5において、画像処理部11が、注目画素に対して所定の画像処理を施すことで、注目画素の画素値を補正し、補正した画素値を切替部15を介して表示制御部16に供給する。   When it is determined in step S4 that the magnitude of the motion vector vec is less than the threshold (when it is determined that the magnitude of the motion vector vec is not greater than or equal to the threshold), that is, when there is no motion in the target pixel, switching is performed. The unit 15 switches the input to the end on the image processing unit 11 side. Then, in step S <b> 5, the image processing unit 11 performs predetermined image processing on the target pixel to correct the pixel value of the target pixel, and the corrected pixel value is displayed via the switching unit 15. To supply.

これに対して、ステップS4において、動きベクトルvecの大きさが閾値以上であると判定された場合、即ち、注目画素に動きがある場合、切替部15は、その入力を画像処理部12(補正部22)側の端に切り替える。   On the other hand, if it is determined in step S4 that the magnitude of the motion vector vec is greater than or equal to the threshold value, that is, if there is motion in the pixel of interest, the switching unit 15 converts the input into the image processing unit 12 (correction). Switch to the end on the part 22) side.

このとき、ステップS6において、ステップエッジ検出部21は、注目画素の画素値と、所定の方向(いまの場合、空間方向Xまたはその逆方向であり、動き検出部24より供給される動きベクトルvecの方向(プラスかマイナス)に従って決定される)に隣接する画素の画素値との差分値を演算し、演算した差分値と注目画素の画素値とを補正部22に供給する。   At this time, in step S <b> 6, the step edge detection unit 21 determines the pixel value of the target pixel and a predetermined direction (in this case, the spatial direction X or the opposite direction, and the motion vector vec supplied from the motion detection unit 24. The difference value with the pixel value of the pixel adjacent to the pixel (determined according to the direction (plus or minus)) is calculated, and the calculated difference value and the pixel value of the target pixel are supplied to the correction unit 22.

ステップS7において、補正部22は、動き検出部14より供給された注目画素の動きベクトルと、ステップエッジ検出部21より供給された差分値とに基づいて、ステップエッジ検出部21より供給された注目画素の画素値を補正し、補正した画素値を切替部15を介して表示制御部16に供給する。   In step S <b> 7, the correction unit 22 receives the attention supplied from the step edge detection unit 21 based on the motion vector of the target pixel supplied from the motion detection unit 14 and the difference value supplied from the step edge detection unit 21. The pixel value of the pixel is corrected, and the corrected pixel value is supplied to the display control unit 16 via the switching unit 15.

ステップS8において、表示制御部16は、画像処理部11または画像処理部12より切替部15を介して供給された注目画素の画素値を(必要に応じて、その画素値を、ホールド型表示装置2に対応する信号に変換して)ホールド型表示装置2に出力する。即ち、表示制御部16は、注目画素の画素値を、ホールド型表示装置2の表示素子のうちの注目画素に対応する表示素子に対する目標レベルとして、ホールド型表示装置2に出力するのである。   In step S8, the display control unit 16 sets the pixel value of the target pixel supplied from the image processing unit 11 or the image processing unit 12 via the switching unit 15 (if necessary, the pixel value is stored in the hold type display device). 2) and output to the hold type display device 2. That is, the display control unit 16 outputs the pixel value of the target pixel to the hold type display device 2 as a target level for the display element corresponding to the target pixel among the display elements of the hold type display device 2.

ステップS9において、画像処理装置1は、全ての画素の画素値を出力したか否かを判定する。   In step S9, the image processing apparatus 1 determines whether or not the pixel values of all the pixels have been output.

ステップS9において、全ての画素の画素値がまだ出力されていないと判定された場合、処理はステップS2に戻され、それ以降の処理が繰り返される。即ち、表示対象フレームを構成する複数の画素のうちのまだ処理が施されていない画素が注目画素として順次設定され、注目画素の画素値が補正され(0補正も含む)、ホールド型表示装置2に出力される。   If it is determined in step S9 that the pixel values of all the pixels have not yet been output, the process returns to step S2, and the subsequent processes are repeated. That is, of the plurality of pixels constituting the display target frame, pixels that have not yet been processed are sequentially set as the target pixel, the pixel value of the target pixel is corrected (including 0 correction), and the hold-type display device 2 Is output.

以上の処理が繰り返されて、表示対象フレームを構成する全ての画素の画素値がホールド型表示装置2に供給されると、ステップS9において、全ての画素の画素値を出力したと判定され、処理はステップS10に進められる。   When the above process is repeated and the pixel values of all the pixels constituting the display target frame are supplied to the hold type display device 2, it is determined in step S9 that the pixel values of all the pixels have been output, and the process Advances to step S10.

このとき、ホールド型表示装置2は、その画面を構成する表示素子(液晶等)のそれぞれに対して、供給された画素値(目標レベル)に対応するレベルの電圧をそれぞれ印加し、次のフレームの表示が指示されるまで(次のフレームを構成する全ての画素の画素値が供給されるまで)、そのレベルの電圧の印加を保持し続ける。即ち、各表示素子のそれぞれは、対応する画素をホールド表示する。   At this time, the hold-type display device 2 applies a voltage of a level corresponding to the supplied pixel value (target level) to each of the display elements (liquid crystal or the like) constituting the screen, and the next frame. Until the display is instructed (until the pixel values of all the pixels constituting the next frame are supplied), the application of the voltage of that level is continued. That is, each display element holds and displays the corresponding pixel.

ステップS10において、画像処理装置1は、動画像を構成する全てのフレームを処理したか否かを判定する。   In step S10, the image processing apparatus 1 determines whether or not all the frames constituting the moving image have been processed.

ステップS10において、全てのフレームをまだ処理していないと判定された場合、処理はステップS1に戻され、次のフレームの画像データが表示対象フレームの画像データとして入力され、それ以降の処理が繰り返される。   If it is determined in step S10 that all the frames have not been processed yet, the process returns to step S1, the image data of the next frame is input as the image data of the display target frame, and the subsequent processing is repeated. It is.

そして、動画像を構成する複数のフレームのうちの最後のフレームを構成する全ての画素の画素値が補正され(0補正も含む)、ホールド型表示装置2に出力されると、ステップS10において、全てのフレームを処理したと判定され、画像処理装置1の画像処理は終了される。   Then, when the pixel values of all the pixels constituting the last frame among the plurality of frames constituting the moving image are corrected (including 0 correction) and output to the hold type display device 2, in step S10, It is determined that all the frames have been processed, and the image processing of the image processing apparatus 1 is ended.

なお、図20の例では、画像処理装置1は、ホールド型表示装置2に対して、表示対象フレームを構成する各画素の画素値(補正された画素値)のそれぞれを個別に出力しているが、表示対象フレームを構成する全ての画素の画素値を補正した後、それらを一括して(表示対象フレームの画像信号として)出力してもよい。   In the example of FIG. 20, the image processing apparatus 1 individually outputs each pixel value (corrected pixel value) of each pixel constituting the display target frame to the hold type display apparatus 2. However, after correcting the pixel values of all the pixels constituting the display target frame, they may be output collectively (as an image signal of the display target frame).

次に、図21のフローチャートを参照して、図2の動き検出部14の「動きベクトル演算処理(図20のステップS3の処理)」について説明する。   Next, the “motion vector calculation process (the process of step S3 of FIG. 20)” of the motion detection unit 14 of FIG. 2 will be described with reference to the flowchart of FIG.

はじめに、ステップS21において、輝度勾配検出部33は、注目画素周囲の輝度勾配slopeを検出し、動きベクトル補正部36に供給する。   First, in step S <b> 21, the luminance gradient detection unit 33 detects a luminance gradient slope around the target pixel and supplies it to the motion vector correction unit 36.

ステップS22において、テンプレートマッチング部34は、注目画素を含む画素群を構成する各画素(例えば、図11の領域95を構成する各画素)のそれぞれの動きベクトル候補pvecを演算し、ヒストグラム部35に供給する。   In step S <b> 22, the template matching unit 34 calculates each motion vector candidate pvec of each pixel (for example, each pixel configuring the region 95 in FIG. 11) that configures the pixel group including the target pixel, and the histogram unit 35 Supply.

また、ステップS23において、テンプレートマッチング部34は、注目画素の動きベクトルvecの補正可否を示す制御信号(フラグ)flagを生成し、動きベクトル補正部36に供給する。   In step S <b> 23, the template matching unit 34 generates a control signal (flag) flag indicating whether the motion vector vec of the target pixel can be corrected, and supplies the control signal (flag) flag to the motion vector correction unit 36.

ステップS24において、ヒストグラム部35は、注目画素を含む画素群を構成する各画素のそれぞれの動きベクトル候補pvecのヒストグラム(例えば、図12のヒストグラム)を生成し、最も頻度の高い動きベクトル候補pvecを注目画素の動きベクトルvecとして決定し、動きベクトル補正部36に供給する。   In step S24, the histogram unit 35 generates a histogram (for example, the histogram of FIG. 12) of each motion vector candidate pvec of each pixel constituting the pixel group including the target pixel, and selects the most frequent motion vector candidate pvec. The motion vector vec of the pixel of interest is determined and supplied to the motion vector correction unit 36.

ステップS25において、図13の動きベクトル補正部36Aの後段用補正部101は、注目画素の動きベクトルvecを、第1の補正方法で補正し、その結果得られる動きベクトルvec'を切替部102に供給する。   In step S25, the post-stage correction unit 101 of the motion vector correction unit 36A in FIG. 13 corrects the motion vector vec of the target pixel using the first correction method, and the resulting motion vector vec ′ is sent to the switching unit 102. Supply.

なお、図2の動きベクトル補正部36が、図19の動きベクトル補正部36Cとして構成される場合、このステップS25の処理は省略される。   Note that when the motion vector correction unit 36 of FIG. 2 is configured as the motion vector correction unit 36C of FIG. 19, the process of step S25 is omitted.

一方、図2の動きベクトル補正部36が、図18の動きベクトル補正部36Bとして構成される場合、このステップS25の処理は実行されるが、後述するステップS26乃至S28の処理が省略されることになる。   On the other hand, when the motion vector correction unit 36 of FIG. 2 is configured as the motion vector correction unit 36B of FIG. 18, the process of step S25 is executed, but the processes of steps S26 to S28 described later are omitted. become.

このように、図2の動きベクトル補正部36の形態によって、「動きベクトル演算処理」の内容は若干異なることになる。換言すると、図21は、図2の動きベクトル補正部36が、図13の動きベクトル補正部36Aとして構成されている場合の「動きベクトル演算処理」の一例を説明するフローチャートである。   As described above, the contents of the “motion vector calculation process” are slightly different depending on the form of the motion vector correction unit 36 in FIG. 2. In other words, FIG. 21 is a flowchart for explaining an example of “motion vector calculation processing” in the case where the motion vector correction unit 36 in FIG. 2 is configured as the motion vector correction unit 36A in FIG.

ところで、上述したステップS25の処理が終了すると、処理はステップS26に進む。   By the way, when the process of step S25 described above is completed, the process proceeds to step S26.

ステップS26において、図13の信頼度評価部103は、ステップS23の処理でテンプレートマッチング部34により生成された制御信号(フラグ)flagと、ステップS21の処理で輝度勾配検出部33により検出された輝度勾配slopeとに基づいて、動きベクトルvecの信頼度を評価する。   In step S26, the reliability evaluation unit 103 in FIG. 13 includes the control signal (flag) flag generated by the template matching unit 34 in step S23 and the luminance detected by the luminance gradient detection unit 33 in step S21. The reliability of the motion vector vec is evaluated based on the slope.

ステップS27において、信頼度評価部103は、ステップS26の処理結果に基づいて動きベクトルvecの信頼度が低いか否かを判定する。   In step S27, the reliability evaluation unit 103 determines whether the reliability of the motion vector vec is low based on the processing result of step S26.

ステップS27において、信頼度評価部103は、動きベクトルvecの信頼度が高い(低くない)と判定した場合、切替部102の出力先を外部のLPF37側に切り替え、処理をステップS29に進める。   In step S27, when the reliability evaluation unit 103 determines that the reliability of the motion vector vec is high (not low), the output destination of the switching unit 102 is switched to the external LPF 37 side, and the process proceeds to step S29.

ステップS29において、切替部102は、ステップS25の処理で後段処理用補正部101により第1の補正方法で補正された動きベクトルvec'をLPF37を介して動き検出部14の外部(図1の画像処理装置11、画像処理装置12、および、切替部15)に出力する。   In step S29, the switching unit 102 outputs the motion vector vec ′ corrected by the first-stage correction unit 101 in the processing in step S25 to the outside of the motion detection unit 14 via the LPF 37 (the image in FIG. 1). Output to the processing device 11, the image processing device 12, and the switching unit 15).

これに対して、ステップS27において、信頼度評価部103は、動きベクトルvecの信頼度が低いと判定した場合、切替部102の出力先を信頼度用補正部104側に切り替え、処理をステップS28に進める。   On the other hand, in step S27, if the reliability evaluation unit 103 determines that the reliability of the motion vector vec is low, the output destination of the switching unit 102 is switched to the reliability correction unit 104 side, and the process is performed in step S28. Proceed to

すると、後段処理用補正部101により、ステップS25の処理で第1の補正方法を利用して補正された動きベクトルvec'は、信頼度用補正部104に供給されるので、ステップS28において、信頼度用補正部104は、注目画素の(後段処理用補正部101により補正された)動きベクトルvec'を、第2の補正方法でさらに補正し、ステップS29において、その補正された動きベクトルvec''をLPF37を介して動き検出部14の外部に出力する。   Then, the motion vector vec ′ corrected by using the first correction method in the process of step S25 by the post-processing correction unit 101 is supplied to the reliability correction unit 104. The degree correction unit 104 further corrects the motion vector vec ′ (corrected by the post-processing correction unit 101) of the target pixel by the second correction method, and in step S29, the corrected motion vector vec ′. 'Is output to the outside of the motion detector 14 via the LPF 37.

このようにして、ステップS29の処理で注目画素の補正された動きベクトルvec'
または動きベクトルvec''が出力されると、「動きベクトル演算処理」は終了となる。
In this way, the motion vector vec ′ corrected for the pixel of interest in the process of step S29.
Alternatively, when the motion vector vec ″ is output, the “motion vector calculation process” ends.

ところで、本発明が適用される画像処理装置は、上述した図1の構成に限定されず、様々な実施の形態を取ることができる。   By the way, the image processing apparatus to which the present invention is applied is not limited to the configuration of FIG. 1 described above, and can take various embodiments.

例えば、本発明が適用される画像処理装置は、図22に示されるように構成することもできる。即ち、図22は、本実施の他の形態の画像処理装置の構成例を表しており、図1の画像処理装置1と対応する部分には対応する符号が付されている。   For example, an image processing apparatus to which the present invention is applied can be configured as shown in FIG. That is, FIG. 22 shows an example of the configuration of an image processing apparatus according to another embodiment of the present invention, and portions corresponding to those of the image processing apparatus 1 of FIG.

図22に示されるように、この実施の形態の画像処理装置151には、図1の画像処理装置1と基本的に同様の構成と機能を有する、画像処理部11乃至表示制御部16のそれぞれが設けられており、それらの基本的な接続形態も図1のそれと同様とされている。   As shown in FIG. 22, the image processing apparatus 151 of this embodiment includes image processing units 11 to 16 having basically the same configuration and function as the image processing apparatus 1 of FIG. The basic connection form is the same as that of FIG.

ただし、図1の画像処理装置1においては、動き検出部14の検出結果(動きベクトルvec)が、ステップエッジ検出部21に供給されていたが、図22の画像処理装置151においては、動き検出部14の検出結果は、ステップエッジ検出部21に供給されず、逆に、ステップエッジ検出部21の検出結果が、動き検出部14と画像処理部11のそれぞれに供給されている。   However, in the image processing apparatus 1 of FIG. 1, the detection result (motion vector vec) of the motion detection unit 14 is supplied to the step edge detection unit 21. However, in the image processing apparatus 151 of FIG. The detection result of the unit 14 is not supplied to the step edge detection unit 21. Conversely, the detection result of the step edge detection unit 21 is supplied to each of the motion detection unit 14 and the image processing unit 11.

画像処理装置151は、このような構成を有しているので、次のような動作を行うことになる。   Since the image processing apparatus 151 has such a configuration, the following operation is performed.

即ち、画像処理装置151においては、初めに、ステップエッジ検出部21が、所定のフレームを構成する複数の画素の中からステップエッジに対応する画素を検出し、その検出結果を、補正部22の他、動き検出部14と画像処理部11のそれぞれに供給する。   In other words, in the image processing apparatus 151, first, the step edge detection unit 21 detects a pixel corresponding to the step edge from a plurality of pixels constituting a predetermined frame, and the detection result is displayed as a result of the correction unit 22. In addition, the data is supplied to each of the motion detection unit 14 and the image processing unit 11.

これにより、動き検出部14は、ステップエッジ検出部21により検出された画素(ステップエッジに対応する画素)に対してのみその処理を実行することができる。即ち、動き検出部14は、ステップエッジ検出部31により検出されたステップエッジが動いているか否かを検出するとも言える。   Thereby, the motion detection unit 14 can execute the process only for the pixels detected by the step edge detection unit 21 (pixels corresponding to the step edges). That is, it can be said that the motion detector 14 detects whether or not the step edge detected by the step edge detector 31 is moving.

また、画像処理部11は、ステップエッジ検出部21により検出された画素(ステップエッジに対応する画素)のうちの、動き検出部14により動きが検出された画素に対しては、その処理を禁止する。即ち、画像処理部11は、動きのあるステップエッジに対応する画素に対してはその処理を禁止し、それ以外の画素に対してのみその処理を実行する。   Further, the image processing unit 11 prohibits the processing of the pixels detected by the motion detection unit 14 among the pixels detected by the step edge detection unit 21 (pixels corresponding to the step edges). To do. In other words, the image processing unit 11 prohibits the process for pixels corresponding to a moving step edge, and executes the process only for other pixels.

このように、図22の画像処理装置151においては、1つの画素に対する画像処理は、画像処理部11と画像処理部12のうちのいずれか一方のみにより実行される。換言すると、1つのフレームに対して画像処理が1回だけ施されることになる。さらに、動き検出部14の処理も、ステップエッジに対応する画素についてのみ実行される。従って、画像処理装置151の全体の処理量を抑制することが可能になる。   As described above, in the image processing device 151 of FIG. 22, image processing for one pixel is executed by only one of the image processing unit 11 and the image processing unit 12. In other words, image processing is performed only once on one frame. Furthermore, the process of the motion detection unit 14 is also executed only for the pixels corresponding to the step edges. Accordingly, it is possible to suppress the overall processing amount of the image processing apparatus 151.

また、上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることができる。   The series of processes described above can be executed by hardware, but can also be executed by software.

この場合、図1の画像処理装置1や図22の画像処理装置151は、例えば、図23に示されるようなパーソナルコンピュータで構成することができる。   In this case, the image processing apparatus 1 in FIG. 1 and the image processing apparatus 151 in FIG. 22 can be configured by, for example, a personal computer as shown in FIG.

図23において、CPU(Central Processing Unit)201は、ROM(Read Only Memory)202に記録されているプログラム、または記憶部208からRAM(Random Access Memory)203にロードされたプログラムに従って各種の処理を実行する。RAM203にはまた、CPU201が各種の処理を実行する上において必要なデータなども適宜記憶される。   23, a CPU (Central Processing Unit) 201 executes various processes according to a program recorded in a ROM (Read Only Memory) 202 or a program loaded from a storage unit 208 to a RAM (Random Access Memory) 203. To do. The RAM 203 also appropriately stores data necessary for the CPU 201 to execute various processes.

CPU201、ROM202、およびRAM203は、バス204を介して相互に接続されている。このバス204にはまた、入出力インタフェース205も接続されている。   The CPU 201, the ROM 202, and the RAM 203 are connected to each other via the bus 204. An input / output interface 205 is also connected to the bus 204.

入出力インタフェース205には、キーボード、マウスなどよりなる入力部206、ディスプレイなどよりなる出力部207、ハードディスクなどより構成される記憶部208、および、モデム、ターミナルアダプタなどより構成される通信部209が接続されている。通信部209は、インターネットを含むネットワークを介して他の情報処理装置(図示せず)との通信処理を行う。   The input / output interface 205 includes an input unit 206 including a keyboard and a mouse, an output unit 207 including a display, a storage unit 208 including a hard disk, and a communication unit 209 including a modem and a terminal adapter. It is connected. The communication unit 209 performs communication processing with another information processing apparatus (not shown) via a network including the Internet.

なお、この場合、出力部207自身がホールド型表示装置であってもよいし、或いは、入出力インタフェース205に必要に応じて接続される図示せぬ接続部に、外部のホールド型表示装置2(図1)が接続されてもよい。   In this case, the output unit 207 itself may be a hold-type display device, or an external hold-type display device 2 ( 1) may be connected.

入出力インタフェース205にはまた、必要に応じてドライブ210が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブル記録媒体211が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部208にインストールされる。   A drive 210 is connected to the input / output interface 205 as necessary, and a removable recording medium 211 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted, and a computer program read from them is read. Are installed in the storage unit 208 as necessary.

一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.

このようなプログラムを含む記録媒体は、図23に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブル記録媒体(パッケージメディア)211により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM202や、記憶部208に含まれるハードディスクなどで構成される。   As shown in FIG. 23, the recording medium including such a program is distributed to provide a program to the user separately from the apparatus main body, and a magnetic disk (including a floppy disk) on which the program is recorded. Removable recording media (package) consisting of optical disks (including compact disk-read only memory (CD-ROM), DVD (digital versatile disk)), magneto-optical disk (including MD (mini-disk)), or semiconductor memory Medium) 211, and a ROM 202 in which a program is recorded and a hard disk included in the storage unit 208 provided to the user in a state of being incorporated in the apparatus main body in advance.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.

また、以上の説明においては、ホールド型表示装置2の画面を構成する各表示素子(液晶型表示装置の場合、液晶)のそれぞれには、フレームを構成する複数の画素のうちの所定の1つが対応付けられていたが、1つの画素に複数の表示素子が対応付けられていてもよい。即ち、複数の表示素子で1つの画素を表示してもよい。   In the above description, each display element (liquid crystal in the case of a liquid crystal display device) constituting the screen of the hold type display device 2 has a predetermined one of a plurality of pixels constituting the frame. Although associated with each other, a plurality of display elements may be associated with one pixel. That is, one pixel may be displayed by a plurality of display elements.

さらに、以上の説明においては、画像処理装置は、空間方向Xと平行な動きベクトルを生成したが、上述したように、上述した一連の処理と基本的に同様な処理を実行することで、空間方向Yと平行な動きベクトルを生成することもできるし、空間方向Xと空間方向Yとに平行な2次元平面上の任意な方向の動きベクトルを生成することもできる。   Further, in the above description, the image processing apparatus generates a motion vector parallel to the spatial direction X. As described above, the image processing apparatus performs a process basically similar to the series of processes described above, thereby performing spatial processing. A motion vector parallel to the direction Y can be generated, or a motion vector in an arbitrary direction on a two-dimensional plane parallel to the spatial direction X and the spatial direction Y can be generated.

本実施の形態の画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus of this Embodiment. 図1の画像処理装置の動き検出部の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the motion detection part of the image processing apparatus of FIG. 図2の輝度勾配検出部の処理対象例を示す図である。It is a figure which shows the example of a process target of the brightness | luminance gradient detection part of FIG. 図2の動き検出部のテンプレートマッチング部の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the template matching part of the motion detection part of FIG. 図4のテンプレートマッチング部の処理対象例を示す図である。It is a figure which shows the example of a process target of the template matching part of FIG. 表示対象フレームの注目画素周辺の各画素のそれぞれの画素値と、その直前フレームの対応する各画素のそれぞれの画素値との例を示す図である。It is a figure which shows the example of each pixel value of each pixel around the attention pixel of a display object frame, and each pixel value of each corresponding pixel of the frame immediately before that. 図4のSAD演算部の図6に対する演算結果の例を示す図である。It is a figure which shows the example of the calculation result with respect to FIG. 6 of the SAD calculating part of FIG. 図4のテンプレートマッチング部が処理に使用する値を説明する図である。It is a figure explaining the value which the template matching part of FIG. 4 uses for a process. 表示対象フレームの注目画素周辺の各画素のそれぞれの画素値と、その直前フレームの対応する各画素のそれぞれの画素値との他の例(図6とは異なる例)を示す図である。It is a figure which shows the other pixel example (different from FIG. 6) of each pixel value of each pixel around the pixel of interest of a display target frame, and each pixel value of each corresponding pixel of the immediately preceding frame. 図4のSAD演算部の図6に対する演算結果の他の例(図7とは異なる例)を示す図である。It is a figure which shows the other example (example different from FIG. 7) of the calculation result with respect to FIG. 6 of the SAD calculating part of FIG. 図2のヒストグラム部の処理対象例を示す図である。It is a figure which shows the example of a process target of the histogram part of FIG. 図11に対するヒストグラムの例を示す図である。It is a figure which shows the example of the histogram with respect to FIG. 図2の動き検出部の動きベクトル補正部の詳細な構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a detailed configuration example of a motion vector correction unit of the motion detection unit in FIG. 2. 図13の動き検出部の後段処理用補正部がその補正処理で考慮すべき、後段の処理内容の例を示す図である。It is a figure which shows the example of the process content of a back | latter stage which the correction | amendment part for a back | latter stage process of the motion detection part of FIG. 13 should consider in the correction process. 図13の動き検出部の後段処理用補正部が、図14の例の後段の処理内容の特徴に適した補正を行うための補正方法の例を示す図である。FIG. 15 is a diagram illustrating an example of a correction method for the post-processing correction unit of the motion detection unit of FIG. 13 to perform correction suitable for the characteristics of the processing content of the post-stage of the example of FIG. 図13の動き検出部の後段処理用補正部の補正方法の他の例を示す図である。It is a figure which shows the other example of the correction method of the correction | amendment part for a back | latter stage process of the motion detection part of FIG. 図4のテンプレートマッチング部の他の実施の形態を説明する、SADの結果を示す図である。It is a figure which shows the result of SAD explaining other embodiment of the template matching part of FIG. 図2の動き検出部の動きベクトル補正部の詳細な構成の他の例を示すブロック図である。It is a block diagram which shows the other example of a detailed structure of the motion vector correction | amendment part of the motion detection part of FIG. 図2の動き検出部の動きベクトル補正部の詳細な構成のさらに他の例を示すブロック図である。FIG. 10 is a block diagram showing still another example of a detailed configuration of a motion vector correction unit of the motion detection unit in FIG. 2. 図1の画像処理装置の画像処理を説明するフローチャートである。2 is a flowchart illustrating image processing of the image processing apparatus in FIG. 1. 図20の動きベクトル演算処理を説明するフローチャートである。FIG. 21 is a flowchart for describing motion vector calculation processing in FIG. 20. FIG. 本実施の形態の画像処理装置の他の構成例(図1とは異なる構成例)を示すブロック図である。It is a block diagram which shows the other structural example (configuration example different from FIG. 1) of the image processing apparatus of this Embodiment. 本実施の形態の画像処理装置のさらに他の構成例(図1や図22とは異なる構成例)を示すブロック図である。It is a block diagram which shows the further another structural example (configuration example different from FIG.1 and FIG.22) of the image processing apparatus of this Embodiment.

符号の説明Explanation of symbols

1 画像処理装置, 2 ホールド型表示装置, 11 画像処理部, 12 画像処理部, 13 参照画像記憶部, 14 動き検出部, 15 切替部, 16 表示制御部, 21 ステップエッジ検出部, 22 補正部, 31 ローパスフィルタ(LPF), 32 LPF, 33 輝度勾配部, 34 テンプレートマッチング部, 35 ヒストグラム部, 36,36A,36B,36C 動きベクトル補正部, 37 LPF, 51 注目画素, 61 SAD演算部, 62 SAD極小検出部, 63 SAD極小値評価部, 101 後段処理用補正部, 102 切替部, 103 信頼度評価部, 104 信頼度用補正部 201 CPU, 202 ROM, 203 RAM, 208 記憶部, 211 リムーバブル記録媒体   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 2 Hold-type display apparatus, 11 Image processing part, 12 Image processing part, 13 Reference image memory | storage part, 14 Motion detection part, 15 Switching part, 16 Display control part, 21 Step edge detection part, 22 Correction | amendment part , 31 Low pass filter (LPF), 32 LPF, 33 Luminance gradient part, 34 Template matching part, 35 Histogram part, 36, 36A, 36B, 36C Motion vector correction part, 37 LPF, 51 pixel of interest, 61 SAD operation part, 62 SAD minimum detection unit, 63 SAD minimum value evaluation unit, 101 post-processing correction unit, 102 switching unit, 103 reliability evaluation unit, 104 reliability correction unit 201 CPU, 202 ROM, 203 RAM, 208 storage unit, 211 removable recoding media

Claims (11)

第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、前記第1のアクセスユニットと、前記第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、前記注目画素における動きベクトル候補を生成する候補生成手段と、
前記候補生成手段により生成された前記注目画素とその周辺の画素のそれぞれにおける前記動きベクトル候補のうちの頻度が最も高い前記動きベクトル候補を、前記注目画素における動きベクトルとして決定する動きベクトル決定手段と、
前記注目画素周辺の輝度の変化の度合を演算する輝度変化演算手段と、
前記輝度変化演算手段と前記候補生成手段との処理結果に基づいて、前記動きベクトル決定手段により決定された前記動きベクトルの信頼度を評価し、前記動きベクトルの信頼度が低いと評価した場合、前記動きベクトルを補正する補正手段と
を備えることを特徴とする画像処理装置。
By setting a predetermined pixel of the pixels constituting the first access unit as a target pixel, and comparing the first access unit with the second access unit immediately before the first access unit. , Candidate generation means for generating a motion vector candidate at the pixel of interest;
Motion vector determining means for determining the motion vector candidate having the highest frequency among the motion vector candidates in each of the target pixel generated by the candidate generating means and surrounding pixels as a motion vector in the target pixel; ,
Luminance change calculating means for calculating the degree of change in luminance around the pixel of interest;
When evaluating the reliability of the motion vector determined by the motion vector determination unit based on the processing results of the luminance change calculation unit and the candidate generation unit, and when evaluating that the reliability of the motion vector is low, An image processing apparatus comprising: correction means for correcting the motion vector.
前記補正手段は、前記輝度変化演算手段により演算された前記輝度の変化の度合が閾値未満の場合、前記動きベクトルの信頼度が低いと評価して、前記動きベクトルを補正する
ことを特徴とする請求項1に記載の画像処理装置。
The correction means evaluates that the reliability of the motion vector is low when the degree of change in the brightness calculated by the brightness change calculation means is less than a threshold, and corrects the motion vector. The image processing apparatus according to claim 1.
前記候補生成手段は、前記注目画素の配置位置に対応する前記第2のアクセスユニット内の位置に配置される第1の画素の対応画素として、前記第1のアクセスユニットから第2の画素を検出し、前記注目画素を起点とし前記第2の画素を終点とするベクトルを、前記注目画素における前記動きベクトル候補として生成する
ことを特徴とする請求項1に記載の画像処理装置。
The candidate generation means detects a second pixel from the first access unit as a corresponding pixel of the first pixel arranged at a position in the second access unit corresponding to the arrangement position of the target pixel. The image processing apparatus according to claim 1, wherein a vector starting from the target pixel and starting from the second pixel is generated as the motion vector candidate for the target pixel.
前記候補生成手段はさらに、前記第1のアクセスユニットの中に前記対応画素の候補が複数個存在すると判定した場合、または、前記第2の画素が前記対応画素であることの信頼度が低いと判定した場合、前記動きベクトルの補正指令を示す第1の情報を前記補正手段に提供し、
前記補正手段は、前記候補生成手段から前記第1の情報が提供された場合、前記動きベクトルの信頼度が低いと評価して、前記動きベクトルを補正する
ことを特徴とする請求項3に記載の画像処理装置。
If the candidate generation unit further determines that there are a plurality of candidates for the corresponding pixel in the first access unit, or if the reliability that the second pixel is the corresponding pixel is low If determined, providing the correction means with the first information indicating the motion vector correction command,
The said correction | amendment means evaluates that the reliability of the said motion vector is low, and correct | amends the said motion vector, when the said 1st information is provided from the said candidate production | generation means. Image processing apparatus.
前記候補生成手段はさらに、複数の前記対応画素の候補の中に前記注目画素自身が含まれている場合、そのことを示す第2の情報を前記補正手段に提供し、
前記補正手段は、前記候補生成手段から前記第2の情報が提供された場合、前記動きベクトルの信頼度が低いと評価して、前記動きベクトルを0ベクトルに補正する
ことを特徴とする請求項4に記載の画像処理装置。
The candidate generation means further provides the correction means with second information indicating that the pixel of interest itself is included in a plurality of candidates for the corresponding pixel,
The correction unit, when the second information is provided from the candidate generation unit, evaluates that the reliability of the motion vector is low and corrects the motion vector to a zero vector. 5. The image processing apparatus according to 4.
第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、前記第1のアクセスユニットと、前記第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、前記注目画素における動きベクトル候補を生成する候補生成ステップと、
前記候補生成ステップの処理により生成された前記注目画素とその周辺の画素のそれぞれにおける前記動きベクトル候補のうちの頻度が最も高い前記動きベクトル候補を、前記注目画素における動きベクトルとして決定する動きベクトル決定ステップと、
前記注目画素周辺の輝度の変化の度合を演算する輝度変化演算ステップと、
前記輝度変化演算ステップと前記候補生成ステップとの処理結果に基づいて、前記動きベクトル決定ステップの処理により決定された前記動きベクトルの信頼度を評価し、前記動きベクトルの信頼度が低いと評価した場合、前記動きベクトルを補正する補正ステップと
を含むことを特徴とする画像処理方法。
By setting a predetermined pixel of the pixels constituting the first access unit as a target pixel, and comparing the first access unit with the second access unit immediately before the first access unit. , A candidate generation step of generating a motion vector candidate at the target pixel;
Motion vector determination for determining the motion vector candidate having the highest frequency among the motion vector candidates in each of the target pixel and its surrounding pixels generated by the processing of the candidate generation step as a motion vector in the target pixel. Steps,
A luminance change calculating step for calculating the degree of luminance change around the target pixel;
Based on the processing results of the luminance change calculation step and the candidate generation step, the reliability of the motion vector determined by the processing of the motion vector determination step was evaluated, and the reliability of the motion vector was evaluated to be low A correction step of correcting the motion vector.
第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、前記注目画素を単位とする画像処理をコンピュータに実行させるプログラムであって、
前記第1のアクセスユニットと、前記第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、前記注目画素における動きベクトル候補を生成する候補生成ステップと、
前記候補生成ステップの処理により生成された前記注目画素とその周辺の画素のそれぞれにおける前記動きベクトル候補のうちの頻度が最も高い前記動きベクトル候補を、前記注目画素における動きベクトルとして決定する動きベクトル決定ステップと、
前記注目画素周辺の輝度の変化の度合を演算する輝度変化演算ステップと、
前記輝度変化演算ステップと前記候補生成ステップとの処理結果に基づいて、前記動きベクトル決定ステップの処理により決定された前記動きベクトルの信頼度を評価し、前記動きベクトルの信頼度が低いと評価した場合、前記動きベクトルを補正する補正ステップと
を含むことを特徴とするプログラム。
A program that sets a predetermined pixel of pixels constituting the first access unit as a target pixel and causes a computer to execute image processing using the target pixel as a unit,
A candidate generation step of generating a motion vector candidate at the pixel of interest by comparing the first access unit with a second access unit immediately before the first access unit;
Motion vector determination for determining the motion vector candidate having the highest frequency among the motion vector candidates in each of the target pixel and its surrounding pixels generated by the processing of the candidate generation step as a motion vector in the target pixel. Steps,
A luminance change calculating step for calculating the degree of luminance change around the target pixel;
Based on the processing results of the luminance change calculation step and the candidate generation step, the reliability of the motion vector determined by the processing of the motion vector determination step was evaluated, and the reliability of the motion vector was evaluated to be low A correction step of correcting the motion vector.
第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、前記第1のアクセスユニットと、前記第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、前記注目画素における動きベクトル候補を生成する候補生成手段と、
前記候補生成手段により生成された前記注目画素とその周辺の画素のそれぞれにおける前記動きベクトル候補のうちの頻度が最も高い前記動きベクトル候補を、前記注目画素における動きベクトルとして決定する動きベクトル決定手段と、
前記動きベクトル決定手段により決定された前記動きベクトルを補正する補正手段と、
前記補正手段により補正された前記動きベクトルを利用して、所定の処理を実行する処理実行手段とを備え、
前記補正手段は、前記処理実行手段の前記所定の処理の特徴に基づく第1の補正方法を利用して、前記動きベクトルを補正する
ことを特徴とする画像処理装置。
By setting a predetermined pixel of the pixels constituting the first access unit as a target pixel, and comparing the first access unit with the second access unit immediately before the first access unit. , Candidate generation means for generating a motion vector candidate at the pixel of interest;
Motion vector determining means for determining the motion vector candidate having the highest frequency among the motion vector candidates in each of the target pixel generated by the candidate generating means and surrounding pixels as a motion vector in the target pixel; ,
Correction means for correcting the motion vector determined by the motion vector determination means;
Processing execution means for executing predetermined processing using the motion vector corrected by the correction means;
The image processing apparatus, wherein the correction unit corrects the motion vector by using a first correction method based on a characteristic of the predetermined process of the process execution unit.
前記注目画素周辺の輝度の変化の度合を演算する輝度変化演算手段をさらに備え、
前記補正手段は、さらに、前記輝度変化演算手段と前記候補生成手段との処理結果に基づいて、前記動きベクトル決定手段により決定された前記動きベクトルの信頼度を評価し、前記動きベクトルの信頼度が低いと評価した場合、前記第1の補正方法により補正された前記動きベクトルを、第2の補正方法によりさらに補正する
ことを特徴とする請求項8に記載の画像処理装置。
A luminance change calculating means for calculating the degree of change in luminance around the target pixel;
The correction means further evaluates the reliability of the motion vector determined by the motion vector determination means based on the processing results of the brightness change calculation means and the candidate generation means, and the reliability of the motion vector The image processing apparatus according to claim 8, wherein when the evaluation is low, the motion vector corrected by the first correction method is further corrected by a second correction method.
情報処理装置の情報処理方法において、
第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、前記第1のアクセスユニットと、前記第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、前記注目画素における動きベクトル候補を生成する候補生成ステップと、
前記候補生成ステップの処理により生成された前記注目画素とその周辺の画素のそれぞれにおける前記動きベクトル候補のうちの頻度が最も高い前記動きベクトル候補を、前記注目画素における動きベクトルとして決定する動きベクトル決定ステップと、
前記動きベクトル決定ステップの処理により決定された前記動きベクトルを補正する補正ステップと、
前記補正ステップの処理により補正された前記動きベクトルを利用した所定の処理を前記情報処理装置が実行することを制御する処理制御ステップとを含み、
前記補正ステップは、前記処理制御ステップの制御により前記情報処理装置が実行する前記所定の処理の特徴に基づく補正方法を利用して、前記動きベクトルを補正するステップを少なくとも含む
ことを特徴とする画像処理方法。
In the information processing method of the information processing apparatus,
By setting a predetermined pixel of the pixels constituting the first access unit as a target pixel, and comparing the first access unit with the second access unit immediately before the first access unit. , A candidate generation step of generating a motion vector candidate at the target pixel;
Motion vector determination for determining the motion vector candidate having the highest frequency among the motion vector candidates in each of the target pixel and its surrounding pixels generated by the processing of the candidate generation step as a motion vector in the target pixel. Steps,
A correction step of correcting the motion vector determined by the processing of the motion vector determination step;
A process control step for controlling the information processing apparatus to execute a predetermined process using the motion vector corrected by the process of the correction step,
The correction step includes at least a step of correcting the motion vector using a correction method based on the feature of the predetermined process executed by the information processing apparatus under the control of the process control step. Processing method.
動画像を構成する複数のアクセスユニットのうちの所定の1つを処理対象として、処理対象の前記アクセスユニットを構成する各画素のそれぞれにおける動きベクトルを利用する所定の処理を実行する処理実行装置を制御するコンピュータに実行させるプログラムであって、
第1のアクセスユニットを構成する画素のうちの所定の画素を注目画素として設定し、前記第1のアクセスユニットと、前記第1のアクセスユニットの直前の第2のアクセスユニットとを比較することで、前記注目画素における動きベクトル候補を生成する候補生成ステップと、
前記候補生成ステップの処理により生成された前記注目画素とその周辺の画素のそれぞれにおける前記動きベクトル候補のうちの頻度が最も高い前記動きベクトル候補を、前記注目画素における動きベクトルとして決定する動きベクトル決定ステップと、
前記動きベクトル決定ステップの処理により決定された前記動きベクトルを補正する補正ステップと、
前記補正ステップの処理により補正された前記動きベクトルを利用して前記所定の処理を前記処理実行装置が実行することを制御する処理制御ステップとを含み、
前記補正ステップは、前記処理制御ステップの制御により前記処理実行装置が実行する前記所定の処理の特徴に基づく補正方法を利用して、前記動きベクトルを補正するステップを少なくとも含む
ことを特徴とするプログラム。
A processing execution device that executes a predetermined process using a motion vector in each of the pixels constituting the access unit to be processed, with a predetermined one of a plurality of access units constituting a moving image as a processing target. A program to be executed by a controlling computer,
By setting a predetermined pixel of the pixels constituting the first access unit as a target pixel, and comparing the first access unit with the second access unit immediately before the first access unit. , A candidate generation step of generating a motion vector candidate at the target pixel;
Motion vector determination for determining the motion vector candidate having the highest frequency among the motion vector candidates in each of the target pixel and its surrounding pixels generated by the processing of the candidate generation step as a motion vector in the target pixel. Steps,
A correction step of correcting the motion vector determined by the processing of the motion vector determination step;
A process control step for controlling the process execution device to execute the predetermined process using the motion vector corrected by the process of the correction step,
The correction step includes at least a step of correcting the motion vector using a correction method based on the feature of the predetermined process executed by the process execution device under the control of the process control step. .
JP2004124271A 2003-11-07 2004-04-20 Image processing apparatus and method, and program Expired - Fee Related JP4539152B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004124271A JP4539152B2 (en) 2003-11-07 2004-04-20 Image processing apparatus and method, and program
EP05250938A EP1589763A2 (en) 2004-04-20 2005-02-18 Image processing apparatus, method and program
US11/065,523 US20050232356A1 (en) 2004-04-20 2005-02-24 Image processing apparatus, method, and program
KR1020050016135A KR101098723B1 (en) 2004-04-20 2005-02-25 Image processing apparatus, method, and recording medium
CNB2005100741442A CN100440977C (en) 2004-04-20 2005-02-25 Image processing apparatus, method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003378851 2003-11-07
JP2004124271A JP4539152B2 (en) 2003-11-07 2004-04-20 Image processing apparatus and method, and program

Publications (3)

Publication Number Publication Date
JP2005160015A true JP2005160015A (en) 2005-06-16
JP2005160015A5 JP2005160015A5 (en) 2007-06-07
JP4539152B2 JP4539152B2 (en) 2010-09-08

Family

ID=34741530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004124271A Expired - Fee Related JP4539152B2 (en) 2003-11-07 2004-04-20 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4539152B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008102827A1 (en) * 2007-02-20 2008-08-28 Sony Corporation Image display device, video signal processing device, and video signal processing method
CN101673342A (en) * 2008-09-12 2010-03-17 索尼株式会社 Object detecting device, imaging apparatus, object detecting method, and program
KR101066343B1 (en) 2009-11-24 2011-09-20 포항공과대학교 산학협력단 Method and apparatus of recognizing patterns using maximization of mutual information based code selection for local binary patterns, and recoding medium thereof
US8035661B2 (en) 2007-04-03 2011-10-11 Samsung Electronics Co., Ltd. Driving apparatus of display device for gray range extension, display device including the same, and method of driving display device for gray range extension
KR101235806B1 (en) 2006-06-13 2013-02-21 삼성전자주식회사 Driving apparatus of liquid crystal display and driving method thereof
US8466141B2 (en) 2005-02-16 2013-06-18 Md Bioalpha Co., Ltd. Pharmaceutical composition for the treatment or prevention of diseases involving obesity, diabetes, metabolic syndrome, neuro-degenerative diseases and mitochondria dysfunction diseases
KR101408254B1 (en) * 2007-11-27 2014-06-17 엘지디스플레이 주식회사 Response time improvement apparatus and method for liquid crystal display device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9728145B2 (en) * 2012-01-27 2017-08-08 Google Technology Holdings LLC Method of enhancing moving graphical elements

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05115017A (en) * 1991-10-21 1993-05-07 Sharp Corp Motion vector detector and camera incorporated hand blur correction device
JPH06133298A (en) * 1992-10-14 1994-05-13 Canon Inc Motion vector detector
JPH09121356A (en) * 1995-10-25 1997-05-06 Oki Electric Ind Co Ltd Motion vector detector
JPH10112864A (en) * 1996-10-04 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Method and device for camera work
JPH10224798A (en) * 1997-02-05 1998-08-21 Toshiba Corp Motion vector detection method and detector
JP2001034223A (en) * 1999-07-23 2001-02-09 Matsushita Electric Ind Co Ltd Moving image displaying method and moving image displaying device using the method
JP2003078807A (en) * 2001-08-31 2003-03-14 Sony Corp Device and method for detecting motion vector, device and method for correcting camera shake and imaging apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05115017A (en) * 1991-10-21 1993-05-07 Sharp Corp Motion vector detector and camera incorporated hand blur correction device
JPH06133298A (en) * 1992-10-14 1994-05-13 Canon Inc Motion vector detector
JPH09121356A (en) * 1995-10-25 1997-05-06 Oki Electric Ind Co Ltd Motion vector detector
JPH10112864A (en) * 1996-10-04 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Method and device for camera work
JPH10224798A (en) * 1997-02-05 1998-08-21 Toshiba Corp Motion vector detection method and detector
JP2001034223A (en) * 1999-07-23 2001-02-09 Matsushita Electric Ind Co Ltd Moving image displaying method and moving image displaying device using the method
JP2003078807A (en) * 2001-08-31 2003-03-14 Sony Corp Device and method for detecting motion vector, device and method for correcting camera shake and imaging apparatus

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9066922B2 (en) 2005-02-16 2015-06-30 Md Bioalpha Co., Ltd. Pharmaceutical composition for the treatment or prevention of diseases involving obesity, diabetes, metabolic syndrome, neuro-degenerative diseases and mitochondria dysfunction diseases
US8466141B2 (en) 2005-02-16 2013-06-18 Md Bioalpha Co., Ltd. Pharmaceutical composition for the treatment or prevention of diseases involving obesity, diabetes, metabolic syndrome, neuro-degenerative diseases and mitochondria dysfunction diseases
KR101235806B1 (en) 2006-06-13 2013-02-21 삼성전자주식회사 Driving apparatus of liquid crystal display and driving method thereof
JP5294036B2 (en) * 2007-02-20 2013-09-18 ソニー株式会社 Image display device, video signal processing device, and video signal processing method
WO2008102826A1 (en) * 2007-02-20 2008-08-28 Sony Corporation Image display device, video signal processing device, and video signal processing method
US8917767B2 (en) 2007-02-20 2014-12-23 Sony Corporation Image display apparatus, video signal processor, and video signal processing method
WO2008102827A1 (en) * 2007-02-20 2008-08-28 Sony Corporation Image display device, video signal processing device, and video signal processing method
CN101543065B (en) * 2007-02-20 2012-03-14 索尼株式会社 Image display device, video signal processing device, and video signal processing method
US8213504B2 (en) 2007-02-20 2012-07-03 Sony Corporation Image display apparatus, video signal processor, and video signal processing method
KR101456305B1 (en) * 2007-02-20 2014-11-03 소니 주식회사 Image display device, video signal processing device, and video signal processing method
US8441468B2 (en) 2007-02-20 2013-05-14 Sony Corporation Image display apparatus
US8035661B2 (en) 2007-04-03 2011-10-11 Samsung Electronics Co., Ltd. Driving apparatus of display device for gray range extension, display device including the same, and method of driving display device for gray range extension
KR101408254B1 (en) * 2007-11-27 2014-06-17 엘지디스플레이 주식회사 Response time improvement apparatus and method for liquid crystal display device
CN101673342B (en) * 2008-09-12 2012-11-28 索尼株式会社 Object detecting device, imaging apparatus, object detecting method, and program
CN101673342A (en) * 2008-09-12 2010-03-17 索尼株式会社 Object detecting device, imaging apparatus, object detecting method, and program
KR101066343B1 (en) 2009-11-24 2011-09-20 포항공과대학교 산학협력단 Method and apparatus of recognizing patterns using maximization of mutual information based code selection for local binary patterns, and recoding medium thereof

Also Published As

Publication number Publication date
JP4539152B2 (en) 2010-09-08

Similar Documents

Publication Publication Date Title
KR101098723B1 (en) Image processing apparatus, method, and recording medium
US7406208B2 (en) Edge enhancement process and system
RU2419243C1 (en) Device and method to process images and device and method of images display
US9262684B2 (en) Methods of image fusion for image stabilization
KR100914619B1 (en) Spatio-temporal adaptive video de-interlacing
US20050271144A1 (en) Image processing apparatus and method, and recording medium and program used therewith
JP4564564B2 (en) Moving picture reproducing apparatus, moving picture reproducing method, and moving picture reproducing program
JP6623832B2 (en) Image correction apparatus, image correction method, and computer program for image correction
US20050259738A1 (en) Image processing apparatus and method, and recording medium and program used therewith
US8218888B2 (en) Motion blur detecting apparatus and method, image processing apparatus, and image display apparatus
JP2010147986A (en) Image processing apparatus and image processing method, and program
JP5212380B2 (en) Image correction apparatus, image correction program, and image correction method
RU2598899C1 (en) Image processing device and method
US20100149421A1 (en) Image processing method for determining motion vectors of interpolated picture and related apparatus
JPWO2011067870A1 (en) Image processing apparatus and image processing method
KR101756842B1 (en) Method and apparatus for image frame interpolation
EP2161687A1 (en) Video signal processing device, video signal processing method, and video signal processing program
JP4539152B2 (en) Image processing apparatus and method, and program
US20100150462A1 (en) Image processing apparatus, method, and program
JP2013048375A (en) Device and method for generating motion compensation frame
JP5841345B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
US20090323814A1 (en) Tracking point detection apparatus and method, program, and recording medium
US7916970B2 (en) Image processing apparatus, method of same, and program for same
JP2009077309A (en) Motion prediction apparatus and method
JP2012032739A (en) Image processing device, method and image display device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070417

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees