JP4882948B2 - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP4882948B2
JP4882948B2 JP2007260840A JP2007260840A JP4882948B2 JP 4882948 B2 JP4882948 B2 JP 4882948B2 JP 2007260840 A JP2007260840 A JP 2007260840A JP 2007260840 A JP2007260840 A JP 2007260840A JP 4882948 B2 JP4882948 B2 JP 4882948B2
Authority
JP
Japan
Prior art keywords
movement vector
moving image
frame
brightness
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007260840A
Other languages
English (en)
Other versions
JP2009094616A (ja
JP2009094616A5 (ja
Inventor
亨 西
和彦 上田
光康 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007260840A priority Critical patent/JP4882948B2/ja
Priority to EP08253059A priority patent/EP2046029B1/en
Priority to US12/237,521 priority patent/US8175162B2/en
Priority to CN200810168781.XA priority patent/CN101404729B/zh
Publication of JP2009094616A publication Critical patent/JP2009094616A/ja
Publication of JP2009094616A5 publication Critical patent/JP2009094616A5/ja
Application granted granted Critical
Publication of JP4882948B2 publication Critical patent/JP4882948B2/ja
Priority to US13/465,591 priority patent/US8837593B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0112Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards corresponding to a cinematograph film standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • H04N5/58Control of contrast or brightness in dependence upon ambient light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、画像処理装置および方法並びにプログラムに関し、特に、環境の明るさの変化によらず、映画素材を適切に表示できるようになった画像処理装置および方法並びにプログラムに関する。
一般的に映画館での上映時には、48[Hz]で同じコマ(フレームまたはフィールド)が2度表示されている。即ち、映画素材の画像データのコマの配置周期は、24[Hz]である。換言すると、映画素材の画像データとは、24コマの画像データである。
一方、現状のテレビジョン放送受像機の表示の周期は60[Hz](120[Hz])である。よって、映画素材の画像データをテレビジョン受像機で表示させるためには、24コマの画像データを、60コマ(120コマ)の画像データに変換させる必要がある。
このような24コマの画像データを、60コマ(120コマ)の画像データに変換させる従来の技術としては、いわゆる2,3プルダウンの技術が存在する(特許文献1参照)。また、オブジェクトの移動ベクトルを算出し、その移動ベクトルでオブジェクトが移動していくようにコマ補間をする技術(以下、移動ベクトル利用技術と称する)が存在する。
特開2006-066986号公報
しかしながら、映画館よりも明るい部屋の環境で、2、3プルダウン技術により変換された映画素材をテレビジョン放送受像機等でユーザが見るとジャダーが目立ってしまうという問題があった。一方で、映画館と同じような暗い部屋の環境で、移動ベクトル利用技術により変換された映画素材をテレビジョン放送受像機等でユーザが見ると、映画というよりもビデオ映像のように視認されてしまうという問題、即ち、映画固有の臨場感が損なわれてしまうという問題があった。
本発明は、このような状況に鑑みてなされたものであり、環境の明るさの変化によらず、映画素材を適切に表示できるようにするものである。
本発明の一側面の画像処理装置は、第1の周期でフレームまたはフィールドの一方を表すコマが配置されて構成される動画像を入力動画像として、前記入力動画像に対して処理を施す画像処理装置において、第2の周期毎に、前記入力動画像に含まれるオブジェクトの移動ベクトルを算出する移動ベクトル算出手段と、前記移動ベクトル算出手段により算出された前記移動ベクトルに対して所定のゲインをかけることで、前記移動ベクトルを変換する移動ベクトル変換手段と、前記移動ベクトル変換手段による変換後の前記移動ベクトルに従って前記オブジェクトが移動していくように、前記入力動画像に対して、前記コマを変換または補間していくコマ補間処理を施すことで、第3の周期で前記コマが配置されて構成される出力動画像を生成するコマ補間手段と、前記出力動画像を視聴するユーザが存在する環境の明るさに応じて前記ゲインを算出し、前記移動ベクトル変換手段に提供するゲイン算出手段とを備える。
前記ユーザが存在する環境の明るさを検出する明るさ検出手段をさらに備え、前記ゲイン算出手段は、前記明るさ検出手段により検出された明るさに応じて前記ゲインを算出する。
前記ユーザの指示に基づき、前記ゲイン算出手段により算出される前記ゲインを補正する補正手段をさらに備える。
本発明の一側面の画像処理方法およびプログラムは、上述した本発明の一側面の画像処理装置に対応する方法およびプログラムである。
本発明の一側面の画像処理装置および方法並びにプログラムにおいては、第1の周期でフレームまたはフィールドの一方を表すコマが配置されて構成される動画像を入力動画像として、前記入力動画像に対して次のような処理が施される。即ち、第2の周期毎に、前記入力動画像に含まれるオブジェクトの移動ベクトルが算出され、算出された前記移動ベクトルに対して所定のゲインをかけることで、前記移動ベクトルが変換され、変換後の前記移動ベクトルに従って前記オブジェクトが移動していくように、前記入力動画像に対して、前記コマを変換または補間していくコマ補間処理が施され、その結果、第3の周期で前記コマが配置されて構成される出力動画像が生成される。その際、前記出力動画像を視聴するユーザが存在する環境の明るさに応じて前記ゲインが算出される。
以上のごとく、本発明によれば、映画素材の動画像に対する画像処理を実現できる。特に、環境の明るさの変化によらず、映画素材を適切に表示できる。
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、明細書又は図面における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
さらに、この記載は、明細書又は図面に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、明細書又は図面に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。
本発明の一側面の画像処理装置(例えば、図1の画像処理装置)は、
第1の周期でフレームまたはフィールドの一方を表すコマが配置されて構成される動画像(例えば、図2の上側のフィルムや、図2の下側の2,3プルダウン後フィルム)を入力動画像として、前記入力動画像に対して処理を施す画像処理装置であって、
第2の周期毎に、前記入力動画像に含まれるオブジェクトの移動ベクトルを算出する移動ベクトル算出手段(例えば図1の移動ベクトル算出部11)と、
前記移動ベクトル算出手段により算出された前記移動ベクトルに対して所定のゲインをかけることで、前記移動ベクトルを変換する移動ベクトル変換手段(例えば図1の移動ベクトル変換部12)と、
前記移動ベクトル変換手段による変換後の前記移動ベクトルに従って前記オブジェクトが移動していくように、前記入力動画像に対して、前記コマを変換または補間していくコマ補間処理を施すことで、第3の周期で前記コマが配置されて構成される出力動画像を生成するコマ補間手段(例えば図1のコマ補間部13)と、
前記出力動画像を視聴するユーザが存在する環境の明るさに応じて前記ゲインを算出し、前記移動ベクトル変換手段に提供するゲイン算出手段(例えば図1のゲイン算出部14)と
を備える。
前記ユーザが存在する環境の明るさを検出する明るさ検出手段(例えば図1の明るさ検出部15)をさらに備え、
前記ゲイン算出手段は、前記明るさ検出手段により検出された明るさに応じて前記ゲインを算出する。
前記ユーザの指示に基づき、前記ゲイン算出手段により算出される前記ゲインを補正する補正手段(例えば図1のユーザ補正部16)をさらに備える。
本発明の一側面の情報処理方法およびプログラムは、上述した本発明の一側面の画像処理方法に対応する方法およびプログラムである。詳細については後述するが、このプログラムは、例えば、図12のリムーバブルメディア111や、記憶部108に含まれるハードディスク等の記録媒体に記録され、図12の構成のコンピュータにより実行される。
その他、本発明の一側面としては、上述した本発明の一側面のプログラムを記録した記録媒体も含まれる。
以上説明した本発明の一側面の画像処理装置は、例えば、テレビジョンシステム全体またはその一構成要素として利用可能である。テレビジョンシステムとは、テレビジョン放送受像機を含む1以上のAV(Audio and Visual)機器からなるシステムを指す。
次に、図面を参照して、本発明の実施の形態について説明する。
なお、以下の説明においては、次の前提事項が成立しているとする。
即ち、後述する各種の実施の形態では、動画像に対する各種画像処理はアクセスユニットを単位とする。アクセスユニットとは、フレームやフィールドといった動画像の単位を指し、具体的には例えば、動画像を構成する各静止画像全体(フレーム等)またはその一部分(フィールド等)を指す。ただし、以下、説明の簡略上、動画像に対する各種画像処理の単位はフレーム単位であるとする。
また、画像処理が施される動画像(映像)の形態の表現方法として、信号またはデータという呼称を使用する。
さらにまた、後述する画像処理装置(図1参照)を構成する各機能ブロックに入力される信号を、まとめて入力信号と適宜称する。即ち、動画像、動画像を構成する各フレーム、および、各フレームを構成する各画素(各画素値)といった入力単位によらず、一括して入力信号と適宜称する。同様に、各機能ブロックから出力される信号を、その出力単位によらず、一括して出力信号と適宜称する。換言すると、入力単位や出力単位の区別が必要な場合、その単位(主にフレーム)を用いて説明を行い、それ以外の場合、単に入力信号または出力信号を用いて説明を行う。
図1は、本発明が適用される画像処理装置の一実施の形態を示している。
図1の例の画像処理装置は、移動ベクトル算出部11、移動ベクトル変換部12、コマ補間部13、ゲイン算出部14、明るさ検出部15、およびユーザ補正部16から構成されている。
図1の例の画像処理装置においては、フレーム周期が24[Hz]等である動画像が入力信号T0として、移動ベクトル算出部11、およびコマ補間部13のそれぞれに提供される。
なお、以下、フレーム周期がL[Hz](Lは任意の整数値)である信号を、単にL[Hz]の信号と称する。
移動ベクトル算出部11は、所定の周期毎、例えば本例では24[Hz]毎に、入力信号T0についての移動ベクトルMVを算出し、移動ベクトル変換部12に提供する。
ここで、移動ベクトルMVは、実際には、フレームを構成する各画素値毎にそれぞれ算出される。ただし、以下の説明では、本発明の理解を容易なものとするために、入力信号T0としての動画像に含まれる所定オブジェクト(例えば後述する図3等の長方形)に着目し、移動ベクトルMVとは、その所定オブジェクトの移動量と移動方向を示すベクトルを意味するとする。
換言すると、以下、フレームに対する処理のうちの、所定オブジェクトを構成する画素に対する処理に着目して説明を行っていく。ただし、実際には、0ベクトルも移動ベクトルに含むとすれば、フレームを構成するその他の画素に対しても、以下の説明と同様な処理が施されることはいうまでもない。
移動ベクトル変換部12は、移動ベクトルMVに対して、ゲイン算出部14により算出されたゲインGをかけることで、移動ベクトルG×MVに変換する。変換後の移動ベクトルG×MVは、コマ補間部13に提供される。
コマ補間部13は、移動ベクトル変換部12により変換された移動ベクトルG×MVに基づいて、入力信号T0に対してコマ補間処理を実行し、その結果得られる信号T1を出力信号として出力する。ここに、コマ補間処理とは、入力信号T0のコマ数(フレーム周期)を高コマ数に変換すべく、入力信号T0を構成する各コマ(各フレーム)の間に、新たなコマ(新たなフレーム)を補間する処理をいう。これにより、例えば本実施の形態では、24[Hz]等の入力信号T0が、120[Hz]の出力信号T1に変換される。
具体的には例えば本実施の形態では、コマ補間部13は、次のようなコマ補間処理を実行する。即ち、上述のごとく、移動ベクトル算出部11によって算出された移動ベクトルMVは、説明の簡略上、動画像に含まれる所定オブジェクトの移動量と移動方向を示している。そこで、コマ補間部13は、移動ベクトル変換部12により変換された移動ベクトルG×MVに従って所定オブジェクトが移動していくように、入力信号T0に対して、フレームを変換または補間していくコマ補間処理を施す。これにより、120[Hz]の出力信号T1、即ち、120[Hz]で複数のフレームが配置されて構成される出力信号T1が生成される。
なお、本実施の形態のコマ補間処理のさらなる詳細の説明については、図2乃至図11の図面を参照して後述する。
ゲイン算出部14は、明るさ検出部15により検出された明るさP1に基づいて、ゲインGを算出する。なお、明るさP1とゲインGの関係については、図6を参照して後述する。
明るさ検出部15は、コマ補間部13の出力信号T1に対応する映像を視聴するユーザが存在する環境の明るさP1を検出し、ゲイン算出部14に提供する。
ユーザ補正部16は、ユーザの指示操作に基づくゲインの補正量△Gを、ゲイン算出部14に提供する。即ち、図1の画像処理装置は、ユーザがゲインGを自在に補正できるように構成されている。
次に、図2乃至図11の図面を参照して、図1の例の画像処理装置の動作について説明する。
図2は、入力信号T0の一例を示している。即ち、図2において、AK(Kは任意の整数値),BKが中央に記述された長方形は、1つのフレーム(1コマ)を示しており、横軸は時間(time[sec])を示している。なお、以下、かかるフレームを、フレームAK,BKと称する。
具体的には、図2の上側の図は、24[Hz]の画像データ、即ち24コマ(24フレーム)の映画素材の画像データ(以下、フィルムと称する)が、入力信号T0として与えられた場合のタイミングチャートを示している。
一方、図2の下側の図は、2,3プルダウンの技術によって上述のフィルムが変換された後の画像データ(以下、2,3プルダウン後フィルムと称する)が、入力信号T0として与えられた場合のタイミングチャートを示している。ここに、2,3プルダウンの技術とは、図2に示されるように、AK,BKの順に配置されている24[Hz]の画像データのうち、フレームAKの後に、それと同一の1枚のフレームAKを補間し、フレームBKの後に、それと同一の2枚のフレームBKを順次補間することで、60[Hz]の画像データに変換する処理をいう。
即ち、本実施の形態では、フィルム、または2,3プルダウン後フィルムが、入力信号T0として与えられる。
そこで、以下、最初に、フィルムが入力信号T0として与えられた場合の図1の例の画像処理装置の動作について説明する。その後、2,3プルダウン後フィルムが入力信号T0とし与えられた場合の図1の例の画像処理装置の動作について説明する。
以下、図3に示されるように、フィルム中に含まれる長方形のオブジェクトが、5/120[sec]につきα[pix]だけ右方向に、移動しているとする。即ち、図3において、A1,B1,A2が記述されている各長方形が、フレームA1,B1,A2のそれぞれに含まれている同一オブジェクトであって、右方向にα[pix/(5/120)sec]の速度で等速度運動しているオブジェクトを示している。
換言すると、図3は、オブジェクトの移動を示すタイミングチャートであり、縦軸が時間軸を示しており、横軸が、各フレームに含まれるオブジェクトの横方向の位置を示している。また、矢印に付された符号MVP(Pは整数値やダッシュを意味する)は、移動ベクトルを示しているが、矢印がそのまま実際の移動ベクトルを示していない点留意する。即ち、矢印と図3中下方向とのなす角度をθとすると、矢印のsinθが、実際の移動ベクトルになる点留意する。なお、かかる図3の定義は、後述する図4,図5,図7乃至図11でも同様とされている。
図2や図3に示されるように、入力信号T0としてのフィルムは、24[Hz]の画像データである。また、移動ベクトル算出部11の本実施の形態での処理単位は、上述のごとく24[Hz]とされている。よって、移動ベクトル算出部11において、フィルムを構成する各フレームのそれぞれについて、移動ベクトルMVが毎回算出される。即ち、図3の例では各フレームA1,B1,A2のそれぞれについて、オブジェクトの移動ベクトルMV1,MV2,MV3がそれぞれ算出される。ここで、移動ベクトルMV1,MV2,MV3とは何れも、移動方向が右方向であって、移動量がα[pix/(5/120)sec]のベクトルである。
このようなフレーム周期が24[Hz]の入力信号T0に対して、コマ補間処理を施して、120[Hz]の出力信号T1を生成するためには、各フレームA1,B1,A2のそれぞれの間に、時間的に等間隔で配置される4枚のフレーム(4コマ)をそれぞれ補間する必要がある。
例えば、図4に示されるように、2,3プルダウンの技術と同様の手法により、各フレームA1,B1,A2の後に、それらと同一のフレームA1’,B1’,A2’の4枚のフレームをそれぞれ補間することで、120[Hz]の出力信号T1を生成することもできる。
この場合、フレームA1と4枚のフレームA1’が表示されている間、オブジェクト(図4の各長方形)は、そのエッジ部分がαとなる位置のまま移動しない。なお、以下、エッジ部分がM(Mは任意の整数値)となるオブジェクトの位置を、単に、Mの位置と称する。
そして、フレームB1が表示されると、オブジェクトは突如2×αの位置まで移動し、その後、4枚のフレームB1’が表示されている間は、オブジェクトは2×αの位置のまま移動しない。さらに、フレームA2が表示されると、オブジェクトは突如3×αの位置に移動し、その後、4枚のフレームA2’が表示されている間は、オブジェクトは3×αの位置のまま移動しない。
このように、オブジェクトは、5/120(=1/24)[sec]の間は全く移動せず、その後、5/120(=1/24)[sec]が経過すると突如右方向にαだけ移動することになる。即ち、ユーザの目には、いわゆるジャダーが発生する。
特に、ユーザが存在する環境の明るさ(例えば部屋の明るさや画面の明るさ等)が一定以上のとき、即ち、映画館よりも明るい環境にユーザが存在するときに、このジャダーが目立ってしまう。この要因は、人間の目は移動物体を追従していく能力を有しているが、かかる能力が明るさに応じて変化するという特性があるからである。即ち、明るくなるにつれて、より速い移動物体を追従視できるようになっていく、という特性があるからである。換言すると、かかる能力は目の感度であるとも表現でき、目の感度が良いほど速い移動物体を追従視できるとすると、目の感度と明るさには一定の関係があるという特性があるからである。以下、かかる特性を追従視特性と称する。
そこで例えば、図5に示されるように、移動ベクトルMV1,MV2,MV3に従って右方向にオブジェクト(図5の長方形)が移動してくように、各フレームA1,B1,A2の後に、フレームA1’,B1’,A2’の4枚のフレームをそれぞれ補間することで、120[Hz]の出力信号T1を生成することもできる。
この場合、フレームA1の表示時刻を0として、そのときのオブジェクトのα[pix]の位置を基準位置とすると、出力信号T1に対応する映像は、次のようにオブジェクトが動いていくように表示されることになる。
1/120[sec]に表示されるフレームA1’、即ち、フレームA1の後1番目に補間されるフレームA1’においては、オブジェクトが、MV1(=α)[pix/(5/120)sec]×1/120[sec]だけ移動している。2/120[sec]に表示されるフレームA1’、即ち、フレームA1の後2番目に補間されるフレームA1’においては、オブジェクトが、MV1(=α)[pix/(5/120)sec]×2/120[sec]だけ移動している。3/120[sec]に表示されるフレームA1’、即ち、フレームA1の後3番目に補間されるフレームA1’においては、オブジェクトが、MV1(=α)[pix/(5/120)sec]×3/120[sec]だけ移動している。4/120[sec]に表示されるフレームA1’、即ち、フレームA1の後4番目に補間されるフレームA1’においては、オブジェクトが、MV1(=α)[pix/(5/120)sec]×4/120[sec]だけ移動している。
次に、5/120[sec]には、フレームB1が表示される。このフレームB1におけるオブジェクトの位置は、フレームA1におけるオブジェクトの基準位置(αの位置)と比較して、α[pix]だけ右方向に移動している。即ち、その直前の4/120[sec]に表示されるフレームA1’、即ち、フレームA1の後4番目に補間されるフレームA1’と比較すると、オブジェクトが、MV1(=α)[pix/(5/120)sec]×1/120[sec]だけ右方向に移動していることになる。このことは、4/120[sec]から5/120[sec]になったときのオブジェクトの移動量は、それまでの移動量と変化していないことを意味する。
その後、補間された4枚のフレームB1’、A2、補間された4枚のフレームA2’が1/120[sec]毎に順次表示されていく。この場合も、全く同様に、オブジェクトは、一定速度で右方向に移動していくことになる。その結果、ユーザの目には、ジャダーが発生しない。
ただし、映画固有の臨場感とは、そもそも一定のジャダーが発生しているため生れるものである。よって、このようなジャダーが全く発生しない映像を、映画館と同じような暗い環境でユーザが視聴すると、今度は映画固有の臨場感が損なわれてしまう、という問題が生ずる。
以上の内容を換言すると、人間の目には追従視特性があることから、ジャダーの発生程度が同一であったとしても、映画館のように暗い環境では、映画館の臨場感と同様の適切な映像であると視認されていたものが、映画館よりも明るい環境になると、ジャダーが目立ちすぎる映像であると視認されてしまうことになる。
よって、映画館の臨場感を損なうことなく、即ち、本来の映画素材の良さを損なうことなく、ジャダーの視覚上の目立ちを低減させるためには、ジャダーの発生程度を、ユーザが存在する環境の明るさに応じて適切に変化させればよい。かかる変化は、後述するように、移動ベクトルMVを、明るさに応じて変換させることで実現可能である。この明るさに応じて移動ベクトルMVを変換させる量が、図1の例では、ゲイン算出部14により算出されるゲインGである。
即ち、ゲイン算出部14は、例えば図6に示されるような関数f(α)を保持している。この関数f(α)は、上述した追従視特性が、目の感度と明るさとが比例関係にある特性であると仮定した場合の一例を示している。この例では、ゲイン算出部14は、明るさ検出部15により検出された明るさP1を、目の感度パラメータとしての入力値αとして関数f(α)に代入し、その出力値f(α)をゲインGとして移動ベクトル変換部12に提供する。
このようにして算出されるゲインGは、その時点のユーザが存在する環境の明るさにおいて、ユーザの追従視特性(ただし、目の感度と明るさとが比例関係にある特性と仮定した場合)から把握されるユーザにとって適切なジャダーを発生させることが可能なゲインとなる。換言すると、関数f(α)は、図6の例に限定されず、実際の追従視特性に応じた曲線の関数を採用するとよい。
このようなゲインGは、移動ベクトル変換部12に提供される。すると、移動ベクトル変換部12において、移動ベクトルMVは、移動ベクトルG×MVに変換されて、コマ補間部13に提供される。
これにより、コマ補間部13は、例えば図7に示されるようなコマ補間処理を実行して、その時点の明るさに適した程度のジャダーを発生させることが可能となる120[Hz]の画像データを、出力信号T1として生成することができる。
具体的には例えば、図7の例では、明るさ検出部15により検出された明るさP1は、図6に示される明るさP1tであるとされた場合の例である。即ち、明るさP1tの場合には、ゲインG=0.5がゲイン算出部14により算出されて、移動ベクトル変換部12に提供される。このため、移動ベクトル変換部12において、移動ベクトルMV1は移動ベクトルMV1’(=0.5×MV1)に、移動ベクトルMV2は移動ベクトルMV2’(=0.5×MV2)に、移動ベクトルMV3は移動ベクトルMV3’(=0.5×MV3)に、それぞれ変換されて、コマ補間部13に順次提供される。よって、コマ補間部13は、次のようなコマ補間処理を実行することになる。
即ち、図7に示されるように、コマ補間部13は、変換後の移動ベクトルMV1’,MV2’,MV3’に従ってオブジェクト(図7の長方形)が移動していくように、各フレームA1,B1,A2の後に、フレームA1’,B1’,A2’の4枚のフレームをそれぞれ補間することで、120[Hz]の出力信号T1を生成する。
具体的には、フレームA1の表示時刻を0として、そのときのオブジェクトのα[pix]の位置を基準位置とすると、出力信号T1に対応する映像は、次のようにオブジェクトが動いていくように表示されることになる。
1/120[sec]に表示されるフレームA1’、即ち、フレームA1の後1番目に補間されるフレームA1’においては、オブジェクトが、MV1’(=0.5×MV1=0.5×α)[pix/(5/120)sec]×1/120[sec]だけ移動している。2/120[sec]に表示されるフレームA1’、即ち、フレームA1の後2番目に補間されるフレームA1’においては、オブジェクトが、MV1’(=0.5×MV1=0.5×α)[pix/(5/120)sec]×2/120[sec]だけ移動している。3/120[sec]に表示されるフレームA1’、即ち、フレームA1の後3番目に補間されるフレームA1’においては、オブジェクトが、MV1’(=0.5×MV1=0.5×α)[pix/(5/120)sec]×3/120[sec]だけ移動している。4/120[sec]に表示されるフレームA1’、即ち、フレームA1の後4番目に補間されるフレームA1’においては、オブジェクトが、MV1’(=0.5×MV1=0.5×α)[pix/(5/120)sec]×4/120[sec]だけ移動している。
次に、5/120[sec]には、フレームB1が表示される。このフレームB1におけるオブジェクトの位置は、フレームA1におけるオブジェクトの基準位置(αの位置)と比較して、α[pix]だけ移動している。よって、その直前の4/120[sec]に表示されるフレームA1’、即ち、フレームA1の後4番目に補間されるフレームA1’と比較すると、オブジェクトが、α−MV1’(=0.5×MV1=0.5×α)[pix/(5/120)sec]×4/120[sec]=(3/5)×α[pix]だけ移動していることになる。
即ち、オブジェクトは、1/120[sec]から4/120[sec]までの間、1/120[sec]毎に、(1/10)×α[pix]だけ移動していた。即ち一定速度で移動していた。ところが、4/120[sec]から5/120[sec]になると、(3/5)×α[pix]だけ移動することになる。即ち、移動量が増加して、ジャダーが発生することになる。ただし、移動量は、図4の場合と比較すると、0.5倍(即ち、ゲインG=0.5と同倍)に減少しており、その分、ジャダー発生程度も減少することになる。即ち、明るさ検出部15により検出された明るさP1tにおいて、追従視特性を有するユーザの目にとって適した程度のジャダーが発生することになる。換言すると、映画固有の臨場感が損なわれず、かつ、ユーザの目に目立たない程度のジャダーが発生することになる。
その後の表示も、上述したオブジェクトの動きと基本的に同様の動きを伴う表示となっていく。即ち、オブジェクトは、5/120[sec]から9/120[sec]までの間、1/120[sec]毎に、(1/10)×α[pix]だけ移動してく。即ち一定速度で移動していく。そして、9/120[sec]から10/120[sec]になると、(3/5)×α[pix]だけ移動することになる。また、10/120[sec]から14/120[sec]までの間、1/120[sec]毎に、(1/10)×α[pix]だけ移動してく。即ち一定速度で移動していく。そして、14/120[sec]から15/120[sec]になると、(3/5)×α[pix]だけ移動することになる。以下、このような動きが繰り返されていく。
ただし、図示はしないが、明るさ検出部15により検出された明るさP1が変化すると、その変化に伴い、ゲインGも変化する。よって、オブジェクトの移動量や、ジャダーの発生程度が、ゲインGの変化分だけ変化することになる。
換言すると、部屋が暗くなる等して、明るさ検出部15により検出される明るさP1が一定以下になると、図6に示されるようにゲインG=0となる。よって、移動ベクトル変換部12によって変換された移動ベクトルG×MVは0となる。このような場合、コマ補間部13のコマ補間処理により生成される出力信号T1は結局、上述した図4に示される信号となる。
一方、部屋が明るくなる等して、明るさ検出部15により検出される明るさP1が一定以上になると、図6に示されるようにゲインG=1となる。よって、移動ベクトル変換部12によって変換された移動ベクトルG×MVは、変換前と同一の移動ベクトルMVとなる。このような場合、コマ補間部13のコマ補間処理により生成される出力信号T1は結局、上述した図5に示される信号となる。
このように、明るさ検出部15により検出された明るさP1に適した程度のジャダーが発生することが可能になる。即ち、その明るさP1において、映画固有の臨場感が損なわれず、かつ、ユーザの目に目立たない程度のジャダーを発生させることが可能になる。
ただし、映画固有の臨場感が損なわれず、かつ、ユーザの目に目立たない程度のジャダーとは、最終的には、各ユーザの主観によって決定されると考えられる。従って、各ユーザ毎に、所望のジャダーを発生させることができるように、図1の例では、ユーザ補正部16が設けられている。即ち、ユーザ補正部16からゲイン算出部14に提供される補正量△Gを、ユーザは自在に可変させることができる。これにより、ゲインGも、ユーザの所望の補正量△Gにより可変し、その結果、ジャダーの発生量も、ユーザの所望の程度に自在に調整可能になるのである。
以上、フィルムが入力信号T0として与えられた場合の図1の例の画像処理装置の動作について説明した。
2,3プルダウン後フィルムが入力信号T0とし与えられた場合の図1の例の画像処理装置の動作は、図8乃至図11に示される通りである。
即ち、図8は、入力信号T0としての2,3プルダウン後フィルムについての、オブジェクトの移動を示すタイミングチャートである。
図9は、部屋が暗くなる等してゲインG=0となった場合、即ち、変換後の移動ベクトルMV1’,MV2’,MV3’が全て0である場合のコマ補間部13によりコマ補間処理が実行された後の出力信号T1についての、オブジェクトの移動を示すタイミングチャートである。
図10は、明るさ検出部15により明るさP1tが検出されてゲインG=0.5となった場合、即ち、変換後の移動ベクトルMV1’,MV2’,MV3’の移動量が全て変換前の移動ベクトルの0.5倍となった場合のコマ補間部13によりコマ補間処理が実行された後の出力信号T1についての、オブジェクトの移動を示すタイミングチャートである。
図11は、部屋が明るくなる等してゲインG=1となった場合、即ち、変換後の移動ベクトルMV1’,MV2’,MV3’が元の移動ベクトルと同一である場合のコマ補間部13によりコマ補間処理が実行された後の出力信号T1についての、オブジェクトの移動を示すタイミングチャートである。
図8乃至図11と、図3,図4,図7,図5とを比較すると容易に次のことがわかる。即ち、2,3プルダウン後フィルムが入力信号T0とし与えられた場合の図1の例の画像処理装置の動作とは、結局、図3乃至図5,図7を用いて説明した動作、即ちフィルムが入力信号T0として与えられた場合の動作と基本的に同様である。基本的にと記述したのは、コマ変換前の入力信号T0のフレーム周期が異なるため、補間されるフレームの枚数が異なる等若干の差異があるからである。
以上説明したように、図1の例の画像処理装置は、上述した動作を実行することで、ユーザが映画素材等を実際に鑑賞する環境(例えば部屋の中)の明るさに応じて、即ち、人間の目が有する追従視特性に応じて、ジャダーの発生程度を適切に調整することができる。その結果、本来の映画素材の良さを引き出すことが可能になる。
ところで、上述した一連の処理(或いはそのうちの一部分の処理)は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることもできる。
この場合、図1の画像処理装置全体若しくはその一部分は、例えば、図12に示されるようなコンピュータで構成することができる。
図12において、CPU(Central Processing Unit)101は、ROM(Read Only Memory)102に記録されているプログラム、または記憶部108からRAM(Random Access Memory)103にロードされたプログラムに従って各種の処理を実行する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU101、ROM102、およびRAM103は、バス104を介して相互に接続されている。このバス104にはまた、入出力インタフェース105も接続されている。
入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、ディスプレイなどよりなる出力部107、ハードディスクなどより構成される記憶部108、および、モデム、ターミナルアダプタなどより構成される通信部109が接続されている。通信部109は、インターネットを含むネットワークを介して他の装置との通信処理を行う。
入出力インタフェース105にはまた、必要に応じてドライブ110が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア111が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部108にインストールされる。
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
このようなプログラムを含む記録媒体は、図12に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア(パッケージメディア)111により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM102や、記憶部108に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、上述したように、本明細書において、システムとは、複数の処理装置や処理部により構成される装置全体を表すものである。
また、上述した例では、説明の簡略上、移動量MVは、フレーム内の一方向例えば水平方向の動きとしたが、当然ながらそれ以外の方向の動きともなり得る。このような場合、即ち、移動量MVの移動方向が水平方向以外でも、画像処理装置は、移動量MVをベクトルとして取り扱うことで、上述した各種処理と基本的に同様の処理を実行できる。
本発明が適用される画像処理装置の機能的構成例を示すブロック図である。 入力信号の例を示すタイミングチャートである。 入力信号としてのフィルムについての、オブジェクトの移動を示すタイミングチャートである。 部屋が暗くなる等して変換後の移動ベクトルが全て0となった場合、図1の画像処理装置が、図3の入力信号に対してコマ補間処理を実行した結果得られる出力信号についての、オブジェクトの移動を示すタイミングチャートである。 部屋が明るくなる等して変換後の移動ベクトルが変換前の移動ベクトルと全て同一となった場合、図1の画像処理装置が、図3の入力信号に対してコマ補間処理を実行した結果得られる出力信号についての、オブジェクトの移動を示すタイミングチャートである。 図1のゲイン算出部が保有する関数の一例を示す図である。 部屋の明るさが図4と図5の間の明るさになる等して変換後の移動ベクトルの移動量が全て変換前の移動ベクトルの0.5倍となった場合、図1の画像処理装置が、図3の入力信号に対してコマ補間処理を実行した結果得られる出力信号についての、オブジェクトの移動を示すタイミングチャートである。 入力信号としての2,3プルダウン後フィルムについての、オブジェクトの移動を示すタイミングチャートである。 部屋が暗くなる等して変換後の移動ベクトルが全て0となった場合、図1の画像処理装置が、図8の入力信号に対してコマ補間処理を実行した結果得られる出力信号についての、オブジェクトの移動を示すタイミングチャートである。 部屋の明るさが図4と図5の間の明るさになる等して変換後の移動ベクトルの移動量が全て変換前の移動ベクトルの0.5倍となった場合、図1の画像処理装置が、図の入力信号に対してコマ補間処理を実行した結果得られる出力信号についての、オブジェクトの移動を示すタイミングチャートである。 部屋が明るくなる等して変換後の移動ベクトルが変換前の移動ベクトルと全て同一となった場合、図1の画像処理装置が、図8の入力信号に対してコマ補間処理を実行した結果得られる出力信号についての、オブジェクトの移動を示すタイミングチャートである。 本発明が適用される画像処理装置の全部または一部分のハードウエア構成の一例を示すブロック図である。
符号の説明
11 移動ベクトル算出部, 12 移動ベクトル変換部, 13 コマ補間部, 14 ゲイン算出部, 15 明るさ検出部, 16 ユーザ補正部, 101 CPU, 102 ROM, 103 RAM, 108 記憶部, 111 リムーバブルメディア

Claims (5)

  1. 第1の周期でフレームまたはフィールドの一方を表すコマが配置されて構成される動画像を入力動画像として、前記入力動画像に対して処理を施す画像処理装置において、
    第2の周期毎に、前記入力動画像に含まれるオブジェクトの移動ベクトルを算出する移動ベクトル算出手段と、
    前記移動ベクトル算出手段により算出された前記移動ベクトルに対して所定のゲインをかけることで、前記移動ベクトルを変換する移動ベクトル変換手段と、
    前記移動ベクトル変換手段による変換後の前記移動ベクトルに従って前記オブジェクトが移動していくように、前記入力動画像に対して、前記コマを変換または補間していくコマ補間処理を施すことで、第3の周期で前記コマが配置されて構成される出力動画像を生成するコマ補間手段と、
    前記出力動画像を視聴するユーザが存在する環境の明るさに応じて前記ゲインを算出し、前記移動ベクトル変換手段に提供するゲイン算出手段と
    を備える画像処理装置。
  2. 前記ユーザが存在する環境の明るさを検出する明るさ検出手段をさらに備え、
    前記ゲイン算出手段は、前記明るさ検出手段により検出された明るさに応じて前記ゲインを算出する
    請求項1に記載の画像処理装置。
  3. 前記ユーザの指示に基づき、前記ゲイン算出手段により算出される前記ゲインを補正する補正手段をさらに備える
    請求項1に記載の画像処理装置。
  4. 第1の周期でフレームまたはフィールドの一方を表すコマが配置されて構成される動画像を入力動画像として、前記入力動画像に対して処理を施す画像処理装置の画像処理方法において、
    第2の周期毎に、前記入力動画像に含まれるオブジェクトの移動ベクトルを算出し、
    算出された前記移動ベクトルに対して所定のゲインをかけることで、前記移動ベクトルを変換し、
    変換後の前記移動ベクトルに従って前記オブジェクトが移動していくように、前記入力動画像に対して、前記コマを変換または補間していくコマ補間処理を施すことで、第3の周期で前記コマが配置されて構成される出力動画像を生成する
    ステップを含み、
    さらに、
    前記出力動画像を視聴するユーザが存在する環境の明るさに応じて前記ゲインを算出するステップを含む
    画像処理方法。
  5. 第1の周期でフレームまたはフィールドの一方を表すコマが配置されて構成される動画像を入力動画像として、前記入力動画像に対して処理を施すコンピュータに、
    第2の周期毎に、前記入力動画像に含まれるオブジェクトの移動ベクトルを算出し、
    算出された前記移動ベクトルに対して所定のゲインをかけることで、前記移動ベクトルを変換し、
    変換後の前記移動ベクトルに従って前記オブジェクトが移動していくように、前記入力動画像に対して、前記コマを変換または補間していくコマ補間処理を施すことで、第3の周期で前記コマが配置されて構成される出力動画像を生成する
    ステップを実行させ、
    さらに、
    前記出力動画像を視聴するユーザが存在する環境の明るさに応じて前記ゲインを算出するステップを実行させる
    プログラム。
JP2007260840A 2007-10-04 2007-10-04 画像処理装置および方法、並びにプログラム Expired - Fee Related JP4882948B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2007260840A JP4882948B2 (ja) 2007-10-04 2007-10-04 画像処理装置および方法、並びにプログラム
EP08253059A EP2046029B1 (en) 2007-10-04 2008-09-18 Image processing apparatus, image processing method, and program
US12/237,521 US8175162B2 (en) 2007-10-04 2008-09-25 Image processing apparatus, image processing method, and program
CN200810168781.XA CN101404729B (zh) 2007-10-04 2008-09-28 图像处理装置和图像处理方法
US13/465,591 US8837593B2 (en) 2007-10-04 2012-05-07 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007260840A JP4882948B2 (ja) 2007-10-04 2007-10-04 画像処理装置および方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2009094616A JP2009094616A (ja) 2009-04-30
JP2009094616A5 JP2009094616A5 (ja) 2010-05-06
JP4882948B2 true JP4882948B2 (ja) 2012-02-22

Family

ID=40120166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007260840A Expired - Fee Related JP4882948B2 (ja) 2007-10-04 2007-10-04 画像処理装置および方法、並びにプログラム

Country Status (4)

Country Link
US (2) US8175162B2 (ja)
EP (1) EP2046029B1 (ja)
JP (1) JP4882948B2 (ja)
CN (1) CN101404729B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2466044B (en) 2008-12-09 2014-05-21 Snell Ltd Motion image rendering system
GB2503832B (en) * 2008-12-09 2014-07-16 Snell Ltd Motion image rendering system
EP2234402B1 (en) * 2009-03-25 2012-07-04 Bang & Olufsen A/S A method and a system for adapting film judder correction
JP5480674B2 (ja) * 2010-03-09 2014-04-23 キヤノン株式会社 画像処理装置およびその制御方法
KR101700377B1 (ko) 2010-10-20 2017-01-26 삼성전자주식회사 아바타 생성을 위한 처리 장치 및 방법
TWI471814B (zh) * 2012-07-18 2015-02-01 Pixart Imaging Inc 降低背景干擾的手勢判斷方法及其裝置
US10368031B2 (en) 2014-02-27 2019-07-30 Dolby Laboratories Licensing Corporation Systems and methods to control judder visibility
JP6510039B2 (ja) * 2014-10-02 2019-05-08 ドルビー ラボラトリーズ ライセンシング コーポレイション ジャダー可視性制御のためのデュアルエンドメタデータ
US11776445B2 (en) 2019-07-10 2023-10-03 Saturn Licensing Llc Image processing device and image processing method
US20230088882A1 (en) * 2021-09-22 2023-03-23 Samsung Electronics Co., Ltd. Judder detection for dynamic frame rate conversion
WO2024011381A1 (zh) * 2022-07-11 2024-01-18 上海交通大学 点云编解码方法、装置、设备及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0765572B1 (en) * 1995-04-11 2000-06-28 Koninklijke Philips Electronics N.V. Motion-compensated field rate conversion
JP4083266B2 (ja) * 1997-10-07 2008-04-30 株式会社日立製作所 動きベクトルの生成方法および装置
JP2000134585A (ja) * 1998-10-23 2000-05-12 Hitachi Ltd 動きベクトル決定方法、画像信号のフレーム数変換方法および回路
AU2002351131A1 (en) * 2001-12-20 2003-07-09 Koninklijke Philips Electronics N.V. Adjustment of motion vectors in digital image processing systems
JP4193406B2 (ja) * 2002-04-16 2008-12-10 三菱電機株式会社 映像データ変換装置および映像データ変換方法
JP2006512605A (ja) * 2002-12-30 2006-04-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ダイナミックフォイルディスプレイに対する周囲光の適合
EP1589763A2 (en) * 2004-04-20 2005-10-26 Sony Corporation Image processing apparatus, method and program
JP2006066986A (ja) 2004-08-24 2006-03-09 Sony Corp 情報処理装置および方法、並びにプログラム
KR100603242B1 (ko) * 2005-05-31 2006-07-24 삼성전자주식회사 동영상 처리방법 및 장치
CN1921602A (zh) * 2005-08-22 2007-02-28 上海乐金广电电子有限公司 移动补偿为基础的影像信号帧频转换方法
JP4533863B2 (ja) 2006-03-28 2010-09-01 本田技研工業株式会社 ワーク位置決めテーブル及びこのワーク位置決めテーブルを備える工作機械
TWI302879B (en) * 2006-05-12 2008-11-11 Univ Nat Chiao Tung Real-time nighttime vehicle detection and recognition system based on computer vision

Also Published As

Publication number Publication date
US8175162B2 (en) 2012-05-08
CN101404729A (zh) 2009-04-08
US20090208124A1 (en) 2009-08-20
US20120224099A1 (en) 2012-09-06
EP2046029B1 (en) 2011-05-11
CN101404729B (zh) 2012-09-05
US8837593B2 (en) 2014-09-16
JP2009094616A (ja) 2009-04-30
EP2046029A2 (en) 2009-04-08
EP2046029A3 (en) 2010-06-16

Similar Documents

Publication Publication Date Title
JP4882948B2 (ja) 画像処理装置および方法、並びにプログラム
US8331710B2 (en) Image processing apparatus and method, learning apparatus and method, and program
EP2161687B1 (en) Video signal processing device, video signal processing method, and video signal processing program
JP4431089B2 (ja) 映像補間装置、フレームレート変換装置および映像表示装置
JP4991360B2 (ja) フレームレート変換装置および映像表示装置
JP2005124201A (ja) タイムシフト及び動き補償を利用したフレームレート変換装置及びその方法
JP5192087B2 (ja) 画像処理装置及び画像処理方法
JP2012095048A (ja) 画像処理装置、画像処理方法、画像表示装置、及び画像表示方法
KR20070094521A (ko) 화상 처리 장치 및 화상처리 방법과 프로그램
US20120013797A1 (en) Video processing apparatus and video processing method
JP2009135847A (ja) 映像処理装置及びフレームレート変換方法
JP2007074439A (ja) 映像処理装置
JP2007527139A (ja) 動き補償画像信号の補間
JP2007288483A (ja) 画像変換装置
KR20160001570A (ko) 영상 프레임 보간 장치, 디스플레이 장치 및 그 제어 방법
JP4441865B2 (ja) 画像処理方法および画像処理装置、並びに、プログラムおよびプログラム記録媒体
CN112544075B (zh) 显示装置、信号处理装置和信号处理方法
JP2011142400A (ja) 動きベクトル検出装置および方法、映像表示装置、映像記録装置、映像再生装置、プログラムおよび記録媒体
JP5067061B2 (ja) 画像処理装置および方法、並びにプログラム
JP2009124261A5 (ja)
JP2011082932A (ja) テロップ画像検出方法およびテロップ画像検出装置
US20110298973A1 (en) Image processing device and method, and image display device and method
JP5480674B2 (ja) 画像処理装置およびその制御方法
JP4441866B2 (ja) 画像処理方法および画像処理装置、並びに、プログラムおよびプログラム記録媒体
JP2010041212A (ja) 補間フレーム生成装置及びフレームレート変換装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees