JP5263565B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP5263565B2
JP5263565B2 JP2006278352A JP2006278352A JP5263565B2 JP 5263565 B2 JP5263565 B2 JP 5263565B2 JP 2006278352 A JP2006278352 A JP 2006278352A JP 2006278352 A JP2006278352 A JP 2006278352A JP 5263565 B2 JP5263565 B2 JP 5263565B2
Authority
JP
Japan
Prior art keywords
image
aspect ratio
unit
display
additional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006278352A
Other languages
English (en)
Other versions
JP2008098966A5 (ja
JP2008098966A (ja
Inventor
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006278352A priority Critical patent/JP5263565B2/ja
Priority to US11/857,189 priority patent/US8305491B2/en
Publication of JP2008098966A publication Critical patent/JP2008098966A/ja
Publication of JP2008098966A5 publication Critical patent/JP2008098966A5/ja
Application granted granted Critical
Publication of JP5263565B2 publication Critical patent/JP5263565B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • H04N21/440272Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA for performing aspect ratio conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4221Dedicated function buttons, e.g. for the control of an EPG, subtitles, aspect ratio, picture-in-picture or teletext

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Television Systems (AREA)

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関し、特に、TV(テレビジョン受像機)等の表示画面において、画像に映っている被写体を変形させずに、画像を表示するとともに、その表示画面を有効に利用することができるようにする画像処理装置、画像処理方法、及びプログラムに関する。
現在、アスペクト比や画素数等の画像フォーマットが異なる画像が存在する。具体的には、例えば、アスペクト比が4:3の画像(以下、適宜、4:3画像ともいう)や、アスペクト比が16:9の画像(以下、適宜、16:9画像ともいう)等がある。
また、画像を表示するTV等の表示装置としても、アスペクト比や画素数等の、表示画面の画面フォーマットが異なる表示装置が存在する。具体的には、アスペクト比が4:3の表示画面(以下、適宜、4:3画面ともいう)を有する表示装置や、アスペクト比が16:9の表示画面(以下、適宜、16:9画面ともいう)を有する表示装置等がある。
画像を、その画像のアスペクト比と一致するアスペクト比の表示画面に表示する場合、すなわち、例えば、4:3画面において、4:3画像を表示する場合や、16:9画面において、16:9画像を表示する場合には、表示画面の全体に、画像を表示することができるので、画像に映っている被写体を変形させずに、表示画面を有効に利用して画像を表示することができる。
しかしながら、画像のアスペクト比と、表示画面のアスペクト比とが異なる場合には、表示画面を有効に利用することができないことがある。
すなわち、図1は、画像のアスペクト比と異なるアスペクト比の表示画面に、画像を表示した表示例を示している。
図1上側は、16:9画像を、4:3画面に表示した場合の表示例を示している。
16:9画像を、4:3画面に表示した場合には、16:9画像の画像全体のアスペクト比と、4:3画面のアスペクト比との違いに起因して、4:3画面において、16:9画像は、その上下に、いわゆる黒枠(又は黒縁)と呼ばれる黒色等の領域が付加された状態の、いわゆるレターボックスで表示される。
したがって、16:9画像を、4:3画面に表示した場合には、4:3画面の上下の、黒枠の部分は、いわば有効な画像(情報としての価値がある画像)の表示に使用されない不使用領域となる。
図1下側は、4:3画像を、16:9画面に表示した場合の表示例を示している。
4:3画像を、16:9画面に表示した場合には、4:3画像の画像全体のアスペクト比と、16:9画面のアスペクト比との違いに起因して、16:9画面において、4:3画像は、その左右に黒枠が付加された、いわゆるサイドパネル付きの状態で表示される。
したがって、4:3画像を、16:9画面に表示した場合には、16:9画面の左右の、黒枠の部分は、画像の表示に使用されない不使用領域となる。
以上のように、画像のアスペクト比と異なるアスペクト比の表示画面に画像を表示する場合には、表示画面に、画像の表示に使用されない不使用領域が生じ、表示画面が有効に利用されないことがある。
そこで、4:3画像を、16:9画面に表示する場合には、4:3画像の横方向と縦方向のうちの、横方向をより引き延ばすような、4:3画像のアスペクト比の変換を行うことによって、アスペクト比が16:9の画像を得て、16:9画面の全体に表示する方法がある(例えば、特許文献1を参照)。
なお、その他、画像を表示する方法としては、特許文献2や3に記載の方法がある。
特許文献2では、親画面中に親画面上で指定した一部を拡大または縮小表示させるための子画面を設けること(ただし、親画面と子画面で表示される元信号は別々)が記載されている。特許文献2に記載の方法では、PinP(Picture in Picture)の子画面に親画面の拡大または縮小画像を表示するため、親画面の一部が子画面により隠れてしまう。
また、特許文献3では、親画面に表示される監視カメラ画像中の注目箇所を拡大表示する子画面を親画面外に設けることが記載されている。特許文献3に記載の方法では、ディスプレイ中で画像が表示されていない部分が多く、表示領域を有効に利用できていない。
特許第2759727号 特開平9-163260号公報 特開2006-33380号公報
例えば、TV等の表示装置において、上述したように、表示画面に、画像の表示に使用されない不使用領域が生じることは、そのTV等が有する能力としての解像度を十分に発揮していないことになるので、好ましくない。
また、特許文献1に記載のように、4:3画像のアスペクト比の変換を行い、アスペクト比が16:9の画像を得ることによって、16:9画面の全体に、画像を表示することができるが、4:3画像のアスペクト比の変換を行うことによって得られる、アスペクト比が16:9の画像においては、そのアスペクト比の変換によって、元の4:3画像に映っている被写体が変形し、例えば、顔が横長に表示されることになる。
このように、画像に映っている被写体を変形して表示することは、その被写体の、いわば本来の情報を表示しないことになるから、好ましいことではない。
本発明は、このような状況に鑑みてなされたものであり、被写体を変形させずに画像を表示するとともに、表示画面をより有効に利用することができるようにするものである。
本発明の一側面の画像処理装置は、画像を表示する表示手段に、動画である入力画像を表示させる画像処理装置であり、前記入力画像を、横又は縦のサイズが前記表示画面の横又は縦のサイズと一致し、かつ、前記表示画面の画面サイズ以下の画像サイズの画像であって、前記入力画像の横及び縦のサイズを同一倍した画像である等アスペクト比画像に変換する画像変換手段と、前記等アスペクト比画像を、その等アスペクト比画像のアスペクト比を変えずに、前記表示手段に表示したときに、前記表示手段の表示画面において、前記等アスペクト比画像の表示に使用されない不使用領域のサイズ内の画像サイズの画像である付加画像を、前記入力画像から生成する付加画像生成手段と、各フレーム又はフィールドの前記入力画像を変換して得られる前記等アスペクト比画像と、そのフレーム又はフィールドの前記入力画像から生成される前記付加画像とが重ならないように結合された結合画像を生成する結合画像生成手段と、前記結合画像を、前記表示手段に表示させる表示制御手段とを備え、前記付加画像生成手段は、前記入力画像の一部の、被写体が映っている領域を拡大、又は縮小した画像を、前記付加画像として生成し、前記表示制御手段は、第1の前記付加画像と、前記第1の付加画像とは異なる第2の付加画像にそれぞれ映っている被写体どうしの、前記等アスペクト比画像上の位置関係と、前記第1の付加画像と前記第2の付加画像の位置関係とが一致した前記結合画像を、前記表示手段に表示させる画像処理装置である。
本発明の一側面の画像処理方法、又はプログラムは、画像を表示する表示手段に、動画である入力画像を表示させる画像処理装置の画像処理方法、又は画像処理を、コンピュータに実行させるプログラムであり、前記入力画像を、横又は縦のサイズが前記表示画面の横又は縦のサイズと一致し、かつ、前記表示画面の画面サイズ以下の画像サイズの画像であって、前記入力画像の横及び縦のサイズを同一倍した画像である等アスペクト比画像に変換する画像変換ステップと、前記等アスペクト比画像を、その等アスペクト比画像のアスペクト比を変えずに、前記表示手段に表示したときに、前記表示手段の表示画面において、前記等アスペクト比画像の表示に使用されない不使用領域のサイズ内の画像サイズの画像である付加画像を、前記入力画像から生成する付加画像生成ステップと、各フレーム又はフィールドの前記入力画像を変換して得られる前記等アスペクト比画像と、そのフレーム又はフィールドの前記入力画像から生成される前記付加画像とが重ならないように結合された結合画像を生成する結合画像生成ステップと、前記結合画像を、前記表示手段に表示させる表示制御ステップとを含み、前記付加画像生成ステップは、前記入力画像の一部の、被写体が映っている領域を拡大、又は縮小した画像を、前記付加画像として生成し、前記表示制御ステップは、第1の前記付加画像と、前記第1の付加画像とは異なる第2の付加画像にそれぞれ映っている被写体どうしの、前記等アスペクト比画像上の位置関係と、前記第1の付加画像と前記第2の付加画像の位置関係とが一致した前記結合画像を、前記表示手段に表示させる画像処理方法、又はプログラムである。
本発明の一側面においては、前記入力画像が、横又は縦のサイズが前記表示画面の横又は縦のサイズと一致し、かつ、前記表示画面の画面サイズ以下の画像サイズの画像であって、前記入力画像の横及び縦のサイズを同一倍した画像である等アスペクト比画像に変換される。さらに、前記等アスペクト比画像を、その等アスペクト比画像のアスペクト比を変えずに、前記表示手段に表示したときに、前記表示手段の表示画面において、前記等アスペクト比画像の表示に使用されない不使用領域のサイズ内の画像サイズの画像である付加画像が、前記入力画像から生成される。そして、各フレーム又はフィールドの前記入力画像を変換して得られる前記等アスペクト比画像と、そのフレーム又はフィールドの前記入力画像から生成される前記付加画像とが重ならないように結合された結合画像が生成されて表示される。なお、前記入力画像の一部の、被写体が映っている領域を拡大、又は縮小した画像が、前記付加画像として生成され、第1の前記付加画像と、前記第1の付加画像とは異なる第2の付加画像にそれぞれ映っている被写体どうしの、前記等アスペクト比画像上の位置関係と、前記第1の付加画像と前記第2の付加画像の位置関係とが一致した前記結合画像が、前記表示手段に表示される。
なお、プログラムは、伝送媒体を介して伝送すること、又は、記録媒体に記録することにより提供することができる。
本発明の一側面によれば、画像を表示することができる。特に、被写体を変形させずに画像を表示するとともに、表示画面をより有効に利用することができる。
以下、図面を参照して、本発明の実施の形態について説明する。
なお、本実施の形態では、説明を簡単にするため、1画素の横の長さと縦の長さとは等しいこととする。
図2は、本発明を適用した表示システム(システムとは、複数の装置が論理的に集合した物をいい、各構成の装置が同一筐体中にあるか否かは、問わない)の一実施の形態の構成例を示している。
図2において、表示システムは、リモートコマンダ10と、表示処理装置20とから構成されている。
リモートコマンダ10は、表示処理装置20で表示される画像に映る被写体を指定するとき、その他、表示処理装置20の電源をオン又はオフするとき等に、ユーザによって操作される。リモートコマンダ10は、ユーザの操作に対応した操作信号を、赤外線等の電波によって、表示処理装置20に送信する。
表示処理装置20は、画像を表示させる画像処理装置としての、例えば、TVであり、取得部21、画像フォーマット検出部22、バッファ23、画像変換部24、対象領域設定部25、付加画像生成部26、結合画像生成部27、表示制御部28、表示部29、及び制御部30から構成される。
取得部21は、例えば、地上波ディジタル放送等で放送された放送データや、DVD等の記録媒体から再生された再生データ等の、動画である入力画像(データ)を含むデータを受信することにより取得し、バッファ23に供給する。
画像フォーマット検出部22は、バッファ23に記憶されたデータに含まれる入力画像のアスペクト比等を含む画像フォーマットを検出し、その画像フォーマットや、表示部29の表示画面の画面フォーマットに基づき、画像変換部24、及び対象領域設定部25を制御する。
ここで、画像フォーマット検出部22には、表示部29の表示画面の画面フォーマットが、あらかじめ記憶されていることとする。画面フォーマットには、表示部29の表示画面のアスペクト比と、横及び縦の画素数等の画面サイズとが含まれる。なお、表示部29は、表示処理装置20から独立した装置として構成することができ、この場合、例えば、その独立した装置としての表示部29から、画像フォーマット検出部22に対して、表示部29の画面フォーマットが供給される。
また、バッファ23に記憶されたデータに含まれる入力画像は、どのような画像フォーマットの画像であってもよいが、以下では、説明を簡単にするため、例えば、前述の図2に示した4:3画像と16:9画像の2種類であることとする。
さらに、画像フォーマット検出部22が検出する画像フォーマットには、アスペクト比の他、入力画像の横及び縦の画素数等の画像サイズを認識することができる情報が含まれることとする。
なお、例えば、画像フォーマット(の情報)が、放送データに含まれる場合には、画像フォーマット検出部22は、放送データから画像フォーマットを検出する。
バッファ23は、取得部21から供給される、入力画像を含むデータを一時記憶する。バッファ23に記憶されたデータに含まれる入力画像は、例えば、フレーム単位で読み出され、画像変換部24及び対象領域設定部25に供給される。すなわち、画像変換部24及び対象領域設定部25には、同一のフレームの入力画像が供給される。
なお、バッファ23から画像変換部24及び対象領域設定部25には、その他、例えば、フィールド単位等で、入力画像を供給することができる。
画像変換部24は、画像フォーマット検出部22からの制御に基づいて、バッファ23からの入力画像を、拡大、又は縮小するサイズ変換を行い、そのサイズ変換によって得られる等アスペクト比画像を、結合画像生成部27に供給する。
すなわち、画像変換部24は、バッファ23からの入力画像を、横又は縦のサイズが表示部29の表示画面の横又は縦のサイズと一致し、かつ、表示部29の表示画面の画面サイズ以下の画像サイズの画像であって、入力画像の横及び縦のサイズを同一倍した画像である等アスペクト比画像に変換するサイズ変換を行い、そのサイズ変換によって得られる等アスペクト比画像を、結合画像生成部27に供給する。
対象領域設定部25は、画像フォーマット検出部22及び制御部30の制御にしたがい、バッファ23からの入力画像の一部の領域を、後述する付加画像生成部26が付加画像を生成するのに拡大、又は縮小するサイズ変換の対象とする対象領域に設定し、付加画像生成部26に供給する。
なお、対象領域設定部25は、メモリ25Aを内蔵しており、メモリ25Aは、対象領域設定部25が処理を行う上で必要なデータを、適宜記憶する。
付加画像生成部26は、画像変換部24からの等アスペクト比画像を、その等アスペクト比画像のアスペクト比を変えずに、表示部29に表示したときに、表示部29の表示画面において、等アスペクト比画像の表示に使用されない不使用領域のサイズ内の画像サイズの画像である付加画像を、対象領域設定部25から供給される対象領域、つまり、入力画像の一部の領域から生成して、結合画像生成部27に供給する。
すなわち、付加画像生成部26は、例えば、等アスペクト比画像を、そのアスペクト比を変えずに、表示部29に表示したときに、表示部29の表示画面において、等アスペクト比画像の表示に使用されない不使用領域のサイズと同一の画像サイズの付加画像を、対象領域設定部25から供給される対象領域から生成して、結合画像生成部27に供給する。
結合画像生成部27は、バッファ23から入力画像が読み出される単位である各フレーム(又はフィールド)の入力画像をサイズ変換して得られる等アスペクト比画像と、そのフレームの入力画像の一部である対象領域から生成される付加画像とが重ならないように結合された結合画像を生成し、表示制御部28に供給する。
すなわち、結合画像生成部27は、画像変換部24から供給される等アスペクト比画像と、その等アスペクト比画像に変換されたフレームの入力画像に設定された対象領域から生成され、付加画像生成部26から供給される付加画像とを、その等アスペクト比画像と付加画像とが重ならないように結合し、その結果得られる結合画像を、表示制御部28に供給する。
表示制御部28は、表示部29を制御し、結合画像生成部27からの結合画像を、表示部29に表示させる。
表示部29は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等で構成され、表示制御部28の制御にしたがって、結合画像を、表示画面に表示する。
制御部30は、表示処理装置20を構成する各ブロックを制御する。また、制御部30は、リモートコマンダ10から送信されてくる操作信号を受信し、その操作信号に基づいて、対象領域設定部25その他を制御する。
次に、図3及び図4を参照して、図2の画像変換部24の処理について説明する。
画像変換部24は、上述したように、画像フォーマット検出部22からの制御に基づいて、バッファ23からの入力画像を、横又は縦のサイズが表示部29の表示画面の横又は縦のサイズと一致し、かつ、表示部29の表示画面の画面サイズ以下の画像サイズの画像であって、入力画像の横及び縦のサイズを同一倍した画像である等アスペクト比画像に変換するサイズ変換を行う。
すなわち、画像フォーマット検出部22は、画像フォーマットと画面フォーマットとに基づき、入力画像のアスペクト比と、表示部29の表示画面のアスペクト比とが一致するかどうかを判定する。
そして、入力画像のアスペクト比と、表示画面のアスペクト比とが一致する場合には、画像フォーマット検出部22は、図3に示すように、入力画像を、画像サイズが表示画面の画面サイズと一致し、アスペクト比が入力画像と同一の等アスペクト比画像に変換するように、画像変換部24を制御する。また、入力画像のアスペクト比と、表示画面のアスペクト比とが一致しない場合には、画像フォーマット検出部22は、図4に示すように、入力画像を、画像サイズが表示画面の画面サイズより小さく、アスペクト比が入力画像と同一の等アスペクト比画像に変換するように、画像変換部24を制御する。
すなわち、入力画像のアスペクト比と、表示画面のアスペクト比とが一致する場合には、画像フォーマット検出部22は、例えば、図3に示すように、表示画面の横又は縦のサイズのうちの一方のサイズとしての、例えば、横の画素数H1と、入力画像の横又は縦のうちの対応する一方としての横の画素数H2とに基づき、入力画像の横の画素数H2を、表示画面の横の画素数H1に一致させる倍率(以下、適宜、変換係数という)H1/H2を求め、入力画像の横及び縦の画素数を、その変換係数H1/H2倍するように、画像変換部24を制御する。
画像変換部24は、画像フォーマット検出部22の制御にしたがい、バッファ23からの入力画像の横及び縦の画素数を、変換係数H1/H2倍する。これにより、入力画像は、横又は縦の画素数が表示画面の横又は縦の画素数とそれぞれ一致する、表示画面の画面サイズと等しい画像サイズの画像であって、入力画像の横及び縦の画素数を同一倍である変換係数H1/H2倍した等アスペクト比画像に変換される。
すなわち、いまの場合、入力画像のアスペクト比と、表示画面のアスペクト比とが一致するので、表示画面の縦の画素数V1と、入力画像の縦の画素数V2との比V1/V2は、変換係数H1/H2に等しい(表示画面の縦の画素数V1と、入力画像の縦の画素数V2との比V1/V2が変換係数であるということができる)。
したがって、横×縦の画素数がH2×V2の入力画像の横及び縦の画素数を、変換係数H1/H2(=V1/V2)倍することにより、横×縦の画素数が、表示画面の横×縦の画素数であるH1×V1に等しい画像、つまり、横又は縦のサイズがそれぞれ表示画面の横又は縦のサイズと一致する、表示画面の画面サイズと等しい画像サイズの画像であって、入力画像の横及び縦のサイズを同一倍である変換係数H1/H2倍した画像が、等アスペクト比画像として得られる。
ここで、図3上側は、入力画像のアスペクト比と、表示画面のアスペクト比とが16:9で一致する場合の等アスペクト比画像を示している。
また、図3下側は、入力画像のアスペクト比と、表示画面のアスペクト比とが4:3で一致する場合の等アスペクト比画像を示している。
入力画像のアスペクト比と、表示画面のアスペクト比とが一致する場合、画像変換部24において、入力画像をサイズ変換することにより得られる等アスペクト比画像の画像サイズとしての、例えば、横×縦の画素数は、表示画面の画面サイズに一致するので、等アスペクト比画像は、表示部29の表示画面の全体を有効に利用して表示することができる。
また、等アスペクト比画像は、入力画像の横及び縦のサイズを同一倍である変換係数H1/H2倍した画像であるので、等アスペクト比画像のアスペクト比は、入力画像のアスペクト比と一致し、すなわち、例えば、入力画像が4:3画像であれば、等アスペクト比画像も4:3画像となり、入力画像16:9画像であれば、等アスペクト比画像も16:9画像となり、その結果、等アスペクト比画像は、入力画像に映っている被写体が変形されずに反映された画像となる。
一方、入力画像のアスペクト比と、表示画面のアスペクト比とが一致しない場合には、画像フォーマット検出部22は、例えば、図4に示すように、入力画像のアスペクト比と、表示画面のアスペクト比とに基づき、入力画像の横又は縦のうちの一方の画素数を、表示画面の横又は縦のうちの対応する一方の画素数に一致させる倍率としての変換係数Kを求め、入力画像の横及び縦の画素数を、その変換係数K倍するように、画像変換部24を制御する。
すなわち、画像フォーマット検出部22は、入力画像のアスペクト比と、表示画面のアスペクト比とが一致しない場合には、表示画面の横の画素数H1と入力画像の横の画素数H2との比である横比H1/H2、及び表示画面の縦の画素数V1と入力画像の縦の画素数V2との比である縦比V1/V2を求める。さらに、画像フォーマット検出部22は、横比H1/H2と縦比V1/V2とのうちの小さい方を、変換係数Kに決定し、入力画像の横及び縦の画素数を、その変換係数K倍するように、画像変換部24を制御する。
したがって、図4上側に示すように、表示画面のアスペクト比が16:9(=H1:V1)であり、入力画像のアスペクト比が4:3(=H2:V2)である場合には、表示画面及び入力画像の画素数によって決まる定数をaとすると、横比H1/H2が16/4×aとなるとともに、縦比V1/V2が9/3×aとなって、縦比V1/V2が横比H1/H2より小となるので、縦比V1/V2が、変換係数Kとなる。
また、図4下側に示すように、表示画面のアスペクト比が4:3(=H1:V1)であり、入力画像のアスペクト比が16:9(=H2:V2)である場合には、表示画面及び入力画像の画素数によって決まる定数をbとすると、横比H1/H2が4/16×bとなるとともに、縦比V1/V2が3/9×bとなって、横比H1/H2が縦比V1/V2より小となるので、横比H1/H2が、変換係数Kとなる。
そして、画像変換部24は、画像フォーマット検出部22の制御にしたがい、バッファ23からの入力画像の横及び縦の画素数を、変換係数K倍する。これにより、入力画像は、横又は縦のうちの一方の画素数が表示画面の横又は縦のうちの対応する一方の画素数と一致し、かつ、表示画面の画面サイズ以下の画像サイズの画像であって、入力画像の横及び縦のサイズを同一倍である変換係数K倍した等アスペクト比画像に変換される。
すなわち、図4上側に示すように、表示画面のアスペクト比が16:9(=H1:V1)であり、入力画像のアスペクト比が4:3(=H2:V2)である場合には、上述したように、縦比V1/V2が、変換係数Kとなる。
この場合、横×縦の画素数がH2×V2の入力画像の横及び縦の画素数は、変換係数K=V1/V2倍され、その結果、図4上側に示すように、縦の画素数が、表示画面の縦の画素数であるV1に等しく、横の画素数が、表示画面の横の画素数であるH1より小のH1'の画像、つまり、縦のサイズが表示画面の縦のサイズV1と一致し、かつ、表示画面の画面サイズより小の画像サイズの画像であって、入力画像の横及び縦のサイズを同一倍である変換係数K=V1/V2倍した画像が、等アスペクト比画像として得られる。
すなわち、表示画面のアスペクト比が16:9であり、入力画像のアスペクト比が4:3である場合には、アスペクト比が入力画像のアスペクト比と同一の4:3で、縦の画素数が表示画面の縦の画素数V1と一致し、かつ、横の画素数が表示画面の横の画素数H1よりも小の画像が、等アスペクト比画像として得られる。
一方、図4下側に示すように、表示画面のアスペクト比が4:3(=H1:V1)であり、入力画像のアスペクト比が16:9(=H2:V2)である場合には、上述したように、横比H1/H2が、変換係数Kとなる。
この場合、横×縦の画素数がH2×V2の入力画像の横及び縦の画素数は、変換係数K=H1/H2倍され、その結果、図4下側に示すように、横の画素数が、表示画面の横の画素数であるH1に等しく、縦の画素数が、表示画面の縦の画素数であるV1より小のV1'の画像、つまり、横のサイズが表示画面の横のサイズH1と一致し、かつ、表示画面の画面サイズより小の画像サイズの画像であって、入力画像の横及び縦のサイズを同一倍である変換係数K=H1/H2倍した画像が、等アスペクト比画像として得られる。
すなわち、表示画面のアスペクト比が4:3であり、入力画像のアスペクト比が16:9である場合には、アスペクト比が入力画像のアスペクト比と同一の16:9で、横の画素数が表示画面の横の画素数H1と一致し、かつ、縦の画素数が表示画面の縦の画素数V1よりも小の画像が、等アスペクト比画像として得られる。
以上のように、入力画像のアスペクト比と、表示画面のアスペクト比とが一致する場合であっても、一致しない場合であっても、画像変換部24における入力画像のサイズ変換では、入力画像の横及び縦のサイズを同一倍である変換係数K倍した画像が、等アスペクト比画像として求められる。したがって、等アスペクト比画像のアスペクト比は、入力画像のアスペクト比に一致するので、すなわち、例えば、入力画像が4:3画像であれば、等アスペクト比画像も4:3画像となり、入力画像16:9画像であれば、等アスペクト比画像も16:9画像となるので、等アスペクト比画像は、入力画像に映っている被写体が変形されずに反映された画像となる。
但し、入力画像のアスペクト比と、表示画面のアスペクト比とが一致しない場合には、画像変換部24において、入力画像をサイズ変換することにより得られる等アスペクト比画像の横又は縦のうちの、一方のサイズとしての画素数は、表示画面の横又は縦のうちの対応する一方の画素数に一致し、かつ、等アスペクト比画像の横又は縦のうちの他方の画素数は、表示画面の横又は縦のうちの対応する他方の画素数より小になるので、そのような等アスペクト比画像を(そのまま)、表示部29に表示した場合には、表示部29の表示画面には、画像の表示に使用されない不使用領域(図4において斜線を付して示す部分)が生じる。
なお、画像変換部24が行うサイズ変換は、画像サイズとしての、例えば、画素数を変換する画素数変換であるが、この画素数変換は、いわゆる補間処理や間引き処理によって行うことができる他、本件出願人が先に提案しているクラス分類適応処理によって行うことができる。クラス分類適応処理についての詳細は、後述する。
次に、図5ないし図7を参照して、図2の対象領域設定部25の処理について説明する。
図4で説明したように、入力画像のアスペクト比と、表示画面のアスペクト比とが一致しない場合には、画像変換部24において得られる等アスペクト比画像の横又は縦のうちの一方の画素数は、表示画面のそれに一致するが、他方の画素数は、表示画面のそれより小となるので、そのような等アスペクト比画像を(そのまま)、表示部29に表示した場合には、表示部29の表示画面には、画像の表示に使用されない不使用領域が生じる。
すなわち、例えば、表示画面のアスペクト比が4:3であり、入力画像のアスペクト比が16:9である場合には、アスペクト比が入力画像のアスペクト比と同一の16:9で、横の画素数が表示画面の横の画素数H1と一致し、かつ、縦の画素数が表示画面の縦の画素数V1よりも小の16:9画像が、等アスペクト比画像として得られるので、そのような16:9画像の等アスペクト比画像を、アスペクト比が4:3の表示画面である4:3画面に表示する場合には、図5左側に示すように、4:3画面の上又は下の部分が、画像が表示されない部分(画像の表示に使用されない部分)である不使用領域となる。
なお、図5左側に示すように、4:3画面において、その上下の中間の位置に、16:9画像である等アスペクト比画像を表示した場合には、4:3画面の上下の部分の両方に、不使用領域が生じる。また、4:3画面において、その下の位置に、16:9画像である等アスペクト比画像の下の位置を合わせるように、その等アスペクト比画像を表示した場合には、4:3画面の上の部分のみに、不使用領域が生じ、4:3画面において、その上の位置に、16:9画像である等アスペクト比画像の上の位置を合わせるように、その等アスペクト比画像を表示した場合には、4:3画面の下の部分のみに、不使用領域が生じる。
同様に、表示画面のアスペクト比が16:9であり、入力画像のアスペクト比が4:3である場合も、不使用領域が生じる。
すなわち、表示画面のアスペクト比が16:9であり、入力画像のアスペクト比が4:3である場合には、アスペクト比が入力画像のアスペクト比と同一の4:3で、縦の画素数が表示画面の縦の画素数V1と一致し、かつ、横の画素数が表示画面の横の画素数H1よりも小の4:3画像が、等アスペクト比画像として得られるので、そのような4:3画像の等アスペクト比画像を、アスペクト比が16:9の表示画面である16:9画面に表示する場合には、図5右側に示すように、等アスペクト比画像の左又は右の部分が、不使用領域となる。
なお、図5右側に示すように、16:9画面において、その左右の中間の位置に、4:3画像である等アスペクト比画像を表示した場合には、16:9画面の左右の部分の両方に、不使用領域が生じる。また、16:9画面において、その右の位置に、4:3画像である等アスペクト比画像の右の位置を合わせるように、その等アスペクト比画像を表示した場合には、16:9画面の左の部分のみに、不使用領域が生じ、16:9画面において、その左の位置に、4:3画像である等アスペクト比画像の左の位置を合わせるように、その等アスペクト比画像を表示した場合には、16:9画面の右の部分のみに、不使用領域が生じる。
以上のように、表示画面に、不使用領域があることは、表示画面の利用の観点から好ましくない。そこで、画像処理装置20(図2)では、表示画面をより有効に利用すべく、不使用領域に、等アスペクト比画像とは別の画像である付加画像を表示するようになっている。
ここで、付加画像を表示する不使用領域の位置は、特に限定されるものではないが、以下では、説明を簡単にするため、付加画像を表示する不使用領域は、例えば、表示画面の上の部分、又は右の部分とする。
すなわち、表示画面が4:3画面であり、入力画像が16:9画像である場合には、図5左側に示したように、4:3画面において、その下の位置に、16:9画像である等アスペクト比画像の下の位置を合わせるように、その等アスペクト比画像が表示されることによって、4:3画面の上の部分のみに生じる不使用領域に、付加画像が表示されることとする。
また、表示画面が16:9画面であり、入力画像が4:3画像である場合には、図5右側に示したように、16:9画面において、その左の位置に、4:3画像である等アスペクト比画像の左の位置を合わせるように、その等アスペクト比画像が表示されることによって、16:9画面の右の部分のみに生じる不使用領域に、付加画像が表示されることとする。
ところで、入力画像のあるフレームを、注目フレームとして注目すると、例えば、図3で説明したように、入力画像のアスペクトと表示画面のアスペクト比とが一致している場合には、注目フレームの入力画像をサイズ変換して得られる等アスペクト比画像が、表示画面の全体に表示される。したがって、表示画面の全体が、注目フレームの入力画像、ひいては、等アスペクト比画像の表示に寄与している、ということができる。
一方、入力画像のアスペクトと表示画面のアスペクト比とが異なる場合には、入力画像をサイズ変換して得られる等アスペクト比画像を、表示画面に表示したときに、不使用領域が生じるから、表示画面は、その不使用領域の分だけ、注目フレームの入力画像の表示に寄与していない、ということができる。
入力画像のアスペクトと表示画面のアスペクト比とが一致している場合と、入力画像のアスペクトと表示画面のアスペクト比とが異なる場合とにおいて、表示画面の利用の程度を、いわばバランスさせる観点からは、入力画像のアスペクトと表示画面のアスペクト比とが異なる場合も、入力画像のアスペクトと表示画面のアスペクト比とが一致している場合と同様に、表示画面の全体を、注目フレームの入力画像の表示に寄与させることが望ましい。
そこで、表示処理装置20では、入力画像のアスペクトと表示画面のアスペクト比とが異なる場合には、注目フレームを入力画像をサイズ変換して得られる等アスペクト比画像を、表示画面に表示したときに生じる不使用領域に、例えば、その注目フレームの入力画像の一部を拡大するサイズ変換を行うことによって得られる画像を、付加画像として表示させる。
これにより、入力画像のアスペクトと表示画面のアスペクト比とが異なる場合であっても、入力画像のアスペクトと表示画面のアスペクト比とが一致している場合と同様に、表示画面の全体を、注目フレームの入力画像の表示に寄与させることができる。
以上のように、注目フレームの入力画像の一部を拡大するサイズ変換を行うことによって得られる画像を、付加画像として、不使用領域に表示する場合においては、付加画像を得るサイズ変換の対象となる入力画像の一部としての対象領域を設定する必要があるが、この対象領域の設定は、対象領域設定部25において行われる。
すなわち、図6は、対象領域設定部25における対象領域の設定を説明する図である。
図6上から1番目は、入力画像としての4:3画像を示している。すなわち、図6上から1番目は、第nフレーム、第n+1フレーム、及び第n+2フレームの3フレームの4:3画像の入力画像を示している。
図6上から1番目の入力画像においては、第nフレームから第n+2フレームに亘って、星形(☆形)の被写体が、左から右に移動している。
図6上から2番目は、被写体枠が設定された第nないし第n+2フレームの入力画像を示している。
図6上から2番目においては、第nフレームの星形の被写体の位置に、その被写体を囲むように、長方形状の被写体枠が設定されている。
被写体枠(によって囲まれる被写体)の指定は、例えば、ユーザがリモートコマンダ10を操作することによって行うことができる。すなわち、ユーザが、被写体枠を指定するように、リモートコマンダ10を操作すると、その操作に対応する操作信号が、リモートコマンダ10から送信され、制御部30において受信される。制御部30は、リモートコマンダ10から受信した操作信号を、対象領域設定部25に供給し、対象領域設定部25は、制御部30から供給される操作信号に基づいて、被写体枠を設定する。
具体的には、ユーザが、被写体枠を指定するように、リモートコマンダ10を操作した場合にリモートコマンダ10から送信されてくる操作信号には、被写体枠の、例えば、左上と右下の座標等の被写体枠の位置と大きさを特定することができる被写体枠パラメータが含まれており、対象領域設定部25は、その被写体枠パラメータに基づいて、被写体枠を設定する。
そして、対象領域設定部25は、図6上から3番目、及び4番目に示すように、被写体枠に基づいて、入力画像(の各フレーム)の一部の、例えば、長方形状の領域を、対象領域に設定する。
すなわち、図6上から3番目は、対象領域設定部25が設定する対象領域を示している。また、図6上から4番目は、図6上から1番目の4:3画像の入力画像をサイズ変換して得られる、4:3画像の等アスペクト比画像を、そのアスペクト比と異なるアスペクト比の16:9画面に表示したときに、右の部分に生じる不使用領域を示している。
例えば、いま、不使用領域が、長方形状の領域であるとして、そのような不使用領域の全体に、入力画像の一部としての対象領域に映っている被写体を変形せずに、その対象領域をサイズ変換して得られる付加画像を表示することとすると、付加画像は、対象領域の横と縦とを同一倍した画像サイズの画像でなければならず、かつ、付加画像の画像サイズ(横と縦のサイズ)は、不使用領域のサイズ(横と縦のサイズ)と一致していなければならない。
したがって、対象領域の横と縦とを同一倍するときの倍率を、倍率パラメータαとするとともに、図6上から3番目に示すように、対象領域の横又は縦のサイズを、x2又はy2と、それぞれ表し、さらに、図6上から4番目に示すように、16:9画面の右の部分に生じる不使用領域の横又は縦のサイズを、x1又はy1とそれぞれ表すこととすると、対象領域の横と縦のサイズx2又はy2は、それぞれ、式x1=αx2、又は式y1=αy2を満たす必要がある。
そこで、対象領域設定部25は、画像フォーマット検出部22及び制御部30の制御にしたがい、式x1=αx2、及び式y1=αy2を満たす、バッファ23からの入力画像の一部の領域を、対象領域に設定する。
すなわち、画像フォーマット検出部22は、画像フォーマット及び画面フォーマットに基づき、入力画像のアスペクト比と、表示部29の表示画面のアスペクト比とが一致するか否かを判定(認識)し、入力画像のアスペクト比が4:3であり、表示部29の表示画面のアスペクト比が16:9であって、アスペクト比が異なる場合には、図6上から4番目に示すように、4:3画像の等アスペクト比画像を、16:9画面に表示したときに右の部分に生じる不使用領域のサイズとしての横の画素数x1と、縦の画素数y1とを求めて、対象領域設定部25に供給する。
また、リモートコマンダ10は、倍率パラメータαを指定するように、ユーザによって操作された場合、その倍率パラメータαを含む操作信号を送信し、制御部30は、リモートコマンダ10から送信されてくる操作信号を受信して、対象領域設定部25に供給し、その対象領域設定部25が内蔵するメモリ25Aに記憶させる。
対象領域設定部25は、画像フォーマット検出部22からの不使用領域の横の画素数x1、及び縦の画素数y1と、メモリ25Aに記憶された倍率パラメータαとに基づき、式x1=αx2、及び式y1=αy2を満たす対象領域のサイズとしての横の画素数x2、及び縦の画素数y2を求める。
そして、対象領域設定部25は、図6上から3番目に示すように、入力画像において、被写体枠の、例えば、重心(被写体枠で囲まれる領域の重心)を中心(重心)とし、横の画素数がx2で、縦の画素数がy2の長方形状の領域を、対象領域に設定する。ここで、以下、適宜、説明の便宜上、対象領域を囲む枠を、対象領域枠という。
なお、図6では、被写体枠は、上から2番目に示したように、第nフレームで設定された後は、ユーザがリモートコマンダ10を操作して、再度、指定(変更)しない限り、設定し直されない。
このため、図6上から1番目に示したように、入力画像の第nフレームから第n+2フレームに亘って、星形の被写体が、左から右に移動している場合には、第nフレームで設定された被写体枠にある星形の被写体は、図6上から3番目に示したように、第n+1フレーム、さらには、第n+2フレームにおいて、第nフレームで設定された被写体枠に基づいて設定された対象領域枠で囲まれる対象領域からはずれていく。すなわち、移動している被写体は、移動しない対象領域の外に移動していく。
対象領域設定部25は、入力画像のアスペクト比が16:9であり、表示画面のアスペクト比が4:3である場合も、図6で説明した、入力画像のアスペクト比が4:3であり、表示画面のアスペクト比が16:9である場合と同様に、対象領域を設定する。
すなわち、図7は、入力画像のアスペクト比が16:9であり、表示画面のアスペクト比が4:3である場合の、対象領域の設定を説明する図である。
図7上から1番目は、入力画像としての16:9画像を示している。すなわち、図7上から1番目は、第nフレーム、第n+1フレーム、及び第n+2フレームの3フレームの入力画像としての16:9画像を示している。
図7上から1番目の入力画像においては、図6上から1番目の入力画像と同様に、第nフレームから第n+2フレームに亘って、星形の被写体が、左から右に移動している。
図7上から2番目は、被写体枠が設定された第nないし第n+2フレームの入力画像を示している。
図7上から2番目においては、図6上から2番目と同様に、第nフレームの星形の被写体の位置に、その被写体を囲むように、長方形状の被写体枠が設定されている。
被写体枠の設定は、図6で説明したように、ユーザによるリモートコマンダ10の操作に基づき、対象領域設定部25において行われる。
対象領域設定部25は、被写体枠の設定の後、図7上から3番目、及び4番目に示すように、被写体枠に基づいて、入力画像(の各フレーム)の一部の、例えば、長方形状の領域を、対象領域に設定する。
すなわち、図7上から3番目は、対象領域設定部25が設定する対象領域(を囲む対象領域枠)を示している。また、図7上から4番目は、図7上から1番目の16:9画像の入力画像をサイズ変換して得られる、16:9画像の等アスペクト比画像を、そのアスペクト比と異なるアスペクト比の4:3画面に表示したときに、上の部分に生じる不使用領域を示している。
例えば、いま、図6の場合と同様に、不使用領域が、長方形状の領域であるとして、そのような不使用領域の全体に、入力画像の一部としての対象領域に映っている被写体を変形せずに、その対象領域をサイズ変換して得られる付加画像を表示することとすると、付加画像は、対象領域の横と縦とを同一倍した画像サイズの画像でなければならず、かつ、付加画像の画像サイズは、不使用領域のサイズと一致していなければならない。
したがって、対象領域の横と縦とを同一倍するときの倍率を、倍率パラメータαとするとともに、図7上から3番目に示すように、対象領域の横又は縦のサイズを、x2又はy2と、それぞれ表し、さらに、図7上から4番目に示すように、4:3画面の上の部分に生じる不使用領域の横又は縦のサイズを、x1又はy1とそれぞれ表すこととすると、対象領域の横と縦のサイズx2又はy2は、それぞれ、式x1=αx2、又は式y1=αy2を満たす必要がある。
そこで、対象領域設定部25は、画像フォーマット検出部22及び制御部30の制御にしたがい、式x1=αx2、及び式y1=αy2を満たす、バッファ23からの入力画像の一部の領域を、対象領域に設定する。
すなわち、画像フォーマット検出部22は、画像フォーマット及び画面フォーマットに基づき、入力画像のアスペクト比と、表示部29の表示画面のアスペクト比とが一致するか否かを判定し、入力画像のアスペクト比が16:9であり、表示部29の表示画面のアスペクト比が4:3であって、アスペクト比が異なる場合には、図7上から4番目に示すように、16:9画像の等アスペクト比画像を、4:3画面に表示したときに上の部分に生じる不使用領域のサイズとしての横の画素数x1と、縦の画素数y1とを求めて、対象領域設定部25に供給する。
また、対象領域設定部25の内蔵するメモリ25Aでは、図6で説明したように、リモートコマンダ10の操作に応じて、倍率パラメータαが記憶される。
対象領域設定部25は、画像フォーマット検出部22からの不使用領域の横の画素数x1、及び縦の画素数y1と、メモリ25Aに記憶された倍率パラメータαとに基づき、式x1=αx2、及び式y1=αy2を満たす対象領域のサイズとしての横の画素数x2、及び縦の画素数y2を求める。
そして、対象領域設定部25は、図7上から3番目に示すように、入力画像において、被写体枠の、例えば、重心を中心とし、横の画素数がx2で、縦の画素数がy2の長方形状の領域を囲む枠を、対象領域枠に設定し、これにより、その対象領域枠で囲まれる入力画像の領域が、対象領域に設定される。
次に、図8及び図9を参照して、図2の付加画像生成部26の処理について説明する。
図8は、入力画像のアスペクト比が4:3であり、表示画面のアスペクト比が16:9である場合に、被写体枠に基づいて設定された対象領域枠を示している。
すなわち、図8上から1番目は、図6上から3番目と同一の図である。
入力画像のアスペクト比が4:3であり、表示画面のアスペクト比が16:9である場合には、図6で説明したように、対象領域の横又は縦のサイズを、x2又はy2と、それぞれ表し、さらに、16:9画面の右の部分に生じる不使用領域の横又は縦のサイズを、x1又はy1と、それぞれ表すこととすると、対象領域設定部25では、αを倍率パラメータとして、横の画素数x2が、式x1=αx2を満たし、縦の画素数y2が、式y1=αy2を満たす対象領域が設定される。
対象領域設定部25は、対象領域と、倍率パラメータαとを、付加画像生成部26に供給する。そして、付加画像生成部26は、図8上から2番目に示すように、対象領域設定部25からの対象領域の横の画素数x2と縦の画素数y2を、それぞれ、倍率パラメータα倍した画像、すなわち、横の画素数がαx2で、縦の画素数がαy2の画像を、付加画像として生成する。
付加画像の横の画素数はαx2で、縦の画素数はαy2の画像であるから、その横の画素数αx2、又は縦の画素数αy2は、それぞれ、不使用領域の横の画素数x1、又は縦の画素数y1に一致する。
したがって、入力画像のアスペクト比が4:3であり、表示画面のアスペクト比が16:9である場合に、入力画像をサイズ変換して得られる4:3画像の等アスペクト比画像と、対象領域から生成された付加画像とが、それぞれ、左と右に位置し、かつ重ならないように結合された結合画像を生成して、アスペクト比が16:9の表示画面である16:9画面に表示することにより、図8上から3番目に示すように、不使用領域を生じさせずに、16:9画面の全体を有効に利用することができる。
さらに、結合画像を構成する、4:3画像の等アスペクト比画像と、付加画像とは、同一のフレームの入力画像から生成された画像であるから、入力画像のアスペクトと表示画面のアスペクト比とが一致している場合と同様に、表示画面の全体を、同一のフレームの入力画像の表示に寄与させることができる。
次に、図9は、入力画像のアスペクト比が16:9であり、表示画面のアスペクト比が4:3である場合に、被写体枠に基づいて設定された対象領域枠を示している。
すなわち、図9上から1番目は、図7上から3番目と同一の図である。
入力画像のアスペクト比が16:9であり、表示画面のアスペクト比が4:3である場合には、図7で説明したように、対象領域の横又は縦のサイズを、x2又はy2と、それぞれ表し、さらに、4:3画面の右の部分に生じる不使用領域の横又は縦のサイズを、x1又はy1と、それぞれ表すこととすると、対象領域設定部25では、αを倍率パラメータとして、横の画素数x2が、式x1=αx2を満たし、縦の画素数y2が、式y1=αy2を満たす対象領域が設定される。
対象領域設定部25は、対象領域と、倍率パラメータαとを、付加画像生成部26に供給する。そして、付加画像生成部26は、図9上から2番目に示すように、対象領域設定部25からの対象領域の横の画素数x2と縦の画素数y2を、それぞれ、倍率パラメータα倍した画像、すなわち、横の画素数がαx2で、縦の画素数がαy2の画像を、付加画像として生成する。
付加画像の横の画素数はαx2で、縦の画素数はαy2の画像であるから、その横の画素数αx2、又は縦の画素数αy2は、それぞれ、不使用領域の横の画素数x1、又は縦の画素数y1に一致する。
したがって、入力画像のアスペクト比が16:9であり、表示画面のアスペクト比が4:3である場合に、入力画像をサイズ変換して得られる16:9画像の等アスペクト比画像と、対象領域から生成された付加画像とが、それぞれ、下と上に位置し、かつ重ならないように結合された結合画像を生成して、アスペクト比が4:3の表示画面である4:3画面に表示することにより、図9上から3番目に示すように、不使用領域を生じさせずに、4:3画面の全体を有効に利用することができる。
さらに、結合画像を構成する、16:9画像の等アスペクト比画像と、付加画像とは、同一のフレームの入力画像から生成された画像であるから、入力画像のアスペクトと表示画面のアスペクト比とが一致している場合と同様に、表示画面の全体を、同一のフレームの入力画像の表示に寄与させることができる。
次に、図10のフローチャートを参照して、図2の表示処理装置20の処理(表示処理)について説明する。
取得部21は、例えば、地上波ディジタル放送等で放送された放送データ等の入力画像を含むデータを受信し、バッファ23に順次供給して記憶させる。
そして、ステップS11において、画像フォーマット検出部22は、バッファ23に記憶されたデータに含まれる入力画像の画像フォーマットを検出し、処理は、ステップS12に進む。
ステップS12では、画像フォーマット検出部22は、入力画像の画像フォーマット、及び表示部29の表示画面の画面フォーマットに基づき、入力画像のアスペクト比と、表示画面のアスペクト比とが一致するかどうかを判定する。
ステップS12において、入力画像のアスペクト比と、表示画面のアスペクト比とが一致すると判定された場合、処理は、ステップS13に進み、後述する通常表示処理が行われる。そして、処理は、ステップS13からステップS12に戻る。
また、ステップS12において、入力画像のアスペクト比と、表示画面のアスペクト比とが一致しないと判定された場合、処理は、ステップS14に進み、後述する付加画像表示処理が行われる。そして、処理は、ステップS14からステップS12に戻る。
次に、図11のフローチャートを参照して、図10のステップS13で行われる通常表示処理の詳細について説明する。
ステップS21において、画像フォーマット検出部22は、画像フォーマット、及び画面フォーマットに基づき、表示画面の横の画素数H1と入力画像の横の画素数H2との比である横比H1/H2、及び表示画面の縦の画素数V1と入力画像の縦の画素数V2との比である縦比V1/V2を求める。さらに、画像フォーマット検出部22は、横比H1/H2と縦比V1/V2とのうちの小さい方(等しい場合には、いずれか一方)を、変換係数Kに決定し、その変換係数Kを表す情報を、画像変換部24に供給して、処理は、ステップS21からステップS22に進む。
ここで、図11の通常表示処理が行われる場合、入力画像のアスペクト比と表示画面のアスペクト比とは等しいので、横比H1/H2と縦比V1/V2も等しくなる。この場合、変換係数Kは、横比H1/H2に決定しても良いし、縦比V1/V2に決定しても良い。
ステップS22では、画像変換部24が、バッファ23からの入力画像の読み出しを開始する。さらに、ステップS22では、画像変換部24は、画像フォーマット検出部22から直前のステップS21で供給された変換係数Kを表す情報に基づいて、バッファ23からの入力画像を、その横と縦の画素数を変換係数K倍した等アスペクト比画像に変換するサイズ変換を開始し、その結果得られる等アスペクト比画像を、結合画像生成部27に供給して、処理は、ステップS23に進む。
ステップS23では、結合画像生成部27が、画像変換部24から供給される等アスペクト比画像を、そのまま、結合画像として、表示制御部28に供給(出力)する処理を開始する。
すなわち、図11の通常表示処理が行われる場合、入力画像のアスペクト比と表示画面のアスペクト比とは等しいので、入力画像のアスペクト比と等しいアスペクト比の等アスペクト比画像は、図3で説明したように、表示部29の表示画面の全体を有効に利用して表示することができる。このため、結合画像生成部27は、画像変換部24から供給される等アスペクト比画像を、そのまま、結合画像として、表示制御部28に供給する。
ステップS23の後、処理は、ステップS24に進み、表示制御部28が、結合画像生成部27から供給される等アスペクト比画像を、表示部29に表示させる表示制御処理を開始し、処理は、ステップS25に進む。
ステップS25では、画像フォーマット検出部22が、バッファ23に記憶された入力画像の画像フォーマットが変化したかどうかを判定する。
すなわち、画像フォーマット検出部22は、例えば、バッファ23に記憶された入力画像の画像フォーマットを常時検出しており、ステップS25では、バッファ23に記憶された入力画像の画像フォーマットが変化したかどうかが判定される。
ステップS25において、バッファ23に記憶された入力画像の画像フォーマットが変化していないと判定された場合、処理は、ステップS25に戻る。
また、ステップS25において、バッファ23に記憶された入力画像の画像フォーマットが変化したと判定された場合、処理は、図10のステップS12にリターンし、その変化後の画像フォーマットを用いて、ステップS12からの処理が繰り返される。
次に、図12のフローチャートを参照して、図10のステップS14で行われる付加画像表示処理の詳細について説明する。
ステップS31において、画像フォーマット検出部22は、画像フォーマット、及び画面フォーマットに基づき、表示画面の横の画素数H1と入力画像の横の画素数H2との比である横比H1/H2、及び表示画面の縦の画素数V1と入力画像の縦の画素数V2との比である縦比V1/V2を求める。さらに、画像フォーマット検出部22は、横比H1/H2と縦比V1/V2とのうちの小さい方を、変換係数Kに決定し、その変換係数Kを表す情報を、画像変換部24に供給して、処理は、ステップS31からステップS32に進む。
ステップS32では、画像変換部24が、バッファ23からの入力画像の読み出しを開始する。さらに、ステップS32では、画像変換部24は、画像フォーマット検出部22から直前のステップS31で供給された変換係数Kを表す情報に基づいて、バッファ23からの入力画像を、その横と縦の画素数を変換係数K倍した等アスペクト比画像に変換するサイズ変換を開始し、その結果得られる等アスペクト比画像を、結合画像生成部27に供給して、処理は、ステップS33に進む。
ステップS33では、画像変換部24において等アスペクト比画像が生成される入力画像と同一のフレームの入力画像から付加画像を生成する付加画像生成処理が開始される。
付加画像生成処理が開始されることにより、付加画像生成部26は、画像変換部24が結合画像生成部27に供給する等アスペクト比画像のフレームと同一のフレームの入力画像から生成した付加画像を、結合画像生成部27に供給する。
ステップS33の後、処理は、ステップS34に進み、結合画像生成部27は、画像変換部24から供給される等アスペクト比画像と、付加画像生成部26から供給される、その等アスペクト比画像のフレームと同一のフレームの入力画像から生成された付加画像とを、その等アスペクト比画像と付加画像とが重ならないように結合し、その結果得られる結合画像を表示制御部28に供給する処理を開始して、処理は、ステップS35に進む。
ステップS35では、表示制御部28が、結合画像生成部27から供給される等アスペクト比画像を、表示部29に表示させる表示制御処理を開始し、処理は、ステップS36に進む。
ステップS36では、画像フォーマット検出部22が、バッファ23に記憶された入力画像の画像フォーマットが変化したかどうかを判定する。
すなわち、画像フォーマット検出部22は、例えば、バッファ23に記憶された入力画像の画像フォーマットを常時検出しており、ステップS36では、バッファ23に記憶された入力画像の画像フォーマットが変化したかどうかが判定される。
ステップS36において、バッファ23に記憶された入力画像の画像フォーマットが変化していないと判定された場合、処理は、ステップS36に戻る。
また、ステップS36において、バッファ23に記憶された入力画像の画像フォーマットが変化したと判定された場合、ステップS33で開始された付加画像生成処理は終了する。そして、処理は、図10のステップS12にリターンし、その変化後の画像フォーマットを用いて、ステップS12からの処理が繰り返される。
次に、図13のフローチャートを参照して、図12のステップS33で開始される付加画像生成処理について説明する。
ステップS41において、制御部30は、被写体枠を特定する被写体枠パラメータが、リモートコマンダ10から送信されてきたかどうかを判定する。
ステップS41において、被写体枠を特定する被写体枠パラメータが、リモートコマンダ10から送信されてきたと判定された場合、すなわち、ユーザが、被写体枠を指定するように、リモートコマンダ10を操作し、これにより、リモートコマンダ10から、被写体枠を特定する被写体枠パラメータを含む操作信号が送信されてきた場合、制御部30は、リモートコマンダ10からの操作信号を受信し、その操作信号に含まれる被写体枠パラメータを、対象領域設定部25に供給して、処理は、ステップS42に進む。
ステップS42では、対象領域設定部25が、制御部30からの被写体枠パラメータを受信し、内蔵するメモリ25Aに記憶させて、処理は、ステップS43に進む。
ステップS43では、対象領域設定部25が、被写体枠パラメータと、倍率パラメータαとに基づき、対象領域枠を設定する。
すなわち、画像フォーマット検出部22は、バッファ23に記憶された入力画像の画像フォーマットを検出し、その画像フォーマットに含まれる入力画像のアスペクト比と、表示画面のアスペクト比とが異なる場合には、図6及び図7で説明したように、入力画像をサイズ変換して得られる等アスペクト比画像を表示画面に表示したときに生じる不使用領域のサイズとしての横の画素数x1と、縦の画素数y1とを求めて、対象領域設定部25に供給する。
そして、いま、ユーザによって、リモートコマンダ10が操作され、図6等で説明したように、対象領域設定部25が内蔵するメモリ25Aに、倍率パラメータαが既に記憶されているとすると、対象領域設定部25は、その倍率パラメータαと、画像フォーマット検出部22からの不使用領域の横の画素数x1、及び縦の画素数y1とから、式x1=αx2、及び式y1=αy2を満たす対象領域を囲む対象領域枠の横の画素数x2、及び縦の画素数y2を求める。
さらに、対象領域設定部25は、いま、画像変換部24がバッファ23から読み出した入力画像のフレームにおいて、直前のステップS42でメモリ25Aに記憶された被写体枠パラメータによって特定される被写体枠の重心を中心とし、横の画素数がx2で、縦の画素数がy2の長方形状の領域を囲む枠を、対象領域枠に設定する。
なお、ユーザが、倍率パラメータαを指定するように、リモートコマンダ10を操作しておらず、そのため、メモリ25Aに、倍率パラメータαが記憶されていない場合には、倍率パラメータαとしては、例えば、デフォルトの値が使用される。
ステップS43の後、処理は、ステップS44に進み、対象領域設定部25は、直前のステップS43で設定した対象領域枠を特定する対象領域枠パラメータとしての、例えば、対象領域枠の左上と右下の座標等を、メモリ25Aに記憶させて、処理は、ステップS45に進む。
ステップS45では、対象領域設定部25は、画像変換部24がバッファ23から読み出した入力画像のフレームの中から、メモリ25Aに記憶された対象領域枠パラメータによって特定される対象領域枠が囲む領域を、対象領域として抽出し、メモリ25Aに記憶された倍率パラメータαとともに、付加画像生成部26に供給する。
さらに、ステップS45では、付加画像生成部26が、対象領域設定部25から供給された対象領域の横と縦の画素数を、同じく対象領域設定部25から供給された倍率パラメータα倍にするサイズ変換を行い、そのサイズ変換によって得られる付加画像を、結合画像生成部27に供給して、処理は、ステップS41に戻る。
ここで、上述の図12のステップS34では、以上のようにして、付加画像生成部26から結合画像生成部27に供給された付加画像を用いて、結合画像が生成される。
一方、ステップS41において、被写体枠を特定する被写体枠パラメータが、リモートコマンダ10から送信されてきていないと判定された場合、処理は、ステップS46に進み、対象領域設定部25は、メモリ25Aに、対象領域枠パラメータが記憶されているかどうかを判定する。
ステップS46において、メモリ25Aに、対象領域枠パラメータが記憶されていると判定された場合、処理は、ステップS45に進み、上述したように、対象領域設定部25は、メモリ25Aに記憶された対象領域枠パラメータによって特定される対象領域枠が囲む領域を、画像変換部24がバッファ23から読み出した入力画像のフレームから抽出し、対象領域として、メモリ25Aに記憶された倍率パラメータαとともに、付加画像生成部26に供給する。そして、付加画像生成部26は、対象領域設定部25から供給された対象領域の横と縦の画素数を、同じく対象領域設定部25から供給された倍率パラメータα倍にするサイズ変換を行い、そのサイズ変換によって得られる付加画像を、結合画像生成部27に供給する。
また、ステップS46において、メモリ25Aに、対象領域枠パラメータが記憶されていないと判定された場合、すなわち、ユーザが、被写体枠を指定するように、リモートコマンダ10を操作しておらず、このため、対象領域枠の設定に必要な被写体枠パラメータが、メモリ25Aに記憶されていない場合、処理は、ステップS47に進み、付加画像生成部26は、例えば、被写体枠の指定を促すメッセージが表示された画像や、レターボックスでの表示における黒枠の画像等を、付加画像として生成し、結合画像生成部27に供給して、処理は、ステップS41に戻る。
次に、図14は、図2のリモートコマンダ10の構成例を模式的に示す平面図である。
図14では、リモートコマンダ10には、ポインティングデバイスとしてのジョイスティック11、設定開始ボタン12、補正開始ボタン13、及び終了ボタン14等が設けられている。
ジョイスティック11は、移動方向を指定する方向操作と、リモートコマンダ10の筐体の内部の方向に押圧する押圧操作とをすることができるようになっており、被写体枠を指定するときや、被写体枠を補正するときに操作される。
すなわち、設定開始ボタン12が操作されると、表示部29には、被写体枠を指定するためのカーソルが表示されるが、このとき、ジョイスティック11を方向操作すると、表示部29に表示されたカーソルが、ジョイスティック11の方向操作に対応して移動する。
そして、ジョイスティック11を押圧操作すると、そのときのカーソルの位置が、被写体枠の第1の頂点に設定され、さらに、ジョイスティック11を方向操作して、カーソルを移動し、ジョイスティック11を押圧操作すると、そのときのカーソルの位置が、被写体枠の第2の頂点に設定される。そして、第1の頂点と第2の頂点とを結ぶ線を対角線とする長方形を囲む枠が、被写体枠に設定される。
また、補正開始ボタン13が操作されると、表示部29には、既に設定されている被写体枠を表すGUI(Graphical User Interface)(グラフィクス)が表示されるが、このとき、ジョイスティック11を方向操作すると、表示部29にGUIで表示された被写体枠の位置や大きさが、ジョイスティック11の方向操作に対応して変更(補正)される。
そして、ジョイスティック11を押圧操作すると、そのとき表示部29に表示されているGUIによって表される枠が、被写体枠に、新たに設定される。
設定開始ボタン12は、被写体枠を新たに指定するときに操作され、設定開始ボタン12が操作されると、上述したように、被写体枠を指定するためのカーソルが、表示部29に表示される。
補正開始ボタン13は、既に設定されている被写体枠を補正(変更)するときに操作され、補正開始ボタン13が操作されると、上述したように、既に設定されている被写体枠を表すGUIが、表示部29に表示される。
終了ボタン14は、被写体枠の指定や補正を終了するときに操作され、終了ボタン14が操作されると、設定開始ボタン12が操作されることにより表示部29に表示されたカーソルや、補正開始ボタン13が操作されることにより表示部29に表示された被写体枠を表すGUIが消去される。
次に、図15のフローチャートを参照して、リモートコマンダ10が図14に示したように構成される場合の、図12のステップS33で開始される付加画像生成処理について説明する。
ステップS51において、制御部30は、リモートコマンダ10(図14)の設定開始ボタン12が、ユーザによって操作されたかどうかを判定する。
ステップS51において、設定開始ボタン12が操作されたと判定された場合、すなわち、ユーザが、設定開始ボタン12を操作し、その操作に対応する操作信号が、リモートコマンダ10から送信され、制御部30で受信された場合、処理は、ステップS52に進み、表示制御部28は、被写体枠を指定するためのカーソルと、被写体枠の指定を促すメッセージとを、表示部29に表示させ、処理は、ステップS53に進む。
ステップS53では、制御部30は、被写体枠を特定する被写体枠パラメータが、リモートコマンダ10から送信されてきたかどうかを判定する。
ステップS53において、被写体枠を特定する被写体枠パラメータが、リモートコマンダ10から送信されてきていないと判定された場合、処理は、ステップS54をスキップして、ステップS55に進む。
また、ステップS53において、被写体枠を特定する被写体枠パラメータが、リモートコマンダ10から送信されてきたと判定された場合、すなわち、ユーザが、リモートコマンダ10(図14)のジョイスティック11を操作し、ステップS52で表示部29に表示されたカーソルを移動して、被写体枠を指定することにより、リモートコマンダ10から、被写体枠を特定する被写体枠パラメータを含む操作信号が送信されてきた場合、制御部30は、リモートコマンダ10からの操作信号を受信し、その操作信号に含まれる被写体枠パラメータを、対象領域設定部25に供給して、処理は、ステップS54に進む。
ステップS54では、対象領域設定部25が、制御部30からの被写体枠パラメータを受信し、内蔵するメモリ25Aに記憶させて、処理は、ステップS55に進む。
なお、メモリ25Aに、既に、被写体枠パラメータが記憶されている場合には、ステップS54では、制御部30からの被写体枠パラメータが、メモリ25Aの、既に記憶されている被写体枠パラメータに上書きされる。
ステップS55では、制御部30は、リモートコマンダ10(図14)の終了ボタン14が、ユーザによって操作されたかどうかを判定する。
ステップS55において、終了ボタン14が操作されていないと判定された場合、処理は、ステップS53に戻り、以下、同様の処理が繰り返される。
また、ステップS55において、終了ボタン14が操作されたと判定された場合、すなわち、ユーザが、終了ボタン14を操作し、その操作に対応する操作信号が、リモートコマンダ10から送信され、制御部30で受信された場合、表示制御部28が、ステップS52で表示部29に表示したカーソルとメッセージを消去して、処理は、ステップS56に進む。
ステップS56では、対象領域設定部25が、被写体枠パラメータと、倍率パラメータαとに基づき、対象領域枠を設定する。
すなわち、画像フォーマット検出部22は、バッファ23に記憶された入力画像の画像フォーマットを検出し、その画像フォーマットに含まれる入力画像のアスペクト比と、表示画面のアスペクト比とが異なる場合には、図6及び図7で説明したように、入力画像をサイズ変換して得られる等アスペクト比画像を表示画面に表示したときに生じる不使用領域のサイズとしての横の画素数x1と、縦の画素数y1とを求めて、対象領域設定部25に供給する。
そして、図6等で説明したように、対象領域設定部25が内蔵するメモリ25Aに、倍率パラメータαが既に記憶されているとすると、対象領域設定部25は、その倍率パラメータαと、画像フォーマット検出部22からの不使用領域の横の画素数x1、及び縦の画素数y1とから、式x1=αx2、及び式y1=αy2を満たす対象領域を囲む対象領域枠の横の画素数x2、及び縦の画素数y2を求める。
さらに、対象領域設定部25は、いま、画像変換部24がバッファ23から読み出した入力画像のフレームにおいて、直前のステップS54でメモリ25Aに記憶された被写体枠パラメータによって特定される被写体枠の重心を中心とし、横の画素数がx2で、縦の画素数がy2の長方形状の領域を囲む枠を、対象領域枠に設定する。
ステップS56の後、処理は、ステップS57に進み、対象領域設定部25は、直前のステップS56で設定した対象領域枠を特定する対象領域枠パラメータを、メモリ25Aに記憶させて、処理は、ステップS58に進む。
ステップS58では、対象領域設定部25は、メモリ25Aに記憶された対象領域枠パラメータによって特定される対象領域枠が囲む領域を、画像変換部24がバッファ23から読み出した入力画像のフレームの中から抽出し、対象領域として、メモリ25Aに記憶された倍率パラメータαとともに、付加画像生成部26に供給する。
さらに、ステップS58では、付加画像生成部26が、対象領域設定部25から供給された対象領域の横と縦の画素数を、同じく対象領域設定部25から供給された倍率パラメータα倍にするサイズ変換を行い、そのサイズ変換によって得られる付加画像を、結合画像生成部27に供給して、処理は、ステップS59に進む。
ここで、上述の図12のステップS34では、以上のようにして、付加画像生成部26から結合画像生成部27に供給された付加画像を用いて、結合画像が生成される。
ステップS59では、制御部30は、リモートコマンダ10(図14)の補正開始ボタン13が、ユーザによって操作されたかどうかを判定する。
ステップS59において、補正開始ボタン13が操作されていないと判定された場合、処理は、ステップS51に戻る。
また、ステップS59において、補正開始ボタン13が操作されたと判定された場合、すなわち、ユーザが、補正開始ボタン13を操作し、その操作に対応する操作信号が、リモートコマンダ10から送信され、制御部30で受信された場合、処理は、ステップS60に進み、表示制御部28は、メモリ25Aに記憶されている被写体枠パラメータによって特定される被写体枠を表すGUIと、被写体枠の補正を促すメッセージとを、表示部29に表示させ、処理は、ステップS61に進む。
ステップS61では、制御部30は、被写体枠を補正する補正パラメータが、リモートコマンダ10から送信されてきたかどうかを判定する。
ステップS61において、補正パラメータが、リモートコマンダ10から送信されてきていないと判定された場合、処理は、ステップS62をスキップして、ステップS63に進む。
また、ステップS61において、補正パラメータが、リモートコマンダ10から送信されてきたと判定された場合、すなわち、ユーザが、リモートコマンダ10(図14)のジョイスティック11を操作し、ステップS60で表示部29に表示された被写体枠を表すGUIの位置や大きさを変更することにより、リモートコマンダ10から、その変更を表す補正パラメータを含む操作信号が送信されてきた場合、制御部30は、リモートコマンダ10からの操作信号を受信し、その操作信号に含まれる補正パラメータを、対象領域設定部25に供給して、処理は、ステップS62に進む。
ステップS62では、対象領域設定部25が、制御部30からの補正パラメータを受信し、内蔵するメモリ25Aに記憶されている被写体枠パラメータを、制御部30からの補正パラメータにしたがって補正(変更)して、処理は、ステップS63に進む。
ステップS63では、制御部30は、ステップS55と同様に、リモートコマンダ10(図14)の終了ボタン14が、ユーザによって操作されたかどうかを判定する。
ステップS63において、終了ボタン14が操作されていないと判定された場合、処理は、ステップS61に戻り、以下、同様の処理が繰り返される。
また、ステップS63において、終了ボタン14が操作されたと判定された場合、表示制御部28が、ステップS60で表示部29に表示した被写体枠を表すGUIとメッセージを消去して、処理は、ステップS56に戻る。
この場合、ステップS56では、対象領域設定部25において、直前のステップ62で補正された被写体枠パラメータと、倍率パラメータαとに基づき、対象領域枠が設定される。
一方、ステップS51において、設定開始ボタン12が操作されていないと判定された場合、処理は、ステップS64に進み、対象領域設定部25は、メモリ25Aに、対象領域枠パラメータが記憶されているかどうかを判定する。
ステップS64において、メモリ25Aに、対象領域枠パラメータが記憶されていると判定された場合、処理は、ステップS58に進み、上述したように、対象領域設定部25は、メモリ25Aに記憶された対象領域枠パラメータによって特定される対象領域枠が囲む領域を、画像変換部24がバッファ23から読み出した入力画像のフレームの中から抽出し、対象領域として、メモリ25Aに記憶された倍率パラメータαとともに、付加画像生成部26に供給する。そして、付加画像生成部26は、対象領域設定部25から供給された対象領域の横と縦の画素数を、同じく対象領域設定部25から供給された倍率パラメータα倍にするサイズ変換を行い、そのサイズ変換によって得られる付加画像を、結合画像生成部27に供給する。
また、ステップS64において、メモリ25Aに、対象領域枠パラメータが記憶されていないと判定された場合、すなわち、ユーザが、被写体枠を指定するように、リモートコマンダ10を操作しておらず、このため、対象領域枠の設定に必要な被写体枠パラメータが、メモリ25Aに記憶されていない場合、処理は、ステップS65に進み、付加画像生成部26は、例えば、被写体枠の指定を促すメッセージが表示された画像や、レターボックスでの表示における黒枠の画像等を、付加画像として生成し、結合画像生成部27に供給する。そして、処理は、ステップS65からステップS59に進み、以下、上述した処理が行われる。
次に、図16は、本発明を適用した表示システムの他の一実施の形態の構成例を示している。
なお、図中、図2の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。すなわち、図16の表示システムは、対象領域設定部25が、メモリ25Aに加えて、追尾部25Bを有している他は、図2の表示システムと同様に構成されている。
追尾部25Bは、ユーザがリモートコマンダ10を操作することにより指定した被写体枠が囲む入力画像の領域に映る被写体を追尾し、入力画像の各フレームにおいて、その被写体を囲む被写体枠を特定する被写体枠パラメータを出力する。
ここで、図16では、対象領域設定部25は、内蔵するメモリ25Aに記憶される被写体枠パラメータを、追尾部25Bが出力する被写体枠パラメータによって更新する。
そして、対象領域設定部25は、メモリ25Aに記憶された被写体枠パラメータによって特定される被写体枠に基づいて、対象領域枠を設定する。この場合、入力画像の各フレームに対して設定される対象領域枠は、追尾部25Bが追尾する被写体が映っている領域を囲む枠となる。
次に、図17及び図18を参照して、図16の表示システムで生成される付加画像について説明する。
なお、図17は、入力画像が4:3画像であり、表示部29の表示画面が16:9画面である場合に生成される付加画像を示しており、図18は、入力画像が16:9画像であり、表示部29の表示画面が4:3画面である場合に生成される付加画像を示している。
図17及び図18上から1番目は、第nフレーム、第n+1フレーム、及び第n+2フレームの3フレームの入力画像を示しており、図6及び図7上から1番目と同様に、第nフレームから第n+2フレームに亘って、星形の被写体が、左から右に移動している。
図17及び図18上から2番目は、第nないし第n+2フレームの入力画像に設定される被写体枠を示している。
図17及び図18上から2番目においては、第nフレームにおいて、ユーザがリモートコマンダ10を操作することにより、星形の被写体の位置に、その被写体を囲むように、被写体枠が設定されている。
図16の表示処理装置20では、ユーザによるリモートコマンダ10の操作に応じて被写体枠が設定されると、追尾部25Bが、その被写体枠が囲む入力画像の領域に映る被写体を追尾し、入力画像の各フレームについて、その被写体を囲む被写体枠を特定する被写体枠パラメータを出力する。
したがって、被写体枠パラメータによって特定される被写体枠は、図17及び図18上から2番目に示すように、ユーザによるリモートコマンダ10の操作に応じて設定された被写体枠が囲む領域に映っていた被写体を追尾するように移動していく。
一方、対象領域設定部25は、図6等で説明したように、被写体枠の重心を中心として、対象領域枠を設定する。したがって、対象領域枠は、図17及び図18上から3番目に示すように、被写体枠と同様に、被写体を追尾していくように移動していく。
そして、付加画像生成部26では、入力画像のうちの、対象領域枠が囲む領域である対象領域をサイズ変換することにより、付加画像が生成されるから、その付加画像は、図17及び図18上から4番目に結合画像の状態で示すように、移動している被写体を追いかけていくような画像となる。
図16の表示処理装置20では、図2の表示処理装置20と同様に、図10で説明した表示処理が行われる。但し、図16の表示処理装置20では、図12のステップS33で開始される付加画像生成処理が、図2の表示処理装置20とは異なる。
そこで、図19のフローチャートを参照して、図16の表示処理装置20において、図12のステップS33で開始される付加画像生成処理について説明する。
ステップS71において、制御部30は、被写体枠を特定する被写体枠パラメータが、リモートコマンダ10から送信されてきたかどうかを判定する。
ステップS71において、被写体枠を特定する被写体枠パラメータが、リモートコマンダ10から送信されてきたと判定された場合、すなわち、ユーザが、被写体枠を指定するように、リモートコマンダ10を操作し、これにより、リモートコマンダ10から、被写体枠を特定する被写体枠パラメータを含む操作信号が送信されてきた場合、制御部30は、リモートコマンダ10からの操作信号を受信し、その操作信号に含まれる被写体枠パラメータを、対象領域設定部25に供給して、処理は、ステップS72に進む。
ステップS72では、対象領域設定部25が、制御部30からの被写体枠パラメータを受信し、内蔵するメモリ25Aに記憶させて、処理は、ステップS73に進む。
ステップS73では、対象領域設定部25が、直前のステップS72でメモリ25Aに記憶された被写体枠パラメータによって特定される領域を、入力画像から抽出し、追尾部25Bでの追尾に用いる基準画像として、メモリ25Aに記憶させる。
そして、処理は、ステップS73からステップS74に進み、対象領域設定部25が、メモリ25Aに記憶された被写体枠パラメータと、倍率パラメータαとに基づき、図13のステップS43で説明したようにして、対象領域枠を設定して、処理は、ステップS75に進む。
ステップS75では、対象領域設定部25は、直前のステップS74で設定した対象領域枠を特定する対象領域枠パラメータを、メモリ25Aに記憶させて、処理は、ステップS76に進む。
ステップS76では、対象領域設定部25は、メモリ25Aに記憶された対象領域枠パラメータによって特定される対象領域枠が囲む領域を、画像変換部24がバッファ23から読み出した入力画像のフレームの中から抽出し、対象領域として、メモリ25Aに記憶された倍率パラメータαとともに、付加画像生成部26に供給する。
さらに、ステップS76では、付加画像生成部26が、対象領域設定部25から供給された対象領域を、同じく対象領域設定部25から供給された倍率パラメータα倍にするサイズ変換を行い、そのサイズ変換によって得られる付加画像を、結合画像生成部27に供給して、処理は、ステップS71に戻る。
ここで、上述の図12のステップS34では、以上のようにして、付加画像生成部26から結合画像生成部27に供給された付加画像を用いて、結合画像が生成される。
一方、ステップS71において、被写体枠を特定する被写体枠パラメータが、リモートコマンダ10から送信されてきていないと判定された場合、処理は、ステップS77に進み、対象領域設定部25は、メモリ25Aに、対象領域枠パラメータが記憶されているかどうかを判定する。
ステップS77において、メモリ25Aに、対象領域枠パラメータが記憶されていると判定された場合、処理は、ステップS78に進み、追尾部25Bは、メモリ25Aに記憶された基準画像に基づき、直前のステップS72でメモリ25Aに記憶された被写体枠パラメータによって特定される被写体枠が囲む入力画像の領域、つまり、基準画像に映る被写体の追尾を行う。
ここで、基準画像に映る被写体を追尾する方法としては、入力画像の各フレームにおいて、基準画像に最も類似する領域を、ブロックマッチング等によって検出する方法がある。なお、追尾の方法については、例えば、特開2005-165929号公報に記載されている。
ステップS78の後、処理は、ステップS79に進み、対象領域設定部25は、追尾部25Bが追尾を行うことにより出力する、例えば、移動後の被写体を囲む被写体枠を特定する被写体枠パラメータによって、メモリ25Aに記憶されている被写体枠パラメータを更新して、処理は、ステップS74に進む。
ステップS74では、上述したように、対象領域設定部25が、メモリ25Aに記憶された被写体枠パラメータと、倍率パラメータαとに基づき、対象領域枠を設定するが、このとき、メモリ25Aに記憶された被写体枠パラメータは、追尾部25Bの追尾によって、例えば、移動後の被写体を囲む被写体枠を特定する被写体枠パラメータに更新されているから、ステップS74で設定される対象領域枠も、移動後の被写体を囲む枠となる。
一方、ステップS77において、メモリ25Aに、対象領域枠パラメータが記憶されていないと判定された場合、すなわち、ユーザが、被写体枠を指定するように、リモートコマンダ10を操作しておらず、このため、対象領域枠の設定に必要な被写体枠パラメータが、メモリ25Aに記憶されていない場合、処理は、ステップS80に進み、付加画像生成部26は、例えば、被写体枠の指定を促すメッセージが表示された画像や、レターボックスでの表示における黒枠の画像等を、付加画像として生成し、結合画像生成部27に供給して、処理は、ステップS71に戻る。
次に、図20は、リモートコマンダ10の他の構成例を示している。
なお、図中、図14の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
すなわち、図20のリモートコマンダ10は、補正開始ボタン13が設けられていない他は、図14のリモートコマンダ10と同様に構成されている。
次に、図21のフローチャートを参照して、リモートコマンダ10が図20に示したように構成される場合の、図12のステップS33で開始される付加画像生成処理について説明する。
ステップS91ないしS95において、図15のステップS51ないしS55とそれぞれ同様の処理が行われる。
そして、ステップS95において、リモートコマンダ10(図20)の終了ボタン14が操作されたと判定された場合、すなわち、ユーザが、終了ボタン14を操作し、その操作に対応する操作信号が、リモートコマンダ10から送信され、制御部30で受信された場合、処理は、ステップS96に進み、対象領域設定部25が、直前のステップS94でメモリ25Aに記憶された被写体枠パラメータによって特定される領域を、入力画像から抽出し、追尾部25Bでの追尾に用いる基準画像として、メモリ25Aに記憶させる。
そして、処理は、ステップS96からステップS97に進み、対象領域設定部25が、メモリ25Aに記憶された被写体枠パラメータと、倍率パラメータαとに基づき、図13のステップS43で説明したようにして、対象領域枠を設定して、処理は、ステップS98に進む。
ステップS98では、対象領域設定部25は、直前のステップS97で設定した対象領域枠を特定する対象領域枠パラメータを、メモリ25Aに記憶させて、処理は、ステップS99に進む。
ステップS99では、対象領域設定部25は、メモリ25Aに記憶された対象領域枠パラメータによって特定される対象領域枠が囲む領域を、画像変換部24がバッファ23から読み出した入力画像のフレームから抽出し、対象領域として、メモリ25Aに記憶された倍率パラメータαとともに、付加画像生成部26に供給する。
さらに、ステップS99では、付加画像生成部26が、対象領域設定部25から供給された対象領域を、同じく対象領域設定部25から供給された倍率パラメータα倍にするサイズ変換を行い、そのサイズ変換によって得られる付加画像を、結合画像生成部27に供給して、処理は、ステップS91に戻る。
一方、ステップS91において、設定開始ボタン12が操作されていないと判定された場合、処理は、ステップS100に進み、対象領域設定部25は、メモリ25Aに、対象領域枠パラメータが記憶されているかどうかを判定する。
ステップS100において、メモリ25Aに、対象領域枠パラメータが記憶されていると判定された場合、処理は、ステップS101に進み、追尾部25Bは、メモリ25Aに記憶された基準画像に基づき、直前のステップS94でメモリ25Aに記憶された被写体枠パラメータによって特定される被写体枠が囲む入力画像の領域、つまり、基準画像に映る被写体の追尾を行う。
ステップS101の後、処理は、ステップS102に進み、対象領域設定部25は、追尾部25Bが追尾を行うことにより出力する、例えば、移動後の被写体を囲む被写体枠を特定する被写体枠パラメータによって、メモリ25Aに記憶されている被写体枠パラメータを更新して、処理は、ステップS97に進む。
ステップS97では、上述したように、対象領域設定部25が、メモリ25Aに記憶された被写体枠パラメータと、倍率パラメータαとに基づき、対象領域枠を設定するが、このとき、メモリ25Aに記憶された被写体枠パラメータは、追尾部25Bの追尾によって、例えば、移動後の被写体を囲む被写体枠を特定する被写体枠パラメータに更新されているから、ステップS97で設定される対象領域枠も、移動後の被写体を囲む枠となる。
一方、ステップS100において、メモリ25Aに、対象領域枠パラメータが記憶されていないと判定された場合、すなわち、ユーザが、被写体枠を指定するように、リモートコマンダ10を操作しておらず、このため、対象領域枠の設定に必要な被写体枠パラメータが、メモリ25Aに記憶されていない場合、処理は、ステップS103に進み、付加画像生成部26は、例えば、被写体枠の指定を促すメッセージが表示された画像や、レターボックスでの表示における黒枠の画像等を、付加画像として生成し、結合画像生成部27に供給して、処理は、ステップS91に戻る。
なお、上述の場合には、表示処理装置20において、1つの被写体枠を設定するようにしたが、複数の被写体枠を設定することも可能である。
すなわち、図22は、複数の被写体枠としての2つの被写体枠を設定した場合の結合画像の表示例を示している。
図22左側においては、4:3画像の入力画像をサイズ変換して得られる4:3画像の等アスペクト比画像が、16:9画面に表示されている。
さらに、図22左側では、4:3画像の等アスペクト比画像だけを、16:9画面に、いわば左詰で表示したときに不使用領域となる右の部分を上下に分ける形で、2つの付加画像add#11及びadd#12が表示されている。
すなわち、図22左側においては、入力画像に対して、2つの被写体枠obj#11及びobj#12が設定されており、さらに、被写体枠obj#11、又はobj#12に基づいて、それぞれ、対象領域枠R#11、又はR#12が設定されている。
そして、入力画像のうちの、対象領域枠R#11が囲む対象領域をサイズ変換して得られる画像が、付加画像add#11として、等アスペクト比画像のみの表示時に不使用領域となる右の部分の下側に表示されており、対象領域枠R#12が囲む対象領域をサイズ変換して得られる画像が、付加画像add#12として、等アスペクト比画像のみの表示時に不使用領域となる右の部分の上側に表示されている。
さらに、図22左側では、複数の被写体枠の位置関係が、その複数の被写体枠それぞれに対応する付加画像の表示位置に反映されている。すなわち、被写体枠obj#12に比較して下側にある被写体枠obj#11に対応する付加画像add#11が下側に配置され、被写体枠obj#11に比較して上側にある被写体枠obj#12に対応する付加画像add#12が上側に配置されている。したがって、付加画像add#11とadd#12にそれぞれ映っている被写体どうしの、入力画像上の位置関係と、付加画像add#11とadd#12の位置関係とが一致しているので、ユーザは、付加画像add#11とadd#12を見るだけで、入力画像に映っている被写体の状況を、容易に理解することができる。
図22右側でも、図22左側と同様に、複数の被写体枠の位置関係が、その複数の被写体枠それぞれに対応する付加画像の表示位置に反映されている。
すなわち、図22右側においては、図22左側と同様に、4:3画像の入力画像をサイズ変換して得られる4:3画像の等アスペクト比画像が、16:9画面に表示されている。
但し、図22右側では、4:3画像の等アスペクト比画像だけを、16:9画面の中央に表示したときに不使用領域となる左の部分と右の部分に、付加画像add#21とadd#22が、それぞれ表示されている。
すなわち、図22右側では、入力画像に対して、2つの被写体枠obj#21及びobj#22が設定されており、さらに、被写体枠obj#21、又はobj#22に基づいて、それぞれ、対象領域枠R#21、又はR#22が設定されている。
そして、入力画像のうちの、対象領域枠R#21が囲む領域をサイズ変換して得られる画像が、付加画像add#21として、等アスペクト比画像のみの表示時に不使用領域となる左の部分に表示されており、対象領域枠R#22が囲む領域をサイズ変換して得られる画像が、付加画像add#22として、等アスペクト比画像のみの表示時に不使用領域となる右の部分に表示されている。
図22右側でも、複数の被写体枠の位置関係が、その複数の被写体枠それぞれに対応する付加画像の表示位置に反映されているので、すなわち、被写体枠obj#22に比較して左側にある被写体枠obj#21に対応する付加画像add#21が左側に配置され、被写体枠obj#21に比較して右側にある被写体枠obj#22に対応する付加画像add#22が右側に配置されているので、付加画像add#21とadd#22にそれぞれ映っている被写体どうしの、入力画像上の位置関係と、付加画像add#21とadd#22の位置関係とが一致し、ユーザは、付加画像add#21とadd#22を見るだけで、入力画像に映っている被写体の状況を、容易に理解することができる。
なお、4:3画像の入力画像をサイズ変換して得られる4:3画像の等アスペクト比画像を、16:9画面に表示する場合の他、例えば、16:9画像の入力画像をサイズ変換して得られる16:9画像の等アスペクト比画像を、4:3画面に表示する場合も、図22に示したように、複数の被写体枠を設定し、さらに、複数の被写体枠それぞれに対応する付加画像を、その複数の被写体枠の位置関係を反映した位置に表示することが可能である。
また、上述の場合には、表示処理装置20において、長方形状の不使用領域の全体に、長方形状の付加画像を表示するようにしたが、付加画像は、不使用領域の一部に表示しても良いし、さらに、不使用領域や付加画像は、長方形状に限定されるものではない。
すなわち、図23は、付加画像の表示例を示している。
付加画像は、例えば、図23上から1番目に示すように、4:3画像の等アスペクト比画像だけを、16:9画面に左詰で表示したときに不使用領域となる右の部分の全体ではなく、一部に表示することができる。
また、付加画像は、入力画像のアスペクト比と、表示画面のアスペクト比とが異なる場合の他、一致する場合であっても、図23上から2番目や3番目に示すように表示することができる。
すなわち、例えば、入力画像のアスペクト比と、表示画面のアスペクト比とが、いずれも16:9で一致する場合においては、図23上から2番目に示すように、アスペクト比が16:9の表示画面である16:9画面の画面サイズよりも小さい画像サイズの16:9画像の等アスペクト比画像を、上の部分と右の部分に不使用領域が生じるように表示し、その上の部分と右の部分に生じる不使用領域の全体又は一部に、付加画像を表示することができる。
また、例えば、入力画像のアスペクト比と、表示画面のアスペクト比とが、いずれも16:9で一致する場合においては、図23上から3番目に示すように、アスペクト比が16:9の表示画面である16:9画面の画面サイズよりも小さい画像サイズの16:9画像の等アスペクト比画像を、上の部分、下の部分、及び右の部分に不使用領域が生じるように表示し、その上の部分、下の部分、及び右の部分に生じる不使用領域の全体又は一部に、付加画像を表示することができる。
以上のように、表示処理装置20では、入力画像を、横又は縦のサイズが表示部29の表示画面の横又は縦のサイズと一致し、かつ、表示画面の画面サイズ以下の画像サイズの画像であって、入力画像の横及び縦のサイズを同一倍した画像である等アスペクト比画像に変換し、等アスペクト比画像を、その等アスペクト比画像のアスペクト比を変えずに、表示部29に表示したときに、表示部29の表示画面において、等アスペクト比画像の表示に使用されない不使用領域のサイズ内の画像サイズの画像である付加画像を、入力画像から生成する。さらに、表示処理装置20では、各フレーム又はフィールドの入力画像を変換して得られる等アスペクト比画像と、そのフレーム又はフィールドの入力画像から生成される付加画像とが重ならないように結合された結合画像を生成し、表示部29に表示させる。
したがって、入力画像に映る被写体を変形させずに表示を行うことができるとともに、画像が表示される表示画面を有効に利用することができる。
さらに、入力画像、ひいては、表示部29に表示される等アスペクト比画像の一部としての対象領域を拡大した付加画像が、その等アスペクト比画像と同時に表示されるので、等アスペクト比画像の一部を覗いているかのような感覚をユーザに与える、いわば覗き見効果を奏することができる。
また、表示処理装置20において、不使用領域のサイズと同一の画像サイズの付加画像を生成する場合には、表示部29の表示画面の全体を、有効に利用することができる。
さらに、表示処理装置20において、ユーザの操作に応じて設定された被写体枠に映っている被写体を追尾し、その被写体が映っている領域を、対象領域に設定する場合には、ユーザがリモートコマンダ10を操作して、被写体枠を指定し直さなくても、付加画像として、移動している被写体が映っている画像を表示し続けることができる。
次に、画像変換部24(図2、図16)が行うサイズ変換は、画像サイズとしての、例えば、画素数を変換する画素数変換であるが、この画素数変換は、補間処理や間引き処理によって行うことができる他、クラス分類適応処理によって行うことができる。以下、図24ないし図34を参照して、クラス分類適応処理について説明する。
なお、ここでは、第1の画像データ(画像信号)を第2の画像データ(画像信号)に変換する画像変換処理を例に、クラス分類適応処理について説明する。
第1の画像データを第2の画像データに変換する画像変換処理は、その第1と第2の画像データの定義によって様々な信号処理となる。
即ち、例えば、第1の画像データを低空間解像度の画像データとするとともに、第2の画像データを高空間解像度の画像データとすれば、画像変換処理は、空間解像度を向上させる空間解像度創造(向上)処理ということができる。
また、例えば、第1の画像データを低S/N(Siginal/Noise)の画像データとするとともに、第2の画像データを高S/Nの画像データとすれば、画像変換処理は、ノイズを除去するノイズ除去処理ということができる。
さらに、例えば、第1の画像データを所定の画素数(画像サイズ)の画像データとするとともに、第2の画像データを、第1の画像データの画素数を多くまたは少なくした画像データとすれば、画像変換処理は、画像のリサイズ(拡大または縮小)を行うリサイズ処理(サイズ変換)ということができる。
また、例えば、第1の画像データを低時間解像度の画像データとするとともに、第2の画像データを高時間解像度の画像データとすれば、画像変換処理は、時間解像度を向上させる時間解像度創造(向上)処理ということができる。
さらに、例えば、第1の画像データを、MPEG(Moving Picture Experts Group)符号化などのブロック単位で符号化された画像データを復号することによって得られる復号画像データとするとともに、第2の画像データを、符号化前の画像データとすれば、画像変換処理は、MPEG符号化および復号によって生じるブロック歪み等の各種の歪みを除去する歪み除去処理ということができる。
なお、空間解像度創造処理において、低空間解像度の画像データである第1の画像データを、高空間解像度の画像データである第2の画像データに変換するにあたっては、第2の画像データを、第1の画像データと同一の画素数の画像データとすることもできるし、第1の画像データよりも画素数が多い画像データとすることもできる。第2の画像データを、第1の画像データよりも画素数が多い画像データとする場合、空間解像度創造処理は、空間解像度を向上させる処理であるとともに、画像サイズ(画素数)を拡大するリサイズ処理でもある。
以上のように、画像変換処理によれば、第1および第2の画像データをどのように定義するかによって、様々な信号処理を実現することができる。
以上のような画像変換処理としてのクラス分類適応処理では、第2の画像データのうちの注目している注目画素(の画素値)を、所定の一定の規則に従って複数のクラスのうちのいずれかのクラスにクラス分類することにより得られるクラスのタップ係数と、注目画素に対して選択される第1の画像データの画素(の画素値)とを用いた演算により、注目画素(の画素値)が求められる。
すなわち、図24は、クラス分類適応処理による画像変換処理を行う画像変換装置101の構成例を示している。
図24において、画像変換装置101では、そこに供給される画像データが、第1の画像データとして、タップ選択部112及び113に供給される。
注目画素選択部111は、第2の画像データを構成する画素を、順次、注目画素とし、その注目画素を表す情報を、必要なブロックに供給する。
タップ選択部112は、注目画素(の画素値)を予測するのに用いる第1の画像データを構成する画素(の画素値)の幾つかを、予測タップとして選択する。
具体的には、タップ選択部112は、注目画素の時空間の位置から空間的または時間的に近い位置にある第1の画像データの複数の画素を、予測タップとして選択する。
タップ選択部113は、注目画素を、一定の規則に従って、幾つかのクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いる第1の画像データを構成する画素の幾つかを、クラスタップとして選択する。すなわち、タップ選択部113は、タップ選択部112が予測タップを選択するのと同様にして、クラスタップを選択する。
なお、予測タップとクラスタップは、同一のタップ構造(注目画素に対する位置関係)を有するものであっても良いし、異なるタップ構造を有するものであっても良い。
タップ選択部112で得られた予測タップは、予測演算部116に供給され、タップ選択部113で得られたクラスタップは、クラス分類部114に供給される。
クラス分類部114は、タップ選択部113からのクラスタップに基づき、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを、係数出力部115に供給する。
ここで、クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。
ADRCを用いる方法では、クラスタップを構成する画素(の画素値)が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素のクラスが決定される。
なお、KビットADRCにおいては、例えば、クラスタップを構成する画素の画素値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する各画素の画素値がKビットに再量子化される。すなわち、クラスタップを構成する各画素の画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(再量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各画素の画素値を、所定の順番で並べたビット列が、ADRCコードとして出力される。従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最大値MAXと最小値MINとの平均値で除算され(小数点以下切り捨て)、これにより、各画素の画素値が1ビットとされる(2値化される)。そして、その1ビットの画素値を所定の順番で並べたビット列が、ADRCコードとして出力される。
なお、クラス分類部114には、例えば、クラスタップを構成する画素の画素値のレベル分布のパターンを、そのままクラスコードとして出力させることも可能である。しかしながら、この場合、クラスタップが、N個の画素の画素値で構成され、各画素の画素値に、Kビットが割り当てられているとすると、クラス分類部114が出力するクラスコードの場合の数は、(2NK通りとなり、画素の画素値のビット数Kに指数的に比例した膨大な数となる。
従って、クラス分類部114においては、クラスタップの情報量を、上述のADRC処理や、あるいはベクトル量子化等によって圧縮することにより、クラス分類を行うのが好ましい。
係数出力部115は、後述する学習によって求められたクラスごとのタップ係数を記憶し、さらに、その記憶したタップ係数のうちの、クラス分類部114から供給されるクラスコードに対応するアドレスに記憶されているタップ係数(クラス分類部114から供給されるクラスコードが表すクラスのタップ係数)を出力する。このタップ係数は、予測演算部116に供給される。
ここで、タップ係数とは、ディジタルフィルタにおける、いわゆるタップにおいて入力データと乗算される係数に相当するものである。
予測演算部116は、タップ選択部112が出力する予測タップと、係数出力部115が出力するタップ係数とを取得(受信)し、その予測タップとタップ係数とを用いて、注目画素の真値の予測値を求める所定の予測演算を行う。これにより、予測演算部116は、注目画素の画素値(の予測値)、すなわち、第2の画像データを構成する画素の画素値を求めて出力する。
次に、図25のフローチャートを参照して、図24の画像変換装置101による画像変換処理について説明する。
ステップS111において、注目画素選択部111は、画像変換装置101に入力される第1の画像データに対する第2の画像データを構成する画素のうち、まだ、注目画素とされていないものの1つを、注目画素として選択し、ステップS112に進む。すなわち、注目画素選択部111は、例えば、第2の画像データを構成する画素のうち、ラスタスキャン順で、まだ、注目画素とされていないものが、注目画素として選択される。
ステップS112において、タップ選択部112と113が、そこに供給される第1の画像データから、注目画素についての予測タップとクラスタップとするものを、それぞれ選択する。そして、予測タップは、タップ選択部112から予測演算部116に供給され、クラスタップは、タップ選択部113からクラス分類部114に供給される。
クラス分類部114は、タップ選択部113から、注目画素についてのクラスタップを受信し、ステップS113において、そのクラスタップに基づき、注目画素をクラス分類する。さらに、クラス分類部114は、そのクラス分類の結果得られる注目画素のクラスを表すクラスコードを、係数出力部115に出力し、ステップS114に進む。
ステップS114では、係数出力部115が、クラス分類部114から供給されるクラスコードに対応するアドレスに記憶されているタップ係数を取得して(読み出して)出力する。さらに、ステップS114では、予測演算部116が、係数出力部115が出力するタップ係数を取得し、ステップS115に進む。
ステップS115では、予測演算部116が、タップ選択部112が出力する予測タップと、係数出力部115から取得したタップ係数とを用いて、所定の予測演算を行う。これにより、予測演算部116は、注目画素の画素値を求めて出力し、ステップS116に進む。
ステップS116では、注目画素選択部111が、まだ、注目画素としていない第2の画像データがあるかどうかを判定する。ステップS116において、まだ、注目画素としていない第2の画像データがあると判定された場合、ステップS111に戻り、以下、同様の処理が繰り返される。
また、ステップS116において、まだ、注目画素とされていない第2の画像データがないと判定された場合、処理を終了する。
次に、図24の予測演算部116における予測演算と、係数出力部115に記憶されたタップ係数の学習について説明する。
いま、例えば、高画質の画像データ(高画質画像データ)を第2の画像データとするとともに、その高画質画像データをLPF(Low Pass Filter)によってフィルタリングする等してその画質(解像度)を低下させた低画質の画像データ(低画質画像データ)を第1の画像データとして、低画質画像データから予測タップを選択し、その予測タップとタップ係数を用いて、高画質画像データの画素(高画質画素)の画素値を、所定の予測演算によって求める(予測する)ことを考える。
所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質画素の画素値yは、次の線形1次式によって求められることになる。
Figure 0005263565
・・・(1)
但し、式(1)において、xnは、高画質画素yについての予測タップを構成する、n番目の低画質画像データの画素(以下、適宜、低画質画素という)の画素値を表し、wnは、n番目の低画質画素(の画素値)と乗算されるn番目のタップ係数を表す。なお、式(1)では、予測タップが、N個の低画質画素x1,x2,・・・,xNで構成されるものとしてある。
ここで、高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。
いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk’と表すと、その予測誤差ekは、次式で表される。
Figure 0005263565
・・・(2)
いま、式(2)の予測値yk’は、式(1)にしたがって求められるため、式(2)のyk’を、式(1)にしたがって置き換えると、次式が得られる。
Figure 0005263565
・・・(3)
但し、式(3)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。
式(3)(または式(2))の予測誤差ekを0とするタップ係数wnが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのようなタップ係数wnを求めることは、一般には困難である。
そこで、タップ係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。
Figure 0005263565
・・・(4)
但し、式(4)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。
式(4)の自乗誤差の総和Eの最小値(極小値)は、式(5)に示すように、総和Eをタップ係数wnで偏微分したものを0とするwnによって与えられる。
Figure 0005263565
・・・(5)
そこで、上述の式(3)をタップ係数wnで偏微分すると、次式が得られる。
Figure 0005263565
・・・(6)
式(5)と(6)から、次式が得られる。
Figure 0005263565
・・・(7)
式(7)のekに、式(3)を代入することにより、式(7)は、式(8)に示す正規方程式で表すことができる。
Figure 0005263565
・・・(8)
式(8)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、タップ係数wnについて解くことができる。
式(8)の正規方程式を、クラスごとにたてて解くことにより、最適なタップ係数(ここでは、自乗誤差の総和Eを最小にするタップ係数)wnを、クラスごとに求めることができる。
次に、図26は、式(8)の正規方程式をたてて解くことによりタップ係数wnを求める学習を行う学習装置121の構成例を示している。
図26において、学習装置121の学習用画像記憶部131は、タップ係数wnの学習に用いられる学習用画像データを記憶している。ここで、学習用画像データとしては、例えば、解像度の高い高画質画像データを用いることができる。
教師データ生成部132は、学習用画像記憶部131から学習用画像データを読み出す。さらに、教師データ生成部132は、学習用画像データから、タップ係数の学習の教師(真値)、すなわち、式(1)による予測演算としての写像の写像先の画素値となる教師データを生成し、教師データ記憶部133に供給する。ここでは、教師データ生成部132は、例えば、学習用画像データとしての高画質画像データを、そのまま教師データとして、教師データ記憶部133に供給する。
教師データ記憶部133は、教師データ生成部132から供給される教師データとしての高画質画像データを記憶する。教師データは、第2の画像データに相当する。
生徒データ生成部134は、学習用画像記憶部131から学習用画像データを読み出す。さらに、生徒データ生成部134は、学習用画像データから、タップ係数の学習の生徒、すなわち、式(1)による予測演算としての写像による変換対象の画素値となる生徒データを生成し、生徒データ記憶部135に供給する。ここでは、生徒データ生成部134は、例えば、学習用画像データとしての高画質画像データをフィルタリングすることにより、その解像度を低下させることで、低画質画像データを生成し、この低画質画像データを、生徒データとして、生徒データ記憶部135に供給する。
生徒データ記憶部135は、生徒データ生成部134から供給される生徒データを記憶する。生徒データは、第1の画像データに相当する。
学習部136は、教師データ記憶部133に記憶された教師データとしての高画質画像データを構成する画素を、順次、注目画素とし、その注目画素について、生徒データ記憶部135に記憶された生徒データとしての低画質画像データを構成する低画質画素のうちの、図24のタップ選択部112が選択するのと同一のタップ構造の低画質画素を、予測タップとして選択する。さらに、学習部136は、教師データを構成する各画素と、その画素が注目画素とされたときに選択された予測タップとを用い、クラスごとに、式(8)の正規方程式をたてて解くことにより、クラスごとのタップ係数を求める。
すなわち、図27は、図26の学習部136の構成例を示している。
注目画素選択部141は、教師データ記憶部133に記憶されている教師データを構成する画素を、順次、注目画素として選択し、その注目画素を表す情報を、必要なブロックに供給する。
タップ選択部142は、注目画素について、生徒データ記憶部135に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図24のタップ選択部112が選択するの同一の画素を選択し、これにより、タップ選択部112で得られるのと同一のタップ構造の予測タップを得て、足し込み部145に供給する。
タップ選択部143は、注目画素について、生徒データ記憶部135に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図24のタップ選択部113が選択するのと同一の画素を選択し、これにより、タップ選択部113で得られるのと同一のタップ構造のクラスタップを得て、クラス分類部144に供給する。
クラス分類部144は、タップ選択部143が出力するクラスタップに基づき、図24のクラス分類部114と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部145に出力する。
足し込み部145は、教師データ記憶部133から、注目画素となっている教師データ(画素)を読み出し、その注目画素と、タップ選択部142から供給される注目画素についての予測タップを構成する生徒データ(画素)とを対象とした足し込みを、クラス分類部144から供給されるクラスコードごとに行う。
すなわち、足し込み部145には、教師データ記憶部133に記憶された教師データyk、タップ選択部142が出力する予測タップxn,k、クラス分類部144が出力するクラスコードが供給される。
そして、足し込み部145は、クラス分類部144から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xn,kを用い、式(8)の左辺の行列における生徒データどうしの乗算(xn,kn',k)と、サメーション(Σ)に相当する演算を行う。
さらに、足し込み部145は、やはり、クラス分類部144から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xn,kと教師データykを用い、式(8)の右辺のベクトルにおける生徒データxn,kおよび教師データykの乗算(xn,kk)と、サメーション(Σ)に相当する演算を行う。
すなわち、足し込み部145は、前回、注目画素とされた教師データについて求められた式(8)における左辺の行列のコンポーネント(Σxn,kn',k)と、右辺のベクトルのコンポーネント(Σxn,kk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kn',k)またはベクトルのコンポーネント(Σxn,kk)に対して、新たに注目画素とされた教師データについて、その教師データyk+1および生徒データxn,k+1を用いて計算される、対応するコンポーネントxn,k+1n',k+1またはxn,k+1k+1を足し込む(式(8)のサメーションで表される加算を行う)。
そして、足し込み部145は、教師データ記憶部133(図26)に記憶された教師データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に示した正規方程式をたてると、その正規方程式を、タップ係数算出部146に供給する。
タップ係数算出部146は、足し込み部145から供給される各クラスについての正規方程式を解くことにより、各クラスについて、最適なタップ係数wnを求めて出力する。
図24の画像変換装置101における係数出力部115には、以上のようにして求められたクラスごとのタップ係数wnが記憶されている。
ここで、第1の画像データに対応する生徒データとする画像データと、第2の画像データに対応する教師データとする画像データの選択の仕方によって、タップ係数としては、上述したように、各種の画像変換処理を行うものを得ることができる。
すなわち、上述のように、高画質画像データを、第2の画像データに対応する教師データとするとともに、その高画質画像データの空間解像度を劣化させた低画質画像データを、第1の画像データに対応する生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図28上から1番目に示すように、低画質画像データ(SD(Standard Definition)画像)である第1の画像データを、その空間解像度を向上させた高画質画像データ(HD(High Definition)画像データ)である第2の画像データに変換する空間解像度創造処理としての画像変換処理を行うものを得ることができる。
なお、この場合、第1の画像データ(生徒データ)は、第2の画像データ(教師データ)と画素数が同一であっても良いし、少なくても良い。
また、例えば、高画質画像データを教師データとするとともに、その教師データとしての高画質画像データに対して、ノイズを重畳した画像データを生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図28上から2番目に示すように、低S/Nの画像データである第1の画像データを、そこに含まれるノイズを除去(低減)した高S/Nの画像データである第2の画像データに変換するノイズ除去処理としての画像変換処理を行うものを得ることができる。
さらに、例えば、ある画像データを教師データとするとともに、その教師データとしての画像データの画素数を間引いた画像データを生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図28上から3番目に示すように、画像データの一部である第1の画像データを、その第1の画像データを拡大した拡大画像データである第2の画像データに変換する拡大処理(リサイズ処理)としての画像変換処理を行うものを得ることができる。
なお、拡大処理を行うタップ係数は、高画質画像データを教師データとするとともに、その高画質画像データの空間解像度を、画素数を間引くことにより劣化させた低画質画像データを生徒データとして、タップ係数の学習を行うことによっても得ることができる。
また、例えば、高フレームレートの画像データを教師データとするとともに、その教師データとしての高フレームレートの画像データのフレームを間引いた画像データを生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図28上から4番目(1番下)に示すように、所定のフレームレートの第1の画像データを、高フレームレートの第2の画像データに変換する時間解像度創造処理としての画像変換処理を行うものを得ることができる。
次に、図29のフローチャートを参照して、図26の学習装置121の処理(学習処理)について、説明する。
まず最初に、ステップS121において、教師データ生成部132と生徒データ生成部134が、学習用画像記憶部131に記憶された学習用画像データから、教師データと生徒データを生成し、教師データ記憶部133と生徒データ生成部134にそれぞれ供給して記憶させる。
なお、教師データ生成部132と生徒データ生成部134において、それぞれ、どのような生徒データと教師データを生成するかは、上述したような種類の画像変換処理のうちのいずれの処理用のタップ係数の学習を行うかによって異なる。
その後、ステップS122に進み、学習部136(図27)において、注目画素選択部141は、教師データ記憶部133に記憶された教師データのうち、まだ、注目画素としていないものを、注目画素として選択し、ステップS123に進む。ステップS123では、タップ選択部142が、注目画素について、生徒データ記憶部135に記憶された生徒データから予測タップとする生徒データとしての画素を選択し、足し込み部145に供給するとともに、タップ選択部143が、やはり、注目画素について、生徒データ記憶部135に記憶された生徒データからクラスタップとする生徒データを選択し、クラス分類部144に供給する。
そして、ステップS124に進み、クラス分類部144は、注目画素についてのクラスタップに基づき、注目画素のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部145に出力して、ステップS125に進む。
ステップS125では、足し込み部145は、教師データ記憶部133から、注目画素を読み出し、その注目画素と、タップ選択部142から供給される注目画素について選択された予測タップを構成する生徒データとを対象とした式(8)の足し込みを、クラス分類部144から供給されるクラスコードごとに行い、ステップS126に進む。
ステップS126では、注目画素選択部141が、教師データ記憶部133に、まだ、注目画素としていない教師データが記憶されているかどうかを判定する。ステップS126において、注目画素としていない教師データが、まだ、教師データ記憶部133に記憶されていると判定された場合、ステップS122に戻り、以下、同様の処理が繰り返される。
また、ステップS126において、注目画素としていない教師データが、教師データ記憶部133に記憶されていないと判定された場合、足し込み部145は、いままでのステップS122乃至S126の処理によって得られたクラスごとの式(8)における左辺の行列と、右辺のベクトルを、タップ係数算出部146に供給し、ステップS127に進む。
ステップS127では、タップ係数算出部146は、足し込み部145から供給されるクラスごとの式(8)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、各クラスごとに、タップ係数wnを求めて出力し、処理を終了する。
なお、学習用画像データの数が十分でないこと等に起因して、タップ係数を求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、タップ係数算出部146は、例えば、デフォルトのタップ係数を出力するようになっている。
次に、図30は、クラス分類適応処理による画像変換処理を行う他の画像変換装置151の構成例を示している。
なお、図30の画像変換装置151において、図24における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。すなわち、画像変換装置151は、係数出力部115に代えて、係数出力部155が設けられている他は、図24の画像変換装置101と同様に構成されている。
係数出力部155には、クラス分類部114からクラス(クラスコード)が供給される他、例えば、ユーザの操作その他に応じて外部から入力されるパラメータzが供給されるようになっている。係数出力部155は、後述するようにして、パラメータzに対応するクラスごとのタップ係数を生成し、そのクラスごとのタップ係数のうちの、クラス分類部114からのクラスのタップ係数を、予測演算部116に出力する。
図31は、図30の係数出力部155の構成例を示している。
係数生成部161は、係数種メモリ162に記憶されている係数種データと、パラメータメモリ163に記憶されたパラメータzとに基づいて、クラスごとのタップ係数を生成し、係数メモリ164に供給して上書きする形で記憶させる。
係数種メモリ162は、後述する係数種データの学習によって得られるクラスごとの係数種データを記憶している。ここで、係数種データは、タップ係数を生成する、いわば種になるデータである。
パラメータメモリ163は、ユーザの操作等に応じて外部から入力されるパラメータzを上書きする形で記憶する。
係数メモリ164は、係数生成部161から供給されるクラスごとのタップ係数(パラメータzに対応するクラスごとのタップ係数)を記憶する。そして、係数メモリ164は、クラス分類部114(図30)から供給されるクラスのタップ係数を読み出し、予測演算部116(図30)に出力する。
図30の画像変換装置151では、外部から係数出力部155に対して、パラメータzが入力されると、係数出力部155(図31)のパラメータメモリ163において、そのパラメータzが、上書きする形で記憶される。
パラメータメモリ163にパラメータzが記憶されると(パラメータメモリ163の記憶内容が更新されると)、係数生成部161は、係数種メモリ162からクラスごとの係数種データを読み出すとともに、パラメータメモリ163からパラメータzを読み出し、その係数種データとパラメータzに基づいて、クラスごとのタップ係数を求める。そして、係数生成部161は、そのクラスごとのタップ係数を、係数メモリ164に供給し、上書きする形で記憶させる。
画像変換装置151では、タップ係数を記憶しており、そのタップ係数を出力する係数出力部115に代えて設けられている係数出力部155において、パラメータzに対応するタップ係数を生成して出力することを除いて、図24の画像変換装置101が行う図25のフローチャートにしたがった処理と同様の処理が行われる。
次に、図30の予測演算部116における予測演算、並びに図31の係数生成部161におけるタップ係数の生成および係数種メモリ162に記憶させる係数種データの学習について説明する。
図24の実施の形態における場合のように、高画質の画像データ(高画質画像データ)を第2の画像データとするとともに、その高画質画像データの空間解像度を低下させた低画質の画像データ(低画質画像データ)を第1の画像データとして、低画質画像データから予測タップを選択し、その予測タップとタップ係数を用いて、高画質画像データの画素である高画質画素の画素値を、例えば、上述の式(1)の線形1次予測演算によって求める(予測する)ことを考える。
ここで、高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。
図31の実施の形態では、係数生成部161において、タップ係数wnが、係数種メモリ162に記憶された係数種データと、パラメータメモリ163に記憶されたパラメータzとから生成されるが、この係数生成部161におけるタップ係数wnの生成が、例えば、係数種データとパラメータzを用いた次式によって行われることとする。
Figure 0005263565
・・・(9)
但し、式(9)において、βm,nは、n番目のタップ係数wnを求めるのに用いられるm番目の係数種データを表す。なお、式(9)では、タップ係数wnが、M個の係数種データβ1,n,β2,n,・・・,βM,nを用いて求められるようになっている。
ここで、係数種データβm,nとパラメータzから、タップ係数wnを求める式は、式(9)に限定されるものではない。
いま、式(9)におけるパラメータzによって決まる値zm-1を、新たな変数tmを導入して、次式で定義する。
Figure 0005263565
・・・(10)
式(10)を、式(9)に代入することにより、次式が得られる。
Figure 0005263565
・・・(11)
式(11)によれば、タップ係数wnは、係数種データβm,nと変数tmとの線形1次式によって求められることになる。
ところで、いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk’と表すと、その予測誤差ekは、次式で表される。
Figure 0005263565
・・・(12)
いま、式(12)の予測値yk’は、式(1)にしたがって求められるため、式(12)のyk’を、式(1)にしたがって置き換えると、次式が得られる。
Figure 0005263565
・・・(13)
但し、式(13)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。
式(13)のwnに、式(11)を代入することにより、次式が得られる。
Figure 0005263565
・・・(14)
式(14)の予測誤差ekを0とする係数種データβm,nが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのような係数種データβm,nを求めることは、一般には困難である。
そこで、係数種データβm,nが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適な係数種データβm,nは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。
Figure 0005263565
・・・(15)
但し、式(15)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。
式(15)の自乗誤差の総和Eの最小値(極小値)は、式(16)に示すように、総和Eを係数種データβm,nで偏微分したものを0とするβm,nによって与えられる。
Figure 0005263565
・・・(16)
式(13)を、式(16)に代入することにより、次式が得られる。
Figure 0005263565
・・・(17)
いま、Xi,p,j,qとYi,pを、式(18)と(19)に示すように定義する。
Figure 0005263565
・・・(18)
Figure 0005263565
・・・(19)
この場合、式(17)は、Xi,p,j,qとYi,pを用いた式(20)に示す正規方程式で表すことができる。
Figure 0005263565
・・・(20)
式(20)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種データβm,nについて解くことができる。
図30の画像変換装置151においては、多数の高画質画素y1,y2,・・・,yKを学習の教師となる教師データとするとともに、各高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kを学習の生徒となる生徒データとして、クラスごとに式(20)の正規方程式をたてて解く学習を行うことにより求められたクラスごとの係数種データβm,nが、係数出力部155(図31)の係数種メモリ162に記憶されており、係数生成部161では、その係数種データβm,nと、パラメータメモリ163に記憶されたパラメータzから、式(9)にしたがって、クラスごとのタップ係数wnが生成される。そして、予測演算部116において、そのタップ係数wnと、高画質画素としての注目画素についての予測タップを構成する低画質画素(第1の画像データの画素)xnを用いて、式(1)が計算されることにより、高画質画素としての注目画素の画素値(に近い予測値)が求められる。
次に、図32は、式(20)の正規方程式をクラスごとにたてて解くことにより、クラスごとの係数種データβm,nを求める学習を行う学習装置171の構成例を示している。
なお、図中、図26の学習装置121における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。すなわち、学習装置171は、生徒データ生成部134と学習部136に代えて、生徒データ生成部174と学習部176がそれぞれ設けられているとともに、パラメータ生成部181が新たに設けられている他は、図26の学習装置121と同様に構成されている。
生徒データ生成部174は、図26の生徒データ生成部134と同様に、学習用画像データから生徒データを生成し、生徒データ記憶部135に供給して記憶させる。
但し、生徒データ生成部174には、学習用画像データの他、図31のパラメータメモリ163に供給されるパラメータzが取り得る範囲の幾つかの値が、パラメータ生成部181から供給されるようになっている。すなわち、いま、パラメータzが取り得る値が0乃至Zの範囲の実数であるとすると、生徒データ生成部174には、例えば、z=0,1,2,・・・,Zが、パラメータ生成部181から供給されるようになっている。
生徒データ生成部174は、学習用画像データとしての高画質画像データを、例えば、そこに供給されるパラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより、生徒データとしての低画質画像データを生成する。
従って、生徒データ生成部174では、学習用画像データとしての高画質画像データについて、Z+1種類の、空間解像度の異なる生徒データとしての低画質画像データが生成される。
なお、ここでは、例えば、パラメータzの値が大きくなるほど、カットオフ周波数の高いLPFを用いて、高画質画像データをフィルタリングし、生徒データとしての低画質画像データを生成するものとする。従って、ここでは、値の大きいパラメータzに対応する低画質画像データほど、空間解像度が高い。
また、本実施の形態では、説明を簡単にするために、生徒データ生成部174において、高画質画像データの水平方向および垂直方向の両方向の空間解像度を、パラメータzに対応する分だけ低下させた低画質画像データを生成するものとする。
学習部176は、教師データ記憶部133に記憶された教師データ、生徒データ記憶部135に記憶された生徒データ、およびパラメータ生成部181から供給されるパラメータzを用いて、クラスごとの係数種データを求めて出力する。
パラメータ生成部181は、パラメータzが取り得る範囲の幾つかの値としての、例えば、上述したようなz=0,1,2,・・・,Zを生成し、生徒データ生成部174と学習部176に供給する。
次に、図33は、図32の学習部176の構成例を示している。なお、図中、図27の学習部136における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
タップ選択部192は、注目画素について、生徒データ記憶部135に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図30のタップ選択部112が選択するのと同一のタップ構造の予測タップを選択し、足し込み部195に供給する。
タップ選択部193は、注目画素について、生徒データ記憶部135に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図30のタップ選択部113が選択するのと同一のタップ構造のクラスタップを選択し、クラス分類部144に供給する。
但し、図33では、タップ選択部192と193に、図32のパラメータ生成部181が生成するパラメータzが供給されるようになっており、タップ選択部192と193は、パラメータ生成部181から供給されるパラメータzに対応して生成された生徒データ(ここでは、パラメータzに対応するカットオフ周波数のLPFを用いて生成された生徒データとしての低画質画像データ)から、予測タップとクラスタップをそれぞれ選択する。
足し込み部195は、図32の教師データ記憶部133から、注目画素を読み出し、その注目画素、タップ選択部192から供給される注目画素について構成された予測タップを構成する生徒データ、およびその生徒データを生成したときのパラメータzを対象とした足し込みを、クラス分類部144から供給されるクラスごとに行う。
すなわち、足し込み部195には、教師データ記憶部133に記憶された注目画素としての教師データyk、タップ選択部192が出力する注目画素についての予測タップxi,k(xj,k)、およびクラス分類部144が出力する注目画素のクラスが供給されるとともに、注目画素についての予測タップを構成する生徒データを生成したときのパラメータzが、パラメータ生成部181から供給される。
そして、足し込み部195は、クラス分類部144から供給されるクラスごとに、予測タップ(生徒データ)xi,k(xj,k)とパラメータzを用い、式(20)の左辺の行列における、式(18)で定義されるコンポーネントXi,p,j,qを求めるための生徒データおよびパラメータzの乗算(xi,kpj,kq)と、サメーション(Σ)に相当する演算を行う。なお、式(18)のtpは、式(10)にしたがって、パラメータzから計算される。式(18)のtqも同様である。
さらに、足し込み部195は、やはり、クラス分類部144から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xi,k、教師データyk、およびパラメータzを用い、式(20)の右辺のベクトルにおける、式(19)で定義されるコンポーネントYi,pを求めるための生徒データxi,k、教師データyk、およびパラメータzの乗算(xi,kpk)と、サメーション(Σ)に相当する演算を行う。なお、式(19)のtpは、式(10)にしたがって、パラメータzから計算される。
すなわち、足し込み部195は、前回、注目画素とされた教師データについて求められた式(20)における左辺の行列のコンポーネントXi,p,j,qと、右辺のベクトルのコンポーネントYi,pを、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネントXi,p,j,qまたはベクトルのコンポーネントYi,pに対して、新たに注目画素とされた教師データについて、その教師データyk、生徒データxi,k(xj,k)、およびパラメータzを用いて計算される、対応するコンポーネントxi,kpj,kqまたはxi,kpkを足し込む(式(18)のコンポーネントXi,p,j,qまたは式(19)のコンポーネントYi,pにおけるサメーションで表される加算を行う)。
そして、足し込み部195は、0,1,・・・,Zのすべての値のパラメータzにつき、教師データ記憶部133に記憶された教師データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(20)に示した正規方程式をたてると、その正規方程式を、係数種算出部196に供給する。
係数種算出部196は、足し込み部195から供給されるクラスごとの正規方程式を解くことにより、各クラスごとの係数種データβm,nを求めて出力する。
次に、図34のフローチャートを参照して、図32の学習装置171の処理(学習処理)について、説明する。
まず最初に、ステップS131において、教師データ生成部132と生徒データ生成部174が、学習用画像記憶部131に記憶された学習用画像データから、教師データと生徒データを、それぞれ生成して出力する。すなわち、教師データ生成部132は、学習用画像データを、例えば、そのまま、教師データとして出力する。また、生徒データ生成部174には、パラメータ生成部181が生成するZ+1個の値のパラメータzが供給される。生徒データ生成部174は、例えば、学習用画像データを、パラメータ生成部181からのZ+1個の値(0,1,・・・,Z)のパラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより、各フレームの教師データ(学習用画像データ)について、Z+1フレームの生徒データを生成して出力する。
教師データ生成部132が出力する教師データは、教師データ記憶部133に供給されて記憶され、生徒データ生成部174が出力する生徒データは、生徒データ記憶部135に供給されて記憶される。
その後、ステップS132に進み、パラメータ生成部181は、パラメータzを、初期値としての、例えば0にセットし、学習部176(図33)のタップ選択部192および193、並びに足し込み部195に供給して、ステップS133に進む。ステップS133では、注目画素選択部141は、教師データ記憶部133に記憶された教師データのうち、まだ、注目画素としていないものを、注目画素として、ステップS134に進む。
ステップS134では、タップ選択部192が、注目画素について、生徒データ記憶部135に記憶された、パラメータ生成部181が出力するパラメータzに対する生徒データ(注目画素となっている教師データに対応する学習用画像データを、パラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより生成された生徒データ)から予測タップを選択し、足し込み部195に供給する。さらに、ステップS134では、タップ選択部193が、やはり、注目画素について、生徒データ記憶部135に記憶された、パラメータ生成部181が出力するパラメータzに対する生徒データからクラスタップを選択し、クラス分類部144に供給する。
そして、ステップS135に進み、クラス分類部144は、注目画素についてのクラスタップに基づき、注目画素のクラス分類を行い、その結果得られる注目画素のクラスを、足し込み部195に出力して、ステップS136に進む。
ステップS135では、足し込み部195は、教師データ記憶部133から注目画素を読み出し、その注目画素、タップ選択部192から供給される予測タップ、パラメータ生成部181が出力するパラメータzを用い、式(20)における左辺の行列のコンポーネントxi,Kpj,Kqと、右辺のベクトルのコンポーネントxi,KpKを計算する。さらに、足し込み部195は、既に得られている行列のコンポーネントとベクトルのコンポーネントのうち、クラス分類部144からの注目画素のクラスに対応するものに対して、注目画素、予測タップ、およびパラメータzから求められた行列のコンポーネントxi,Kpj,Kqとベクトルのコンポーネントxi,KpKを足し込み、ステップS137に進む。
ステップS137では、パラメータ生成部181が、自身が出力しているパラメータzが、その取り得る値の最大値であるZに等しいかどうかを判定する。ステップS137において、パラメータ生成部181が出力しているパラメータzが最大値Zに等しくない(最大値Z未満である)と判定された場合、ステップS138に進み、パラメータ生成部181は、パラメータzに1を加算し、その加算値を新たなパラメータzとして、学習部176(図33)のタップ選択部192および193、並びに足し込み部195に出力する。そして、ステップS134に戻り、以下、同様の処理が繰り返される。
また、ステップS137において、パラメータzが最大値Zに等しいと判定された場合、ステップS139に進み、注目画素選択部141が、教師データ記憶部133に、まだ、注目画素としていない教師データが記憶されているかどうかを判定する。ステップS139において、注目画素としていない教師データが、まだ、教師データ記憶部133に記憶されていると判定された場合、ステップS132に戻り、以下、同様の処理が繰り返される。
また、ステップS139において、注目画素としていない教師データが、教師データ記憶部133に記憶されていないと判定された場合、足し込み部195は、いままでの処理によって得られたクラスごとの式(20)における左辺の行列と、右辺のベクトルを、係数種算出部196に供給し、ステップS140に進む。
ステップS140では、係数種算出部196は、足し込み部195から供給されるクラスごとの式(20)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、各クラスごとに、係数種データβm,nを求めて出力し、処理を終了する。
なお、学習用画像データの数が十分でないこと等に起因して、係数種データを求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、係数種算出部196は、例えば、デフォルトの係数種データを出力するようになっている。
画像変換部24(図2、図16)が行うサイズ変換は、以上のようなクラス分類適応処理によって行うことができる。
すなわち、画像変換部24において、サイズ変換をクラス分類適応処理によって行う場合には、図32の学習装置171において、ある画像データを教師データとするとともに、その教師データとしての画像データの画素数を、パラメータzに対応して間引いた画像データを生徒データとして、または、所定のサイズの画像データを生徒データとするとともに、その生徒データとしての画像データの画素をパラメータzに対応する間引き率で間引いた画像データを教師データとして、係数種データの学習を行う。
そして、画像変換部24を、図30の画像変換装置151によって構成し、学習によって求めた係数種データを、画像変換部24としての画像変換装置151(図30)の係数出力部155を構成する係数種メモリ162(図31)に記憶させておく。
この場合、画像フォーマット検出部22(図2、図16)から、画像変換部24としての画像変換装置151に対して、パラメータzとして、入力画像の横又は縦の画素数を、表示部29の表示画面の横又は縦の画素数に一致させる倍率である変換係数Kを与えることによって、画像変換部24としての画像変換装置151において、入力画像の横又は縦の画素数を、表示部29の表示画面の横又は縦の画素数に一致させるサイズ変換を、クラス分類適応処理によって行うことができる。
また、付加画像生成部26(図2、図16)において、対象領域を倍率パラメータα倍に拡大することにより、付加画像を生成するサイズ変換も、クラス分類適応処理によって行うことができる。この場合、パラメータzとして、倍率パラメータαを用いれば良い。
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図35は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク205やROM203に予め記録しておくことができる。
あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体211に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体211は、いわゆるパッケージソフトウエアとして提供することができる。
なお、プログラムは、上述したようなリムーバブル記録媒体211からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部208で受信し、内蔵するハードディスク205にインストールすることができる。
コンピュータは、CPU(Central Processing Unit)202を内蔵している。CPU202には、バス201を介して、入出力インタフェース210が接続されており、CPU202は、入出力インタフェース210を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部207が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)203に格納されているプログラムを実行する。あるいは、また、CPU202は、ハードディスク205に格納されているプログラム、衛星若しくはネットワークから転送され、通信部208で受信されてハードディスク205にインストールされたプログラム、またはドライブ209に装着されたリムーバブル記録媒体211から読み出されてハードディスク205にインストールされたプログラムを、RAM(Random Access Memory)204にロードして実行する。これにより、CPU202は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU202は、その処理結果を、必要に応じて、例えば、入出力インタフェース210を介して、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部206から出力、あるいは、通信部208から送信、さらには、ハードディスク205に記録等させる。
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
すなわち、入力画像、ひいては、等アスペクト比画像、さらには、表示部29の表示画面のアスペクト比は、4:3や16:9に限定されるものではない。
また、図13、図15、図19、及び図21の付加画像生成処理では、メモリ25Aに、対象領域枠パラメータ、ひいては、被写体枠パラメータが記憶されていない場合には、デフォルトの付加画像を生成するようにしたが、メモリ25Aに被写体枠パラメータが記憶されていない場合には、その他、デフォルトの位置としての、例えば、入力画像の中心(重心)部分に、所定の大きさの被写体枠が設定されていることとして、付加画像を生成するようにすることが可能である。
さらに、本実施の形態では、付加画像生成部26において、入力画像のうちの対象領域だけを対象に、サイズ変換を行うことにより、付加画像を生成するようにしたが、付加画像は、その他、例えば、入力画像の全体を対象にサイズ変換を行い、そのサイズ変換後の画像から、対象領域に相当する部分の領域を抽出することによって生成することが可能である。
ここで、画像の全体を拡大し、その拡大後の画像から一部の領域を抽出する方法は、例えば、特開2005-215375号公報に記載されている。
また、本実施の形態では、付加画像生成部26において、対象領域を拡大した画像を、付加画像とするようにしたが、付加画像は、対象領域を縮小した画像であってもよい。
さらに、本実施の形態では、表示処理装置20(図2、図16)のバッファ23に、地上波ディジタル放送等で放送された放送データが供給されることとしたが、バッファ23には、その他、DVD等の記録媒体から再生されたデータを供給するようにすることができる。
画像のアスペクト比と異なるアスペクト比の表示画面に、画像を表示する従来の表示例を示す図である。 本発明を適用した表示システムの一実施の形態の構成例を示すブロック図である。 画像変換部24の処理を説明する図である。 画像変換部24の処理を説明する図である。 表示画面に、表示画面のアスペクト比と異なるアスペクト比の等アスペクト比画像を表示する表示例を示す図である。 対象領域設定部25における対象領域の設定を説明する図である。 対象領域設定部25における対象領域の設定を説明する図である。 付加画像生成部26の処理を説明する図である。 付加画像生成部26の処理を説明する図である。 表示処理装置20の表示処理を説明するフローチャートである。 通常表示処理を説明するフローチャートである。 付加画像表示処理を説明するフローチャートである。 付加画像生成処理を説明するフローチャートである。 リモートコマンダ10の構成例を示す図である。 付加画像生成処理を説明するフローチャートである。 本発明を適用した表示システムの他の一実施の形態の構成例を示すブロック図である。 表示システムの処理を説明する図である。 表示システムの処理を説明する図である。 付加画像生成処理を説明するフローチャートである。 リモートコマンダ10の構成例を示す図である。 付加画像生成処理を説明するフローチャートである。 2つの被写体枠を設定した場合の結合画像の表示例を示す図である。 付加画像の表示例を示す図である。 クラス分類適応処理による画像変換処理を行う画像変換装置101の構成例を示すブロック図である。 画像変換装置101による画像変換処理を説明するフローチャートである。 タップ係数を学習する学習装置121の構成例を示すブロック図である。 学習装置121の学習部136の構成例を示すブロック図である。 各種の画像変換処理を説明するための図である。 学習装置121による学習処理を説明するフローチャートである。 クラス分類適応処理による画像変換処理を行う画像変換装置151の構成例を示すブロック図である。 画像変換装置151の係数出力部155の構成例を示すブロック図である。 係数種データを学習する学習装置171の構成例を示すブロック図である。 学習装置171の学習部176の構成例を示すブロック図である。 学習装置171による学習処理を説明するフローチャートである。 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
符号の説明
10 リモートコマンダ, 11 ジョイスティック, 12 設定開始ボタン, 13 補正開始ボタン, 14 終了ボタン, 20 表示処理装置, 21 取得部, 22 画像フォーマット検出部, 23 バッファ, 24 画像変換部, 25 対象領域設定部, 25A メモリ, 25B 追尾部, 26 付加画像生成部, 27 結合画像生成部, 28 表示制御部, 29 表示部, 30 制御部, 201 バス, 202 CPU, 203 ROM, 204 RAM, 205 ハードディスク, 206 出力部, 207 入力部, 208 通信部, 209 ドライブ, 210 入出力インタフェース, 211 リムーバブル記録媒体

Claims (6)

  1. 画像を表示する表示手段に、動画である入力画像を表示させる画像処理装置において、
    前記入力画像を、横又は縦のサイズが前記表示画面の横又は縦のサイズと一致し、かつ、前記表示画面の画面サイズ以下の画像サイズの画像であって、前記入力画像の横及び縦のサイズを同一倍した画像である等アスペクト比画像に変換する画像変換手段と、
    前記等アスペクト比画像を、その等アスペクト比画像のアスペクト比を変えずに、前記表示手段に表示したときに、前記表示手段の表示画面において、前記等アスペクト比画像の表示に使用されない不使用領域のサイズ内の画像サイズの画像である付加画像を、前記入力画像から生成する付加画像生成手段と、
    各フレーム又はフィールドの前記入力画像を変換して得られる前記等アスペクト比画像と、そのフレーム又はフィールドの前記入力画像から生成される前記付加画像とが重ならないように結合された結合画像を生成する結合画像生成手段と、
    前記結合画像を、前記表示手段に表示させる表示制御手段と
    を備え、
    前記付加画像生成手段は、前記入力画像の一部の、被写体が映っている領域を拡大、又は縮小した画像を、前記付加画像として生成し、
    前記表示制御手段は、
    第1の前記付加画像と、前記第1の付加画像とは異なる第2の付加画像にそれぞれ映っている被写体どうしの、前記等アスペクト比画像上の位置関係と、
    前記第1の付加画像と前記第2の付加画像の位置関係と
    が一致した前記結合画像を、前記表示手段に表示させる
    画像処理装置。
  2. 前記付加画像を生成するのに拡大、又は縮小の対象とする前記入力画像の一部の、被写体が映っている領域である対象領域を設定する対象領域設定手段をさらに備える
    請求項に記載の画像処理装置。
  3. 前記対象領域設定手段は、ユーザの操作に応じて、前記対象領域を設定する
    請求項に記載の画像処理装置。
  4. 前記入力画像の一部の領域に映る被写体を追尾する追尾手段をさらに備え、
    前記対象領域設定手段は、前記追尾手段が追尾する被写体が映っている領域を、前記対象領域に設定する
    請求項に記載の画像処理装置。
  5. 画像を表示する表示手段に、動画である入力画像を表示させる画像処理装置の画像処理方法において、
    前記画像処理装置による、
    前記入力画像を、横又は縦のサイズが前記表示画面の横又は縦のサイズと一致し、かつ、前記表示画面の画面サイズ以下の画像サイズの画像であって、前記入力画像の横及び縦のサイズを同一倍した画像である等アスペクト比画像に変換する画像変換ステップと、
    前記等アスペクト比画像を、その等アスペクト比画像のアスペクト比を変えずに、前記表示手段に表示したときに、前記表示手段の表示画面において、前記等アスペクト比画像の表示に使用されない不使用領域のサイズ内の画像サイズの画像である付加画像を、前記入力画像から生成する付加画像生成ステップと、
    各フレーム又はフィールドの前記入力画像を変換して得られる前記等アスペクト比画像と、そのフレーム又はフィールドの前記入力画像から生成される前記付加画像とが重ならないように結合された結合画像を生成する結合画像生成ステップと、
    前記結合画像を、前記表示手段に表示させる表示制御ステップと
    を含み、
    前記付加画像生成ステップは、前記入力画像の一部の、被写体が映っている領域を拡大、又は縮小した画像を、前記付加画像として生成し、
    前記表示制御ステップは、
    第1の前記付加画像と、前記第1の付加画像とは異なる第2の付加画像にそれぞれ映っている被写体どうしの、前記等アスペクト比画像上の位置関係と、
    前記第1の付加画像と前記第2の付加画像の位置関係と
    が一致した前記結合画像を、前記表示手段に表示させる
    画像処理方法。
  6. 画像を表示する表示手段に、動画である入力画像を表示させる画像処理を、コンピュータに実行させるプログラムにおいて、
    前記入力画像を、横又は縦のサイズが前記表示画面の横又は縦のサイズと一致し、かつ、前記表示画面の画面サイズ以下の画像サイズの画像であって、前記入力画像の横及び縦のサイズを同一倍した画像である等アスペクト比画像に変換する画像変換ステップと、
    前記等アスペクト比画像を、その等アスペクト比画像のアスペクト比を変えずに、前記表示手段に表示したときに、前記表示手段の表示画面において、前記等アスペクト比画像の表示に使用されない不使用領域のサイズ内の画像サイズの画像である付加画像を、前記入力画像から生成する付加画像生成ステップと、
    各フレーム又はフィールドの前記入力画像を変換して得られる前記等アスペクト比画像と、そのフレーム又はフィールドの前記入力画像から生成される前記付加画像とが重ならないように結合された結合画像を生成する結合画像生成ステップと、
    前記結合画像を、前記表示手段に表示させる表示制御ステップと
    を含み、
    前記付加画像生成ステップは、前記入力画像の一部の、被写体が映っている領域を拡大、又は縮小した画像を、前記付加画像として生成し、
    前記表示制御ステップは、
    第1の前記付加画像と、前記第1の付加画像とは異なる第2の付加画像にそれぞれ映っている被写体どうしの、前記等アスペクト比画像上の位置関係と、
    前記第1の付加画像と前記第2の付加画像の位置関係と
    が一致した前記結合画像を、前記表示手段に表示させる
    画像処理を、コンピュータに実行させるプログラム。
JP2006278352A 2006-10-12 2006-10-12 画像処理装置、画像処理方法、及びプログラム Expired - Fee Related JP5263565B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006278352A JP5263565B2 (ja) 2006-10-12 2006-10-12 画像処理装置、画像処理方法、及びプログラム
US11/857,189 US8305491B2 (en) 2006-10-12 2007-09-18 Information processing apparatus, information processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006278352A JP5263565B2 (ja) 2006-10-12 2006-10-12 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2008098966A JP2008098966A (ja) 2008-04-24
JP2008098966A5 JP2008098966A5 (ja) 2009-11-19
JP5263565B2 true JP5263565B2 (ja) 2013-08-14

Family

ID=39302731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006278352A Expired - Fee Related JP5263565B2 (ja) 2006-10-12 2006-10-12 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US8305491B2 (ja)
JP (1) JP5263565B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7023010B2 (ja) 2016-03-03 2022-02-21 ベーハーベー ゲーエムベーハー 建物用の垂直スライド窓
JP7378655B2 (ja) 2020-09-16 2023-11-13 株式会社Lixil 建具

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101582254B (zh) * 2008-05-13 2011-06-15 华为终端有限公司 一种图像呈现方法及装置
FR2936924A1 (fr) * 2008-10-02 2010-04-09 Thomson Licensing Procede de conversion de format d'image avec insertion de bandeau d'information.
US20100123822A1 (en) * 2008-11-14 2010-05-20 General Instrument Corporation Method for Converting Between Display Information Scales
WO2010069378A1 (en) * 2008-12-18 2010-06-24 Abb Technology Ag Method and device to supervise a power network
JP2010220167A (ja) * 2009-03-19 2010-09-30 Seiko Epson Corp 表示装置、プログラムおよび情報記憶媒体
KR101651927B1 (ko) * 2010-03-15 2016-08-29 엘지전자 주식회사 디스플레이 장치 및 디스플레이 모듈
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
US20150042686A1 (en) * 2013-08-12 2015-02-12 Fido Chang Method Applied to a Display for Displaying a Sub-frame
JP6465566B2 (ja) * 2013-08-21 2019-02-06 キヤノン株式会社 撮像装置及び撮像方法
US9451296B2 (en) 2014-08-19 2016-09-20 At&T Intellectual Property I, L.P. Extracting data from advertisement files for ad insertion
JP6446217B2 (ja) * 2014-09-24 2018-12-26 株式会社スクウェア・エニックス 画像表示プログラム、画像表示方法、及び、画像表示システム
KR102328823B1 (ko) 2014-11-12 2021-11-19 삼성전자 주식회사 화면 내 빈 영역 활용 방법 및 장치
KR102308645B1 (ko) 2014-12-29 2021-10-05 삼성전자주식회사 사용자 단말 장치 및 그의 제어 방법
KR20160115214A (ko) * 2015-03-26 2016-10-06 삼성전자주식회사 디스플레이 장치 및 그의 디스플레이 방법
US9924131B1 (en) * 2016-09-21 2018-03-20 Samsung Display Co., Ltd. System and method for automatic video scaling
CN106780758B (zh) * 2016-12-07 2019-12-13 歌尔科技有限公司 用于虚拟现实设备的成像方法、装置及虚拟现实设备
JP2019201321A (ja) * 2018-05-16 2019-11-21 日本放送協会 基準レベル表示装置及びそのプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5130800A (en) * 1989-12-28 1992-07-14 North American Philips Corporation Picture out of picture feature for wide-screen display
JP2759727B2 (ja) 1992-04-22 1998-05-28 日本ビクター株式会社 ディスプレイ装置
JPH09163260A (ja) 1995-12-13 1997-06-20 Sony Corp テレビ受信機
JP4854156B2 (ja) * 2000-12-27 2012-01-18 パナソニック株式会社 リンクマークの位置情報の伝送方法と、その表示方法及びシステム
US7266254B2 (en) * 2002-02-13 2007-09-04 Canon Kabushiki Kaisha Data processing apparatus, image processing apparatus, and method therefor
JP3664251B2 (ja) * 2002-11-06 2005-06-22 船井電機株式会社 映像出力装置
US7702015B2 (en) * 2003-03-20 2010-04-20 Ge Security, Inc. Systems and methods for multi-resolution image processing
JP2005020512A (ja) * 2003-06-27 2005-01-20 Pioneer Electronic Corp 映像信号処理装置
JP2005303796A (ja) * 2004-04-14 2005-10-27 Kazumasa Sasaki 放送システムおよび画像再生装置
JP2006033380A (ja) * 2004-07-15 2006-02-02 Hitachi Kokusai Electric Inc 監視システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7023010B2 (ja) 2016-03-03 2022-02-21 ベーハーベー ゲーエムベーハー 建物用の垂直スライド窓
JP7378655B2 (ja) 2020-09-16 2023-11-13 株式会社Lixil 建具

Also Published As

Publication number Publication date
US8305491B2 (en) 2012-11-06
JP2008098966A (ja) 2008-04-24
US20080088740A1 (en) 2008-04-17

Similar Documents

Publication Publication Date Title
JP5263565B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5093557B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20100202711A1 (en) Image processing apparatus, image processing method, and program
JP2001086507A (ja) 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、媒体、並びに画像処理装置
US7876323B2 (en) Display apparatus and display method, learning apparatus and learning method, and programs therefor
US20040070685A1 (en) Method and apparatus for processing information, storage medium, and program
JP3885786B2 (ja) 情報信号の処理装置および処理方法、並びにその処理方法を実行させるためのプログラム
JP4640579B2 (ja) 情報処理装置および回収基板
KR100904334B1 (ko) 화상 처리 카드, 화상 데이터 처리 장치 및 화상 데이터 처리 방법, 기록 매체, 및 화상 데이터 처리 시스템
JP4803279B2 (ja) 画像信号処理装置および方法、記録媒体、並びにプログラム
JP4512978B2 (ja) 画像処理装置および画像処理方法、プログラム、並びに記録媒体
JP2005236633A (ja) 信号処理装置および信号処理方法
JP3918191B2 (ja) 記憶装置、データ処理装置およびデータ処理方法、プログラムおよび記録媒体、並びにデータ処理システム
US20090226145A1 (en) Data processing device, data processing method, and program
JP4329453B2 (ja) 画像信号処理装置および方法、記録媒体、並びにプログラム
JP4232430B2 (ja) 画像処理装置および方法、記録媒体、並びに、プログラム
JP3918192B2 (ja) データ処理装置および方法、プログラム、並びに記録媒体
JP4649786B2 (ja) 係数データの生成装置および生成方法、それを使用した情報信号の処理装置および処理方法、それに使用する係数種データの生成装置および生成方法
JP2007184775A (ja) 画像処理装置および画像処理方法、並びにプログラム
JP4038732B2 (ja) 記憶装置
JP4674439B2 (ja) 信号処理装置および信号処理方法、並びに情報記録媒体
JP4655483B2 (ja) 情報信号処理装置およびその方法、プログラム、並びに記録媒体
JP4513025B2 (ja) 情報信号処理装置および処理方法、並びにプログラム
JP4692798B2 (ja) 情報信号処理装置、情報信号処理方法、画像信号処理装置およびそれを使用した画像表示装置、並びに記録媒体
JP2007243633A (ja) 信号処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130417

LAPS Cancellation because of no payment of annual fees