JP2009124510A - 表示制御装置及びその方法、プログラム、記録媒体 - Google Patents

表示制御装置及びその方法、プログラム、記録媒体 Download PDF

Info

Publication number
JP2009124510A
JP2009124510A JP2007297194A JP2007297194A JP2009124510A JP 2009124510 A JP2009124510 A JP 2009124510A JP 2007297194 A JP2007297194 A JP 2007297194A JP 2007297194 A JP2007297194 A JP 2007297194A JP 2009124510 A JP2009124510 A JP 2009124510A
Authority
JP
Japan
Prior art keywords
display control
area
control apparatus
superimposing
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007297194A
Other languages
English (en)
Other versions
JP2009124510A5 (ja
Inventor
Wataru Suzuki
亙 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007297194A priority Critical patent/JP2009124510A/ja
Priority to US12/271,558 priority patent/US8169545B2/en
Publication of JP2009124510A publication Critical patent/JP2009124510A/ja
Publication of JP2009124510A5 publication Critical patent/JP2009124510A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/103Detection of image changes, e.g. determination of an index representative of the image change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】 コンテンツ内の特定オブジェクトを予め選択しておくことが不要で、映像の種類に関わらず、適切な位置にオブジェクトを重畳することが可能な技術を提供する。
【解決手段】 複数のフレームから成る動画像に対してオブジェクトを重畳して表示手段へ出力する表示制御装置は、前記動画像を構成する各フレームにおいて前記オブジェクトを重畳する候補としての複数の候補領域を取得する取得手段と、前記取得手段が取得した前記複数の候補領域の各々において、前記フレームを解析して該候補領域におけるフレームの重要度を示すパラメータを取得する、解析手段と、前記パラメータに基づいて、前記オブジェクトを重畳する重畳領域を決定する決定手段と、前記決定手段が決定した重畳領域に前記オブジェクトを重畳する重畳手段と、を備える。
【選択図】 図2

Description

本発明は表示制御装置及びその方法、プログラム、記録媒体に関し、特に、画像にオブジェクトを重畳する技術に関する。
テレビ受像機において、チャンネルや音量などの表示情報を、映像の決められた位置に重ねて表示する技術が知られている。近年、テレビジョン放送がディジタル化されたことにより、このような表示情報に限られない様々なディジタル情報を映像に対して重畳し、表示することが必要となってきている。
パーソナルコンピュータなどのコンピュータ分野では、時計や天気予報などに関する情報を常時映像に重ねて表示させるアプリケーション技術が知られている。このようなアプリケーション技術では、映像に重ねて表示する情報やオブジェクトの位置は、映像によらず定位置であるか、予め決められた範囲内でユーザの操作によりオブジェクト単位で位置を変えられることが一般的である。
しかし、重ねるオブジェクトの位置が映像によらず定位置である場合、映像の中で動きの激しい部分、あるいはテロップなどの文字が表示される部分にオブジェクトを重ねてしまうと、映像の表示内容を把握する妨げになることがある。また、ユーザの操作によって重ねるオブジェクトの位置を変える構成では、ユーザは常にマウスやリモコンなどの操作部を操作していなければならず煩わしい。
これに対し、動画コンテンツ内の他のオブジェクトを重ねたくない特定オブジェクトを予め選択しておき、その特定オブジェクトに重ならない空白領域を検出して、検出された空白領域に挿入オブジェクトを重畳・表示する構成が知られている(特許文献1)。
特開2001−188525号公報
しかしながら、特許文献1の構成では、コンテンツ内の特定オブジェクトを予め選択しておく必要があるため、テレビ放送のようにリアルタイムな処理が必要な映像に対しては適用できないという課題があった。また、たとえ蓄積された動画コンテンツの場合であっても、風景や自然などの映像に対しては、映像内のオブジェクトの正確な輪郭情報を取得するのが困難なことが多く、重ねたくない特定オブジェクトを予め選択することが現実的にはできないことがあった。
本発明は上記課題に鑑みなされたものであり、コンテンツ内の特定オブジェクトを予め選択しておくことが不要で、映像の種類に関わらず、適切な位置にオブジェクトを重畳することが可能な技術を提供することを目的とする。
本発明によれば、複数のフレームから成る動画像に対してオブジェクトを重畳して表示手段へ出力する表示制御装置であって、
前記動画像を構成する各フレームにおいて前記オブジェクトを重畳する候補としての複数の候補領域を取得する取得手段と、
前記取得手段が取得した前記複数の候補領域の各々において、前記フレームを解析して該候補領域におけるフレームの重要度を示すパラメータを取得する、解析手段と、
前記パラメータに基づいて、前記オブジェクトを重畳する重畳領域を決定する決定手段と、
前記決定手段が決定した重畳領域に前記オブジェクトを重畳する重畳手段と、
を備えることを特徴とする表示制御装置が提供される。
また、本発明によれば、複数のフレームから成る動画像に対してオブジェクトを重畳して表示手段へ出力する表示制御装置の表示制御方法であって、
前記動画像を構成する各フレームにおいて前記オブジェクトを重畳する候補としての複数の候補領域を取得する取得工程と、
前記取得工程において取得した前記複数の候補領域の各々において、前記フレームを解析して該候補領域におけるフレームの重要度を示すパラメータを取得する、解析工程と、
前記パラメータに基づいて、前記オブジェクトを重畳する重畳領域を決定する決定工程と、
前記決定工程において決定した重畳領域に前記オブジェクトを重畳する重畳手段と、
を備えることを特徴とする表示制御方法が提供される。
本発明によれば、コンテンツ内の特定オブジェクトを予め選択しておくことが不要で、映像の種類に関わらず、適切な位置にオブジェクトを重畳することが可能な技術を提供することができる。
以下、添付図面を参照して本発明に係る実施の形態を詳細に説明する。ただし、この実施の形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。また、本実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。
<実施形態1>
(ハードウェア構成)
本実施形態に係る表示制御装置100のハードウェア構成について、図1を参照して説明する。図1は、表示制御装置100のハードウェア構成を示すブロック図である。表示制御装置100はセットトップボックスにより実現されるが、例えば、パーソナルコンピュータ(PC)、ワークステーション(WS)、携帯情報端末等の他のコンピュータ装置で実現してもよい。
図1において、101は表示制御装置100全体を制御するCPU(Central Processing Unit:中央演算処理装置)である。102は変更を必要としないプログラムやパラメータを格納するROM(Read Only Memory:読出専用メモリ)である。103は外部装置などから供給されるプログラムやデータを一時記憶するRAM(Random Access Memory:書込可能メモリ)である。
104は入力部であり、入力デバイス107とのインタフェースである。入力デバイス107は、ユーザの操作を受けてデータを入力するユニットであり、リモートコントローラー等により実現される。他に、キーボード、ポインティングデバイスなどにより実現しても構わない。
105は、モニタ108とのインタフェースとして機能する表示部であり、出力画像をモニタ108に表示させる。モニタ108は表示制御装置100の保持するデータや供給されたデータを表示する表示装置である。本実施形態では、テレビ受像機(不図示)の表示装置がモニタ108として使用されるが、表示専用のモニタ108を使用してもよい。モニタ108は、例えば、液晶パネル、CRTディスプレイ、有機ELディスプレイ、SEDなどにより実現される。106は101〜105の各ユニットを通信可能に接続するシステムバスである。
なお、表示制御装置100は、外部記憶装置やネットワークインタフェース等、他のハードウェア・ユニットを備えてもよい。外部記憶装置としては、例えば、固定して設置されたハードディスクやメモリカード、あるいは、着脱可能なフレキシブルディスク(FD)やコンパクトディスク(CD)等の光ディスク、磁気や光カード、ICカード、メモリカードなどがある。また、ネットワークインタフェースとしては、例えば、インターネットなどのネットワーク回線に接続するためのLANインタフェース、無線LANインタフェース等がある。
尚、以上の各装置と同等の機能を実現するソフトウェアにより、ハードウェア装置の代替として構成することもできる。
本実施形態では、説明の便宜のため、本実施形態に係る表示制御装置100を1つの装置で実現した構成について述べるが、複数の装置にリソースを分散した構成によって実現してもよい。例えば、記憶や演算のリソースを複数の装置に分散した形に構成してもよい。或いは、表示制御装置100上で仮想的に実現される構成要素毎にリソースを分散し、並列処理を行うようにしてもよい。
(機能構成)
次に、上記の表示制御装置100の機能構成について、図2を参照して説明する。図2は、本実施形態に係る表示制御装置100の機能構成を示したブロック図である。
図2に示される各機能ブロックは、図1を参照して上述した表示制御装置100のCPU101がRAM103にロードされたプログラムを実行し、図2に示される各ハードウェアと協働することによって実現される。もちろん機能ブロックの一部或いは全てが専用のハードウェアで実現されてもよい。
本実施形態に係る表示制御装置100は以下の機能ブロックを備える。
・動画像(映像)に対してオブジェクトを重ね得る候補領域を少なくとも1つ取得する領域取得部201。
・前記動画像の任意の時刻におけるフレームを取得するフレーム取得部202。
・フレーム取得部202により取得したフレームの、領域取得部201により取得した候補領域に対して動画解析を行う解析部203。
・解析部203により解析された結果をもとに、オブジェクトを重畳する現在の重畳領域を決定する領域決定部204。
・領域決定部204により決定された重畳領域に対してオブジェクトを重ねて出力させるオブジェクト重畳部205。
(全体処理)
本実施形態では図形や文字などのオブジェクト情報を重ねる対象となる動画像として、テレビジョン映像のようなリアルタイムに処理が必要な映像を想定する。ただし、アニメーションを含む映像であっても構わない。
また、オブジェクトを重ね得る候補領域として映像の表示領域の四隅を前提とし、テレビ受像機の電源が投入され映像の表示が開始された時点では初期設定として右上にオブジェクトを表示するものとする。一定時間はオブジェクトを重ね得る候補領域に対し動画解析を行い続け、一定時間が経つとその間の解析結果からオブジェクトを重ねる重畳領域を決定し、決定された重畳領域にオブジェクトを出力する。映像が出力されている間はこの処理を繰り返し行う。
図3は映像が出力されている間に繰り返される処理の基本的なフローを示したフローチャートである。以下同図をもとに表示制御装置100が実行する全体処理について説明する。なお、フローチャートの各ステップで示される処理は、表示制御装置100のCPU101の制御に基づいて実行される。
ステップS301においてオブジェクトを重ね得る候補領域として予め設定されている領域情報を取得する。ここでの領域情報は矩形の左上の座標と幅、高さとする。領域情報は、例えば、ハードディスク装置等の記憶装置(不図示)を読み出したり、外部装置と通信したりして取得することができる。
なお、オブジェクトを重ね得る候補領域はユーザが予め指定していてもよい。オブジェクトを重ね得る候補領域の指定は、例えば、マウスやタッチペンなどのポインティングデバイスを用いて行われることを想定しているが、限定はしない。
次に、ステップS302で解析時間tを0に初期化する。
次に、ステップS303では重ねるオブジェクトの位置を決定する周期Tと解析時間tを比較する。tがTを超えた場合(ステップS303でYES)は処理をステップS308に移し、そうでなければ(ステップS303でNO)ステップS304を実行する。
ステップS304ではステップS301で取得した少なくとも1つ以上の候補領域全てに対して解析処理を行う。ここでは、各候補領域におけるフレーム間の差分情報、あるいは各候補領域における文字の出現頻度を解析する。
一般に動画像の重要な内容を含む箇所には、オブジェクトを重畳すべきではない。そして、フレーム間における画像の動きの大きさが大きい領域や文字が表示される領域は、ユーザが画像の内容を把握するために重要な内容を含んでいることが多い。そこで、本実施形態では、画像の動きの大きさや文字の表示時間等に関する情報をフレームの重要度を示す重要度パラメータとして、オブジェクトを重畳させる領域を決定するために利用する。解析処理では、候補領域の各々において、フレームを解析してこのような重要度パラメータを取得する処理を行う。解析処理の詳細については図7を参照して後述する。解析処理は時間sごとに行い(但しs<T)、ステップS305で解析時間tに時間sをインクリメントする。
次に、ステップS306では、ユーザの操作により映像チャンネルが変更されたか否かを判定する。この判定は、テレビジョン放送のチャンネルが変更されたことを示す変更信号を表示制御装置100が受信したか否かに基づいて行う。即ち、このような変更信号を受信した場合に、映像チャンネルが変更されたと判定する。
映像チャンネルが変更された場合(ステップS306でYES)は、オブジェクトの表示位置はそのままでステップS307において解析時間tまでの解析データを破棄する。映像が表示画面に出力されている間はこのフロー(ステップS301〜S310)を繰り返す。チャンネルの変更が無い間(ステップS306でYES)は、ステップS303に処理を戻し、ステップS303の条件を満たすまでステップS303からステップS306の処理を繰り返す。
ステップS303でT<tの条件を満たした場合、ステップS308で各候補領域における解析時間0からtまでの解析結果をもとに動画像に重ねるオブジェクトの位置を変更するか否かを判定する。例えば、時間Tまでで、それまでオブジェクトを重ねていた領域とそれ以外の領域とで動画像の変化量あるいは文字の出現頻度などに基づく、候補領域におけるフレームの重要度を示す重要度パラメータを比較して判定する。
より具体的には、例えば、重要度パラメータとしてフレーム間における画像の動きの大きさを示す量を取得した場合は、動きの大きさが最も小さい領域を重畳領域とすることができる。或いは、例えば、重要度パラメータとしてフレーム間における画像の動きの大きさを示す量が所定の閾値以上である時間を取得した場合は、この時間が最も小さい領域を重畳領域として決定することができる。領域における文字の表示時間をパラメータとして取得し、表示時間が最も小さい領域を重畳領域として決定することができる。このようにして何らかの重要度パラメータに基づいて重畳領域と決定すると、その領域がステップS308の実行時の重畳領域と異なる場合は、オブジェクトの位置を変更すると判定する。
ステップS308での判定の結果、オブジェクトの位置は変更しないと判定されれば(ステップS308でNO)処理をステップS307に移し、解析時間0からtまで解析データを破棄する。映像が表示画面に出力されている間はこのフローチャート(ステップS301〜S310)を繰り返すものとする。
オブジェクトの位置を変更すると判定された場合(ステップS308でYES)はステップS309へ進む。ステップS309では、解析時間0からtまでの解析結果をもとにオブジェクトを重ねる新たな重畳領域を決定する。例えば、最も動画像の変化量の少なかった領域、あるいは最も文字の出現頻度の少なかった領域を、オブジェクトを重ねる新たな重畳領域として決定する。
次に、ステップS310において、ステップS309で決定した重畳領域に対し、オブジェクトを重ねて出力させる。そしてステップS307に処理を移し、映像が表示画面に出力されている間はこのフロー(ステップS301〜S310)を繰り返す。
(オブジェクトの表示例)
次に、動画像に重畳させるオブジェクト、及びその表示例について、図4〜図6を参照して説明する。まず、オブジェクトの定義について図4を参照して説明する。図4は、オブジェクトを定義する構造化文書を例示する図である。
401は動画像に重ねるオブジェクトをベクトルグラフィックスのSVG(Scalable Vector Graphics)で表現した構造化文書である。402はオブジェクトの高さと幅を定義しており、402の例では、オブジェクトの幅が400、高さが300となっている。
403は、オブジェクトの形状を示している。403の例では、cx="0"、cy="0"より楕円の中央の座標が(0,0)である。また、rx="50"、ry="20"より、楕円のx軸方向の半径、y軸方向の半径がそれぞれ50、20である。
404は、オブジェクトを構成する文字列を示している。404の例では、<text>タグで文字列「Logo」が挟まれているため、表示する文字列は「Logo」である。fill="white"より文字の色はそれぞれ白であり、font−size="20"より文字のサイズは20である。また、x="−20"、y="7"より、文字列の位置座標は(−20,7)である。
なお、図4では、オブジェクトをSVGで表現した場合を例示したが、オブジェクトの表現方法は任意であり、これに限られない。また、図4では、オブジェクトとして図形の例と文字列の例を挙げたが、これに限られない。例えば、画像(静止画、動画)、アプリケーションの表示等でも構わない。
次に、動画像のオブジェクトを重畳させうる候補領域について、図5を参照して説明する。図5は、オブジェクトを重ねる動画コンテンツの一例を示した模式図である。
図5において、501はオブジェクトを重ねる動画像を表している。領域502、503、504、505は、図3のステップS301において取得された領域情報にしめされる候補領域を表している。表示制御装置100は、動画像のこれら領域に対して解析処理を行い、オブジェクトを重ねる重畳領域を決定する。
なお、本実施形態ではステップS301で取得された各候補領域のサイズは重ねるオブジェクトのサイズと全て一致しているものとするが、異なっていても構わない。異なっている場合には重ねるオブジェクトのサイズを変更する処理が加わることになる。
次に、オブジェクトを動画像に重畳して表示させた様子について、図6を参照して説明する。図6は構造化文書401を構造化文書解析により解釈し、オブジェクトを動画像501に重ねて描画した場合の表示結果を例示する図である。
オブジェクト602は、構造化文書401を描画したものである。図4の403のように、はじめ、構造化文書401はオブジェクト602を包含する矩形601の中心が左上の原点に一致するように記述されている。
本実施形態では、初期設定として右上にオブジェクトを表示する。このため、オブジェクト602を領域503へ移動する。さらに、オブジェクト602の大きさが領域503に適合しない場合は、オブジェクト602を適宜伸縮する処理を行う。
動画像の右上に位置する領域503は、ステップS309で決定される。領域503の左上点Pの座標を(x、y)、幅Wa、高さHaとすると、オブジェクト602を(x+Wa/2、y+Ha/2)だけ平行移動させるように構造化文書401の記述が変更される。これにより、領域503の中心にオブジェクト602の中心を移動させることができる。
オブジェクト602の大きさが領域503の大きさに適合しない場合はオブジェクト602を伸縮させることにより領域503に適合させる。矩形601の幅をWo、高さをHoとする。Wa/Wo>Ha/Hoならばオブジェクト602の縦横をそれぞれHa/Ho倍に伸縮してから(x+W/2、y+H/2)だけ平行移動させる。そうでなければオブジェクト602の縦横をそれぞれWa/Wo倍に伸縮してから(x+W/2、y+H/2)だけ平行移動させるように構造化文書401の記述を変更する。
このように、オブジェクト602の大きさを領域503の大きさに適合させるが、これに限られない。例えば、オブジェクト602が領域503に収まらない場合にのみオブジェクト602の伸縮処理を行ってもよい。即ち、オブジェクト602が領域503より大きい場合は、領域503にぴったり合うようにオブジェクト602を伸縮させるが、オブジェクト602が領域503より小さい場合は、伸縮しないようにしてもよい。
また、オブジェクト602を伸縮する際は、必ずしも縦横の長さの比を一定に保つ必要はない。例えば、領域503の縦横の長さの比に合わせてオブジェクト602を伸縮してもよい。
なお、重畳領域の大きさに合わせてオブジェクトを変形して重畳する構成例については、実施形態3で詳細に説明する。
(解析処理)
次に、図3のステップS304で実行する解析処理について図7を参照して説明する。図7は解析処理のフローの一例を示すフローチャートである。本実施形態の解析処理では、各領域のフレームを解析して、フレーム間における画像の動きの大きさを示す量を重要度パラメータとして取得する。なお、本実施形態では、フレーム間の画素値の差分量に基づいてこの動きの大きさを推定する。
フレームを構成する各画素値はRGBの情報それぞれ8ビットで構成され、ステップS301において取得された候補領域の左上の座標を(x、y)、幅をW、高さをHとする。はじめにステップS701では、現在の動画像のフレームと時間sだけ前のフレームを取得する。
次にステップS702では、ステップS301で取得した候補領域全てに対して処理を終えたか判定する。終えていると判定した場合(ステップS702でYES)は処理を終了し、終えていないと判定した場合(ステップS702でNO)は処理をステップS703に移す。
ステップS703ではまだ処理を終えていない候補領域の1つにおいて、解析が未処理の画素があるか判定する。未処理の画素がある場合(ステップS703でYES)はステップS704において、ステップS701で取得したフレーム間における画素の変化量(差分量)を求める。フレーム間での同一座標の画素値の変化量Nは
Figure 2009124510
で表される。但し、R、G,Bは現在のフレームにおける画素のRGB成分の値であり、R',G',B'は時間sだけ前のフレームにおける同画素のRGB成分の値である。指定された候補領域の全ての画素に対しこの変化量(差分量)を求めるまで繰り返す。
ステップS703において未処理の画素がないと判定された場合(ステップS703でNO)は、ステップS705で、各画素の変化量(差分量)の平均値を求める。この平均値を現在の指定された候補領域での変化の大きさを表すパラメータとする。ステップS701で取得したフレーム間における座標(i、j)の変化量をN[i][j]としたときの変化の大きさを表すパラメータBは
Figure 2009124510
となる。
次に、ステップS706で、既に格納されている同じ候補領域に関する平均値にステップS705で求めた平均値を加算し、処理をステップS702に戻す。ステップS308におけるオブジェクトの位置を変更するかの判定は、ステップS706で格納される解析時間0からtまでの各候補領域の平均値の総和に基づくものである。即ち、この総和を重要度パラメータとして利用し、この総和が大きいほど画素値の変化量(差分量)の大きい候補領域であるとする。なお、全ての候補領域の変化量が同程度の場合はオブジェクトの位置は変更せず、再度図3のフローチャートを繰り返すこととなる。
上記のように、本実施形態では、候補領域の各々において、フレームを解析して該候補領域におけるフレームの重要度を示す重要度パラメータを取得し、この重要度パラメータに基づいて、オブジェクトを重畳する重畳領域を自動的に決定する。このため、コンテンツ内の特定オブジェクトを予め選択しておくことが不要で、映像の種類に関わらず、適切な重畳位置をリアルタイムに決定して、オブジェクトを重畳することが可能である。
なお、本実施形態では、フレーム間における画像の動きの大きさをフレーム間の画素値の差分量に基づいて推定し、この動きの大きさを示す量を重要度パラメータとして利用する。このため、重要な内容が表示される領域を回避して適切な位置にオブジェクトを表示することができる。
<実施形態2>
実施形態1では、解析処理において、フレーム間の画像の動きの大きさを示す量を重要度パラメータとして取得する例について説明した。本実施形態では、別の例として、領域における文字の表示時間を重要度パラメータとして取得する例について説明する。
本実施形態の表示制御装置100のハードウェア構成、および機能構成は実施形態1と同様なため説明は省略する。本実施形態では図形や文字などのオブジェクト情報を重ねる対象となる動画像として、テレビ放送のようなリアルタイムに処理が必要な映像を想定する。ただし、アニメーションを含む映像であっても構わない。また、オブジェクトを重ね得る領域として表示領域の四隅を前提としているが、実現の際には四隅である必要は無い。
(解析処理)
本実施形態では、一定時間、オブジェクトを重ね得る候補領域に対し動画解析を行い続ける。一定時間が経過すると、その間の解析結果からオブジェクトを重ねる重畳領域を決定し、決定された重畳領域にオブジェクトを出力する。映像が出力されている間はこの処理を繰り返し行う。解析方法としてテロップや速報、時刻、あるいは予め動画コンテンツに埋め込まれているような文字が指定された候補領域に表示されるか否かを判定し、文字が表示される時間の最も少ない候補領域を、オブジェクトを重ねる重畳領域とする。
図8は文字認識を用いた解析処理のフローの一例を示すフローチャートである。以下同図をもとに、図3のS304で実行する解析処理のフローの詳細を説明する。
まず、はじめにステップS801では現在の動画像のフレームを取得する。次にステップS802では、ステップS301で取得した候補領域全てに対して処理を終えたか否かを判定する。終えている場合(ステップS802でYES)は処理を終了し、終えていない場合(ステップS802でNO)は処理をステップS803に移す。
ステップS803では、まだ処理を終えていない候補領域の1つに対して文字認識処理を施す。なお、画像における文字の認識処理は広く知られており、公知の認識処理を適用することができる。文字認識処理は、例えば、特開平4−182788、特開平5−114048、特開平5−120494などに記載されている。
次に、ステップS804でステップS803の処理の結果から候補領域内に文字があるかどうかを判定し、なければ(ステップS804でNO)処理をステップS802に戻す。文字があれば(ステップS804でYES)ステップS805で、既に格納されている同じ候補領域に関する文字出現時間を表すパラメータに時間sを加算して処理をステップS802に戻す。
ステップS308におけるオブジェクトの位置を変更するかの判定は、ステップS805で格納される解析時間0からtまでの各領域の文字出現時間を表す重要度パラメータに基づくものである。この重要度パラメータが大きいほど文字が出力される時間が長く、重要な領域であることを表す。なお、全ての候補領域における文字出現時間が同程度の場合はオブジェクトの位置は変更せず、再度図3のフローチャートを繰り返すこととなる。
上記のように、本実施形態では、領域における文字の表示時間を前記パラメータとして取得して利用する。このため、文字の上にオブジェクトを重畳させることを抑制しつつ、適切な位置にオブジェクトを表示することができる。
<実施形態3>
本実施形態では、フレーム間における画像の動きの大きさを示す量が閾値以上である時間を重要度パラメータとして取得し、利用する構成について説明する。なお、本実施形態では、ユーザにより指示された領域をオブジェクトを重畳させる候補領域として取得する。また、オブジェクトを重畳させる重畳領域を決定すると、その重畳領域の大きさに合わせて、オブジェクトを変形して重畳する。
本実施形態の表示制御装置100のハードウェア構成、および機能構成は実施形態1と同様なため説明は省略する。本実施形態においても、オブジェクトを重ねる動画像として、リアルタイム処理を必要としない、既に記憶領域に蓄積されている動画コンテンツを想定するが、これに限られない。
(全体処理)
図9を参照して本実施形態における全体処理について説明する。図9は全体処理の基本的なフローを示すフローチャートである。
まず、ステップS901において、動画像に対しオブジェクトを重ねてもよい候補領域の指定をユーザから受け付ける。候補領域の指定は、少なくとも1つ以上受け付ける。候補領域の指定は、マウスやタッチペンなどのポインティングデバイスを用いることを想定しているが、これに限られない。
次に、ステップS901で指定された候補領域に対してステップS902で動画の解析を行う。このように、本実施形態では、ユーザにより指示された領域を候補領域として取得し、処理を行うため、必要に応じて、オブジェクトを表示する領域を手動で適切に設定することができる。解析処理に関しては後で詳細を述べるが、本実施形態では、領域内のフレームを解析して、フレーム間における画像の動きの大きさを示す量が閾値以上である時間を重要度パラメータとして取得する。
次に、ステップS902で行った解析の結果をもとに、ステップS903ではステップS901で指定された候補領域の中からオブジェクトを重ねても表示内容に影響の少ない領域を重畳領域として決定する。本実施形態では、フレーム間における画像の動きの大きさを示す量が閾値以上である時間が最も小さい領域を重畳領域として決定する。このため、画像の重要部分を回避して適切な位置にオブジェクトを重畳させることができる。
次にステップS904では、ステップS903で決定された重畳領域に重ねて表示させるオブジェクトの表示サイズを取得する。
次に、ステップS905において、ステップS903で決定された重畳領域のサイズとステップS904で取得したオブジェクトのサイズとを比較して、オブジェクトが重畳領域に収まるか否かを判定する。ステップS905で収まらないと判定された場合(ステップS905でNO)にはステップS906でオブジェクトを重畳領域に収まるように変形させる。そしてステップS903で決定された重畳領域の位置にあわせてオブジェクトの位置を変更して動画コンテンツに重ねて表示させる。オブジェクトのサイズ変更処理に関しては図4〜図6を参照して説明した処理と同様である。
このように、本実施形態では、決定した重畳領域の大きさに合わせてオブジェクトを変形して重畳するため、オブジェクトのサイズに関わらず、フレームの重要な部分が隠れることなく適切にオブジェクトを重畳させることができる。
(解析処理)
図10は図9のステップS902における解析処理のフローの一例を示すフローチャートである。以下同図をもとに解析処理の一例を説明する。
前提としてオブジェクトを重ねる動画コンテンツ自体の総再生時間をT、1フレームあたりの時間をaとする。また、フレームを構成する各画素値はRGBの情報それぞれ8ビットで構成され、ステップS901において指定された候補領域を包含する最小矩形の左上の座標を(x、y)、幅をW、高さをHとする。
はじめにステップS1001では、ユーザにより指定された候補領域の座標や幅、高さを取得し、時間tと動き検出時間Tmを0に初期化する。動き検出時間とは定められた領域において動きが検出された時間数を表す。
次に、ステップS1002で時間tが動画コンテンツの総再生時間Tを超えたか否かを判定する。超えたと判定された場合(ステップS1002でYES)は動画コンテンツに対する解析処理を終了する。超えていないと判定された場合(ステップS1002でNO)は、ステップS1003で時間tおよびt+aでの動画コンテンツのフレームを取得する。任意のフレーム間での同じ座標の画素値の変化量(差分量)Nを
Figure 2009124510
で表す。但し、R、G,Bはある時刻における画素のRGB成分の値であり、R',G',B'は次フレームにおける同画素のRGB成分の値である。ステップS1004で指定された候補領域の全ての画素に対し変化量(差分量)を求めたか否か、即ち未処理の画素があるか否かを判定する。即ち、未処理の画素がないと判定された場合(ステップS1004でNO)は処理をステップS1006に移す。処理していない画素がある場合(ステップS1004でYES)には、ステップS1005へ進む。
ステップS1005では、候補領域において、取得したフレーム間の画素について画素値の変化量(差分量)を求める。そして、ステップS1004へ戻る。全ての画素について、変化量が求まるまで、ステップS1004、S1005の処理を繰り返す。
ステップS1006では、求められた全ての変化量(差分量)をもとに変化量の画素平均の値を求める。この変化量の画素平均の値Bをある時刻における指定された候補領域での変化の大きさを表すパラメータとする。時間tでのフレーム間における座標(i、j)の変化量をNt[i][j]としたときの変化の大きさを表すパラメータBt
Figure 2009124510
となる。
次に、ステップS1007で、Btの値によって時間tからt+aの間において指定された候補領域における変化量(差分量)が大きいか否か判定する。本実施形態では予め設定された閾値を超えたか否かで判定を行う。変化が大きいと判定された場合(ステップS1007でYES)、ステップS1008で動き検出時間Tmにaを加算する。そうでなければ(ステップS1007でNO)ステップS1009に処理を移す。
最後にステップS1009で時間tにaを加算してステップS1002に戻る。
上記のように、本実施形態では、フレーム間における画像の動きの大きさを示す量が閾値以上である時間を重要度パラメータとして取得、利用するため、オブジェクトを重畳する領域を適切に決定することができる。
なお、図10のフローはユーザが指定した候補領域それぞれに対して行うものであり、この一連の処理を図9のステップS901で指定された候補領域の数だけ行う。その中で最も動き検出時間Tmの小さい領域を、オブジェクトを重ねる重畳領域とする。
また、決まった重畳領域に対してオブジェクトを重ねて表示する際に、算出したパラメータBがある閾値を超えたときの時間を動画解析時に格納しておき、その時間はオブジェクトの表示を制御してもよい。あるいは、オブジェクトの透明度の変更することにより背景に表示されている動画コンテンツを把握しやすいようにオブジェクトを出力しても構わない。
また、本実施形態ではリアルタイム処理を必要としない、既に記憶領域に蓄積されているビデオなどの動画コンテンツを想定したが、アニメーションコンテンツであっても構わない。
<その他の実施形態>
上記の実施形態では、オブジェクトを重畳領域に重畳するときに必要に応じてオブジェクトを変形させたが、適宜、オブジェクトの色を変更して重畳してもよい。例えば、重畳領域における動画像の色分布を求め、この色分布に基づいて、オブジェクトを色が映えるようにオブジェクトの色を変更してもよい。このような構成によれば、各フレームの色がどのようなものでも、オブジェクトを目立つように重畳することができる。
本発明の目的は、前述した実施形態の機能を実現するソフトウエアのプログラムコードをシステムあるいは装置で実行することによっても達成されることは言うまでもない。この場合、プログラムコード自体が前述した実施形態の機能を実現することとなり、そのプログラムコードは本発明の技術的範囲に含まれる。
プログラムコードは、例えば、コンピュータ読み取り可能な記録媒体に記録してシステムあるいは装置に供給することができる。そのシステムあるいは装置のコンピュータ(またはCPUまたはMPU)は、記録媒体に格納されたプログラムコードを読み出し実行することによっても、本発明の目的を達成することができる。従って、そのプログラムコードを記憶した記録媒体も本発明の技術的範囲に含まれる。
プログラムコードを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、DVDなどを用いることができる。
なお、プログラムコードは、コンピュータが当該プログラムコードを読み出し実行することにより前述した実施形態の機能を実現するための、全ての要素を備えたものに限られない。即ち、プログラムコードには、コンピュータに組み込まれたソフトウェア及びハードウェアの少なくともいずれかと協働することにより目的を達成するプログラムコードも含まれる。
例えば、プログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も、そのプログラムコードは本発明の技術的範囲に含まれる。ここで、OSはオペレーティングシステム(Operating System)の略称である。
あるいは、例えば、プログラムコードの指示に基づき、コンピュータに挿入又は接続された機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合がある。このような場合も、そのプログラムコードは本発明の技術的範囲に含まれる。なお、機能拡張ボードや機能拡張ユニットは、それらが備えるメモリにプログラムコードを読み込み、実行することでこのような処理を行うことができる。
上記のように、上記構成によれば、映像の部分領域上にオブジェクトを重ねても、映像の表示内容を把握する妨げになる影響を低減して表示できる。
表示制御装置のハードウェア構成を示すブロック図である。 表示制御装置の機能構成を示したブロック図である。 全体処理の基本的なフローを示したフローチャートである。 オブジェクトを定義する構造化文書を例示する図である。 オブジェクトを重ねる動画コンテンツの一例を示した模式図である。 オブジェクトを動画像に重ねて描画した場合の表示結果を例示する図である。 解析処理のフローの一例を示すフローチャートである。 文字認識を用いた解析処理のフローの一例を示すフローチャートである。 全体処理の基本的なフローを示すフローチャートである。 解析処理のフローの一例を示すフローチャートである。

Claims (13)

  1. 複数のフレームから成る動画像に対してオブジェクトを重畳して表示手段へ出力する表示制御装置であって、
    前記動画像を構成する各フレームにおいて前記オブジェクトを重畳する候補としての複数の候補領域を取得する取得手段と、
    前記取得手段が取得した前記複数の候補領域の各々において、前記フレームを解析して該候補領域におけるフレームの重要度を示すパラメータを取得する、解析手段と、
    前記パラメータに基づいて、前記オブジェクトを重畳する重畳領域を決定する決定手段と、
    前記決定手段が決定した重畳領域に前記オブジェクトを重畳する重畳手段と、
    を備えることを特徴とする表示制御装置。
  2. 前記解析手段は、フレーム間における画像の動きの大きさを示す量を前記パラメータとして取得し、
    前記決定手段は、前記動きの大きさが最も小さい領域を前記重畳領域として決定する
    ことを特徴とする請求項1に記載の表示制御装置。
  3. 前記解析手段は、フレーム間における画像の動きの大きさを示す量が閾値以上である時間を前記パラメータとして取得し、
    前記決定手段は、前記時間が最も小さい領域を前記重畳領域として決定する
    ことを特徴とする請求項1に記載の表示制御装置。
  4. 前記解析手段は、フレーム間の画素値の差分量に基づいて前記動きの大きさを推定する
    ことを特徴とする請求項2又は3に記載の表示制御装置。
  5. 前記解析手段は、前記領域における文字の表示時間を前記パラメータとして取得し、
    前記決定手段は、前記表示時間が最も小さい領域を前記重畳領域として決定する
    ことを特徴とする請求項1に記載の表示制御装置。
  6. 前記取得手段は、ユーザにより指示された領域を前記候補領域として取得する
    ことを特徴とする請求項1乃至5のいずれか1項に記載の表示制御装置。
  7. 前記重畳手段は、前記決定手段が決定した重畳領域の大きさに合わせて、前記オブジェクトを変形して重畳する
    ことを特徴とする請求項1乃至6のいずれか1項に記載の表示制御装置。
  8. 前記重畳手段は、前記決定手段が決定した重畳領域における前記動画像の色分布に基づいて、前記オブジェクトの色を変更して重畳する
    ことを特徴とする請求項1乃至7のいずれか1項に記載の表示制御装置。
  9. 前記動画像はテレビジョン映像であり、
    テレビジョン放送のチャンネルが変更されたことを示す変更信号を受信する受信手段を更に備え、
    前記解析手段は、前記受信手段が前記変更信号を受信したことに応じて前記パラメータを取得する
    ことを特徴とする請求項1乃至8のいずれか1項に記載の表示制御装置。
  10. 前記オブジェクトは、ベクトルグラフィックスにより表される
    ことを特徴とする請求項1乃至9のいずれか1項に記載の表示制御装置。
  11. 複数のフレームから成る動画像に対してオブジェクトを重畳して表示手段へ出力する表示制御装置の表示制御方法であって、
    前記動画像を構成する各フレームにおいて前記オブジェクトを重畳する候補としての複数の候補領域を取得する取得工程と、
    前記取得工程において取得した前記複数の候補領域の各々において、前記フレームを解析して該候補領域におけるフレームの重要度を示すパラメータを取得する、解析工程と、
    前記パラメータに基づいて、前記オブジェクトを重畳する重畳領域を決定する決定工程と、
    前記決定工程において決定した重畳領域に前記オブジェクトを重畳する重畳手段と、
    を備えることを特徴とする表示制御方法。
  12. コンピュータを請求項1乃至10のいずれか1項に記載の表示制御装置として機能させるためのプログラム。
  13. 請求項12に記載のプログラムを格納したコンピュータ読み取り可能な記録媒体。
JP2007297194A 2007-11-15 2007-11-15 表示制御装置及びその方法、プログラム、記録媒体 Pending JP2009124510A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007297194A JP2009124510A (ja) 2007-11-15 2007-11-15 表示制御装置及びその方法、プログラム、記録媒体
US12/271,558 US8169545B2 (en) 2007-11-15 2008-11-14 Display control apparatus and method for superimposing an object on a moving image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007297194A JP2009124510A (ja) 2007-11-15 2007-11-15 表示制御装置及びその方法、プログラム、記録媒体

Publications (2)

Publication Number Publication Date
JP2009124510A true JP2009124510A (ja) 2009-06-04
JP2009124510A5 JP2009124510A5 (ja) 2010-11-11

Family

ID=40641530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007297194A Pending JP2009124510A (ja) 2007-11-15 2007-11-15 表示制御装置及びその方法、プログラム、記録媒体

Country Status (2)

Country Link
US (1) US8169545B2 (ja)
JP (1) JP2009124510A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016061885A (ja) * 2014-09-17 2016-04-25 ヤフー株式会社 広告表示装置、広告表示方法、及び広告表示プログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5471072B2 (ja) * 2009-06-26 2014-04-16 富士通株式会社 表示テスト装置、表示テストプログラムおよび表示テスト方法
JP5627617B2 (ja) * 2012-02-22 2014-11-19 株式会社東芝 画像処理装置及び画像表示システム
JP6157094B2 (ja) * 2012-11-21 2017-07-05 キヤノン株式会社 通信装置、設定装置、通信方法、設定方法、及び、プログラム
DE102017108371B4 (de) * 2017-04-20 2020-08-27 Carl Zeiss Meditec Ag Medizinisch-optisches Darstellungssystem und Verfahren zum Betreiben desselben
JP7071086B2 (ja) * 2017-10-13 2022-05-18 キヤノン株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
CN112752130A (zh) * 2019-10-29 2021-05-04 上海海思技术有限公司 一种数据显示方法及媒体处理装置
CN113343031B (zh) * 2021-06-10 2023-03-24 浙江大华技术股份有限公司 数据添加方法及装置、存储介质、电子装置
CN113596354B (zh) * 2021-07-23 2022-08-19 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06225174A (ja) * 1992-10-12 1994-08-12 Gold Star Co Ltd 字幕表示制御装置及びその制御方法
JPH1026967A (ja) * 1996-07-12 1998-01-27 Toshiba Corp 画像処理装置
JP2006294066A (ja) * 2006-07-19 2006-10-26 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2007028347A (ja) * 2005-07-20 2007-02-01 Sharp Corp 映像表示装置、及びテロップ表示時のosd表示位置制御方法
JP2007074231A (ja) * 2005-09-06 2007-03-22 Mitsubishi Electric Corp 文字多重装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04182788A (ja) 1990-11-17 1992-06-30 Canon Inc 文字認識方法及び装置
JP3133797B2 (ja) 1991-10-23 2001-02-13 キヤノン株式会社 文字認識方法及びその装置
DE69232493T2 (de) * 1991-10-21 2003-01-09 Canon K.K., Tokio/Tokyo Verfahren und Gerät zur Zeichenerkennung
JP3159745B2 (ja) 1991-10-25 2001-04-23 キヤノン株式会社 文字認識方法及びその装置
EP0703716B1 (en) * 1994-09-22 2002-11-27 Sanyo Electric Co. Ltd Method of converting two-dimensional images into three-dimensional images
KR20050052484A (ko) * 1997-03-17 2005-06-02 마츠시타 덴끼 산교 가부시키가이샤 데이터 처리방법
US7230653B1 (en) * 1999-11-08 2007-06-12 Vistas Unlimited Method and apparatus for real time insertion of images into video
JP2001188525A (ja) 1999-12-28 2001-07-10 Toshiba Corp 画像表示装置
US6636220B1 (en) * 2000-01-05 2003-10-21 Microsoft Corporation Video-based rendering
US6778224B2 (en) * 2001-06-25 2004-08-17 Koninklijke Philips Electronics N.V. Adaptive overlay element placement in video
JP4151422B2 (ja) * 2003-01-23 2008-09-17 セイコーエプソン株式会社 画像生成装置、画像生成方法および画像生成プログラム
DE602004003497T2 (de) * 2003-06-30 2007-09-13 Koninklijke Philips Electronics N.V. System und verfahren zur erzeugung einer multimedia-zusammenfassung von multimedia-strömen
US7661601B2 (en) * 2004-10-15 2010-02-16 Sony Computer Entertainment Inc. Object, image data, image data transmission method, card, game mat, card game system, image analysis device, and image analysis method
JP4754364B2 (ja) * 2006-01-20 2011-08-24 三菱電機株式会社 画像重ね合わせ装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06225174A (ja) * 1992-10-12 1994-08-12 Gold Star Co Ltd 字幕表示制御装置及びその制御方法
JPH1026967A (ja) * 1996-07-12 1998-01-27 Toshiba Corp 画像処理装置
JP2007028347A (ja) * 2005-07-20 2007-02-01 Sharp Corp 映像表示装置、及びテロップ表示時のosd表示位置制御方法
JP2007074231A (ja) * 2005-09-06 2007-03-22 Mitsubishi Electric Corp 文字多重装置
JP2006294066A (ja) * 2006-07-19 2006-10-26 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016061885A (ja) * 2014-09-17 2016-04-25 ヤフー株式会社 広告表示装置、広告表示方法、及び広告表示プログラム

Also Published As

Publication number Publication date
US20090128702A1 (en) 2009-05-21
US8169545B2 (en) 2012-05-01

Similar Documents

Publication Publication Date Title
JP2009124510A (ja) 表示制御装置及びその方法、プログラム、記録媒体
KR102677022B1 (ko) 영상 처리 장치 및 그 영상 처리 방법
JP4782105B2 (ja) 画像処理装置及び画像処理方法
EP2109313B1 (en) Television receiver and method
US11924520B2 (en) Subtitle border-crossing processing method and apparatus, and electronic device
CN110796664B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
JP5460793B2 (ja) 表示装置、表示方法、テレビジョン受信機及び表示制御装置
JP4423076B2 (ja) 認識対象切出し装置および方法
KR102606435B1 (ko) 디스플레이 장치 및 디스플레이 장치의 텍스트 인식 방법
JP2008199370A (ja) デジタル放送番組表示装置およびデジタル放送番組表示プログラム
CN113126862B (zh) 截屏方法、装置、电子设备以及可读存储介质
CN111179159A (zh) 消除视频中目标影像的方法、装置、电子设备及存储介质
JP2012506577A (ja) モーションベクトルを決定するための方法、装置及びソフトウエア
CN111192190A (zh) 消除图像水印的方法、装置及电子设备
CN109947973B (zh) 展示区域的背景配置方法、装置、设备及可读介质
JP2014077993A (ja) 表示装置
CN110288521A (zh) 图像美化方法、装置及电子设备
US7750907B2 (en) Method and apparatus for generating on-screen display using 3D graphics
JP2008046608A (ja) ビデオウィンドウ検出器
JP2007114402A (ja) 表示処理装置
EP2731099A1 (en) Image output device, image output method, and program
CN107301045B (zh) 窗口显示方法及装置
CN106909283B (zh) 画布显示控制方法和系统
JP2016090906A (ja) 画像処理装置、画像処理方法及びプログラム
CN111401165A (zh) 台标的萃取方法、显示装置以及计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121015

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130412