JPWO2009093287A1 - 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム - Google Patents

動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム Download PDF

Info

Publication number
JPWO2009093287A1
JPWO2009093287A1 JP2009550377A JP2009550377A JPWO2009093287A1 JP WO2009093287 A1 JPWO2009093287 A1 JP WO2009093287A1 JP 2009550377 A JP2009550377 A JP 2009550377A JP 2009550377 A JP2009550377 A JP 2009550377A JP WO2009093287 A1 JPWO2009093287 A1 JP WO2009093287A1
Authority
JP
Japan
Prior art keywords
moving image
frame
cpu
command
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009550377A
Other languages
English (en)
Other versions
JP5207489B2 (ja
Inventor
匡 山本
匡 山本
直毅 福田
直毅 福田
直行 氏家
直行 氏家
秀明 岡崎
秀明 岡崎
Original Assignee
株式会社金猪電脳研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社金猪電脳研究所 filed Critical 株式会社金猪電脳研究所
Publication of JPWO2009093287A1 publication Critical patent/JPWO2009093287A1/ja
Application granted granted Critical
Publication of JP5207489B2 publication Critical patent/JP5207489B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

動画を見ている者などが、その動画の表示中に動画の進行について舵を切ることができる動画表示装置などを提供することを目的とする。提供されたフレームを描画することによって動画を表示する動画表示装置であって、動画の表示中に舵切命令を受け付ける舵切命令受付手段と、舵切命令受付手段で舵切命令を受け付けた場合に、この受け付けた舵切命令に従って、提供されたフレームに関するデータから、提供されたフレームではないフレームの描画を命じる描画命令を生成する描画命令生成手段と、を備えたことを特徴とする動画表示装置である。

Description

本発明は、動画についての技術に関する。
従来、動画の表示中に所定の操作を行うことによって何らかのアクションを起動させることができるとする装置が提案された(特許文献1参照)。
特開2003−32658号公報
しかしながら、かかるアクションの起動は、いわゆる仕掛けであって(特許文献1の段落0003参照)、動画提供者によって予め施されたものに過ぎない。
したがって、動画を見ている者などは、たとえアクションを起動させたとしても、動画提供者の期待に沿う方向へしか動画を進行させることができなかった。
そこで、本発明は、動画を見ている者などが、その動画の表示中に動画の進行について舵を切ることができる動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、及び携帯ネットワークシステムを提供することを目的とする。
本発明によれば、上記課題は、次の手段により解決される。
本発明は、提供されたフレームを描画することによって動画を表示する動画表示装置であって、動画の表示中に舵切命令を受け付ける舵切命令受付手段と、前記舵切命令受付手段で舵切命令を受け付けた場合に、この受け付けた舵切命令に従って、前記提供されたフレームに関するデータから、前記提供されたフレームではないフレームの描画を命じる描画命令を生成する描画命令生成手段と、を備えたことを特徴とする動画表示装置である。
また、本発明は、上記動画表示装置を備えたコンピュータネットワークシステムである。
また、本発明は、上記動画表示装置を備えた放送ネットワークシステムである。
また、本発明は、上記動画表示装置を備えた携帯ネットワークシステムである。
本発明によれば、舵切命令が受け付けられた場合、この舵切命令に従って、提供されたフレームに関するデータから、提供されたフレームではないフレームの描画を命じる描画命令が生成される。
したがって、本発明によれば、動画を見ている者などは、その動画の表示中に舵切命令を入力や送信などすることによって、動画の進行について舵を切ることができるようになる。
本発明の実施形態に係る動画表示装置の概略動作を説明する図である。 本発明の実施形態に係る動画表示装置の概略構成を示す図である。 本発明の実施形態に係るデータ構造の概略を説明する図である。 動画表示処理の概略フローチャートである。 オブジェクトデータ取得処理の概略フローチャートである。 追跡データ生成処理の概略フローチャートである。 描画命令生成出力処理の概略フローチャートである。 描画命令生成処理の概略フローチャートである。 舵切命令受付処理の概略フローチャートである。 本発明の実施例に係る動画表示装置を示す図である。
符号の説明
11 CPU
12 メインメモリ
13 ビデオコントローラ
14 ビデオメモリ
15 ディスプレイ
16 マウスコントローラ
17 キーボードコントローラ
18 サウンドコントローラ
19 スピーカ
20 メディアドライブ
21 ネットワークコントローラ
22 ハードディスクドライブ
以下に、添付した図面を参照しつつ、本発明を実施するための最良の形態を詳細に説明する。
[動画表示装置の動作]
まず、図1を参照しつつ、本発明の実施形態に係る動画表示装置の概略動作を説明する。図1は、本発明の実施形態に係る動画表示装置の概略動作を説明する図である。
図1において、フレーム1〜9は、動画提供者により提供された動画を構成するフレームである。動画提供者は、動画が、フレーム1〜9の順で進行することを期待しているものとする。
ここで、実施形態に係る動画表示装置においては、このような動画を、動画提供者の期待に沿うように進行させること、すなわち、フレーム1〜9の順で進行させることもできる。
しかしながら、実施形態に係る動画表示装置においては、舵切命令によって、動画の進行について舵を切ることができるようになる。
以下、実施形態に係る動画表示装置が動画の進行について舵を切る際の動作をケース1〜3に分けて説明する。
(ケース1)
ケース1において、実施形態に係る動画表示装置は、フレーム2の描画までは動画提供者の期待に沿うように動画を進行させる。
しかしながら、実施形態に係る動画表示装置は、フレーム2が描画された後に舵切命令を受け付けて、動画の進行について舵を切る。
このため、動画は、フレーム2の後、フレーム3、4、5、6ではなく、フレーム3−1、4−1、5−1、6−1という、動画提供者が予定していなかった方向へと進行する。
これらフレーム3−1、4−1、5−1、6−1は、フレーム2の描画が終わるまでは実施形態に係る動画表示装置において存在しなかったものである。
実施形態に係る動画表示装置は、これらフレーム3−1、4−1、5−1、6−1についての描画命令を、舵切命令に従って、フレーム3、4、5、6から生成する。
そして、実施形態に係る動画表示装置は、フレーム6−1が描画された後に上記舵切命令の取消を受け付けて、フレーム7、フレーム8、フレーム9の描画を行う。このため、フレーム6−1が描画された後においては、動画の進行が、動画提供者によって予定されていた方向へと戻ることになる。
(ケース2)
ケース2において、実施形態に係る動画表示装置は、上記ケース1におけるフレーム3−1の描画を行った後に、第2の舵切命令を受け付けて、動画の進行について、より一層の舵を切る。
このため、実施形態に係る動画表示装置は、フレーム4−1、5−1の描画ではなく、フレーム4、5とは画像がより一層異なるフレーム4−2、5−2の描画を行うこととなり、動画は、動画提供者によってはまったく予定されていなかった方向へと進行することとなる。
これらフレーム4−2、5−2も、フレーム3−1の描画が終わるまでは実施形態に係る動画表示装置において存在しなかったものである。
実施形態に係る動画表示装置は、これらフレーム4−2、5−2についての描画命令を、第2の舵切命令に従って、フレーム4、5から生成する。
実施形態に係る動画表示装置は、フレーム5−2が描画された後に上記第2の舵切命令の取消を受け付けて、フレーム6−1の描画を行う。このため、フレーム5−2が描画された後においては、動画の進行が、最初に受け付けた舵切命令に従った方向へと戻ることになる。
そして、実施形態に係る動画表示装置は、フレーム6−1が描画された後に最初に受け付けた舵切命令の取消を受け付けて、フレーム7、フレーム8、フレーム9の描画を行う。このため、フレーム6−1が描画された後においては、動画の進行が、動画提供者によって予定されていた方向へと戻ることになる。
(ケース3)
ケース3において、実施形態に係る動画表示装置は、フレーム1の描画までは動画提供者の期待に沿うように動画を進行させる。
しかしながら、実施形態に係る動画表示装置は、フレーム1が描画された後に舵切命令を受け付けて、動画の進行について舵を切る。
このため、動画は、フレーム1の後、フレーム2、3、4、5、6、7、8、9ではなく、フレーム2−3、3−3、4−3、5−3、6−3、7−3、8−3、9−3という、動画提供者が予定していなかった方向へと進行する。
これらフレーム2−3〜9−3は、フレーム1の描画が終わるまでは実施形態に係る動画表示装置において存在しなかったものである。
実施形態に係る動画表示装置は、これらフレーム2−3〜9−3についての描画命令も、舵切命令に従って、フレーム2〜9からそれぞれ生成する。
ケース3においては、受け付けられた舵切命令が取り消されないため、実施形態に係る動画表示装置は、フレーム2〜9を提供されているが(又は提供され続けているが)、これらフレーム2〜9を描画する機会がなく、動画の進行は、動画提供者によって予定されていた方向へと戻ることがない。
このように、実施形態に係る動画表示装置によれば、舵切命令が受け付けられた場合、この舵切命令に従って、動画提供者によって提供されたフレームに関するデータから、提供されたフレームではないフレームの描画を命じる描画命令が生成される。
したがって、実施形態に係る動画表示装置によれば、動画を見ている者などが、その動画の表示中に舵切命令を入力や送信などして舵を切ることにより、提供された動画を、動画提供者が期待する方向とは異なる方向へ進行させることができるようになる。
このように、実施形態に係る動画表示装置によれば、動画を見ている者などが、動画の表示中に舵を切ることにより、動画の進行を操ることができるようになる。
このため、実施形態に係る動画表示装置によれば、動画の進行に関する主導権を、動画提供者から動画を見ている者などへと移転させることができるようになる。
[動画表示装置の構成]
次に、図2を参照しつつ、本発明の実施形態に係る動画表示装置の概略構成を説明する。図2は、本発明の実施形態に係る動画表示装置の概略構成を示す図である。
図2に示すように、本発明の実施形態に係る動画表示装置は、CPU11と、メインメモリ12と、ビデオコントローラ13と、ビデオメモリ14と、ディスプレイ15と、マウスコントローラ16と、キーボードコントローラ17と、サウンドコントローラ18と、スピーカ19と、CDドライブやDVDドライブなどのメディアドライブ20と、ネットワークコントローラ21と、ハードディスクドライブ22と、を備えている。
本発明の実施形態に係る動画表示装置においては、CPU11が、ハードディスクドライブ22に記憶されているプログラムをメインメモリ12に読み出した上で、動画表示処理を実行する。
本発明の実施形態においては、動画提供者から提供された動画が複数のフレームから構成されており、各フレームについてのフレームデータが、メディアドライブ20に挿入されるDVD−ROM、CD−ROM、USBメモリなどや、ハードディスクドライブ22などに格納されている。
本発明の実施形態に係る動画表示装置においては、CPU11が、これらのデバイスに格納されている各フレームデータの全部又は一部をメインメモリ12に読み出した上で、この読み出したフレームデータの全部又は一部から描画命令を生成する。
このようにして生成された描画命令は、各フレームの描画を命じるデータであり、CPU11からビデオコントローラ13に出力される。
ビデオコントローラ13は、CPU11から描画命令を入力された場合、この描画命令に従って映像信号を生成し、ビデオメモリ14に格納する。
その後、ビデオコントローラ13は、ビデオメモリ14から映像信号を読み出して、ディスプレイ15に出力する。
そして、ディスプレイ15は、ビデオコントローラ13から入力された映像信号に基づいて画面を走査することにより、フレームを画面上に描画する。
マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21は、マウス(図示せず)やキーボード(図示せず)から舵切命令が入力された場合やインターネットなどのネットワーク(図示せず)から舵切命令を受信した場合、CPU11に割込要求を出力する。
CPU11は、マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21から割込要求を入力された場合、割込要求された舵切命令を読み出してメインメモリ12に格納する。
そして、CPU11は、メインメモリ12に格納された舵切命令に従って、メディアドライブ20に挿入されるDVD−ROM、CD−ROM、USBメモリなどやハードディスクドライブ22などに格納されているフレームに関するデータから、この格納されているフレームではないフレームの描画を命じる描画命令を生成し、ビデオコントローラ13に出力する。
なお、メディアドライブ20に挿入されるDVD−ROM、CD−ROM、USBメモリなどやハードディスクドライブ22などには、サウンドデータも格納されている。
CPU11は、メディアドライブ20に挿入されるDVD−ROM、CD−ROM、USBメモリなどやハードディスクドライブ22などから、各フレームの描画と同期してスピーカ19から出力されるべきサウンドデータをメインメモリ12に読み出した上、この読み出したサウンドデータをサウンドコントローラ18に出力する。
[データ構造]
次に、図3を参照しつつ、CPU11が、動画表示処理において処理するデータのデータ構造を説明する。図3は、本発明の実施形態に係るデータ構造の概略を説明する図である。
CPU11は、動画表示処理において、オブジェクトデータ、追跡データ、舵切命令、及び描画命令を処理するが、これらのデータのデータ構造は、図3に示す通りである。
(a:オブジェクトデータのデータ構造)
オブジェクトデータとは、各フレームに含まれるオブジェクトについてのデータであり、フレームデータから取得される。
実施形態においては、このオブジェクトデータとして、オブジェクトを構成するラスタデータの基準点X座標、オブジェクトを構成するラスタデータの基準点Y座標、ラスタデータ、及びオブジェクトのエッジ座標列を用いることとする。
図3(a)に示すように、このオブジェクトデータは、obj[n,m,0]〜obj[n,m,3]の各領域に格納される。
ここで、nは、フレームを識別するフレーム番号を示し、mは、1フレーム内でオブジェクトを区別するオブジェクト識別子を示す。
たとえば、図1中のフレーム3に3つのオブジェクトが含まれていると仮定した場合、1つ目のオブジェクトについての基準点X座標、基準点Y座標、ラスタデータ、及びエッジ座標列は、それぞれobj[2,0,0]〜obj[2,0,3]に格納され、2つ目のオブジェクトについての基準点X座標、基準点Y座標、ラスタデータ、及びエッジ座標列は、それぞれobj[2,1,0]〜obj[2,1,3]に格納され、3つ目のオブジェクトについての基準点X座標、基準点Y座標、ラスタデータ、及びエッジ座標列は、それぞれobj[2,2,0]〜obj[2,2,3]に格納される。
<基準点X座標>
基準点X座標とは、ラスタデータ上の基準点が、フレーム内において位置するX座標である。
<基準点Y座標>
基準点Y座標とは、ラスタデータ上の基準点が、フレーム内において位置するY座標である。
<ラスタデータ>
ラスタデータとは、オブジェクトを構成する画像である。
<エッジ座標列>
エッジ座標列とは、オブジェクトの輪郭を表現する座標の集合である。
(b:追跡データのデータ構造)
追跡データとは、フレーム間におけるオブジェクトの関係を示すデータである。この追跡データは、たとえば、図1において、人物Aというオブジェクトがフレーム1とフレーム2とに含まれていた場合に、これらのオブジェクトが対応していることをCPU11に把握させるために用いられる。
図3(b)に示すように、この追跡データは、track[i,0]〜track[i,N+1]の各領域に格納される。
ここで、iは、オブジェクトIDである。このオブジェクトIDは、すべてのフレームを通して一意にオブジェクトを識別する値である。
たとえば、図1において、人物Aについてのオブジェクトに対して、
・オブジェクトIDとして1が割り当てられ、
・フレーム1(フレーム番号0)におけるオブジェクト識別子として3が割り当てられ、
・フレーム2(フレーム番号1)におけるオブジェクト識別子として2が割り当てられ、
・フレーム3(フレーム番号2)におけるオブジェクト識別子として8が割り当てられている場合、
track[1,0]には、人物Aについてのオブジェクトのメタ情報(たとえば「A」)が格納され、track[1,1]には3が格納され、track[1,2]には2が格納され、track[1,3]には8が格納される。
なお、Nは、動画を構成するフレームの数であり、たとえば、CPU11が動画の表示時間をフレームレートで除することにより算出される。
(c:舵切命令のデータ構造)
舵切命令は、動画の進行について舵を切ることを命ずるデータであり、より具体的には、動画表示装置が、動画提供者から提供されたフレームではないフレームの描画命令を、どのようにして生成するかを規定する命令である。
この舵切命令は、steering[j,0]、steering[j,1]、steering[j,2]、steering[j,3]、steering[j,4]、steering[j,5]、steering[j,6]、steering[j,7]の各領域に格納される。
本実施形態においては、この舵切命令として、種別、オブジェクトID、強調種別、基準点X座標、基準点Y座標、入替オブジェクトID,開始フレーム番号、終了フレーム番号が用いられるものとする。
なお、jは、舵切命令を識別する舵切命令IDである。
<種別>
種別は、オブジェクトに対する操作の別を示す値である。実施形態においては、0がオブジェクトのエッジを強調表示すべきことを示し、1がオブジェクトを移動させるべきことを示し、2が、同一フレーム内における2つのオブジェクトを入れ替えるべきことを示し、3がオブジェクトを消去すべきことを示す。
<オブジェクトID>
ここでのオブジェクトIDとは、操作対象となるオブジェクトのオブジェクトIDである。
<強調種別>
強調種別とは、オブジェクトのエッジに対する強調表示の別を示す値である。たとえば、0であればエッジを点滅させる、1であればエッジを青色にする、などを例として挙げることができる。
<基準点X座標>
ここでの基準点X座標とは、操作するオブジェクトを移動させる場合における、その移動先の基準点X座標である。
<基準点Y座標>
ここでの基準点Y座標とは、操作するオブジェクトを移動させる場合における、その移動先の基準点Y座標である。
<入替オブジェクトID>
入替オブジェクトIDとは、オブジェクトを入れ替える場合において、どのオブジェクトIDのオブジェクトと入れ替えるのかを示すデータである。
<開始フレーム番号>
開始フレーム番号とは、舵切命令に従った描画命令の生成を開始するフレームのフレーム番号である。
<終了フレーム番号>
終了フレーム番号とは、舵切命令に従った描画命令の生成を終了するフレームのフレーム番号である。
(d:描画命令のデータ構造)
描画命令は、CPU11からビデオコントローラ13に出力されるデータである。
実施形態においては、この描画命令として、オブジェクトを構成するラスタデータの基準点X座標、オブジェクトを構成するラスタデータの基準点Y座標、ラスタデータ、オブジェクトのエッジ座標列、及び強調種別を用いることとする。
図3(d)に示すように、これらの描画命令は、cmd[0]〜cmd[4]の各領域に格納される。
[動画表示処理]
次に、図4を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される動画表示処理を説明する。図4は、動画表示処理の概略フローチャートである。
(ステップS1:初期化処理)
ステップS1において、CPU11は、変数や定数のための領域をメインメモリ12上に確保し、これら領域を確保された変数や定数に初期値を格納する初期化処理を行い、ステップS2に進む。
具体的に説明すると、実施形態に係る動画表示装置は、初期化処理として、変数n、m、M、pm、PM、i、I、j、J、k、object_id、a、bの領域や、定数N、C1、C2の領域をメインメモリ12上に確保する。
そして、実施形態に係る動画表示装置は、変数n、m、M、pm、PM、i、I、j、J、k、object_id、a、bに0を格納し、Nにフレームの数を格納し、C1、C2に所定の閾値を格納する。
また、実施形態に係る動画表示装置は、obj[]、track[]、steering[]、cmd[]のための領域も、メインメモリ12上に確保する。
(ステップS2:フレームループの開始)
ステップS2において、CPU11は、nが0以上N以下であるか否かを判定し、0以上N以下であればステップS3に進み、0以上N以下でなければ動画表示処理を終了する。
(ステップS3:オブジェクトデータ取得処理)
ステップS3において、CPU11は、オブジェクトデータ取得処理を実行し、ステップS4に進む。オブジェクトデータ取得処理は、フレーム番号nのフレームについてのフレームデータから、そのフレームに含まれるオブジェクトについてのオブジェクトデータを取得し、obj[n,m,0]〜obj[n,m,3]に格納する処理である。
(ステップS4:追跡データ生成処理)
ステップS4において、CPU11は、追跡データ生成処理を実行し、ステップS5に進む。追跡データ生成処理は、フレーム番号nのフレームに含まれるオブジェクトのオブジェクト識別子mを取得し、track[i,n+1]に格納する処理である。
(ステップS5:現オブジェクトループの開始)
ステップS5において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS6に進み、0以上M以下でなければステップS8に進む。
(ステップS6:描画命令生成出力処理)
ステップS6において、CPU11は、描画命令生成出力処理を実行し、ステップS7に進む。描画命令生成出力処理は、受け付けた舵切命令に従い、フレーム番号nのフレームに含まれるオブジェクトについてのオブジェクトデータから、フレーム番号nのフレームに含まれるオブジェクトではないオブジェクトの描画を命じる描画命令を生成し出力する処理である。
(ステップS7:現オブジェクトループの終了)
ステップS7において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS6に戻り、0以上M以下でなければステップS8に進む。
(ステップS8:舵切命令受付処理)
ステップS8において、CPU11は、舵切命令受付処理を実行し、ステップS9に進む。舵切命令受付処理は、舵切命令を受け付け、この受け付けた舵切命令をsteering[j,0]〜steering[j,7]に格納する処理である。
(ステップS9:フレームループの終了)
ステップS9において、CPU11は、nが0以上N以下であるか否かを判定し、0以上N以下であればステップS3に戻り、0以上N以下でなければ動画表示処理を終了する。
[オブジェクトデータ取得処理]
次に、図5を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行されるオブジェクトデータ取得処理を説明する。図5は、オブジェクトデータ取得処理の概略フローチャートである。
(ステップS3−1)
ステップS3−1において、CPU11は、mが0以上であるか否かを判定し、0以上であればステップS3−2に進み、0以上でなければステップS3−10に進む。
(ステップS3−2)
ステップS3−2において、CPU11は、フレーム番号nのフレームからオブジェクトを抽出する処理を行い、ステップS3−3に進む。
フレームからオブジェクトを抽出する処理としては、隣接する画素値の急激な変化を利用するなどのフレーム内抽出手法や、フレーム間の差分が大きい部分を取り出すなどのフレーム間抽出手法などを用いることができる。
(ステップS3−3)
ステップS3−3において、CPU11は、フレーム番号nのフレームからオブジェクトを抽出できたか否かを判定し、抽出できた場合はステップS3−4に進み、抽出できなかった場合はステップS3−10に進む。
(ステップS3−4)
ステップS3−4において、CPU11は、抽出したオブジェクトを構成するラスタデータの基準点X座標を取得した上で、この取得した基準点X座標をobj[n,m,0]に格納し、ステップS3−5に進む。
(ステップS3−5)
ステップS3−5において、CPU11は、抽出したオブジェクトを構成するラスタデータの基準点Y座標を取得した上で、この取得した基準点Y座標をobj[n,m,1]に格納し、ステップS3−6に進む。
(ステップS3−6)
ステップS3−6において、CPU11は、抽出したオブジェクトのラスタデータを取得した上で、この取得したラスタデータをobj[n,m,2]に格納し、ステップS3−7に進む。
(ステップS3−7)
ステップS3−7において、CPU11は、抽出したオブジェクトのエッジ座標列を算出し、ステップS3−8に進む。
(ステップS3−8)
ステップS3−8において、CPU11は、算出したエッジ座標列をobj[n,m,3]に格納し、ステップS3−9に進む。
(ステップS3−9)
ステップS3−9において、CPU11は、mが0以上であるか否かを判定し、0以上であればステップS3−2に戻り、0以上でなければステップS3−10に進む。
(ステップS3−10)
ステップS3−10において、CPU11は、変数Mに格納されている値を変数PMに格納し、ステップS3−11に進む。
(ステップS3−11)
ステップS3−11において、CPU11は、変数mに格納されている値を変数Mに格納し、オブジェクトデータ取得処理を終了する。
[追跡データ生成処理]
次に、図6を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される追跡データ生成処理を説明する。図6は、追跡データ生成処理の概略フローチャートである。
(ステップS4−1)
ステップS4−1において、CPU11は、nが0と等しくないか否かを判定し、等しくなければステップS4−7に進み、等しければステップS4−2に進む。
(ステップS4−2)
ステップS4−2において、CPU11は、mが0以上M以下であるか否かを判定し、mが0以上M以下であればステップS4−3に進み、mが0以上M以下でなければステップS4−6に進む。
(ステップS4−3)
ステップS4−3において、CPU11は、変数mに格納されている値をtrack[i,1]に格納し、ステップS4−4に進む。
(ステップS4−4)
ステップS4−4において、CPU11は、iに格納されている値に1を加算してiに格納し、ステップS4−5に進む。
(ステップS4−5)
ステップS4−5において、CPU11は、mが0以上M以下であるか否かを判定し、mが0以上M以下であればステップS4−3に戻り、mが0以上M以下でなければステップS4−6に進む。
(ステップS4−6)
ステップS4−6において、CPU11は、iに格納されている値から1を減算した値を変数Iに格納し、追跡データ生成処理を終了する。
(ステップS4−7)
ステップS4−7において、CPU11は、mが0以上M以下であるか否かを判定し、mが0以上M以下であればステップS4−8に進み、mが0以上M以下でなければ追跡データ生成処理を終了する。
(ステップS4−8)
ステップS4−8において、CPU11は、pmが0以上PM以下であるか否かを判定し、0以上PM以下であればステップS4−9に進み、0以上PM以下でなければステップS4−14に進む。
(ステップS4−9)
ステップS4−9において、CPU11は、obj[n,m,3]とobj[n−1,pm,3]とから、第1比較値を算出し、ステップS4−10に進む。
ここで、第1比較値は、フレーム番号nのフレームとフレーム番号n−1のフレームとの間において、エッジの形状が相似の関係にあるかどうか判定するための値として、CPU11により算出される。
この第1比較値としては、対応する辺の長さや角についての比率や差分などを用いることができる。このような比率や差分は、obj[n,m,3]に格納されているエッジ座標列とobj[n−1,pm,3]に格納されている値とを用いて算出される。
なお、上記のように、第1比較値は、隣接する2つのフレーム間から算出することが好ましい。しかしながら、本発明においては、第1比較値を、隣接しない2つのフレーム間や、3つ以上のフレーム間から算出することなどもできる。
(ステップS4−10)
ステップS4−10において、CPU11は、算出した第1比較値が定数C1に格納されている値よりも小さいか否かを判定し、小さければステップS4−11に進み、小さくなければステップS4−13に進む。
ここで、定数C1には、比較する2つのオブジェクトの対応・非対応を判定する基準となる閾値が格納される。
(ステップS4−11)
ステップS4−11において、CPU11は、obj[n,m,2]とobj[n−1,pm,2]とから、第2比較値を算出し、ステップS4−12に進む。
ここで、第2比較値は、フレーム番号nのフレームとフレーム番号n−1のフレームとの間において、ラスタデータが類似の関係にあるかどうか判定するための値として、CPU11により算出される。
この第2比較値としては、obj[n,m,2]に格納されているラスタデータとobj[n−1,pm,2]に格納されているラスタデータとをそれぞれ展開した場合における、対応する画素の等価割合などを用いることができる。
なお、上記のように、第2比較値は、隣接する2つのフレーム間から算出することが好ましい。しかしながら、本発明においては、第2比較値を、隣接しない2つのフレーム間や、3つ以上のフレーム間から算出することなどもできる。
(ステップS4−12)
ステップS4−12において、CPU11は、算出した第2比較値が定数C2よりも小さいか否かを判定し、小さければステップS4−14に進み、小さくなければステップS4−13に進む。
ここで、定数C2には、比較する2つのオブジェクトの対応・非対応を判定する基準となる閾値が格納される。
(ステップS4−13)
ステップS4−13において、CPU11は、pmが0以上PM以下であるか否かを判定し、0以上PM以下であればステップS4−9に戻り、0以上PM以下でなければステップS4−14に進む。
(ステップS4−14)
ステップS4−14において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS4−15に進み、0以上I以下でなければステップS4−18に進む。
(ステップS4−15)
ステップS4−15において、CPU11は、track[i,n]に格納されている値が、pmに格納されている値に等しいか否かを判定し、等しければステップS4−17に進み、等しくなければステップS4−16に進む。
(ステップS4−16)
ステップS4−16において、CPU11は、変数iが0以上I以下であるか否かを判定し、0以上I以下であればステップS4−15に戻り、0以上I以下でなければステップS4−18に進む。
(ステップS4−17)
ステップS4−17において、CPU11は、mに格納されている値をtrack[i,n+1]に格納し、ステップS4−20に進む。
(ステップS4−18)
ステップS4−18において、CPU11は、変数Iに格納されている値に1を加算して変数Iに格納し、ステップS4−19に進む。
(ステップS4−19)
ステップS4−19において、CPU11は、mに格納されている値をtrack[I,n+1]に格納し、ステップS4−20に進む。
(ステップS4−20)
ステップS4−20において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS4−8に戻り、0以上M以下でなければ追跡データ生成処理を終了する。
[描画命令生成出力処理]
次に、図7を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される描画命令生成出力処理について説明する。図7は、描画命令生成出力処理の概略フローチャートである。
(ステップS6−1)
ステップS6−1において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS6−2に進み、0以上I以下でなければステップS6−5に進む。
(ステップS6−2)
ステップS6−2において、CPU11は、track[i,n+1]に格納されている値が、mに格納されている値と等しいか否かを判定し、等しければステップS6−3に進み、等しくなければステップS6−4に進む。
(ステップS6−3)
ステップS6−3において、CPU11は、変数iに格納されている値を変数object_idに格納し、ステップS6−5に進む。
(ステップS6−4)
ステップS6−4において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS6−2に戻り、0以上I以下でなければステップS6−5に進む。
(ステップS6−5)
ステップS6−5において、CPU11は、描画命令生成処理を実行し、ステップS6−6に進む。
(ステップS6−6)
ステップS6−6において、CPU11は、生成した描画命令をビデオコントローラ13に出力し、描画命令生成出力処理を終了する。
(描画命令生成処理)
次に、図8を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される描画命令生成処理を説明する。図8は、描画命令生成処理の概略フローチャートである。
(ステップS6−5−1)
ステップS6−5−1において、CPU11は、kが0以上3以下であるか否かを判定し、0以上3以下であればステップS6−5−2に進み、0以上3以下でなければステップS6−5−4に進む。
(ステップS6−5−2)
ステップS6−5−2において、CPU11は、obj[n,m,k]に格納されている値をcmd[k]に格納し、ステップS6−5−3に進む。
(ステップS6−5−3)
ステップS6−5−3において、CPU11は、kが0以上3以下であるか否かを判定し、0以上3以下であればステップS6−5−2に戻り、0以上3以下でなければステップS6−5−4に進む。
(ステップS6−5−4)
ステップS6−5−4において、CPU11は、cmd[4]に0を格納し、ステップS6−5−5に進む。
(ステップS6−5−5)
ステップS6−5−5において、CPU11は、jが0以上J以下であるか否かを判定し、0以上J以下であればステップS6−5−6に進み、0以上J以下でなければ描画命令生成処理を終了する。
(ステップS6−5−6)
ステップS6−5−6において、CPU11は、steering[j,1]に格納されている値がobject_idに格納されている値と等しいか否かを判定し、等しければステップS6−5−7に進み、等しくなければステップS6−5−19に進む。
(ステップS6−5−7)
ステップS6−5−7において、CPU11は、変数nに格納されている値がsteering[j,7]に格納されている値よりも大きいか否かを判定し、大きければステップS6−5−19に進み、大きくなければステップS6−5−8に進む。
(ステップS6−5−8)
ステップS6−5−8において、CPU11は、steering[j,0]に格納されている値が0に等しいか否かを判定し、等しければステップS6−5−9に進み、等しくなければステップS6−5−10に進む。
(ステップS6−5−9)
ステップS6−5−9において、CPU11は、steering[j,2]に格納されている値をcmd[4]に格納し、ステップS6−5−19に進む。
(ステップS6−5−10)
ステップS6−5−10において、CPU11は、steering[j,0]に格納されている値が1に等しいか否かを判定し、等しければステップS6−5−11に進み、等しくなければステップS6−5−13に進む。
(ステップS6−5−11)
ステップS6−5−11において、CPU11は、steering[j,3]に格納されている値をcmd[0]に格納し、ステップS6−5−12に進む。
(ステップS6−5−12)
ステップS6−5−12において、CPU11は、steering[j,4]に格納されている値をcmd[1]に格納し、ステップS6−5−19に進む。
(ステップS6−5−13)
ステップS6−5−13において、CPU11は、steering[j,0]に格納されている値が2に等しいか否かを判定し、等しければステップS6−5−14に進み、等しくなければステップS6−5−17に進む。
(ステップS6−5−14)
ステップS6−5−14において、CPU11は、steering[j,5]に格納されている値を変数aに格納し、ステップS6−5−15に進む。
(ステップS6−5−15)
ステップS6−5−15において、CPU11は、track[a,n+1]に格納されている値を変数bに格納し、ステップS6−5−16に進む。
(ステップS6−5−16)
ステップS6−5−16において、CPU11は、obj[n,b,2]に格納されている値をcmd[2]に格納し、ステップS6−5−19に進む。
(ステップS6−5−17)
ステップS6−5−17において、CPU11は、steering[j,0]に格納されている値が3に等しいか否かを判定し、等しければステップS6−5−18に進み、等しくなければステップS6−5−19に進む。
(ステップS6−5−18)
ステップS6−5−18において、CPU11は、cmd[2]に0を格納し、ステップS6−5−19に進む。
(ステップS6−5−19)
ステップS6−5−19において、CPU11は、変数jが0以上J以下であるか否かを判定し、0以上J以下であればステップS6−5−6に戻り、0以上J以下でなければ描画命令生成処理を終了する。
[舵切命令受付処理]
次に、図9を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される舵切命令受付処理を説明する。図9は、舵切命令受付処理の概略フローチャートである。
(ステップS8−1)
ステップS8−1において、CPU11は、マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21から、割込要求が出力されているか否かを判定し、出力されていればステップS8−2に進み、出力されていなければ舵切命令受付処理を終了する。
(ステップS8−2)
ステップS8−2において、CPU11は、マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21から割込要求されたデータを読み出し、ステップS8−3に進む。なお、実施形態に係る動画表示装置において、割込要求されるデータは、座標又は舵切命令である。
(ステップS8−3)
ステップS8−3において、CPU11は、読み出したデータが座標であるか否かを判定し、座標であればステップS8−4に進み、座標でなければステップS8−15に進む。
(ステップS8−4)
ステップS8−4において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS8−5に進み、0以上M以下でなければステップS8−7に進む。
(ステップS8−5)
ステップS8−5において、CPU11は、受け付けた座標が、obj[n,m,3]で示されるエッジ内に収まるか否かを判定し、収まる場合はステップS8−7に進み、収まらない場合はステップS8−6に進む。
(ステップS8−6)
ステップS8−6において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS8−5に戻り、0以上M以下でなければステップS8−7に進む。
(ステップS8−7)
ステップS8−7において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS8−8に進み、0以上I以下でなければステップS8−11に進む。
(ステップS8−8)
ステップS8−8において、CPU11は、track[i,n+1]に格納されている値が変数mに格納されている値に等しいか否かを判定し、等しい場合はステップS8−10に進み、等しくなければステップS8−9に進む。
(ステップS8−9)
ステップS8−9において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS8−8に戻り、0以上I以下でなければステップS8−11に進む。
(ステップS8−10)
ステップS8−10において、CPU11は、変数iに格納されている値をobject_idに格納し、ステップS8−11に進む。
(ステップS8−11)
ステップS8−11において、CPU11は、変数jが0以上J以下であるか否かを判定し、0以上J以下であればステップS8−12に進み、0以上J以下でなければ舵切命令受付処理を終了する。
(ステップS8−12)
ステップS8−12において、CPU11は、steering[j,1]に格納されている値が、object_idに格納されている値と等しいか否かを判定し、等しければステップS8−14に進み、等しくなければステップS8−13に進む。
(ステップS8−13)
ステップS8−13において、CPU11は、舵切命令IDとsteering[j,0]とsteering[j,1]との描画を命じる描画命令を出力し、ステップS8−14に進む。
(ステップS8−14)
ステップS8−14において、CPU11は、変数jが0以上J以下であるか否かを判定し、0以上J以下であればステップS8−12に戻り、0以上J以下でなければ舵切命令受付処理を終了する。
(ステップS8−15)
ステップS8−15において、CPU11は、舵切命令IDを変数jに格納し、ステップS8−16に進む。
(ステップS8−16)
ステップS8−16において、CPU11は、変数jに格納されている値がNULLであるか否かを判定し、NULLであればステップS8−17に進み、NULLでなければステップS8−19に進む。
(ステップS8−17)
ステップS8−17において、CPU11は、変数Jに格納されている値に1を加算して変数Jに格納し、ステップS8−18に進む。
(ステップS8−18)
ステップS8−18において、CPU11は、変数Jに格納されている値を変数jに格納し、ステップS8−19に進む。
(ステップS8−19)
ステップS8−19において、CPU11は、steering[j,0]〜steering[j,7]の全部又は一部に対する格納処理を実行し、舵切命令受付処理を終了する。
以上、実施形態に係る動画表示装置について説明を行ったが、実施形態に係る動画表示装置においてオブジェクトを移動や消去などした際には、移動元の箇所又は消去した箇所の背景を予測して補完しておくことが好ましい。このような背景の予測は、たとえば、複数のフレームを比較することにより行うことができる。
なお、上記した実施形態に係る動画表示装置は、動画の表示中に、各オブジェクトのメタ情報を受け付けることができる。受け付けられたメタ情報は、track[i,0]に格納される。
次に、図10を参照しつつ、本発明の実施例に係る動画表示装置を説明する。図10は、本発明の実施例に係る動画表示装置を示す図である。
実施例において、動画提供者は、Normalの方向に動画が進行することを期待しているものとする。
しかしながら、実施例に係る動画表示装置においては、消去、移動、入替という舵切命令によって、動画提供者が予期していなかった方向へと動画が進行する。
図10で示すように、消去の舵切命令が受け付けられた場合にはEraseの方向へと動画が進行し、移動の舵切命令が受け付けられた場合にはMoveの方向へと動画が進行し、入替の舵切命令が受け付けられた場合には、Switchの方向へと動画が進行する。
図10において、5番目のフレームを比較すれば明らかなように、Eraseの方向、Moveの方向、Switchの方向への動画の進行は、Normalの方向への動画の進行を期待した動画提供者にとって、想定や準備などされていなかったものである。
以上、本発明の実施形態及び実施例について説明したが、これらの説明は、本発明の一例に関するものであり、本発明は、これらの説明によって何ら限定されない。
[提供されたフレーム]
本発明において、「提供されたフレーム」とは、入力手段や受信手段などを介して動画表示装置に取り込まれたフレームを意味する。
ここで、入力手段とは、フレームを入力することが可能なすべての手段を意味し、上記したメディアドライブは、この入力手段の一例である。
また、受信手段とは、フレームを受信することが可能なすべての手段を意味し、上記したネットワークコントローラは、この受信手段の一例である。
「フレーム」、「フレームデータ」
「フレーム」とは、1画面(1コマ)を構成する画像であり、「フレームデータ」には、この画像(例:ラスタデータ)とこの画像に関するデータとが含まれる。
「オブジェクト」、「オブジェクトデータ」
「オブジェクト」とは、フレームの一部を構成する画像、すなわち、1画面(1コマ)の一部を構成する画像であり、「オブジェクトデータ」には、この画像(例:ラスタデータ)とこの画像に関するデータとが含まれる。
1つのフレームは、2つ以上のオブジェクトから構成される。
[舵切命令受付手段]
本発明において、「舵切命令受付手段」とは、動画の表示中に舵切命令を受け付けることができるすべての手段を意味し、たとえば、上記したマウスコントローラやキーボードコントローラやネットワークコントローラなどは、舵切命令受付手段の一例である。
[舵切命令の受付]
本発明において、舵切命令を「受け付ける」とは、舵切命令が入力又は受信などされることをいう。
[描画命令生成手段]
本発明において「描画命令生成手段」とは、描画命令を生成することができるすべての手段を意味する。上記した実施形態においては、CPUを描画命令生成手段の一例として説明したが、本発明においては、たとえばビデオコントローラなども、描画命令生成手段として用いることができる。
[フレームに関するデータ]
「フレームに関するデータ」としては、フレームデータ及び/又はオブジェクトデータなどを用いることができる。
[フレームの描画を命じる描画命令]
「フレームの描画を命じる描画命令」には、「1つのフレームの全部の描画を命じる描画命令」及び/又は「1つのフレームの一部(すなわち「オブジェクト」)の描画を命じる描画命令」が含まれる。
[提供されたフレームではない]
「提供されたフレームではない」とは、[フレームの描画を命じる描画命令]が「1つのフレームの全部の描画を命じる描画命令」とされる場合においては、この「1つのフレーム」が「提供されたフレーム」の1つと完全には一致しないことをいい、[フレームの描画を命じる描画命令]が「1つのフレームの一部(すなわち「オブジェクト」)の描画を命じる描画命令」とされる場合においては、この「1つのフレームの一部(すなわち「オブジェクト」)」が「提供されたフレームの一部(すなわち「オブジェクト」)」の1つと完全には一致しないことをいう。
[動画表示装置]
上記した実施形態においては、パーソナルコンピュータを「動画表示装置」の一例として想定し説明を行ったが、本発明における「動画表示装置」は、何らパーソナルコンピュータに限定されるものではない。本発明における「動画表示装置」には、動画を表示することができるすべての装置が含まれ、たとえば、Television(TV)や携帯端末などのほか、描画命令生成手段を内蔵したプロジェクタなども含まれる。
[動画]
本発明において「動画」とは、画面上で画像が動くすべてのデータを意味し、映画やアニメーションなどのほか、放送番組やライブ映像なども、本発明における「動画」に該当する。
[ネットワーク]
本発明におけるネットワークは、インターネットに限られるものではなく、データが送信、受信、又は送受信されるすべてのネットワークが含まれる。
本発明には、実施形態に係る動画表示装置が備える各手段がネットワーク上に分散している形態も含まれ、このような場合においても、そのネットワークは、動画表示装置を備えているとする。
本発明には、スタンドアロンとして使用される動画表示装置のほか、動画表示装置を備えたネットワークも含まれる。このネットワークには、コンピュータネットワークのほか、番組やCMなどが放送される放送ネットワークや、携帯端末間又は携帯端末と固定端末との間でデータの送信、受信又は送受信が行われる携帯ネットワークも含まれる。

Claims (4)

  1. 提供されたフレームを描画することによって動画を表示する動画表示装置であって、
    動画の表示中に舵切命令を受け付ける舵切命令受付手段と、
    前記舵切命令受付手段で舵切命令を受け付けた場合に、この受け付けた舵切命令に従って、前記提供されたフレームに関するデータから、前記提供されたフレームではないフレームの描画を命じる描画命令を生成する描画命令生成手段と、
    を備えたことを特徴とする動画表示装置。
  2. 請求項1に記載の動画表示装置を備えたコンピュータネットワークシステム。
  3. 請求項1に記載の動画表示装置を備えた放送ネットワークシステム。
  4. 請求項1に記載の動画表示装置を備えた携帯ネットワークシステム。
JP2009550377A 2008-01-25 2008-01-25 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム Active JP5207489B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/000088 WO2009093287A1 (ja) 2008-01-25 2008-01-25 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム

Publications (2)

Publication Number Publication Date
JPWO2009093287A1 true JPWO2009093287A1 (ja) 2011-05-26
JP5207489B2 JP5207489B2 (ja) 2013-06-12

Family

ID=40900808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009550377A Active JP5207489B2 (ja) 2008-01-25 2008-01-25 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム

Country Status (2)

Country Link
JP (1) JP5207489B2 (ja)
WO (1) WO2009093287A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219836A (ja) * 1996-02-14 1997-08-19 Matsushita Electric Ind Co Ltd 画像情報記録方法と画像合成装置
JP2002279443A (ja) * 2001-03-16 2002-09-27 Minolta Co Ltd 映像再生装置、テレビ放送システム、映像送信装置、および映像データ送信方法
JP2007072520A (ja) * 2005-09-02 2007-03-22 Sony Corp 映像処理装置
JP2007280069A (ja) * 2006-04-06 2007-10-25 Toshiba Corp 映像処理システムおよび映像処理方法
JP2007281858A (ja) * 2006-04-06 2007-10-25 Omron Corp 動画編集装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219836A (ja) * 1996-02-14 1997-08-19 Matsushita Electric Ind Co Ltd 画像情報記録方法と画像合成装置
JP2002279443A (ja) * 2001-03-16 2002-09-27 Minolta Co Ltd 映像再生装置、テレビ放送システム、映像送信装置、および映像データ送信方法
JP2007072520A (ja) * 2005-09-02 2007-03-22 Sony Corp 映像処理装置
JP2007280069A (ja) * 2006-04-06 2007-10-25 Toshiba Corp 映像処理システムおよび映像処理方法
JP2007281858A (ja) * 2006-04-06 2007-10-25 Omron Corp 動画編集装置

Also Published As

Publication number Publication date
JP5207489B2 (ja) 2013-06-12
WO2009093287A1 (ja) 2009-07-30

Similar Documents

Publication Publication Date Title
US8331701B2 (en) Image processing device for displaying an image on a display
JP3950776B2 (ja) 映像配信システム、及びそれに用いる映像変換装置
CN110401866B (zh) 直播视频的显示方法、装置、终端和存储介质
WO2024051536A1 (zh) 直播特效渲染方法、装置、设备、可读存储介质及产品
JP2009124510A (ja) 表示制御装置及びその方法、プログラム、記録媒体
CN113645494A (zh) 一种屏幕融合方法、显示设备、终端设备及服务器
US7019750B2 (en) Display status modifying apparatus and method, display status modifying program and storage medium storing the same, picture providing apparatus and method, picture providing program and storage medium storing the same, and picture providing system
CN113423012B (zh) 视频处理方法、服务器和计算机可读存储介质
CN113010075B (zh) 多信号源窗口交互方法、系统、可读存储介质和电子设备
JP5207489B2 (ja) 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム
CN113438436B (zh) 一种视频播放方法、视频会议方法、直播方法及相关设备
CN112269886B (zh) 共享图像采集方法、窗口共享方法和共享图像采集装置
JP2011151510A (ja) 表示制御装置、方法及びプログラム並びに記録媒体
CN111885417B (zh) Vr视频播放方法、装置、设备以及存储介质
CN115033226A (zh) 页面显示方法、装置、终端设备及计算机可读存储介质
CN114745555A (zh) 一种视频图像的运动估计方法及显示设备
US20070098277A1 (en) Transmitting apparatus, image processing system, image processing method, program, and recording medium
JP2008259175A (ja) 記録装置と記録装置のためのプログラム
JP3152556B2 (ja) 2次元画像を3次元画像に変換する方法
CN114360453B (zh) 一种噪声去除方法、装置、显示设备、芯片及介质
US20230377166A1 (en) Non-transitory computer readable medium and communication method
JP5180667B2 (ja) 画像処理装置、画像処理方法
JP2006101236A (ja) 動画編集システム
CN116301318A (zh) 增强现实跟踪算法的降级方法及装置
CN115955594A (zh) 一种图像处理方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120724

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130215

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5207489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250