JP2012015807A - グラフィクスプロセッシングユニットおよび情報処理装置 - Google Patents

グラフィクスプロセッシングユニットおよび情報処理装置 Download PDF

Info

Publication number
JP2012015807A
JP2012015807A JP2010150457A JP2010150457A JP2012015807A JP 2012015807 A JP2012015807 A JP 2012015807A JP 2010150457 A JP2010150457 A JP 2010150457A JP 2010150457 A JP2010150457 A JP 2010150457A JP 2012015807 A JP2012015807 A JP 2012015807A
Authority
JP
Japan
Prior art keywords
processing
video data
data
audio
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010150457A
Other languages
English (en)
Other versions
JP4818450B1 (ja
Inventor
Tsutomu Iwaki
力 岩城
Koji Hachiya
好司 八矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010150457A priority Critical patent/JP4818450B1/ja
Priority to US13/087,246 priority patent/US8174529B2/en
Priority to TW100113550A priority patent/TWI439942B/zh
Priority to CN2011101340539A priority patent/CN102314671B/zh
Application granted granted Critical
Publication of JP4818450B1 publication Critical patent/JP4818450B1/ja
Publication of JP2012015807A publication Critical patent/JP2012015807A/ja
Priority to US13/429,122 priority patent/US20120182302A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42653Internal components of the client ; Characteristics thereof for processing graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】オーディオデータをビデオデータに連携させて処理することができるグラフィクスプロセッシングユニットを実現する。
【解決手段】実施形態によれば、グラフィクスプロセッシングユニットは、複数のプロセッシングコア内の少なくとも一つの第1プロセッシングコアを用いてビデオデータのフレーム群を解析して前記ビデオデータの特徴を検出すると共に、前記複数のプロセッシングコア内の少なくとも一つの第2プロセッシングコアを用いて、メモリ上のオーディオデータに前記検出されたビデオデータの特徴に関連付けられた加工を施す。グラフィクスプロセッシングユニットは、オーディオ信号出力インタフェースを有しており、加工が施されたオーディオデータに対応するオーディオ信号をサウンド機器に出力する。
【選択図】図3

Description

本発明の実施形態は、グラフィクスプロセッシングユニットおよび同グラフィクスプロセッシングユニットを用いた情報処理装置に関する。
一般に、パーソナルコンピュータのような情報処理装置においては、その情報処理装置の描画性能を高めるためにグラフィクスプロセッシングユニット(GPU)が用いられている。最近のGPUの多くは、並列動作可能な複数のプロセッシングコアを含み、例えば2次元または3次元のグラフィクス演算等を高速に実行することができる。
一方、情報処理装置におけるオーディオデータ(サウンドデータとも云う)の処理は、通常、サウンドコントローラと称されるデジタル信号プロセッサ(DSP)によって実行される。しかし、一般に、DSPの演算処理能力は比較的低い。このため、DSP単体でオーディオデータに高度な処理を施すことは困難である。
また、最近では、ビデオデータとオーディオデータの双方を扱うように設計されたメディア処理LSIも開発されている。
再公表特許第2005/096168号公報
しかし、通常のメディア処理LSIによって実現されるのは、せいぜい、ビデオデータをエンコードまたはデコードする機能と、オーディオデータをエンコードまたはデコードする機能程度である。また、通常のメディア処理LSIでは、ビデオデータに対する処理とオーディオデータに対する処理は互いに独立されている。
ビデオデータとオーディオデータとを含むデジタルコンテンツ(例えば、ムービー、DVDビデオ、放送番組データ等)においては、それらビデオデータとオーディオデータとは互いに関連している。このため、デジタルコンテンツを再生する装置においては、ビデオデータに対する処理とオーディオデータに対する処理とを互いに連携させるための新たな機能の実現が必要である。
本発明は上述の事情を考慮してなされたものであり、オーディオデータをビデオデータに連携させて処理することができるグラフィクスプロセッシングユニットおよび情報処理装置を提供することを目的とする。
実施形態によれば、グラフィクスプロセッシングユニットは、ホストインタフェースと、メモリコントローラと、複数のプロセッシングコアと、演算制御手段と、映像信号出力インタフェースと、オーディオ信号出力インタフェースとを具備する。ホストインタフェースは、ホストからビデオデータおよびオーディオデータを受信する。メモリコントローラは、前記受信されたビデオデータおよびオーディオデータをメモリに格納する。前記複数のプロセッシングコアは前記メモリに結合されている。演算制御手段は、前記複数のプロセッシングコア内の少なくとも一つの第1プロセッシングコアを用いて前記メモリ上のビデオデータのフレーム群を解析して前記ビデオデータの特徴を検出すると共に、前記複数のプロセッシングコア内の少なくとも一つの第2プロセッシングコアを用いて、前記メモリ上のオーディオデータに前記検出されたビデオデータの特徴に関連付けられた加工を施す。映像信号出力インタフェースは、ビデオデータに対応する映像信号を生成し、生成された映像信号をディスプレイ機器に出力する。オーディオ信号出力インタフェースは、加工が施されたオーディオデータに対応するオーディオ信号を生成し、生成されたオーディオ信号をサウンド機器に出力する。
実施形態に係る情報処理装置の構成を示す斜視図。 同実施形態の情報処理装置のシステム構成を示すブロック図。 同実施形態の情報処理装置に設けられるグラフィクスプロセッシングユニットの構成を示すブロック図。 図3のグラフィクスプロセッシングユニットによって実行される処理の流れを説明するための図。 図3のグラフィクスプロセッシングユニットによって実行されるリバーブ処理の流れを説明するための図。 図3のグラフィクスプロセッシングユニットによってビデオデータおよびオーディオデータに対して実行される処理の流れを説明するための図。 図3のグラフィクスプロセッシングユニットがビデオデータの解析結果に基づいて実行するオーディオ処理の例を説明するための図。 従来のグラフィクスプロセッシングユニットを用いたシステムにおけるビデオデータおよびオーディオデータの流れを説明するための図。 図3のグラフィクスプロセッシングユニットを用いたシステムにおけるビデオデータおよびオーディオデータの流れを説明するための図。 図3のグラフィクスプロセッシングユニットの機能構成を説明するための図。
以下、図面を参照して、実施形態を説明する。
図1は、本発明の一実施形態に係る情報処理装置の外観を示す斜視図である。この情報処理装置は、例えばノートブックタイプのパーソナルコンピュータ10として実現されている。図1に示すように、本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、LCD(liquid crystal display)17が組み込まれている。ディスプレイユニット12は、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在にコンピュータ本体11に取り付けられている。
コンピュータ本体11は、薄い箱形の筐体を有しており、その上面には、キーボード13、本コンピュータ10を電源オン/電源オフするためのパワーボタン14、入力操作パネル15、タッチパッド16、スピーカ18A,18Bなどが配置されている。入力操作パネル15上には、各種操作ボタンが設けられている。
また、コンピュータ本体11の右側面には、例えばUSB(universal serial bus)2.0規格のUSBケーブルやUSBデバイスを接続するためのUSBコネクタ19が設けられている。さらに、コンピュータ本体11の背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子(図示せず)が設けられている。この外部ディスプレイ接続端子は、デジタル映像信号を外部ディスプレイに出力するために用いられる。
図2は、本コンピュータ10のシステム構成を示す図である。
本コンピュータ10は、図2に示されているように、CPU101、ノースブリッジ102、主メモリ103、サウスブリッジ104、グラフィクスプロセッシングユニット(GPU)105、メモリ105A、BIOS−ROM107、LANコントローラ108、ハードディスクドライブ(HDD)109、光ディスクドライブ(ODD)110、USBコントローラ111A、カードコントローラ111B、無線LANコントローラ112、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)113、EEPROM114等を備える。
CPU101は、本コンピュータ10内の各部の動作を制御するプロセッサである。CPU101は、HDD109から主メモリ103にロードされる、オペレーティングシステム(OS)、及び各種アプリケーションプログラムを実行する。アプリケーションプログラムには、各種デジタルコンテンツ(例えば、ムービー、DVDビデオ、放送番組データ等)を再生するための動画プレーヤが含まれている。この動画プレーヤは、デジタルコンテンツ内のビデオデータおよびオーディオデータをGPU105を用いて再生するように構成されている。また、CPU101は、BIOS−ROM107に格納されたBIOSも実行する。BIOSは、ハードウェア制御のためのプログラムである。
ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、例えば、PCI Express規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17および外部ディスプレイを制御する。GPU105によって生成される映像信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ1にデジタル映像信号を送出することもできる。HDMI端子2は、前述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号とデジタルオーディオ信号とを1本のケーブルでテレビのような外部ディスプレイ1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ1にデジタル映像信号をHDMI端子2を介して送出するためのインタフェースである。
GPU105は、PCI Express規格のシリアルバス等を介してCPU101に結合されており、CPU101からの要求に応じてグラフィクスデータ、ビデオデータおよびオーディオデータを処理するように構成されている。より詳しくは、GPU105は、オーディオデータ(サウンドデータとも云う)をスピーカまたは他の外部サウンド機器に出力するためのオーディオ信号出力インタフェースと、オーディオデータを解析および処理する機能とを有している。したがって、本コンピュータ10においては、グラフィクスデータのみならず、ビデオデータおよびオーディオデータもGPU105によって処理することができる。そしてGPU105によってそれぞれ生成される映像信号およびオーディオ信号(サウンド信号とも云う)は、GPU105から直接的にディスプレイ機器(例えば、LCD17、外部ディスプレイ)およびサウンド機器(スピーカ18A,18B、外部サウンド機器)にそれぞれ出力される。
このように、本実施形態では、GPU105はビデオデータおよびオーディオデータを同時に処理し、そしてビデオデータに対応する映像信号およびオーディオデータに対応するオーディオ信号を外部に直接的に出力することができる。
GPU105は、複数のプロセッシングコア(ストリーミングプロセッサ)を内蔵している。GPU105は、例えば、PCI EXPRESSバスを介してCPU101からオーディオデータを受信し、その受信したオーディオデータを複数のプロセッシングコア内の少なくとも一つを用いて処理する。プロセッシングコアによるオーディオデータの処理は、プロセッシングコアに対応する命令セットをファームウェアまたはソフトウェアによってコントロールする事によって実現してもよい。これによって、GPU105によって実行されるオーディオデータの処理をプログラマブルにすることが可能となり、GPU105によってオーディオデータに対する様々な処理(編集)を実行することができる。オーディオデータの編集とは、オーディオデータに加工を施すことを意味する。オーディオデータの編集には、例えば、各種サウンドエフェクト、各種フィルタ、2D−3Dサウンド変換、音量調節、等が含まれる。たとえば、GPU105は、プロセッシングコア上にロードされたプログラムに従って、オーディオデータを解析し、その解析結果に従ってオーディオデータを適応的に処理(編集)することが出来る。
同様に、GPU105は、例えば、PCI EXPRESSバスを介してCPU101からビデオデータを受信し、その受信したビデオデータを複数のプロセッシングコア内の少なくとも一つを用いて処理することもできる。プロセッシングコアによるビデオデータの処理も、プロセッシングコアに対応する命令セットをファームウェアまたはソフトウェアによってコントロールする事によって実現してもよい。これによって、GPU105によって実行されるビデオデータの処理をプログラマブルにすることが可能となり、GPU105によってビデオデータに対する様々な処理(編集)を実行することができる。ビデオデータの編集とは、ビデオデータに加工を施すことを意味する。ビデオデータの編集には、例えば、高解像度変換、2D−3D変換、リサイズ、回転、等が含まれる。GPU105は、プロセッシングコア上にロードされたプログラムに従って、ビデオデータのフレームそれぞれを解析し、その解析結果に従ってビデオデータを適応的に処理することが出来る。
さらに、GPU105は、ビデオデータの内容に応じてオーディオデータを適応的に処理することもできる。この場合、GPU105は、ビデオデータのフレーム群を解析してそのビデオデータの特徴を検出し、オーディオデータに、検出されたビデオデータの特徴に関連付けられた加工を施す。例えば、GPU105は、ビデオデータの特徴に基づいてそのビデオデータ内の特定のシーン(例えば、会話シーン、画像の暗いシーン、画像が明るいシーン、動きの激しいシーン、動きの少ないシーン、等)を検出し、検出された特定のシーンに属するオーディオデータ内の各フレームに対して、その特定のシーンに関連付けられた所定の加工を施す。各ビデオフレームの解析においては、例えば、GPU105は、ビデオデータの各フレームのヒストグラムを生成し、そのヒストグラムに基づいて各ビデオフレームの特徴を検出してもよい。
逆に、GPU105は、1以上のプロセッシングコアを用いてオーディオデータのフレーム群を解析してそのオーディオデータの特徴を検出し、別の1以上のプロセッシングコアを用いて、ビデオデータに、検出されたオーディオデータの特徴に関連付けられた加工を施すこともできる。
ビデオデータの処理結果およびオーディオデータの処理結果は映像信号およびオーディオ信号として直接的に外部に出力してもよいが、代わりに、ビデオデータの処理結果およびオーディオデータの処理結果をCPU101に転送してもよい。また、ビデオデータの処理およびオーディオデータの処理を再帰的に実行するために、ビデオデータの処理結果およびオーディオデータの処理結果をGPU105内の対応するプロセッシングコアにそれぞれフィードバックしてもよい。
さらに、GPU105は、ビデオデータ内の各ビデオフレームおよびオーディオデータ内の各オーディオフレームにタイムスタンプ(タイムコード)を付与してもよい。このタイムスタンプにより、処理されたビデオデータと処理されたオーディオデータとを同期化することができ、処理されたビデオデータに対応する映像信号と処理されたオーディオデータに対応するオーディオ信号とを互いに同期した状態で外部に出力することが出来る。
サウスブリッジ104は、PCI(Peripheral Component Interconnect)バス上の各デバイス及びLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ104は、HDD109及びODD110を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。
LANコントローラ108は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスであり、一方、無線LANコントローラ112は、例えばIEEE 802.11g規格の無線通信を実行する無線通信デバイスである。USBコントローラ111Aは、(USBコネクタ19を介して接続される)例えばUSB 2.0規格に対応した外部機器との通信を実行する。カードコントローラ111Bは、コンピュータ本体11に設けられたカードスロットに挿入される、SDカードのようなメモリカードに対するデータの書き込み及び読み出しを実行する。
EC/KBC113は、電力管理のためのエンベデッドコントローラと、キーボード13及びタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。EC/KBC113は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10を電源オン/電源オフする機能を有している。
次いで、図3を参照して、GPU105の構成を説明する。
GPU105は、PCI Expressインタフェース201、ハブ202、グラフィクスエンジン203、複数のストリーミングプロセッサ(SP)204、メモリコントローラ205、メモリ105A、映像信号出力インタフェース206、オーディオ信号入出力インタフェース207を備えている。
PCI Expressインタフェース201は、ホスト(CPU101、主メモリ103)と通信するためのホストインタフェースである。PCI Expressインタフェース201は、ホスト(CPU101、主メモリ103)からグラフィスクデータ、ビデオデータおよびオーディオデータを受信する。また、PCI Expressインタフェース201は、ホストからグラフィスクデータ、ビデオデータおよびオーディオデータを処理するための要求(命令群)も受信する。PCI Expressインタフェース201によってCPU101から受信されたグラフィスクデータ、ビデオデータおよびオーディオデータは、メモリコントローラ205によってメモリ105Aに格納される(バッファリング)。メモリ105Aはフレームバッファまたはビデオメモリと称されるメモリである。メモリ105AはGPU105のローカルメモリとして使用される。メモリ105Aは、例えば、GPU105にメモリバスを介して接続される外部メモリまたはGPU105に内蔵される内部メモリのいずれか一方、または双方によって実現される。内部メモリはキャッシュメモリであってもよい。
グラフィクスエンジン203は、グラフィスクデータ、ビデオデータおよびオーディオデータそれぞれに対する処理を、複数のストリーミングプロセッサ(SP)204を用いて実行する。各ストリーミングプロセッサ(SP)204はグラフィクス演算および汎用演算を実行可能なプロセッシングコア(プログラマブルシェーダ)として機能する。各ストリーミングプロセッサ(SP)204によって実行される演算の内容は、グラフィクスエンジン203から各ストリーミングプロセッサ(SP)204にロードされる命令群によって決定することができる。各ストリーミングプロセッサ(SP)204は、メモリコントローラ205を介してメモリ105A上のグラフィスクデータ、ビデオデータおよびオーディオデータそれぞれを参照することができる。さらに、各ストリーミングプロセッサ(SP)204は、グラフィスクデータ、ビデオデータまたはオーディオデータに対する処理結果を、メモリコントローラ205を介してメモリ105Aにライトすることができる。
複数のストリーミングプロセッサ(SP)204には、実行すべき処理がグラフィクスエンジン203によって割り当てられる。この意味で、グラフィクスエンジン203は、複数の処理を並列実行する為にそれら複数の処理を複数のストリーミングプロセッサ(SP)204に割り当てるディスパッチャ(スケジューラとも云う)である。
本実施形態では、ビデオデータの各フレームの解析結果に応じてオーディオデータの各フレームを適応的に処理できるようにするために、グラフィクスエンジン203は、演算制御部203Aを含む。
演算制御部203Aは、例えば、複数のストリーミングプロセッサ(SP)204内の少なくとも一つの第1ストリーミングプロセッサ(SP)204に、メモリ104A上のビデオデータのフレーム群を解析してビデオデータの特徴を検出するための第1のタスクを割り当てる。タスクはスレッドとして実現しても良い。さらに、演算制御部203Aは、複数のストリーミングプロセッサ(SP)204内の少なくとも一つの第2ストリーミングプロセッサ(SP)204に、メモリ104A上のオーディオデータに対して、検出されたビデオデータの特徴に関連付けられた加工を施すための第2のタスクを割り当てる。第1のタスクと第2のタスクは並列に実行される。
第1のタスクが割り当てられた各第1ストリーミングプロセッサ(SP)204は、演算制御部203Aからその第1ストリーミングプロセッサ(SP)204にロードされる命令を実行する。そして、各第1ストリーミングプロセッサ(SP)204は、メモリ105Aからビデオデータのフレームをフェッチし、そのフレームの画像を解析する。解析処理では、例えば、各ビデオフレームの画像特徴を検出する処理、ビデオフレームに出現する特定のオブジェクト(例えば人物)を検出する処理、特定のオブジェクトの動きを検出する処理、ビデオフレーム内の特定のオブジェクトの位置を検出する処理などを実行してもよい。各ビデオフレームの特徴を示す解析処理結果は、メモリ105Aに格納される。
第2のタスクが割り当てられた各第2ストリーミングプロセッサ(SP)204は、演算制御部203Aからロードされる命令を実行する。そして、各第2ストリーミングプロセッサ(SP)204は、例えば、メモリ105Aに格納された各ビデオフレームの特徴を示す解析処理結果に基づいて、各オーディオフレームに対して、対応するビデオフレームの特徴に関連付けられた加工(編集)を施す。この場合、各第2ストリーミングプロセッサ(SP)204は、メモリ105Aからオーディオデータのフレームをフェッチし、そのフェッチしたオーディオデータのフレームに対して、対応するビデオフレームの特徴に関連付けられた加工(編集)を施す。
このように、本実施形態では、複数のストリーミングプロセッサ(SP)204を用いて、メモリ105A上のビデオデータを解析する処理と、ビデオデータの解析結果に応じてメモリ105A上のオーディオデータを加工(編集)する処理とを並列に実行することができる。
映像信号出力インタフェース206は、ストリーミングプロセッサ(SP)204によって処理されたビデオデータに対応する映像信号を生成し、生成された映像信号をディスプレイ機器に出力する。この映像信号出力インタフェース206は、デジタル−アナログコンバータ(DAC)301、ディスプレイアナログ出力インタフェース302、ディスプレイディジタル出力インタフェース303を含む。デジタル−アナログコンバータ(DAC)301とデジタル−アナログコンバータ(DAC)301は、処理されたビデオデータからアナログ映像信号(RGB)を生成する。アナログ映像信号(RGB)はGPU105に設けられたアナログ映像信号出力ピンを介して外部のRGBモニタに出力される。ディスプレイディジタル出力インタフェース303は、処理されたビデオデータからデジタル映像信号を生成する。デジタル映像信号は、GPU105に設けられたデジタル映像信号出力ピンを介して外部のデジタルモニタ(DVIモニタ、HDMIモニタ、DPモニタ等)に出力される。
オーディオ信号入出力インタフェース207は、オーディオ信号を外部機器から入力すると共に、オーディオ信号を外部機器へ出力する。オーディオ信号入出力インタフェース207は、デジタル−アナログコンバータ(DAC)311、サウンドアナログ出力インタフェース312、アナログ−ディジタルコンバータ(ADC)313、サウンドアナログ入力インタフェース314、サウンドデジタル出力インタフェース315、およびサウンドデジタル入力インタフェース316を含む。
デジタル−アナログコンバータ(DAC)311とサウンドアナログ出力インタフェース312は、処理されたオーディオデータからアナログオーディオ信号(アナログサウンド信号とも云う)を生成する。アナログオーディオ信号はGPU105に設けられたアナログオーディオ信号出力ピンを介してスピーカまたは他の外部アナログサウンド機器に出力される。サウンドアナログ入力インタフェース314はマイクロフォンなどからアナログオーディオ信号を入力し、アナログ−ディジタルコンバータ(ADC)313は入力されたアナログオーディオ信号をデジタルオーディオ信号に変換する。
サウンドデジタル出力インタフェース315は、処理されたオーディオデータからデジタルオーディオ信号(デジタルサウンド信号とも云う)を生成する。デジタルオーディオ信号は、GPU105に設けられたデジタルオーディオ信号出力ピンを介して外部のデジタルサウンド機器に出力される。サウンドデジタル入力インタフェース316は外部からデジタルオーディオ信号を入力する。
入力されたオーディオ信号もストリーミングプロセッサ(SP)204によって処理することが出来る。例えば、演算制御部203Aは、1以上のストリーミングプロセッサ(SP)204を用いて、マイクから入力された音声信号を認識する音声認識処理を実行することもできる。音声認識の結果はPCI Expressインタフェース201を介してホストに送信することが出来る。
このように、本実施形態においては、GPU105には、オーディオ信号の入出力の為に必要な外部インタフェースが追加されており、さらに、従来、DSPで行われていたオーディオ処理を拡張した高度なオーディオ処理がGPU105のメモリ105Aとストリーミングプロセッサ204を用いて実行される。これによって、コンピュータ10のシステムからオーディオ処理用のDSPを排除する事が可能になり、システムのトータルコストを削減できる。
図4は、ストリーミングプロセッサ(SP)204によって実行される演算処理を示している。演算制御部203Aからの1以上の命令はストリーミングプロセッサ204に入力される(Input Assembler)。ストリーミングプロセッサ(SP)204は、命令に従って、メモリ105Aからデータをフェッチし、フェッチしたデータに各種演算を施す。実行される演算内容は、命令によって決定される。ストリーミングプロセッサ(SP)204は、演算結果を必要に応じてメモリ105Aにライトするかストリーミングプロセッサ(SP)204自身にフィードバックしながら、データのフェッチおよび演算を順次実行する。
図5は、ストリーミングプロセッサ(SP)204によって実行されるリバーブ処理のための演算処理の例を示している。ストリーミングプロセッサ(SP)204には以下の命令が予めロードされる。
data[n] = data[n]+data[n-1]×R
ここで、Rはリバーブ処理における残響の強さを示す係数である。
オーディオデータは時系列状に並んだ一連のデータ(A,B,C,D,……)から構成される。オーディオデータは予めメモリ105Aにバッファリングされる。ストリーミングプロセッサ(SP)204は、メモリ105Aからオーディオデータを離散データとして取得していき、あらかじめ与えられた命令を実行する。これにより、最終的には、各離散データに残響効果が適用されたオーディオデータがストリーミングプロセッサ(SP)204によって生成される。図5の「Output」の部分で、GPU105は、リバーブ処理されたオーディオデータに対応するオーディオ信号を外部に出力する。
以上のようにして、DSPの代替処理をGPU105内のストリーミングプロセッサ(SP)204によって実行することができる。
次に、図6を参照して、GPU105によって実行されるビデオデータおよびオーディオデータに対する処理の流れを説明する。本実施形態では、以下の処理が全てGPU105によって完結可能である。
(1)GPU105はビデオデータおよびオーディオデータをホストから受信し、受信したビデオデータおよびオーディオデータをメモリ105Aに格納する。また、GPU105はビデオデータとオーディオデータとがマルチプレクスされたストリーミングデータをホストから受信し、受信したストリーミングデータをメモリ105Aに格納してもよい。
(2)GPU105はビデオデータを解析し、その解析結果に応じてビデオデータを処理する。ビデオデータの解析および処理はGPU105内の1以上のストリーミングプロセッサ(SP)204によって実行される。ストリーミングプロセッサ(SP)204によるビデオデータの解析および処理はストリーミングプロセッサ(SP)204にロードされた命令に従って実行される。ビデオデータの解析および処理に並行して、GPU105はオーディオデータを解析し、その解析結果に応じてオーディオデータを処理することができる。オーディオデータの解析および処理はGPU105内の別の1以上のストリーミングプロセッサ(SP)204によって実行される。ストリーミングプロセッサ(SP)204によるオーディオデータの解析および処理はストリーミングプロセッサ(SP)204にロードされた命令に従って実行される。
(3)ビデオデータの処理では、1つ前のビデオフレームの演算結果を現在のビデオフレームの演算のためにフィードバックしてもよい。同様に、オーディオデータ処理でも、1つ前のオーディオフレームの演算結果を現在のオーディオフレームの演算のためにフィードバックしてもよい。さらに、GPU105は、上述したように、ビデオフレームそれぞれの解析結果に基づいて対応するオーディオフレームを処理することもできる。
(4)GPU105は、処理されたビデオデータに対応する映像信号および処理されたオーディオデータに対応するオーディオ信号を外部に直接的に出力する。
これによって、一度データがGPU105のメモリ105Aにロードされた後は、GPU105はCPU101との通信を行う必要がなくなる為、CPUリソースを削減できる。
次に、図7を参照して、ビデオフレームの解析結果に基づいてオーディオフレームを処理する例について説明する。ここでは、人が喋っているシーンに属するオーディオデータ内のフレームそれぞれに対して、聞き取りやすいよう人の声を強調するという加工を施す場合を例示して説明する。
ストリーミングプロセッサ(SP)204には、以下の処理の実行を指示する命令群が予めロードされる。
(1)ビデオデータの各フレームの画像を解析して、唇を探索し、唇の動きを認識する。
(2)唇の動きから「人が喋っているシーン」を検出(認識)する。
(3)人が喋っているシーンに属するオーディオデータのフレームそれぞれに対して、人の声帯音域が強調されるように、音域のゲーティング、イコライジング等の加工を施す。
(4)加工されたオーディオデータの各フレームを、メモリ105A上の対応するオーディオフレームにフィードバックする。
この後、幾つかのストリーミングプロセッサ(SP)204は、ビデオデータとオーディオデータをメモリ105Aからフェッチしていき、あらかじめ与えられた命令を実行する。これにより、最終的には、人が喋っているシーンでは、人の声帯音域が強調されたオーディオデータがストリーミングプロセッサ(SP)204によって生成される。そして、ビデオデータに対応する映像信号および処理されたオーディオデータに対応するオーディオ信号が外部に直接的に出力される。
なお、ビデオフレームの解析結果に基づいてオーディオフレームを処理する例は上述の例に制限されない。例えば、ビデオデータ内のフレームそれぞれの輝度に応じてオーディオデータ内のフレームそれぞれの音量を調整してもよい。この場合、比較的暗いシーンに対応するオーディオデータの音量はダウンし、比較的明るいシーンに対応するオーディオデータの音量はアップしてもよい。また、特定のシーンに属する各オーディオフレームに対してリバーブ処理やサラウンド処理等を適用するようにしてもよい。
ところで、近年では、GPUを汎用演算に使用するといういわゆる「GPGPU」環境も開発され始めている。「GPGPU」環境は、科学技術演算のような汎用演算をGPUに実行させるために使用される。「GPGPU」環境では、CPUからGPUに命令群およびデータが送られ、そしてGPUによって得られた演算結果がGPUからCPUに戻される。したがって、たとえ図8のように、(1)CPU501から従来のGPU503に対してオーディオデータをインプットしたとしても、(2)GPU503からCPU501にオーディオデータの処理結果を戻すことが必要となり、さらには、(3)オーディオデータの処理結果をCPU501からDSP504に転送することが必要となる。よって、多くのバス帯域が消費されることになる。
本実施形態では、図9に示すように、GPU105がビデオデータおよびオーディオデータの双方を複数のストリーミングプロセッサ(SP)204を用いて処理でき、且つGPU105が映像信号およびオーディオ信号を直接的に出力することができる。よって、(1)CPU101からGPU105にビデオデータおよびオーディオデータを転送するだけで、(2)GPU105が映像信号およびオーディオ信号を出力することが可能となる。よって、CPUリソースやバス帯域を消費しなくて済むようになる。
次に、図10を参照して、GPU105の機能構成について説明する。
GPU105は、ビデオストリームバッファ601、ビデオデコーダ602、ビデオフレームバッファ603、オーディオストリームバッファ604、オーディオデコーダ605、ビデオフレームバッファ606、ビデオ&オーディオ編集処理部607、およびビデオ&オーディオ同期化処理部608を含む。ビデオストリームバッファ601、ビデオフレームバッファ603、オーディオストリームバッファ604、およびビデオフレームバッファ606は、それぞれメモリ105A上の記憶領域である。
ビデオストリームバッファ601はホストから転送されるビデオデータのストリームを格納するためのバッファである。ビデオデータのストリームは符号化されていてもよい。オーディオストリームバッファ604はホストから転送されるオーディオデータのストリームを格納するためのバッファである。オーディオデータのストリームも符号化されていてもよい。
ビデオデコーダ602は、ビデオストリームバッファ601からビデオデータをフェッチし、フェッチしたビデオデータをデコードする。ビデオデータをデコードすることにより、フレーム単位のデータ、および、その各フレームに付随する各情報(例えばカラー情報等)、同期を行う為のタイムコードが取り出される。カラー情報は、対応するビデオフレームのカラーフォーマット(YUV、RGB等)を示す。デコードによってフレーム毎に得られるビデオフレーム(画像データ)、カラー情報およびタイムコードは、ビデオフレームバッファ603に格納される。ビデオデコーダ602は、例えば、1以上のストリーミングプロセッサ(SP)204にデコード処理を実行させることによって実現してもよい。換言すれば、ビデオデコーダ602は、演算制御部203Aと、演算制御部203Aによってビデオデコードのためのタスクが割り当てられる1以上のストリーミングプロセッサ(SP)204とによって実現してもよい。
オーディオデコーダ605は、オーディオストリームバッファ604からオーディオデータをフェッチし、フェッチしたオーディオデータをデコードする。オーディオデータをデコードすることにより、フレーム単位のデータ、および、その各フレームに付随する各情報、同期を行う為のタイムコードが取り出される。デコードによってフレーム毎に得られるオーディオフレーム(データ)、タイムコードは、オーディオフレームバッファ606に格納される。
ビデオ&オーディオ編集処理部607は、ビデオフレームバッファ603上のビデオデータの解析および処理を実行すると共に、オーディオフレームバッファ606上のオーディオデータの解析および処理を実行する。さらに、このビデオ&オーディオ編集処理部607は、ビデオフレームバッファ603上のビデオデータのフレームそれぞれの解析結果に基づいて、オーディオフレームバッファ606上のオーディオデータを処理することもできる。このビデオ&オーディオ編集処理部607は、演算制御部203Aと、演算制御部203Aによってビデオ解析用のタスクが割り当てられる1以上のストリーミングプロセッサ(SP)204と、演算制御部203Aによってオーディオ編集用のタスクが割り当てられる1以上のストリーミングプロセッサ(SP)204とによって実現してもよい。
なお、このビデオ&オーディオ編集処理部607は、オーディオフレームバッファ606上のオーディオデータの各フレームの解析結果に基づいて、ビデオフレームバッファ603上のビデオデータの各フレームを処理することもできる。このビデオ&オーディオ編集処理部607は、演算制御部203Aと、演算制御部203Aによってオーディオ解析用のタスクが割り当てられる1以上のストリーミングプロセッサ(SP)204と、演算制御部203Aによってビデオ編集用のタスクが割り当てられる1以上のストリーミングプロセッサ(SP)204とによって実現してもよい。
ビデオ&オーディオ同期化処理部608は、解析および処理された各ビデオフレームのタイムコードと解析および処理された各オーディオフレームのタイムコードとを用いて、ビデオデータとオーディオデータとを同期化する。そして、処理されたビデオデータに対応する映像信号は映像信号出力インタフェース206を介して外部に出力される。同時に、処理されたオーディオデータに対応するオーディオ信号はオーディオ信号入出力インタフェース207を介して外部に出力される。
なお、ここでは、ビデオデータとオーディオデータとを連携して処理する例を中心に説明したが、同様にして、グラフィクスデータの各フレームの解析結果に応じてオーディオデータの各フレームを処理することもできる。
以上説明したように、本実施形態によれば、GPU105はビデオデータの各シーンの特徴等に対応する様々な加工をオーディオデータに適応的に施すことができ、そしてビデオデータに対応する映像信号およびオーディオデータに対応するオーディオ信号を外部に直接的に出力することができる。よって、オーディオデータをビデオデータに連携させて処理することができる。
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
101…CPU、103…主メモリ、105…GPU、201…PCI Expressインタフェース、202…ハブ、203…グラフィクスエンジン、204…ストリーミングプロセッサ(SP)、205…メモリコントローラ、105A…メモリ、206…映像信号出力インタフェース、207…オーディオ信号入出力インタフェース。

Claims (8)

  1. ホストからビデオデータおよびオーディオデータを受信するホストインタフェースと、
    前記受信されたビデオデータおよびオーディオデータをメモリに格納するメモリコントローラと、
    前記メモリに結合された複数のプロセッシングコアと、
    前記複数のプロセッシングコア内の少なくとも一つの第1プロセッシングコアを用いて前記メモリ上のビデオデータのフレーム群を解析して前記ビデオデータの特徴を検出すると共に、前記複数のプロセッシングコア内の少なくとも一つの第2プロセッシングコアを用いて、前記メモリ上のオーディオデータに前記検出されたビデオデータの特徴に関連付けられた加工を施す演算制御手段と、
    前記ビデオデータに対応する映像信号を生成し、生成された映像信号をディスプレイ機器に出力する映像信号出力インタフェースと、
    前記加工が施されたオーディオデータに対応するオーディオ信号を生成し、生成されたオーディオ信号をサウンド機器に出力するオーディオ信号出力インタフェースとを具備するグラフィクスプロセッシングユニット。
  2. 前記演算制御手段は、前記ビデオデータの特徴に基づいて前記ビデオデータ内の特定のシーンを検出し、前記特定のシーンに属する前記オーディオデータ内の各フレームに対して所定の加工を施す請求項1記載のグラフィクスプロセッシングユニット。
  3. 前記演算制御手段は、前記少なくとも一つの第1プロセッシングコアに前記メモリ上のビデオデータのフレーム群を解析して前記ビデオデータの特徴を検出するための第1のタスクを割り当て、前記少なくとも一つの第2プロセッシングコアに前記メモリ上のオーディオデータに前記検出されたビデオデータの特徴に関連付けられた加工を施すための第2のタスクを割り当てる請求項1記載のグラフィクスプロセッシングユニット。
  4. 前記演算制御手段は、前記複数のプロセッシングコア内の少なくとも一つのプロセッシングコアを用いて前記メモリ上のオーディオデータのフレーム群を解析して前記オーディオデータの特徴を検出すると共に、前記複数のプロセッシングコア内の少なくとも一つのプロセッシングコアを用いて、前記メモリ上のビデオデータに前記検出されたオーディオデータの特徴に関連付けられた加工を施す請求項1記載のグラフィクスプロセッシングユニット。
  5. サウンド機器からのオーディオ信号を入力するオーディオ信号入力インタフェースをさらに具備する請求項1記載のグラフィクスプロセッシングユニット。
  6. CPUと、
    前記CPUに結合され、前記CPUからの要求に応じてグラフィクスデータ、ビデオデータおよびオーディオデータを処理するように構成されたグラフィクスコントローラとを具備し、
    前記グラフィクスコントローラは、
    前記CPUからビデオデータおよびオーディオデータを受信するホストインタフェースと、
    前記受信されたビデオデータおよびオーディオデータをメモリに格納するメモリコントローラと、
    前記メモリに結合された複数のプロセッシングコアと、
    前記複数のプロセッシングコア内の少なくとも一つの第1プロセッシングコアを用いて前記メモリ上のビデオデータのフレーム群を解析して前記ビデオデータの特徴を検出すると共に、前記複数のプロセッシングコア内の少なくとも一つの第2プロセッシングコアを用いて、前記メモリ上のオーディオデータに前記検出されたビデオデータの特徴に関連付けられた加工を施す演算制御手段と、
    前記ビデオデータに対応する映像信号を生成し、生成された映像信号をディスプレイ機器に出力する映像信号出力インタフェースと、
    前記加工が施されたオーディオデータに対応するオーディオ信号を生成し、生成されたオーディオ信号をサウンド機器に出力するオーディオ信号出力インタフェースとを具備する情報処理装置。
  7. 前記演算制御手段は、前記ビデオデータの特徴に基づいて前記ビデオデータ内の特定のシーンを検出し、前記特定のシーンに属する前記オーディオデータ内の各フレームに対して所定の加工を施す請求項6記載の情報処理装置。
  8. 前記演算制御手段は、前記少なくとも一つの第1プロセッシングコアに前記メモリ上のビデオデータのフレーム群を解析して前記ビデオデータの特徴を検出するための第1のタスクを割り当て、前記少なくとも一つの第2プロセッシングコアに前記メモリ上のオーディオデータに前記検出されたビデオデータの特徴に関連付けられた加工を施すための第2のタスクを割り当てる請求項6記載の情報処理装置。
JP2010150457A 2010-06-30 2010-06-30 グラフィクスプロセッシングユニットおよび情報処理装置 Active JP4818450B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010150457A JP4818450B1 (ja) 2010-06-30 2010-06-30 グラフィクスプロセッシングユニットおよび情報処理装置
US13/087,246 US8174529B2 (en) 2010-06-30 2011-04-14 Graphics processing unit and information processing apparatus
TW100113550A TWI439942B (zh) 2010-06-30 2011-04-19 圖形處理單元及資訊處理裝置
CN2011101340539A CN102314671B (zh) 2010-06-30 2011-05-12 图形处理单元和信息处理设备
US13/429,122 US20120182302A1 (en) 2010-06-30 2012-03-23 Graphics processing unit and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010150457A JP4818450B1 (ja) 2010-06-30 2010-06-30 グラフィクスプロセッシングユニットおよび情報処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011183959A Division JP5361962B2 (ja) 2011-08-25 2011-08-25 グラフィクスプロセッシングユニットおよび情報処理装置

Publications (2)

Publication Number Publication Date
JP4818450B1 JP4818450B1 (ja) 2011-11-16
JP2012015807A true JP2012015807A (ja) 2012-01-19

Family

ID=45327035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010150457A Active JP4818450B1 (ja) 2010-06-30 2010-06-30 グラフィクスプロセッシングユニットおよび情報処理装置

Country Status (4)

Country Link
US (2) US8174529B2 (ja)
JP (1) JP4818450B1 (ja)
CN (1) CN102314671B (ja)
TW (1) TWI439942B (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8515052B2 (en) 2007-12-17 2013-08-20 Wai Wu Parallel signal processing system and method
US8755515B1 (en) 2008-09-29 2014-06-17 Wai Wu Parallel signal processing system and method
US10013731B2 (en) * 2011-06-30 2018-07-03 Intel Corporation Maximizing parallel processing in graphics processors
US9311169B2 (en) * 2012-05-02 2016-04-12 Nvidia Corporation Server based graphics processing techniques
US9805439B2 (en) 2012-05-02 2017-10-31 Nvidia Corporation Memory space mapping techniques for server based graphics processing
US9542715B2 (en) 2012-05-02 2017-01-10 Nvidia Corporation Memory space mapping techniques for server based graphics processing
US9613390B2 (en) 2012-05-02 2017-04-04 Nvidia Corporation Host context techniques for server based graphics processing
CN102867371A (zh) * 2012-09-19 2013-01-09 四川德源电气有限公司 一种充电桩
US9361116B2 (en) * 2012-12-28 2016-06-07 Intel Corporation Apparatus and method for low-latency invocation of accelerators
US10140129B2 (en) 2012-12-28 2018-11-27 Intel Corporation Processing core having shared front end unit
US9417873B2 (en) 2012-12-28 2016-08-16 Intel Corporation Apparatus and method for a hybrid latency-throughput processor
US10346195B2 (en) 2012-12-29 2019-07-09 Intel Corporation Apparatus and method for invocation of a multi threaded accelerator
US9274743B2 (en) 2013-08-01 2016-03-01 Nvidia Corporation Dedicated voice/audio processing through a graphics processing unit (GPU) of a data processing device
US20180308450A1 (en) * 2017-04-21 2018-10-25 Intel Corporation Color mapping for better compression ratio
US10417731B2 (en) 2017-04-24 2019-09-17 Intel Corporation Compute optimization mechanism for deep neural networks
US10417734B2 (en) 2017-04-24 2019-09-17 Intel Corporation Compute optimization mechanism for deep neural networks
US10602139B2 (en) * 2017-12-27 2020-03-24 Omnivision Technologies, Inc. Embedded multimedia systems with adaptive rate control for power efficient video streaming
CN109062385A (zh) * 2018-09-28 2018-12-21 湖南长城银河科技有限公司 基于飞腾处理器的主板和计算机
CN115100020A (zh) * 2019-01-18 2022-09-23 奇跃公司 虚拟、增强和混合现实系统以及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074384A (ja) * 2000-09-05 2002-03-15 Sharp Corp 画像処理装置
WO2005096168A1 (ja) * 2004-04-01 2005-10-13 Matsushita Electric Industrial Co., Ltd. 映像音声処理用集積回路

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7184059B1 (en) * 2000-08-23 2007-02-27 Nintendo Co., Ltd. Graphics system with copy out conversions between embedded frame buffer and main memory
JP4683760B2 (ja) 2000-08-23 2011-05-18 任天堂株式会社 再構成可能なピクセルフォーマットを有する組み込みフレームバッファを有するグラフィックスシステム
JP2005096168A (ja) 2003-09-24 2005-04-14 Fuji Photo Film Co Ltd ヘッドクリーニング方法及び感熱プリンタ
US20060059510A1 (en) * 2004-09-13 2006-03-16 Huang Jau H System and method for embedding scene change information in a video bitstream
US7612832B2 (en) * 2005-03-29 2009-11-03 Microsoft Corporation Method and system for video clip compression
CN101674442B (zh) * 2009-09-22 2015-01-21 北京中星微电子有限公司 用于检测中频信号音频模式的装置和方法
US8572356B2 (en) * 2010-01-05 2013-10-29 Oracle America, Inc. Space-efficient mechanism to support additional scouting in a processor using checkpoints

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074384A (ja) * 2000-09-05 2002-03-15 Sharp Corp 画像処理装置
WO2005096168A1 (ja) * 2004-04-01 2005-10-13 Matsushita Electric Industrial Co., Ltd. 映像音声処理用集積回路

Also Published As

Publication number Publication date
CN102314671B (zh) 2013-12-25
TW201214287A (en) 2012-04-01
US20120182302A1 (en) 2012-07-19
CN102314671A (zh) 2012-01-11
JP4818450B1 (ja) 2011-11-16
US8174529B2 (en) 2012-05-08
TWI439942B (zh) 2014-06-01
US20120001930A1 (en) 2012-01-05

Similar Documents

Publication Publication Date Title
JP4818450B1 (ja) グラフィクスプロセッシングユニットおよび情報処理装置
KR101128748B1 (ko) 휴대용 컴퓨팅 시스템에서의 저전력 dvd 재생
WO2019001347A1 (zh) 移动设备的投屏方法、存储介质、终端及投屏系统
TWI540891B (zh) 媒體播放工作量排程器
CA2563782A1 (en) System and methods for using graphics hardware for real time two and three dimensional, single definition, and high definition video effects
WO2020108099A1 (zh) 视频处理方法、装置、电子设备和计算机可读介质
JP6284931B2 (ja) 多重動画再生方法及び装置
CN112992171B (zh) 一种显示设备及消除麦克风接收回声的控制方法
US11942096B2 (en) Computer system for transmitting audio content to realize customized being-there and method thereof
JP2019015951A (ja) 電子機器のウェイクアップ方法、装置、デバイス及びコンピュータ可読記憶媒体
JP2013542649A (ja) 仮想ビデオ・キャプチャ・デバイス
US8755668B2 (en) Playback apparatus and playback method
CN112689197B (zh) 一种文件格式转换方法、装置、以及计算机存储介质
JP2007149008A (ja) 携帯型電子機器および省電力制御方法
JP5361962B2 (ja) グラフィクスプロセッシングユニットおよび情報処理装置
TWI619383B (zh) 無線顯示雲端模式
JP2013243619A (ja) 音響処理装置及び音響処理方法
US8005348B2 (en) Information processing apparatus
KR20140117889A (ko) 클라이언트 장치, 서버 장치, 멀티미디어 리디렉션 시스템 및 그 방법
KR101277354B1 (ko) 메모리 대역폭 및 저장소를 감소시키기 위한 이미지 데이터의 지각적 무손실 압축
WO2021004049A1 (zh) 显示装置、音频数据传输方法及装置
CN112433696A (zh) 一种壁纸显示方法、装置、设备和介质
JP5238849B2 (ja) 電子機器、電子機器の制御方法及び電子機器の制御プログラム
TWI539795B (zh) 使用變化區域的媒體編碼
JP2010148048A (ja) 動画像再圧縮装置および動画像再圧縮方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4818450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350