JP2014140181A - 受信装置および受信方法 - Google Patents

受信装置および受信方法 Download PDF

Info

Publication number
JP2014140181A
JP2014140181A JP2014027111A JP2014027111A JP2014140181A JP 2014140181 A JP2014140181 A JP 2014140181A JP 2014027111 A JP2014027111 A JP 2014027111A JP 2014027111 A JP2014027111 A JP 2014027111A JP 2014140181 A JP2014140181 A JP 2014140181A
Authority
JP
Japan
Prior art keywords
data
content
unit
hdmi
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014027111A
Other languages
English (en)
Other versions
JP5983651B2 (ja
Inventor
Toshihide Hayashi
俊英 林
Masayuki Tsumura
正幸 津村
Hiroki Tsumori
弘樹 津守
Katsuhiro Shimizu
克浩 清水
Yorozu Kawamura
万 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014027111A priority Critical patent/JP5983651B2/ja
Publication of JP2014140181A publication Critical patent/JP2014140181A/ja
Application granted granted Critical
Publication of JP5983651B2 publication Critical patent/JP5983651B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/083Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical and the horizontal blanking interval, e.g. MAC data signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/005Adapting incoming signals to the display format of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2805Home Audio Video Interoperability [HAVI] networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/38Transmitter circuitry for the transmission of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Systems (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

【課題】受信側において映像信号(画像データ)に対してコンテンツの種類に応じた最適な処理を可能する。
【解決手段】複数チャネルで、差動信号により送信されてくる、コンテンツの種類を識別するためのコンテンツ識別情報がブランキング期間のデータアイランドのAVIInfoFrameに挿入された映像信号を受信する。この映像信号に対して、そのAVIInfoFrameに挿入されているコンテンツ識別情報に基づいて、表示のための処理を行う。コンテンツ識別情報は、階層的に配置された、1ビットのデータからなる第1のデータと2ビットのデータからなる第2のデータにより構成されており、少なくともゲームか否かを識別する。
【選択図】図1

Description

この発明は、例えば、HDMI(High Definition Multimedia Interface) 等の通信インタフェースを用いる受信装置および受信方法に関する。
近年、例えば、DVD(Digital Versatile Disc) レコーダや、セットトップボックス、その他のAVソース(Audio Visual source)から、テレビジョン受像機、プロジェクタ、その他のディスプレイに対して、デジタル映像信号、すなわち、非圧縮(ベースバンド)の映像信号(以下、「画像データ」という)と、その映像信号に付随するデジタル音声信号(以下、「音声データ」という)とを、高速に伝送する通信インタフェースとして、HDMIが普及しつつある(例えば、特許文献1参照)。
HDMIについては、画像データと音声データを、高速で、HDMIソース(HDMI Source)からHDMIシンク(HDMI Sink)に一方向に伝送するTMDS(Transition Minimized Differential Signaling)チャネル、HDMIソースとHDMIシンクとの間で双方向の通信を行うためのCECライン(Consumer Electronics Control Line)等が規定されている。
特開2006−319503号公報
上述したHDMIは、本来、動画コンテンツの画像データを送信するための通信インタフェースである。しかし、コンテンツの種類には、動画の他に、静止画、テキスト、シネマ、ゲーム等が存在する。画像データの受信側では、送信されてくる画像データに対して例えば輪郭強調等の画像表示のための処理等が行われるが、当該画像データに対して最適な処理を行い得るようにしたいという要望がある。
この発明の目的は、受信側において映像信号(画像データ)に対してコンテンツの種類に応じた最適な処理を可能とすることにある。
この発明の概念は、
複数チャネルで、差動信号により送信されてくる、コンテンツの種類を識別するためのコンテンツ識別情報がブランキング期間のデータアイランドのAVIInfoFrameに挿入された映像信号を受信する受信部と、
上記受信部で受信された映像信号に対して表示のための処理を行う表示処理部と、
上記受信部で受信された映像信号のAVIInfoFrameに挿入されている上記コンテンツ識別情報に基づいて上記表示処理部の動作を制御する制御部とを備え、
上記コンテンツ識別情報は、階層的に配置された、1ビットのデータからなる第1のデータと2ビットのデータからなる第2のデータにより構成されており、少なくともゲームか否かを識別する
受信装置にある。
この発明においては、受信部により、複数チャネルで、差動信号により送信されてくる、コンテンツ識別情報がブランキング期間のデータアイランドのAVIInfoFrameに挿入された映像信号が受信される。そして、表示処理部では、受信された映像信号に対して、輪郭強調等の表示のための処理が行われる。この場合、制御部により、受信部で受信された映像信号のAVIInfoFrameに挿入されているコンテンツ識別情報に基づいて、表示処理部の動作が制御される。コンテンツ識別情報は、階層的に配置された、1ビットのデータからなる第1のデータと2ビットのデータからなる第2のデータにより構成されており、少なくともゲームか否かを識別するものである。これにより、表示処理部では、受信された映像信号がいかなるコンテンツに係るものであるかによって表示処理部の動作が変更されることになり、映像信号に対して最適な処理が行われる。
なお、この発明において、例えば、コンテンツ識別情報で識別されるコンテンツの種類は、動画、テキスト、静止画、シネマおよびゲームである、ようにされてもよい。また、この発明において、例えば、コンテンツ識別情報は、コンテンツの種類を示す情報を含む、ようにされてもよい。また、この発明において、例えば、コンテンツ識別情報は、ベンダーネームを示す情報およびソース機器の種類を示す情報のいずれか、または双方を含む、ようにされてもよい。
この発明によれば、コンテンツ識別情報に基づいて、映像信号に対してコンテンツの種類に応じた最適な処理を行うことができる。
実施の形態としてのAVシステムの構成例を示すブロック図である。 ディスプレイの表示処理部および表示部の具体的な構成例を示すブロック図である。 HDMIソースとHDMIシンクの構成例を示すブロック図である。 HDMIトランスミッタとHDMIレシーバの構成例を示すブロック図である。 TMDS伝送データの構造を示す図である。 制御ビットCTL0,CTL1と、データアイランド区間およびコントロール区間との関係を示すタイミングチャートである。 AVI InfoFrameパケットのデータ構造を示す図である。 AVI InfoFrameパケットに配置されるコンテンツ識別情報とコンテンツ種類との対応関係を示す図である。 受信側における、コンテンツ識別情報による制御例を示すフローチャートである。 受信側における、コンテンツ識別情報による他の制御例を示すフローチャートである。 オート、ビデオ(動画)、フォト(静止画)、テキスト、シネマ、ゲームのモード設定時に、液晶パネルに表示されるGUI画面を示す図である。 他の実施の形態としてのAVシステムの構成例を示すブロック図である。 AVシステムを構成するビデオカメラの構成例を示すブロック図である。 AVシステムを構成するテレビ受信機の構成例を示すブロック図である。 テレビ受信機の表示処理部および表示部の具体的な構成例を示すブロック図である。 E−EDIDとしての、色空間データブロック(Colorimetory Data Block)のデータ構造の一例を示す図である。 E−EDIDとしての、ビデオ性能データブロック(Video Capability Data Block)のデータ構造の一例を示す図である。 色空間、量子化レンジの設定時における、ビデオカメラの制御部の設定処理の一例を示すフローチャートである。 AVI InfoFrameパケットのデータ構造を示す図である。 色空間情報および量子化レンジ情報のコンテンツに応じた定義の一例を示す図である。 受信側における、コンテンツ識別情報等による制御例を示すフローチャートである。 液晶パネルの画面にOSD表示されるコンテンツおよび色空間の種類の表示例を示す図である。 受信側における、コンテンツ識別情報等による他の制御例を示すフローチャートである。 オート、ビデオ(動画)、フォト(静止画)、テキスト、シネマ、ゲームのモード設定時に、液晶パネルに表示されるGUI画面を示す図である。 受信側における、色空間情報による制御例を示すフローチャートである。 オート、sRGB、sYCC、Adobe RGBのモード設定時に、液晶パネルに表示されるGUI画面を示す図である。 受信側における、量子化レンジ情報による制御例を示すフローチャートである。 オート、フルレンジ、リミテッドレンジのモード設定時に、液晶パネルに表示されるGUI画面を示す図である。 SPD InfoFrameの構成を示す図である。 Source.Device.Informationの構成を示す図である。 受信側における、コンテンツ識別情報による制御例を示すフローチャートである。 受信側における、コンテンツ識別情報による他の制御例を示すフローチャートである。 オート、ビデオ(動画)、フォト(静止画)のモード設定時に、液晶パネルに表示されるGUI画面を示す図である。 他の実施の形態としてのAVシステムの構成例を示すブロック図である。
以下、図面を参照しながら、この発明の実施の形態について説明する。
図1は、この発明を適用したAVシステム40の構成例を示している。この図1において、AVシステム40は、送信装置としてのHD(Hard Disk)レコーダ41と、受信装置としてのディスプレイ42から構成されている。HDレコーダ41およびディスプレイ42は、HDMI用のケーブル43を介して接続されている。
HDレコーダ41は、記録再生部51と、コーデック52と、HDMIソース53と、HD54とを有し、HD54に対するデータの記録、再生を行う。すなわち、記録再生部51は、コーデック52から供給される、画像データ(映像信号)、およびこの画像データに付随する音声データ(音声信号)を、例えば、MPEG(Moving Picture Experts Group)方式等でエンコードして得られるエンコードデータを、HD54に記録する。また、記録再生部51は、HD54からエンコードデータを再生し(読み出し)、コーデック52に供給する。
コーデック52は、記録再生部51から供給されるエンコードデータを、ベースバンド(非圧縮)の画像と音声のデータにMPEG方式等でデコードし、当該ベースバンドの画像と音声のデータを、HDMIソース53、および外部装置55に供給する。また、コーデック52は、外部装置55から供給されるベースバンドの画像と音声のデータを、エンコードデータにエンコードし、当該エンコードデータを、記録再生部51に供給する。ここで、外部装置55は、他のHDレコーダ、パーソナルコンピュータ、DVD(Digital Versatile Disc)プレーヤ、デジタルカメラ等である。
HDMIソース53は、HDMIに準拠した通信により、コーデック52から供給されるベースバンドの画像と音声のデータを、ケーブル43を介して、ディスプレイ42に一方向に送信する。この意味で、HDMIソース53は、送信部を構成している。また、HDMIソース53は、送信する画像データ(映像信号)のブランキング期間に、送信する画像データのコンテンツ種類、すなわち、当該画像データがいかなるコンテンツに係るものであるかを識別するためのコンテンツ識別情報を挿入する。この意味で、HDMIソース53は、識別情報挿入部を構成している。このコンテンツ識別情報の詳細については、後述する。
ディスプレイ42は、HDMIシンク61と、表示処理部62と、表示部63と、制御部64とを有し、画像の表示等を行う。すなわち、HDMIシンク61は、HDMIに準拠した通信により、ケーブル43を介して接続されているHDレコーダ41のHDMIソース53から一方向に送信されてくるベースバンドの画像と音声のデータを受信する。この意味で、HDMIシンク61は、受信部を構成している。
HDMIシンク61は、受信した画像データを表示処理部62に供給する。なお、HDMIシンク61が受信した音声のデータは、例えば、ディスプレイ42が内蔵する、図示しないスピーカに供給される。スピーカからは、受信した音声データによる音声が出力される。
表示処理部62は、HDMIシンク61で受信された画像データに対して、表示のための輪郭強調等の処理を行う。表示部63は、表示処理部62により処理された画像データによる画像を表示する。表示部63は、例えば、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)、CRT(Cathode Ray Tube)等で構成される。制御部64は、表示処理部62および表示部63の動作を制御する。この実施の形態において、制御部64には、HDMIシンク61から、上述したように画像データのブランキング期間に挿入されているコンテンツ識別情報が供給される。制御部64は、このコンテンツ識別情報に基づいて、HDMIシンク61で受信された画像データのコンテンツ種類に応じて、表示処理部62および表示部63の動作を制御する。
図2は、表示処理部62および表示部63の具体的な構成例を示している。この図2において、表示処理部62は、クロマデコーダ62aと、DRC(Digital Reality Creation)部62bと、エンハンサ62cと、パネルドライバ62dとにより構成されている。
クロマデコーダ62aは、HDMIシンク61から供給される画像データに対して、色空間の変更など、色に関する処理を行う。このクロマデコーダ62aは、色空間変更部を構成している。DRC部62bは、クロマデコーダ62aから出力される画像データに対して画質を改善する処理を行う。この場合、DRC部62bは、例えば、注目画素の画素データを、周辺の画素データを含めたパターンに応じて再生成することで、画質改善を行う。このDRC部62bは、画質改善部を構成している。
エンハンサ62cは、DRC部62bから出力される画像データに対して輪郭強調の処理を行う。このエンハンサ62cは、輪郭強調部を構成している。パネルドライバ62dは、エンハンサ62cから出力される画像データに基づいて、後述する表示部63を構成する液晶パネル63aを駆動する。このパネルドライバ62dでは、ガンマ補正も行われる。このパネルドライバ62dは、階調変更部を構成している。
また、図2において、表示部63は、液晶パネル63aと、バックライト63bとにより構成されている。液晶パネル63aは、上述したパネルドライバ62dにより駆動され、画像データによる画像を表示する。バックライト63bは、例えば白色蛍光灯により構成される。
以上のように構成される、図1のAVシステム40の動作例を説明する。
例えば、ユーザが、HD54を再生するように、HDレコーダ41を操作すると(図1には、ユーザ操作手段の図示を省略している)、記録再生部51が、HD54からエンコードデータを再生し、コーデック52に供給する。コーデック52は、記録再生部51から供給されるエンコードデータを、ベースバンドの画像と音声のデータにデコードし、そのベースバンドの画像と音声のデータを、HDMIソース53に供給する。
HDMIソース53は、コーデック52から供給される画像データのブランキング期間にコンテンツ識別情報を挿入する。そして、HDMIソース53は、HDMIに準拠した通信により、ブランキング期間にコンテンツ識別情報が挿入されたベースバンドの画像データと、コーデック52から供給されるベースバンドの音声データとを、HDMIケーブル43を介して、ディスプレイ42に、一方向に、送信する。
ディスプレイ42では、HDMIシンク61が、HDMIに準拠した通信により、HDMIケーブル43を介して接続されているHDレコーダ41のHDMIソース53から一方向に送信されてくるベースバンドの画像と音声のデータを受信する。そして、HDMIシンク61は、画像データを表示処理部62に供給すると共に、音声データを、図示しないスピーカに供給する。さらに、HDMIシンク61は、画像データのブランキング期間に挿入されている制御信号、例えばコンテンツ識別情報を、制御部64に供給する。
表示処理部62は、制御部64の制御のもと、画像データに対して、当該画像データのコンテンツ種類に応じた処理を行って、処理後の画像データを表示部63に供給する。表示部63は、表示処理部62から供給される画像データに基づいて、画像を表示する。
図3は、図1のHDMIソース53とHDMIシンク61の構成例を示している。
HDMIソース53は、ある垂直同期信号から次の垂直同期信号までの区間(以下、適宜、「ビデオフィールド」という)から、水平ブランキング期間および垂直ブランキング期間を除いた区間である有効画像区間(以下、適宜、「アクティブビデオ区間」という)において、ベースバンド(非圧縮)の一画面分の画像データの差動信号を、複数のチャネルで、HDMIシンク61に一方向に送信する。また、HDMIソース53は、水平ブランキング期間および垂直ブランキング期間において、画像データに付随する音声データおよび制御パケット(Control Packet)、さらにその他の補助データ等に対応する差動信号を、複数のチャネルで、HDMIシンク61に一方向に送信する。
HDMIソース53は、ソース信号処理部71およびHDMIトランスミッタ72を有する。ソース信号処理部71には、コーデック52(図1参照)等から、ベースバンドの非圧縮の画像(Video)および音声(Audio)のデータが供給される。ソース信号処理部71は、供給される画像および音声のデータに必要な処理を施し、HDMIトランスミッタ72に供給する。また、ソース信号処理部71は、HDMIトランスミッタ72との間で、必要に応じて、制御用の情報やステータスを知らせる情報(Control/Status)等をやりとりする。
HDMIトランスミッタ72は、ソース信号処理部71から供給される画像データを、対応する差動信号に変換し、複数のチャネルである3つのTMDSチャネル#0,#1,#2で、HDMIケーブル43を介して接続されているHDMIシンク61に、一方向に送信する。
さらに、トランスミッタ72は、ソース信号処理部71から供給される、非圧縮の画像データに付随する音声データや制御パケットその他の補助データ(auxiliary data)と、垂直同期信号(VSYNC)、水平同期信号(HSYNC)等の制御データ(control data)とを、対応する差動信号に変換し、3つのTMDSチャネル#0,#1,#2で、HDMIケーブル43を介して接続されているHDMIシンク61に、一方向に送信する。
また、トランスミッタ72は、3つのTMDSチャネル#0,#1,#2で送信する画像データに同期したピクセルクロックを、TMDSクロックチャネルで、HDMIケーブル43を介して接続されているHDMIシンク61に送信する。
HDMIシンク61は、アクティブビデオ区間において、複数チャネルで、HDMIソース53から一方向に送信されてくる、画像データに対応する差動信号を受信すると共に、水平ブランキング期間および垂直ブランキング期間において、複数のチャネルで、HDMIソース53から送信されてくる、補助データや制御データに対応する差動信号を受信する。
HDMIシンク61は、HDMIレシーバ81およびシンク信号処理部82を有する。HDMIレシーバ81は、TMDSチャネル#0,#1,#2で、HDMIケーブル43を介して接続されているHDMIソース53から一方向に送信されてくる、画像データに対応する差動信号と、補助データや制御データに対応する差動信号を、同じくHDMIソース53からTMDSクロックチャネルで送信されてくるピクセルクロックに同期して受信する。さらに、HDMIレシーバ81は、差動信号を、対応する画像データ、補助データ、制御データに変換し、必要に応じて、シンク信号処理部82に供給する。
シンク信号処理部82は、HDMIレシーバ81から供給されるデータに必要な処理を施し、表示処理部62および制御部64等に供給する。その他、シンク信号処理部82は、HDMIレシーバ81との間で、必要に応じて、制御用の情報やステータスを知らせる情報(Control/Status)等をやりとりする。
HDMIの伝送チャネルには、HDMIソース53からHDMIシンク61に対して、画像データ、補助データ、および制御データを、ピクセルクロックに同期して、一方向にシリアル伝送するための3つのTMDSチャネル#0,#1,#2と、ピクセルクロックを伝送する伝送チャネルとしてのTMDSクロックチャネルとの他に、DDC(Display Data Channel)、さらには、CECラインと呼ばれる伝送チャネルがある。
DDCは、HDMIソース53が、HDMIケーブル43を介して接続されたHDMIシンク61から、E−EDID(Enhanced Extended Display Identification)を読み出すのに使用される。
すなわち、HDMIシンク61は、HDMIレシーバ81の他に、自身の性能(Configuration/capability)に関する性能情報であるE−EDIDを記憶している、図示しないEDID ROM(Read Only Memory)を有している。HDMIソース53は、HDMIケーブル43を介して接続されているHDMIシンク61から、当該HDMIシンク61のE−EDIDを、DDCを介して読み出し、そのE−EDIDに基づき、HDMIシンク61の性能の設定、すなわち、例えば、HDMIシンク61を有する電子機器が対応している画像のフォーマット(プロファイル)、例えば、RGB、YCbCr4:4:4、YCbCr4:2:2等を認識する。
なお、HDMIソース53も、HDMIシンク61と同様に、E−EDIDを記憶し、必要に応じて、そのE−EDIDを、HDMIシンク61に送信することができる。
CECラインは、HDMIソース53とHDMIシンク61との間で、制御用のデータの双方向通信を行うのに用いられる。
図4は、図3のHDMIトランスミッタ72とHDMIレシーバ81の構成例を示している。
HDMIトランスミッタ72は、3つのTMDSチャネル#0,#1,#2にそれぞれ対応する3つのエンコーダ/シリアライザ72A,72B,72Cを有する。そして、エンコーダ/シリアライザ72A,72B,72Cのそれぞれは、そこに供給される画像データ、補助データ、制御データをエンコードし、パラレルデータからシリアルデータに変換して、差動信号により送信する。ここで、画像データが、例えばR(赤),G(緑),B(青)の3成分を有する場合、B成分(B component)はエンコーダ/シリアライザ72Aに供給され、G成分(G component)はエンコーダ/シリアライザ72Bに供給され、R成分(R component)はエンコーダ/シリアライザ72Cに供給される。
また、補助データとしては、例えば、音声データや制御パケットがあり、制御パケットは、例えば、エンコーダ/シリアライザ72Aに供給され、音声データは、エンコーダ/シリアライザ72B,72Cに供給される。
さらに、制御データとしては、1ビットの垂直同期信号(VSYNC)、1ビットの水平同期信号(HSYNC)、および、それぞれ1ビットの制御ビットCTL0,CTL1,CTL2,CTL3がある。垂直同期信号および水平同期信号は、エンコーダ/シリアライザ72Aに供給される。制御ビットCTL0,CTL1はエンコーダ/シリアライザ72Bに供給され、制御ビットCTL2,CTL3はエンコーダ/シリアライザ72Cに供給される。
エンコーダ/シリアライザ72Aは、そこに供給される画像データのB成分、垂直同期信号および水平同期信号、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ72Aは、そこに供給される画像データのB成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ72Aは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。
また、エンコーダ/シリアライザ72Aは、そこに供給される垂直同期信号および水平同期信号の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。さらに、エンコーダ/シリアライザ72Aは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ72Aは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。
エンコーダ/シリアライザ72Bは、そこに供給される画像データのG成分、制御ビットCTL0,CTL1、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ72Bは、そこに供給される画像データのG成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ72Bは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。
また、エンコーダ/シリアライザ72Bは、そこに供給される制御ビットCTL0,CTL1の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。さらに、エンコーダ/シリアライザ72Bは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ72Bは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。
エンコーダ/シリアライザ72Cは、そこに供給される画像データのR成分、制御ビットCTL2,CTL3、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ72Cは、そこに供給される画像データのR成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ72Cは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。
また、エンコーダ/シリアライザ72Cは、そこに供給される制御ビットCTL2,CTL3の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。さらに、エンコーダ/シリアライザ72Cは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ72Cは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。
HDMIレシーバ81は、3つのTMDSチャネル#0,#1,#2にそれぞれ対応する3つのリカバリ/デコーダ81A,81B,81Cを有する。そして、リカバリ/デコーダ81A,81B,81Cのそれぞれは、TMDSチャネル#0,#1,#2で差動信号により送信されてくる画像データ、補助データ、制御データを受信する。さらに、リカバリ/デコーダ81A,81B,81Cのそれぞれは、画像データ、補助データ、制御データを、シリアルデータからパラレルデータに変換し、さらにデコードして出力する。
すなわち、リカバリ/デコーダ81Aは、TMDSチャネル#0で差動信号により送信されてくる画像データのB成分、垂直同期信号および水平同期信号、補助データを受信する。そして、リカバリ/デコーダ81Aは、その画像データのB成分、垂直同期信号および水平同期信号、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。
リカバリ/デコーダ81Bは、TMDSチャネル#1で差動信号により送信されてくる画像データのG成分、制御ビットCTL0,CTL1、補助データを受信する。そして、リカバリ/デコーダ81Bは、その画像データのG成分、制御ビットCTL0,CTL1、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。
リカバリ/デコーダ81Cは、TMDSチャネル#2で差動信号により送信されてくる画像データのR成分、制御ビットCTL2,CTL3、補助データを受信する。そして、リカバリ/デコーダ81Cは、その画像データのR成分、制御ビットCTL2,CTL3、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。
図5は、HDMIの3つのTMDSチャネル#0,#1,#2で各種の伝送データが伝送される伝送区間(期間)の例を示している。なお、図5は、TMDSチャネル#0,#1,#2において、横×縦が720×480画素のプログレッシブの画像が伝送される場合の、各種の伝送データの区間を示している。
HDMIの3つのTMDSチャネル#0,#1,#2で伝送データが伝送されるビデオフィールド(Video Field)には、伝送データの種類に応じて、ビデオデータ区間(Video Data period)、データアイランド区間(Data Island period)、およびコントロール区間(Control period)の3種類の区間が存在する。
ここで、ビデオフィールド区間は、ある垂直同期信号の立ち上がりエッジ(active edge)から次の垂直同期信号の立ち上がりエッジまでの区間であり、水平ブランキング期間(horizontal blanking)、垂直ブランキング期間(vertical blanking)、並びに、ビデオフィールド区間から、水平ブランキング期間および垂直ブランキング期間を除いた区間であるアクティブビデオ区間(Active Video)に分けられる。
ビデオデータ区間は、アクティブビデオ区間に割り当てられる。このビデオデータ区間では、非圧縮の1画面分の画像データを構成する720画素×480ライン分の有効画素(Active pixel)のデータが伝送される。
データアイランド区間およびコントロール区間は、水平ブランキング期間および垂直ブランキング期間に割り当てられる。このデータアイランド区間およびコントロール区間では、補助データ(Auxiliary data)が伝送される。
すなわち、データアイランド区間は、水平ブランキング期間と垂直ブランキング期間の一部分に割り当てられている。このデータアイランド区間では、補助データのうち、制御に関係しないデータである、例えば、音声データのパケット等が伝送される。
コントロール区間は、水平ブランキング期間と垂直ブランキング期間の他の部分に割り当てられている。このコントロール区間では、補助データのうちの、制御に関係するデータである、例えば、垂直同期信号および水平同期信号、制御パケット等が伝送される。
ここで、現行のHDMIでは、TMDSクロックチャネルで伝送されるピクセルクロックの周波数は、例えば165MHzであり、この場合、データアイランド区間の伝送レートは約500Mbps程度である。
上述したように、データアイランド区間およびコントロール区間では、いずれも、補助データが伝送されるが、その区別は、制御ビットCTL0,CTL1によって行われる。すなわち、図6は、制御ビットCTL0,CTL1と、データアイランド区間およびコントロール区間との関係を示している。
制御ビットCTL0,CTL1は、例えば、図6の上から1番目に示すように、デバイスイネーブル(device enable)状態と、デバイスディセーブル(device disable)状態との2つの状態を表すことができる。なお、図6の上から1番目では、デバイスイネーブル状態をH(High)レベルで表しており、デバイスディセーブル状態をL(Low)レベルで表している。制御ビットCTL0,CTL1は、データアイランド区間では、デバイスディセーブル状態となり、コントロール区間では、デバイスイネーブル状態となり、これにより、データアイランド区間とコントロール区間とが区別される。
そして、制御ビットCTL0,CTL1がデバイスディセーブル状態としてのLレベルとなるデータアイランド区間では、図6の上から2番目に示すように、補助データのうちの、制御に関係しないデータである、例えば、音声データ等が伝送される。一方、制御ビットCTL0,CTL1がデバイスイネーブル状態としてのHレベルとなるコントロール区間では、図6の上から3番目に示すように、補助データのうちの、制御に関係するデータである、例えば、制御パケットやプリアンブル等が伝送される。その他、コントロール区間では、図6上から4番目に示すように、垂直同期信号および水平同期信号も伝送される。
次に、上述したように、HDレコーダ41のHDMIソース53において、画像データ(映像信号)のブランキング期間に挿入されるコンテンツ識別情報について、説明する。
図7は、上述したデータアイランド区間に配置される、AVI(Auxiliary Video Information)InfoFrameパケットのデータ構造を示している。HDMIでは、当該AVIInfoFrameパケットにより、画像に関する付帯情報をソース機器からシンク機器に伝送可能となっている。
この実施の形態において、コンテンツ識別情報は、図7にAVIInfoFrameのデータ構造を示すように、6バイト目(Data Byte3)におけるITCの1ビットと、8バイト目(Data Byte5)におけるCT1,CT0の2ビットとに、階層的に配置される。
1ビットのデータであるITCは、動画コンテンツであるか否かを識別する。ここで、ITC=0であるときは、通常の動画コンテンツを示し、ITC=1であるときは、通常の動画コンテンツでないことを示す。2ビットのデータであるCT1,CT0は、ITC=1であるとき有効となる。つまり、CT1,CT0は、ITCにより通常の動画コンテンツでないと判別されるとき、さらに使用されるものである。
この実施の形態においては、CT1,CT0により、図8に示すように、テキストコンテンツ、フォトグラフ(静止画)コンテンツ、シネマコンテンツ、ゲームコンテンツの4つのコンテンツの識別が可能とされる。すなわち、CT1=0,CT0=0であるとき、テキストコンテンツを示す。CT1=0,CT0=1であるとき、フォトグラフコンテンツを示す。CT1=1,CT0=0であるとき、シネマコンテンツを示す。CT1=1,CT0=1であるとき、ゲームコンテンツを示す。
ここで、テキストコンテンツとは、一般的なIT(Information Technology)コンテンツを意味している。フォトグラフコンテンツとは、静止画のコンテンツを意味している。シネマコンテンツとは、映画やホームビデオのコンテンツを意味している。ゲームコンテンツとは、PCまたはゲームコンソールビデオのコンテンツを意味している。
次に、コンテンツ識別情報が、上述したように、1ビットデータ(ITC)と、2ビットデータ(CT1,CT0)とからなっている場合における、ディスプレイ42の制御部64における、コンテンツ識別情報を用いた制御処理の一例を、図9のフローチャートを用いて、説明する。
まず、制御部64は、ステップST1において、制御処理を開始し、その後に、ステップST2の処理に移る。このステップST2において、制御部64は、ITC=1であるか否かを判別する。ITC=1でないとき、制御部64は、受信された画像データが通常の動画コンテンツに係るものであると認識し、ステップST3において、通常の動画処理を行う。
つまり、制御部64は、クロマデコーダ62aに関しては、動画用の色空間、例えばsRGB色空間とするように制御する。また、制御部64は、DRC部62bに関しては、画質改善処理を行うように制御する。また、制御部64は、エンハンサ62cに関しては、高域成分を強調して輪郭強調を行うように制御する。また、制御部64は、パネルドライバ62dに関しては、通常のガンマ補正を行うように制御する。また、制御部64は、バックライト63bに関しては、通常の色温度となるように制御する。
ステップST2でITC=1であるとき、制御部64は、ステップST4に移る。このステップST4において、制御部64は、CT1=0であるか否かを判別する。そして、CT1=0であるとき、制御部64は、ステップST5において、CT0=0であるか否かを判別する。
CT0=0であるとき、制御部64は、受信された画像データがテキストコンテンツに係るものであると認識し、ステップST6において、テキスト(Text)処理を行う。この場合、制御部64は、エンハンサ62cで高域成分を強調することによる輪郭強調が行われないように、当該エンハンサ62cの動作を制御する。なお、制御部64は、クロマデコーダ62a、DRC部62b、パネルドライバ62dおよびバックライト63bに関しては、上述した通常の動画処理と同様に制御する。
このように、受信された画像データがテキストコンテンツに係るものである場合、エンハンサ62cで輪郭強調が行われないようにすることで、輪郭強調により文字が読みにくくなることを防止できる。
また、ステップST5でCT0=0でないとき、制御部64は、受信された画像データがフォトグラフコンテンツに係るものであると認識し、ステップST7において、フォトグラフ(Photograph)処理を行う。この場合、制御部64は、クロマデコーダ62aで静止画用の色空間、例えばAdobeRGB(アドビ社の商標)色空間が選択されるように、当該クロマデコーダ62aの動作を制御する。なお、制御部64は、DRC部62b、エンハンサ62c、パネルドライバ62dおよびバックライト63bに関しては、上述した通常の動画処理と同様に制御する。
このように、受信された画像データがフォトグラフコンテンツに係るものである場合、エンハンサ62cで色空間を静止画用の色空間とすることで、フォトグラフ(静止画)コンテンツに係る画像データによる画像を静止画用色空間により良好に表示させることが可能となる。
また、ステップST4でCT1=0でないとき、制御部64は、ステップST8において、CT0=0であるか否かを判別する。
CT0=0であるとき、制御部64は、受信された画像データがシネマコンテンツに係るものであると認識し、ステップST9において、シネマ(Cinema)処理を行う。この場合、制御部64は、パネルドライバ62dにおけるガンマ補正を制御し、黒側の階調を持ち上げるようにすると共に、バックライト63bを制御し、色温度を下げる。なお、制御部64は、クロマデコーダ62a、DRC部62bおよびエンハンサ62cに関しては、上述した通常の動画処理と同様に制御する。
このように、受信された画像データがシネマコンテンツに係るものである場合、パネルドライバ62dで黒側の階調を持ち上げると共に、バックライト63bの色温度を下げることで、シネマコンテンツにあった画像の表示が可能となる。
また、ステップST8でCT0=0でないとき、制御部64は、受信された画像データがゲームコンテンツに係るものであると認識し、ステップST10において、ゲーム(Game)処理を行う。この場合、制御部64は、DRC部62bで画像改善処理が行われないように、当該DRC部62bの動作を制御する。なお、制御部64は、クロマデコーダ62a、エンハンサ62c、パネルドライバ62dおよびバックライト63bに関しては、上述した通常の動画処理と同様に制御する。
このように、受信された画像データがゲームコンテンツに係るものである場合、DRC部62bで画質改善処理が行われないようにすることで、当該画質改善処理による音声に対する画像の遅れを軽減でき、音声と画像とのずれによる違和感の発生を防止できる。
次に、コンテンツ識別情報が、上述したように、1ビットデータ(ITC)と、2ビットデータ(CT1,CT0)とからなっている場合における、ディスプレイ42の制御部64における、コンテンツ識別情報を用いた制御処理の他の例を、図10のフローチャートを用いて、説明する。この図10において、図9と対応するステップには同一符号を付して示している。
まず、制御部64は、ステップST1において、制御処理を開始し、その後に、ステップST1aに移る。このステップST1aにおいて、制御部64は、設定モードが、オート、ビデオ(動画)、フォト(静止)、テキスト、シネマ、ゲームのいずれであるかを判断する。
なお、制御部64には、図示しないユーザ操作部が設けられており、ユーザは、このユーザ操作部を操作してモード設定を行うことができる。図11は、モード設定時に、液晶パネル63aに表示されるGUI(Graphical User Interface)画面を示している。ユーザは、GUI画面に表示されているオート、ビデオ(動画)、フォト(静止画)、テキスト、シネマ、ゲームの釦を、ユーザ操作部を操作して押圧することで、所望のモードに設定できる。
ステップST1aでオートモードに設定されている場合、制御部64は、ステップST2の処理に移り、詳細説明は省略するが、上述の図9のフローチャートと同様の処理をする。一方、ステップST1aでビデオ、フォト、テキスト、シネマ、ゲームのいずれかのモードに設定されている場合、制御部64は、ステップST1bの処理に移る。このステップST1bにおいて、制御部64は、設定されたモードに対応した処理(動画処理、テキスト処理、フォトグラフ処理、シネマ処理、ゲーム処理)を行う(ST3,ST6,ST7,ST9,ST10参照)。
図10のフローチャートに示す制御処理例においては、オートモードに設定されている場合には、図9のフローチャートに示す制御処理例と同様に、受信された画像データ(映像信号)に対してコンテンツの種類に応じた最適な処理が行われる。また、図10のフローチャートに示す制御処理例においては、ビデオ(動画)、フォト(静止画)、テキスト、シネマ、ゲームのいずれかのモードに設定されている場合には、受信された画像データ(映像信号)に対して、強制的に、設定されたモードに対応した処理が行われる。
上述したように、図1に示すAVシステム40において、HDレコーダ41のHDMIソース53は、画像データのブランキング期間(データアイランド区間)に配置されるAVI InfoFrameパケットにコンテンツ識別情報ITC,CT1,CT0を挿入し、当該画像データを、3つのTMDSチャネル#0,#1,#2で、差動信号により、ディスプレイ42のHDMIシンク61に送信するものである。したがって、ディスプレイ42では、当該コンテンツ識別情報に基づいて、受信された画像データのコンテンツ種類を識別でき、画像データに対してコンテンツ種類に適合した最適な処理を行うことができる。
また、図1に示すAVシステム40において、HDレコーダ41のHDMIソース53で画像データのブランキング期間に挿入されるコンテンツ識別情報は、通常の動画コンテンツであるか否かを識別する1ビットのデータITCと、このデータITCにより動画コンテンツでないと判別されるときさらに使用される2ビットのデータCT1,CT0より構成されている。この場合、通常の動画コンテンツの送信頻度が高い場合には、上位階層に配置された1ビットのデータITCを使用したコンテンツ種類の判別処理だけで終わることが多く、ディスプレイ42の制御部64における判別処理の負荷を軽減することが可能となる。
なお、上述実施の形態においては、コンテンツ識別情報として、1ビットのデータITCを上位階層に配置し、2ビットのデータCT1,CT0を下位階層に配置し、通常の動画コンテンツ、テキストコンテンツ、フォトグラフコンテンツ、シネマコンテンツおよびゲームコンテンツの5種類のコンテンツを識別し得るものを示した。しかし、各層のデータビット数の増加、階層数の増加等により、さらに多くのコンテンツの種類を識別し得るようにすることもできる。また、通常の動画コンテンツ、テキストコンテンツ、フォトグラフコンテンツ、シネマコンテンツおよびゲームコンテンツの5種類のコンテンツの分類は一例であって、これに限定されるものではない。
また、上述実施の形態においては、画像データのブランキング期間に配置されるAVI InfoFrameパケットにコンテンツ識別情報ITC,CT1,CT0を挿入するものを示したが、コンテンツ識別情報を、画像データのブランキング期間のその他の部分に挿入するようにしてもよい。
次に、この発明の他の実施の形態について説明する。
図12は、この発明を適用したAVシステム140の構成例を示している。この図12において、AVシステム140は、送信装置としてのビデオカメラ141と、受信装置としてのテレビ受信機142とで構成されている。ビデオカメラ141およびテレビ受信機142は、HDMI用のケーブル143を介して接続されている。
図13は、ビデオカメラ141の構成例を示している。ビデオカメラ141は、制御部151と、ユーザ操作部152と、表示部153と、撮像レンズ154と、撮像素子(イメージセンサ)155と、撮像信号処理部156と、コーデック157と、記録再生部158と、HDMIソース160とを有している。
制御部151は、ビデオカメラ141の各部の動作を制御する。ユーザ操作部152および表示部153は、ユーザインタフェースを構成し、制御部151に接続されている。ユーザ操作部152は、ビデオカメラ141の図示しない筐体に配置されたキー、釦、ダイアル、あるいは表示部153の表示面に配置されたタッチパネル等で構成される。表示部153は、LCD(Liquid Crystal Display)等で構成される。
撮像素子155は、例えば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等で構成される。撮像素子155は、撮像レンズ154により撮像面に被写体の光学像が結像された状態で撮像処理を行って、撮像信号を出力する。
撮像信号処理部156は、撮像素子155から出力される撮像信号(アナログ信号)に対し、サンプルホールドおよび利得制御、アナログ信号からデジタル信号への変換、さらにホワイトバランス調整、ガンマ補正等を行って、画像データ(映像信号)を生成する。なお、ユーザは、ユーザ操作部152により、撮像信号処理部156から出力される画像データの色空間を指定できる。すなわち、ユーザは、RGB色空間(例えば、sRGB 601,sRGB 709,Adobe 601,Adobe 709 等)またはYUV色空間(例えば、sYCC 601,sYCC 709 等)を指定できる。
また、ユーザは、ユーザ操作部152により、撮像信号処理部156から出力される画像データの量子化レンジを指定できる。すなわち、ユーザは、YUV色空間の画像データの輝度信号Yのレンジ(例えば、フルレンジ(0〜255)、リミテッドレンジ(16〜235))、RGB色空間の各色信号の量子化のレンジ(例えば、フルレンジ(0〜255)、リミテッドレンジ(16〜235))を指定できる。
HDMIソース160は、HDMIケーブル143を介して、後述するテレビ受信機142のHDMIシンク173から、当該HDMIシンク173のE−EDIDを、DDCを介して読み出す。このようにHDMIソース160で読み出されるE−EDIDには、テレビ受信機142がサポートしている、すなわち、テレビ受信機142で取り扱うことができる色空間、量子化レンジの情報が含まれている。制御部151は、当該情報に基づいて、表示部153に、テレビ受信機142がサポートしている色空間、量子化レンジを表示できる。この場合、ユーザは、表示部153に表示されている色空間、量子化レンジを参照することで、テレビ受信機142がサポートしている色空間、量子化レンジを、簡単に指定できる。
なお、この場合、ユーザは、表示部153に表示されている色空間、量子化レンジ以外の色空間、量子化レンジの中からのみ所望の色空間、量子化レンジを指定可能とすることで、受信側のテレビ受信機142でサポートされていない色空間の指定をユーザが行うことを回避できる。また、上述したようにユーザが色空間、量子化レンジを指定する代わりに、制御部151が、テレビ受信機142がサポートしている色空間、量子化レンジの中から所定の色空間、量子化レンジを自動的に選択するようにしてもよい。この場合、受信側のテレビ受信機142がサポートしている色空間、量子化レンジに自動的に設定されることから、ユーザの手間を軽減できる。なお、この場合、制御部151は、色空間、量子化レンジの設定部を構成する。
図16は、E−EDIDとしての、色空間データブロック(Colorimetory Data Block)のデータ構造の一例を示している。第1バイトの第5〜第7のビットには、拡張タグコード(Extended Tag Code)を使用するタイプのデータブロックであることを示す「Tag Code(07h)」が記述されている。また、この第1バイトの第0〜第4のビットには、データブロック長を示す「Length of following data block(in bytes)(03h)」が記述されている。第2バイトには、色空間データブロックであることを示す拡張タグコード「Extended Tag Code(05h)」が記述されている。
第3バイトおよび第4バイトに、実質的なデータが記述されている。第3バイトの第0ビット(F30)は「xvYCC 601」の色空間をサポートしているか否かを示す。第3バイトの第1ビット(F31)は「xvYCC 709」の色空間をサポートしているか否かを示す。第3バイトの第2ビット(F32)は「sYCC 601」の色空間をサポートしているか否かを示す。第3バイトの第3ビット(F33)は「sYCC 709」の色空間をサポートしているか否かを示す。
第3バイトの第4ビット(F34)は「Adobe 601」の色空間をサポートしているか否かを示す。第3バイトの第5ビット(F35)は「Adobe 709」の色空間をサポートしているか否かを示す。第3バイトの第6ビット(F36)は「Adobe RGB」の色空間をサポートしているか否かを示す。各ビットは、「1」のとき、サポートしている、つまり取り扱いが可能であることを表す。
図17は、E−EDIDとしての、ビデオ性能データブロック(Video Capability Data Block)のデータ構造の一例を示している。第1バイトの第5〜第7のビットには、拡張タグコード(Extended Tag Code)を使用するタイプのデータブロックであることを示す「Tag Code(07h)」が記述されている。また、この第1バイトの第0〜第4のビットには、データブロック長を示す「Length of following data block(in bytes)(02h)」が記述されている。第2バイトには、ビデオ性能データブロックであることを示す拡張タグコード「Extended Tag Code(00h)」が記述されている。
第3バイトに、実質的なデータが記述されている。第3バイトの第7ビット(F37)はYUV空間でフルレンジを取り扱うことができるか否かのデータQYが記述されている。QY=1のとき、サポートしている、つまり取り扱いが可能であることを表す。
図18のフローチャートは、色空間、量子化レンジの設定時における制御部151の設定処理の一例を示している。
まず、制御部151は、ステップST21において、設定処理を開始し、その後に、ステップST22に移る。このステップST22において、制御部151は、テレビ受信機142から得られた色空間、量子化レンジの情報(EDID)に基づき、テレビ受信機(シンク)142でサポートされている色空間、量子化レンジを、表示部153に表示する。
次に、制御部151は、ステップST23において、ユーザが色空間、量子化レンジを指定したか否かを判断する。ユーザがユーザ操作部152で色空間、量子化レンジを指定したときは、ステップST24において、撮像信号処理部156から出力する画像データの色空間、量子化レンジを、当該指定された色空間、量子化レンジに設定する。その後、制御部151は、ステップST26において、設定処理を終了する。
上述のステップST23でユーザが色空間、量子化レンジを指定しなかったとき、制御部151は、ステップST25において、色空間、量子化レンジをテレビ受信機142でサポートされている色空間、量子化レンジのうち所定の色空間、量子化レンジに自動的に設定する。その後、制御部151は、ステップST26において、設定処理を終了する。
図13に戻って、記録再生部158は、コーデック157から供給される、画像データ(映像信号)、およびこの画像データに付随する音声データ(音声信号)を、例えば、MPEG(Moving Picture Experts Group)方式等でエンコードして得られるエンコードデータを、HD159に記録する。また、記録再生部158は、HD159からエンコードデータを再生し(読み出し)、コーデック157に供給する。
コーデック157は、記録再生部158から供給されるエンコードデータを、ベースバンド(非圧縮)の画像と音声のデータにMPEG方式等でデコードし、当該ベースバンドの画像と音声のデータを、HDMIソース160、および外部装置161に供給する。また、コーデック157は、撮像信号処理得部156から、あるいは外部装置161から供給されるベースバンドの画像と音声のデータを、エンコードデータにエンコードし、当該エンコードデータを、記録再生部158に供給する。ここで、外部装置161は、HDレコーダ、パーソナルコンピュータ、DVD(Digital Versatile Disc)プレーヤ、ビデオカメラ等である。
HDMIソース160は、HDMIに準拠した通信により、コーデック157から供給されるベースバンドの画像と音声のデータを、HDMIケーブル143を介して、テレビ受信機142に一方向に送信する。この意味で、HDMIソース160は、送信部を構成している。また、HDMIソース160は、送信する画像データ(映像信号)のブランキング期間に、送信する画像データのコンテンツ種類、すなわち、当該画像データがいかなるコンテンツに係るものであるかを識別するためのコンテンツ識別情報を挿入する。この意味で、HDMIソース160は、識別情報挿入部を構成している。詳細説明は省略するが、このHDMIソース160は、上述の図1のAVシステム40のHDレコーダ41におけるHDMIソース53と同様に構成されている。
また、HDMIソース160は、送信する画像データ(映像信号)のブランキング期間に、送信する画像データの色空間を示す色空間情報を挿入すると共に、当該送信する画像データ(映像信号)のブランキング期間に、送信する画像データの量子化レンジを示す量子化レンジ情報を挿入する。この意味で、HDMIソース160は、色空間情報挿入部および量子化レンジ情報挿入部を構成している。コンテンツ情報、色空間情報、量子化レンジ情報の詳細については後述する。
図14は、テレビ受信機142の構成例を示している。テレビ受信機142は、制御部171と、ユーザ操作部172と、HDMIシンク173と、チューナ174と、アンテナ端子175と、切替器176と、表示処理部177と、表示部178とを有している。
制御部171は、テレビ受信機142の各部の動作を制御する。ユーザ操作部172は、ユーザインタフェースを構成し、制御部171に接続されている。ユーザ操作部172は、テレビ受信機142の図示しない筐体に配置されたキー、釦、ダイアル、あるいはリモコン等で構成される。
HDMIシンク173は、HDMIに準拠した通信により、HDMIケーブル143を介して接続されているビデオカメラ141のHDMIソース160から一方向に送信されてくるベースバンドの画像と音声のデータを受信する。この意味で、HDMIシンク173は、受信部を構成している。詳細説明は省略するが、このHDMIシンク173は、上述の図1のAVシステム40のディスプレイ42おけるHDMIシンク61と同様に構成されている。
HDMIシンク173は、受信した画像データを切替器176に供給する。なお、HDMIシンク173が受信した音声のデータは、音声データ用の切替器に供給される。
チューナ174は、BS放送、地上波デジタル放送等を受信する。このチューナ174には、アンテナ端子175に接続された図示しないアンテナで捕らえられた放送信号が供給される。切替器176は、HDMIシンク173で受信された画像データまたはチューナ174で受信された画像データを選択的に取り出す。
表示処理部177は、切替器176で取り出された画像データに対して、表示のための輪郭強調等の処理を行う。表示部178は、表示処理部177により処理された画像データによる画像を表示する。表示部178は、例えば、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)、PDP(Plasma Display Panel)、CRT(Cathode Ray Tube)等で構成される。
この実施の形態において、制御部171には、HDMIシンク173から、上述したように画像データのブランキング期間に挿入されているコンテンツ識別情報、色空間情報、量子化レンジ情報が供給される。制御部171は、HDMIシンク173で受信された画像データが切替器176で選択されるとき、これらの情報に基づいて、表示処理部177および表示部178の動作を制御する。
図15は、表示処理部177および表示部178の具体的な構成例を示している。この図15において、表示処理部177は、クロマデコーダ177aと、DRC(Digital Reality Creation)部177bと、エンハンサ177cと、パネルドライバ177dとにより構成されている。
クロマデコーダ177aは、HDMIシンク173から供給される画像データに対して、色空間情報に基づく色空間の変更等の、色に関する処理を行う。このクロマデコーダ177aは、色空間変更部を構成している。DRC部177bは、クロマデコーダ177aから出力される画像データに対して画質を改善する処理を行う。この場合、DRC部177bは、例えば、注目画素の画素データを、周辺の画素データを含めたパターンに応じて再生成することで、画質改善を行う。このDRC部177bは、画質改善部を構成している。
エンハンサ177cは、DRC部177bから出力される画像データに対して輪郭強調の処理を行う。また、このエンハンサ177cは、画像データの色空間がsRGBであったとき、色域を拡大する処理を行う。このエンハンサ177cは、輪郭強調部および色域拡張部を構成している。パネルドライバ177dは、エンハンサ177cから出力される画像データに基づいて、後述する表示部178を構成する液晶パネル178aを駆動する。この場合、パネルドライバ177dは、量子化レンジの情報を参照して、駆動信号を生成する。このパネルドライバ177dでは、ガンマ補正も行われる。このパネルドライバ177dは、階調変更部を構成している。
また、図15において、表示部178は、液晶パネル178aと、バックライト178bとにより構成されている。液晶パネル178aは、上述したパネルドライバ177dにより駆動され、画像データによる画像を表示する。バックライト178bは、例えば白色蛍光灯により構成される。
以上のように構成される、図12(図13、図14)のAVシステム140の動作例を説明する。
例えば、ユーザが、被写体を撮像するように、ビデオカメラ141を操作すると、撮像素子155は撮像動作を開始し、撮像信号処理部156から、被写体に対応した画像データが得られる。この画像データの色空間、量子化レンジは、予めユーザによって指定された、あるいは制御部151で自動的に設定された、色空間、量子化レンジとされる。
撮像信号処理部156から出力される画像データは、音声データと共にコーデック157でエンコードされ、エンコードデータは記録再生部158によりHD159に記録される。
また、例えば、ユーザが、外部装置161からのデータを記録するようにビデオカメラ141を操作すると、コーデック157により外部装置161からの画像と音声のデータがエンコードされ、エンコードデータは記録再生部158によりHD159に記録される。
ユーザが、HD159に記録されているデータ送信するようにビデオカメラ141を操作すると、記録再生部158により、HD159からエンコードデータが再生され、コーデック157に供給される。コーデック157では、記録再生部158で再生されたエンコードデータが、ベースバンドの画像と音声のデータにデコードされ、そのベースバンドの画像と音声のデータは、HDMIソース160に供給される。
また、ユーザが、撮像データを送信するようにビデオカメラ141を操作すると、上述したように撮像信号処理部156から出力される画像データと、この画像データに対応した音声データが、ベースバンドのまま、コーデック157を通過してHDMIソース160に供給される。
HDMIソース160は、コーデック157から供給される画像データのブランキング期間にコンテンツ識別情報、色空間情報、量子化レンジ情報等を挿入する。そして、HDMIソース160は、HDMIに準拠した通信により、ブランキング期間にコンテンツ識別情報、色空間情報、量子化レンジ情報等が挿入されたベースバンドの画像データと、コーデック157から供給されるベースバンドの音声データとを、HDMIケーブル143を介して、テレビ受信機142に、一方向に、送信する。
テレビ受信機142では、HDMIシンク173により、HDMIに準拠した通信により、ビデオカメラ141のHDMIソース160からHDMIケーブル143を介して一方向に送信されてくるベースバンドの画像と音声のデータが受信される。HDMIシンク173は、受信された画像データを切替器176に供給し、受信された音声データを、図示しない音声データ用の切替器に供給する。さらに、HDMIシンク173は、画像データのブランキング期間に挿入されている制御信号、例えばコンテンツ識別情報、色空間情報、量子化レンジ情報等を、制御部171に供給する。
また、チューナ174で受信された画像データは切替器176に供給される。ユーザがユーザ操作部172によりHDMIシンク173を選択する操作を行うとき、切替器176ではHDMIシンク173で受信された画像データが取り出される。一方、ユーザがユーザ操作部172によりチューナ174を選択する操作を行うとき、切替器176ではチューナ174で受信された画像データが取り出される。
切替器176で取り出された画像データは、表示処理部177に供給される。表示処理部177では、制御部171の制御のもと、画像データに対して、当該画像データのコンテンツ種類に応じた処理が行われ、処理後の画像データは表示部178に供給される。表示部178では、表示処理部177から供給される画像データに基づいて、画像が表示される。
また、チューナ174で受信された音声データは音声データ用の切替器に供給される。この音声データ用の切替器では、上述した切替器176における画像データの切り替えに対応した音声データの切り替えが行われる。そして、この音声データ用の切替器で取り出された音声データは図示しないスピーカに供給され、当該音声データによる音声が出力される。
次に、上述したように、ビデオカメラ141のHDMIソース160において、画像データ(映像信号)のブランキング期間に挿入されるコンテンツ識別情報、色空間情報、量子化レンジ情報について、説明する。
図19は、上述したデータアイランド区間に配置される、AVI(Auxiliary Video Information)InfoFrameパケットのデータ構造を示している。HDMIでは、当該AVIInfoFrameパケットにより、画像に関する付帯情報をソース機器からシンク機器に伝送可能となっている。
この実施の形態において、コンテンツ識別情報は、図19に示すように、AVIInfoFrameパケット6バイト目(Data Byte3)におけるCA(図7のITCに対応)の1ビットと、8バイト目(Data Byte5)におけるCT1,CT0の2ビットとに、階層的に配置される。
1ビットのデータであるCAは、動画コンテンツであるか否かを識別する。ここで、CA=0であるときは、通常の動画コンテンツを示し、CA=1であるときは、通常の動画コンテンツでないことを示す。2ビットのデータであるCT1,CT0は、CA=1であるとき有効(Active)となる。つまり、CT1,CT0は、CAにより通常の動画コンテンツでないと判別されるとき、さらに使用されるものである。
この実施の形態においては、CT1,CT0により、上述の図8に示すように、テキストコンテンツ、フォトグラフコンテンツ、シネマコンテンツ、ゲームコンテンツの4つのコンテンツの識別が可能とされる。すなわち、CT1=0,CT0=0であるとき、テキストコンテンツを示す。CT1=0,CT0=1であるとき、フォトグラフ(静止画)コンテンツを示す。CT1=1,CT0=0であるとき、シネマコンテンツを示す。CT1=1,CT0=1であるとき、ゲームコンテンツを示す。
ここで、テキストコンテンツとは、一般的なIT(Information Technology)コンテンツを意味している。フォトグラフコンテンツとは、静止画のコンテンツを意味している。シネマコンテンツとは、映画やホームビデオのコンテンツを意味している。ゲームコンテンツとは、PCまたはゲームコンソールビデオのコンテンツを意味している。
色空間情報は、図19に示すように、AVIInfoFrameパケットの、4バイト目(Data Byte1)におけるY1,Y0の2ビットと、5バイト目(Data Byte2)におけるC1,C0の2ビットと、6バイト目(Data Byte3)におけるEC2,EC1,EC0の3ビットに配置されている。この実施の形態において、色空間情報「Y1,Y0.C1,C0,EC2,EC1,EC0」の定義は、コンテンツの種類、例えば、コンテンツが静止画であるか否かにより変化するようになされている。
また、量子化レンジ情報は、図19に示すように、6バイト目(Data Byte3)におけるQ1,Q0の2ビットと、8バイト目(Data Byte5)におけるQ3,Q2の2ビットとに配置されている。Q1,Q0は、RGB色空間における量子化レンジを示す。Q1=0,Q0=0のとき、デフォルト(Default)を表し、Q1=0,Q0=1のとき、リミテッドレンジを表し、Q1=1,Q0=0のとき、フルレンジを表す。Q3,Q2は、YUVにおける量子化レンジを示す。この実施の形態において、量子化レンジ情報「Q3,Q2」の定義は、コンテンツの種類、例えば、コンテンツが静止画であるか否かにより変化するようになされている。
図20は、この実施の形態における、色空間情報および量子化レンジ情報の定義を示している。この定義例は、コンテンツが静止画であるか否かにより変化するようになされた例である。
Y1,Y0について説明する。コンテンツが静止画以外である場合、Y1=0,Y0=0のとき、「RGB(sRGB)」を表し、Y1=0,Y0=1のとき、「YUV 4:2:2」を表し、Y1=1,Y0=0のとき、「YUV 4:4:4」を表す。一方、コンテンツが静止画(Photo)である場合、Y1=0,Y0=0のとき、「RGB(sRGB)」を表し、Y1=0,Y0=1のとき、「YUV 4:2:2」を表し、Y1=1,Y0=0のとき、「YUV 4:4:4」を表し、さらに、Y1=1,Y0=1のとき、「RGB(Adobe)」を表す。
C1,C0について説明する。コンテンツが静止画以外および静止画のいずれにあっても、C1=0,C0=0のとき、「No Data)」を表し、C1=0,C0=1のとき、「sRGB 601」を表し、C1=1,C0=0のとき、「sRGB 709」を表し、さらに、C1=1,C0=1のとき、EC2〜EC0を参照することを表す。
EC2,EC1,EC0について説明する。コンテンツが静止画以外である場合、EC2=0,EC1=0,EC0=0のとき、「sYCC 601」を表し、EC2=0,EC1=0,EC0=1のとき、「sYCC 709」を表す。一方、コンテンツが静止画である場合、EC2=0,EC1=0,EC0=0のとき、「sYCC 601」を表し、EC2=0,EC1=0,EC0=1のとき、「sYCC 709」を表し、さらに、EC2=0,EC1=1,EC0=0のとき、「Adobe 601」を表し、EC2=0,EC1=1,EC0=1のとき、「Adobe 709」を表す。
Q3,Q2について説明する。コンテンツが静止画以外である場合、定義されていない。一方、コンテンツが静止画(Photo)である場合、Q3=0,Q2=0のとき、「Default」を表し、Q3=0,Q2=1のとき、「limited range」を表し、Q3=1,Q2=0のとき、「full range」を表す。
上述の図20に示す色空間情報および量子化レンジ情報の定義は、ビデオカメラ141の制御部151に内蔵されたROM151aに記憶されており、HDMIソース160において、送信する画像データに、色空間情報および量子化レンジ情報を挿入する際に、当該定義が参照される。また、上述の図20に示す色空間情報および量子化レンジ情報の定義は、テレビ受信機142の制御部171に内蔵されたROM171aに記憶されており、HDMIシンク173で受信した画像データに挿入されている色空間情報および量子化レンジ情報を解釈する際に、当該定義が参照される。
次に、コンテンツ識別情報が、上述したように、1ビットデータ(CA)と、2ビットデータ(CT1,CT0)とからなっている場合における、テレビ受信機142の制御部171における、コンテンツ識別情報、色空間情報、量子化レンジ情報等を用いた制御処理の一例を、図21のフローチャートを用いて、説明する。
まず、制御部171は、ステップST11において、制御処理を開始し、その後に、ステップST12に移る。このステップST12において、制御部171は、ITC=1であるか否かを判別する。ITC=1でないとき、制御部171は、受信された画像データが通常の動画コンテンツに係るものであると認識し、ステップST13において、通常の動画処理を行う。
つまり、制御部171は、クロマデコーダ177aに関しては、色空間情報を動画の定義で解釈した場合の色空間となるように制御する。また、制御部171は、DRC部177bに関しては、画質改善処理を行うように制御する。また、制御部171は、エンハンサ177cに関しては、高域成分を強調して輪郭強調を行うように制御すると共に、色空間がsRGBであったときには、色域を拡張する処理を行うように制御する。また、制御部171は、パネルドライバ177dに関しては、量子化レンジ情報を動画の定義で解釈した場合の量子化レンジで駆動信号を生成するように制御すると共に、通常のガンマ補正を行うように制御する。また、制御部171は、バックライト178bに関しては、通常の色温度となるように制御する。
ステップST12でITC=1であるとき、制御部171は、ステップST14に移る。このステップST14において、制御部171は、CT1=0であるか否かを判別する。そして、CT1=0であるとき、制御部171は、ステップST15において、CT0=0であるか否かを判別する。
CT0=0であるとき、制御部171は、受信された画像データがテキストコンテンツに係るものであると認識し、ステップST16において、テキスト(Text)処理を行う。この場合、制御部171は、エンハンサ177cで高域成分を強調することによる輪郭強調が行われないように、当該エンハンサ177cの動作を制御する。なお、制御部171は、その他については、上述した通常の動画処理と同様に制御する。
このように、受信された画像データがテキストコンテンツに係るものである場合、エンハンサ177cで輪郭強調が行われないようにすることで、輪郭強調により文字が読みにくくなることを防止できる。
また、ステップST15でCT0=0でないとき、制御部171は、受信された画像データがフォトグラフコンテンツ(静止画のコンテンツ)に係るものであると認識し、ステップST17において、フォトグラフ(Photograph)処理を行う。この場合、制御部171は、色空間情報を静止画の定義で解釈した場合の色空間となるように、クロマデコーダ177aの動作を制御する。また、制御部171は、パネルドライバ177dに関しては、量子化レンジ情報を静止画の定義で解釈した場合の量子化レンジで駆動信号を生成するように制御する。制御部171は、その他に関しては、上述した通常の動画処理と同様に制御する。
なお、パネルドライバ177dは、上述していないがOSD(On Screen Display)表示部177eを備えており、制御部171は、液晶パネル178aの画面に、例えば、図22に示すように、コンテンツおよび色空間の種類が表示されるようにOSD表示部177eを制御するようにしてもよい。図22の表示例では、コンテンツの種類が静止画であることが「Photo」で示され、色空間の種類が「Adobe」であることが示されている。このようなコンテンツの種類および色空間の種類のOSD表示は、静止画コンテンツの場合だけでなく、その他のコンテンツの場合にも適用してもよい。ユーザは、このOSD表示により、コンテンツの種類および色空間の種類を容易に把握できる。
このように、受信された画像データがフォトグラフコンテンツに係るものである場合、エンハンサ177cで色空間を静止画用の色空間とすることで、フォトグラフ(静止画)コンテンツに係る画像データによる画像を静止画用色空間により良好に表示させることが可能となる。
また、ステップST14でCT1=0でないとき、制御部171は、ステップST18において、CT0=0であるか否かを判別する。
CT0=0であるとき、制御部171は、受信された画像データがシネマコンテンツに係るものであると認識し、ステップST19において、シネマ(Cinema)処理を行う。この場合、制御部171は、パネルドライバ177dにおけるガンマ補正を制御し、黒側の階調を持ち上げるようにすると共に、バックライト178bを制御し、色温度を下げる。なお、制御部171は、その他に関しては、上述した通常の動画処理と同様に制御する。
このように、受信された画像データがシネマコンテンツに係るものである場合、パネルドライバ177dで黒側の階調を持ち上げると共に、バックライト178bの色温度を下げることで、シネマコンテンツにあった画像の表示が可能となる。
また、ステップST18でCT0=0でないとき、制御部171は、受信された画像データがゲームコンテンツに係るものであると認識し、ステップST20において、ゲーム(Game)処理を行う。この場合、制御部171は、DRC部177bで画像改善処理が行われないように、当該DRC部177bの動作を制御する。なお、制御部171は、その他に関しては、上述した通常の動画処理と同様に制御する。
このように、受信された画像データがゲームコンテンツに係るものである場合、DRC部177bで画質改善処理が行われないようにすることで、当該画質改善処理による音声に対する画像の遅れを軽減でき、音声と画像とのずれによる違和感の発生を防止できる。 次に、コンテンツ識別情報が、上述したように、1ビットデータ(CA)と、2ビットデータ(CT1,CT0)とからなっている場合における、テレビ受信機142の制御部171における、コンテンツ識別情報、色空間情報、量子化レンジ情報等を用いた制御処理の他の例を、図23のフローチャートを用いて、説明する。この図23において、図21と対応するステップには同一符号を付して示している。
まず、制御部171は、ステップST11において、制御処理を開始し、その後に、ステップST11aに移る。このステップST11aにおいて、制御部171は、設定モードが、オート、ビデオ(動画)、フォト(静止画)、テキスト、シネマ、ゲームのいずれであるかを判断する。
ユーザは、ユーザ操作部172を操作してモード設定を行うことができる。図24は、モード設定時に、液晶表示パネル178aに表示されるGUI(Graphical User Interface)画面を示している。ユーザは、GUI画面に表示されているオート、ビデオ(動画)、フォト(静止画)、テキスト、シネマ、ゲームの釦を、ユーザ操作部172を操作して押圧することで、所望のモードに設定できる。
ステップST11aでオートモードに設定されている場合、制御部171は、ステップST12の処理に移り、詳細説明は省略するが、上述の図21のフローチャートと同様の処理をする。一方、ステップST11aでビデオ、フォト、テキスト、シネマ、ゲームのいずれかのモードに設定されている場合、制御部171は、ステップST11bの処理に移る。このステップST11bにおいて、制御部171は、設定されたモードに対応した処理(動画処理、テキスト処理、フォトグラフ処理、シネマ処理、ゲーム処理)を行う(ST13,ST16,ST17,ST19,ST20参照)。
図23のフローチャートに示す制御処理例においては、オートモードに設定されている場合には、図21のフローチャートに示す制御処理例と同様に、受信された画像データ(映像信号)に対してコンテンツの種類に応じた最適な処理が行われる。また、図23のフローチャートに示す制御処理例においては、ビデオ(動画)、フォト(静止画)、テキスト、シネマ、ゲームのいずれかのモードに設定されている場合には、受信された画像データ(映像信号)に対して、強制的に、設定されたモードに対応した処理が行われる。
なお、上述において、制御部171は、色空間を色空間情報が示す色空間に設定する(色空間情報が示す色空間となるように、クロマデコーダ177aの動作を制御する)ものを説明したが、強制的に、所定の色空間とするように、ユーザがモード設定できるようにしてもよい。
図25のフローチャートは、その場合の制御処理例を示している。まず、制御部171は、ステップST31において、処理動作を開始し、その後に、ステップST32の処理に移る。このステップST32において、制御部171は、設定モードがオート、sRGB、sYCCまたはAdobe RGBのいずれであるかを判断する。
ユーザは、ユーザ操作部172を操作してモード設定を行うことができる。図26は、モード設定時に、液晶パネル178aに表示されるGUI(Graphical User Interface)画面を示している。ユーザは、GUI画面に表示されているオート、sRGB、sYCC、Adobe RGBの釦を、ユーザ操作部172を操作して押圧することで、所望のモードに設定できる。
ステップST32でオートモードに設定されている場合、制御部171は、ステップST33の処理に移り、詳細説明は省略するが、色空間情報が示す色空間となるように、クロマデコーダ177aの動作を制御する。一方、ステップST32でsRGB、sYCC、Adobe RGBのいずれかのモードに設定されている場合、制御部171は、ステップST34の処理に移る。このステップST24において、制御部171は、設定されたモードに対応した色空間となるように、クロマデコーダ177aの動作を制御する。
図25のフローチャートに示す制御処理例においては、オートモードに設定されている場合には、受信された画像データ(映像信号)に対応した最適な色空間に設定される。また、図25のフローチャートに示す制御処理例においては、sRGB、sYCC、Adobe RGBのいずれかのモードに設定されている場合には、強制的に、設定されたモードに対応した色空間に設定される。
また、上述において、制御部171は、受信された画像データ(映像信号)に対する量子化レンジの設定を量子化レンジ情報が示す量子化レンジに設定する(パネルドライバ177dで、量子化レンジ情報が示す量子化レンジで駆動信号が生成されるように制御する)ものを説明したが、強制的に、所定の量子化レンジとするように、ユーザがモード設定できるようにしてもよい。
図27のフローチャートは、その場合の制御処理例を示している。まず、制御部171は、ステップST41において、処理動作を開始し、その後に、ステップST42の処理に移る。このステップST42において、制御部171は、設定モードがオート、フルレンジまたはリミテッドレンジのいずれであるかを判断する。
ユーザは、ユーザ操作部172を操作してモード設定を行うことができる。図28は、モード設定時に、液晶パネル178aに表示されるGUI(Graphical User Interface)画面を示している。ユーザは、GUI画面に表示されているオート、フルレンジ、リミテッドレンジの釦を、ユーザ操作部172を操作して押圧することで、所望のモードに設定できる。
ステップST42でオートモードに設定されている場合、制御部171は、ステップST43の処理に移り、詳細説明は省略するが、量子化レンジ情報が示す量子化レンジで駆動信号が生成されるように、パネルドライバ177dの動作を制御する。一方、ステップST42でフルレンジ、リミテッドレンジのいずれかのモードに設定されている場合、制御部171は、ステップST44の処理に移る。このステップST44において、制御部171は、設定されたモードに対応した量子化レンジで駆動信号が生成されるように、パネルドライバ177dの動作を制御する。
図27のフローチャートに示す制御処理例においては、オートモードに設定されている場合には、受信された画像データ(映像信号)に対応した最適な量子化レンジに設定される。また、図27のフローチャートに示す制御処理例においては、フルレンジ、リミテッドレンジのいずれかのモードに設定されている場合には、強制的に、設定されたモードに対応した量子化レンジに設定される。
上述したように、図12(図13、図14)に示すAVシステム140において、ビデオカメラ141のHDMIソース160は、画像データのブランキング期間(データアイランド区間)に配置されるAVI InfoFrameパケットにコンテンツ識別情報CA,CT1,CT0を挿入し、当該画像データを、3つのTMDSチャネル#0,#1,#2で、差動信号により、テレビ受信機142のHDMIシンク173に送信するものである。したがって、テレビ受信機142では、当該コンテンツ識別情報に基づいて、受信された画像データのコンテンツ種類を識別でき、画像データに対してコンテンツ種類に適合した最適な処理を行うことができる。
また、図12(図13、図14)に示すAVシステム140において、ビデオカメラ141のHDMIソース160で画像データのブランキング期間に挿入されるコンテンツ識別情報は、通常の動画コンテンツであるか否かを識別する1ビットのデータCAと、このデータCAにより動画コンテンツでないと判別されるときさらに使用される2ビットのデータCT1,CT0より構成されている。この場合、通常の動画コンテンツの送信頻度が高い場合には、上位階層に配置された1ビットのデータCAを使用したコンテンツ種類の判別処理だけで終わることが多く、テレビ受信機142の制御部171における判別処理の負荷を軽減することが可能となる。
また、図12(図13、図14)に示すAVシステム140において、ビデオカメラ141のHDMIソース160で画像データのブランキング期間に挿入される色空間情報および量子化レンジ情報は、コンテンツの種類に応じて、実施の形態ではコンテンツが静止画であるか否かに応じて定義が変化するようになされており、テレビ受信機142では、当該画像データによる画像を、コンテンツの種類に応じた最適な色空間、および最適な階調で表示できる。
なお、上述実施の形態においては、色空間情報および量子化レンジ情報の定義を、コンテンツが静止画であるか否かに応じて変化するようにしたものを示したが(図20参照)、コンテンツの種類毎にさらに細かく定義することも考えられる。
また、上述していないが、ビデオカメラ141からテレビ受信機142に、当該テレビ受信機142でサポートしていない色空間(色空間情報で分かる)を持つ画像データが送信されてくる場合も考えられる。例えば、ビデオカメラ141で、ユーザが色空間を自由に指定できる場合等である。この場合、テレビ受信機142の制御部171は、パネルドライバ177dに内蔵されたOSD表示部177eを制御し、液晶パネル178aに、ビデオカメラ141から送信された画像データの色空間を当該テレビ受信機142がサポートしていない旨をOSD表示するようにしてもよい。この場合、ユーザは、OSD表示に基づいて、ビデオカメラ141からテレビ受信機142に、当該テレビ受信機142でサポートしていない色空間を持つ画像データが送られてきたことを容易に知ることができる。
また、上述実施の形態においては、コンテンツの種類を識別するためのコンテンツ識別情報を、送信する所定のコンテンツの映像信号のブランキング期間に挿入するために、HDMIのAVI InfoFrameを用いるものを示したが、以下のように、HDMIのSPD(Source Product Description) InfoFrameを用いることも考えられる。
図29は、SPD InfoFrameの構成を示している。例えば、DataByte1から8まではVendor name Character(ベンダーネーム)領域とされており、この領域を用いてベンダーネーム情報が格納される。また、DataByte9から24まではProduct Descript Character(モデルナンバー)領域とされている。さらに、DataByte25は、Source.Device.Information(ソース機器種類)領域とされている。このソース機器種類領域には、図30に示すように、ソース機器種類を示すコードが格納される。例えば、ソース機器がデジタルSTBであるときは「01h」が格納され、ソース機器がDVC(Digital Video Camera)であるときは「05h」が格納され、ソース機器がDSC(Digital Still Camera)であるときは「06h」が格納される。
例えば、ベンダーネーム領域に、特定のベンダーネーム、例えば、「ABCD」が記載され、ソース機器種類領域にソース機器がDSC(Digital Still Camera)であることを示す「06h」のコードが記載される場合、静止画コンテンツであることが示され、それ以外の場合には動画コンテンツであることが示される。なお、特定のベンダーネームは、ある一つのベンダーネームに限定されるものではなく、複数のベンダーネームのうちのいずれかであってもよい。
コンテンツ識別情報が、上述したように、HDMIのSPD InfoFrameを用いてソース機器からシンク機器に送信される場合における、テレビ受信機142の制御部171の制御処理の一例を、図31のフローチャートを用いて、説明する。
まず、制御部171は、ステップST51において、制御処理を開始し、その後に、ステップST52の処理に移る。このステップST52において、制御部171は、SPD InfoFrameのベンダーネーム領域に記載されているベンダーネームが「ABCD」であるか否かを判断する。
ベンダーネームが「ABCD」であるとき、制御171は、ステップST53においてSPD InfoFrameのソース機器種類領域にDSCを示すコードが記載されているか否かを判断する。ステップST52でベンダーネームが「ABCD」でないとき、あるいは、ステップST53で、DSCを示すコードが記載されていないとき、制御部171は、ステップST55において、通常の動画処理を行う。
つまり、制御部171は、クロマデコーダ177aに関しては、色空間情報を動画の定義で解釈した場合の色空間となるように制御する。また、制御部171は、DRC部177bに関しては、画質改善処理を行うように制御する。また、制御部171は、エンハンサ177cに関しては、高域成分を強調して輪郭強調を行うように制御すると共に、色空間がsRGBであったときには、色域を拡張する処理を行うように制御する。また、制御部171は、パネルドライバ177dに関しては、量子化レンジ情報を動画の定義で解釈した場合の量子化レンジで駆動信号を生成するように制御すると共に、通常のガンマ補正を行うように制御する。また、制御部171は、バックライト178bに関しては、通常の色温度となるように制御する。
また、ステップST53でDSCを示すコードが記載されているとき、制御部171は、ステップST54において、フォトグラフ(Photograph)処理を行う。この場合、制御部171は、色空間情報を静止画の定義で解釈した場合の色空間となるように、クロマデコーダ177aの動作を制御する。また、制御部171は、パネルドライバ177dに関しては、量子化レンジ情報を静止画の定義で解釈した場合の量子化レンジで駆動信号を生成するように制御する。制御部171は、その他に関しては、上述した通常の動画処理と同様に制御する。
次に、コンテンツ識別情報が、上述したように、HDMIのSPD InfoFrameを用いてソース機器からシンク機器に送信される場合における、テレビ受信機142の制御部171の制御処理の他の例を、図32のフローチャートを用いて、説明する。
まず、制御部171は、ステップST51において、制御処理を開始し、その後に、ステップST51aの処理に移る。このステップST51aにおいて、制御部171は、設定モードが、オート、ビデオ(動画)、フォト(静止画)のいずれであるかを判断する。
ユーザは、ユーザ操作部172を操作してモード設定を行うことができる。図33は、モード設定時に、液晶パネル178aに表示されるGUI(Graphical User Interface)画面を示している。ユーザは、GUI画面に表示されているオート、ビデオ(動画)、フォト(静止画)、テキスト、シネマ、ゲームの釦を、ユーザ操作部172を操作して押圧することで、所望のモードに設定できる。
ステップST51aでオートモードに設定されている場合、制御部171は、ステップST52の処理に移り、詳細説明は省略するが、上述の図31のフローチャートと同様の処理をする。一方、ステップST51aでビデオ、フォトのいずれかのモードに設定されている場合、制御部171は、ステップST55またはステップST54において、設定されたモードに対応した処理(動画処理またはフォトグラフ処理)を行う。
図32のフローチャートに示す制御処理例においては、オートモードに設定されている場合には、図31のフローチャートに示す制御処理例と同様に、受信された画像データ(映像信号)に対してコンテンツの種類に応じた最適な処理が行われる。また、図32のフローチャートに示す制御処理例においては、ビデオ(動画)、フォト(静止画)のいずれかのモードに設定されている場合には、受信された画像データ(映像信号)に対して、強制的に、設定されたモードに対応した処理が行われる。
なお、上述では、HDMIのSPD InfoFrameのベンダーネーム領域およびソース機器種類領域の双方を用いてコンテンツ識別情報をソース機器からシンク機器に送信するものを示したが、ベンダーネーム領域またはソース機器種類領域のみを用いるか、または、モデルナンバー領域をさらに用いて、ビデオ(動画)、フォト(静止画)だけでなく、テキスト、シネマ、ゲーム等のコンテンツ種類をも識別可能となるようにしてもよい。
次に、この発明のさらに別の実施の形態について説明する。
図34は、この発明を適用したAVシステム180の構成例を示している。この図34において、AVシステム180は、送信装置としてのビデオカメラ181と、受信装置としてのテレビ受信機182とで構成されている。ビデオカメラ181およびテレビ受信機182は、それぞれUSB端子181a,182aを備えており、USB(Universal Serial Bus)ケーブル183を介して接続されている。
このAVシステム180においては、ビデオカメラ181からテレビ受信機182には、例えば、動画ファイルとしてMPEGファイルが送信され、静止画ファイルとしてJPEGファイルが送信される。
テレビ受信機182においては、送信されてくるファイルがJPEGファイルであり、さらに、JPEGファイルのタグに特定のメーカコードが含まれているとき、受信された画像データ(映像信号)に対してフォトグラフ(Photograph)処理を行い、その他の場合には、通常の動画処理を行う。これにより、受信された画像データ(映像信号)に対してコンテンツの種類に応じた最適な処理が行われる。ここで、フォトグラフ(Photograph)処理および通常の動画処理は、上述した図12に示すAVシステム140で説明したと同様の処理である。
なお、テレビ受信機182においては、送信されてくるファイルがJPEGファイルであることだけで、受信された画像データ(映像信号)に対してフォトグラフ(Photograph)処理を行う構成とすることもできる。
また、上述の図12に示すAVシステム140において、HDMIケーブル143を介してベースバンドの映像信号をビデオカメラ141からテレビ受信機142に送信する経路と共に、上述の図34に示すAVシステム180と同様にUSBケーブル183を介してビデオカメラ141からテレビ受信機142に圧縮された映像信号を送信する経路を備える構成も考えられる。
また、図34は、に示すAVシステム180は、ビデオカメラ181およびテレビ受信機182がUSB端子を持ち、互いにUSBケーブル183で接続されるものを示したが、ビデオカメラ181およびテレビ受信機182が他の端子を持ち、互いに接続されるものにあってもよい。
また、上述実施の形態においては各機器がケーブルで接続されるものを示したが、この発明は、各機器が無線で接続されるものにも同様に適用できることは勿論である。
この発明は、受信側において映像信号(画像データ)に対してコンテンツの種類に応じた最適な処理を行うことができるものであり、例えば、HDMI等の通信インタフェースを用いる通信システムに適用できる。
40・・・AVシステム、41・・・HDレコーダ、42・・・ディスプレイ、43・・・HDMIケーブル、51・・・記録再生部、52・・・コーデック、53・・・HDMIソース、54・・・HD、55・・・外部装置、61・・・HDMIシンク、62・・・表示処理部、62a・・・クロマデコーダ、62b・・・DRC部、62c・・・エンハンサ、62d・・・パネルドライバ、63・・・表示部、63a・・・液晶パネル、63b・・・バックライト、71・・・ソース信号処理部、72・・・HDMIトランスミッタ、81・・・HDMIレシーバ、82・・・シンク信号処理部、140・・・AVシステム、141・・・ビデオカメラ、142・・・テレビ受信機、143・・・HDMIケーブル、151・・・制御部、152・・・ユーザ操作部、153・・・表示部、154・・・撮像レンズ、155・・・撮像素子、156・・・撮像信号処理部、157・・・コーデック、158・・・記録再生部、159・・・HD、160・・・HDMIソース、161・・・外部装置、171・・・制御部、172・・・ユーザ操作部、174・・・チューナ、175・・・アンテナ端子、176・・・切替器、177・・・表示処理部、177a・・・クロマデコーダ、177b・・・DRC部、177c・・・エンハンサ、177d・・・パネルドライバ、178・・・表示部、178a・・・液晶パネル、178b・・・バックライト、180・・・AVシステム、181・・・ビデオカメラ、181a,182・・・USB端子、182・・・テレビ受信機、183・・・USBケーブル

Claims (5)

  1. 複数チャネルで、差動信号により送信されてくる、コンテンツの種類を識別するためのコンテンツ識別情報がブランキング期間のデータアイランドのAVIInfoFrameに挿入された映像信号を受信する受信部と、
    上記受信部で受信された映像信号に対して表示のための処理を行う表示処理部と、
    上記受信部で受信された映像信号のAVIInfoFrameに挿入されている上記コンテンツ識別情報に基づいて上記表示処理部の動作を制御する制御部とを備え、
    上記コンテンツ識別情報は、階層的に配置された、1ビットのデータからなる第1のデータと2ビットのデータからなる第2のデータにより構成されており、少なくともゲームか否かを識別する
    受信装置。
  2. 上記コンテンツ識別情報で識別されるコンテンツの種類は、動画、テキスト、静止画、シネマおよびゲームである
    請求項1に記載の受信装置。
  3. 上記コンテンツ識別情報は、コンテンツの種類を示す情報を含む
    請求項1に記載の受信装置。
  4. 上記コンテンツ識別情報は、ベンダーネームを示す情報およびソース機器の種類を示す情報のいずれか、または双方を含む
    請求項1に記載の受信装置。
  5. 複数チャネルで、差動信号により送信されてくる、コンテンツの種類を識別するためのコンテンツ識別情報がブランキング期間のデータアイランドのAVIInfoFrameに挿入された映像信号を受信する受信ステップと、
    上記受信ステップで受信された映像信号に対して表示のための処理を行う表示処理ステップと、
    上記受信ステップで受信された映像信号のAVIInfoFrameに挿入されている上記コンテンツ識別情報に基づいて上記表示処理ステップの動作を制御する制御ステップとを備え、
    上記コンテンツ識別情報は、階層的に配置された、1ビットのデータからなる第1のデータと2ビットのデータからなる第2のデータにより構成されており、少なくともゲームか否かを識別する
    受信方法。
JP2014027111A 2007-03-13 2014-02-17 受信装置および受信方法 Expired - Fee Related JP5983651B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014027111A JP5983651B2 (ja) 2007-03-13 2014-02-17 受信装置および受信方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2007063327 2007-03-13
JP2007063327 2007-03-13
JP2007127415 2007-05-11
JP2007127415 2007-05-11
JP2014027111A JP5983651B2 (ja) 2007-03-13 2014-02-17 受信装置および受信方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009503881A Division JPWO2008111257A1 (ja) 2007-03-13 2007-11-02 通信システム、送信装置、送信方法、受信装置および受信方法

Publications (2)

Publication Number Publication Date
JP2014140181A true JP2014140181A (ja) 2014-07-31
JP5983651B2 JP5983651B2 (ja) 2016-09-06

Family

ID=39759201

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009503881A Pending JPWO2008111257A1 (ja) 2007-03-13 2007-11-02 通信システム、送信装置、送信方法、受信装置および受信方法
JP2014027111A Expired - Fee Related JP5983651B2 (ja) 2007-03-13 2014-02-17 受信装置および受信方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2009503881A Pending JPWO2008111257A1 (ja) 2007-03-13 2007-11-02 通信システム、送信装置、送信方法、受信装置および受信方法

Country Status (9)

Country Link
US (6) US8392958B2 (ja)
EP (2) EP2124437A4 (ja)
JP (2) JPWO2008111257A1 (ja)
KR (1) KR101404937B1 (ja)
CN (1) CN102196234A (ja)
BR (1) BRPI0721414A2 (ja)
RU (1) RU2479147C2 (ja)
TW (1) TWI400950B (ja)
WO (1) WO2008111257A1 (ja)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102196234A (zh) 2007-03-13 2011-09-21 索尼株式会社 接收装置以及接收方法
JP2008284128A (ja) * 2007-05-17 2008-11-27 Mitsubishi Electric Corp 映像表示装置
JP5358931B2 (ja) * 2007-11-28 2013-12-04 ソニー株式会社 送信装置及び受信装置
US8629884B2 (en) * 2007-12-07 2014-01-14 Ati Technologies Ulc Wide color gamut display system
WO2009095732A1 (en) * 2008-01-31 2009-08-06 Thomson Licensing Method and system for look data definition and transmission over a high definition multimedia interface
JPWO2010007751A1 (ja) * 2008-07-14 2012-01-05 パナソニック株式会社 映像データ処理装置及び映像データ処理方法
JP5262546B2 (ja) * 2008-10-08 2013-08-14 ソニー株式会社 映像信号処理システム、再生装置および表示装置、ならびに映像信号処理方法
JP5035212B2 (ja) * 2008-10-16 2012-09-26 ソニー株式会社 表示パネル用駆動回路、表示パネルモジュール、表示装置および表示パネルの駆動方法
EP2187382A3 (en) * 2008-11-05 2010-12-15 Samsung Electronics Co., Ltd. Video apparatus and method of controlling the video apparatus
JP2010177816A (ja) * 2009-01-27 2010-08-12 Sharp Corp 表示システム、表示装置及び画像送信装置
KR20100119354A (ko) * 2009-04-30 2010-11-09 삼성전자주식회사 표시 장치와 그 구동 방법
WO2011013670A1 (ja) * 2009-07-27 2011-02-03 シャープ株式会社 映像表示装置、プログラム、および記録媒体
US8644334B2 (en) * 2009-09-30 2014-02-04 Silicon Image, Inc. Messaging to provide data link integrity
US8755431B2 (en) 2010-01-14 2014-06-17 Silicon Image, Inc. Transmission and detection of multi-channel signals in reduced channel format
KR101660730B1 (ko) * 2010-01-25 2016-09-29 엘지전자 주식회사 영상 표시 방법 및 그에 따른 영상 표시 시스템
US9491432B2 (en) 2010-01-27 2016-11-08 Mediatek Inc. Video processing apparatus for generating video output satisfying display capability of display device according to video input and related method thereof
EP3467816A1 (en) * 2010-02-24 2019-04-10 Dolby Laboratories Licensing Corp. Display management methods and apparatus
US9055281B2 (en) * 2010-05-20 2015-06-09 Samsung Electronics Co., Ltd. Source device and sink device and method of transmitting and receiving multimedia service and related data
JP5573361B2 (ja) * 2010-05-25 2014-08-20 ソニー株式会社 送信装置、受信装置、送信方法、受信方法、及び送受信装置
JP2012119924A (ja) * 2010-11-30 2012-06-21 Toshiba Corp 映像表示装置及び映像表示方法、音声再生装置及び音声再生方法、映像音声同期制御システム
US9344669B2 (en) * 2011-06-21 2016-05-17 Arris Enterprises, Inc. HDMI source/sink interoperable configuration determination process
JP5762854B2 (ja) * 2011-06-30 2015-08-12 Dxアンテナ株式会社 通信システム
JP5232319B2 (ja) 2011-10-20 2013-07-10 株式会社東芝 通信装置及び通信方法
WO2013122385A1 (en) 2012-02-15 2013-08-22 Samsung Electronics Co., Ltd. Data transmitting apparatus, data receiving apparatus, data transreceiving system, data transmitting method, data receiving method and data transreceiving method
WO2013122387A1 (en) 2012-02-15 2013-08-22 Samsung Electronics Co., Ltd. Data transmitting apparatus, data receiving apparatus, data transceiving system, data transmitting method, and data receiving method
WO2013122386A1 (en) * 2012-02-15 2013-08-22 Samsung Electronics Co., Ltd. Data transmitting apparatus, data receiving apparatus, data transreceiving system, data transmitting method, data receiving method and data transreceiving method
JP5390667B2 (ja) 2012-06-11 2014-01-15 株式会社東芝 映像送信機器及び映像受信機器
KR101369146B1 (ko) 2012-07-16 2014-03-06 옵티시스 주식회사 영상 시스템
US20150262552A1 (en) * 2012-10-18 2015-09-17 Nec Display Solutions, Ltd. Display device and image display method
US9307204B1 (en) * 2012-11-13 2016-04-05 Amazon Technologies, Inc. Enhancement of media sink compatibility
KR102019495B1 (ko) * 2013-01-31 2019-09-06 삼성전자주식회사 싱크 장치, 소스 장치, 기능 블록 제어 시스템, 싱크 장치 제어 방법, 소스 장치 제어 방법 및 기능 블록 제어 방법
US10057633B2 (en) 2013-07-14 2018-08-21 Lg Electronics Inc. Method and apparatus for transmitting and receiving ultra high-definition broadcasting signal for expressing high-quality color in digital broadcasting system
CN103546714B (zh) * 2013-10-29 2018-03-30 深圳Tcl新技术有限公司 对hdmi信号处理的方法和装置
JP6289900B2 (ja) * 2013-12-27 2018-03-07 株式会社東芝 放送信号送信装置
US9319178B2 (en) * 2014-03-14 2016-04-19 Qualcomm Incorporated Method for using error correction codes with N factorial or CCI extension
WO2016002424A1 (ja) * 2014-07-04 2016-01-07 シャープ株式会社 液晶表示装置
EP3570555B1 (en) * 2014-06-16 2023-10-18 Panasonic Intellectual Property Management Co., Ltd. Display method and display device using type information and hdmi and hdcp
JP2018022932A (ja) 2014-12-08 2018-02-08 株式会社ジャパンディスプレイ 表示システム及び表示装置
US20170339380A1 (en) * 2014-12-10 2017-11-23 Nec Corporation Video generating device, video output device, video output system, video generating method,video output method, video output system control method, and recording medium
WO2016117052A1 (ja) * 2015-01-21 2016-07-28 Necディスプレイソリューションズ株式会社 表示システム、表示装置、電子機器及び画像信号伝送方法
KR102310241B1 (ko) 2015-04-29 2021-10-08 삼성전자주식회사 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법
US20180131995A1 (en) 2015-05-08 2018-05-10 Nagravision S.A. Method for rendering audio-video content, decoder for implementing this method and rendering device for rendering this audio-video content
US10587852B2 (en) 2015-10-06 2020-03-10 Lg Electronics Inc. Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
KR20170083889A (ko) * 2016-01-11 2017-07-19 삼성전자주식회사 디스플레이 장치 및 그 동작 방법
US9787937B1 (en) * 2016-06-01 2017-10-10 Novatek Microelectronics Corp. Display apparatus for video wall and operation method thereof
KR102429559B1 (ko) * 2017-12-08 2022-08-04 삼성전자주식회사 디스플레이 장치, 및 그 제어 방법
JP6546981B2 (ja) * 2017-12-12 2019-07-17 東芝映像ソリューション株式会社 放送信号送信装置及び放送信号送信装置の送信方法
KR102453833B1 (ko) * 2018-05-10 2022-10-14 삼성전자주식회사 전자 장치 및 그 제어 방법
JP6611403B2 (ja) * 2019-02-05 2019-11-27 東芝映像ソリューション株式会社 放送信号送信装置
CN111586332B (zh) * 2020-04-03 2024-07-23 西安万像电子科技有限公司 图像传输方法、装置和系统
US11936927B2 (en) * 2020-09-23 2024-03-19 Realtek Semiconductor Corporation Transmission control system of multi-media signal, transmitter control circuit and receiver control circuit
CN114500904A (zh) * 2020-11-13 2022-05-13 瑞昱半导体股份有限公司 信号传输装置、连接装置与转接线

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167895A (ja) * 2003-12-05 2005-06-23 Matsushita Electric Ind Co Ltd 映像信号出力装置
JP2005333472A (ja) * 2004-05-20 2005-12-02 Toshiba Corp 映像信号受信装置及び映像信号受信方法
WO2007008498A2 (en) * 2005-11-23 2007-01-18 Thx, Ltd. Content presentation optimizer
JP2009518881A (ja) * 2005-07-06 2009-05-07 ティ エイチ エックス リミテッド コンテンツ提示オプティマイザ

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4780758A (en) * 1987-04-30 1988-10-25 Gte Government Systems Corporation Telecommunication system with burst and continuous audio signals
JPH06133239A (ja) * 1992-10-16 1994-05-13 Sony Corp モニタ装置
JPH1191198A (ja) * 1997-07-23 1999-04-06 Canon Inc 画像処理装置及び方法及び記憶媒体
JP3914643B2 (ja) * 1998-09-10 2007-05-16 日本放送協会 番組情報管理編集システムとそれに使用される階層化番組情報蓄積管理装置
JP2000242212A (ja) * 1999-02-17 2000-09-08 Canon Inc 画像形成装置
US7051357B2 (en) * 1999-05-28 2006-05-23 Intel Corporation Communicating ancillary information associated with a plurality of audio/video programs
GB2364193A (en) * 2000-06-28 2002-01-16 Nokia Corp Accessing a teletext page from a link displayed in television programme
JP4008688B2 (ja) * 2000-10-12 2007-11-14 松下電器産業株式会社 信号送信装置及び信号受信装置
JP2002158941A (ja) 2000-11-16 2002-05-31 Sharp Corp 画質制御装置
JP2004349913A (ja) * 2003-05-21 2004-12-09 Matsushita Electric Ind Co Ltd 自動画質補正システム及びテレビジョン受像機
JP4298386B2 (ja) * 2003-06-05 2009-07-15 富士フイルム株式会社 画像表示装置および方法並びにプログラム
JP2005142709A (ja) 2003-11-05 2005-06-02 Matsushita Electric Ind Co Ltd 画像表示システム
JP2005338605A (ja) * 2004-05-28 2005-12-08 Toshiba Corp 表示装置及び表示方法
KR101092438B1 (ko) * 2004-08-05 2011-12-13 엘지전자 주식회사 케이블 방송 수신기 및 그의 진단 방법
JP2006098765A (ja) 2004-09-29 2006-04-13 Seiko Epson Corp 画像表示装置、画像表示システム、画像出力機器、及び画像表示装置のリフレッシュレート設定方法
JP2006295377A (ja) * 2005-04-07 2006-10-26 Mitsubishi Electric Corp 映像表示装置
JP2006319503A (ja) 2005-05-11 2006-11-24 Sony Corp 映像信号処理装置および方法、並びにプログラム
JP2006352599A (ja) * 2005-06-17 2006-12-28 Matsushita Electric Ind Co Ltd Hdmi接続における音量補正回路システム
JP4556785B2 (ja) * 2005-06-27 2010-10-06 船井電機株式会社 データ伝送システム
KR100766496B1 (ko) * 2005-07-08 2007-10-15 삼성전자주식회사 에이치디엠아이 전송 시스템
CN102196234A (zh) * 2007-03-13 2011-09-21 索尼株式会社 接收装置以及接收方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167895A (ja) * 2003-12-05 2005-06-23 Matsushita Electric Ind Co Ltd 映像信号出力装置
JP2005333472A (ja) * 2004-05-20 2005-12-02 Toshiba Corp 映像信号受信装置及び映像信号受信方法
JP2009518881A (ja) * 2005-07-06 2009-05-07 ティ エイチ エックス リミテッド コンテンツ提示オプティマイザ
WO2007008498A2 (en) * 2005-11-23 2007-01-18 Thx, Ltd. Content presentation optimizer

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HIGH-DEFINITION MULTIMEDIA INTERFACE SPECIFICATION VERSION 1.3A, JPN6015006970, 10 November 2006 (2006-11-10), US, pages 55 - 67, ISSN: 0003011572 *

Also Published As

Publication number Publication date
US20160234459A1 (en) 2016-08-11
US9699403B2 (en) 2017-07-04
RU2009134106A (ru) 2011-03-20
CN102196234A (zh) 2011-09-21
EP2667596A1 (en) 2013-11-27
US8789127B2 (en) 2014-07-22
RU2479147C2 (ru) 2013-04-10
KR101404937B1 (ko) 2014-06-09
WO2008111257A1 (ja) 2008-09-18
EP2124437A4 (en) 2010-12-29
US20130038795A1 (en) 2013-02-14
BRPI0721414A2 (pt) 2014-02-25
US8392958B2 (en) 2013-03-05
JP5983651B2 (ja) 2016-09-06
JPWO2008111257A1 (ja) 2010-06-24
KR20090126243A (ko) 2009-12-08
US9032471B2 (en) 2015-05-12
TW200901763A (en) 2009-01-01
US20100033627A1 (en) 2010-02-11
US20150201145A1 (en) 2015-07-16
US9350931B2 (en) 2016-05-24
US20140176800A1 (en) 2014-06-26
TWI400950B (zh) 2013-07-01
US9038123B2 (en) 2015-05-19
EP2124437A1 (en) 2009-11-25
EP2667596B1 (en) 2017-01-11
US20140369662A1 (en) 2014-12-18

Similar Documents

Publication Publication Date Title
JP5983651B2 (ja) 受信装置および受信方法
US9143637B2 (en) Transmission device, video signal transmission method for transmission device, reception device, and video signal reception method for reception device
JP5338166B2 (ja) 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
JP5390667B2 (ja) 映像送信機器及び映像受信機器
JP5444797B2 (ja) 送信装置、表示装置および画像表示システム
CN101627625A (zh) 通信系统、发送装置、发送方法、接收装置以及接收方法
JP2009038685A (ja) 画像信号出力装置及び画像信号出力方法
JP5689938B2 (ja) 映像送信機器
JP6304417B2 (ja) 受信方法および受信装置
JP5808509B2 (ja) 映像受信機器
JP6098678B2 (ja) 送信方法および送信装置
JP2009038686A (ja) 画像信号出力装置及び画像信号出力方法
JP2009038684A (ja) 画像信号出力装置及び画像信号出力方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160718

R151 Written notification of patent or utility model registration

Ref document number: 5983651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees