CN101129070A - 字幕显示设备 - Google Patents

字幕显示设备 Download PDF

Info

Publication number
CN101129070A
CN101129070A CNA2006800063752A CN200680006375A CN101129070A CN 101129070 A CN101129070 A CN 101129070A CN A2006800063752 A CNA2006800063752 A CN A2006800063752A CN 200680006375 A CN200680006375 A CN 200680006375A CN 101129070 A CN101129070 A CN 101129070A
Authority
CN
China
Prior art keywords
data
captions
video
video data
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006800063752A
Other languages
English (en)
Other versions
CN101129070B (zh
Inventor
藤田隆久
松井典弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN101129070A publication Critical patent/CN101129070A/zh
Application granted granted Critical
Publication of CN101129070B publication Critical patent/CN101129070B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/163Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing by receiver means only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4782Web browsing, e.g. WebTV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4858End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

提供了一种字幕显示设备,在该字幕显示设备中,可以在不依赖于终端类型的相容操作系统的情况下改变显示设置,例如字幕/文字等的布置,并且即使在显示菜单或对话时,也可以浏览字幕/文字。在字幕显示设备中,通过使文件数据转换部分(105)和显示数据生成部分(106)来显示字幕/文字,可以将字幕/文字布置在使用WWW浏览器的帧函数的显示区域上。此外,在该字幕显示设备中,使用显示控制装置(107)以允许使用WWW浏览器来显示字幕,而显示选择部分(112)用于根据菜单、对话等显示在视频显示区域上显示字幕/文字。

Description

字幕显示设备
技术领域
本发明涉及一种用于显示视频、字幕/文字等的字幕显示设备。更具体地,本发明涉及一种字幕显示设备,其可以利用不依赖于终端类型的一贯的操作系统来改变显示设置,例如字幕/文字等的配置,并且即使在显示菜单或对话时用户也能够浏览字幕/文字。
背景技术
在数字电视广播中,将与呈现视频或音频(即,电视节目)的时刻相同步地显示在屏幕上的字符串称为“字幕”。另一方面,将非同步于电视节目显示在屏幕上的字符串称为“文字”。在下文中,字幕和文字合起来称作“字幕/文字”。
在数字电视广播中,除了开放式字幕之外,将隐藏式字幕作为标准采用,开放式字幕通常被用于传统的模拟电视广播,在模拟电视广播中,字幕/文字图像由发送器叠加在视频上。在隐藏式字幕中,发送器传送与独立于视频的字幕/文字相关的数据,同时接收器将与字幕/文字相关的数据(下文称为字幕/文字数据)转换为图像,并将该图像叠加在视频上以呈现给用户。通过使用隐藏式字幕,接收器可以控制是否显示字幕/文字等。另外,例如通过在字幕/文字上添加语言标识符,可以以用户所希望的语言显示字幕/文字。下面,将介绍一种以隐藏式字幕的方式显示字幕/文字的方法。
字幕/文字数据包括字符数据和附加信息,该字符数据表现为字符串,其是字符的集合。通过使用附加信息,接收器不仅在屏幕上显示字符串,还可以增强字幕/文字的表现效果。特别地,例如字幕/文字可以可辨识地呈现或强调给用户。关于字幕/文字的附加信息通常包括以下类型的数据。
字幕/文字显示时刻数据是表示显示字幕/文字的时间的数据。接收器利用字幕/文字显示时刻数据来实现字幕与电视节目之间的同步。字符大小数据是在将字符串作为字幕/文字显示时指定其大小的数据。颜色数据是用于指定作为字幕/文字显示的字符串本身的颜色或者其背景的颜色的数据。重复数据是在重复显示同一字符串时用于指定字符串的重复次数的数据,提供该数据可以减小字幕/文字数据的数量。接收器预置的声音再现数据是用于指定预先存储在接收器中的声音数据的数据,从而在显示字符或字符串时再现声音数据。
在接收器之中,将在使用期间放置在预定地点的接收器称为固定接收器。固定接收器的特征在于:该接收器的显示屏幕的尺寸通常为十英寸以上。另一方面,用户随身携带的移动装置且附带数字广播接收器功能的终端,例如移动电话、PDA(个人数字助理)、数码相机等以及移动数字广播接收专用终端都被称为移动接收器。移动接收器的特征在于:该接收器的显示屏幕的尺寸为几英寸或更小(通常,为三英寸或更小)。
接收数字广播的固定接收器通常将发送器所传送的视频数据和字幕/文字数据转换为视频和字幕/文字图像,将视频和字幕/文字图像组合并且显示在他们的显示屏幕上。另一方面,接收数字广播的移动接收器通常将发送器所传送的视频数据和字幕/文字数据转换为视频和字幕/文字图像,并且将视频和字幕/文字图像显示在他们的显示屏幕的分开区域上。
固定接收器和移动接收器的字幕/文字显示方法之间的差别主要在于接收器的显示屏幕之间的差别。固定接收器的显示屏幕大于十英寸。因此,即使将字幕/文字叠加并显示在视频上,用户也可以分别识别字幕/文字和视频。因为视频被以较大的尺寸显示,因此增大了对用户的表现力和冲击。因此,在固定接收器中,优选将字幕/文字叠加在视频上并与视频合并,以使视频可以显示在显示屏幕的整个区域上。
另一方面,移动接收器的显示屏幕的尺寸为几英寸或更小。因此如果将字幕/文字叠加在视频上并显示在视频上,那么用户将不能或很难识别字幕/文字。因此,优选的是减小视频的显示尺寸并且将视频和字幕/文字显示在分开的区域中。特别地,在具有电视接收器功能的移动接收器(终端),例如移动电话的情况下,其显示设备的长度通常大于其宽度,如果显示4∶3或16∶9的视频,那么空白显示空间将出现在显示屏幕的上部区域和下部区域。如果字幕/文字显示在该空白区域,则可以在不牺牲视频显示区域大小的情况下确保字幕/文字的专用显示区域。
同样,在数字电视广播中,从发送器传送到接收器的内容除了视频、音频、节目信息和字幕/文字之外,还包括数据广播。数据广播例如以BML(广播标记语言)所表示的BML文件、以及静止图像和移动图像等的方式传送。在数据传送中,内容与视频和字幕/文字一起显示在屏幕上以呈现给用户。与字幕/文字的原因相同,数据广播优选也与视频分开显示在移动接收器的区域中。特别地,在移动接收器等的字幕显示设备中,当视频、数据广播和字幕/文字同时显示在显示屏幕上时,优选将视频、数据广播和字幕/文字显示在分开的区域中。
图13是示出在移动接收器中的数据广播和字幕/文字的示意性显示布局的图。图13(a)示出在显示视频和数据广播时的布局。图13(b)示出在显示视频、字幕/文字和数据广播时的布局。在图13(a)中,由于移动接收器的显示屏幕的长度通常大于其宽度,因此数据广播的显示区域通常位于视频显示区域的下方。在图13(b)中,当移动接收器还显示字幕/文字时,数据广播的显示区域被字幕/文字的显示区域共享。特别地,数据广播的显示区域被划分为字幕/文字区域和数据广播区域。优选的是,根据用户的喜好来设定字幕/文字广播显示区域和数据广播显示区域之间的比例。
此外,关于显示字幕/文字等的方法,固定接收器和移动接收器在显示屏幕的定义上是不同的。在固定接收器中,可以根据显示屏幕的分辨率或纵横比来提供标准模式。另一方面,在移动接收器中,特别在移动接收器且该移动接收器是具有数字广播接收器功能的终端中,例如移动电话、PDA、数码相机等,显示屏幕的纵横比或分辨率取决于终端的功能、应用和形状有很大的不同。因此,难以为移动接收器提供标准的显示模式。即使提供了标准的显示模式,也不可能为每种终端类型都提供最优的显示模式。因此,在传统的移动接收器中,没有定义标准的显示模式,而是根据每个终端的实现来决定显示视频和字幕/文字的方法。将这种根据每种终端的实现来决定的显示方法称为传统显示方法1。
作为另一种显示方法,已经公开了一种使用WWW浏览器来显示字幕/文字的方法(例如专利文献1)。在使用WWW浏览器的方法中,字符广播数据被转换成HTML(超文本标记语言)数据,接着,使用WWW浏览器将HTML数据显示在显示屏幕上。WWW浏览器具有根据显示屏幕的分辨率和显示区域的大小来优化内容的显示布局的功能。对于显示屏幕的分辨率或大小随终端类型(例如,移动接收器)而变的终端来说,由于可以利用优化显示布局的功能,因此使用WWW浏览器显示字幕/文字是高效的。这种使用WWW浏览器来显示字幕/文字的方法被称为传统显示方法2。
专利文献1:日本特开专利公报11-18060。
发明内容
本发明所要解决的问题
但是,根据传统显示方法1(即,取决于每个终端的实现的显示方法),与屏幕显示相关的操作系统同样取决于每个终端的实现,屏幕显示例如是字幕/文字广播显示区域和数据广播显示区域等的布置的设定。因此采用传统显示方法1的字幕显示设备存在的问题是需要为每个终端提供一种与屏幕显示相关的操作系统,从而避免用户混淆,其中屏幕显示与特定终端的操作系统相容。
同样,根据传统显示方法2(即,采用WWW浏览器的显示方法),数据广播只能在WWW浏览器上观看,字幕/文字中所包括的附加信息,例如字幕/文字显示时刻数据、字符大小数据、颜色数据、重复数据以及接收器预置的声音再现数据,不能被反映在WWW浏览器上进行显示。因此,采用传统显示方法2的字幕显示设备的表现力较差。
此外,根据传统显示方法1和2,当字幕显示设备显示与电视提示功能或菜单或对话面板有关的信息以显示警告时,字幕/文字广播显示区域被显示的菜单或对话(参见图14)隐藏。因此,采用传统显示方法1和2的字幕显示设备存在的问题是:当显示菜单或对话时,用户不能浏览字幕/文字。
因此,本发明的目的是提供一种字幕显示设备,在该字幕显示设备中,可以通过不依赖于终端类型的相容操作系统来改变显示设置,例如字幕/文字等布置,并且即使在显示菜单或对话时也可以浏览字幕/文字。
问题的解决方法
本发明旨在提供一种字幕显示设备,其获得至少包含字幕/文字流数据和段数据(section data)的流数据作为内容数据,并在屏幕上显示获得的内容数据。为了实现上述目的,本发明的字幕显示设备包括流分析部分、文件数据转换部分、段分析部分、以及显示数据生成部分。
流分析部分对流数据中所包含的字幕/文字流数据进行分析,并且输出要显示的字幕/文字数据。段分析部分对流数据中所包含的段数据进行分析,并将段数据转换为第一文件数据。文件数据转换部分将由流分析部分输出的字幕/文字数据转换为第二文件数据,该第二文件数据与第一文件数据的格式相同,并将第二文件数据与用于指定第二文件数据的显示区域的布局数据一起输出。显示数据生成部分基于段分析部分所输出的第一文件数据和文件数据转换部分所输出的第二文件数据和布局数据生成与字幕/文字相关的显示数据。
优选地,流分析部分还输出字幕呈现时间信息,用于指示字幕/文字数据的呈现时间。在这种情况下,字幕显示设备还包括显示控制部分,该显示控制部分基于字幕呈现时间信息所指示的时刻来请求显示数据生成部分更新显示数据。当从显示控制部分接收到更新请求时,显示数据生成部分更新与字幕/文字相关的显示数据。
优选地,字幕显示设备还包括呈现数据转换部分、视频数据分析部分、显示选择部分、显示数据合成部分和视频输出部分。呈现数据转换部分将流分析部分所输出的字幕/文字数据转换为图像数据,并且呈现图像数据作为字幕/文字图像数据。视频数据分析部分分析流数据中所包含的视频流数据,并输出视频数据。显示选择部分决定是否将字幕/文字图像数据叠加并显示在视频数据上。显示数据合成部分根据显示选择部分的决定来输出视频数据,或者输出通过在视频数据上叠加字幕/文字图像数据而得到的合成视频显示数据。视频输出部分在屏幕上显示视频数据或者显示数据合成部分所输出的合成视频显示数据,以及显示与显示数据生成部分所生成的字幕/文字相关的显示数据。
当显示选择部分决定不将字幕/文字图像数据叠加并显示在视频数据上时,显示数据合成部分输出视频数据。当显示选择部分决定将字幕/文字图像数据叠加并显示在视频数据上时,显示数据合成部分将字幕/文字图像数据叠加在视频数据上,并且将合成数据作为合成的视频显示数据输出。
优选地,显示数据生成部分除了输出与字幕/文字相关的显示数据之外,还输出表示用于显示第二文件数据的区域的位图图像作为屏蔽数据。在这种情况下,字幕显示设备还包括视频数据分析部分、显示选择部分、显示数据合成部分和视频输出部分。视频数据分析部分分析流数据中所包括的视频流数据,并且输出视频数据。显示选择部分决定是否将与字幕/文字有关的显示数据叠加并显示在视频数据上。显示数据合成部分根据显示选择部分的决定来输出视频数据,或者输出通过在视频数据上叠加位图图像而得到的合成视频显示数据,以及输出与字幕/文字有关的显示数据。视频输出选择部分在屏幕上显示视频数据或者显示数据合成部分所输出的合成视频显示数据,以及显示与显示数据生成部分所生成的字幕/文字相关的显示数据。当显示选择部分决定不将与字幕/文字相关的显示数据叠加并显示在视频数据上时,显示数据合成部分输出视频数据和与字幕/文字相关的显示数据。当显示选择部分决定将与字幕/文字相关的显示数据叠加并显示在视频数据上时,显示数据合成部分输出合成的视频显示数据和与字幕/文字相关的显示数据。
字幕显示设备还包括数据接收部分,其用于接收字幕/文字数据中的包括文件数据的内容数据。在这种情况下,文件数据转换部分从接收的字幕/文字数据中提取文件数据,并输出文件数据给显示数据生成部分。
本发明还旨在提供一种用于实现上述屏幕显示的字幕显示方法、一种执行字幕显示方法的程序、一种存储程序的存储介质、以及一种集成电路。字幕显示方法包括:流分析步骤,分析流数据中包括的字幕/文字流数据,并输出将要显示的字幕/文字数据;段分析步骤,分析流数据中包括的段数据,并将该段数据转换为第一文件数据;文件数据转换步骤,将从流分析步骤输出的字幕/文字数据转换为格式与第一文件数据相同的第二文件数据,并将第二文件数据连同指定第二文件数据的显示区域的布局数据一起输出;以及显示数据生成步骤,基于段分析步骤中输出的第一文件数据、以及文件数据转换步骤中输出的第二文件数据和布局数据,生成与字幕/文字相关的显示数据。
发明效果
根据本发明,文件数据转换部分将经由流分析部分输入的表示字幕/文字的8单元代码字符转换为BML文件数据,并将BML文件数据与用于指定帧的布局数据一起输出到显示数据生成部分。基于文件数据转换部分所输出的BML文件数据以及段分析部分所输出的数据广播的内容,显示数据生成部分使用WWW浏览器所具有的HTML和BML的解释/显示功能来生成与字幕/文字相关的显示数据。因此,字幕显示设备可以使用WWW浏览器显示字幕/文字。
此外,通过利用WWW浏览器来显示字幕/文字,可以在与WWW浏览器中的画面区域的布置设定相同的UI上布置数据广播显示区域和字幕/文字广播显示区域。从而,字幕显示设备在屏幕显示方面可以实现与WWW浏览器相同的操作系统。
同样,通过使用字幕/文字中所包括的附加信息,例如字幕/文字显示时刻数据、字符大小数据、颜色数据、重复数据和接收器预置的声音再现数据,字幕显示设备可以显示具有高水平表现力的字幕/文字。
同样,显示选择部分从UI显示控制部分接收表示显示/不显示菜单等过程的标志数据,从而在显示菜单时命令显示数据合成部分将字幕/文字与视频数据合成,而在不显示菜单时不合成字幕/文字与视频数据。因此,当字幕/文字广播显示区域被菜单隐藏时,字幕显示设备可以在视频显示区域中显示字幕/文字。这样,在显示菜单或对话的同时,用户也可以浏览字幕/文字。
附图说明
图1是示出本发明第一实施例的字幕显示设备101的示意性结构的框图;
图2是示出文件数据转换部分105所输出的示意性布局数据的图;
图3是示出作为字幕/文字数据接收的示意性8单元代码字符的图;
图4是示出由8单元代码字符转换的示意性BML文件数据的图;
图5是示出包括函数playromsound()的示意性BML文件数据的图;
图6是示出由视频输出部分113实现的示意性显示布局的图;
图7是示出本发明第二实施例的字幕显示设备201的示意性结构的框图;
图8是示出本发明第三实施例的字幕显示设备301的示意性结构的框图;
图9是示出本发明第四实施例的字幕显示设备401的示意性结构的框图;
图10是示出本发明第五实施例的字幕显示设备501的示意性结构的框图;
图11是示出本发明第六实施例的字幕显示设备601的示意性结构的框图;
图12是示出本发明第七实施例的字幕显示设备701的示意性结构的框图;
图13是示出移动接收器中的数据广播和字幕/文字的示意性显示布局的图;以及
图14是用于说明传统显示方法的问题的图。
附图标记说明
101,201,301,401,501,601,701字幕显示设备
102用户操作输入部分
103,403流分析部分
104,404段分析部分
105,605,723文件数据转换部分
106,606显示数据生成部分
107显示控制部分
108,408视频数据分析部分
109呈现数据转换部分
110,610显示数据合成部分
111UI显示控制部分
112显示选择部分
113,213,313,613视频输出部分
114,414音频数据分析部分
115,215,315,615音频输出部分
416调谐器解调部分
417TS分析部分
516,722TS存储部分
724调制传输部分
具体实施方式
[第一实施例]
图1是示出本发明第一实施例的字幕显示设备101的示意性结构的框图。在图1中,字幕显示设备101包括用户操作输入部分102、字幕/文字流分析部分103(以下简称为流分析部分103)、段分析部分104、字幕/文字文件数据转换部分105(以下简称为文件数据转换部分105)、显示数据生成部分106、字幕/文字显示控制部分107(以下简称为显示控制部分107)、视频数据分析部分108、字幕/文字呈现数据转换部分109(以下简称为呈现数据转换部分109)、视频字幕/文字显示数据合成部分110(以下简称为显示数据合成部分110)、UI显示控制部分111、字幕/文字显示选择部分112(以下简称为显示选择部分112)、视频输出部分113、音频数据分析部分114和音频输出部分115。
字幕显示设备101经由TS接收部分接收MPEG2-TS(MPEG2系统传送流),其是MPEG2系统中的传送流类型的数据。
用户操作输入部分102由例如移动电话的键盘设备和检查该键盘设备状态的软件的组合来实现。用户操作输入部分102检测键盘设备何时被按下,并将用户输入信息作为按键事件输出。
流分析部分103分析作为其中存储字幕/文字数据的数据的PES(打包的基本流),其包含在作为字幕/文字流数据而接收的MPEG2-TS中。流分析部分103由例如软件实现。流分析部分103分析其中存储字幕/文字数据的PES,并输出作为字幕呈现时间信息的显示开始时间和作为字幕/文字数据的8单元字符代码数据(数据单元数据)。字幕呈现时间信息由例如36位的数值表示。例如,流分析部分103使用PES中的PTS(显示时间标记)来作为字幕呈现时间信息。例如,当PES中的时间控制模式为立即再现时,流分析部分103可以使用当前时间作为字幕呈现时间信息。
段分析部分104将以段格式形式的数据(其包含在作为段数据所接收的MPEG2-TS中)转换成表示数据广播的内容的BML文件数据。段分析部分104由例如软件实现。在数字广播中,BML文件数据采用段格式、由DSMCC(数字存储媒体命令和控制)方式传输。段分析部分104分析DDB(下载数据块)消息和DII(下载信息指示)消息以提取BML文件数据,其中该DDB和DII在段上根据DSMCC方式传输,所述BML文件数据是DDB和DII所表示的资源。
文件数据转换部分105从流分析部分103接收8单元代码字符作为字幕/文字数据。文件数据转换部分105转换接收到的8单元代码字符,并输出BML文件数据和布局数据,其中布局数据是包括FRAME元素的HTML文件。文件数据转换部分105由例如软件实现。图2是示出文件数据转换部分105所输出的示意性布局数据的图。在图2中,布局数据表示:在最初状态下,数据广播显示区域被分为两个部分(上部和下部),字幕/文字显示在上半部分,而数据广播显示在下半部分。具体地,第一FRAME元素,即SRC属性值“x-cc:default”指定了由文件数据转换部分105输出的BML文件数据。第二FRAME元素,即SRC属性值“x-dc:default”指定了由段分析部分104输出的BML文件数据。
文件数据转换部分105以预定的方法执行由8单元代码字符到BML文件数据的转换。图3是示出作为字幕/文字数据接收的示意性8单元代码字符的图。图4是示出由8单元代码字符转换的示意性BML文件数据的图。在图3中,“[”和“]”内包含的字符串表示控制字符,而控制字符类型后紧跟着的数字表示控制字符的参数。由于8单元代码字符(参见图3)包括表示预置的声音再现数据或字符大小数据的控制字符,因此文件数据转换部分105包括函数playromsound(),并输出已经被指定类型(字符大小)的BML文件数据(参见图4)。将8单元代码字符转换为BML文件数据的具体方法将在下文详细介绍。
显示数据生成部分106从段分析部分104接收表示数据广播内容的BML文件数据,并从文件数据转换部分105接收表示字幕/文字的布局数据和BML文件数据。显示数据生成部分106例如是能够解释和显示HTML或BML的WWW浏览器软件。显示数据生成部分106根据接收到的BML文件数据或布局数据中包含的HTML或BML所指定的标志或函数声明来生成与字幕/文字相关的显示数据。
在由接收到的布局数据中的FRAME元素所指定的SRC属性中,存储指示BML文件数据的URL。显示数据生成部分106基于布局数据中包含的FRAME SET元素的行属性或列属性来决定多个BML文件数据的布局方法。当接收到图2中的布局数据时,显示数据生成部分106将显示区域划分为两个部分(上部和下部),并将由URI“x-cc:default”所指示的BML文件数据显示在上半部分,而将由URI“x-dc:default”所指示的BML文件数据显示在下半部分。显示数据生成部分106将“x-cc:default”识别为用于表示文件数据转换部分105所输出的BML文件数据的URI,而将“x-dc:default”识别为用于表示段分析部分104所输出的BML文件数据的URI。
显示数据生成部分106使用HTML和BML的分析/显示功能以基于FRAME元素所指定的BML文件数据和FRAME SET元素所指定的布局来进行转换,从而转换成位图数据来作为显示数据。当BML文件数据包括函数playromsound()并且该函数在解释BML文件数据的过程中执行时,显示数据生成部分106输出作为音频呈现数据的预置声音数据,该预置声音数据由函数playromsound()的自变量指定并且预先存储在ROM和RAM中。在这种情况下,可以将表示音频时间信息的时间标记认为是当前时间。预置声音数据以例如PCM(脉冲编码调制)的格式表示。
图5是示出包括函数playromsound()的示意性BML文件数据的图。显示数据生成部分106对外部软件提供界面以接收更新显示数据的请求,以作为更新请求函数。当从外部软件等调用显示数据的更新请求函数时,显示数据生成部分106再次接收并解释BML文件数据,并输出显示数据和音频呈现数据。在显示数据生成部分106中,当根据布局数据显示多个文件数据时,在更新请求函数中准备用于指定文件数据的参数,以便指定一个具体的文件数据并更新显示数据。当从用户操作输入部分102接收到按键事件时,显示数据生成部分106按照要求对显示数据进行更新,以响应到WWW浏览器的输入,例如改变或滚动画面区域(frame region)、按下链接等。
显示控制部分107从流分析部分103接收字幕呈现时间信息。当已经到了字幕呈现时间信息所指示的时间时,显示控制部分107调用WWW浏览器软件(显示数据生成部分106)的更新请求函数。从而,显示数据生成部分106可以在与电视节目同步的时刻更新字幕显示。
视频数据分析部分108分析接收到的作为视频流数据的MPEG2-TS中所包含的PES,视频流数据例如是存储视频的数据。视频数据分析部分108由诸如解码器等软件来实现。存储在PES中的视频流数据例如是MPEG4AVC中的视频ES(基本流)格式的数据。视频数据分析部分108分析视频流数据并以YUV格式输出视频数据。在这种情况下,可以使用PES中的PTS作为指示视频时间信息的时间标记。
呈现数据转换部分109从流分析部分103接收8单元代码字符和字幕呈现时间信息作为字幕/文字数据。呈现数据转换部分109根据字幕呈现时间信息所指示的显示时刻将字幕/文字数据转换为位图格式的图像,并且输出字幕/文字图像数据。呈现数据转换部分109由例如软件来实现。具体地,呈现数据转换部分109使用ROM或RAM中存储的字符字体来分析接收到的作为字幕/文字数据的8单元代码字符,并且生成表示字幕/文字的位图格式的图像数据。在将文字/字幕转换为位图图像时,呈现数据转换部分109根据8单元代码字符中所包含的控制数据来考虑字符大小、字符颜色、背景颜色、以及字符的重复次数。呈现数据转换部分109输出其中的字符字体表示为字幕/文字的位图图像(作为字幕/字体图像数据),并且输出在将指示文字的区域与其他区域区分时执行阿尔法合成的位图屏蔽图像。
当用于指示接收器的预置声音再现数据的控制字符包含在8单元代码字符所包括的控制数据中时,呈现数据转换部分109基于控制字符所指定的参数输出PCM格式的预置声音数据,作为音频呈现数据,所述预置声音数据预先存储在ROM或RAM中。在这种情况下,将用于指示音频时间信息的时间标记假定为接收到的作为字幕呈现时间信息的时间标记的时间。
显示数据合成部分110从视频数据分析部分108接收YUV格式的视频数据,并从呈现数据转换部分109接收位图格式的字幕/文字图像数据。当被显示选择部分112指定时,显示数据合成部分110在视频数据上叠加并合成字幕/文字图像数据。显示数据合成部分110由例如视频处理软件来实现。显示数据合成部分110对外部软件提供界面以指定是否执行叠加,作为叠加指定函数。叠加指定函数具有指示是否执行叠加的真值参数。当指定外部软件等执行叠加时,显示数据合成部分110分析YUV格式的每一帧视频数据,将接收到的位图图像与基于位图屏蔽图像的视频数据进行阿尔法合成,以及将阿尔法合成的结果转换为YUV格式的视频数据帧,并将结果输出。当叠加指定函数指示不进行叠加时,显示数据合成部分110将接收到的视频数据按原样输出。显示数据合成部分110还将接收到的视频时间信息的时间标记按原样输出以作为视频时间信息。
UI显示控制部分111从用户操作输入部分102接收按键事件。基于接收到的按键事件,UI显示控制部分111显示或擦除菜单或对话。UI显示控制部分111由例如软件等实现。当键盘上的菜单按键被按下时,UI显示控制部分111生成指示UI菜单的位图图像和位图屏蔽图像(下文,将生成的图像称为菜单图像)。当UI显示控制部分111执行菜单显示/不显示过程时,UI显示控制部分111将输出标志数据作为UI显示数据。当执行菜单显示过程时,将标志数据设置为“真”,而当执行菜单不显示过程时,将标志数据设置为“假”。
显示选择部分112从UI显示控制部分111接收标志数据。基于接收的标志数据的真值,显示选择部分112通过调用显示数据合成部分110的叠加指定函数来指定是否将字幕/文字图像数据叠加在视频数据上。显示选择部分112由例如软件等实现。当标志数据被设为真时,显示选择部分112调用显示数据合成部分110的参数被设为真的叠加指定函数(即,指定叠加)。当标志数据被设为假时,显示选择部分112调用显示数据合成部分110的参数被设为假的叠加指定函数(即,不指定叠加)。
当显示菜单时,显示选择部分112将字幕/文字叠加并合成在视频显示区域上。另一方面,当不显示菜单时,显示选择部分112不将字幕/文字叠加并合成在视频显示区域上。因此,显示选择部分112可以在视频显示区域显示字幕/文字,即使字幕/文字广播显示区域被菜单显示所隐藏。
视频输出部分113从显示数据合成部分110接收视频数据,并从显示数据生成部分106接收与字幕/文字相关的显示数据。当用户执行预定的按键操作时,视频输出部分113经由显示选择部分112接收菜单图像。视频输出部分113在显示屏幕上显示已经接收到的视频数据、字幕/文字、菜单屏幕等。视频输出部分113由例如显示屏幕和用于控制显示屏幕上的布局显示的软件的组合来实现。
图6是示出由视频输出部分113实现的示意性显示布局的图。图6显示的是将具有QVGA的分辨率(长:320像素,宽:240像素)的液晶显示屏作为显示屏幕的情形。视频输出部分113在液晶显示屏的上部的180像素(长)和240像素(宽)的矩形区域(以下称为视频显示区域)内显示视频数据,而在显示屏的下部的140像素(长)和240像素(宽)的矩形区域(以下称为字幕/文字广播显示区域)内显示数据(参见图6(a))。
当接收到菜单图像时,视频输出部分113已经从显示数据合成部分110接收到与字幕/文字合成的视频数据。因此,视频输出部分113在视频显示区域上显示合成了字幕/文字的视频数据。视频输出部分113在显示数据的前面(即,字幕/文字广播显示区域)显示接收到的菜单图像(参见图6(b))。
音频数据分析部分114分析接收到的作为音频流数据的MPEG2-TS中所包含的PES,并输出音频呈现数据给音频输出部分115,其中音频流数据例如是其中存储了音频的数据。音频数据分析部分114由诸如解码器等软件实现。存储在PES中的音频流数据例如是ACC(高级音频编码)ES格式的数据。音频数据分析部分114分析ACCES格式的音频流数据,并输出PCM格式的音频呈现数据。在这种情况下,PES中的PTS可以被用作表示音频时间信息的时间标记。
音频输出部分115从音频数据分析部分114、呈现数据转换部分109和显示数据生成部分106接收音频呈现数据。音频输出部分115将接收到的作为音频呈现数据的音频混合并将混合后的结果呈现给用户。音频输出部分115例如由硬件(例如,扩音器等)和软件的组合实现。音频输出部分115根据各自相应的时间标记中所述的时间输出作为音频呈现数据所接收的音频。
这里,将介绍一种将8单元代码字符转换为BML文件数据的特定示例性方法,该方法由文件数据转换部分105执行。文件数据转换部分105从头开始依次分析8单元代码字符所表示的字节串,并生成体数据和头部数据。体数据的初始值为字符串“<body>”。头部数据的初始值为“<bml><head><title>caption</title><script<![CDATA[function playsound(){}”。文件数据转换部分105具有当前被用作内部状态的字符设定表类型和其中保存了当前字符字体的显示指定的字符字体信息。字符字体信息具有属性,即,大小、前景颜色和背景颜色。大小属性的初始值为“normal”,前景颜色属性的初始值为“#000000”,背景颜色的初始值为“#FFFFFF”。
字符大小数据是字幕/文字数据中的附加信息,其由8单元代码字符中的控制字符,例如SSZ、MMZ、NSZ等表示。颜色数据由控制字符,例如BKF、RDF、或CSI等来表示。假设从头开始依次分析8单元代码字符所表示的字节串,当字节串表示普通字符时,基于当前的字符设定表,将字节串转换为shift JIS代码,并将结果添加到体数据上。当表示字符设定表改变的控制字符(例如,封锁移位等)存在时,改变当前被用作文件数据转换部分105的内部状态的字符设定表,并且不在体数据上添加任何东西。当表示字符大小数据的控制字符出现时,将字符串“</span>”添加到体数据上(注意,当一直没有将字符串“<span”添加到体数据上时,不添加“</span>”)。
当表示字符大小数据的控制字符为SMZ时,将“x-small”设定为用于字符字体信息中的大小属性的字符串。当表示字符大小数据的控制字符为MMZ时,将“small”设定为用于字符字体信息中的大小属性的字符串。当表示字符大小数据的控制字符为NMZ时,将“normal”设定为用于字符字体信息中的大小属性的字符串。接着,将“span style=“font-size:”添加到体数据上。接着,将字符字体信息的大小属性所存储的字符串添加到体数据上。接着,将“;color:”添加到体数据上。接着,将字符字体信息的前景颜色属性所存储的字符串添加到体数据上。接着,将“background-color:”添加到体数据上。接着,将字符字体信息的背景颜色属性所存储的字符串添加到体数据上。接着,将“”>”添加到体数据上。
当表示颜色数据的控制字符出现时,根据控制字符所指定的前景颜色和背景颜色,将“#RRGGBB”格式(RGB指定)的字符串设定为字符字体信息的前景颜色属性和背景颜色属性。在控制字符仅指定前景颜色和背景颜色中的一个的情况下,则不设定另一个的属性值。接着,将“<span style=“font-size:”添加到体数据上。接着,将字符字体信息的大小属性所存储的字符串添加到体数据上。接着,将“;color:”添加到体数据上。接着,将字符字体信息的前景颜色属性所存储的字符串添加到体数据上。接着,将“background-color:”添加到体数据上。接着,将字符字体信息的背景颜色属性所存储的字符串添加到体数据上。接着,添加“”>”。当表示重复数据的控制字符(例如,RPC)出现时,以控制字符RPC(参数)所指定的次数添加控制字符之后紧接着出现的字符。当表示接收器的预置声音再现数据的控制字符(例如,PRA)出现时,将“playromsound(”romsound://”添加到头部数据上。接着,将用于表示控制字符PRA的参数所指定的预置声音指示符的十进制格式的数字作为字符串添加到头部数据上。在8单元代码字符的字符串分析完成之后,将“</body></bml>”添加到体数据上,并将“}]]></head>”添加到头部数据上。将体数据添加到头部体,这导致产生用于表示字幕/文字的BML文件数据。
如上所述,根据本发明第一实施例的字幕显示设备101,文件数据转换部分105将经由流分析部分103接收到的用于表示字幕/文字的8单元代码字符转换为BML文件数据,并将该BML文件数据与用于指定帧的布局数据一起输出给显示数据生成部分106。基于从文件数据转换部分105输出的BML文件数据和从段分析部分104输出的数据广播的内容,显示数据生成部分106使用WWW浏览器所具有的HTML和BML的解释/显示功能来生成与字幕/文字相关的显示数据。因此,字幕显示设备101可以使用WWW浏览器来显示字幕/文字。
此外,通过利用WWW浏览器来显示字幕/文字,可以在与WWW浏览器中的画面区域的布置设定相同的UI上布置数据广播显示区域和字幕/文字广播显示区域。从而,字幕显示设备101在屏幕显示方面可以实现与WWW浏览器相同的操作系统。
此外,通过使用字幕/文字中所包括的附加信息,例如字幕/文字显示时刻数据、字符大小数据、颜色数据、重复数据和接收器预置的声音再现数据,字幕显示设备101可以显示具有高水平表现力的字幕/文字。
此外,显示选择部分112从UI显示控制部分111接收表示显示/不显示菜单等过程的标志数据,从而在显示菜单时命令显示数据合成部分110将字幕/文字与视频数据合成,而在不显示菜单时不合成字幕/文字与视频数据。因此,当字幕/文字广播显示区域被菜单隐藏时,字幕显示设备101可以在视频显示区域中显示字幕/文字。这样,根据字幕显示设备101,在显示菜单或对话的同时,用户也可以浏览字幕/文字。
[第二实施例]
图7是示出本发明第二实施例的字幕显示设备201的示意性结构的框图。在图7中,与第一实施例中相同的部分由相同的附图标记表示且不再介绍。在图7中,字幕显示设备201包括用户操作输入部分102、流分析部分103、段分析部分104、文件数据转换部分105、显示数据生成部分106、显示控制部分107、视频数据分析部分108、视频输出部分213、音频数据分析部分114以及音频输出部分215。
第二实施例的字幕显示设备201与第一实施例的字幕显示设备101的不同之处在于:其去掉了用于将菜单或对话与视频数据合成的部分(即,呈现数据转换部分109、显示数据合成部分110、UI显示控制部分111和显示选择部分112)。
在图7中,视频输出部分213从视频数据分析部分108接收视频数据,并从显示数据生成部分106接收与字幕/文字相关的显示数据。视频输出部分213在显示屏幕上显示接收到的视频数据和字幕/文字。音频输出部分215从音频数据分析部分114和显示数据生成部分106接收音频呈现数据。音频输出部分215将接收的作为音频呈现数据的音频进行混合,并将结果呈现给用户。
如上文所述,本发明第二实施例的字幕显示设备201与第一实施例一样使用WWW浏览器来显示字幕/文字。因此,可以在与WWW浏览器中的画面的布置设定相同的UI上布置数据广播显示区域和字幕/文字广播显示区域。从而,字幕显示设备201在屏幕显示方面可以实现与WWW浏览器相同的操作系统。
此外,通过使用字幕/文字中所包括的附加信息,例如字幕/文字显示时刻数据、字符大小数据、颜色数据、重复数据和接收器预置的声音再现数据,字幕显示设备201可以显示具有高水平表现力的字幕/文字。
[第三实施例]
图8是示出本发明第三实施例的字幕显示设备301的示意性结构的框图。在图8中,与第一和第二实施例中相同的部分由相同的附图标记表示且不再介绍。在图8中,字幕显示设备301包括用户操作输入部分102、流分析部分103、视频数据分析部分108、呈现数据转换部分109、显示数据合成部分110、UI显示控制部分111、显示选择部分112、视频输出部分313、音频数据分析部分114和音频输出部分315。
第三实施例的字幕显示设备301与第一实施例的字幕显示设备101的不同之处在于:其去掉了段分析部分104、文件数据转换部分105、显示数据生成部分106和显示控制部分107。
在图8中,视频输出部分313从显示数据合成部分110接收视频数据,并从呈现数据转换部分109接收字幕/文字图像数据。此外,当用户执行预定的按键操作时,视频输出部分313经由显示选择部分112接收菜单图像。
视频输出部分313在视频显示区域上显示视频数据,在字幕/文字广播显示区域上显示字幕/文字图像数据(参见图6(a))。此外,当接收到菜单图像时,视频输出部分313已经从显示数据合成部分110接收到合成了字幕/文字的视频数据。因此,视频输出部分313在视频显示区域上显示合成了字幕/文字的视频数据。视频输出部分313在字幕/文字广播显示区域上显示接收到的菜单图像(参见图6(b))。
音频输出部分315从音频数据分析部分114和呈现数据转换部分109接收音频呈现数据。音频输出部分215将接收到的作为音频呈现数据的音频混合并将结果呈现给用户。
如上文所述,本发明第三实施例的字幕显示设备301和第一实施例中一样,即使在字幕/文字广播显示区域被菜单隐藏时,也可以在视频显示区域上显示字幕/文字。这样,根据字幕显示设备301,在显示菜单或对话的同时,用户也可以浏览字幕/文字。
[第四实施例]
图9是示出本发明第四实施例的字幕显示设备401的示意性结构的框图。在图9中,与第一到第三实施例中相同的部件由相同的附图标记表示且不再介绍。在图9中,字幕显示设备401包括用户操作输入部分102、流分析部分403、段分析部分404、文件数据转换部分105、显示数据生成部分106、显示控制部分107、视频数据分析部分408、呈现数据转换部分109、显示数据合成部分110、UI显示控制部分111、显示选择部分112、视频输出部分113、音频数据分析部分414、音频输出部分115、调谐器解调部分416和TS分析部分417。
调谐器解调部分416由例如调谐器硬件和解调软件的组合实现,所述调谐器硬件和解调软件用于接收OFDM(正交频分复用技术)方式的载波并将其解调到其中存储数字电视广播内容的传送流数据上。传送流数据例如是MPEG2系统的传送流格式的数据。调谐器解调部分416输出解调的传送流数据。
TS分析部分417由例如软件实现,其接收并分析传送流数据,并输出音频流数据、视频流数据和PES格式的字幕/文字流数据以及段格式的段数据,他们复用在传送流数据中。
除了字幕/文字流数据由TS分析部分417输入之外,流分析部分403与第一实施例中的流分析部分103相同。除了段数据由TS分析部分417输入之外,段分析部分404与第一实施例中的段分析部分104相同。除了视频流数据由TS分析部分417输入之外,视频数据分析部分408与第一实施例中的视频数据分析部分108相同。除了音频流数据由TS分析部分417输入之外,音频数据分析部分414与第一实施例中的音频数据分析部分117相同。
如上文所述,根据本发明第四实施例的字幕显示设备401,可以获得与第一实施例相似的效果。此外,字幕显示设备401包括调谐器解调部分416和TS分析部分417,因此可以直接从发送器接收电视广播。
[第五实施例]
图10是示出本发明第五实施例的字幕显示设备501的示意性结构的框图。在图10中,与第一到第四实施例中相同的部分由相同的附图标记表示且不再介绍。在图10中,除了提供TS存储部分516来代替调谐器解调部分416以外,第五实施例的字幕显示设备501与第四实施例中的字幕显示设备401的结构相同。
TS存储部分516由例如存储设备硬件和控制软件的组合实现。存储设备硬件是介质或可读设备,例如固定的硬盘、USB连接存储器、RAM、ROM、DVD(数字多功能光盘)、BD(蓝光光盘)、HD DVD(高清DVD)、SD(安全数码)存储卡等。TS存储部分516通过控制控制软件来输出存储设备硬件中所存储的传送流数据。
如上文所述,根据本发明第五实施例的字幕显示设备501,可以获得与第一实施例相似的效果。此外,字幕显示设备501包括TS存储部分516和TS分析部分417,因此可以在字幕上显示存储在设备中的电视广播内容。
[第六实施例]
图11是示出本发明第六实施例的字幕显示设备601的示意性结构的框图。在图11中,与第一到第五实施例中相同的部分由相同的附图标记表示且不再介绍。在图11中,第六实施例的字幕显示设备601包括用户操作输入部分102、流分析部分103、段分析部分104、文件数据转换部分605、显示数据生成部分606、显示控制部分107、视频数据分析部分108、显示数据合成部分610、UI显示控制部分111、显示选择部分112、视频输出部分613、音频数据分析部分114和音频输出部分615。
显示数据生成部分606输出上述与字幕/文字相关的显示数据,另外,还输出与其中显示URI“x-cc:default”所表示的文件数据的区域相关的位图屏蔽图像。此外,显示数据生成部分606可以输出由URI“x-cc:default”表示的文件数据的高度作为字幕显示长度。除了上述内容之外,显示数据生成部分606与第一实施例中的显示数据生成部分106相同。
当接收到BML文件作为字幕/文字数据,而不是8单元代码字符时,文件数据转换部分605不执行第一实施例中所述的转换,按原样输出接收到的字幕/文字,作为表示显示数据的BML文件数据。除了以上描述的内容之外,文件数据转换部分605与第一实施例中的文件数据转换部分105相同。
显示数据合成部分610从视频数据分析部分108接收视频数据,从显示数据生成部分606接收显示数据、屏蔽数据和与字幕/文字相关的字幕显示长度。显示数据合成部分610例如是输出具有QVGA(长:320像素,宽240像素)的分辨率的显示数据的软件。
显示数据合成部分610在显示屏的上部的矩形区域(长:180像素,宽:240像素)内布置显示数据,而在显示屏的下部的矩形区域(长:140像素,宽:240像素)内布置与字幕/文字相关的显示数据。此外,当叠加指定函数从外部软件命令显示数据合成部分610将视频数据和与字幕/文字相关的显示数据叠加时,显示数据合成部分610在显示屏的上部的矩形区域(长:180像素,宽:240像素)内布置并叠加视频数据和与字幕/文字相关的显示数据。具体地,给予屏蔽数据和字幕显示长度,显示数据合成部分610将与字幕/文字相关的显示数据与视频数据进行阿尔法合成,并输出合成后的数据作为合成的视频显示数据。除了以上描述的内容之外,显示数据合成部分610与第一实施例中的显示数据合成部分110相同。
视频输出部分613从显示数据合成部分610接收作为视频时间信息的时间标记、视频数据或合成的视频显示数据、以及与字幕/文字相关的显示数据。视频输出部分613在显示屏幕上显示接收到的视频数据或合成的视频显示数据、以及与字幕/文字相关的显示数据。除了以上描述的内容之外,视频输出部分613与第一实施例中的视频输出部分113相同。
注意,当用户通过用户操作输入部分102来命令视频输出部分613放大或显示视频数据时,视频输出部分613可以在显示屏幕的整个区域上显示上述合成的视频显示数据。因此,用户可以使用显示屏幕的整个区域来浏览叠加了字幕/文字数据的视频数据。
音频输出部分615从音频数据分析部分114接收PCM格式的音频数据作为音频呈现数据,并从显示数据生成部分606接收时间标记作为音频时间信息。除了以上描述的内容之外,音频输出部分615与第一实施例中的音频输出部分615相同。
如上文所述,根据本发明第六实施例的字幕显示设备601,可以实现与第一实施例相似的效果。
[第七实施例]
图12是示出本发明第七实施例的字幕显示设备701的示意性结构的框图。在图12中,与第一到第六实施例中相同的部分由相同的附图标记表示且不再介绍。在图12中,字幕显示设备701包括用户操作输入部分102、流分析部分403、段分析部分404、文件数据转换部分605、显示数据生成部分606、显示控制部分107、视频数据分析部分408、显示数据合成部分610、UI显示控制部分111、显示选择部分112、视频输出部分613、音频数据分析部分414和音频输出部分615、调谐器解调部分416以及TS分析部分417。字幕发送设备包括传输TS存储部分722、传输字幕/文字文件数据转换部分723(以下称为传输文件数据转换部分723)、以及调制传输部分724。传输TS存储部分722与第五实施例中的TS存储部分516相同。
传输文件数据转换部分723接收MPEG2系统中的传送流格式的数据作为传送流数据。传输文件数据转换部分723将由传送流数据包含的数据单元数据中的8单元代码字符所表示的字幕/文字数据转换为BML文件数据,并将BML文件数据作为传送流输出。传输文件数据转换部分723由例如软件实现。将8单元代码字符所表示的字幕/文字数据转换为BML文件数据的方法与第一实施例中的方法相同。
调制传输部分724接收MPEG2系统中的传送流格式的数据。调制传输部分724由软件和硬件(包括发射器)的组合来实现,以将接收到的数据调制成OFDM方式的载波且发送该载波。
如上文所述,根据本发明第七实施例的字幕显示设备701,可以取得与第一实施例相似的效果。此外,根据字幕显示设备701,发送器可以在传输之前将传送流中的字幕/文字数据转换为BML文件。
第一至第七实施例中的每一个字幕显示设备所执行的过程都通过CPU解释和执行预定的程序数据来实现,所述预定的程序数据能够执行上述过程,并且该程序存储在存储装置(ROM、RAM、硬盘等)中。在此情况下,可以通过记录介质将程序数据传入存储装置中,或者该程序数据从记录介质直接执行。记录介质是指半导体存储器,如ROM、RAM、闪存等;磁盘存储器,如软磁盘、硬盘等;光盘,如CD-ROM、DVD、BD等;存储卡等等。记录介质的概念包括通信介质,例如电话线、传输线等等。
第一至第七实施例中的每一个字幕显示设备的部分都可以由集成电路(LSI)来实现。所述部分可以安装在各个独立的芯片上,或整个部分中的一部分可以安装在芯片上。取决于封装密度,将LSI称为IC、系统LSI、超级LSI或超大规模LSI。
集成电路并不局限于LSI。集成电路也可以由专用电路或通用处理器来实现。而且,还可以使用现场可编程门阵列(FPGA)或可重新配置处理器,在LSI生产后,也可对现场可编程门阵列进行编程,而在可重新配置处理器中,在LSI生产后,也可以重新配置LSI中的电路单元的连接或设置。此外,如果取代LSI的集成电路技术通过半导体技术的进步而发展,或者从中出现了其他技术,那么可以使用上述技术来封装功能块。生物工程学也是适用的。
工业适用性
本发明的字幕显示设备具有提高用户的可操作性并在浏览字幕方面提高字幕的可浏览性的效果,并且对于电视接收器、具有字幕的内容再现装置等十分有益。

Claims (10)

1.一种字幕显示设备,用于获得至少包括字幕/文字流数据和段数据的流数据,作为内容数据,并将所获得的内容数据显示在屏幕上,该设备包括:
流分析部分,其用于分析所述流数据中所包括的字幕/文字流数据,并输出将要显示的字幕/文字数据;
段分析部分,其用于分析所述流数据中所包括的段数据,并将所述段数据转换成第一文件数据;
文件数据转换部分,其用于将从所述流分析部分输出的所述字幕/文字数据转换为格式与所述第一文件数据相同的第二文件数据,并将所述第二文件数据与指定所述第二文件数据的显示区域的布局数据一起输出;以及
显示数据生成部分,其用于基于从所述段分析部分输出的所述第一文件数据和从所述文件数据转换部分输出的所述第二文件数据和所述布局数据来生成与字幕/文字相关的显示数据。
2.根据权利要求1所述的字幕显示设备,其中所述流分析部分还输出用于指示所述字幕/文字数据的呈现时间的字幕呈现时间信息,
所述字幕显示设备还包括显示控制部分,其基于所述字幕呈现时间信息所指示的时刻来请求所述显示数据生成部分对所述显示数据进行更新,以及
所述显示数据生成部分在从所述显示控制部分接收到所述更新请求时,更新与所述字幕/文字相关的显示数据。
3.根据权利要求1所述的字幕显示设备,还包括:
呈现数据转换部分,其用于将从所述流分析部分输出的所述字幕/文字数据转换为图像数据,并呈现作为字幕/文字图像数据的所述图像数据;
视频数据分析部分,其用于分析所述流数据中包括的视频流数据,并输出视频数据;
显示选择部分,其用于决定是否将所述字幕/文字图像数据叠加并显示在所述视频数据上;
显示数据合成部分,其用于根据所述显示选择部分的决定,输出所述视频数据、或者由将所述字幕/文字图像数据叠加在所述视频数据上而得到的合成视频显示数据;以及
视频输出部分,其用于在所述屏幕上显示所述视频数据或者由所述显示数据合成部分所输出的合成视频显示数据、以及由所述显示数据生成部分所生成的与所述字幕/文字相关的显示数据。
4.根据权利要求3所述的字幕显示设备,其中,当所述显示选择部分决定不将所述字幕/文字图像数据叠加并显示在所述视频数据上时,所述显示数据合成部分输出所述视频数据,以及
当所述显示选择部分决定将所述字幕/文字图像数据叠加并显示在所述视频数据上时,所述显示数据合成部分将所述字幕/文字图像数据叠加在视频数据上,并且输出合成的数据作为所述合成视频显示数据。
5.根据权利要求1所述的字幕显示设备,其中所述显示数据生成部分除了生成并输出与所述字幕/文字相关的所述显示数据之外,还生成并输出表示用于显示所述第二文件数据的区域的位图图像作为屏蔽数据,
所述字幕显示设备还包括:
视频数据分析部分,其用于分析所述流数据中包括的视频流数据,并输出视频数据;
显示选择部分,其用于决定是否将与所述字幕/文字相关的所述显示数据叠加并显示在所述视频数据上;
显示数据合成部分,其用于根据所述显示选择部分的决定,输出所述视频数据、或者由将所述位图图像叠加在所述视频数据上而得到的合成视频显示数据、以及与所述字幕/文字相关的显示数据;以及
视频输出部分,其用于在所述屏幕上显示所述视频数据或者由所述显示数据合成部分输出的合成视频显示数据、以及与所述显示数据生成部分所生成的字幕/文字相关的显示数据;
当所述显示选择部分决定不将与所述字幕/文字相关的显示数据叠加并显示在视频数据上时,所述显示数据合成部分输出所述视频数据和与所述字幕/文字相关的显示数据,以及
当所述显示选择部分决定将与所述字幕/文字相关的显示数据叠加并显示在视频数据上时,所述显示数据合成部分输出所述合成视频显示数据和与所述字幕/文字相关的显示数据。
6.根据权利要求1所述的字幕显示设备,还包括:
数据接收部分,其用于接收包括所述字幕/文字数据中的所述文件数据的内容数据;
其中,所述文件数据转换部分从所接收的字幕/文字数据中提取所述文件数据,并将所述文件数据输出给所述显示数据生成部分。
7.一种字幕显示的方法,用于获得至少包括字幕/文字流数据和段数据的流数据,作为内容数据,并将所获得的内容数据显示在屏幕上,该方法包括:
流分析步骤,其分析所述流数据中包括的所述字幕/文字流数据,并输出将要显示的字幕/文字数据;
段分析步骤,其分析所述流数据中包括的段数据,并将所述段数据转换成第一文件数据;
文件数据转换步骤,其将所述流分析步骤中输出的所述字幕/文字数据转换为格式与所述第一文件数据相同的第二文件数据,并将所述第二文件数据与指定所述第二文件数据的显示区域的布局数据一起输出;以及
显示数据生成步骤,其基于所述段分析步骤中输出的所述第一文件数据和在所述文件数据转换步骤中输出的所述第二文件数据和所述布局数据来生成与字幕/文字相关的显示数据。
8.一种由字幕显示设备执行的程序,用于获得至少包括字幕/文字流数据和段数据的流数据,作为内容数据,并将所获得的内容数据显示在屏幕上,该程序包括:
流分析步骤,其分析所述流数据中包括的所述字幕/文字流数据,并输出将要显示的字幕/文字数据;
段分析步骤,其分析所述流数据中包括的段数据,并将所述段数据转换成第一文件数据;
文件数据转换步骤,其将所述流分析步骤中输出的所述字幕/文字数据转换为格式与所述第一文件数据相同的第二文件数据,并将所述第二文件数据与指定所述第二文件数据的显示区域的布局数据一起输出;以及
显示数据生成步骤,其基于所述段分析步骤中输出的所述第一文件数据和在所述文件数据转换步骤中输出的所述第二文件数据和所述布局数据来生成与字幕/文字相关的显示数据。
9.一种用于存储字幕显示设备所执行的程序的记录介质,该字幕显示设备用于获得至少包括字幕/文字流数据和段数据的流数据,作为内容数据,并将所获得的内容数据显示在屏幕上,该程序包括:
流分析步骤,其分析所述流数据中包括的所述字幕/文字流数据,并输出将要显示的字幕/文字数据;
段分析步骤,其分析所述流数据中包括的段数据,并将所述段数据转换成第一文件数据;
文件数据转换步骤,其将所述流分析步骤中输出的所述字幕/文字数据转换为格式与所述第一文件数据相同的第二文件数据,并将所述第二文件数据与指定所述第二文件数据的显示区域的布局数据一起输出;以及
显示数据生成步骤,其基于所述段分析步骤中输出的所述第一文件数据和在所述文件数据转换步骤中输出的所述第二文件数据和所述布局数据来生成与字幕/文字相关的显示数据。
10.一种集成电路,用于获得至少包括字幕/文字流数据和段数据的流数据,作为内容数据,并将所获得的内容数据显示在屏幕上,该电路包括:
流分析部分,其用于分析所述流数据中所包括的字幕/文字流数据,并输出将要显示的字幕/文字数据;
段分析部分,其用于分析所述流数据中所包括的段数据,并将所述段数据转换成第一文件数据;
文件数据转换部分,其用于将从所述流分析部分输出的所述字幕/文字数据转换为格式与所述第一文件数据相同的第二文件数据,并将所述第二文件数据与指定所述第二文件数据的显示区域的布局数据一起输出;以及
显示数据生成部分,其用于基于从所述段分析部分输出的所述第一文件数据和从所述文件数据转换部分输出的所述第二文件数据和所述布局数据来生成与字幕/文字相关的显示数据。
CN2006800063752A 2005-02-28 2006-02-22 字幕显示设备 Expired - Fee Related CN101129070B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005054671 2005-02-28
JP054671/2005 2005-02-28
PCT/JP2006/303132 WO2006092993A1 (ja) 2005-02-28 2006-02-22 字幕表示装置

Publications (2)

Publication Number Publication Date
CN101129070A true CN101129070A (zh) 2008-02-20
CN101129070B CN101129070B (zh) 2010-09-01

Family

ID=36941027

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006800063752A Expired - Fee Related CN101129070B (zh) 2005-02-28 2006-02-22 字幕显示设备

Country Status (5)

Country Link
US (1) US20090207305A1 (zh)
EP (1) EP1855479A4 (zh)
JP (1) JP4792458B2 (zh)
CN (1) CN101129070B (zh)
WO (1) WO2006092993A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104978161A (zh) * 2015-07-30 2015-10-14 张阳 Mv全屏显示方法及系统
CN104994312A (zh) * 2015-07-15 2015-10-21 北京金山安全软件有限公司 一种视频生成方法及装置

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008099053A (ja) * 2006-10-13 2008-04-24 Sharp Corp 携帯情報端末装置
US7966560B2 (en) * 2006-10-24 2011-06-21 International Business Machines Corporation Laying out web components using mounting and pooling functions
JP5043405B2 (ja) * 2006-11-21 2012-10-10 シャープ株式会社 コンテンツ表示装置、およびコンテンツ表示装置の制御方法
KR20080057847A (ko) * 2006-12-21 2008-06-25 삼성전자주식회사 방송수신장치 및 이의 오픈 캡션 정보 저장 방법
US20090129749A1 (en) * 2007-11-06 2009-05-21 Masayuki Oyamatsu Video recorder and video reproduction method
JP5649769B2 (ja) * 2007-12-27 2015-01-07 京セラ株式会社 放送受信装置
US8621505B2 (en) * 2008-03-31 2013-12-31 At&T Intellectual Property I, L.P. Method and system for closed caption processing
KR101479079B1 (ko) * 2008-09-10 2015-01-08 삼성전자주식회사 디지털 캡션에 포함된 용어의 설명을 표시해주는 방송수신장치 및 이에 적용되는 디지털 캡션 처리방법
JP4482051B1 (ja) * 2008-12-23 2010-06-16 株式会社東芝 装置制御システム
TW201104563A (en) * 2009-07-27 2011-02-01 Ipeer Multimedia Internat Ltd Multimedia subtitle display method and system
US8730301B2 (en) * 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
US9565466B2 (en) * 2010-03-26 2017-02-07 Mediatek Inc. Video processing method and video processing system
CN102566952B (zh) * 2010-12-20 2014-11-26 福建星网视易信息系统有限公司 应用于嵌入式数字娱乐点播系统的显示系统和方法
KR101830656B1 (ko) * 2011-12-02 2018-02-21 엘지전자 주식회사 이동 단말기 및 이의 제어방법
CN102883213B (zh) * 2012-09-13 2018-02-13 中兴通讯股份有限公司 字幕提取方法及装置
JP5509284B2 (ja) * 2012-09-14 2014-06-04 株式会社東芝 マルチフォーマット出力装置、マルチフォーマット出力装置の制御方法
CN104581341B (zh) 2013-10-24 2018-05-29 华为终端有限公司 一种字幕显示方法及字幕显示设备
JP6455974B2 (ja) * 2014-02-21 2019-01-23 日本放送協会 受信機
JP2015159366A (ja) * 2014-02-21 2015-09-03 日本放送協会 受信機
US10582255B2 (en) * 2014-06-30 2020-03-03 Lg Electronics Inc. Broadcast receiving device, method of operating broadcast receiving device, linking device for linking to broadcast receiving device, and method of operating linking device
CN104093063B (zh) * 2014-07-18 2017-06-27 三星电子(中国)研发中心 还原字幕属性的方法和装置
JP6340994B2 (ja) * 2014-08-22 2018-06-13 スター精密株式会社 プリンタ、印刷システムおよび印刷制御方法
JP6612028B2 (ja) * 2015-01-09 2019-11-27 株式会社アステム 番組システム、情報処理方法、およびプログラム
CN108476341B (zh) * 2016-01-26 2021-06-25 索尼公司 接收设备、接收方法和发送设备
CN110602566B (zh) 2019-09-06 2021-10-01 Oppo广东移动通信有限公司 匹配方法、终端和可读存储介质
CN115689860A (zh) * 2021-07-23 2023-02-03 北京字跳网络技术有限公司 视频蒙层显示方法、装置、设备及介质

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08275205A (ja) * 1995-04-03 1996-10-18 Sony Corp データ符号化/復号化方法および装置、および符号化データ記録媒体
JPH09102940A (ja) * 1995-08-02 1997-04-15 Sony Corp 動画像信号の符号化方法、符号化装置、復号化装置、記録媒体及び伝送方法
KR100218474B1 (ko) * 1997-06-10 1999-09-01 구자홍 에치티엠엘 데이터 송신 및 수신 장치
JPH1118060A (ja) * 1997-06-27 1999-01-22 Matsushita Electric Ind Co Ltd テレビジョン受信機
GB2327837B (en) * 1997-07-29 1999-09-15 Microsoft Corp Providing enhanced content with broadcast video
DE19757046A1 (de) * 1997-12-20 1999-06-24 Thomson Brandt Gmbh Vorrichtung zur Erzeugung der digitalen Daten für die Bilder einer Animations-/Informations-Sequenz für ein elektronisches Gerät
KR100631499B1 (ko) * 2000-01-24 2006-10-09 엘지전자 주식회사 디지털 티브이의 캡션 표시 방법
JP2002016885A (ja) * 2000-06-30 2002-01-18 Pioneer Electronic Corp 映像再生装置及び映像再生方法
US6704024B2 (en) * 2000-08-07 2004-03-09 Zframe, Inc. Visual content browsing using rasterized representations
JP4672856B2 (ja) * 2000-12-01 2011-04-20 キヤノン株式会社 マルチ画面表示装置及びマルチ画面表示方法
JP2002232802A (ja) * 2001-01-31 2002-08-16 Mitsubishi Electric Corp 映像表示装置
US7050109B2 (en) * 2001-03-02 2006-05-23 General Instrument Corporation Methods and apparatus for the provision of user selected advanced close captions
US7546527B2 (en) * 2001-03-06 2009-06-09 International Business Machines Corporation Method and apparatus for repurposing formatted content
US20020188959A1 (en) * 2001-06-12 2002-12-12 Koninklijke Philips Electronics N.V. Parallel and synchronized display of augmented multimedia information
US6952236B2 (en) * 2001-08-20 2005-10-04 Ati Technologies, Inc. System and method for conversion of text embedded in a video stream
JP3945687B2 (ja) * 2001-12-26 2007-07-18 シャープ株式会社 映像表示装置
JP4192476B2 (ja) * 2002-02-27 2008-12-10 株式会社日立製作所 映像変換装置及び映像変換方法
US8522267B2 (en) * 2002-03-08 2013-08-27 Caption Colorado Llc Method and apparatus for control of closed captioning
AU2003206009A1 (en) * 2002-03-21 2003-10-08 Koninklijke Philips Electronics N.V. Multi-lingual closed-captioning
US20030189669A1 (en) * 2002-04-05 2003-10-09 Bowser Todd S. Method for off-image data display
PL373274A1 (en) * 2002-04-16 2005-08-22 Samsung Electronics Co, Ltd. Information storage medium for recording interactive contents version information, recording and reproducing method thereof
EP1420580A1 (en) * 2002-11-18 2004-05-19 Deutsche Thomson-Brandt GmbH Method and apparatus for coding/decoding items of subtitling data
US7555199B2 (en) * 2003-01-16 2009-06-30 Panasonic Corporation Recording apparatus, OSD controlling method, program, and recording medium
US7106381B2 (en) * 2003-03-24 2006-09-12 Sony Corporation Position and time sensitive closed captioning
JP3830913B2 (ja) * 2003-04-14 2006-10-11 パイオニア株式会社 情報表示装置及び情報表示方法等
KR100532997B1 (ko) * 2003-05-23 2005-12-02 엘지전자 주식회사 디지털 티브이의 클로즈 캡션 운용 장치
WO2005001614A2 (en) * 2003-06-02 2005-01-06 Disney Enterprises, Inc. System and method of dynamic interface placement based on aspect ratio
JP2005033764A (ja) * 2003-06-19 2005-02-03 Ekitan & Co Ltd 受信機及び受信方法
JP2005027053A (ja) * 2003-07-02 2005-01-27 Toshiba Corp コンテンツ処理装置
JP4449359B2 (ja) * 2003-07-23 2010-04-14 ソニー株式会社 電子機器及び情報視聴方法、並びに情報視聴システム
KR100828354B1 (ko) * 2003-08-20 2008-05-08 삼성전자주식회사 자막 위치 제어 장치 및 방법
KR20050078907A (ko) * 2004-02-03 2005-08-08 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 재생방법과 기록재생장치
US20060015649A1 (en) * 2004-05-06 2006-01-19 Brad Zutaut Systems and methods for managing, creating, modifying, and distributing media content

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104994312A (zh) * 2015-07-15 2015-10-21 北京金山安全软件有限公司 一种视频生成方法及装置
CN104978161A (zh) * 2015-07-30 2015-10-14 张阳 Mv全屏显示方法及系统

Also Published As

Publication number Publication date
JPWO2006092993A1 (ja) 2008-08-07
US20090207305A1 (en) 2009-08-20
EP1855479A1 (en) 2007-11-14
EP1855479A4 (en) 2009-10-14
CN101129070B (zh) 2010-09-01
WO2006092993A1 (ja) 2006-09-08
JP4792458B2 (ja) 2011-10-12

Similar Documents

Publication Publication Date Title
CN101129070B (zh) 字幕显示设备
KR100473537B1 (ko) 방송을이용하여대화성을실현하는송신장치,수신장치,수신방법,그수신프로그램을기록한매체,통신시스템
US5973681A (en) Interactive data communication system with unidirectionally transmitted broadcast wave
KR100455010B1 (ko) 데이터 통신 시스템의 데이터 변환 장치 및 데이터 수신 장치
CN111479153A (zh) 一种显示设备
JPH11103452A (ja) インタラクティブ番組における対話及び画面制御方法
JP4287621B2 (ja) テレビジョン受信機およびこれに対する情報提供方法
CN111601142B (zh) 一种字幕的显示方法及显示设备
CN111726673B (zh) 一种频道切换方法及显示设备
CN114073098A (zh) 流媒体同步方法及显示设备
JP2005124163A (ja) 受信装置、番組連携表示方法および印刷制御方法
CN111277891A (zh) 一种节目录制提示方法及显示设备
JP4491902B2 (ja) 摺動型グラフックウィンドウを用いたメディアコンテンツとのインターラクティブシステム
US20030169369A1 (en) Consumer video captioning system
EP1354478B1 (en) Method for choosing a reference information item in a television signal
CN100411431C (zh) 一种视频节目中字幕的显示方法及系统
US7528983B2 (en) Image processing system, information processing apparatus and method, image processing apparatus and method, recording medium, and program
JP3737603B2 (ja) データ通信システム及びデータ受信装置
JP2003209797A (ja) デジタル放送受信装置及びその方法並びに印刷装置及びその方法
EP1020858A1 (en) Controller, network device, signal transmitter, signal receiver, and recording medium
KR100721561B1 (ko) 콘텐츠 변환 장치 및 그 방법
CN100377583C (zh) 电视机及其字幕信息存储方法
CN112188276A (zh) 一种频道切换方法及显示设备
JP2003078889A (ja) 字幕処理装置
JP3927160B2 (ja) データ通信システム並びにデータ送信装置およびデータ受信装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MATSUSHITA ELECTRIC (AMERICA) INTELLECTUAL PROPERT

Free format text: FORMER OWNER: MATSUSHITA ELECTRIC INDUSTRIAL CO, LTD.

Effective date: 20141008

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20141008

Address after: Seaman Avenue Torrance in the United States of California No. 2000 room 200

Patentee after: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

Address before: Osaka Japan

Patentee before: Matsushita Electric Industrial Co.,Ltd.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100901

Termination date: 20190222