CN101513051A - 视频处理装置及视频处理方法 - Google Patents

视频处理装置及视频处理方法 Download PDF

Info

Publication number
CN101513051A
CN101513051A CNA2007800332931A CN200780033293A CN101513051A CN 101513051 A CN101513051 A CN 101513051A CN A2007800332931 A CNA2007800332931 A CN A2007800332931A CN 200780033293 A CN200780033293 A CN 200780033293A CN 101513051 A CN101513051 A CN 101513051A
Authority
CN
China
Prior art keywords
data
video
frame
interpolation
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2007800332931A
Other languages
English (en)
Other versions
CN101513051B (zh
Inventor
寺井克美
太田义人
野泽和志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN101513051A publication Critical patent/CN101513051A/zh
Application granted granted Critical
Publication of CN101513051B publication Critical patent/CN101513051B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • H04N7/0132Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter the field or frame frequency of the incoming video signal being multiplied by a positive integer, e.g. for flicker reduction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)

Abstract

运动补偿部包括:视频数据选择部;视频数据编辑部;矢量参考数据编辑部;延迟部;域数据编辑部;以及延迟部。视频数据编辑部输出当前帧视频数据和平均视频数据。矢量参考数据编辑部输出前向补偿视频数据和后向补偿视频数据。域数据编辑部输出当前帧域数据、前向补偿域数据、以及后向补偿域数据。视频数据选择部根据三个域数据,从四个视频数据中选择一个视频数据并输出到视频输出部。

Description

视频处理装置及视频处理方法
技术领域
本发明涉及进行帧率转换处理的视频处理装置及视频处理方法。
背景技术
在电视接收机等视频处理装置中,对视频数据实施帧率转换处理(例如,专利文献1)。在帧率转换处理中,例如从时间轴上连续的两帧(构成动态图像的画面)中检测出运动矢量,并利用检测出的运动矢量生成插补帧。通过进行该处理,既能提高视频数据的压缩率,又能实现高质量的视频。
专利文献1:日本专利特开昭62-175080号公报
发明内容
在电视接收机中,通常可以在显示面板上显示频道号等字符。在显示面板上显示字符时,电视接收机利用内置的微机生成字符数据。然后,将生成的字符数据与实施了帧率转换处理的视频数据合成,并输出合成的数据作为视频。
顺便提及,由于帧率转换处理中是利用在时间轴上连续的两帧生成插补帧的,因此使得视频数据的帧频增加。例如,50Hz帧频的视频数据经帧率转换处理后会变成100Hz帧频的视频数据。因而,在帧率转换处理后合成字符数据时,由于必须将字符数据与帧频增加了的视频数据合成,因此,就必须使用数据处理速度高的高性能微机。从而,增加了电视接收机的产品成本。
因此,为了降低电视接收机的产品成本,本发明人对合成字符数据与视频数据后进行帧率转换处理的结构进行了研究。在这种情况下,可以将字符数据与帧频增加前的视频数据、即帧频低的视频数据合成。因而,可以不使用数据处理速度高的高性能微机。从而,可以降低电视接收机的产品成本。
然而,本发明人发现,通过在合成字符数据与视频数据后进行帧率转换处理,有时会降低画质。另外,本发明人还发现了导致画质降低的多个原因。下面,列举这多个原因中的部分原因为例,说明帧率转换处理时发生的问题。
图15和图16表示在电视接收机的显示面板上显示频道号时的一个例子。图15和图16中,在电视接收机1000的显示面板1001上,显示有表示频道号“31”的字符1005。此外,本例中,在主画面1002内有三只鸟1006、1007、1008向右移动。在图15中,鸟1006的一部分被字符1005遮住。
这里,如上所述,在帧率转换处理中,利用在时间轴上前后的两帧生成插补帧。因此,在上述情况下,对于鸟1006的被字符1005遮住的部分来说,就无法正确地检测出运动矢量。从而,无法生成正确的插补帧。
另外,在帧率转换处理中,以块为单位(例如,8×8像素)来检测运动矢量。因此,当一个块内存在字符1005和鸟1006的边界时,有时会根据鸟1006的移动来检测这个块的运动矢量。从而,在插补帧中,字符1005的一部分有时会随鸟1006的移动而一起移动。
上述各情况的结果使得字符1005和鸟1006的周边区域内的画质降低。
另外,本发明人发现,在合成两个视频数据后对该合成的视频数据实施帧率转换处理时,也会发生上述问题。下面,一边参照图15和图16,一边进行说明。
图15和图16中,在显示器1001上显示有基于一个视频数据的主画面1002和基于另一个视频数据的子画面1003。主画面1002的视频和子画面1003的视频相互独立,子画面1003显示于主画面1002上。此外,在图15和图16中,主画面1002内汽车1004向左移动。因而,图15中汽车1004被子画面1003遮住的部分会随着时间的经过而逐渐显现于主画面1002上。
在这种情况下,与上述情况相同,对于汽车1004被子画面1003遮住的部分,无法正确地检测运动矢量。从而,无法生成正确的插补帧。
另外,当一个块内存在主画面1002和子画面1003的边界时,有时会根据汽车1004的移动来检测这个块的运动矢量。从而,在插补帧中,一部分子画面1003有时会随汽车1004的移动而一起移动。
上述各情况的结果使得子画面1003和子画面1003周边区域的画质降低。
由于上述原因,在以往的电视接收机结构中,通过进行帧率转换处理,有时会使得画质降低。因此,难以稳定地提供高画质视频。
本发明的目的在于提供能够以廉价的结构、稳定地提供高画质视频的视频处理装置及视频处理方法。
(1)按照本发明的一个方面的视频处理装置,是处理合成数据的视频处理装置,该合成数据是将用于显示第一视频的第一数据和用于显示第二视频的第二数据合成的数据,该第二视频显示于第一视频之上,所述视频处理装置包括:从多帧的合成数据中检测出运动矢量的运动矢量检测部;以及插补数据生成部,该插补数据生成部根据多帧的合成数据和运动矢量检测部检测出的运动矢量,生成对两帧进行插补的插补帧的插补数据,在两帧的至少一帧中显示第二视频时,插补数据生成部不使用运动矢量检测部检测出的运动矢量,而生成插补帧中与第二视频显示区域的至少外周边部对应的区域的插补数据。
在该视频处理装置中,运动矢量检测部从多帧的合成数据中检测出运动矢量。插补数据生成部根据多帧的合成数据和运动矢量,生成对两帧进行插补的插补帧的插补数据。
这里,当两帧中的至少一帧具有第二视频显示区域时,插补数据生成部对插补帧中与第二视频显示区域的至少外周边部对应的区域,不使用运动矢量而生成插补数据。此外,所谓外周边部,是指包含第二视频显示区域的轮廓线的预定宽度的区域。
在这种情况下,可以防止本来不应移动的上述外周边部根据运动矢量而在插补帧中移动。从而,在插补帧中,可以防止在应显示第一视频的区域显示第二视频、以及在应显示第二视频的区域显示第一视频。其结果,在插补帧中可以在适当的位置显示第二视频。
另外,插补数据生成部还可以利用合成了第一数据和第二数据的合成数据生成插补帧。因而,可以在生成插补帧之前、即在第一数据的帧数(帧频)增加前,合成第二数据与第一数据。
从而,例如当第二数据是屏显用的数据(以下简称为OSD数据)时,与在第一帧数增加后将OSD数据与第一数据合成的情况相比,可以使用数据处理速度不高的微机而将OSD数据与第一数据合成。在这种情况下,由于不需要在视频处理装置中设置高性能的微机,因此可以降低视频处理装置的产品成本。
上述结果使得能够以廉价的结构进行高精度的运动补偿。从而,能够稳定地提供高画质视频。
(2)在两帧的至少一帧中显示第二视频时,插补数据生成部也可以不使用运动矢量检测部检测出的运动矢量,而生成插补帧的全部区域的插补数据。
在这种情况下,可以确实地防止本来不应移动的第二视频根据运动矢量而在插补帧中移动。从而,在插补帧中,可以确实地防止在应显示第一视频的区域显示第二视频、以及在应显示第二视频的区域显示第一视频。其结果,在插补帧中可以在适当的位置显示第二视频。
(3)在两帧的至少一帧中显示第二视频时,插补数据生成部也可以生成第二数据,作为插补帧中与第二视频显示区域的至少外周边部对应的区域的插补数据。
在这种情况下,当两帧的至少一帧中存在第二视频显示区域时,在插补帧的上述至少与外周边部对应的区域中也显示基于第二数据的视频。从而,当两帧都具有第二视频显示区域时,可以防止在插补帧的上述至少与外周边部对应的区域中显示基于第一数据的视频。其结果,能够进行更高精度的运动补偿。
(4)插补数据生成部也可以根据各帧中表示第二视频显示区域的域数据,决定至少与外周边部对应的区域。在这种情况下,根据域数据,可以容易地决定插补帧中上述至少外周边部的显示区域。
(5)插补数据生成部也可以根据两帧中在时间轴上为前后帧的合成数据、以及运动矢量检测部检测出的运动矢量,分别生成第一和第二预测帧的数据,当第一预测帧中的至少外周边部区域和第二预测帧中的至少外周边部区域不同时,在插补帧中,作为第一和第二预测帧的一个预测帧中的至少与外周边部对应的区域的插补数据,是选择另一个预测帧的对应区域的数据。
这时,在插补数据生成部中,生成基于前一帧和运动矢量的第一预测帧、以及基于后一帧和运动矢量的第二预测帧,作为插补帧的候补。然后,在插补帧中,对于第一预测帧的上述至少与外周边部对应的区域,使用第二预测帧的对应区域的数据作为插补数据,对于第二预测帧的上述至少与外周边部对应的区域,使用第一预测帧的对应区域的数据作为插补数据。
因而,既可以防止本来不应移动的上述至少外周边部区域在插补帧中移动,又能根据运动矢量,利用前后帧的合成数据生成插补帧的插补数据。从而,在插补帧中,可以在适当的位置显示第二视频,并且能够进行更高精度的运动补偿。其结果,能够更加稳定地提供高画质视频。
(6)插补数据生成部也可以通过利用前后帧的合成数据进行运算,从而再生成第三预测帧的数据,当第一预测帧中的至少外周边部区域和第二预测帧中的至少外周边部区域相等时,在插补帧中,作为第一和第二预测帧中的至少与外周边部对应的区域的插补数据,是选择第三预测帧的对应区域的数据。
这时,在插补数据生成部中,通过利用前一帧的合成数据与后一帧的合成数据进行运算而生成第三预测帧,作为插补帧的候补。然后,在插补帧中,对于与第一预测帧的上述至少外周边部区域、以及第二预测帧的上述至少外周边部区域的两者相对应的区域,使用第三预测帧的对应区域的数据作为插补数据。
因而,既可以确实地防止本来不应移动的上述至少外周边部区域在插补帧中移动,又能利用前后帧的合成数据生成插补帧的插补数据。从而,在插补帧中,可以在适当的位置显示第二视频,并且能够进行更加高精度的运动补偿。其结果,能够更加稳定地提供高画质视频。
(7)视频处理装置还可以具有预测域数据生成部,该预测域数据生成部根据前一帧中表示第二视频显示区域的域数据和运动矢量检测部检测出的运动矢量,生成第一预测帧中表示第二视频显示区域的第一预测域数据,并且根据后一帧中表示第二视频显示区域的域数据和运动矢量检测部检测出的运动矢量,生成第二预测帧中表示第二视频显示区域的第二预测域数据,插补数据生成部根据预测域数据生成部生成的第一和第二预测域数据,生成插补数据。
这时,在预测域数据生成部中,根据前一帧的域数据和运动矢量生成第一预测帧中表示第二视频显示区域的第一预测域数据,根据后一帧的域数据和运动矢量生成第二预测帧中表示第二视频显示区域的第二预测域数据。因而,插补数据生成部根据第一和第二预测域数据,可以容易地识别第一和第二预测帧中的上述至少外周边部区域。
从而,既可以更确实地防止本来不应移动的上述至少外周边部区域在插补帧中移动,又能容易地利用前后帧的合成数据生成插补帧的插补数据。其结果,在插补帧中,可以在更加适当的位置显示第二视频,并且能够进行更高精度的运动补偿。
(8)第二数据也可以是屏显用的数据,至少外周边部区域也可以包含屏显用的全部区域。
这时,可以在生成插补帧之前、即在第一数据的帧数(帧频)增加前,将屏显用的数据(以下,简称为OSD数据)与第一数据合成。
因而,与在第一帧数增加后将OSD数据与第一数据合成的情况相比,可以使用数据处理速度不高的微机,将OSD数据与第一数据合成。在这种情况下,由于不需要在视频处理装置中设置高性能的微机,因此可以降低视频处理装置的产品成本。
另外,对于屏显用的区域,不使用运动矢量而生成插补数据。
在这种情况下,可以防止本来不应移动的屏显用区域根据运动矢量而在插补帧中移动。从而,在插补帧中,可以防止在不应进行屏显的区域中进行屏显、以及在应进行屏显的区域中显示第一视频。其结果,在插补帧中可以在适当的位置进行屏显。
(9)按照本发明的另一方面的视频处理装置,是处理用于显示第一视频的第一数据和用于显示第二视频的第二数据的视频处理装置,包括:合成数据生成部,该合成数据生成部通过合成第一数据与第二数据,生成在第一视频上显示第二视频的多帧的合成数据;从多帧的第一数据中检测出运动矢量的运动矢量检测部;以及插补数据生成部,该插补数据生成部根据合成数据生成部生成的多帧的合成数据和运动矢量检测部检测出的运动矢量,生成对两帧进行插补的插补帧的插补数据。
在该视频处理装置中,合成数据生成部将用于显示第一视频的第一数据与用于显示第二视频的第二数据合成,从而生成合成数据。在运动矢量检测部中,从多帧的第一数据中检测出运动矢量。在插补数据生成部中,根据多帧的合成数据和运动矢量,生成对两帧进行插补的插补帧的插补数据。
这样,就从第一数据中检测出运动矢量。因而,即使是在第一视频上显示第二视频,也可以不用考虑第二数据而检测出运动矢量。
这时,在合成数据的多帧中,对于因第二视频而未显示的区域的第一视频,也可以在两帧间进行正确的匹配。从而,能够对于第一视频高精度地检测运动矢量。
另外,插补数据生成部还可以利用合成了第一数据和第二数据的合成数据生成插补帧。因而,可以在生成插补帧之前、即在第一数据的帧数(帧频)增加前,合成第二数据与第一数据。
从而,例如当第二数据是OSD数据时,与在第一帧数增加后将OSD数据与第一数据合成的情况相比,可以使用数据处理速度不高的微机而将OSD数据与第一数据合成。在这种情况下,由于不需要在视频处理装置中设置高性能的微机,因此可以降低视频处理装置的产品成本。
上述结果使得能够以廉价的结构进行高精度的运动补偿。从而,能够稳定地提供高画质视频。
(10)在两帧的至少一帧中显示第二视频时,插补数据生成部也可以不使用运动矢量检测部检测出的运动矢量,而生成插补帧中与第二视频显示区域对应的区域的插补数据。
在这种情况下,可以防止本来不应移动的第二视频显示区域根据运动矢量而在插补帧中移动。从而,在插补帧中,可以防止在应显示第一视频的区域显示第二视频、以及在应显示第二视频的区域显示第一视频。其结果,在插补帧中可以在适当的位置显示第二视频。
(11)在两帧的至少一帧中显示第二视频时,插补数据生成部也可以不使用运动矢量检测部检测出的运动矢量,而生成插补帧的全部区域的插补数据。
在这种情况下,可以确实地防止本来不应移动的第二视频根据运动矢量而在插补帧中移动。从而,在插补帧中,可以确实地防止在应显示第一视频的区域显示第二视频、以及在应显示第二视频的区域显示第一视频。其结果,在插补帧中可以在适当的位置显示第二视频。
(12)在两帧的至少一帧中显示第二视频时,插补数据生成部也可以生成第二数据,作为插补帧中与第二视频显示区域对应的区域的插补数据。
在这种情况下,当两帧的至少一帧中存在第二视频显示区域时,在插补帧的上述至少与外周边部对应的区域中也显示基于第二数据的视频。从而,当两帧都具有第二视频显示区域时,可以防止在插补帧的上述至少与外周边部对应的区域中显示基于第一数据的视频。其结果,能够进行更高精度的运动补偿。
(13)插补数据生成部也可以根据各帧中表示第二视频显示区域的域数据,决定与第二视频显示区域对应的区域。在这种情况下,根据域数据,可以容易地决定插补帧中的第二视频显示区域。
(14)插补数据生成部也可以根据两帧中在时间轴上为前后帧的合成数据、以及运动矢量检测部检测出的运动矢量,分别生成第一和第二预测帧的数据,当第一预测帧中的第二视频显示区域和第二预测帧中的第二视频显示区域不同时,在插补帧中,作为第一和第二预测帧的一个预测帧中的与第二视频显示区域对应的区域的插补数据,是选择另一个预测帧的对应区域的数据。
这时,在插补数据生成部中,生成基于前一帧和运动矢量的第一预测帧、以及基于后一帧和运动矢量的第二预测帧,作为插补帧的候补。然后,在插补帧中,对于第一预测帧的第二视频显示区域对应的区域,使用第二预测帧的对应域数据作为插补数据,对于第二预测帧的第二视频显示区域对应的区域,使用第一预测帧的对应域数据作为插补数据。
因而,既可以防止本来不应移动的第二视频显示区域在插补帧中移动,又能根据运动矢量,利用前后帧的合成数据生成插补帧的插补数据。从而,在插补帧中,可以在适当的位置显示第二视频,并且能够进行更高精度的运动补偿。其结果,能够更加稳定地提供高画质视频。
(15)插补数据生成部也可以通过利用前后帧的合成数据进行运算,从而再生成第三预测帧的数据,当第一预测帧中的第二视频显示区域和第二预测帧中的第二视频显示区域相等时,在插补帧中,作为第一和第二预测帧中的与第二视频显示区域对应的区域的插补数据,是选择第三预测帧的对应区域的数据。
这时,在插补数据生成部中,通过利用前一帧的合成数据与后一帧的合成数据进行运算而生成第三预测帧,作为插补帧的候补。然后,在插补帧中,对于与第一预测帧的第二视频显示区域、以及第二预测帧的第二视频显示区域的两者相对应的区域,使用第三预测帧的对应区域的数据作为插补数据。
因而,既可以确实地防止本来不应移动的第二视频显示区域在插补帧中移动,又能利用前后帧的合成数据生成插补帧的插补数据。从而,在插补帧中,可以在适当的位置显示第二视频,并且能够进行更加高精度的运动补偿。其结果,能够更加稳定地提供高画质视频。
(16)视频处理装置还可以具有预测域数据生成部,该预测域数据生成部根据前一帧中表示第二视频显示区域的域数据和运动矢量检测部检测出的运动矢量,生成第一预测帧中表示第二视频显示区域的第一预测域数据,并且根据后一帧中表示第二视频显示区域的域数据和运动矢量检测部检测出的运动矢量,生成第二预测帧中表示第二视频显示区域的第二预测域数据,插补数据生成部根据预测域数据生成部生成的第一和第二预测域数据,生成插补数据。
这时,在预测域数据生成部中,根据前一帧的域数据和运动矢量生成第一预测帧中表示第二视频显示区域的第一预测域数据,根据后一帧的域数据和运动矢量生成第二预测帧中表示第二视频显示区域的第二预测域数据。因而,插补数据生成部根据第一和第二预测域数据,可以容易地识别第一和第二预测帧中的第二视频显示区域。
从而,既可以更确实地防止本来不应移动的第二视频显示区域在插补帧中移动,又能容易地利用前后帧的合成数据生成插补帧的插补数据。其结果,在插补帧中,可以在更加适当的位置显示第二视频,并且能够进行更高精度的运动补偿。
(17)第二数据也可以是屏显用的数据。这时,可以在生成插补帧之前、即在第一数据的帧数(帧频)增加前,将屏显用的数据(以下,简称为OSD数据)与第一数据合成。
因而,与在第一帧数增加后将OSD数据与第一数据合成的情况相比,可以使用数据处理速度不高的微机,将OSD数据与第一数据合成。在这种情况下,由于不需要在视频处理装置中设置高性能的微机,因此可以降低视频处理装置的产品成本。
(18)按照本发明的又一个方面的视频处理装置,是处理合成数据的视频处理装置,该合成数据是将用于显示第一视频的第一数据和用于显示第二视频的第二数据合成的数据,该第二视频显示于第一视频之上,所述视频处理装置包括:插补数据生成部,该插补数据生成部根据多帧的合成数据,生成对两帧进行插补的插补帧的插补数据;以及对多帧和插补帧进行视频修正的视频修正部,在多帧和插补帧的显示第二视频的帧中,视频修正部不对第二视频进行视频修正,或者设定第二视频的视频修正率,使其低于第一视频的视频修正率。
在该视频处理装置中,插补数据生成部利用多帧的合成数据,生成对两帧进行插补的插补帧的插补数据。另外,在视频修正部中,对多帧和插补帧进行视频修正。
这里,在多帧和插补帧的显示第二视频的帧中,视频修正部不对第二视频显示区域进行视频修正,或者设定第二视频的视频修正率,使其低于第一视频的视频修正率。在这种情况下,对显示第二视频的帧进行视频修正时,可防止对第二视频显示区域进行不必要的画质修正。从而,可以防止第二视频的画质降低。另外,还可以防止在修正后的第一视频中反映第二视频的要素(第二数据)。从而,可以防止视频修正后的第一视频的画质降低。
另外,插补数据生成部还可以利用合成了第一数据和第二数据的合成数据生成插补帧。因而,可以在生成插补帧之前、即在第一数据的帧数(帧频)增加前,合成第二数据与第一数据。
从而,例如当第二数据是屏显用的数据(以下简称为OSD数据)时,与在第一帧数增加后将OSD数据与第一数据合成的情况相比,可以使用数据处理速度不高的微机而将OSD数据与第一数据合成。在这种情况下,由于不需要在视频处理装置中设置高性能的微机,因此可以降低视频处理装置的产品成本。
上述结果使得能够以廉价的结构稳定地提供高画质视频。
(19)视频修正部也可以在显示第二视频的帧中,不使用第二数据而进行视频修正。
在这种情况下,可以确实地防止在修正后的第一视频中反映第二视频的要素(第二数据)。从而,可以确实地防止视频修正后的第一视频的画质降低。
(20)视频修正部也可以根据合成数据和插补数据,提取出多帧和插补帧的特征量,根据所提取出的特征量对多帧和插补帧进行视频修正,在显示第二视频的帧中不使用第二数据而提取出特征量。
在这种情况下,由于是根据特征量而对多帧和插补帧进行视频修正,因此,可以充分地提高多帧和插补帧的画质。
另外,对于显示第二视频的帧的特征量的提取,并没有使用第二数据。在这种情况下,对显示第二视频的帧进行视频修正时,可以确实地防止在修正后的第一视频中反映第二视频的要素(第二数据)。从而,可以确实地防止视频修正后的第一视频的画质降低。
(21)按照本发明的又一个方面的视频处理方法,是处理合成数据的视频处理方法,该合成数据是将用于显示第一视频的第一数据和用于显示第二视频的第二数据合成的数据,该第二视频显示于第一视频之上,所述视频处理方法包括:从多帧的合成数据中检测出运动矢量的步骤;以及根据多帧的合成数据和运动矢量、生成对两帧进行插补的插补帧的插补数据的步骤,在生成插补数据的步骤中,当在两帧的至少一帧中显示第二视频时,不使用运动矢量检测部检测出的运动矢量,而生成插补帧中与第二视频显示区域的至少外周边部对应的区域的插补数据。
在该视频处理方法中,从多帧的合成数据中检测出运动矢量。根据多帧的合成数据和运动矢量,生成对两帧进行插补的插补帧的插补数据。
这里,当两帧中的至少一帧具有第二视频显示区域时,对插补帧中与第二视频显示区域的至少外周边部对应的区域,不使用运动矢量而生成插补数据。
在这种情况下,可以防止本来不应移动的上述外周边部根据运动矢量而在插补帧中移动。从而,在插补帧中,可以防止在应显示第一视频的区域显示第二视频、以及在应显示第二视频的区域显示第一视频。其结果,在插补帧中可以在适当的位置显示第二视频。
另外,还可以利用合成了第一数据和第二数据的合成数据生成插补帧。因而,可以在生成插补帧之前、即在第一数据的帧数(帧频)增加前,合成第二数据与第一数据。
从而,例如当第二数据是屏显用的数据(以下简称为OSD数据)时,与在第一帧数增加后将OSD数据与第一数据合成的情况相比,可以使用数据处理速度不高的微机而将OSD数据与第一数据合成。因而,不需要使用高性能的微机。
上述结果使得能够以廉价的结构进行高精度的运动补偿。从而,能够稳定地提供高画质视频。
(22)按照本发明的又一方面的视频处理装置,是处理用于显示第一视频的第一数据和用于显示第二视频的第二数据的视频处理方法,包括:通过合成第一数据与第二数据、生成在第一视频上显示第二视频的多帧的合成数据的步骤;从多帧的第一数据中检测出运动矢量的步骤;以及根据多帧的合成数据和运动矢量、生成对两帧进行插补的插补帧的插补数据的步骤。
在该视频处理方法中,将用于显示第一视频的第一数据与用于显示第二视频的第二数据合成,从而生成合成数据。从多帧的第一数据中检测出运动矢量。根据多帧的合成数据和运动矢量,生成对两帧进行插补的插补帧的插补数据。
这样,就从第一数据中检测出运动矢量。因而,即使是在第一视频上显示第二视频,也可以不用考虑第二数据而检测出运动矢量。
这时,在合成数据的多帧中,对于因第二视频而未显示的区域的第一视频,也可以在两帧间进行正确的匹配。从而,能够对于第一视频高精度地检测运动矢量。
另外,还可以利用合成了第一数据和第二数据的合成数据生成插补帧。因而,可以在生成插补帧之前、即在第一数据的帧数(帧频)增加前,合成第二数据与第一数据。
从而,例如当第二数据是OSD数据时,与在第一帧数增加后将OSD数据与第一数据合成的情况相比,可以使用数据处理速度不高的微机而将OSD数据与第一数据合成。因而,不需要使用高性能的微机。
上述结果使得能够以廉价的结构进行高精度的运动补偿。从而,能够稳定地提供高画质视频。
根据本发明,当两帧中的至少一帧具有第二视频显示区域时,对插补帧中与第二视频显示区域的至少外周边部对应的区域,不使用运动矢量而生成插补数据。从而,在插补帧中,可以防止在应显示第一视频的区域显示第二视频、以及在应显示第二视频的区域显示第一视频。
另外,还可以利用合成了第一数据和第二数据的合成数据生成插补帧。因而,可以在生成插补帧之前、即在第一数据的帧数(帧频)增加前,合成第二数据与第一数据。
从而,例如当第二数据是屏显用的数据(以下简称为OSD数据)时,与在第一帧数增加后将OSD数据与第一数据合成的情况相比,可以使用数据处理速度不高的微机而将OSD数据与第一数据合成。在这种情况下,由于不需要在视频处理装置中设置高性能的微机,因此可以降低视频处理装置的产品成本。
另外,就可以从第一数据中检测出运动矢量。因而,即使是在第一视频上显示第二视频,也可以不用考虑第二数据而检测出运动矢量。这时,在合成数据的多帧中,对于因第二视频而未显示的区域的第一视频,也可以在两帧间进行正确的匹配。从而,能够对于第一视频高精度地检测运动矢量。
另外,在显示第二视频的帧中,不对第二视频进行视频修正,或者设定第二视频的视频修正率,使其低于第一视频的视频修正率。在这种情况下,对显示第二视频的帧进行视频修正时,可防止对第二视频显示区域进行不必要的画质修正。从而,可以防止第二视频的画质降低。另外,还可以防止在修正后的第一视频中反映第二视频的要素(第二数据)。从而,可以防止视频修正后的第一视频的画质降低。
上述结果使得能够稳定地提供高画质视频。
附图说明
图1是表示第一实施方式的电视接收机的结构框图。
图2是表示运动补偿部主要部分的结构框图。
图3是说明插补帧的生成方法用的图。
图4是说明域数据用的图。
图5是表示视频数据选择部进行视频数据选择处理的流程图。
图6是表示运动补偿部的另一例的框图。
图7是表示第二实施方式的电视接收机的结构框图。
图8是说明图7的运动矢量检测部的运动矢量检测方法用的图。
图9是表示第二实施方式的电视接收机的另一例、以及第三实施方式的电视接收机的结构框图。
图10是表示第四实施方式的电视接收机的运动补偿部主要部分的结构框图。
图11是表示第五实施方式的电视接收机的结构框图。
图12是表示第六实施方式的电视接收机的结构框图。
图13是表示第七实施方式的电视接收机的结构框图。
图14是表示视频修正部的一个例子的框图。
图15是表示在电视接收机的显示面板上同时显示两个画面时的一个示例图。
图16是表示在电视接收机的显示面板上同时显示两个画面时的一个示例图。
具体实施方式
下面,利用附图说明接收数字广播信号的电视接收机,作为本发明实施方式的视频处理装置的一个例子。
(1)第一实施方式
(A)电视接收机的结构
图1是表示本发明第一实施方式的电视接收机的结构框图。此外,在第一实施方式中,说明在画面上以OSD(屏显:On Screen Display)方式提示字符(例如,频道号)的状态下进行帧率转换处理的情况。
如图1所示,本实施方式的电视接收机100包括:选台部101;解调部102;TS(传输流:Transport Stream)解码器103;AV(音频视频)解码器104;音频输出部105;合成部106;微机107;运动矢量检测部108;运动补偿部109;以及视频输出部110。
从天线901向选台部101输入多个数字广播信号(以下,简称为广播信号)。选台部101从多个广播信号中选择一个广播信号,并将所选择的广播信号输出到解调部102。
解调部102通过对选台部101输出的广播信号进行解调,生成依据MPEG(Motion Picture Experts Group:运动图像专家组)-2标准的传输流。解调部102还将生成的传输流输出到TS解码器103。
TS解码器103将音频流和视频流从解调部102输出的传输流中分离。TS解码器103还将分离的音频流和视频流输出到AV解码器104。
AV解码器104对TS解码器103输出的音频流和视频流进行解码,生成音频数据和视频数据。AV解码器104还将生成的音频数据输出到音频输出部105,将视频数据输出到合成部106。
音频输出部105包括扬声器等音频输出装置,将AV解码器104输出的音频数据作为音频进行输出。
微机107生成字符数据,将生成的字符数据输出到合成部106。微机107还生成域数据,并将生成的域数据输出到运动补偿部109。此外,在本实施方式中,所谓域数据,是表示字符显示区域的信息,对于每一个像素,表示该像素是否是显示一部分字符的像素。
微机107输出字符数据时,合成部106将字符数据与AV解码器104输出的视频数据合成。然后,将合成了字符数据的视频数据输出到运动矢量检测部108和运动补偿部109。
微机107未输出字符数据时,合成部106将AV解码器104输出的视频数据原样输出到运动矢量检测部108和运动补偿部109。
运动矢量检测部108根据合成部106输出的视频数据,对每一个预定的块(例如,8×8像素的像素区域)都检测运动矢量,并将各像素的运动矢量数据输出到运动补偿部109。
运动补偿部109根据运动矢量检测部108输出的运动矢量数据和微机107输出的域数据,对合成部106输出的视频数据实施帧率转换处理。
运动补偿部109将上述帧率转换处理后的视频数据输出到视频输出部110。此外,在帧率转换处理中,运动补偿部109生成对时间轴上连续的两帧之间进行插补的帧(插补帧)的数据。关于运动补偿部109的详细情况,将在后文中阐述。
视频输出部110包括液晶显示面板或等离子体显示面板等视频显示装置,将运动补偿部109输出的视频数据作为视频进行显示。此外,在将合成了字符数据的视频数据作为视频进行显示时,在视频显示装置上以OSD的形式提示字符。
(B)运动补偿
接着,利用附图,详细说明运动补偿部109的插补帧生成方法。
(b-1)运动补偿部的结构
首先,说明运动补偿部109的结构。
图2是表示运动补偿部109的主要部分的结构框图。如图2所示,运动补偿部109包括:视频数据选择部91;视频数据编辑部92;矢量参考数据编辑部93;延迟部94;域数据编辑部95;以及延迟部96。此外,在视频数据编辑部92、矢量参考数据编辑部93、以及域数据编辑部95中,分别设置有两个帧存储器。
合成部106输出的视频数据输入到视频数据编辑部92的一个帧存储器、矢量参考数据编辑部93的一个帧存储器、以及延迟部94。
运动矢量检测部108输出的运动矢量数据输入到矢量参考数据编辑部93和域数据编辑部95。微机107输出的域数据输入到域数据编辑部95的一个帧存储器和延迟部96。
延迟部94使输入的视频数据延迟一帧的量,并将其输出到视频数据编辑部92的另一个帧存储器和矢量参考数据编辑部93的另一个帧存储器。即,向视频数据编辑部92和矢量参考数据编辑部93各自的另一个帧存储器输入视频数据,该视频数据比输入到视频数据编辑部92和矢量参考数据编辑部93各自的一个帧存储器的视频数据要提前一帧的量。下面,将输入到视频数据编辑部92和矢量参考数据编辑部93的各自的一个帧存储器的视频数据所生成的帧称为当前帧,将输入到各自的另一个帧存储器的视频数据所生成的帧称为前一帧。
延迟部96使输入的域数据延迟一帧的量,并将其输出到域数据编辑部95的另一个帧存储器。即,向域数据编辑部95的另一个帧存储器输入域数据,该域数据比输入到域数据编辑部95的一个帧存储器的域数据要提前一帧的量。
此外,域数据编辑部95的一个帧存储器中存储的域数据表示在当前帧显示字符的像素区域,另一个帧存储器中存储的域数据表示在前一帧显示字符的像素区域。下面,将输入到域数据编辑部95的一个帧存储器的域数据称为当前帧的域数据,将输入到另一个帧存储器的域数据称为前一帧的域数据。
视频数据编辑部92将一个帧存储器中存储的当前帧的视频数据保持原样作为当前帧视频数据PVD而输出到视频数据选择部91。
另外,视频数据编辑部92还利用一个帧存储器中存储的当前帧的视频数据以及另一个帧存储器中存储的前一帧的视频数据生成平均视频数据AVD,并输出到视频数据选择部91。此外,在由平均视频数据AVD生成的帧中,各像素的亮度为前一帧相同位置的像素亮度和当前帧相同位置的像素亮度的平均值。
矢量参考数据编辑部93根据一个帧存储器中存储的当前帧的视频数据以及运动矢量检测部108输出的运动矢量数据,生成后向补偿视频数据RVD,输出到视频数据选择部91。关于后向补偿视频数据RVD的详细情况,将在后文中阐述。
矢量参考数据编辑部93还根据另一个帧存储器中存储的前一帧的视频数据以及运动矢量检测部108输出的运动矢量数据,生成前向补偿视频数据FVD,输出到视频数据选择部91。
关于前向补偿视频数据FVD的详细情况,将在后文中阐述。
域数据编辑部95将一个帧存储器中存储的当前帧的域数据保持原样作为当前帧域数据PAD输出到视频数据选择部91。
域数据编辑部95还根据一个帧存储器中存储的当前帧的域数据以及运动矢量检测部108输出的运动矢量数据,生成后向补偿域数据RAD,输出到视频数据选择部91。关于后向补偿域数据RAD的详细情况,将在后文中阐述。
还有,域数据编辑部95还根据另一个帧存储器中存储的前一帧的域数据以及运动矢量检测部108输出的运动矢量数据,生成前向补偿域数据FAD,输出到视频数据选择部91。关于前向补偿域数据FAD的详细情况,将在后文中阐述。
视频数据选择部91根据域数据编辑部95输出的三个域数据PAD、RAD、FAD,从四个视频数据PVD、AVD、RVD、FVD中选择一个视频数据,输出到视频输出部110。此外,在视频数据选择部91中,对每一个像素都进行视频数据的选择。关于视频数据选择部91的视频数据选择方法的详细情况,将在后文中阐述。
(b-2)插补帧的生成方法
接着,说明运动补偿部109中的插补帧生成方法。
图3是说明插补帧的生成方法用的图。图3中,(a)表示根据合成部106输出的视频数据生成的前一帧的一部分区域(8×8像素的像素区域),(b)表示当前帧的一部分区域,图3(c)表示运动补偿部109生成的插补帧。
另外,图3(a1)是根据运动矢量数据移动前一帧(图3(a))的各像素的视频数据而生成的帧(以下,称之为前向补偿帧)。而图3(b1)是根据运动矢量数据移动当前帧(图3(b))的各像素的视频数据而生成的帧(以下,称之为后向补偿帧)。
即,前向补偿帧(图3(a1))是由图2所说明的前向补偿视频数据FVD所生成的帧,后向补偿帧(图3(b1))是由图2所说明的后向补偿视频数据RVD所生成的帧。另外,由于图3(b)是当前帧,因此就相当于由当前帧视频数据PVD所生成的帧。
此外,虽然未图示,但在平均视频数据AVD(图2)生成的帧中,各像素的亮度为前一帧(图3(a))的对应像素的亮度和当前帧(图3(b))的对应像素的亮度的平均值。
此外,在本例中,为了简化说明,运动矢量检测部108将4×4像素作为一个块而检测运动矢量。各像素的位置用XY坐标表示。
图3的例子中,在前一帧(图3(a)),利用左上块内的8个像素显示移动体A,利用2个像素显示字符C1,利用右下块内的5个像素显示字符C2。另外,在当前帧(图3(b)),利用左上块内的2个像素显示字符C1,利用右下块内的7个像素显示移动体A,利用5个像素显示字符C2。
即,在图3中,从前一帧到当前帧,由8个像素构成的移动体A从左上块移动到右下块。而且,在当前帧的右下块中,移动体A的一部分((b)所示帧的(x,y)=(6,5)的位置)被字符C2遮住。此外,设移动体A显示区域以外的像素的视频数据不发生变化。
这里,在前一帧(图3(a))和当前帧(图3(b))之间,利用运动矢量检测部108检测出左上块各像素的视频数据移动到右下块的运动矢量(X方向上+4,Y方向上+4)。
在这种情况下,通常通过移动前一帧的左上块各像素的视频数据,使其在X方向上移动+2以及在Y方向上移动+2,或者通过移动当前帧的右下块各像素的视频数据,使其在X方向上移动-2以及在Y方向上移动-2,从而生成对前一帧(图3(a))和当前帧(图3(b))进行插补的帧。
然而,图3的例子中,在前一帧和当前帧,左上块内存在字符C1,右下块内存在字符C2。因此,当移动前一帧的左上块各像素的视频数据,使其在X方向上移动+2以及在Y方向上移动+2时,前向补偿帧(图3(a1))中本来不应移动的字符C1也会随着移动体A一起移动。
另外,当移动当前帧的右下块各像素的视频数据,使其在X方向上移动-2以及在Y方向上移动-2时,后向补偿帧(图3(b1))中本来不应移动的字符C2也会随着移动体A一起移动。
因而,将图2所说明的后向补偿视频数据RVD(后向补偿帧)和前向补偿视频数据FVD(前向补偿帧)保持原样而用作为插补帧的视频数据时,本来不应移动的字符C1、C2有时会发生移动,从而使得画质变差。
因此,在本实施方式中,视频数据选择部91(图2)根据字符的显示位置,对每一个像素从四个视频数据PVD、AVD、RVD、FVD中选择一个视频数据,并输出到视频输出部110(图2)。从而,防止插补帧的画质变差。
下面,说明视频数据选择部91的视频数据选择方法。首先,利用附图,说明与字符的显示位置有关的数据、即三个域数据PAD、RAD、FAD(图2)。
图4是说明域数据PAD、RAD、FAD用的图。
在图4中,(a)是表示前一帧域数据所示的各像素状态的概念图,(b)是表示当前帧域数据所示的各像素状态的概念图。即,图4(a)概念性地表示从延迟部96(图2)输入到域数据编辑部95(图2)的域数据所示的各像素的状态,图4(b)概念性地表示从微机107(图2)输入到域数据编辑部95(图2)的域数据和当前帧域数据PAD(图2)所示的各像素的状态。
在图4(a)的例子中,域数据表示(x,y)=(2,3)、(3,3)、(6,5)、(6,6)、(7,5)、(7,6)、(7,7)的各像素显示字符,除这些像素以外的像素则不显示字符。即,本例的域数据表示由前一帧(图3(a))中的(x,y)=(2,3)、(3,3)、(6,5)、(6,6)、(7,5)、(7,6)、(7,7)的像素显示字符。
同样,在图4(b)的例子中,域数据表示(x,y)=(2,3)、(3,3)、(6,5)、(6,6)、(7,5)、(7,6)、(7,7)的各像素显示字符,除这些像素以外的像素则不显示字符。即,本例的域数据(当前帧域数据PAD)表示由当前帧(图3(b))中的(x,y)=(2,3)、(3,3)、(6,5)、(6,6)、(7,5)、(7,6)、(7,7)的像素显示字符。
另外,图4(a1)与图3(a1)相同,概念性地表示将左上块内的各像素的域数据从图4(a)所示的位置开始移动并使其在X方向上移动+2以及在Y方向上移动+2时、域数据所示的各像素的状态。
并且,图4(b1)与图3(b1)相同,概念性地表示将右下块内的各像素的域数据从图4(b)所示的位置开始移动并使其在X方向上移动-2以及在Y方向上移动-2时、域数据所示的各像素的状态。
即,图4(a1)概念性地表示根据前一帧域数据和运动矢量数据生成的前向补偿域数据FAD(图2)所示的各像素的状态,图4(b1)概念性地表示根据当前帧域数据和运动矢量数据生成的后向补偿域数据RAD(图2)所示的各像素的状态。
此外,在图4(a1)的例子中,域数据表示(x,y)=(4,5)、(5,5)的像素显示字符。即,本例的域数据(前向补偿域数据FAD)表示在前向补偿帧(图3(a1))中由(x,y)=(4,5)、(5,5)的像素显示字符。
另外,在图4(b1)的例子中,域数据表示(x,y)=(4,3)、(4,4)、(5,3)、(5,4)、(5,5)的像素显示字符。即,本例的域数据(后向补偿域数据RAD)表示在后向补偿帧(图3(b1))中由(x,y)=(4,3)、(4,4)、(5,3)、(5,4)、(5,5)的像素显示字符。
如上所述,当前帧域数据PAD(图2)指定当前帧的字符显示像素,前向补偿域数据FAD(图2)指定前向补偿帧的字符显示像素,后向补偿域数据RAD(图2)指定后向补偿帧的字符显示像素。
接着,说明视频数据选择部91的视频数据选择方法。
图5是表示视频数据选择部91进行的视频数据选择处理的流程图。此外,对每一个像素都进行图5的流程图所示的选择处理。
如图5所示,首先,视频数据选择部91判别当前帧域数据PAD是否是表示字符显示的数据(以下,称为字符显示数据)(步骤S1)。
判别为当前帧域数据PAD是字符显示数据时,视频数据选择部91选择当前帧视频数据PVD(图2),并输出到视频输出部110(图2)。
此外,在图3和图4的例子中,对于(x,y)=(2,3)、(3,3)、(6,5)、(6,6)、(7,5)、(7,6)、(7,7)的像素,判别当前帧域数据PAD是否是字符显示数据。
例如,对于(x,y)=(2,3)的像素,当前帧域数据PAD(参照图4(b))成为字符显示数据。这时,在当前帧(图3(b))中,由(x,y)=(2,3)的像素显示一部分字符C1。因此,认为在插补帧(图3(c))中,也最好是由(x,y)=(2,3)位置的像素显示一部分字符C1。
因此,在本实施方式中,视频数据选择部91选择当前帧视频数据PVD(图2),并输出到视频输出部110(图2)。即,使用当前帧(图3(b))的(x,y)=(2,3)位置的像素的视频数据,作为插补帧(图3(c))的(x,y)=(2,3)位置的像素的视频数据。从而,在插补帧中,由(x,y)=(2,3)的像素显示一部分字符C1。
当步骤S1中判别为当前帧域数据PAD不是字符显示数据时,视频数据选择部91判别后向补偿域数据RAD是否是字符显示数据(步骤S2)。
当判别为后向补偿域数据RAD是字符显示数据时,视频数据选择部91判别前向补偿域数据FAD是否是字符显示数据(步骤S3)。
当判别为前向补偿域数据FAD是字符显示数据时,视频数据选择部91选择平均视频数据AVD(图2),并输出到视频输出部110(图2)。
此外,在图3和图4的例子中,对于(x,y)=(5,5)的像素,判别为前向补偿域数据FAD为字符显示数据。
对于(x,y)=(5,5)的像素,当前帧域数据PAD(参照图4(b))不是字符显示数据。这时,由于在当前帧(图3(b))中由(x,y)=(5,5)的像素不显示字符,因此认为在插补帧(图3(c))中,由(x,y)=(5,5)的像素最好也不显示字符。
然而,前向补偿域数据FAD(参照图4(a1))和后向补偿域数据RAD(参照图4(b1))成为了字符显示数据。即,在前向补偿帧和后向补偿帧中,由(x,y)=(5,5)的像素显示字符。此外,在图3(a1)中显示一部分字符C1,在图3(b1)中显示一部分字符C2。因而,将前向补偿视频数据FVD或后向补偿视频数据RVD输出到视频输出部110时,在插补帧中,由(x,y)=(5,5)的像素显示一部分字符。
因此,在本实施方式中,视频数据选择部91选择平均视频数据AVD(图2),并输出到视频输出部110(图2)。即,将插补帧(图3(c))的(x,y)=(5,5)的像素的亮度设定为前一帧(图3(a))的(x,y)=(5,5)的像素的亮度与当前帧(图3(b))的(x,y)=(5,5)的像素的亮度的平均值。
从而,防止在插补帧中由(x,y)=(5,5)的像素显示字符的一部分,并防止画质变差。
当步骤S3中判别为前向补偿域数据FAD不是字符显示数据时,视频数据选择部91选择前向补偿视频数据FVD(图2),并输出到视频输出部110(图2)。
此外,在图3和图4的例子中,对于(x,y)=(4,3),(4,4),(5,3),(5,4)的像素,判别为前向补偿域数据FAD不是字符显示数据。
例如,对于(x,y)=(5,4)的像素,当前帧域数据PAD(参照图4(b))不是字符显示数据。这时,由于在当前帧(图3(b))中由(x,y)=(5,4)的像素不显示字符,因此认为在插补帧(图3(c))中,(x,y)=(5,4)的像素最好也不显示字符。
然而,后向补偿域数据RAD(参照图4(b1))成为了字符显示数据。即,在后向补偿帧中,由(x,y)=(5,4)的像素显示字符。此外,在图3(b1)中显示一部分字符C2。因而,将后向补偿视频数据RVD输出到视频输出部110时,在插补帧中,由(x,y)=(5,4)的像素显示一部分字符。
因此,在本实施方式中,视频数据选择部91选择前向补偿视频数据FVD(图2),并输出到视频输出部110(图2)。即,使用前向补偿帧(图3(a1))的(x,y)=(5,4)的像素的视频数据,作为插补帧(图3(c))的(x,y)=(5,4)的像素的视频数据。
从而,既可以防止插补帧中(x,y)=(5,4)的像素显示一部分字符,又能进行适当的运动补偿。
当步骤S2中判别为后向补偿域数据RAD不是字符显示数据时,视频数据选择部91判别前向补偿域数据FAD是否是字符显示数据(步骤S4)。
当判别为前向补偿域数据FAD是字符显示数据时,视频数据选择部91选择后向补偿域数据RAD(图2),并输出到视频输出部110(图2)。
此外,在图3和图4的例子中,对于(x,y)=(4,5)的像素,判别为前向补偿域数据FAD为字符显示数据。
对于(x,y)=(4,5)的像素,当前帧域数据PAD(参照图4(b))不是字符显示数据。这时,由于在当前帧(图3(b))中由(x,y)=(4,5)的像素不显示字符,因此认为在插补帧(图3(c))中,由(x,y)=(4,5)的像素最好也不显示字符。
然而,前向补偿域数据FAD(参照图4(a1))成为了字符显示数据。即,在前向补偿帧中,由(x,y)=(4,5)的像素显示字符。此外,在图3(a1)中显示一部分字符C1。因而,将前向补偿视频数据FVD输出到视频输出部110时,在插补帧中,由(x,y)=(4,5)的像素显示一部分字符。
因此,在本实施方式中,视频数据选择部91选择后向补偿视频数据RVD(图2),并输出到视频输出部110(图2)。即,使用后向补偿帧(图3(b1))的(x,y)=(4,5)的像素的视频数据,作为插补帧(图3(c))的(x,y)=(4,5)的像素的视频数据。
从而,既可以防止插补帧中(x,y)=(4,5)的像素显示一部分字符,又能进行适当的运动补偿。
当步骤S4中判别为前向补偿域数据FAD不是字符显示数据时,视频数据选择部91选择前向补偿视频数据FVD(图2),并输出到视频输出部110(图2)。
此外,在图3和图4的例子中,对于上述说明的(x,y)=(2,3)、(3,3)、(6,5)、(6,6)、(7,5)、(7,6)、(7,7)、(5,5)、(4,3)、(4,4)、(5,3)、(5,4)、(4,5)以外的像素,判别为前向补偿域数据FAD不是字符显示数据。
例如,对于(x,y)=(3,2)的像素,当前帧域数据PAD(参照图4(b))不是字符显示数据。这时,由于在当前帧(图3(b))中由(x,y)=(3,2)的像素不显示字符,因此认为在插补帧(图3(c))中,由(x,y)=(3,2)的像素最好也不显示字符。
这里,对于(x,y)=(3,2)的像素,前向补偿域数据FAD(参照图4(a1))和后向补偿域数据RAD(参照图4(b1))都不是字符显示数据。即,在前向补偿帧(图3(a1))和后向补偿帧(图3(b1))中,由(x,y)=(3,2)的像素都不显示字符。
因此,在本实施方式中,视频数据选择部91选择前向补偿视频数据FVD(图2),并输出到视频输出部110(图2)。即,使用前向补偿帧(图3(a1))的(x,y)=(3,2)的像素的视频数据,作为插补帧(图3(c))的(x,y)=(3,2)的像素的视频数据。从而,可以进行适当的运动补偿。
此外,在图5的流程图中,当步骤S4中判别为前向补偿域数据FAD不是字符显示数据时,视频数据选择部91选择了前向补偿视频数据FVD(图2),但也可以选择后向补偿视频数据RVD。
即,当步骤S4中判别为前向补偿域数据FAD不是字符显示数据时,与通常的运动补偿相同,可以利用前一帧的视频数据和运动矢量生成插补帧,也可以利用当前帧的视频数据和运动矢量生成插补帧。
(C)本实施方式的效果
如上所述,在本实施方式中,在运动补偿部109进行帧率转换处理前,在合成部106将字符数据与视频数据合成。即,在帧数(帧频)增加前,将字符数据与视频数据合成。从而,与帧率转换处理后将字符数据与视频数据合成的情况相比,可以使用数据处理速度不高的微机107合成视频数据和字符数据。因而,由于不需要设置高性能的微机107,因此可以降低电视接收机100的产品成本。另外,在本实施方式中,对于在当前帧中显示字符的区域,在插补帧中也显示字符,对于在当前帧中不显示字符的区域,在插补帧中也不显示字符。另外,对于在后向补偿帧和前向补偿帧的两者中都显示字符的区域,将该区域的亮度设定为当前帧亮度与前一帧亮度的平均值。而且,对于仅在后向补偿帧中显示字符的区域,使用前向补偿帧的视频数据,对于仅在前向补偿帧中显示字符的区域,使用后向补偿帧的视频数据。
在这种情况下,可以防止插补帧中本来不应移动的字符发生移动,并且可以防止在应显示字符的区域中显示其他视频。即,在插补帧中可以在适当的位置显示字符。
上述结果使得能够以廉价的结构实现高精度的运动补偿。
(D)其他例
在上述例子中,对视频数据编辑部92和矢量参考数据编辑部93分别设置了两个帧存储器,但也可以在运动补偿部109内对视频数据编辑部92和矢量参考数据编辑部93设置公共的两个帧存储器。
图6是表示运动补偿部109的另一个例子的框图。在图6所示的运动补偿部109中,设置有两个帧存储器97、98,以代替对视频数据编辑部92和矢量参考数据编辑部93分别设置两个帧存储器。
在图6的运动补偿部109中,将合成部106输出的视频数据输入到帧存储器97和延迟部94。延迟部94使输入的视频数据延迟一帧的量,并输出到帧存储器98。即,帧存储器97中存储当前帧的视频数据,帧存储器98中存储前一帧的视频数据。
视频数据编辑部92将帧存储器97中存储的当前帧的视频数据保持原样作为当前帧视频数据PVD而输出到视频数据选择部91,并且利用存储器97中存储的当前帧的视频数据和帧存储器98中存储的前一帧的视频数据生成平均视频数据AVD,并输出到视频数据选择部91。
矢量参考数据编辑部93根据帧存储器97中存储的当前帧的视频数据和运动矢量检测部108输出的运动矢量,生成后向补偿视频数据RVD和前向补偿视频数据FVD,并输出到视频数据选择部91。
如上所述,由于图6的运动补偿部109中设置有视频数据编辑部92和矢量参考数据编辑部93公用的两个存储器97、98,因此,不需要在视频数据编辑部92和矢量参考数据编辑部93中设置帧存储器。从而,可以降低电视接收机100的产品成本。
此外,也可以使用行存储器,来代替对图2的视频数据编辑部92、矢量参考数据编辑部93和域数据编辑部95分别设置的帧存储器、以及图6的帧存储器97、98。在这种情况下,可以进一步降低电视接收机100的产品成本。
另外,在上述例子中,对于在当前帧中不显示字符的区域,在插补帧中也不显示字符,但是对于在当前帧中不显示字符而在前一帧中显示字符的区域,在插补帧中也可以显示字符。
另外,在上述例子中,当前帧的某一像素显示字符时,使用当前帧视频数据PVD(图2)作为与该像素对应的插补帧的像素的视频数据,但也可以使用当前帧视频数据PVD作为插补帧的其他像素的视频数据。即,在当前帧中显示字符时,也可以使用当前帧视频数据PVD作为插补帧的所有像素的视频数据。
在这种情况下,在当前帧中显示字符时,不会生成基于运动矢量的插补帧。从而,确实地防止插补帧中本来不应移动的字符根据运动矢量而发生移动。其结果,在插补帧中,可以在适当的位置显示字符。
此外,在这种情况下,当微机107输出字符数据时,运动补偿部109将合成部106输出的当前帧的视频数据保持原样作为插补帧的视频数据而输出到视频输出部110。
另外,在当前帧中显示字符时,也可以使用平均视频数据AVD(图2)或前一帧视频数据作为插补帧的所有像素的视频数据。
这种情况也与上述情况相同,在当前帧中显示字符时,不会生成基于运动矢量的插补帧。从而,确实地防止插补帧中本来不应移动的字符根据运动矢量而发生移动。其结果,在插补帧中,可以在适当的位置显示字符。
此外,在这种情况下,当微机107输出字符数据时,运动补偿部109将平均视频数据AVD或前一帧的视频数据作为插补帧的视频数据而输出到视频输出部110。
另外,也可以用透过状态显示一部分字符。这时,在微机107中生成表示非透过状态的字符显示区域的域数据、和表示透过状态的字符显示区域的域数据。当域数据表示以透过状态显示字符时,在合成部106或运动补偿部109生成以预定的比率将字符数据值和视频数据值相加的数据。
(2)第二实施方式
第二实施方式的电视接收机与第一实施方式的电视接收机100的不同之处在于以下几点。
图7是表示第二实施方式的电视接收机100的结构框图。
如图7所示,在本实施方式的电视接收机100中,AV解码器104将音频数据输出到音频输出部105,将视频数据输出到合成部106和运动矢量检测部108。
微机107生成字符数据,并将生成的字符数据输出到合成部106。
微机107输出字符数据时,合成部106将字符数据与AV解码器104输出的视频数据合成。然后,将合成了字符数据的视频数据输出到运动补偿部109。
微机107未输出字符数据时,合成部106将AV解码器104输出的视频数据原样输出到运动补偿部109。
运动矢量检测部108根据AV解码器104输出的视频数据,对每一个预定的块(例如,8×8像素的像素区域)检测运动矢量,并将各像素的运动矢量数据输出到运动补偿部109。关于运动矢量的检测方法,将在后文中阐述。
运动补偿部109根据运动矢量检测部108输出的运动矢量数据,对合成部106输出的视频数据实施帧率转换处理。
如上所述,在本实施方式中,AV解码器104输出的视频数据输入到合成部106和运动矢量检测部108。因而,运动矢量检测部108根据未合成字符数据的视频数据,可以检测运动矢量。
下面,一边对在合成部106中合成了字符数据的视频数据(以下,称为合成视频数据)、与未合成字符数据的视频数据(以下,称为单纯视频数据)进行比较,一边说明运动矢量的检测方法。
图8是说明图7的运动矢量检测部108的运动矢量检测方法用的图。
图8中,(a)表示根据合成视频数据生成的前一帧的一部分区域(8×8像素的像素区域),(b)表示根据合成视频数据生成的当前帧的一部分区域。另外,(c)表示根据(a)中所示的帧的单纯视频数据、即前一帧的单纯视频数据生成的帧的一部分区域,(d)表示根据(b)中所示的帧的单纯视频数据、即当前帧的单纯视频数据生成的帧的一部分区域。
此外,在本例中,为了简化说明,运动矢量检测部108也将4×4像素作为一个块而检测运动矢量。另外,图8(a)与图3(a)相等,图8(b)与图3(b)相等。
这里,如上所述,在本实施方式中,向运动矢量检测部108(图7)输入单纯视频数据。因而,在电视接收机100的画面上显示图8(a)和图8(b)所示的帧时,运动矢量检测部108根据单纯视频数据(图8(c)和图8(d)所示的帧的数据)检测运动矢量。
图8的例子中,运动矢量检测部108(图7)根据图8(c)和图8(d)所示的移动体A的运动,可以检测出左上块各像素的视频数据移动到右下块的运动矢量(X方向上+4,Y方向上+4)。
如上所述,在本实施方式中,在运动补偿部109进行帧率转换处理前,在合成部106将字符数据与视频数据合成。即,在帧数增加前,将字符数据与视频数据合成。从而,与帧率转换处理后将字符数据与视频数据合成的情况相比,可以使用数据处理速度不高的微机107合成视频数据和字符数据。因而,由于不需要设置高性能的微机107,因此可以降低电视接收机100的产品成本。
另外,运动矢量检测部108还根据未合成字符数据的视频数据检测运动矢量。即,可以不考虑字符而检测运动矢量。从而,对于本来被字符遮住的区域(图8中,(b)所示帧的(x,y)=(6,5)的位置)中存在的视频部分,也可以在前一帧与当前帧之间进行正确匹配。其结果,能够在前一帧与当前帧之间以高精度检测运动矢量。
因而,即使是对合成了字符数据的视频数据实施帧率转换处理的情况,也可以在前一帧与当前帧之间进行正确匹配。
上述结果使得能够以廉价的结构实现高精度的运动补偿。
根据本实施方式,例如即使当前帧(图8(b))的右下块内的所有像素都显示字符,对于移动体A(图8),也可以在前一帧(图8(a))与当前帧(图8(b))之间进行正确匹配。
(2-1)第二实施方式的其他例
图9是表示第二实施方式的电视接收机的另一个例子的结构框图。
在图9的电视接收机100中,与图1的电视接收机100相同,微机107生成域数据,并将生成的域数据输出到运动补偿部109。
运动补偿部109还根据运动矢量检测部108输出的运动矢量数据和微机107输出的域数据,对合成部106输出的视频数据实施帧率转换处理。
在这种情况下,运动补偿部109根据域数据,对于当前帧或前一帧中显示字符的区域,可以不使用运动矢量数据而生成插补帧的数据。从而,可以防止字符显示区域周边的视频模糊。其结果,可以实现更高精度的运动补偿。
(3)第三实施方式
第三实施方式的电视接收机与第一实施方式的电视接收机100(图1和图7)的不同之处在于以下几点。此外,第三实施方式的电视接收机的结构与图9的电视接收机100的相同。
如图9所示,在第三实施方式的电视接收机100中,AV解码器104将音频数据输出到音频输出部105,将视频数据输出到合成部106和运动矢量检测部108。
微机107输出字符数据时,合成部106将字符数据与AV解码器104输出的视频数据合成。然后,将合成了字符数据的视频数据输出到运动补偿部109。
微机107未输出字符数据时,合成部106将AV解码器104输出的视频数据原样输出到运动补偿部109。
运动矢量检测部108根据AV解码器104输出的视频数据,对每一个预定的块(例如,8×8像素的像素区域)检测运动矢量,并将各像素的运动矢量数据输出到运动补偿部109。此外,运动矢量检测部108的运动矢量检测方法与第二实施方式中所说明的方法(参照图8)相同。
运动补偿部109根据运动矢量检测部106输出的运动矢量数据和微机108输出的域数据,对合成部107输出的视频数据实施帧率转换处理。此外,在帧率转换处理中,运动补偿部109进行与图2~图5所说明的处理相同的处理。
如上所述,本实施方式的电视接收机100具有将第一和第二实施方式的电视接收机100的结构组合的结构。
即,在运动补偿部109进行帧率转换处理前,在合成部106中将字符数据与视频数据合成。即,在帧数增加前,将字符数据与视频数据合成。从而,与帧率转换处理后将字符数据与视频数据合成的情况相比,可以使用数据处理速度不高的微机107合成视频数据和字符数据。因而,由于不需要设置高性能的微机107,因此可以降低电视接收机100的产品成本。
另外,对于在当前帧中显示字符的区域,在插补帧中也显示字符,对于在当前帧中不显示字符的区域,在插补帧中也不显示字符。另外,对于在后向补偿帧和前向补偿帧的两者中都显示字符的区域,将该区域的亮度设定为当前帧亮度与前一帧亮度的平均值。而且,对于仅在后向补偿帧中显示字符的区域,使用前向补偿帧的视频数据,对于仅在前向补偿帧中显示字符的区域,使用后向补偿帧的视频数据。
在这种情况下,可以防止插补帧中本来不应移动的字符发生移动,并且可以防止在应显示字符的区域中显示其他视频。即,在插补帧中可以在适当的位置显示字符。
另外,运动矢量检测部108还根据未合成字符数据的视频数据检测运动矢量。即,可以不考虑字符而检测运动矢量。从而,对于本来被字符遮住的区域中存在的视频部分,也可以在前一帧与当前帧之间进行正确匹配。其结果,能够在前一帧与当前帧之间以高精度检测运动矢量。
因而,即使是对合成了字符数据的视频数据实施帧率转换处理的情况,也可以在前一帧与当前帧之间进行正确匹配。
上述结果使得能够以廉价的结构实现更高精度的运动补偿。
(4)第四实施方式
第四实施方式的电视接收机与第一实施方式的电视接收机100的不同之处在于以下几点。
图10是表示第四实施方式的电视接收机的运动补偿部109的主要部分的结构框图。
如图10所示,在本实施方式中,运动补偿部109包括:视频数据选择部91;视频数据编辑部92;矢量参考数据编辑部93;延迟部94;以及域数据合成部99。
在本实施方式中,从合成部106输出的视频数据以及从微机107输出的域数据输入到域数据合成部99。
运动矢量检测部108输出的运动矢量数据输入到矢量参考数据编辑部93。
域数据合成部99将微机107输出的域数据与合成部106输出的视频数据合成。域数据合成部99还将合成了域数据的视频数据输出到视频图像编辑部92的一个帧存储器、矢量参考数据编辑部93的一个帧存储器、以及延迟部94。
延迟部94使输入的视频数据延迟一帧的量,并输出到视频图像编辑部92的另一个帧存储器和矢量参考数据编辑部93的另一个帧存储器。
这里,在本实施方式中,如上所述,在域数据合成部99中将域数据与视频数据合成。因而,从视频数据编辑部92一并输出当前帧视频数据PVD(参照图2)和当前帧域数据PAD(参照图2)。
另外,在矢量参考数据编辑部93中,对合成了域数据的视频数据进行运动补偿。因而,从矢量参考数据编辑部93一并输出后向补偿视频数据RVD(参照图2)和后向补偿域数据RAD(参照图2),一并输出前向补偿视频数据FVD(参照图2)和前向补偿域数据FAD(参照图2)。
视频数据选择部91根据上述三个域数据PAD、RAD、FAD,利用与图5所说明的方法相同的方法,从四个视频数据PVD、AVD、RVD、FVD中选择一个视频数据,并输出到视频输出部110(参照图2)。
如上所述,在本实施方式中,在域数据合成部99将域数据与视频数据合成。在这种情况下,可以在矢量参考数据编辑部93中生成后向补偿域数据RAD和前向补偿域数据FAD。
因而,不需要设置域数据编辑部95和延迟部96。从而,可以简化电视接收机的结构,并且可以降低产品成本。
(5)第五实施方式
第五实施方式的电视接收机与第三实施方式的电视接收机100(图9)的不同之处在于以下几点。此外,在第五实施方式中,说明在显示面板上显示两个画面的状态(例如,如图15和图16所示的那样显示主画面1002和子画面1003的状态)下进行帧率转换处理的情况。下面,一边参照图15和图16,一边说明本实施方式的电视接收机100。
图11是表示第五实施方式的电视接收机100的结构框图。
如图11所示,本实施方式的电视接收机100包括:选台部101a;解调部102a;TS解码器103a;以及AV解码器104a,这些部分具有与图9的选台部101、解调部102、TS解码器103、以及AV解码器104相同的结构。
从天线901输入到选台部101a的广播信号,通过解调部102a和TS解码器103a,作为音频流和视频流输入到AV解码器104a。
AV解码器104a对输入的音频流和视频流进行解码,生成音频数据和视频数据。AV解码器104a还将生成的音频数据输出到音频输出部105,将视频数据输出到合成部106。
音频输出部105选择AV解码器104输出的音频数据和AV解码器104a输出的音频数据中的某一个,作为音频进行输出。
合成部106将AV解码器104a输出的视频数据与AV解码器104输出的视频数据合成,并将合成的视频数据输出到运动补偿部109。
此外,当在合成部106中合成的视频数据显示于显示面板上时,例如图15和图16所示,基于AV解码器104输出的视频数据的视频显示于显示面板1001的整个面上作为主画面1002,基于AV解码器104a输出的视频数据的视频显示于主画面1002上的一部分区域作为子画面1003。
微机107生成域数据,并将生成的域数据输出到运动补偿部109。此外,在微机107中生成的域数据是表示子画面1003显示区域的信息,对于每一个像素,表示该像素是否是显示一部分子画面1003的像素。
运动补偿部109根据运动矢量检测部108输出的运动矢量数据和微机107输出的域数据,对合成部106输出的视频数据实施帧率转换处理。此外,在帧率转换处理中,运动补偿部109进行与图2~图5所说明的处理相同的处理。
如上所述,在本实施方式中,运动矢量检测部108根据AV解码器104输出的视频数据检测运动矢量。从而,对于主画面1002中被子画面1003遮住的区域中存在的视频部分,也可以在前一帧与当前帧之间进行正确匹配。其结果,在主画面1002中,能够在前一帧与当前帧之间以高精度检测运动矢量。
另外,在本实施方式中,对于主画面1002的在当前帧中显示子画面1003的区域,在插补帧中也显示子画面。另外,对于主画面1002的在后向补偿帧和前向补偿帧的两者中都显示子画面1003的像素的亮度,将其设定为主画面1002的当前帧亮度与前一帧亮度的平均值。而且,对于主画面1002的仅在后向补偿帧中显示子画面1003的像素,使用前向补偿帧的视频数据,对于仅在前向补偿帧中显示子画面1003的像素,使用后向补偿帧的视频数据。
在这种情况下,可以防止主画面1002上本来不应移动的子画面1003发生移动,并且可以防止在应显示子画面1003的区域中显示主画面1002的视频。即,在插补帧中可以在适当的位置显示子画面1003。
上述结果使得可以实现高精度的运动补偿,并且能够稳定地提供高画质视频。
此外,在上述例子中,运动矢量检测部108对AV解码器104输出的视频数据检测运动矢量,但也可以另外设置其它运动矢量检测部,对AV解码器104a输出的视频数据检测其运动矢量。在这种情况下,由于对子画面1003中显示的视频也可以进行运动补偿,因此能够进一步实现高画质视频。
(6)第六实施方式
第六实施方式的电视接收机与第五实施方式的电视接收机100(图11)的不同之处在于以下几点。
图12是表示第六实施方式的电视接收机100的结构框图。
如图12所示,在本实施方式的电视接收机100中,运动矢量检测部108根据合成部106输出的视频数据检测运动矢量。
运动补偿部109根据运动矢量检测部108输出的运动矢量数据和微机107输出的域数据,对合成部106输出的视频数据实施帧率转换处理。此外,在帧率转换处理中,运动补偿部109进行与图2~图5所说明的处理相同的处理。
这时,对于在当前帧中显示子画面1003(参照图15)的区域,在插补帧中也显示子画面1003,对于在当前帧中不显示子画面1003的区域,在插补帧中也不显示子画面1003。另外,对于在后向补偿帧和前向补偿帧的两者中都显示子画面1003的区域,将该区域的亮度设定为当前帧亮度与前一帧亮度的平均值。而且,对于仅在后向补偿帧中显示子画面1003的区域,使用前向补偿帧的视频数据,对于仅在前向补偿帧中显示子画面1003的区域,使用后向补偿帧的视频数据。
因而,可以防止插补帧中本来不应移动的子画面1003发生移动,并且可以防止在应显示子画面1003的区域中显示其他视频。即,在插补帧中可以在适当的位置显示子画面1003。
上述结果使得能够以廉价的结构实现高精度的运动补偿。
此外,域数据也可以表示包含子画面1003的轮廓线的一部分区域(例如,子画面1003的外框部分)。这时,对子画面1003内除去上述一部分区域以外的区域,与主画面1002内的视频相同地进行通常的运动补偿。从而,既可以防止本来不应移动的、主画面1002与子画面1003的边界部分发生移动,又能实现高精度的运动补偿。
(7)第七实施方式
第七实施方式的电视接收机与第三实施方式的电视接收机100(图9)的不同之处在于以下几点。
图13是表示第七实施方式的电视接收机100的结构框图。
如图13所示,本实施方式的电视接收机100还包括视频修正部111。在本实施方式中,微机107将域数据输出到运动补偿部109和视频修正部111。另外,运动补偿部109将帧率转换处理后的视频数据输出到视频修正部111。
视频修正部111对运动补偿部109输出的视频数据实施视频修正处理,并将视频修正处理后的视频数据输出到视频输出部110。
具体而言,视频修正部111对各帧的视频中、由域数据所指定的字符显示区域以外的区域的视频,实施视频修正处理。因而,例如在当前帧中显示字符时,在当前帧和插补帧中,仅对字符以外的视频进行视频修正。
此外,视频修正部111具有图2所示的域数据编辑部95和延迟部96,可以生成当前帧域数据PAD(图2)、后向补偿域数据RAD(图2)、以及前向补偿域数据FAD(图2)。视频修正部111还可以根据这些域数据,指定各帧的字符显示区域。
这样,在本实施方式中,仅对运动补偿部109输出的视频数据中除字符数据以外的视频数据实施修正处理。在这种情况下,对具有字符显示区域的帧进行视频修正时,可以防止修正后的除字符以外的视频中反映字符的视频要素(亮度和色彩等)。从而,可以防止本来应修正的视频(字符以外的视频)的画质降低。
另外,由于未对字符进行视频修正,因此防止了在视频修正后的帧的字符中反映字符以外的视频的视频要素。从而,可以防止字符的画质降低。
上述结果使得能够确实地防止各帧视频的画质降低。
下面,举例详细说明在视频修正部111中进行的视频修正。
图14是表示视频修正部111的一个例子的框图。
如图14所示,视频修正部111包括:第一修正部11;第二修正部12;以及特征量提取部13。
从运动补偿部109输出的视频数据输入到第一修正部11和特征量提取部13。另外,从微机107输出的域数据输入到第一修正部11、第二修正部12、以及特征量提取部13。
此外,虽然未图示,但图14所示的视频修正部111具有域数据编辑部95(图2)和延迟部96(图2)。另外,将当前帧域数据PAD(图2)、后向补偿域数据RAD(图2)、以及前向补偿域数据FAD(图2)中的某一个作为域数据而输入到第一修正部11、第二修正部12、以及特征量提取部13。
特征量提取部13提取出由运动补偿部109输出的视频数据所生成的各帧视频的特征量(例如,亮度以及色彩的分布)。具体而言,特征量提取部13对各帧的视频中、由域数据所指定的字符显示区域以外的区域的视频,提取特征量。因而,例如在当前帧中显示字符时,在当前帧和插补帧中,仅对字符以外的视频提取特征量。特征量提取部13将提取出的各帧视频的特征量提供给第一修正部11。
第一修正部11根据特征量提取部13提供的特征量,对由运动补偿部109输出的视频数据所生成的各帧视频进行对比度修正和亮度修正。具体而言,第一修正部11对各帧的视频中、由域数据所指定的字符显示区域以外的区域的视频,进行对比度修正和亮度修正。因而,例如在当前帧中显示字符时,在当前帧和插补帧中,仅对字符以外的视频进行对比度修正和亮度修正。第一修正部11将修正后的视频数据输出到第二修正部12。
第二修正部12对由第一修正部11输出的视频数据所生成的各帧视频进行锐度修正。具体而言,第二修正部12对各帧的视频中、由域数据所指定的字符数据显示区域以外的区域的视频,进行锐度修正。因而,例如在当前帧中显示字符时,在当前帧和插补帧中,仅对字符以外的视频进行锐度修正。第二修正部12将修正后的视频数据输出到视频输出部110。
如上所述,在本例的视频修正部111中,由于仅对字符以外的视频提取特征量,因此能够适当地提取本来应修正的视频(字符以外的视频)的特征量。从而,在第一修正部11中,可以对本来应修正的视频进行适当的对比度修正和亮度修正。
另外,在第一和第二修正部11、12中,仅对字符以外的视频实施修正处理。从而,对具有字符显示区域的帧进行视频修正时,可以防止修正后的除字符以外的视频中反映字符的视频要素。其结果,能够确实地防止本来应修正的视频的画质降低。
此外,在上述例子中,在第一修正部11进行对比度修正和亮度修正,在第二修正部12进行锐度修正,但也可以在第一修正部11和第二修正部12进行色彩修正等其它视频修正。
另外,在上述例子中,在视频修正部111未对字符进行视频修正,但也可以通过使字符的视频修正率低于字符以外视频的视频修正率,从而进行字符的视频修正。在这种情况下,可以降低视频修正时所提取出的字符的视频要素的比例。从而,可以防止本来应修正的视频的画质降低。
另外,也可以将上述视频修正部111应用于图1、图7、图11和图12的电视接收机100。在这种情况下,由于对除去字符、子画面1003(图15)、或子画面1003的外框部分以外的区域的视频进行修正,因此,防止了在视频修正后的各帧视频中反映字符、子画面1003或子画面1003的外框部分的视频要素。其结果,可以防止本来应修正的视频(除字符以外的区域的视频)的画质降低。
(8)其他实施方式
在上述实施方式中,根据微机107生成的域数据进行帧率转换处理,但域数据也可以不由微机107生成。
例如,当广播电台发送来的广播信号中预先含有字符数据时,或广播电台发送的广播信号中预先含有多个画面的视频数据时等情况下,域数据也可以包含在广播电台发送的广播信号中。在这种情况下,运动补偿部109可以根据广播信号中包含的域数据而进行帧率转换处理。从而,由于不需要设置生成域数据用的微机107,因此可以降低电视接收机100的产品成本。
此外,当广播电台发送的广播信号预先包含多个画面的视频数据时,域数据也可以表示包含子画面1003(参照图15)的轮廓线的一部分区域(例如,子画面1003的外框部分)。这时,对子画面1003内的除去上述一部分区域以外的区域,与主画面1002内的视频相同地进行通常的运动补偿。从而,既可以防止本来不应移动的、主画面1002与子画面1003的边界部分发生移动,又能实现高精度的运动补偿。其结果,能够稳定地提供高画质视频。
另外,在上述实施方式中,说明了接收数字广播信号的电视接收机100,但电视接收机100也可以是接收模拟广播信号的结构。
另外,在上述实施方式中,说明了视频处理装置是电视接收机的情况,但视频处理装置也可以是便携式电话、车载电视机、汽车导航仪、PDA(PersonalDigitalAssistance:个人数字助理)等移动接收机。
另外,视频处理装置也可以是具有DVD(Digital Versatile Disk:数字化通用光盘)再现装置、DVD存储再现装置、硬盘存储再现装置、机顶盒(STB:Set TopBox)、或数字调谐器的个人计算机等。在这种情况下,音频输出部105具有音频输出端子,而没有音频输出装置,视频输出部110具有视频输出端子,而没有视频显示装置。音频输出端子和视频输出端子与电视接收机的音频输入端子和视频输入端子连接。或者,音频输出端子和视频输出端子与显示面板的音频输入端子和视频输入端子连接。
另外,在上述实施方式中,说明了以OSD形式提示频道号等字符的情况、以及在显示面板上显示多个画面的情况,但对于提示字幕等其它字符的情况、或在画面的一部分区域中提示电子节目指南(EPG:ElectricProgramGuide)的情况等,也能发挥同样的效果。在这些情况下,运动补偿部109只要根据表示字幕等显示区域的域数据或表示电子节目指南显示区域的域数据进行帧率转换处理即可。
(9)各部分的实现方法
上述实施方式的电视接收机100的所有构成要素可以通过电子电路等硬件实现,或者也可以利用CPU(中央处理器)等硬件和程序等软件来实现一部分构成要素。
(10)权利要求的各构成要素与实施方式的各要素的对应
下面,说明权利要求的各构成要素与实施方式的各要素对应的例子,但本发明并不限于下述例子。
在上述实施方式中,从AV解码器104输出的视频数据是第一数据的例子,字符数据或从AV解码器104a输出的视频数据是第二数据的例子,合成部106是合成数据生成部的例子,运动补偿部109是插补数据生成部的例子,前向补偿视频数据FVD是第一预测帧数据的例子,后向补偿视频数据RVD是第二预测帧数据的例子,平均视频数据AVD是第三预测帧数据的例子,前向补偿域数据FAD是第一预测域数据的例子,后向补偿域数据RAD是第二预测域数据的例子,域数据编辑部95是预测域数据生成部的例子。
作为权利要求的各构成要素,也可以采用具有权利要求中所述的结构或功能的其它多种要素。
工业上的实用性
本发明能够有效地应用于电视接收机、个人计算机、DVD记录器等。

Claims (22)

1.一种视频处理装置,是处理合成数据的视频处理装置,所述合成数据是将用于显示第一视频的第一数据和用于显示第二视频的第二数据合成的数据,所述第二视频显示于所述第一视频之上,其特征在于,包括:
从多帧的合成数据中检测出运动矢量的运动矢量检测部;以及插补数据生成部,该插补数据生成部根据所述多帧的合成数据和所述运动矢量检测部检测出的运动矢量,生成对两帧进行插补的插补帧的插补数据,
在所述两帧的至少一帧中显示所述第二视频时,所述插补数据生成部不使用所述运动矢量检测部检测出的运动矢量,而生成所述插补帧中与所述第二视频显示区域的至少外周边部对应的区域的插补数据。
2.如权利要求1所述的视频处理装置,其特征在于,在所述两帧的至少一帧中显示所述第二视频时,所述插补数据生成部不使用所述运动矢量检测部检测出的运动矢量,而生成所述插补帧的全部区域的插补数据。
3.如权利要求1所述的视频处理装置,其特征在于,在所述两帧的至少一帧中显示所述第二视频时,所述插补数据生成部生成所述第二数据,作为所述插补帧中与所述第二视频显示区域的至少外周边部对应的区域的插补数据。
4.如权利要求1所述的视频处理装置,其特征在于,所述插补数据生成部根据各帧中表示第二视频显示区域的域数据,决定所述至少与外周边部对应的区域。
5.如权利要求1所述的视频处理装置,其特征在于,所述插补数据生成部根据所述两帧中在时间轴上为前后帧的合成数据、以及所述运动矢量检测部检测出的运动矢量,分别生成第一和第二预测帧的数据,
当所述第一预测帧中的所述至少外周边部区域和所述第二预测帧中的所述至少外周边部区域不同时,在插补帧中,作为所述第一和第二预测帧的一个预测帧中的所述至少与外周边部对应的区域的插补数据,是选择另一个预测帧的对应区域的数据。
6.如权利要求5所述的视频处理装置,其特征在于,所述插补数据生成部通过利用所述前后帧的合成数据进行运算,从而还生成第三预测帧的数据,
当所述第一预测帧中的所述至少外周边部区域和所述第二预测帧中的所述至少外周边部区域相等时,在插补帧中,作为所述第一和第二预测帧中的所述至少与外周边部对应的区域的插补数据,是选择所述第三预测帧的对应区域的数据。
7.如权利要求5所述的视频处理装置,其特征在于,还具有预测域数据生成部,所述预测域数据生成部根据所述前一帧中表示第二视频显示区域的域数据和所述运动矢量检测部检测出的运动矢量,生成所述第一预测帧中表示所述第二视频显示区域的第一预测域数据,并且根据所述后一帧中表示第二视频显示区域的域数据和所述运动矢量检测部检测出的运动矢量,生成所述第二预测帧中表示所述第二视频显示区域的第二预测域数据,所述插补数据生成部根据所述预测域数据生成部生成的第一和第二预测域数据,生成插补数据。
8.如权利要求1所述的视频处理装置,其特征在于,所述第二数据是屏显用的数据,所述至少外周边部区域包括所述屏显用的全部区域。
9.一种视频处理装置,是处理用于显示第一视频的第一数据和用于显示第二视频的第二数据的视频处理装置,其特征在于,包括:
合成数据生成部,所述合成数据生成部通过合成所述第一数据与所述第二数据,生成在所述第一视频上显示所述第二视频的多帧的合成数据;
从多帧的第一数据中检测出运动矢量的运动矢量检测部;以及
插补数据生成部,所述插补数据生成部根据所述合成数据生成部生成的多帧的合成数据和所述运动矢量检测部检测出的运动矢量,生成对两帧进行插补的插补帧的插补数据。
10.如权利要求9所述的视频处理装置,其特征在于,在所述两帧的至少一帧中显示所述第二视频时,所述插补数据生成部不使用所述运动矢量检测部检测出的运动矢量,而生成所述插补帧中与所述第二视频显示区域对应的区域的插补数据。
11.如权利要求9所述的视频处理装置,其特征在于,在所述两帧的至少一帧中显示所述第二视频时,所述插补数据生成部不使用所述运动矢量检测部检测出的运动矢量,而生成所述插补帧的全部区域的插补数据。
12.如权利要求9所述的视频处理装置,其特征在于,在所述两帧的至少一帧中显示所述第二视频时,所述插补数据生成部生成所述第二数据,作为所述插补帧中与所述第二视频显示区域对应的区域的插补数据。
13.如权利要求10所述的视频处理装置,其特征在于,所述插补数据生成部根据各帧中表示第二视频显示区域的域数据,决定与所述第二视频显示区域对应的区域。
14.如权利要求9所述的视频处理装置,其特征在于,所述插补数据生成部根据所述两帧中在时间轴上为前后帧的合成数据、以及所述运动矢量检测部检测出的运动矢量,分别生成第一和第二预测帧的数据,当所述第一预测帧中的所述第二视频显示区域和所述第二预测帧中的所述第二视频显示区域不同时,在插补帧中,作为所述第一和第二预测帧的一个预测帧中与所述第二视频显示区域对应的区域的插补数据,是选择另一个预测帧的对应区域的数据。
15.如权利要求14所述的视频处理装置,其特征在于,所述插补数据生成部通过利用所述前后帧的合成数据进行运算,从而还生成第三预测帧的数据,当所述第一预测帧中的所述第二视频显示区域和所述第二预测帧中的所述第二视频显示区域相等时,在插补帧中,作为所述第一和第二预测帧中与所述第二视频显示区域对应的区域的插补数据,是选择所述第三预测帧的对应区域的数据。
16.如权利要求14所述的视频处理装置,其特征在于,还具有预测域数据生成部,所述预测域数据生成部根据所述前一帧中表示第二视频显示区域的域数据和所述运动矢量检测部检测出的运动矢量,生成所述第一预测帧中表示所述第二视频显示区域的第一预测域数据,并且根据所述后一帧中表示第二视频显示区域的域数据和所述运动矢量检测部检测出的运动矢量,生成所述第二预测帧中表示所述第二视频显示区域的第二预测域数据,所述插补数据生成部根据所述预测域数据生成部生成的第一和第二预测域数据,生成插补数据。
17.如权利要求9所述的视频处理装置,其特征在于,所述第二数据是屏显用的数据。
18.一种视频处理装置,是处理合成数据的视频处理装置,所述合成数据是将用于显示第一视频的第一数据和用于显示第二视频的第二数据合成的数据,所述第二视频显示于所述第一视频之上,其特征在于,包括:插补数据生成部,所述插补数据生成部根据多帧的合成数据,生成对两帧进行插补的插补帧的插补数据;以及对所述多帧和所述插补帧进行视频修正的视频修正部,在所述多帧和所述插补帧的显示所述第二视频的帧中,所述视频修正部不对所述第二视频进行视频修正,或者设定所述第二视频的视频修正率,使其低于所述第一视频的视频修正率。
19.如权利要求18所述的视频处理装置,其特征在于,所述视频修正部在显示所述第二视频的帧中,不使用所述第二数据而进行视频修正。
20.如权利要求18所述的视频处理装置,其特征在于,所述视频修正部根据所述合成数据和所述插补数据,提取出所述多帧和所述插补帧的特征量,并根据所提取出的特征量对所述多帧和所述插补帧进行视频修正,在显示所述第二视频的帧中不使用所述第二数据而提取出所述特征量。
21.一种视频处理方法,是处理合成数据的视频处理方法,所述合成数据是将用于显示第一视频的第一数据和用于显示第二视频的第二数据合成的数据,所述第二视频显示于所述第一视频之上,其特征在于,包括:从多帧的合成数据中检测出运动矢量的步骤;以及根据所述多帧的合成数据和所述运动矢量、生成对两帧进行插补的插补帧的插补数据的步骤,在生成所述插补数据的步骤中,当在所述两帧的至少一帧中显示所述第二视频时,不使用所述运动矢量检测部检测出的运动矢量,而生成所述插补帧中与所述第二视频显示区域的至少外周边部对应的区域的插补数据。
22.一种视频处理方法,是处理用于显示第一视频的第一数据和用于显示第二视频的第二数据的视频处理方法,其特征在于,包括:通过合成所述第一数据与所述第二数据、生成在所述第一视频上显示所述第二视频的多帧的合成数据的步骤;从多帧的第一数据中检测出运动矢量的步骤;以及根据所述多帧的合成数据和所述运动矢量、生成对两帧进行插补的插补帧的插补数据的步骤。
CN2007800332931A 2006-09-15 2007-09-12 视频处理装置及视频处理方法 Expired - Fee Related CN101513051B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006251627 2006-09-15
JP251627/2006 2006-09-15
PCT/JP2007/067748 WO2008032744A1 (fr) 2006-09-15 2007-09-12 Dispositif de traitement vidéo et procédé de traitement vidéo

Publications (2)

Publication Number Publication Date
CN101513051A true CN101513051A (zh) 2009-08-19
CN101513051B CN101513051B (zh) 2012-09-12

Family

ID=39183800

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007800332931A Expired - Fee Related CN101513051B (zh) 2006-09-15 2007-09-12 视频处理装置及视频处理方法

Country Status (5)

Country Link
US (1) US8432495B2 (zh)
EP (1) EP2063636B1 (zh)
JP (1) JP4878628B2 (zh)
CN (1) CN101513051B (zh)
WO (1) WO2008032744A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112075079A (zh) * 2018-03-30 2020-12-11 株式会社尼康 视频压缩装置、电子设备、以及视频压缩程序

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5077037B2 (ja) * 2008-04-15 2012-11-21 株式会社Jvcケンウッド 画像処理装置
JP2011023902A (ja) * 2009-07-14 2011-02-03 Sony Corp 画像処理装置および画像処理方法
JP5574830B2 (ja) * 2010-06-03 2014-08-20 三菱電機株式会社 画像処理装置及び方法、並びに画像表示装置及び方法
JP2013031195A (ja) * 2012-08-29 2013-02-07 Jvc Kenwood Corp 画像処理装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4779131A (en) * 1985-07-26 1988-10-18 Sony Corporation Apparatus for detecting television image movement
JPH0783469B2 (ja) 1985-07-26 1995-09-06 ソニー株式会社 動きベクトル検出装置
JPH0779459B2 (ja) 1986-01-28 1995-08-23 ソニー株式会社 動き補正装置
GB2231750B (en) * 1989-04-27 1993-09-29 Sony Corp Motion dependent video signal processing
JPH0447785A (ja) 1990-06-14 1992-02-17 Sony Corp テレビジョン受像機
GB9013642D0 (en) 1990-06-19 1990-08-08 British Broadcasting Corp Video signal processing
GB2248361B (en) 1990-09-28 1994-06-01 Sony Broadcast & Communication Motion dependent video signal processing
US5191416A (en) * 1991-01-04 1993-03-02 The Post Group Inc. Video signal processing system
US5929919A (en) * 1994-04-05 1999-07-27 U.S. Philips Corporation Motion-compensated field rate conversion
JPH08149421A (ja) * 1994-11-22 1996-06-07 Oki Electric Ind Co Ltd 動きベクトルを用いた動き内挿方法および動き内挿回路
JPH09214899A (ja) 1996-01-31 1997-08-15 Nippon Hoso Kyokai <Nhk> 画像予測処理方法および装置
WO1999022520A2 (en) 1997-10-29 1999-05-06 Koninklijke Philips Electronics N.V. Motion vector estimation and detection of covered/uncovered image parts
US6975324B1 (en) * 1999-11-09 2005-12-13 Broadcom Corporation Video and graphics system with a video transport processor
CN1381025A (zh) * 2000-05-18 2002-11-20 皇家菲利浦电子有限公司 前景/背景检测装置
JP2003533800A (ja) * 2000-05-18 2003-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Mcアップコンバージョンにおけるハローを低減する動き推定器
EP1404130A1 (en) 2002-09-24 2004-03-31 Matsushita Electric Industrial Co., Ltd. Method and apparatus for processing a video signal mixed with an additional image signal
KR100563866B1 (ko) 2003-05-19 2006-03-23 매크로영상기술(주) 영상 신호의 디인터레이스 방법 및 장치
CN1853416B (zh) * 2003-09-17 2010-06-16 Nxp股份有限公司 运动矢量场的再定时
JP2005217971A (ja) * 2004-01-30 2005-08-11 Toshiba Corp オンスクリーン重畳装置
EP1585326A1 (en) 2004-03-30 2005-10-12 Matsushita Electric Industrial Co., Ltd. Motion vector estimation at image borders for frame rate conversion
EP1583364A1 (en) 2004-03-30 2005-10-05 Matsushita Electric Industrial Co., Ltd. Motion compensated interpolation of images at image borders for frame rate conversion
WO2006013510A1 (en) 2004-07-29 2006-02-09 Koninklijke Philips Electronics N.V. De-interlacing
JP4396496B2 (ja) 2004-12-02 2010-01-13 株式会社日立製作所 フレームレート変換装置、及び映像表示装置、並びにフレームレート変換方法
JP4489033B2 (ja) * 2005-03-25 2010-06-23 三洋電機株式会社 フレームレート変換装置、パン・チルト判定装置および映像装置
EP1931141A4 (en) 2005-09-30 2010-11-03 Sharp Kk IMAGE DISPLAY DEVICE AND METHOD
EP1950964A4 (en) * 2005-11-07 2012-05-16 Sharp Kk IMAGE DISPLAY DEVICE AND METHOD
WO2007063465A2 (en) 2005-11-30 2007-06-07 Nxp B.V. Motion vector field correction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112075079A (zh) * 2018-03-30 2020-12-11 株式会社尼康 视频压缩装置、电子设备、以及视频压缩程序

Also Published As

Publication number Publication date
EP2063636B1 (en) 2012-12-12
EP2063636A1 (en) 2009-05-27
US20090303392A1 (en) 2009-12-10
WO2008032744A1 (fr) 2008-03-20
JP4878628B2 (ja) 2012-02-15
US8432495B2 (en) 2013-04-30
EP2063636A4 (en) 2010-05-05
JPWO2008032744A1 (ja) 2010-01-28
CN101513051B (zh) 2012-09-12

Similar Documents

Publication Publication Date Title
JP4536402B2 (ja) 映像再生装置、映像再生方法及びその方法をコンピュータに実行させるためのプログラム
US8482480B2 (en) Multi display system and multi display method
US8243195B2 (en) Cadence detection in a sequence of video fields
CN101998083B (zh) 影像处理装置
KR101334295B1 (ko) 공유 메모리 멀티 비디오 채널 디스플레이 장치 및 방법
US8629939B1 (en) Television ticker overlay
US20090059074A1 (en) Display apparatus
CN101513051B (zh) 视频处理装置及视频处理方法
US5953075A (en) Video signal processing apparatus with means for magnifying and processing a picture image correspondingly to video signals
KR0140674B1 (ko) 영상신호처리장치 및 처리방법
CN101448108A (zh) 图像处理装置与相关方法
US7599609B2 (en) Method for recording service data depending on service type in digital TV complex machine
US7649567B2 (en) Format conversion apparatus, format conversion method, and image display apparatus and image display method using the format conversion apparatus
US8013935B2 (en) Picture processing circuit and picture processing method
CN101018306A (zh) 具有多重显示功能的影像处理与输出装置
US7710435B2 (en) Method and apparatus for generating visual effects
US6392672B1 (en) Adding method for ordered sorting of a group of windows on a display
CN101998082B (zh) 影像处理装置
US5087974A (en) Image processing with horizontal blanking width correction
KR20080099206A (ko) 화상 처리 시스템, 화상 처리 방법, 및 프로그램
CN1833256A (zh) 图形重叠检测
US20070253489A1 (en) Image processing circuit and method
RU123276U1 (ru) Устройство обработки изображений на основе технологии pixp (pix picture)
US20080253691A1 (en) Image processing apparatus, image processing method, and program
JP2006311061A (ja) 走査線変換回路

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120912

Termination date: 20180912