CN104219475A - 视频处理方法、视频显示方法以及视频处理装置 - Google Patents

视频处理方法、视频显示方法以及视频处理装置 Download PDF

Info

Publication number
CN104219475A
CN104219475A CN201410143572.5A CN201410143572A CN104219475A CN 104219475 A CN104219475 A CN 104219475A CN 201410143572 A CN201410143572 A CN 201410143572A CN 104219475 A CN104219475 A CN 104219475A
Authority
CN
China
Prior art keywords
frame
local
local frame
synthesising
per
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410143572.5A
Other languages
English (en)
Other versions
CN104219475B (zh
Inventor
范哲龙
吴彩凤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RUIZHI TECHNOLOGY CO LTD
Original Assignee
RUIZHI TECHNOLOGY CO LTD
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RUIZHI TECHNOLOGY CO LTD filed Critical RUIZHI TECHNOLOGY CO LTD
Publication of CN104219475A publication Critical patent/CN104219475A/zh
Application granted granted Critical
Publication of CN104219475B publication Critical patent/CN104219475B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

本揭露提供一种视频处理方法、视频显示方法以及视频处理装置。视频处理装置用以执行视频处理方法及视频显示方法。视频处理方法包含依据全域帧率,接收视框。依据第一局部帧率判断是否依据视框擷取第一局部框,其中第一局部帧率相异于全域帧率。合成第一局部框及视框为合成框。本视频处理方法、视频显示方法及视频处理装置可以产生具有较好画面品质和较低的文件使用容量的影像数据。

Description

视频处理方法、视频显示方法以及视频处理装置
技术领域
本揭露是关于一种视频(video)的处理方法、显示方法及其装置,特别是一种合成框的处理方法、显示方法及其处理装置。
背景技术
在现今科技越来越进步的社会底下,生活上各方面的计算机产品都有非常长足的进步。而这股发展的风气对于车上装置也是影响甚巨,所以对于车上装置的发展近年来也是非常的蓬勃。也因此有许多对于民众的行车安全和行车方便的科技产品也都一一的被各家厂商所发展出来。
其中行车纪录器即是一种近年来出现的车上装置,专门提供在开车时的影像纪录档。可以借着行车纪录器的影像纪录档,来厘清意外或是任何不可预测事件发生的原因或责任归属。因此行车纪录器已经是许多人开车时不可或缺的装置之一。
然而行车纪录器的画质和可纪录的容量一直都是大家努力想要改进的目标,不管是将录像的画质提高或是将可以纪录的容量提高和纪录的时间延长等。传统上有人提出以分辨率更高的方式来应用在行车纪录器的录像上,但是此种方式存在有因为录像的分辨率高,所以行车纪录器的影像纪录档也相对比较庞大和录像时间缩短的问题。分辨率太低又有储存的录像文件的画面品质模糊,可能会无法在一些关键时刻中清楚的看到使用者想看清楚的画面片段。
又另外有人提出以更高的压缩比率来储存行车纪录器纪录的影像纪录档。但是此种方式则是存在有因为压缩比率过高,因此让储存的影像纪录档的画面品质降低的问题。另一方面如果将画面的压缩比率调低,则是会有录像的文件容量比较大而降低录像时间的问题。
因此如何找出一套方法和搭配的一套装置,可以在画质和纪录的文件之间取得平衡。使得行车纪录器录像的画面品质不但可以让使用者清楚观看画面中发生的事情,录像的文件容量也不至于因为过大导致可以录像的时间下降。是现今在行车纪录器越来越多人使用的社会下所必须要面对和解决的问题。
发明内容
有鉴于以上的问题,本揭露提出一种合成框的视频处理方法、视频显示方法及视频处理装置,来帮助使用者可以得到画质清楚的视频文件以及适当大小的文件容量。避免为了画质清楚而牺牲录像时间,或是为了录像时间而牺牲了画质。
根据本揭露一实施例中的视频处理方法包括有依据一全域帧率,接收一视框。依据一第一局部帧率判断是否依据视框撷取一第一局部框,其中第一局部帧率相异于全域帧率。合成第一局部框及视框为一合成框。
其中依据第一局部帧率判断是否依据视框撷取第一局部框的判断结果为是时,依据第一局部框的一第一局部范围于视框撷取对应的影像数据为第一局部框。而其中依据第一局部帧率判断是否依据视框撷取第一局部框的判断结果为否时,则维持第一局部框。
根据本揭露一实施例,其中第一局部范围为小于或等于视框的一全域范围。而该合成第一局部框及视框的步骤为依据第一局部范围及全域范围合成合成框。
在合成第一局部框及视框的步骤之前另包含依据一第二局部帧率判断是否依据视框撷取一第二局部框。其中前述判断是否依据视框撷取第二局部框的结果为是时,依据第二局部框的一第二局部范围撷取对应的影像数据为第二局部框。且合成合成框的步骤为合成第一局部框、第二局部框及视框为合成框。
根据本揭露一实施例的视频显示方法包含依全域帧率,接收视框,视框具有一全域范围。依全域帧率,显示合成框。其中前述的合成框包含有第一局部框,第一局部框具有第一局部帧率及第一局部范围。第一局部帧率为相异于全域帧率,合成框为依据第一局部范围及全域范围合成合成框。
前述中依全域帧率显示合成框的步骤包含有,依据第一局部帧率判断是否依据视框撷取第一局部框。合成第一局部框及视框为合成框。以及显示合成框。其中依据第一局部帧率判断是否撷取第一局部框的判断结果为是时,依据第一局部范围于视框撷取对应的影像数据为第一局部框。而合成第一局部框即视框的步骤为依据第一局部范围及全域范围合成合成框。
而根据本揭露一实施例中依据第一局部范围及视框的范围合成合成框另包含下列步骤。依据第二局部帧率判断是否依据视框撷取第二局部框。其中判断是否依据视框撷取第二局部框的结果为是时,依据第二局部框的第二局部范围于视框撷取对应的影像数据为第二局部框。而前述的合成步骤为合成第一局部框、第二局部框及视框为合成框。
根据本揭露一实施例的一种视频处理装置包含有一视频撷取器,用以撷取视框。一处理器,用以依据第一局部帧率以及合成视框与第一局部框为合成框。一缓存器,用以从处理器接收并储存对应第一局部框的影像数据。以及一显示器,用以显示合成框。
其中前述处理器依据第一局部帧率判断是否撷取第一局部框的判断结果为是时,依据第一局部范围于视框撷取对应的影像数据为第一局部框,并将对应的影像数据储存到缓存器中。其中在处理器合成第一局部框及视框为合成框为从缓存器中取出对应第一局部框的影像数据与视框合成为合成框。
以上的关于本揭露内容的说明及以下的实施方式的说明为用以示范与解释本发明的精神与原理,并且提供本发明的专利申请范围更进一步的解释。
附图说明
图1,为根据本揭露一实施例的视频处理装置;
图2,为根据本揭露一实施例的视频处理方法的流程图;
图3,为根据本揭露另一实施例的视频处理方法的流程图;
图4,为根据本揭露一实施例的范例图;
图5,为本揭露一实施例的视频显示方法的流程图;
图6,为本揭露另一实施例的视频显示方法的流程图;
图7,为本揭露另一实施例的视频显示方法的流程图;
图8,为根据本揭露一实施例的范例图。
其中,附图标记:
300  第一局部框
310  第二局部框
320  视框
330  时间线
340  影像结构
600  第一局部框
610  第二局部框
620  第三局部框
630  视框
640  时间线
650  影像结构
具体实施方式
以下在实施方式中详细叙述本发明的详细特征以及优点,其内容足以使任何熟习相关技艺者了解本发明的技术内容并据以实施,且根据本说明书所揭露的内容、申请专利范围及图式,任何熟悉本领域的技术人员可轻易地理解本发明相关的目的及优点。以下的实施例进一步详细说明本发明的观点,但非以任何观点限制本发明的范畴。
鉴于习知技术已存在的问题,本揭露提出一种视频处理方法、视频显示方法及视频处理装置。其中视频处理装置可以为一网络监控系统(Webcam)或是一行车纪录器(Event Data Recorder,EDC)等,或是任何具有如前述可以执行本揭露所提出的视频处理方法和视频显示方法的装置。且视频处理装置也可以应用于办公室、马路或是各种广场作为监视或是观察用途。
请参考图1,其为根据本揭露一实施例的视频处理装置。其中视频处理装置100包含有一视频擷取器110、一处理器120、一缓存器130、一显示器140、及一储存器150。其中根据本揭露一实施例中,视频撷取器110、缓存器130、显示器140以及储存器150分别与处理器120相耦接。
视频撷取器110可以用以撷取一视框(Frame),其中前述的视频撷取器110可以为一网络监控系统(Webcam)或是一光学摄影机(Optical Camera)、或其他可以擷取视频的元件。视框为视频擷取器110所擷取到的全屏幕影像数据。而视频擷取器110则可以每秒撷取30张视框或是每秒撷取60张视框等,但并不以此为限。此处所述的每秒撷取30张视框即为撷取视框的全域帧率。
处理器120则用以依据第一局部帧率(Local Frame Rate)判断是否依据视框撷取一第一局部框(First Local Frame)、以及用以合成视框与第一局部框为一合成框。而包括第一局部框及其他局部框于全屏幕影像数据中的位置,可由使用者预先定义,亦可由系统内部进行预设,更可于撷取时再行设定。其中局部帧率的单位可以为fps(Frames Per Second,FPS)。譬如可以为30fps,即代表每秒撷取30张的影像数据但并不以此为限,且各个局部帧率可由使用者预先定义,亦可由系统内部进行预设,更可于撷取时再行设定。其中处理器120则可以为一中央处理器(Central Processing Unit,CPU)或是一图形处理器(Graphics Processing Unit,GPU)等组件,且拥有越高速的图形处理和运算能力的处理器120可以减少处理和运算的时间。
缓存器130用以从处理器120接收并储存对应第一局部框的影像数据。其中缓存器130则可以为一同步动态随机存取内存(Synchronous DynamicRandom Access Memory,SDRAM)或是一电子抹除式可复写只读内存(Electrically Erasable Programmable Read Only Memory,EEEPROM)等元件。其中体积越小和存取速度越快的缓存器130可以帮助影像处理装置100缩小体积和提升影像处理装置100的效率,但并不以此为限。
显示器140用以显示合成框。显示器140则可以为一触控面板(TouchControlled Panel)或是液晶面板显示器(Liquid Crystal Panel Display)等元件。其中有较高影像画质的显示器140可以为使用者呈现较为精细的画面品质,但显示器140并不以此为限。
储存器150用以储存处理器120以合成框进行整合之后的录像文件。储存器150则可以为一快闪存储卡(Flash Memory Card)或是一固态硬盘(SolidState Disk,SSD)等。其中拥有更大容量和防震能力越好的储存器150可以为视频处理装置100储存时间更长和更多笔的影像数据,以及因为抗震性能而拥有更高的耐用度。但储存器150并不以此为限。
而根据本揭露一实施例,处理器120可以执行一视频处理方法。请参考图2,其为根据本揭露一实施例的视频处理方法的流程图。其中视频处理方法可以包含下列步骤:依据一全域帧率(Global Frame Rate),接收视框(步骤S200);依据第一局部帧率判断是否撷取第一局部框,其中第一局部帧率相异于全域帧率(步骤S210),其中依据第一局部帧率判断是否撷取第一局部框的判断结果为是时,依据第一局部框的一第一局部范围于视框撷取对应的影像数据为第一局部框(步骤S220);而当依据第一局部帧率判断是否撷取第一局部框的判断结果为否时,维持第一局部框(步骤S230);以及合成第一局部框及视框为合成框(步骤S240)。
在步骤S200中,视频撷取器110会依照处理器120中设定的全域帧率来接收视框。其中视框为视频撷取器110所可以撷取的全屏幕画面,而全域帧率则是决定视频撷取器110所需要撷取的视框张数。全域帧率譬如可以是30fps,即代表视频撷取器每一秒需要撷取30张视框的画面数据。全域帧率的数值越高,则画面会越平滑且会越顺畅,且全域帧率更可由使用者依据系统及硬盘状态进行预先设定。
而在步骤S210中,视频撷取器110会根据处理器120中设定的局部帧率来决定是否要撷取第一局部框的影像数据。其中局部框为在视框中选择一感兴趣区域(Region Of Interest,ROI),各个局部框的位置可由使用者预先定义,亦可由系统内部进行预设,更可于撷取时再行设定。请参考图4,其为根据本揭露一实施例的范例图。其中在图4中的第一局部框300和第二局部框310即为第一局部框和第二局部框,而视框320为视框。而局部帧率(Local Rate)即为局部框的帧率。而前述的局部帧率与全域帧率的设定不相同,局部帧率可以高于全域帧率也可以低于全域帧率,且各个局部帧率可由使用者预先定义,亦可由系统内部进行预设,更可于撷取时再行设定。其中前述第一局部框具有第一局部范围,而第一局部范围为小于或等于视框的全域范围。
接着当步骤S210的判断结果为是时,执行步骤S220。在步骤S220中处理器120会依据第一局部框的第一局部范围令视频撷取器110撷取第一局部范围内的影像数据做为第一局部框,并将第一局部框的影像数据储存于缓存器130中。而当步骤S210的判断结果为否时,则是执行步骤S230。在步骤S230中,处理器120并不会令视频撷取器110撷取第一局部范围内的影像数据,因此处理器120会维持第一局部框在缓存器130中的影像数据。
最后,在步骤S240中,合成第一局部框及视框为一合成框,为依据第一局部范围及全域范围合成此合成框。其中处理器120从缓存器130中取出第一局部框的影像数据并与视框的影像数据合成为合成框。处理器120合成完合成框之后,可以选择将合成框传送给显示器140来显示并储存于储存器150中。
接着请参考图3,其为根据本揭露另一实施例的视频处理方法的流程图。其中在合成第一局部框及视框为合成框的步骤S240之前还包含下列步骤;依据一第二局部帧率判断是否依据视框撷取一第二局部框(S250),其中第二局部帧率相异于全域帧率;依据第二局部帧率判断是否依据视框撷取第二局部框的结果为是时,依据一第二局部范围于视框撷取对应的影像数据为第二局部框(S260);依据第二局部帧率判断是否依据视框撷取第二局部框的结果为否时,维持第二局部框(S270);以及合成第一局部框、第二局部框及视框为一合成框(S242)。
其中步骤S250、步骤S260以及步骤S270,分别与步骤S210、步骤S220以及步骤S230的处理方法大致相同。因此不再赘述。其中本揭露所提出的视频处理方法中,并无限定局部框的数量和局部框的范围大小及位置,而局部框的数量和局部框的范围大小及位置皆可由使用者依据各种情况进行设定。第一局部框以及第二局部框更可设定为相同或皆不相同的影像画质,以不同的影像画质进行视频的撷取。如此一来,可针对欲清楚撷取视频的区域,使用较高影像画质的局部框。另一方面,由于较低的影像画质,所需的储存空间也相对的较低。因此,针对第一局部框及第二局部框在不同的影像画质的设定上,可进一步依据储存空间进行设定。经由依据储存空间进行设定不同的影像画质设定,可节省储存空间或充分利用储存空间。而影像画质的设定方式例如以国际通用压缩标准,如视频编码标准(H.264)、动态影像专家群组4(Moving PictureExpert Group,MPEG-4)及联合图像专家小组(Joint Photographic Expert Group,JPEG)等所制定的量化参数(Quantization)改变影像画质。
最后在图3的步骤S242中,合成第一局部框、第二局部框及视框为一合成框为依据第一局部范围、第二局部范围及全域范围合成的合成框。其中处理器120会从缓存器130中取出第一局部框的影像数据和第二局部框的影像数据并与视框的影像数据合成为合成框。合成时处理器120依照视框、第一局部框以及第二局部框的顺序放入对应的影像数据。而步骤S242可以为S240的一个详细实施方式。其中在本揭露的实施例中,使用者可以依照需求自行增减局部框的数量。于本实施例中,为说明方便故以第一局部框以及第二局部框进行说明,但实际的情况并不以两个局部框为限,更可以多个局部框进行操作。
请参照图4,其为根据本揭露一实施例的范例图。在图4中包含有第一局部框300、第二局部框310、视框320、时间线330及影像结构340。
举例来说,视框320的全域帧率譬如可以为每秒撷取三十次、第一局部框300的第一局部帧率譬如为每秒撷取十五次以及第二局部框310的第二局部帧率譬如为每秒撷取十次。以下举例依照时间线330来详述本揭露的视频处理方法。其中,第一局部范围为图式中第一局部框300的虚线范围之内,第二局部范围为第二局部框310的虚线范围之内。于此实施例中,第一局部框300及第二局部框310皆以长方形进行呈现。然而,于真实情况中,第一局部框300及第二局部框310亦可以任意不规则的形状呈现,以符合实际的情况。而视框320的全域范围为整个影像撷取的范围,皆为视频撷取器110在撷取视框320的影像数据时所需要撷取的范围,而影像结构340为说明影像数据由多张图片组合而成,其中每一张图片为依据时间线330的视频撷图。于此实施例中,影像结构340以1/30秒为分割基准。影像结构340其中的每一个撷图,以代表每个1/30秒的画面,但并不以1/30秒为限。
首先,在一开始录像时视频撷取器110会同时撷取第一局部框300、第二局部框310以及视框320三种框的影像数据,接着视频撷取器110便会将第一局部框300、第二局部框310以及视框320的影像数据传送给处理器120。处理器120接收到第一局部框300、第二局部框310以及视框320的影像数据后,会将第一局部框300、第二局部框310以及视框320的影像数据存放到缓存器130。接着处理器120将第一局部框300、第二局部框310以及视框320的影像数据合成为初始的合成框。
接着在第1/30秒时,为影像结构340中的下一个视频撷图。因为第一局部框300的第一局部帧率设定为每秒撷取十五次,第二局部框310的第二局部帧率设定为每秒撷取十次。此时不符合步骤S210和步骤S250中的判断条件,所以视频撷取器110并不会撷取第一局部框300和第二局部框310在第1/30秒时的影像数据。而视框320的全域帧率设定为每秒撷取三十次,因此视频撷取器110会撷取视框320在第1/30秒时的影像数据。视频撷取器110并将视框320在第1/30秒时的影像数据传送给处理器120。
处理器120在接收到视框320第1/30秒的影像数据时,处理器120会将缓存器130中视框320在开始录像的初始影像数据删除。接着处理器120储存将视框320在第1/30秒的影像数据到缓存器130中。之后处理器120会从缓存器130中取出第一局部框300和第二局部框310在开始录像时的初始影像数据与视框320在第1/30秒的影像数据做合成,成为第1/30秒的合成框。
接着时间线前进至第2/30秒时,为影像结构340中的再下一个视频撷图。此时符合步骤S210中的判断条件,因此视频撷取器110撷取第一局部框300在第2/30秒时的影像数据。同时因为第2/30秒也符合视框320的全域帧率,因此视频撷取器110也会撷取视框320在第2/30秒时的影像数据。接着视频撷取器110传送第一局部框300和视框320在第2/30秒时的影像数据给处理器120。而针对第二局部框310此时并不符合步骤S250的判断,所以并不会将影像数据给处理器120。
处理器120接收到第一局部框300以及视框320在第2/30秒时的影像数据时,会删除缓存器130中的第一局部框300在初始时的影像数据以及视框320在第1/30秒时的影像数据。处理器120并且会存入第一局部框300和视框320在第2/30秒时的影像数据到缓存器130中。接着处理器120会将第一局部框300以及视框320在第2/30秒时的影像数据,与从缓存器130中取出的第二局部框310在第1/30秒時的影像数据,合成为第2/30秒的合成框。
时间线在第3/30秒时,为影像结构340中的第三个视频撷图。此时符合步骤S250中的判断条件。因此视频撷取器110撷取第二局部框310在第3/30秒时的影像数据。同时因为也符合视框320的全域帧率,因此视频撷取器110也会撷取视框320在第3/30秒时的影像数据。接着视频撷取器110传送第二局部框310和视框320在第3/30秒时的影像数据给处理器120。
处理器120接收到第二局部框310和视框320在第3/30秒时的影像数据时,会删除缓存器130中的第二局部框310在初始时的影像数据以及视框320在第2/30秒时的影像数据。处理器120并且会存入第二局部框310以及视框320在第3/30秒时的影像数据。接着处理器120会将第二局部框310以及视框320在第3/30秒时的影像数据,与从缓存器130中取出的第一局部框在第2/30秒时的影像数据,合成为第3/30秒的合成框。于本实施例中,为说明方便故以第一局部框以及第二局部框310进行说明,但实际的情况并不以两个局部框为限,更可以多个局部框进行操作。而第一局部框300以及第二局部框更可设定为相同或皆不相同的影像画质,以不同的影像画质进行视频的撷取。如此一来,可针对欲清楚撷取视频的区域,使用较高影像画质的局部框。另一方面,由于较低的影像画质,所需的储存空间也相对的较低。因此,针对第一局部框300及第二局部框310在不同的影像画质的设定上,可进一步依据储存空间进行设定。经由依据储存空间进行设定不同的影像画质设定,可节省储存空间或充分利用储存空间。而影像画质的设定方式为例如以国际通用压缩标准,如视频编码标准(H.264)、动态影像专家群组4(Moving Picture Expert Group,MPEG-4)及联合图像专家小组(Joint Photographic Expert Group,JPEG)等所制定的量化参数(Quantization)改变影像画质。
若视频撷取器110的储存空间有限,以目前的影像画质只能进行短时间的撷取。视频撷取器110将降低影像画质,以期进行更长时间的撷取。由于第一局部框300为用以记录道路状况,而第二局部框310用以记录车内情况。视频撷取器110将较为重要的第一局部框300维持目前画质,而降低第二局部框310的画质。如此一来,可节省耗费的储存空间,以其进行长时间的撷取。
根据本揭露一实施例中,处理器120也可以执行一种视频显示方法。请参考图5,其为本揭露一实施例的视频显示方法的流程图。其中视频显示方法包含有下列步骤。依全域帧率,接收视框,视框具有全域范围(S400);以及依全域帧率,显示合成框(S500)。其中合成框包含第一局部框,第一局部框具有第一局部帧率及第一局部范围,第一局部帧率为相异于全域帧率,合成框为依据第一局部范围及全域范围合成合成框。
举例来说,请参考图4,其中视频撷取器110会依照第一局部框300的第一局部帧率和第一局部范围、第二局部框310的第二局部帧率和第二局部范围以及视框320的全域帧率和全域范围撷取第一局部框300、第二局部框310以及视框320的影像数据。接着处理器120便会将第一局部框300、第二局部框310以及视框320的影像数据合成为合成框,并传送给显示器140显示合成框。
接着请继续参考图6,其为本揭露另一实施例的视频显示方法的流程图。其中依全域帧率显示合成框的步骤S500可以包含有下列步骤。
依据第一局部帧率判断是否依据视框撷取第一局部框(S510);当依据第一局部帧率判断是否依据视框撷取第一局部框的结果为是时,依据第一局部范围于视框撷取对应的影像数据为第一局部框(S520);当依据第一局部帧率判断是否依据视框撷取第一局部框的结果为否时,维持第一局部框(S530);合成第一局部框及视框为合成框(S540);以及显示合成框(S550)。其中合成第一局部框及视框的步骤为依据第一局部范围及全域范围合成合成框。
其中步骤S510、步骤S520、步骤S530以及步骤S540与图2中步骤S210、步骤S220、步骤S230以及步骤S240的处理方法大致相同,便不再赘述。而在步骤S550中,处理器120会将合成完的合成框传送给显示器140显示以及传送给储存器150储存。其中处理器120也可以不将合成框储存在储存器150而直接传送给显示器140显示。
请继续接着参考图7,其为本揭露另一实施例的视频显示方法的流程图。其中在合成第一局部框及视框为合成框的步骤S540中可以包含下列步骤。依据第二局部帧率判断是否依据视框撷取第二局部框(S542);当依据第二局部帧率判断是否依据视框撷取第二局部框的结果为是时,依据第二局部范围于视框撷取对应的影像数据为第二局部框(S544);当依据第二局部帧率判断是否依据视框撷取第二局部框的结果为否时,维持第二局部框(S546);以及合成第一局部框、第二局部框及视框为合成框(S548)。
在图7中的步骤S542、步骤S544以及步骤S546与图3中步骤S250、步骤S260以及步骤S270的处理方法大致相同,遂不再一一赘述。其中在步骤S548中合成第一局部框、第二局部框及视框为一合成框为依据第一局部范围、第二局部范围及全域范围合成合成框,其中处理器120会从缓存器130中取出第一局部框的影像数据并与第二局部框的影像数据和视框的影像数据合成为合成框。
处理器120合成完合成框之后,可以选择将合成框传送给显示器140来显示并储存于储存器150中。或是处理器也可以选择将合成框直接储存于储存器150中,而不传送给显示器140显示。其中在本揭露的实施例中,使用者可以依照需求自行增减局部框的数量。
请参照图8,其为根据本揭露一实施例的范例图。在图8中包含有第一局部框600、第二局部框610、第三局部框620、视框630、时间线640以及影像结构650。于此实施例中,第一局部框600、第二局部框610及第三局部框620皆以梯形进行呈现。然而,于真实情况中,第一局部框600、第二局部框610及第三局部框620亦可以任意不规则的形状呈现,以符合实际的情况。举例来说,视框630的全域帧率譬如可以为每秒撷取三十次、第一局部框600的第一局部帧率和第三局部框620的第三局部帧率譬如为每秒撷取十次。以及第二局部框610的第二局部帧率譬如为每秒撷取十五次。以下举例依照时间线来详述本揭露的视频处理方法,唯时间线640及影像结构650中部分的步骤与视频处理方法的图4范例符合。遂不再一一赘述,仅针对视频显示方法的部分作详细的描述。而影像结构650为说明影像数据为由多张图片组合而成,其中每一张图片为依据时间线640的视频撷图。于此实施例中,影像结构340以1/30秒为分割基准。影像结构650其中的每一个撷图,为以代表每个1/30秒的画面,但并不以1/30秒为限。
首先在刚开始录像时处理器120接收视频撷取器110撷取的第一局部框600、第二局部框610、第三局部框620以及视框630的影像数据之后,视频撷取器110会将第一局部框600、第二局部框610、第三局部框620以及视框620的影像数据暂存在缓存器130中。
接着处理器120将第一局部框600、第二局部框610、第三局部框620以及视框630的影像数据合成为初始的合成框。之后处理器120会依照设定将合成框传送到显示器140或是储存器150。显示器140可以直接显示从处理器120接收的第一秒的合成框给使用者观看。而储存器150则是将接收的第一秒的合成框储存起来,并且可以让使用者自行决定什么时候要观看储存的影像数据。
接着在时间线的第1/30秒、第2/30秒、第3/30秒以及在之后的秒数中,即为影像结构650中每隔1/30秒的视频撷图。处理器120皆会依照视频处理方法以及视频显示方法来合成出合成框。接着处理器120则会依照设定传送第1/30秒的合成框、第2/30秒的合成框、第3/30秒的合成框以及之后的秒数的合成框给显示器140显示或是将前述的合成框储存到储存器150。于本实施例中,为说明方便故以第一局部框、第二局部框以及第三局部框进行说明,但实际的情况并不以两个局部框为限,更可以多个局部框进行操作。而第一局部框、第二局部框及第三局部框更可设定不同的影像画质,以不同的影像画质进行视频的撷取。如此一来,可针对欲清楚撷取视频的区域,使用较高影像画质的局部框。
综合以上所述,使用者可以透过使用本揭露中的视频处理方法、视频显示方法以及视频处理装置使得在局部框的局部范围内的影像数据可以显示得清楚且不模糊。并且不会为了取得较高品质的画质而导致储存的影像数据容量过于庞大,而牺牲了可以录像的时间。因此透过本揭露的视频处理方法、视频显示方法以及视频处理装置相较于传统的装置可以储存更长时间且画质清楚的的影像数据。
另一方面,使用者也可以自行依照需求调整局部框数量的多寡以及局部框的形状大小位置与撷取频率,亦可因应环境情况调整局部框的影像画质。保留高度弹性的设定空间,同时可以增加使用者的方便性。因此本揭露所提出的视频处理方法、视频显示方法以及视频显示装置可以让使用者依据不同的状况来调整局部框的数量和局部框的范围,增加使用者在使用上的弹性和易用性。

Claims (17)

1.一种视频处理方法,其特征在于,包含:
依据一全域帧率,接收一视框;
依据一第一局部帧率判断是否依据该视框撷取一第一局部框,其中该第一局部帧率相异于该全域帧率;以
合成该第一局部框及该视框为一合成框。
2.根据权利要求1所述的视频处理方法,其特征在于,该依据该第一局部帧率判断是否撷取该第一局部框的判断结果为是时,依据该第一局部框的一第一局部范围于该视框撷取对应的影像数据为该第一局部框。
3.根据权利要求2所述的视频处理方法,其特征在于,该第一局部范围为小于或等于该视框的一全域范围。
4.根据权利要求3所述的视频处理方法,其特征在于,该合成该第一局部框及该视框的步骤为依据该第一局部范围及该全域范围合成该合成框。
5.根据权利要求1所述的视频处理方法,其特征在于,该依据该第一局部帧率判断是否撷取该第一局部框的判断结果为否时,则维持该第一局部框。
6.根据权利要求1所述的视频处理方法,其特征在于,在该合成该第一局部框及该视框的步骤之前另包含依据一第二局部帧率判断是否依据该视框撷取一第二局部框,其中判断是否依据该视框撷取该第二局部框的结果为是时,依据该第二局部框的一第二局部范围于该视框撷取对应的影像数据为该第二局部框,其中判断是否依据该视框撷取该第二局部框的结果为否时,则维持该第二局部框,而该合成步骤为合成该第一局部框、该第二局部框及该视框为该合成框。
7.一种视频显示方法,其特征在于,包含:
依一全域帧率,接收一视框,该视框具有一全域范围;以及
依该全域帧率,显示一合成框,其中该合成框包含一第一局部框,该第一局部框具有一第一局部帧率及一第一局部范围,该第一局部帧率相异于该全域帧率,该合成框为依据该第一局部范围及该全域范围合成该合成框。
8.根据权利要求7所述的视频显示方法,其特征在于,该依该全域帧率显示该合成框的步骤包含:
依据该第一局部帧率判断是否依据该视框撷取该第一局部框;
合成该第一局部框及该视框为该合成框;以及
显示该合成框。
9.根据权利要求8所述的视频显示方法,其特征在于,该依据该第一局部帧率判断是否撷取该第一局部框的判断结果为是时,依据该第一局部范围于该视框撷取对应的影像数据为该第一局部框。
10.根据权利要求9所述的视频显示方法,其特征在于,该依据该第一局部帧率判断是否撷取该第一局部框的判断结果为否时,则维持该第一局部框。
11.根据权利要求7所述的视频显示方法,其特征在于,合成该第一局部框及该视框的步骤为依据该第一局部范围及该全域范围合成该合成框。
12.根据权利要求7所述的视频显示方法,其特征在于,依据该第一局部范围及该视框的该范围合成该合成框另包含:
依据一第二局部帧率判断是否依据该视框撷取一第二局部框,其中判断是否依据该视框撷取该第二局部框的结果为是时,依据该第二局部框的一第二局部范围于该视框撷取对应的影像数据为该第二局部框,其中判断是否依据该视框撷取该第二局部框的结果为否时,则维持该第二局部框,而该合成步骤为合成该第一局部框、该第二局部框及该视框为该合成框。
13.一种视频处理装置,其特征在于,包含:
一视频擷取器,用以擷取一视框;
一处理器,用以依据一第一局部帧率判断是否依据该视框撷取一第一局部框以及合成该视框与该第一局部框为一合成框;
一缓存器,用以从该处理器接收并储存对应该第一局部框的影像数据;以及
一显示器,用以显示該合成框。
14.根据权利要求13所述的视频处理装置,其特征在于,该处理器依据该第一局部帧率判断是否撷取该第一局部框的判断结果为是时,依据一第一局部范围于该视框撷取对应的影像数据为该第一局部框,并将对应的影像数据储存到该缓存器中。
15.根据权利要求14所述的视频处理装置,其特征在于,该处理器依据该第一局部帧率判断是否撷取该第一局部框的判断结果为否时,则维持该第一局部框。
16.根据权利要求15所述的视频处理装置,其特征在于,在该处理器合成该第一局部框及该视框为该合成框为从该缓存器中取出对应该第一局部框的影像数据与该视框合成为该合成框。
17.根据权利要求13所述的视频处理装置,其特征在于,该处理器在合成该视框与该第一局部框为该合成框时,该处理器另依据一第二局部帧率判断是否依据该视框撷取一第二局部框,其中该处理器判断是否依据该视框撷取该第二局部框的结果为是时,该处理器依据该第二局部框的一第二局部范围于该视框撷取对应的影像数据为该第二局部框,其中该处理器判断是否依据该视框撷取该第二局部框的结果为否时,则维持该第二局部框,该处理器合成该第一局部框、该第二局部框及该视框为该合成框。
CN201410143572.5A 2013-05-31 2014-04-10 视频处理方法、视频显示方法以及视频处理装置 Active CN104219475B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW102119512 2013-05-31
TW102119512A TWI504240B (zh) 2013-05-31 2013-05-31 視訊處理方法、視訊顯示方法以及視訊處理裝置

Publications (2)

Publication Number Publication Date
CN104219475A true CN104219475A (zh) 2014-12-17
CN104219475B CN104219475B (zh) 2017-10-10

Family

ID=51984696

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410143572.5A Active CN104219475B (zh) 2013-05-31 2014-04-10 视频处理方法、视频显示方法以及视频处理装置

Country Status (3)

Country Link
US (1) US9654725B2 (zh)
CN (1) CN104219475B (zh)
TW (1) TWI504240B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108174273A (zh) * 2017-12-29 2018-06-15 北京安云世纪科技有限公司 基于数据合成实现分层控制的方法、系统以及移动终端

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170013083A (ko) * 2015-07-27 2017-02-06 엘지전자 주식회사 이동단말기 및 그 제어방법
EP3468187A1 (en) 2017-10-03 2019-04-10 Axis AB Method and system for encoding video streams
KR20210013477A (ko) * 2019-07-26 2021-02-04 삼성디스플레이 주식회사 다중 주파수 구동을 수행하는 표시 장치
CN113903105B (zh) * 2021-09-30 2023-11-03 杭州海康汽车软件有限公司 一种视频循环存储方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060115124A1 (en) * 2004-06-15 2006-06-01 Matsushita Electric Industrial Co., Ltd. Monitoring system and vehicle surrounding monitoring system
CN101711686A (zh) * 2008-10-07 2010-05-26 深圳迈瑞生物医疗电子股份有限公司 一种实时空间复合成像方法和系统、及其超声成像系统
CN101739675A (zh) * 2009-12-11 2010-06-16 重庆邮电大学 无形变图像配准合成方法和装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6909836B2 (en) * 2001-02-07 2005-06-21 Autodesk Canada Inc. Multi-rate real-time players
US7321624B1 (en) 2001-03-16 2008-01-22 Objectvideo, Inc. Bit-rate allocation system for object-based video encoding
JP4090764B2 (ja) * 2002-03-18 2008-05-28 パイオニア株式会社 映像信号処理装置
JP2004080327A (ja) * 2002-08-16 2004-03-11 Sony Corp 画像処理装置および画像処理方法、記録媒体、並びにプログラム
JP3812563B2 (ja) * 2002-12-09 2006-08-23 カシオ計算機株式会社 画像処理装置及びプログラム
US9667980B2 (en) 2005-03-01 2017-05-30 Qualcomm Incorporated Content-adaptive background skipping for region-of-interest video coding
US8693537B2 (en) 2005-03-01 2014-04-08 Qualcomm Incorporated Region-of-interest coding with background skipping for video telephony
WO2012069879A1 (en) 2010-11-25 2012-05-31 Freescale Semiconductor, Inc. Method for bit rate control within a scalable video coding system and system therefor
TW201251449A (en) * 2011-06-14 2012-12-16 Amtran Technology Co Ltd Camera system and image capture and synthesis method thereof
JP2014096757A (ja) * 2012-11-12 2014-05-22 Sony Corp 画像処理装置および画像処理方法、並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060115124A1 (en) * 2004-06-15 2006-06-01 Matsushita Electric Industrial Co., Ltd. Monitoring system and vehicle surrounding monitoring system
CN101711686A (zh) * 2008-10-07 2010-05-26 深圳迈瑞生物医疗电子股份有限公司 一种实时空间复合成像方法和系统、及其超声成像系统
CN101739675A (zh) * 2009-12-11 2010-06-16 重庆邮电大学 无形变图像配准合成方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108174273A (zh) * 2017-12-29 2018-06-15 北京安云世纪科技有限公司 基于数据合成实现分层控制的方法、系统以及移动终端
CN108174273B (zh) * 2017-12-29 2021-01-08 北京安云世纪科技有限公司 基于数据合成实现分层控制的方法、系统以及移动终端

Also Published As

Publication number Publication date
CN104219475B (zh) 2017-10-10
TW201445980A (zh) 2014-12-01
TWI504240B (zh) 2015-10-11
US9654725B2 (en) 2017-05-16
US20140354882A1 (en) 2014-12-04

Similar Documents

Publication Publication Date Title
TWI619088B (zh) 圖像資料處理系統和相關方法以及相關圖像融合方法
Fan et al. Fixation prediction for 360 video streaming in head-mounted virtual reality
CN108810538B (zh) 视频编码方法、装置、终端及存储介质
CN104219475A (zh) 视频处理方法、视频显示方法以及视频处理装置
US8963951B2 (en) Image processing apparatus, moving-image playing apparatus, and processing method and program therefor to allow browsing of a sequence of images
WO2022110903A1 (zh) 全景视频渲染方法及系统
CN101753837B (zh) 在多个拍摄条件下间隔拍摄的方法及其拍摄装置
JP2000324437A (ja) 映像データベースシステム
CN103139475A (zh) 摄像装置
JP2006287921A (ja) 動画生成装置、動画生成方法、及びプログラム
US20120144312A1 (en) Information processing apparatus and information processing system
KR20070097273A (ko) 파노라마 화상 작성 장치, 방법 및 파노라마 화상 작성프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체
CN104853071A (zh) 显示控制装置和显示方法
CN101667407B (zh) 一种带宽自适应的图像数据访问方法、系统及显示控制装置
CN110351508B (zh) 基于录像模式的防抖处理方法和装置、电子设备
CN105635667A (zh) 用于可视化数字视频流信息的方法和设备
JP2006067172A (ja) イベント記録方法およびイベントレコーダ
US20190180112A1 (en) Method, device, and non-transitory computer readable medium for searching video event
CN104754192A (zh) 摄像设备及其控制方法
CN104412304A (zh) 信息处理装置、信息处理方法和信息处理程序
US20100053326A1 (en) Image sensor, the operating method and usage thereof
JP5662088B2 (ja) 遠隔目視検査装置
JP5812808B2 (ja) 画像処理装置及び画像処理方法
US20150271440A1 (en) Information processing apparatus, information processing method, program, and information processing system
CN115129279A (zh) 图像绘制方法、装置、电子设备及计算机存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant