CN110996153A - 基于场景识别的音画品质增强方法、系统和显示器 - Google Patents

基于场景识别的音画品质增强方法、系统和显示器 Download PDF

Info

Publication number
CN110996153A
CN110996153A CN201911242161.0A CN201911242161A CN110996153A CN 110996153 A CN110996153 A CN 110996153A CN 201911242161 A CN201911242161 A CN 201911242161A CN 110996153 A CN110996153 A CN 110996153A
Authority
CN
China
Prior art keywords
sound
picture
real scene
scene
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911242161.0A
Other languages
English (en)
Other versions
CN110996153B (zh
Inventor
孙思凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Skyworth RGB Electronics Co Ltd
Original Assignee
Shenzhen Skyworth RGB Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Skyworth RGB Electronics Co Ltd filed Critical Shenzhen Skyworth RGB Electronics Co Ltd
Priority to CN201911242161.0A priority Critical patent/CN110996153B/zh
Publication of CN110996153A publication Critical patent/CN110996153A/zh
Priority to EP20861983.3A priority patent/EP3860133A4/en
Priority to US17/272,095 priority patent/US11516554B2/en
Priority to PCT/CN2020/115376 priority patent/WO2021109673A1/zh
Application granted granted Critical
Publication of CN110996153B publication Critical patent/CN110996153B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
    • H04N21/4666Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms using neural networks, e.g. processing the feedback provided by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/602Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for digital sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Quality & Reliability (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明公开基于场景识别的音画品质增强方法、系统和显示器,其中,基于场景识别的音画品质增强方法包括:识别显示器当前画面所反映的现实场景;计算与现实场景相匹配的音画品质增强参数;根据音画品质增强参数对应的最佳音画品质,控制显示器播放与现实场景对应的声音和图像。本发明的技术方案能解决现有技术中通常需要用户手动调节当前场景的音质和画质,导致用户体验效果不佳的问题。

Description

基于场景识别的音画品质增强方法、系统和显示器
技术领域
本发明涉及显示器技术领域,尤其涉及一种基于场景识别的音画品质增强方法、系统和显示器。
背景技术
随着显示器技术的发展,市场上出现了大量越来越智能化的显示设备,例如智能电视。智能电视是具有全开放式平台,且搭载操作系统的新型电视产品。近年来,随着人工智能技术的发展,智能电视的功能越来越强大,给用户带来了更加丰富的个性化视听体验。
智能电视通常能够提供高清的画面显示以及自然的声音效果,然而受到实际播放情况的限制,智能电视播放节目的音画品质往往达不到智能电视能够达到的最高音画品质要求。例如:4k电视的分辨率为3840*2160,而该电视所播放节目的自身画面的像素为1920*1080,则即使电视本身能够提供的分辨率较高,也难以播放高清画面。为了解决此类问题。现有技术中通过使用图像增强和音效增强技术对画面和声音进行修复,以改善电视的画质和音质,使得图像内容更有层次感,声音效果更符合人们期待。例如针对拍照光圈偏小、场景对比度较低,曝光过度等,都可以通过图像增强技术加以解决,从而显著提升画质。
然而,现有的图像和音效增强技术往往不够智能,针对不同的场景,其提供的图像和音效增强技术往往过于单一,这样就导致电视中各种场景的画质和音质均过于单一而区分度不高,用户长久观看容易造成审美疲劳,若需解决该问题,就需要用户手动改变当前播放场景的画质和音效,导致用户体验效果不佳。
发明内容
本发明提供一种基于场景识别的音画品质增强方法、系统和显示器,旨在解决现有技术中需要用户手动调节当前场景的音质画质,体验效果不佳的问题。
为实现上述目的,根据本发明的第一方面,本发明提出了一种基于场景识别的音画品质增强方法,该音画品质增强方法用于显示器,该方法包括:
识别显示器当前画面所反映的现实场景;
计算与现实场景相匹配的音画品质增强参数;
根据音画品质增强参数对应的最佳音画品质,控制显示器播放与现实场景对应的声音和图像。
优选地,识别显示器当前画面所反映的现实场景的步骤包括:
提取当前画面中的区域图像;
使用神经网络对区域图像进行场景特征检测;
根据检测到的场景特征,识别当前画面反映的现实场景。
优选地,所述识别显示器当前画面所反映的现实场景的步骤包括:在第一预定时间内,多次识别显示器当前画面所反映的现实场景,得到每次识别到的现实场景的置信度;
所述音画品质增强方法还包括:使用每次识别到的现实场景的置信度,确定当前画面所反映的现实场景。
优选地,所述音画品质增强方法还包括:在第二预定时间内,按照预定频次截取多幅显示器的当前画面;
所述识别显示器当前画面所反映的现实场景的步骤,包括:
对截取的每幅当前画面进行检测,得到每幅当前画面对应的现实场景;
根据每幅当前画面对应的现实场景,识别得到显示器当前画面所反映的现实场景。
优选地,所述计算与现实场景相匹配的音画品质增强参数的步骤包括:
提取显示器当前画面的音画品质参数;
根据最佳音画品质对应的预设音画品质参数和显示器当前画面的的音画品质参数,计算得到与现实场景相匹配的音画品质增强参数。
优选地,所述根据音画品质增强参数对应的最佳音画品质,控制显示器播放与现实场景对应的声音和图像的步骤包括:
预设每种现实场景对应的最佳音画品质,或提取用户对现实场景的常用音画品质作为现实场景对应的最佳音画品质;
控制显示器播放与最佳音画品质对应的声音和图像。
根据本发明的第二方面,本发明还提供了一种基于场景识别的音画品质增强系统,该音画品质增强系统用于显示器,该系统包括:
场景识别模块,用于识别显示器当前画面所反映的现实场景;
品质计算模块,用于计算与场景识别模块识别的现实场景相匹配的音画品质增强参数;
播放控制模块,用于根据品质计算模块计算的音画品质增强参数对应的最佳音画品质,控制显示器播放与现实场景对应的声音和图像。
优选地,所述场景识别模块包括:
图像提取子模块,用于提取当前画面中的区域图像;
特征检测子模块,用于使用神经网络对图像提取子模块提取的区域图像进行场景特征检测;
第一场景识别子模块,用于根据特征检测子模块检测到的场景特征,识别当前画面反映的现实场景。
优选地,所述场景识别模块还用于在第一预定时间内多次识别显示器当前画面所反映的现实场景,得到每次识别到的现实场景的置信度;
所述音画品质增强系统还包括:场景确定模块,用于使用场景识别模块每次识别到的现实场景的置信度,确定当前画面所反映的现实场景。
优选地,所述音画品质增强系统还包括:
截屏模块,用于在第二预定时间内,按照预定频次截取多幅显示器的当前画面;
场景识别模块,包括:
画面检测子模块,用于对截取的每幅当前画面进行检测,得到每幅当前画面对应的现实场景;
第二场景识别子模块,用于根据每幅当前画面对应的现实场景,识别得到显示器当前画面所反映的现实场景。
根据本发明的第三方面,本发明还提供了一种显示器,包括:上述技术方案中任一项所述的音画品质增强系统。
本申请提出的技术方案,通过自动识别显示器当前画面反映的现实场景;然后计算与现实场景对应的音画品质增强参数,根据该音画品质增强参数对应的最佳音画品质,能够控制显示器自动播放与现实场景对应的声音和图像,带给用户极高的视听享受,从而不需要用户手动调节,提高了用户体验。本方案解决了现有技术中需要用户手动调节当前场景的音质和画质,导致用户体验效果不佳的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1是本发明实施例提供的第一种基于场景识别的音画品质增强方法的流程示意图;
图2是图1所示实施例提供的一种现实场景识别方法的流程示意图;
图3是图1所示实施例提供的一种音画品质增强参数的计算方法的流程示意图;
图4是图1所示实施例提供的一种显示器播放控制方法的流程示意图;
图5是本发明实施例提供的第二种基于场景识别的音画品质增强方法的流程示意图;
图6是本发明实施例提供的第三种基于场景识别的音画品质增强方法的流程示意图;
图7是本发明实施例提供的第四种基于场景识别的音画品质增强方法的流程示意图;
图8是本发明实施例提供的第一种基于场景识别的音画品质增强系统的结构示意图;
图9是图8所示实施例提供的一种场景识别模块的结构示意图;
图10是本发明实施例提供的第二种基于场景识别的音画品质增强系统的结构示意图;
图11是本发明实施例提供的第三种基于场景识别的音画品质增强系统的结构示意图;
图12是本发明实施例提供的第四种基于场景识别的音画品质增强系统的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现有技术中,传统的显示器通常需要手动调节与当前场景对应的音质和画质,容易导致用户体验效果较差。
参见图1,为解决上述问题上述,图1是本发明实施例提供的第一种基于场景识别的音画品质增强方法的流程示意图,如图1所示,该音画品质增强方法用于显示器,该方法包括以下步骤:
S110:识别显示器当前画面所反映的现实场景。
该现实场景是显示器(如智能电视)当前画面所播放的实际场景,例如电影场景、新闻场景、体育场景或音乐会场景等。通过获取该现实场景能够确定该现实场景应当使用的音质和画质。
该识别现实场景的方法可通过人工智能进行识别,通过预先进行大量训练的神经网络对当前画面进行准确的场景判断。具体如图2所示,该识别显示器当前画面所反映的现实场景的步骤具体包括:
S111:提取当前画面中的区域图像。神经网络会对显示器当前画面进行机器学习,具体提取当前画面的中的特定区域的区域图像,例如电影画面中往往当前画面的下部为黑色边框,体育节目中在画面右上角往往存在比分标识,神经网络根据机器学习到的方法,会重点关注当前画面的特定区域,从而提取到当前画面的某些区域图像。
S112:使用神经网络对区域图像进行场景特征检测。
具体地,神经网络会提取该区域图像中的场景特征,然后对该场景特征与数据库中存储的现实场景的场景特征进行特征匹配,通过该场景特征的相似度,计算现实场景的置信度。
S113:根据检测到的场景特征,识别当前画面反映的现实场景。
具体地,通过对区域图像中的场景特征与数据库存储的现实场景的场景特征进行特征匹配,通过匹配的相似度计算现实场景的匹配程度,当现实场景的置信度大于预定值时,可以确定当前画面反映的现实场景。例如:通过匹配当前画面的场景特征,确定该现实场景为新闻场景的置信度为0.8,体育场景的置信度为0.2,此时即可确定该显示器当前画面反映的现实场景为新闻场景。
在识别显示器当前画面反映的现实场景后,图1所示方法还包括步骤:
S120:计算与现实场景相匹配的音画品质增强参数。音画品质增强参数分别包括音质增强参数和画质增强参数。该音画品质增强参数是根据现实场景对应的最佳音质和最佳画质,以及显示器当前画面对应的音质和画质计算而来。通过计算与现实场景相匹配的音画品质增强参数,能够将该现实场景对应的音质和画质调节到最佳。
其中,如图3所示,该步骤S120:计算与现实场景相匹配的音画品质增强参数,具体包括:
S121:提取显示器当前画面的音画品质参数。显示器当前的音质参数和画质参数,与实际场景对应的最佳音质参数和最佳画质参数通常是不一致的,为了将显示器当前画面的画质和音质调节至现实场景对应的最佳画质和音质,首先需要提取显示器当前画面的音画品质参数,从而根据该音画品质参数与最佳音画品质参数进行比较,从而增强现实场景的画质和音效。
S122:根据最佳音画品质对应的预设音画品质参数和显示器当前画面的的音画品质参数,计算得到与现实场景相匹配的音画品质增强参数。
因为显示器当前画面的音画品质参数与最佳音画品质对应的预设音画品质参数往往不同,此时需要针对具体的参数,如:对比度、色调、亮度和分辨率等参数进行具体的修改,计算上述显示器当前画面与预设音画品质参数之间的差值,作为与现实场景相匹配的音画品质增强参数值,从而使得显示器当前画面的音质和画质达到最佳音质和最佳画质。
计算与现实场景相匹配的音画品质增强参数后,图1所示方法还包括:
S130:根据音画品质增强参数对应的最佳音画品质,控制显示器播放与现实场景对应的声音和图像。其中,该最佳音画品质可以通过系统预设,例如通过大数据提取各个用户对特定场景的音质画质评价,结合各现实场景的显示和音效需求,进行曲线拟合制定。或者根据具体用户通常设置的音质和画质确定。通过音画品质增强参数对应的最佳音画品质,控制显示器播放与该现实场景对应的声音和图像,能够带给用户极高的视听享受,提高用户体验。
其中,如图4所示,该步骤S130:根据音画品质增强参数对应的最佳音画品质,控制显示器播放与现实场景对应的声音和图像,具体包括:
S131:预设每种现实场景对应的最佳音画品质,或提取用户对现实场景的常用音画品质作为现实场景对应的最佳音画品质。
S132:控制显示器播放与最佳音画品质对应的声音和图像。
最佳音画品质可根据大数据提取提前预设,或者现场提取用户之前每次观看同一场景所自己设置的音质和画质,然后进行处理得到与用户相适应的最佳音画品质。然后,控制显示器播放与该最佳音画品质对应的声音和图像,从而不需要用户手动调节音质和画质,提高用户体验度。
综上,本申请提出的技术方案,通过自动识别显示器当前画面反映的现实场景;然后计算与现实场景对应的音画品质增强参数,根据该音画品质增强参数对应的最佳音画品质,能够控制显示器自动播放与现实场景对应的声音和图像,带给用户极高的视听享受,从而不需要用户手动调节,提高了用户体验。本方案解决了现有技术中需要用户手动调节当前场景的音质和画质,导致用户体验效果不佳的问题。
另外,神经网络对现实场景的判断可能存在误判,这样可能不仅不能够匹配到与该现实场景对应的最佳音画品质,反而会因为匹配错误影响用户的视听效果。
为了解决上述问题,参见图5,图5为本发明实施例提供的第二种基于场景识别的音画品质增强方法的流程示意图,在本实施例中,原识别显示器当前画面所反映的现实场景的步骤,具体包括:
S114:在第一预定时间内,多次识别显示器当前画面所反映的现实场景,得到每次识别到的现实场景的置信度。
通过多次识别当前画面反映的现实场景,能够减少对现实场景的误判,同时针对具体情况,例如用户在短时间内多次切换显示器画面,通过多次识别,能够准确确定用户最终定位的当前画面。其中,置信度反映了神经网络识别现实场景的可信程度。其中,该多次识别当前画面所反映的现实场景的步骤包括同时识别多次以及依次识别多次的两种方式。
图5所示实施例提供的音画品质增强方法还包括:
步骤S210:使用每次识别到的现实场景的置信度,确定当前画面所反映的现实场景。
具体地,可针对每次识别的置信度设置权重值,比如在按时间顺序依次识别现实场景的情况,可以设置后面预定次数识别到的现实场景的权重值较高,之前识别到的现实场景的权重值较低,这样通过置信度与权重值相乘,得到新的置信度,从而通过该新的置信度确定当前画面是否反映的是现实场景。通过上述方式能够有效减少因用户频繁切换显示器画面导致的现实场景识别错误的情况。
本申请实施例提供的技术方案,通过多次识别显示器当前画面所反映的现实场景,得到每次识别的置信度,并通过每次识别到的现实场景的置信度,确定当前画面反映的现实场景,从而降低上述步骤对现实场景的误判。
其中显示屏当前画面可能切换频繁,可能导致对现实场景的识别不准,为了解决该问题,如图6所示,本实施例提供的音画品质增强方法除了图1所示的各步骤外,还包括以下步骤:
S310:在第二预定时间内,按照预定频次截取多幅显示器的当前画面。
例如能够在用户显示器进入到某一特定画面2s时间后,在2s时间内以300ms/次的频率进行截屏操作,截取大量画面,然后神经网络再对截取的画面进行特征分析。通过截屏操作,能够获取大量画面,从而提高现实场景识别的准确率。
在图6所示实施例中,上述步骤S110:识别显示器当前画面所反映的现实场景,包括:
S115:对截取的每幅当前画面进行检测,得到每幅当前画面对应的现实场景。
S116:根据每幅当前画面对应的现实场景,识别得到显示器当前画面所反映的现实场景。
本申请实施例提供的技术方案中,通过截取大量的当前画面,然后分别对每幅当前画面进行检测,得到每幅当前画面对应的现实场景,从而能够识别得到显示器当前画面反映的现实场景,提高识别现实场景的准确度。
另外,作为一种优选的实施例,参见图7,图7为本申请提供的第四种基于场景识别的音画品质增强方法的流程示意图,该音画品质增强方法依靠的硬件系统包括:主控模块、截屏模块、模型运行模块、结果处理模块、音质/画质提升处理模块、显示/声音模块以及显示屏和扬声器;具体如图7所示,该音画品质增强方法包括以下步骤:
S410:在用户收看电视节目时,如机顶盒开启,主控模块通知截屏模块以300ms/次的频率进行截屏操作。
S420:模型运行模块根据截屏模块截出的图片的特征,确定实际场景。
截屏出的画面以数据流形式提供给模型运行模块。该模块运行的模型在导入系统之前需要经过大量训练,能够针对图片做出实际场景的准确判断。
基于以上两点,例如当用户收看新闻时,模型运行模块会收到新闻场景的截屏图片,根据该图片的典型特征给出识别结果,该类图片的典型特征是图片底部有蓝色条纹并辅以白色文字,模型根据该特征给出识别结果。
S430:结果处理模块根据模型运行模块给出的结果,确认识别结果。例如:当模型运行模块判断当前画面对应的现实场景为新闻0.8和体育0.2(其中,上述数字为置信度,即置信概率),进一步给出准确结果,这里需要说明的是,上述模型给出并非一个结果,是一个带权重的综合结果,这也是该模块存在的基础。进一步,该结果处理模块还会判断是否存在误判,例如若连续3次的结果都是相同,才能够认为显示器播放的场景真正做了切换,这里能够有效地防止抖动识别误判。
S440:根据上述识别结果,音质/画质提升处理模块将当前图像模块和声音模块切换为对应场景的最佳参数。如新闻,音质/画质提升处理模块会将当前的图像模式和声音模式切换为新闻模式的最佳参数。
S450:显示/声音模块将画质和音质参数输送至相关硬件模块进行处理。具体地,上述新闻模式的画质和音质参数会在显示/声音模块中送至相关的硬件模块进程处理。
S460:根据处理后的音质和画质,显示屏和扬声器播放对应的图像和声音。
具体地,处理之后的画质音质参数以电信号的形式在显示屏和扬声器还原出来,使得用户在收看新闻节目的时候无需手动切换,系统自动将图像和声音切换至最适合该场景的模式。
进一步的,在用户收看其他场景的图像时,例如用户收看电影时,上述过程会将相关的图像声音模式自动切换为电影模式;
另外,本申请上述实施例均可基于android nn接口进行开发和实现。随着android操作系统的迭代,在android 8.0版本发布之后,android操作系统提供了一套android nn接口,使用开发人员可以基于该android nn接口进行卷积算法的开发,该算法能够提前训练相关的模型,模型的训练原理如下:将海量素材提供给模型,该模型识别上述素材后,进行人工纠偏。通过不断地训练能够提升模型对素材的识别准确率,该识别过程能够运行在单独的硬件ip单元,不占用主芯片SOC的中央处理器CPU、图像处理器GPU和网络处理器NPU资源,达到在不响应电视正常使用的情况下,进行人工智能识别。
基于上述方法实施例的同一构思,本发明实施例还提出了基于场景识别的音画品质增强系统,用于实现本发明的上述方法,由于该系统实施例解决问题的原理与方法相似,因此至少具有上述实施例的技术方案所带来的所有有益效果,在此不再一一赘述。
参见图8,图8为本发明提供的一种基于场景识别的音画品质增强系统的结构示意图。如图8所示,该音画品质增强系统包括:
场景识别模块101,用于识别显示器当前画面所反映的现实场景。
其中,场景识别模块101的结构具体参见图9,如图9所示,该场景识别模块101包括:
图像提取子模块1011,用于提取当前画面中的区域图像;
特征检测子模块1012,用于使用神经网络对图像提取子模块1011提取的区域图像进行场景特征检测;
第一场景识别子模块1013,用于根据特征检测子模块检测到的场景特征,识别当前画面反映的现实场景。
图8所示的音画品质增强系统还包括:
品质计算模块102,用于计算与场景识别模块识别的现实场景相匹配的音画品质增强参数;
播放控制模块103,用于根据品质计算模块计算的音画品质增强参数对应的最佳音画品质,控制显示器播放与现实场景对应的声音和图像。
本申请提出的技术方案,通过自动识别显示器当前画面反映的现实场景;然后计算与现实场景对应的音画品质增强参数,根据该音画品质增强参数对应的最佳音画品质,能够控制显示器自动播放与现实场景对应的声音和图像,带给用户极高的视听享受,从而不需要用户手动调节,提高了用户体验。本方案解决了现有技术中需要用户手动调节当前场景的音质和画质,导致用户体验效果不佳的问题。
另外,参见图10,所述场景识别模块101还用于在第一预定时间内多次识别显示器当前画面所反映的现实场景,得到每次识别到的现实场景的置信度;图10所示的音画品质增强系统除了图9所示的各模块外还包括:场景确定模块104,用于使用场景识别模块每次识别到的现实场景的置信度,确定当前画面所反映的现实场景。
另外,参见图11,本实施例提供的音画品质增强系统除了图9所示的各模块外还包括:
截屏模块105,用于在第二预定时间内,按照预定频次截取多幅显示器的当前画面;
场景识别模块101,包括:
画面检测子模块1014,用于对截取的每幅当前画面进行检测,得到每幅当前画面对应的现实场景;
第二场景识别子模块1015,用于根据每幅当前画面对应的现实场景,识别得到显示器当前画面所反映的现实场景。
另外,参见图12,图12为本申请实施例提供的一种基于场景识别的音画品质增强系统的结构示意图。如图12所示,该音画品质增强系统包括:
主控模块201、截屏模块202、模型运行模块203、识别结果处理模块204、画质/音质提升处理模块205、显示/声音模块206以及4k显示屏和扬声器207。其中,主控模块201用于协调截屏模块202、模型运行模块2030、识别结果处理模块204和画质/音质提升处理模块205的运行。
该音画品质增强系统的工作流程如下:
在用户收看电视节目时,具体如机顶盒开启时,主控模块201通知截屏模块202以300ms/次的频率进行截屏操作。
模型运行模块203根据截屏模块截出的图片的特征,确定实际场景。截屏出的画面以数据流形式提供给模型运行模块203。该模块运行的模型(tflite)在导入系统之前需要经过大量训练,能够针对图片做出实际场景的准确判断。
识别结果处理模块204根据模型运行模块203给出的结果,确认识别结果。
根据上述识别结果,音质/画质提升处理模块205将当前图像模块和声音模块切换为对应场景的最佳参数。
显示/声音模块206将画质和音质参数输送至相关硬件模块进行处理。
根据处理后的音质和画质,4K显示屏和扬声器207播放对应的图像和声音。
另外,本发明实施例还提供了一种显示器,包括上述任一项实施例提供的音画品质增强系统。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (11)

1.一种基于场景识别的音画品质增强方法,其特征在于,用于显示器,所述音画品质增强方法包括:
识别所述显示器当前画面所反映的现实场景;
计算与所述现实场景相匹配的音画品质增强参数;
根据所述音画品质增强参数对应的最佳音画品质,控制所述显示器播放与所述现实场景对应的声音和图像。
2.根据权利要求1所述的音画品质增强方法,其特征在于,所述识别显示器当前画面所反映的现实场景的步骤,包括:
提取所述当前画面中的区域图像;
使用神经网络对所述区域图像进行场景特征检测;
根据检测到的所述场景特征,识别所述当前画面反映的现实场景。
3.根据权利要求1或2所述的音画品质增强方法,其特征在于,所述识别显示器当前画面所反映的现实场景的步骤包括:在第一预定时间内,多次识别所述显示器当前画面所反映的现实场景,得到每次识别到的所述现实场景的置信度;
所述音画品质增强方法还包括:
使用每次识别到的所述现实场景的置信度,确定所述当前画面所反映的现实场景。
4.根据权利要求1所述的音画品质增强方法,其特征在于,还包括在第二预定时间内,按照预定频次截取多幅所述显示器的当前画面;
所述识别显示器当前画面所反映的现实场景的步骤,包括:
对截取的每幅所述当前画面进行检测,得到每幅所述当前画面对应的现实场景;
根据每幅当前画面对应的现实场景,识别得到所述显示器当前画面所反映的现实场景。
5.根据权利要求1所述的音画品质增强方法,其特征在于,所述计算与现实场景相匹配的音画品质增强参数的步骤,包括:
提取所述显示器当前画面的音画品质参数;
根据所述最佳音画品质对应的预设音画品质参数和所述显示器当前画面的的音画品质参数,计算得到与所述现实场景相匹配的音画品质增强参数。
6.根据权利要求1所述的音画品质增强方法,其特征在于,所述根据音画品质增强参数对应的最佳音画品质,控制所述显示器播放与所述现实场景对应的声音和图像的步骤,包括:
预设每种现实场景对应的最佳音画品质,或提取用户对所述现实场景的常用音画品质作为所述现实场景对应的最佳音画品质;
控制所述显示器播放与所述最佳音画品质对应的声音和图像。
7.一种基于场景识别的音画品质增强系统,其特征在于,用于显示器,所述音画品质增强系统包括:
场景识别模块,用于识别所述显示器当前画面所反映的现实场景;
品质计算模块,用于计算与所述场景识别模块识别的现实场景相匹配的音画品质增强参数;
播放控制模块,用于根据所述品质计算模块计算的音画品质增强参数对应的最佳音画品质,控制所述显示器播放与所述现实场景对应的声音和图像。
8.根据权利要求7所述的音画品质增强系统,其特征在于,所述场景识别模块包括:
图像提取子模块,用于提取所述当前画面中的区域图像;
特征检测子模块,用于使用神经网络对所述图像提取子模块提取的区域图像进行场景特征检测;
第一场景识别子模块,用于根据所述特征检测子模块检测到的所述场景特征,识别所述当前画面反映的现实场景。
9.根据权利要求7或8所述的音画品质增强系统,其特征在于,所述场景识别模块,还用于在第一预定时间内多次识别所述显示器当前画面所反映的现实场景,得到每次识别到的所述现实场景的置信度;
所述音画品质增强系统还包括:场景确定模块,用于使用所述场景识别模块每次识别到的所述现实场景的置信度,确定所述当前画面所反映的现实场景。
10.根据权利要求7所述的音画品质增强系统,其特征在于,还包括:
截屏模块,用于在第二预定时间内,按照预定频次截取多幅所述显示器的当前画面;
所述场景识别模块,包括:
画面检测子模块,用于对截取的每幅所述当前画面进行检测,得到每幅所述当前画面对应的现实场景;
第二场景识别子模块,用于根据每幅当前画面对应的现实场景,识别得到所述显示器当前画面所反映的现实场景。
11.一种显示器,其特征在于,包括:权利要求7-10中任一项所述的音画品质增强系统。
CN201911242161.0A 2019-12-06 2019-12-06 基于场景识别的音画品质增强方法、系统和显示器 Active CN110996153B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201911242161.0A CN110996153B (zh) 2019-12-06 2019-12-06 基于场景识别的音画品质增强方法、系统和显示器
EP20861983.3A EP3860133A4 (en) 2019-12-06 2020-09-15 AUDIO AND VIDEO QUALITY IMPROVEMENT METHOD AND SYSTEM WITH SCENE DETECTION AND DISPLAY DEVICE
US17/272,095 US11516554B2 (en) 2019-12-06 2020-09-15 Method and system for enhancing sound and picture quality based on scene recognition, and display
PCT/CN2020/115376 WO2021109673A1 (zh) 2019-12-06 2020-09-15 基于场景识别的音画品质增强方法、系统和显示器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911242161.0A CN110996153B (zh) 2019-12-06 2019-12-06 基于场景识别的音画品质增强方法、系统和显示器

Publications (2)

Publication Number Publication Date
CN110996153A true CN110996153A (zh) 2020-04-10
CN110996153B CN110996153B (zh) 2021-09-24

Family

ID=70090836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911242161.0A Active CN110996153B (zh) 2019-12-06 2019-12-06 基于场景识别的音画品质增强方法、系统和显示器

Country Status (4)

Country Link
US (1) US11516554B2 (zh)
EP (1) EP3860133A4 (zh)
CN (1) CN110996153B (zh)
WO (1) WO2021109673A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021109673A1 (zh) * 2019-12-06 2021-06-10 深圳创维-Rgb电子有限公司 基于场景识别的音画品质增强方法、系统和显示器
CN113297937A (zh) * 2021-05-17 2021-08-24 杭州朗和科技有限公司 一种图像处理方法、装置、设备及介质
CN113556604A (zh) * 2020-04-24 2021-10-26 深圳市万普拉斯科技有限公司 音效调节方法、装置、计算机设备和存储介质
CN113766341A (zh) * 2020-06-04 2021-12-07 深圳市万普拉斯科技有限公司 电视画质调整方法、装置和系统及电视机设备
CN113965700A (zh) * 2021-11-26 2022-01-21 四川长虹电器股份有限公司 智能电视场景的自动调节方法及系统
WO2022152320A1 (zh) * 2021-01-14 2022-07-21 海信视像科技股份有限公司 显示设备、音画参数调节方法
WO2022156248A1 (zh) * 2021-01-20 2022-07-28 海信视像科技股份有限公司 影像处理设备、影像处理设备的工作方法以及非易失性存储介质
CN115174973A (zh) * 2022-06-28 2022-10-11 海信视像科技股份有限公司 显示设备及显示设备控制方法
CN115334351A (zh) * 2022-08-02 2022-11-11 Vidaa国际控股(荷兰)公司 一种显示设备及自适应画质调节方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105898364A (zh) * 2016-05-26 2016-08-24 北京小米移动软件有限公司 一种视频播放处理方法、装置、终端及系统
CN106534942A (zh) * 2016-11-04 2017-03-22 微鲸科技有限公司 视频画质调整方法及装置
US20170278546A1 (en) * 2016-03-25 2017-09-28 Samsung Electronics Co., Ltd. Method and device for processing multimedia information
CN108712674A (zh) * 2018-05-17 2018-10-26 深圳创维-Rgb电子有限公司 视频播放控制方法、播放设备及存储介质
CN108710847A (zh) * 2018-05-15 2018-10-26 北京旷视科技有限公司 场景识别方法、装置及电子设备
CN108846351A (zh) * 2018-06-08 2018-11-20 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
CN108921040A (zh) * 2018-06-08 2018-11-30 Oppo广东移动通信有限公司 图像处理方法和装置、存储介质、电子设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2011265429B2 (en) * 2011-12-21 2015-08-13 Canon Kabushiki Kaisha Method and system for robust scene modelling in an image sequence
US20150058877A1 (en) 2013-08-21 2015-02-26 Harman International Industries, Incorporated Content-based audio/video adjustment
US10721527B2 (en) * 2018-04-23 2020-07-21 Free Stream Media Corporation Device setting adjustment based on content recognition
CN110996153B (zh) 2019-12-06 2021-09-24 深圳创维-Rgb电子有限公司 基于场景识别的音画品质增强方法、系统和显示器

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170278546A1 (en) * 2016-03-25 2017-09-28 Samsung Electronics Co., Ltd. Method and device for processing multimedia information
CN105898364A (zh) * 2016-05-26 2016-08-24 北京小米移动软件有限公司 一种视频播放处理方法、装置、终端及系统
CN106534942A (zh) * 2016-11-04 2017-03-22 微鲸科技有限公司 视频画质调整方法及装置
CN108710847A (zh) * 2018-05-15 2018-10-26 北京旷视科技有限公司 场景识别方法、装置及电子设备
CN108712674A (zh) * 2018-05-17 2018-10-26 深圳创维-Rgb电子有限公司 视频播放控制方法、播放设备及存储介质
CN108846351A (zh) * 2018-06-08 2018-11-20 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
CN108921040A (zh) * 2018-06-08 2018-11-30 Oppo广东移动通信有限公司 图像处理方法和装置、存储介质、电子设备

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021109673A1 (zh) * 2019-12-06 2021-06-10 深圳创维-Rgb电子有限公司 基于场景识别的音画品质增强方法、系统和显示器
US11516554B2 (en) 2019-12-06 2022-11-29 Shenzhen Skyworth-Rgb Electronic Co., Ltd. Method and system for enhancing sound and picture quality based on scene recognition, and display
CN113556604A (zh) * 2020-04-24 2021-10-26 深圳市万普拉斯科技有限公司 音效调节方法、装置、计算机设备和存储介质
CN113766341A (zh) * 2020-06-04 2021-12-07 深圳市万普拉斯科技有限公司 电视画质调整方法、装置和系统及电视机设备
WO2021244440A1 (zh) * 2020-06-04 2021-12-09 深圳市万普拉斯科技有限公司 电视画质调整方法、装置和系统及电视机设备
WO2022152320A1 (zh) * 2021-01-14 2022-07-21 海信视像科技股份有限公司 显示设备、音画参数调节方法
WO2022156248A1 (zh) * 2021-01-20 2022-07-28 海信视像科技股份有限公司 影像处理设备、影像处理设备的工作方法以及非易失性存储介质
CN113297937A (zh) * 2021-05-17 2021-08-24 杭州朗和科技有限公司 一种图像处理方法、装置、设备及介质
CN113297937B (zh) * 2021-05-17 2023-12-15 杭州网易智企科技有限公司 一种图像处理方法、装置、设备及介质
CN113965700A (zh) * 2021-11-26 2022-01-21 四川长虹电器股份有限公司 智能电视场景的自动调节方法及系统
CN115174973A (zh) * 2022-06-28 2022-10-11 海信视像科技股份有限公司 显示设备及显示设备控制方法
CN115174973B (zh) * 2022-06-28 2024-05-28 海信视像科技股份有限公司 显示设备及显示设备控制方法
CN115334351A (zh) * 2022-08-02 2022-11-11 Vidaa国际控股(荷兰)公司 一种显示设备及自适应画质调节方法
CN115334351B (zh) * 2022-08-02 2023-10-31 Vidaa国际控股(荷兰)公司 一种显示设备及自适应画质调节方法

Also Published As

Publication number Publication date
US11516554B2 (en) 2022-11-29
EP3860133A4 (en) 2022-08-03
CN110996153B (zh) 2021-09-24
EP3860133A1 (en) 2021-08-04
WO2021109673A1 (zh) 2021-06-10
US20220124417A1 (en) 2022-04-21

Similar Documents

Publication Publication Date Title
CN110996153B (zh) 基于场景识别的音画品质增强方法、系统和显示器
CN110933490B (zh) 一种画质和音质的自动调整方法、智能电视机及存储介质
KR100820096B1 (ko) 제 1 텔레비전 프로그램으로 복귀하는 방법 및 디바이스와, 이러한 디바이스를 포함하는 텔레비전 수신기
CN111083397B (zh) 录播画面切换方法、系统、可读存储介质和设备
CN104320670A (zh) 一种网络视频的摘要信息提取方法及系统
CN112312215B (zh) 基于用户识别的开机内容推荐方法、智能电视及存储介质
CN112312142B (zh) 视频播放控制方法、装置和计算机可读存储介质
CN109922334A (zh) 一种视频质量的识别方法及系统
CN110557671A (zh) 一种视频不健康内容自动处理方法及系统
CN112330371A (zh) 基于ai的智能广告推送方法及装置、系统及存储介质
CN115396705B (zh) 投屏操作验证方法、平台及系统
CN111442464B (zh) 空调器及其控制方法
CN110516572B (zh) 一种识别体育赛事视频片段的方法、电子设备及存储介质
CN104093069B (zh) 一种视频播放方法和播放器装置
Ohzeki et al. Video analysis for detecting eye blinking using a high-speed camera
CN112287771A (zh) 用于检测视频事件的方法、装置、服务器和介质
CN115604497A (zh) 直播对象锐化过度鉴定装置
CN112954283B (zh) 用于多投影仪的融合拼接播放方法及其播放系统
CN107071534B (zh) 一种用户与机顶盒互动方法及系统
EP3772856A1 (en) Identification of the intro part of a video content
CN112333531A (zh) 音频数据播放方法、设备及可读存储介质
CN109862425A (zh) 一种电视伴音调整方法、存储介质以及智能电视
CN113426101B (zh) 教学方法、装置、设备及计算机可读存储介质
CN105991991A (zh) 视频识别方法和装置
US20210029306A1 (en) Magnification enhancement of video for visually impaired viewers

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant