CN105659619A - 图像处理装置及其控制方法 - Google Patents

图像处理装置及其控制方法 Download PDF

Info

Publication number
CN105659619A
CN105659619A CN201480056213.4A CN201480056213A CN105659619A CN 105659619 A CN105659619 A CN 105659619A CN 201480056213 A CN201480056213 A CN 201480056213A CN 105659619 A CN105659619 A CN 105659619A
Authority
CN
China
Prior art keywords
function
snubber
image processing
processing apparatus
activated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480056213.4A
Other languages
English (en)
Other versions
CN105659619B (zh
Inventor
崔赞熙
朴劲美
柳熙涉
卜灿锡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to CN201910558889.8A priority Critical patent/CN110231927B/zh
Priority to CN201811423558.5A priority patent/CN110058832B/zh
Publication of CN105659619A publication Critical patent/CN105659619A/zh
Application granted granted Critical
Publication of CN105659619B publication Critical patent/CN105659619B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4227Providing Remote input by a user located remotely from the client device, e.g. at work
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4331Caching operations, e.g. of an advertisement for later insertion during playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种图像处理装置,包括:语音输入接收机,被配置为接收用户的语音输入;信号处理器,被配置为识别并处理通过所述语音输入接收机接收到的接收语音输入;缓冲器,被配置为存储所述语音输入;以及控制器,被配置为确定所述信号处理器的语音识别功能是否被激活,并响应于确定所述语音识别功能被激活来控制所述信号处理器识别所述缓冲器中存储的所述语音输入;其中,所述控制器还被配置为:响应于在语音识别功能未被激活时通过所述语音输入接收机输入的所述接收语音输入,在所述缓冲器中存储所述接收语音输入,使得在激活所述语音识别功能时由所述信号处理器识别所述接收语音输入。

Description

图像处理装置及其控制方法
技术领域
符合示例实施例的装置和方法涉及对要作为图像显示的视频信号进行处理的图像处理装置及其控制方法。具体地,涉及可以识别用户语音命令并执行与语音命令相对应的功能或操作的图像处理装置,及其控制方法。
背景技术
一种相关技术图像处理装置通过各种成像处理来对从外部接收到的视频信号/视频数据进行处理。相关技术图像处理装置在它自身的显示面板上将处理过的视频信号显示为图像,或向分离的显示装置输出处理过的视频信号,使得处理过的视频信号可以作为图像在具有面板的显示装置上显示。换言之,相关技术图像处理装置可以包括能够显示图像的面板,或只要相关技术图像处理装置能够处理视频信号就可以不包括该面板。前种情况的一个示例是电视(TV)。此外,后一情况的示例是机顶盒。
随着技术的发展,已经不断地增加并扩展相关技术图像处理装置的各种功能。关于相关技术图像处理装置,已经提出了用于向图像处理装置输入反映用户意图的命令的各种结构或方法。例如,在相关技术中,当用户按压遥控器上的按键/按钮时,遥控器向图像处理装置无线地发送控制信号,使得可以执行用户所需操作。然而,已经提出了用于反映用户意图以控制图像处理装置的各种配置,用这种方式图像处理装置感测并分析用户运动、话语等,并执行相应操作。
发明内容
示例实施例的一方面可以提供一种图像处理装置,包括:语音输入接收机,被配置为接收用户的语音输入;信号处理器,被配置为识别并处理通过所述语音输入接收机接收到的接收语音输入;缓冲器,被配置为存储所述语音输入;以及控制器,被配置为确定所述信号处理器的语音识别功能是否被激活,并响应于确定所述语音识别功能被激活来控制所述信号处理器识别所述缓冲器中存储的所述语音输入,其中,所述控制器还被配置为:响应于在语音识别功能未被激活时通过所述语音输入接收机输入所述接收语音输入,在所述缓冲器中存储所述接收语音输入,使得在激活所述语音识别功能被激活时由所述信号处理器识别所述接收语音输入。
图像处理装置还可以包括:通信接口,被配置为与执行对所述接收语音输入的识别处理的服务器通信,其中,所述语音识别功能可以包括内部处理方法功能和外部处理方法功能,在所述内部处理方法功能中由所述信号处理器执行对所述接收语音输入的识别处理,在所述外部处理方法中由所述服务器执行对所述接收语音输入的所述识别处理;以及其中所述控制器还可以被配置为根据所述语音识别功能的激活来激活所述内部处理方法功能和所述外部处理方法功能的每一个。
控制器可以被配置为:通过所述图像处理装置和所述服务器之间通信连接,激活所述外部处理方法功能。
所述控制器还可以被配置为通过以下操作激活所述内部处理方法功能:基于所述图像处理装置的执行环境的当前状态,从所述图像处理装置中执行的至少一个应用和与所述图像处理装置连接的至少一个外部设备中的至少一个收集在所述至少一个应用或所述至少一个外部设备中先前登记并使用的多个命令,以及提供具有收集到的命令的命令列表。
命令可以包括:针对支持所述语音识别功能的至少一个外部设备或至少一个应用所使用的特定操作的先前定义的命令。
控制器还可以被配置为:根据在所述语音识别功能的准备时段期间激活所述语音识别功能的进展来确定在所述缓冲器中存储的所述语音输入的大小,所述准备时段的范围从激活所述语音识别的开始事件发生的时间到激活语音识别结构的时间。
所述控制器还可以被配置为:响应于确定所述进展相对快速,将所述缓冲器的大小设置为相对较小,并响应于确定所述进展相对缓慢,将所述缓冲器的大小设置为相对较大。
在所述外部处理方法功能的情况下,所述控制器还可以被配置为:响应于确定相对于所述服务器的网络响应速度相对缓慢,将所述缓冲器的大小设置为相对较大。
在所述内部处理方法功能的情况下,所述控制器还可以被配置为:通过从所述图像处理装置中正执行的至少一个应用和与所述图像处理装置正连接的至少一个外部设备中的至少一个收集在所述至少一个应用或所述至少一个外部设备中先前登记并使用的多个命令,来提供命令列表,并响应于命令列表中的命令的数目相对较大,将缓冲器的大小设置为相对较大。
控制器还可以被配置为:响应于在缓冲器中存储的数据的总大小超过确定的缓冲器的大小,确定所述内部处理方法功能和所述外部处理方法功能之一是否被激活,并且所述控制器还可以被配置为:响应于确定所述内部处理方法功能和所述外部处理方法功能中的一个方法功能被激活,根据一个激活的方法功能来处理所述缓冲器的数据并从所述缓冲器删除处理过的数据。
控制器还可以被配置为:响应于确定所述内部处理方法和所述外部处理方法的任意一个方法功能未被激活,删除所述缓冲器中的数据。
图像处理装置还可以包括:临时存储存储器,被配置为临时存储要由所述信号处理器或所述控制器处理的数据,其中所述控制器还被配置为,在所述临时存储存储器的预设存储空间中形成所述缓冲器。
示例实施例的一方面提供了一种图像处理装置的控制方法,所述方法包括:生成用于从未激活状态激活语音识别功能的预设事件;以及通过激活的所述语音识别功能来识别并处理语音输入,其中通过激活的所述语音识别功能来识别并处理所述语音输入可以包括:确定在所述图像处理装置的缓冲器中存储的所述语音输入的大小;以及响应于在语音识别功能未被激活时接收到语音输入,在所述缓冲器中存储所述语音输入的数据,使得在激活所述语音识别功能时识别所述接收语音输入。
所述语音识别功能可以包括内部处理方法功能和外部处理方法功能,在所述内部处理方法功能中由图像处理装置执行针对语音输入的识别处理,在所述外部处理方法中由与图像处理装置通信的所述服务器执行针对语音输入的识别处理;以及可以根据所述语音识别功能的激活来激活所述内部处理方法功能和所述外部处理方法功能的每一个。
可以通过所述图像处理装置和所述服务器之间的通信连接,激活所述外部处理方法功能。
可以通过以下操作激活所述内部处理方法功能:基于所述图像处理装置的执行环境的当前状态,从所述图像处理装置中执行的至少一个应用和与所述图像处理装置连接的至少一个外部设备中的至少一个收集在所述至少一个应用或至少一个外部设备中先前登记并使用的多个命令,以及提供具有收集到的命令的命令列表。
所述命令可以包括:针对由支持所述语音识别的至少一个外部设备或至少一个应用所使用的特定操作的先前定义的命令。
确定所述缓冲器中存储的所述语音输入的大小可以包括:根据在所述语音识别的准备时段期间激活所述语音识别功能的进展来确定所述缓冲器的预设缓冲器大小,所述准备时段的范围从激活所述语音识别的开始事件发生的时间到激活语音识别结构的时间。
确定缓冲器的大小可以包括:响应于确定所述进展相对快速,将所述缓冲器的大小设置为相对较小,并响应于确定所述进展相对缓慢,将所述缓冲器的大小设置为相对较大。
在所述外部处理方法功能的情况下,确定缓冲器的大小可以包括:响应于确定相对于所述服务器的网络响应速度相对缓慢,将所述缓冲器的大小设置为相对较大。
在所述内部处理方法功能的情况下,确定缓冲器的大小可以包括:通过从所述图像处理装置中正执行的至少一个应用和与所述图像处理装置正连接的至少一个外部设备中的至少一个收集在所述至少一个应用或所述至少一个外部设备中先前登记并使用的多个命令,来提供命令列表,并响应于命令列表中的命令的数目相对较大,将缓冲器的大小设置为相对较大。
在缓冲器中存储语音输入的数据可以包括:响应于在缓冲器中存储的数据的总大小超过确定的所述缓冲器的大小,确定所述内部处理方法功能和所述外部处理方法功能之一是否被激活;并且响应于确定所述内部处理方法功能和所述外部处理方法功能中的一个方法功能被激活,根据一个激活的方法功能来处理所述缓冲器的数据并从所述缓冲器删除处理过的数据。
在缓冲器中存储语音输入的数据可以包括:响应于确定所述内部处理方法功能和所述外部处理方法功能的任意一个方法未被激活,删除所述缓冲器中的所述数据。
附图说明
结合附图,根据示例性实施例的以下描述,将更清楚并更容易理解上述和/或其他方面,附图中:
图1示出了根据第一示例实施例的图像处理装置或显示装置的示例;
图2是图1的显示装置的框图;
图3是图1的显示装置中针对语音识别结构的处理器的框图;
图4和5是示出图1的显示装置的控制方法的流程图;
图6示出了在图1的显示装置中动态分配的缓冲器的示例;以及
图7是示出了在语音识别的准备阶段期间对根据第二实施例的显示装置控制方法的流程图。
具体实施方式
下文将参照附图详细描述示例性实施例,使得具有本领域的普通知识的人员可以容易地实现。可以用各种形式体现示例实施例,而不限于本文所阐述的示例实施例。为了清楚省去了公知部分的描述,但是这不意味着省去的部分对于应用了示例实施例的装置或系统的实现是不必要。贯穿附图,类似的附图标记表示类似的元件。
图1示出了根据第一示例实施例的图像处理装置或显示装置的示例。在该示例实施例中,通过具有能够显示图像的结构的显示器来实现图像处理装置100。然而,示例实施例可以应用于不能自身显示图像的图像处理装置。在这种情况下,图像处理装置100与分离的外部显示装置本地连接,使得可以在外部显示装置上显示该图像。
如图1所示,该示例实施例中的显示装置100对从外部接收到的或内部提供的内容的视频数据进行处理,并显示与该内容对应的图像。在该示例实施例中,显示装置100由电视(TV)来实现,但不限于此。此外,示例实施例可以包括能够处理视频数据并显示图像的各种类型的显示装置。
用户位于显示装置100前,并观看在显示装置100上显示的图像。显示装置100提供遥控器145作为允许用户控制显示装置100的操作的接口环境的一部分,其中遥控器145与显示装置100分离。遥控器145包括各种类型的功能按钮、触摸板、显示器等,并且生成与用户控制或输入相对应的控制信号,从而将控制信号发送给显示装置100。因此,显示装置100响应于来自遥控器145的控制信号来执行预设操作。
例如,如果用户在显示装置100显示广播图像时按压遥控器145的频道切换按钮,则遥控器145生成用于切换频道的控制信号并将控制信号发送给显示装置100。显示装置100响应于从遥控器145接收到的控制信号来切换频道,并显示与切换后的频道相对应的广播图像。
然而,随着显示装置100的功能变得各种各样并且复杂,从显示装置100向用户提供的接口环境不限于遥控器145。例如,显示装置100附加地包括用于识别各种用户输入的结构,例如用于识别用户话语的语音识别结构、用于识别用户运动的运动识别结构等,并响应于通过识别结构接收到的控制信号来执行预设功能或操作。
将参照图2描述显示装置100的详细配置。
图2是图像处理装置100的框图。
如图2所示,显示装置100包括:通信接口110,执行与外部的通信以发送/接收数据/信号,处理器120,根据预设处理对通信接口110中接收到的数据进行处理,显示器130,如果在处理器120中处理的数据是图像数据则将视频数据显示为图像的,用户接口140,用于用户输入,存储器150,存储数据/信息,临时存储存储器160,临时存储要处理的数据,以及控制器170,控制显示装置100的整体操作。
通信接口110发送/接收数据,使得可以在显示装置100与服务器200或外部设备之间执行交互通信。通信接口110通过广域网/局域网或根据预设通信协议,本地访问服务器或外部设备(未示出)。
通信接口110可以通过根据设备的连接端口或连接模块的的组件来实现,其中连接协议或连接的外部设备不限于一种或类型。通信接口110可以是显示装置100的内置设备,或者其整体或一部分可以以附加类型或加密狗类型的形式被添加至显示装置100。
通信接口110根据依据所连接设备指定的协议来发送/接收信号,其中可以基于关于所连接设备的单独连接协议来发送/接收信号。在视频数据的情况下,通信接口110可以发送/接收基于各种标准的数据,例如射频(RF)信号、复合/分量视频、超级视频、SCART,高清晰度多媒体接口(HDMI)、显示端口、统一显示接口(UDI)或无线HD等。
处理器120执行关于在通信接口110中接收到的数据/信号的各种处理。如果通信接口110接收到视频数据,则处理器120向图像数据应用图像处理,并且将该处理所处理的图像数据输出至显示器130。因此,允许显示器130基于对应视频数据来显示图像。如果通信接口110中接收到的信号是广播信号,则处理器120从调谐至特定频道的广播数据中提取视频、音频和所附数据,并将图像调整为具有预设分辨率,使得可以在显示器130上显示该图像。
不存在对于要由处理器120执行的这类图像处理的限制。例如,存在与视频数据的图像格式相对应的解码、用于将视频数据从交织类型转换为顺次类型的去交织,用于将视频数据调整为具有预设分辨率的比例缩放,用于提高图像质量的噪声降低、细节增强、帧刷新率转换等。
处理器120可以根据数据的类型和属性来执行各种处理。因此,处理器120中实现的处理不限于图像处理。此外,处理器120中可处理的数据不仅限于在通信接口110中接收到的数据。例如,处理器120当用户接口140接收到对应话语时,通过预设发语音处理来处理用户话语。
处理器120可以通过图像处理板(未示出)来实现,其中在印刷电路板上安装集成了各种功能的片上系统或能够独立执行每个处理的独立芯片集。处理器120可以内置在显示装置100中。
显示器130显示由处理器120处理过的视频信号/视频数据作为图像。显示器130可以由各种显示类型来实现,例如液晶、等离子体、发光二极管、有机发光二极管、表面导电电子发射机、碳纳米管和纳米晶体。然而,显示器130不限于此。
显示器130可以附加地包括根据其类型的附加元件。例如,在液晶类型的情况下,显示器130可以包括液晶显示(LCD)面板(未示出)、向LCD面板发射光的背光单元(未示出)、驱动面板(未示出)的面板驱动衬底(未示出)等。
用户接口140根据用户控制或输入向控制器170发送各种预设控制命令或信息。用户接口140可以生成与根据用户意图发生的各种事件相对应的信息,并将其发送给控制器170。用户发生的事件可以具有各种形式,并且可以例如包括用户控制、话语、手势等。
与用户输入信息的方法相对应地提供用户接口140。因此,用户接口140可以感测通过对应方法输入的信息。因此,用户接口140被划分成会话输入接口141和非会话输入接口142。
提供会话输入接口141以接收用户话语。换言之,会话输入接口141通过麦克风来实现,并感测来自显示装置100的外部环境的各种声音。一般地会话输入接口141不仅感测用户话语,还感测由于各种环境因素(包括用户)产生的声音。
提供非会话输入接口142以接收除话语以外的用户输入。在这种情况下,非会话输入接口142可以用各种形式来实现,并且可以例如包括遥控器145(参见图1)、在显示装置100外部提供的菜单键或输入面板、用于感测用户手势的运动传感器或摄像头等。
备选地,可以通过在显示器130上安装的触摸屏来实现非会话输入接口142。在这种情况下,用户触摸在显示器130上显示的输入菜单或用户界面(UI)图像,使得可以向控制器170发送预设命令或信息。
在该示例实施例中,可以在显示装置100的主体中安装会话输入接口141。然而,示例实施例不限于此。备选地,会话输入接口141可以添加到遥控器145,或可以由与显示装置100相分离的外部装置来实现。
存储器150在控制器170的控制下存储各种数据。存储器150由非易失性存储器(例如闪存,硬盘驱动器等)来实现,以与系统的电源开/关无关地保留数据。由控制器170访问存储器150,使得可以读出、记录、修改、删除、更新等先前存储的数据。
临时存储存储器160临时存储由处理器120或控制器170处理的或等待处理的数据。例如,需要用于临时存储在通信接口110中接收到的视频信号的存储器,使得处理器120可以处理视频信号以在显示器130上显示。因此,临时存储存储器160充当该存储器。此外,由中央处理单元(CPU)实现的控制器170所访问的随机存取存储器(RAM)可以被认为是临时存储存储器160。类似地,临时存储存储器160仅当显示装置100运算数据时存储数据。因而,临时存储存储器160由易失性存储器来实现(与存储器150相反)。
临时存储存储器160由多个元件(即,不只一个元件)访问。例如,处理器120中的多个模块(未示出)分别需要用于存储要被处理的数据的存储器。因此,临时存储存储器160根据相应模块(未示出)向数据分配存储区域。根据预设存储地址的范围来执行这种存储区域的分配。
控制器170由中央处理单元(CPU)来实现,并响应于预定事件的发生来控制显示装置100的一般元件(例如处理器120)的操作。例如,当通过通信接口110接收与预定内容相对应的视频数据时,控制器170控制处理器120来处理将作为图像在显示器130上显示的图像。此外,当发生通过用户接口140的用户输入事件时,控制器170控制元件(例如处理器120)执行与该事件相对应的预设操作。
使用该配置,将描述显示装置100执行与用户话语相对应的预设操作的过程。
如果通过会话输入接口141输入用户话语,则控制器170控制将输入话语转换成与本文相对应的语音命令。话语指用户语音,并且语音命令指与转换为文本形式的话语的内容相对应的数据。
存在将用户话语转换为与文本相对应的语音命令的若干方法。一种方法是,处理器120根据它自身的转换算法将通过会话输入接口141接收到的话语的语音信号转换为语音命令。
当通信接口110与用于将用户话语转换为语音命令的语音转文本(STT)服务器(未示出)通信时,另一种方法是:处理器120向STT服务器(未示出)发送通过会话输入接口141接收到的话语的语音信号,并从STT服务器(未示出)接收与语音信号相对应的语音命令。
控制器170采用这两种方法(即内部处理方法和外部处理方法)之一,以导出与这种语音命令相对应的结果。
在使用内部处理方法的情况下,控制器170控制处理器120分析语音命令。处理器120建立与语音命令相对应的候选命令的数据库/列表,并在建立数据中执行搜索。因此,导出与语音命令相对应的命令。此外,处理器120响应于导出的命令来执行操作。
另一方面,采用外部处理方法的过程如下。控制器170向服务器200发送与用户话语相对应的语音命令。服务器200是会话服务器,该会话服务器分析语音命令并确定与语音命令相对应的操作/动作/结果。为了方便给出了例如STT服务器和传统服务器的服务器名称,并且不限制该服务器的特性。
服务器200根据语音命令来检索显示装置100中的各种操作。服务器200分析从显示装置100接收到的语音命令,并根据基于语音命令的分析结果或检索的信息,向显示装置100返回用于执行与语音命令相对应的操作的控制信号。
控制器170根据从服务器200返回的控制信号或信息来执行对应操作。
然而,显示装置100的语音识别结构需要激活它的功能以处理用户话语,使得显示装置100可以执行与话语相对应的操作。例如,为了处理用户话语,需要事先准备,例如在内部处理方法的情况下,激活会话输入接口141以感测用户话语,建立候选命令的数据库,在外部处理方法的情况下访问服务器200等。
在显示装置100的启动阶段中可以已激活了这种语音识别结构。另一方面,当在语音识别结构未被激活的初始状态中发生了来自用户的特定触发事件时,可以激活语音识别结构。以下提到的触发事件可以指由用户生成以激活语音识别结构的事件。
以下,将具体描述后一情况。
例如,当用户按压遥控器145(参见图1)的语音识别按钮(未示出)时,显示装置100激活语音识别结构或功能以识别用户话语。这时,显示装置100激活基于内部处理方法的语音识别结构和基于外部处理方法的语音识别结构二者。在该示例实施例中,激活基于这两种处理方法的结构。然而,示例实施例不限于此。备选地,可以根据显示装置100的设计来激活它们之一。
显示装置100在完全激活语音识别结构之后处理用户话语。语音识别的准备阶段的范围从激活语音识别的触发事件发生的时间到语音识别结构被完全激活的时间。在该时段期间,显示装置100将语音识别结构从未激活状态改变为激活状态。
因此,在语音识别的准备时段期间,即使用户发出声音,显示设备100也不能正常处理用户话语。换言之,如果用户生成触发事件之后用户发出声音的时间点在语音识别的准备时段内,则不处理或正常不处理对应话语,原因在于显示装置100未完全激活语音识别结构,由此导致用户所不希望的结果。
为了防止这一点,相关技术显示装置在触发事件之后针对语音识别的准备时段期间示出了用于向用户通知语音识别结构被激活的消息,并在语音识别的准备时段结束之后示出向用户通知语音识别结构被完全激活的消息。
然而,这种相关技术方法可能存在以下问题:显示装置100实际激活语音识别结构的定时可能不与显示上述消息的定时同步,并且用户不便于逐一检查对应消息。
因此,根据示例实施例,下面描述以下方法。
如果在语音识别功能未被激活的状态下发生预设触发事件,则显示装置100激活语音识别功能并处理用户话语。当用户在触发事件发生的时间与语音识别被激活的时间之间的语音识别准备时段期间输入话语时,显示装置100形成预设容量或大小的缓冲器,在缓冲器中存储对应话语的数据,并当语音识别功能被完全激活时处理在缓冲器中存储的话语数据。
因此,即使用户在激活语音识别结构的准备时段期间输入对应话语,显示装置100也正常处理用户话语并将其提供给用户。同样,显示装置100不必须在准备时段期间,向用户提供单独的消息或UI图像。因此,当用户未注意准备时段时,显示装置100提供正常语音识别功能。
将详细描述根据示例性实施例的处理器120。
图3是示出处理器120的语音识别结构的框图。
如图3中所示,处理器120包括用于处理通过会话输入接口141输入的用户话语的数据的多个块或模块121、122、123和124。
为了方便这些模块121、122、123和124根据它们的功能被分类,并且不限制实现根据示例实施例的处理器120的方式。这些模块121、122、123和124可以通过硬件或软件来实现。构成处理器120的模块121、122、123和124可以分别执行它们的相应操作,或者处理器120可以顺序地执行整个操作而不被分类为模块121、122、123和124。此外,在控制器170的控制下执行处理器120和相应模块121、122、123和124的操作。
处理器120包括用于接收并管理候选指令的候选命令管理模块121,用于管理对服务器200(参照图2)的访问状态的服务器访问管理模块122,用于处理从会话输入接口141接收到的话语的数据并导出分析结果的语音识别模块123,以及用于根据语音识别模块123的激活状态缓存话语数据的语音数据控制模块124。
这些模块121、122、123和124在语音识别功能未被激活时是未激活的,并且响应于激活语音识别功能的触发事件而被激活。
候选命令管理模块121在处理器120采用内部处理方法来执行语音识别时被激活。如果发生触发事件,则候选命令管理模块121检查显示装置100的当前执行环境条件。候选命令管理模块121从显示装置100中当前正执行的应用和与显示装置100当前连接的外部设备收集对应应用和对应外部设备所使用的候选命令,并制作候选命令的列表。
这样的候选命令是支持语音识别的外部设备或应用所使用的预定命令。这些命令根据应用和外部设备单独指定的。然而,候选命令不限于特定示例,原因在于存在各种格式和类型的命令。
参照候选命令列表,以当语音识别模块123处理话语数据的识别结果时检索与识别结果相对应的操作的命令。
服务器访问管理模块122在处理器120采用外部处理方法执行语音识别时被激活。当发生触发事件时,服务器访问管理模块122访问服务器200(参见图2),以执行语音识别并管理通信状态。服务器访问管理模块122响应于语音识别模块123的请求向服务器200发送话语数据,并向语音识别模块123返回对应话语数据的识别结果。
语音识别模块123根据内部处理方法分析话语数据,或根据外部处理方法从服务器200导出基于从服务器200接收到的结果的语音识别结果。
语音数据控制模块124当发生触发事件时监测候选命令管理模块121、服务器访问管理模块122和语音识别模块123的状态,并确定处理器120的整个语音识别功能是否被完全激活(即,语音识别的准备时段是否终止)。
语音数据控制模块124通过预设方法确定缓冲器大小,并当语音识别的准备时段期间从会话输入接口141接收用户话语时动态地建立缓冲器,并在缓冲器中存储输入话语的数据。稍后将描述确定缓冲器大小的方法。可以在暂时存储存储器160的预定地址范围内建立缓冲器(参照图2)。
语音数据控制模块124在缓冲器中存储语音识别的准备时段期间输入的话语数据,并在语音识别的准备时段终止时,向语音识别模块123发送缓冲器中存储的话语数据,使得可以处理话语数据。此外,语音数据控制模块124在语音识别的准备时段结束之后缓冲器器为空时对缓冲器进行初始化,并且然后变为未激活的。
将参考图4和5描述根据示例实施例的显示装置100的控制方法。
图4和5是示出显示装置100的控制方法的流程图。在该示例实施例中,初始状态指语音识别未被激活。
如图4所示,在操作S100中,显示装置100感测用于激活语音识别功能的触发事件的发生。在操作中,显示装置100响应于触发事件开始激活语音识别功能。
如果在操作S120中接收到用户话语,则显示设备100在操作S130中确定语音识别功能是否被完全激活。可以通过内部处理方法或外部处理方法来激活语音识别功能,稍后将对其进行描述。
在操作S140中,如果确定语音识别功能未被激活,则显示设备100确定缓冲器大小并建立缓冲器。在操作S150中,显示设备100在缓冲器中存储用户话语数据。
在操作S160中,显示设备100确定存储数据的总大小是否超过缓冲器大小。如果确定存储数据的大小不超过缓冲器大小,则显示装置100返回操作S130。如果确定存储数据的总大小超过缓冲器大小,则显示装置100在操作S170中删除并布置缓冲器的数据,并且然后返回操作S130。
如图5中所示,在操作S180中,如果在操作S130中确定完全激活了语音识别功能,则显示装置100从缓冲器读取数据。在操作S190中,显示设备100从缓冲器的数据导出语音识别结果。
在操作S200中,显示设备100确定在缓冲器中是否存在未读取或未处理的数据(即,缓冲器是否为空)。如果缓冲器为空,则显示装置100终止该处理并等待接收用户的下一话语。另一方面,如果缓冲器非空,则在操作S210中显示装置100对缓冲器进行初始化并结束该处理。
以下,将更详细地描述上述处理的一些操作。
在操作S100中,可以通过各种方法发生触发事件。例如,触发事件可以通过用户在遥控器145(参照图1)上按压特定按钮、通过用户界面(UI)图像上的输入或通过用户的特定运动而发生。换言之,触发事件可以响应于通过非会话输入接口142(参照图2)的各种预设输入而发生。
可以通过外部处理法或内部处理的方法来执行激活语音识别功能的操作S110(即,语音识别的准备阶段)。
在使用针对激活的外部处理方法的情况下,显示装置100检查与对语音识别进行分析的服务器200(参见图2)的通信状态,并确定是否能够与服务器200正常进行通信。因此,显示装置100发送并接收测试数据并检查误码率,该测试数据用于测试与服务器200通信的环境。如果能够与多个服务器200进行通信,则显示装置100可以考虑通信状态和其他环境因素选择性地访问服务器200中的一个服务器。
在使用激活的内部处理方法的情况下,显示装置100确定在显示装置100中当前执行什么应用以及什么外部设备本地/通过网络与显示装置100相连,以制作在语音识别中使用的候选命令列表。显示装置100收集先前登记的要在各应用和外部装置中使用的命令,并用收集到的命令制作候选命令列表。备选地,显示装置100可以在先存储在制造阶段中设置的或通过基于使用历史反映命令的学习处理所获得的候选命令列表,并调用该列表。
这种基于外部处理方法和内部处理方法的准备阶段仅是示例。根据显示装置100的设计,各种准备阶段是可应用的。
在操作S140中,以下描述确定缓冲器大小的方法。显示设备100根据语音识别的准备阶段的进展或速度,确定缓冲器大小。如果确定语音识别的准备阶段进展相对快速,则缓冲器的大小被确定为与缓冲器的总大小相比相对较小。如果确定语音识别的准备阶段进展相对缓慢,则缓冲器的大小被确定为与缓冲器的总大小相比相对较大。
确定语音识别的准备阶段的进展的方法可以单独地应用于外部处理方法和内部处理方法的每一个。以下描述关于外部处理方法和内部处理方法的上述示例的详细说明。
在外部处理方法的情况下,随着对服务器200的网络响应速度变得更慢,以及随着与服务器200通信的环境变差,显示装置100将缓冲器大小设置为与缓冲器的总大小相比相对较大。此外,在外部处理方法的情况下,显示装置可以与一个或更多个服务器200进行通信。然而,随着缓冲器的大小变大,要处理的负载增加。因此,存在缓冲器大小的最大值。换言之,显示装置100将缓冲器的大小设置为不超过预设最大大小。
在使用内部处理方法的情况下,随着当前激活的应用和外部设备数目的增加以及随着来自应用和外部设备的候选命令数目的增加,显示装置100将缓冲器大小设置为与缓冲器的总大小相比相对较大。然而,即使在这种情况下,也存在缓冲器大小的最大值。
将参照图6描述布置缓冲器的数据的操作S170。
图6示出了动态分配的缓冲器的示例。
如图6中所示,在临时存储存储器160(参见图2)的预设地址范围内形成的语音识别的准备阶段期间建立缓冲器161。缓冲器161包括从封包(packet)号0到封包号n的总共n+1个单位封包。
当存储话语数据时,显示装置100从封包号0按顺序在缓冲器161中存储话语数据。尽管显示装置100在缓冲器161中存储话语数据,但要存储的总数据可以超过缓冲器161的封包号n。
在这种情况下,显示装置100通过以下操作来存储数据:用上至封包号n的数据来填充缓冲器161,并清空缓冲器161从封包号0到预定封包号的扇区。因此,防止缓冲器161溢出。
一旦存储数据时,显示装置100以存储数据的顺序来清空封包。例如,如果在用户发声五次的时间点在缓冲器161中发生溢出,则显示装置100从缓冲器161删除第一话语数据,并在缓冲器161中存储第五话语数据。
然后,在随着准备阶段完成从缓冲器161读取数据时,显示装置100不从缓冲器161的封包号0而是从与最早存储的数据相对应的封包号读取数据。
如果读取并处理缓冲器161的全部数据,则显示装置100对缓冲器161进行初始化或重置,原因在于在激活了语音功能的状态下存在临时存储话语数据的需要。
同时,在上述示例实施例中,当话语数据的总大小超过缓冲器大小时,删除并布置缓冲器的数据。然而,示例实施例不限于此。将参照图7描述备选示例实施例。
图7是示出了在语音识别的准备阶段期间根据第二实施例的显示装置100的控制方法的流程图。该实施例中将仅示出了用于在触发事件之后激活语音识别功能后触发事件的准备阶段期间执行的操作。
如图7中所示,如果在操作S300中输入用户话语,则在操作S310中显示装置100在缓冲器中存储数据。
在操作S320中,显示设备100确定数据的总大小是否超过缓冲器大小。如果确定数据的总大小没有超过缓冲器大小,则显示装置100终止该处理。
在操作S300中,如果确定数据的总大小超过缓冲器大小,则显示装置100确定通过内部处理方法和外部处理方法之一是否完全激活了语音识别功能。如果确定通过内部处理方法和外部处理方法之一未完全激活语音识别功能,则在操作S340中,显示装置100删除并布置缓冲器的数据。
另一方面,如果确定通过内部处理方法和外部处理方法之一完全激活了语音识别功能,则在操作S350中,显示装置100首先通过激活的功能来处理缓冲器的数据。然后,在操作S360中,显示装置100从缓冲器删除处理过的数据。
因此,只要语音识别功能部分被激活(即使语音识别功能未完全被激活),显示设备100就通过部分语音识别功能处理缓冲器的数据。因此,防止数据溢出缓冲器。
例如,内部处理方法与外部处理方法在语音识别功能的处理方面不同。因此,内部处理方法与外部处理方法在完成激活的时间方面也彼此不同。如果显示装置100的通信环境良好并且显示装置100中存在正执行的许多应用,则外部处理方法与内部处理方法相比能更快速地完成语音识别功能的激活。另一方面,如果显示设备100的通信环境不好的并且显示装置100中存在正执行的少数应用,则内部处理方法与外部处理方法相比能更快速地完成语音识别功能的激活。
因此,内部处理方法和对外加工方法之间的哪一种方法首先完成语音识别功能的激活可以随显示装置100的当前环境而改变。
尽管示出并描述了一些示例实施例,但本领域的技术人员将理解,在不脱离示例实施例的原理和精神的情况下可以对这些示例性实施例进行改变,示例实施例的范围在所附权利要求及其等同物中限定。

Claims (13)

1.一种图像处理装置,包括:
语音输入接收机,被配置为接收用户的语音输入;
信号处理器,被配置为识别并处理通过所述语音输入接收机接收到的接收语音输入;
缓冲器,被配置为存储所述语音输入;以及
控制器,被配置为确定所述信号处理器的语音识别功能是否被激活,并响应于确定所述语音识别功能被激活来控制所述信号处理器识别所述缓冲器中存储的所述语音输入;
其中,所述控制器还被配置为:响应于在语音识别功能未被激活时通过所述语音输入接收机输入的所述接收语音输入,在所述缓冲器中存储所述接收语音输入,使得在激活所述语音识别功能时由所述信号处理器识别所述接收语音输入。
2.根据权利要求1所述的图像处理装置,还包括:
通信接口,被配置为与执行对所述接收语音输入的识别处理的服务器通信,
其中,所述语音识别功能包括内部处理方法功能和外部处理方法功能,在所述内部处理方法功能中由所述信号处理器执行对所述接收语音输入的识别处理,在所述外部处理方法中由所述服务器执行对所述接收语音输入的识别处理;以及
其中所述控制器还被配置为根据所述语音识别功能的激活来激活所述内部处理方法功能和所述外部处理方法功能的每一个。
3.根据权利要求2所述的图像处理装置,其中所述控制器还被配置为:通过所述图像处理装置和所述服务器之间的通信连接,激活所述外部处理方法功能。
4.根据权利要求2所述的图像处理装置,
其中所述控制器还被配置为通过以下操作激活所述内部处理方法功能:基于所述图像处理装置的执行环境的当前状态,从所述图像处理装置中正执行的至少一个应用和与所述图像处理装置正连接的至少一个外部设备中的至少一个收集在所述至少一个应用或所述至少一个外部设备中先前登记并使用的多个命令,以及提供具有收集到的命令的命令列表。
5.根据权利要求4所述的图像处理装置,其中所述命令包括:针对由支持所述语音识别功能的至少一个外部设备或至少一个应用所使用的特定操作的先前定义命令。
6.根据权利要求2所述的图像处理装置,其中所述控制器还被配置为:根据在所述语音识别的准备时段期间激活所述语音识别功能的进展来确定在所述缓冲器中正存储的所述语音输入的大小,所述准备时段的范围从激活所述语音识别的开始事件发生的时间到激活语音识别结构的时间。
7.根据权利要求6所述的图像处理方法,其中所述控制器还被配置为:响应于确定所述进展相对快速,将所述缓冲器的大小设置为相对较小,并响应于确定所述进展相对缓慢,将所述缓冲器的大小设置为相对较大。
8.根据权利要求6所述的方法,其中,在所述外部处理方法功能的情况下,所述控制器还被配置为:响应于确定相对于所述服务器的网络响应速度相对缓慢,将所述缓冲器的大小设置为相对较大。
9.根据权利要求6所述的方法,其中,在所述内部处理方法功能的情况下,所述控制器还被配置为:通过从所述图像处理装置中正执行的至少一个应用和与所述图像处理装置正连接的至少一个外部设备中的至少一个收集在所述至少一个应用或所述至少一个外部设备中先前登记并使用的多个命令,来提供命令列表,并响应于命令列表中命令的数目相对较大,将缓冲器的大小设置为相对较大。
10.根据权利要求2所述的图像处理方法,其中所述控制器还被配置为:响应于在缓冲器中存储的数据的总大小超过所确定的所述缓冲器的大小,确定所述内部处理方法功能和所述外部处理方法功能之一是否被激活,并且所述控制器还被配置为:响应于确定所述内部处理方法功能和所述外部处理方法功能的任意一个方法功能被激活,根据激活的一个方法功能来处理所述缓冲器的数据并从所述缓冲器删除处理过的数据。
11.根据权利要求10所述的图像处理方法,其中所述控制器还被配置为:响应于确定所述内部处理方法功能和所述外部处理方法功能的任意一个方法功能未被激活,删除所述缓冲器中的数据。
12.根据权利要求1所述的图像处理装置,还包括:
临时存储存储器,被配置为临时存储要由所述信号处理器或所述控制器处理的数据,
其中所述控制器还被配置为,在所述临时存储存储器的预设存储空间中形成所述缓冲器。
13.一种图像处理装置的控制方法,所述方法包括:
生成用于从未激活状态激活语音识别功能的预设事件;以及
通过激活的语音识别功能识别并处理语音输入,
其中通过激活的语音识别功能识别并处理语音输入包括:
确定在所述图像处理装置的缓冲器中正存储的语音输入的大小;以及
响应于在语音识别功能未被激活时接收到语音输入,在所述缓冲器中存储所述语音输入的数据,使得在激活所述语音识别功能时识别接收到的语音输入。
CN201480056213.4A 2013-10-15 2014-09-23 图像处理装置及其控制方法 Active CN105659619B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910558889.8A CN110231927B (zh) 2013-10-15 2014-09-23 图像处理装置及其控制方法
CN201811423558.5A CN110058832B (zh) 2013-10-15 2014-09-23 图像处理装置及其控制方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020130122675A KR102155482B1 (ko) 2013-10-15 2013-10-15 디스플레이장치 및 그 제어방법
KR10-2013-0122675 2013-10-15
PCT/KR2014/008828 WO2015056892A1 (en) 2013-10-15 2014-09-23 Image processing apparatus and control method thereof

Related Child Applications (2)

Application Number Title Priority Date Filing Date
CN201910558889.8A Division CN110231927B (zh) 2013-10-15 2014-09-23 图像处理装置及其控制方法
CN201811423558.5A Division CN110058832B (zh) 2013-10-15 2014-09-23 图像处理装置及其控制方法

Publications (2)

Publication Number Publication Date
CN105659619A true CN105659619A (zh) 2016-06-08
CN105659619B CN105659619B (zh) 2019-07-26

Family

ID=52810400

Family Applications (3)

Application Number Title Priority Date Filing Date
CN201910558889.8A Active CN110231927B (zh) 2013-10-15 2014-09-23 图像处理装置及其控制方法
CN201480056213.4A Active CN105659619B (zh) 2013-10-15 2014-09-23 图像处理装置及其控制方法
CN201811423558.5A Active CN110058832B (zh) 2013-10-15 2014-09-23 图像处理装置及其控制方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201910558889.8A Active CN110231927B (zh) 2013-10-15 2014-09-23 图像处理装置及其控制方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201811423558.5A Active CN110058832B (zh) 2013-10-15 2014-09-23 图像处理装置及其控制方法

Country Status (5)

Country Link
US (2) US9519455B2 (zh)
EP (2) EP3474560A1 (zh)
KR (1) KR102155482B1 (zh)
CN (3) CN110231927B (zh)
WO (1) WO2015056892A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106782552A (zh) * 2016-12-06 2017-05-31 深圳Tcl数字技术有限公司 尾音识别方法及语音遥控器
CN110335603A (zh) * 2019-07-12 2019-10-15 四川长虹电器股份有限公司 应用于电视场景的多模态交互方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101595090B1 (ko) * 2015-04-30 2016-02-17 주식회사 아마다스 음성 인식을 이용한 정보 검색 방법 및 장치
US10747418B2 (en) 2015-07-24 2020-08-18 Coscreen, Inc. Frictionless interface for virtual collaboration, communication and cloud computing
KR20170046958A (ko) * 2015-10-22 2017-05-04 삼성전자주식회사 전자 장치 및 그의 음성 인식을 이용한 기능 실행 방법
US9922648B2 (en) * 2016-03-01 2018-03-20 Google Llc Developer voice actions system
US10228906B2 (en) 2016-05-30 2019-03-12 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
CN109584862B (zh) * 2017-09-29 2024-01-12 上海寒武纪信息科技有限公司 图像处理装置和方法
CN109584864B (zh) * 2017-09-29 2023-11-24 上海寒武纪信息科技有限公司 图像处理装置和方法
KR102527278B1 (ko) * 2017-12-04 2023-04-28 삼성전자주식회사 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
KR102443079B1 (ko) 2017-12-06 2022-09-14 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR20190068133A (ko) * 2017-12-08 2019-06-18 삼성전자주식회사 오디오 데이터에 포함된 음소 정보를 이용하여 어플리케이션을 실행하기 위한 전자 장치 및 그의 동작 방법
CN108170269B (zh) * 2017-12-26 2021-02-26 上海展扬通信技术有限公司 一种图像缩放方法及终端
EP3888080A4 (en) * 2018-11-27 2022-07-13 LG Electronics Inc. MULTIMEDIA DEVICE FOR VOICE COMMAND PROCESSING
US11211063B2 (en) 2018-11-27 2021-12-28 Lg Electronics Inc. Multimedia device for processing voice command
KR102291117B1 (ko) * 2018-12-27 2021-08-20 주식회사 오투오 외부 연결용 ai 스피커 장치 및 이와 외부 기기 간의 에코 제거 및 동기화 방법
WO2020230923A1 (ko) * 2019-05-15 2020-11-19 엘지전자 주식회사 음성 인식 서비스를 제공하기 위한 디스플레이 장치 및 그의 동작 방법
KR102224994B1 (ko) * 2019-05-21 2021-03-08 엘지전자 주식회사 음성 인식 방법 및 음성 인식 장치
US11996098B2 (en) * 2019-06-05 2024-05-28 Hewlett-Packard Development Company, L.P. Missed utterance resolutions
KR102344044B1 (ko) * 2020-01-22 2021-12-27 주식회사 엘지유플러스 셋탑 단말 및 이의 동작 방법
KR20230123343A (ko) * 2022-02-16 2023-08-23 삼성전자주식회사 음성 지원 서비스를 제공하는 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1201225A (zh) * 1996-12-16 1998-12-09 东丽株式会社 光记录媒质
CN1201225C (zh) * 1999-10-06 2005-05-11 微软公司 背景声频恢复系统
US20080298349A1 (en) * 2004-02-12 2008-12-04 Avaya Inc. System for transmitting high quality speech signals on a voice over internet protocol network
CN102118886A (zh) * 2010-01-04 2011-07-06 中国移动通信集团公司 一种语音信息的识别方法和设备
CN102945671A (zh) * 2012-10-31 2013-02-27 四川长虹电器股份有限公司 语音识别方法
CN103021413A (zh) * 2013-01-07 2013-04-03 北京播思软件技术有限公司 语音控制方法及装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6532446B1 (en) * 1999-11-24 2003-03-11 Openwave Systems Inc. Server based speech recognition user interface for wireless devices
DE10030369A1 (de) * 2000-06-21 2002-01-03 Volkswagen Ag Spracherkennungssystem
JP2003195880A (ja) * 2001-12-28 2003-07-09 Nec Corp サーバ・クライアント型音声認識装置
US8265931B2 (en) * 2002-01-22 2012-09-11 At&T Intellectual Property Ii, L.P. Method and device for providing speech-to-text encoding and telephony service
US7266382B2 (en) 2003-08-06 2007-09-04 Lucent Technologies Inc. Method and apparatus for decreasing perceived push-to-talk call set-up time using a buffer for initial speech burst
JP2005311864A (ja) * 2004-04-23 2005-11-04 Toshiba Corp 家電機器、アダプタ装置および家電機器システム
KR100641148B1 (ko) 2004-04-29 2006-11-06 엘지전자 주식회사 무전 통신 단말기의 음성 입력 버퍼링 장치 및 방법
KR100566284B1 (ko) 2004-05-22 2006-03-30 삼성전자주식회사 체감 지연이 없이 음성메시지를 전송할 수 있는 PoC이동단말기, 서버, 및 그 방법
KR20060085381A (ko) * 2005-01-24 2006-07-27 주식회사 현대오토넷 텔레매틱스 시스템의 음성인식 장치 및 방법
EP1939860B1 (en) * 2006-11-30 2009-03-18 Harman Becker Automotive Systems GmbH Interactive speech recognition system
KR20090107365A (ko) 2008-04-08 2009-10-13 엘지전자 주식회사 이동 단말기 및 그 메뉴 제어방법
US8958848B2 (en) 2008-04-08 2015-02-17 Lg Electronics Inc. Mobile terminal and menu control method thereof
CN101551998B (zh) * 2009-05-12 2011-07-27 上海锦芯电子科技有限公司 一种语音互动系统以及其和人的语音互动方法
JP4930564B2 (ja) 2009-09-24 2012-05-16 カシオ計算機株式会社 画像表示装置及び方法並びにプログラム
KR20120011945A (ko) * 2010-07-28 2012-02-09 삼성전자주식회사 아이피 텔레비전에서 음성 인식을 이용한 인터넷 검색 방법 및 장치
US20130085905A1 (en) * 2011-10-01 2013-04-04 Oracle International Corporation Mobile device for mobile expense solutions architecture
US8825020B2 (en) * 2012-01-12 2014-09-02 Sensory, Incorporated Information access and device control using mobile phones and audio in the home environment
KR101284594B1 (ko) * 2012-10-26 2013-07-10 삼성전자주식회사 영상처리장치 및 그 제어방법, 영상처리 시스템
EP2801974A3 (en) * 2013-05-09 2015-02-18 DSP Group Ltd. Low power activation of a voice activated device
US10747418B2 (en) * 2015-07-24 2020-08-18 Coscreen, Inc. Frictionless interface for virtual collaboration, communication and cloud computing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1201225A (zh) * 1996-12-16 1998-12-09 东丽株式会社 光记录媒质
CN1201225C (zh) * 1999-10-06 2005-05-11 微软公司 背景声频恢复系统
US20080298349A1 (en) * 2004-02-12 2008-12-04 Avaya Inc. System for transmitting high quality speech signals on a voice over internet protocol network
CN102118886A (zh) * 2010-01-04 2011-07-06 中国移动通信集团公司 一种语音信息的识别方法和设备
CN102945671A (zh) * 2012-10-31 2013-02-27 四川长虹电器股份有限公司 语音识别方法
CN103021413A (zh) * 2013-01-07 2013-04-03 北京播思软件技术有限公司 语音控制方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106782552A (zh) * 2016-12-06 2017-05-31 深圳Tcl数字技术有限公司 尾音识别方法及语音遥控器
CN106782552B (zh) * 2016-12-06 2020-05-22 深圳Tcl数字技术有限公司 尾音识别方法及语音遥控器
CN110335603A (zh) * 2019-07-12 2019-10-15 四川长虹电器股份有限公司 应用于电视场景的多模态交互方法

Also Published As

Publication number Publication date
CN105659619B (zh) 2019-07-26
CN110058832B (zh) 2022-11-25
US10068572B2 (en) 2018-09-04
EP3053349A1 (en) 2016-08-10
KR102155482B1 (ko) 2020-09-14
EP3474560A1 (en) 2019-04-24
WO2015056892A1 (en) 2015-04-23
US9519455B2 (en) 2016-12-13
US20150106099A1 (en) 2015-04-16
CN110231927A (zh) 2019-09-13
EP3053349A4 (en) 2017-06-14
CN110058832A (zh) 2019-07-26
CN110231927B (zh) 2022-10-04
EP3053349B1 (en) 2018-12-26
KR20150043807A (ko) 2015-04-23
US20170053649A1 (en) 2017-02-23

Similar Documents

Publication Publication Date Title
CN105659619A (zh) 图像处理装置及其控制方法
US10347246B2 (en) Method and apparatus for executing a user function using voice recognition
EP3671731B1 (en) Discovering capabilities of third-party voice-enabled resources
WO2020181988A1 (zh) 一种语音控制方法及电子设备
EP4231151A1 (en) Data processing method, multi-cloud management system, and related device
US20220214894A1 (en) Command execution method, apparatus, and device
CN105308648A (zh) 用于对用户选定的兴趣区域进行超分辨的系统和方法
US20170249934A1 (en) Electronic device and method for operating the same
KR102491005B1 (ko) 비디오 미리보기 방법 및 전자 장치
CN113742366B (zh) 数据处理方法、装置、计算机设备及存储介质
WO2022100222A1 (zh) 信息检索方法、装置、系统及存储介质
CN110704146A (zh) 一种应用于电子设备的焦点管理方法及电子设备
CN110865765A (zh) 终端及地图控制方法
CN112231144A (zh) 一种数据处理方法、装置及电子设备
CN108268232B (zh) 一种图片显示方法、装置、系统和存储介质
CN116048765B (zh) 任务处理方法、样本数据处理方法及电子设备
CN111709843B (zh) 一种客户画像的生成方法、装置及电子设备
CN110223221A (zh) 一种动态图像播放的方法及终端设备
CN107734049B (zh) 网络资源的下载方法、装置和移动终端
CN112925654B (zh) 图片解码方法、装置、计算机设备及存储介质
CN112786022A (zh) 终端、第一语音服务器、第二语音服务器及语音识别方法
US20140324755A1 (en) Information processing apparatus and control method thereof
CN116991572A (zh) 计算系统、性能分析方法、设备、存储介质及产品
CN117076164A (zh) 故障确定方法及装置、介质及电子设备
CN115081624A (zh) 神经网络模型的调整方法、装置、计算机可读存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant