CN112602330B - 电子设备及非易失性存储介质 - Google Patents

电子设备及非易失性存储介质 Download PDF

Info

Publication number
CN112602330B
CN112602330B CN202080004679.5A CN202080004679A CN112602330B CN 112602330 B CN112602330 B CN 112602330B CN 202080004679 A CN202080004679 A CN 202080004679A CN 112602330 B CN112602330 B CN 112602330B
Authority
CN
China
Prior art keywords
image
operation image
voice
display
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202080004679.5A
Other languages
English (en)
Other versions
CN112602330A (zh
Inventor
久富秀一
小野寺祐
大村弦
西村勇人
澤岡俊宏
北村哲也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Visual Technology Co Ltd
Toshiba Visual Solutions Corp
Original Assignee
Hisense Visual Technology Co Ltd
Toshiba Visual Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019196719A external-priority patent/JP2021071807A/ja
Application filed by Hisense Visual Technology Co Ltd, Toshiba Visual Solutions Corp filed Critical Hisense Visual Technology Co Ltd
Publication of CN112602330A publication Critical patent/CN112602330A/zh
Application granted granted Critical
Publication of CN112602330B publication Critical patent/CN112602330B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4222Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请涉及电子设备及非易失性存储介质。在为了操作视像装置而对信息终端进行声音的操作输入的情况下,降低对电子设备的声音的操作输入的负荷(难易程度),提高便利性。实施方式的电子设备具备显示处理部以及声音操作处理部。显示处理部将包含操作输入用的操作项目的显示在内的第1操作图像显示在显示部,在第1操作图像的显示中满足了规定的条件的情况下,将第2操作图像显示在显示部,该第2操作图像是强调显示了与第1操作图像中的操作项目对应的文字信息的操作图像。在第2操作图像的显示中,声音操作处理部将与第2操作图像中强调显示的文字信息对应的声音的操作输入作为对视像装置的操作来接收。

Description

电子设备及非易失性存储介质
本申请要求在2019年10月29日提交日本专利局、申请号为2019-196719、发明名称为“电子设备及程序”的日本专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本发明的实施方式涉及电子设备及非易失性存储介质。
背景技术
以往,已知通过声音输入来进行游戏的操作的技术。
在先技术文献
专利文献
专利文献1:日本特开2009-125077号公报。
发明内容
上述这样的声音输入不仅可以利用于游戏的操作,例如还可以利用于通过对智能手机等电子设备进行声音的操作输入,从而远程地操作电视机、录像机等视像装置的技术。在此情况下,希望降低对电子设备的声音的操作输入的负荷(难易程度)并提高便利性。
实施方式的电子设备具备显示处理部、以及声音操作处理部。显示处理部将包含操作输入用的操作项目的显示在内的第1操作图像显示在显示部,并且在第1操作图像的显示中满足了规定的条件的情况下,将第2操作图像显示在显示部,该第2操作图像是强调显示了与第1操作图像中的操作项目对应的文字信息的操作图像。声音操作处理部在第2操作图像的显示中将与第2操作图像中强调显示的文字信息对应的声音的操作输入作为对视像装置的操作来接收。
附图说明
图1A是示出了应用实施方式的技术的状况的一个例子的例示性且示意性的图;
图1B是示出了应用实施方式的技术的状况的另一个例子的例示性且示意性的图;
图2是示出了实施方式的信息终端的硬件构成的例示性且示意性的框图;
图3是示出了实施方式的信息终端及视像装置的功能的例示性且示意性的框图;
图4是将实施方式的信息终端及视像装置执行的处理以流程图方式示出的例示性且示意性的图;
图5是示出了实施方式的触摸操作图像的一个例子的例示性且示意性的图;
图6是示出了实施方式的触摸操作图像的另一个例子的例示性且示意性的图;
图7是示出了实施方式的声音操作图像的一个例子的例示性且示意性的图;
图8是用于说明实施方式的经由声音操作图像进行的检索的例示性且示意性的图;
图9是示出了实施方式的声音操作图像的另一个例子的例示性且示意性的图。
附图标记说明
100・・・信息终端(电子设备),104・・・显示部,120・・・视像装置,121・・・录像机(视像装置),122・・・电视机(视像装置),312・・・显示处理部,314・・・声音操作处理部。
具体实施方式
以下,基于附图说明本申请的实施方式及变形例。以下记载的实施方式及变形例的构成、以及由该构成产生的作用及效果只不过是一个例子,并不限于以下的记载内容。
<实施方式>
图1A是示出了应用实施方式的技术的状况的一个例子的例示性且示意性的图。
如图1A所示,实施方式的技术作为一个例子被应用于利用智能手机那样的信息终端100来远程地操作录像机121及电视机122那样的视像装置120的状况。信息终端100是“电子设备”的一个例子。
在图1A所示的例子中,信息终端100和视像装置120经由路由器那样的中继装置110而能够相互通信地连接,但是,在实施方式中,信息终端100和视像装置120也可以经由互联网那样的网络而连接。
另外,实施方式的技术还能够应用于下面的图1B所示那样的状况。
图1B是示出了应用实施方式的技术的状况的另一个例子的例示性且示意性的图。在图1B所示的例子中,信息终端100和视像装置120不经由中继装置110而直接(端对端(peer-to-peer))连接。实施方式的技术也能够基于这样的连接关系而应用于利用信息终端100远程地操作视像装置120的状况。
图1A及图1B所示的信息终端100具有下面的图2所示那样的硬件构成。
图2是示出了实施方式的信息终端的硬件构成的例示性且示意性的框图。
如图2所示,信息终端100具备通信接口(I/F)101、声音输入接口102、传感器组103、显示部104、图形控制器105、触摸面板控制器106、CPU(Central Processing Unit,中央处理器)107、以及存储器108。信息终端100除了这些硬件之外,还可以具备照相机及扬声器等。
通信接口101是在经由中继装置110等进行的与视像装置120那样的其他设备之间的通信中使用的设备。
声音输入接口102是麦克风等声音输入设备,检测由信息终端100的用户进行的声音输入。
传感器组103例如包含加速度传感器、方位传感器、及陀螺仪传感器等中的至少任意一种传感设备。加速度传感器是构成为在信息终端100被移动了的情况下对信息终端100的加速度的方向及大小进行检测的传感设备。另外,方位传感器是构成为对信息终端100的方位进行检测的传感设备。另外,陀螺仪传感器是构成为在信息终端100旋转了的情况下对信息终端100的角速度进行检测的传感设备。
显示部104被构成为组合有显示器104a和触摸面板104b的所谓触摸屏设备。显示器104a例如构成为LCD(Liquid Crystal Display,液晶显示器)或有机EL(ElectroLuminescence,电致发光)显示器等。触摸面板104b检测由用户的手指或触摸笔等触碰的显示器104a的显示画面上的触碰位置。
图形控制器105控制显示部104的显示器104a。触摸面板控制器106控制显示部104的触摸面板104b,从触摸面板104b获取表示用户触碰的显示画面上的触碰位置的坐标数据等。
CPU107通过执行各种计算机程序,从而控制信息终端100的各组件。存储器108具备ROM(Read Only Memory,只读存储器)、RAM(Random Access Memory,随机存取处理器)等,存储由CPU107执行的各种运算处理所使用的各种计算机程序及各种数据等。
利用以上那样的硬件构成,实施方式实现利用信息终端100远程操作视像装置120。更具体而言,在实施方式中,信息终端100根据经由触摸面板104b检测的用户的手动的操作输入、或经由声音输入接口102检测的用户的声音的操作输入,从通信接口101发送对视像装置120的指示,视像装置120根据来自信息终端100的指示而动作。
在此,在为了操作视像装置120而对信息终端100进行声音的操作输入的情况下,希望降低对信息终端100的声音的操作输入的负荷(难易程度),并提高便利性。
因此,实施方式通过使信息终端100(及视像装置120)具有下面的图3所示那样的功能,从而降低用于使用信息终端100远程地操作视像装置120的声音的操作输入的负荷(难易程度),并提高便利性。
图3是示出了实施方式的信息终端100及视像装置120的功能的例示性且示意性的框图。
信息终端100具备通信处理部311、显示处理部312、手动操作处理部313、以及声音操作处理部314。
通信处理部311使用通信接口101执行与视像装置120的通信的控制。显示处理部312使用图形控制器105执行显示器104a的控制。
手动操作处理部313执行与经由触摸面板104b进行的用户的手动的操作输入相关的控制。声音操作处理部314执行与经由声音输入接口102进行的用户的声音的操作输入相关的控制。
另外,视像装置120具备通信处理部321、内容管理部322、第1操作图像生成部323、第2操作图像生成部324、以及指示执行部325。
通信处理部321执行与信息终端100的通信的控制。另外,内容管理部322执行在视像装置120中记录的内容(例如录像视像等)的管理。
第1操作图像生成部323生成为了接收用户的手动的操作输入而应该使信息终端100显示的作为第1操作图像的触摸操作图像。第2操作图像生成部324生成为了接收用户的声音的操作输入而应该使信息终端100显示的作为第2操作图像的声音操作图像。此外,对于第1操作图像及第2操作图像的具体例在后描述。
指示执行部325控制视像装置120的各组件(各功能),以使得根据经由触摸操作图像或声音操作图像输入到信息终端100的用户的操作输入来执行与从信息终端100发送的操作指示相应的动作。
基于以上的功能,实施方式的信息终端100及视像装置120按照下面的图4所示的流程来执行处理。
图4是将实施方式的信息终端100及视像装置120执行的处理以流程图方式示出的例示性且示意性的图。
如图4所示,在实施方式中,首先,在S411中,信息终端100的通信处理部311在实现对视像装置120的远程的操作时,对视像装置120请求触摸操作图像(触摸操作图像的显示所需要的信息)的发送。该S411的处理例如在如下情况下被执行:信息终端100的用户在信息终端100侧执行用于实现对视像装置120的远程的操作的应用程序,在由该应用程序向显示器104a提供的例如被称为主菜单等的初始画面(省略图示)中进行了规定的操作的情况。
若视像装置120的通信处理部321接收了来自信息终端100的请求,则在S421中,视像装置120的第1操作图像生成部323生成触摸操作图像(触摸操作图像的显示所需要的信息),视像装置120的通信处理部321将生成的触摸操作图像发送到信息终端100。然后,若信息终端100的通信处理部311从视像装置120接收了触摸操作图像,则在S412中,信息终端100的显示处理部312将接收到的触摸操作图像显示在显示器104a上。
在此,对于触摸操作图像的具体例子与附图一起进行说明。
图5是示出了实施方式的触摸操作图像的一个例子的例示性且示意性的图。图5所示的图像500在信息终端100的用户借助由上述的应用程序提供的初始画面进行了规定的操作的情况下显示在显示器104a上。
如图5所示,在作为触摸操作图像的一个例子的图像500中显示了包含表示操作项目的按钮、图标或区域等的项目501~512,其中,该操作项目接收与对视像装置120的各种操作对应的手动的操作输入(触碰或点击输入)。
项目501是接收与从触摸操作图像向声音操作图像的切换操作对应的手动的操作输入的项目,项目502是接收与触摸操作图像的更新操作对应的手动的操作输入的项目。由应用程序来提供这些项目501及502,该应用程序是为了实现对视像装置120的远程的操作而在信息终端100中执行的应用程序。
另外,项目503~511是接收与对视像装置120的各种操作对应的手动的操作输入的项目。根据与由信息终端100进行的触摸操作图像的发送的请求,基于从视像装置120发送的信息来提供这些项目503~511。
更具体而言,项目503是接收在视像装置120中记录的内容的检索操作的项目。另外,项目504是接收使由视像装置120当前正在接收的广播中节目(节目的一览)显示在信息终端100或视像装置120上的操作的项目。另外,项目505是接收使在视像装置120中记录的录像节目(节目的一览)显示在信息终端100或视像装置120上的操作的项目。
另外,项目506是接收使在视像装置120中记录的录像节目(节目的一览)以节目表形式显示在信息终端100或视像装置120上的操作的项目。另外,项目507是接收使在视像装置120中记录的录像节目以更高的播放速度显示在信息终端100或视像装置120上的操作的项目。另外,项目508是接收使模仿了用于操作视像装置120的遥控器的UI的图像显示在信息终端100上的操作的项目。
进一步,项目509是接收使节目的排位(ranking)显示在信息终端100或视像装置120上的操作的项目,其中,该节目是由从设置在多个场所的视像装置120收集信息的运营商的服务器等提供的、进行了录像预约或收看预约的节目。另外,项目510是接收从服务器等下载节目表并使其显示在信息终端100上的操作的项目。另外,项目511是接收使成为录像预约的对象的节目的一览显示在信息终端100或视像装置120上的操作的项目。
此外,项目512是接收使应用程序的初始画面显示在信息终端100上的操作的项目,其中,该应用程序是为了实现对视像装置120的远程的操作而在信息终端100中执行的应用程序。该项目512也与上述的项目501及502同样由该应用程序提供。
作为与图5所示的图像500不同的触摸操作图像的另一个例子,举出下面的图6所示的图像600。
图6是示出了实施方式的触摸操作图像的另一个例子的例示性且示意性的图。在图5所示的图像500中进行了对项目504的手动的操作输入的情况下,以从该图像500切换的形式在信息终端100的显示器104a上显示图6所示的图像600。因此,在图6所示的图像600中,显示地面波数字广播、BS(Broadcasting Satellites,广播卫星)广播、及CS(Communication Satellites,通信卫星)广播中的至少任意一种广播中节目的一览。
如图6所示,在作为触摸操作图像的另一个例子的图像600中,也与上述的图5所示的图像500同样,显示项目601~610,该项目601~610包含表示接收与对视像装置120的各种操作对应的手动的操作输入(触碰或点击输入)的操作项目的按钮、图标或区域等。
项目601、602及610分别与上述的项目501、502及512相同,因此,在此省略说明。
项目603是接收调用与上述的图像500同样的操作项目的一览的操作的项目。另外,项目604是接收对在图像600中显示地面波数字广播的广播中节目的一览、还是在图像600中显示BS广播的广播中节目的一览、还是在图像600中显示CS广播的广播中节目进行选择的操作的项目。
另外,项目605~609是接收从与项目604中的选择结果相应的广播中节目的一览中选择使视像装置120显示播放的广播中节目的操作的项目。因此,信息终端100的用户能够通过进行选择项目605~609中的任一个的手动的操作输入(触碰或点击输入),从而使视像装置120显示播放被选择的广播中节目。
这样,在实施方式的触摸操作图像中显示多个操作项目,该多个操作项目构成为接收与对视像装置120的操作对应的手动的操作输入。
因此,返回到图4,若进行了对触摸操作图像中的操作项目的手动的操作输入,则在S413中,信息终端100的通信处理部311将用于使视像装置120执行与该操作输入对应的操作的操作指示发送到视像装置120。
然后,若视像装置120的通信处理部321接收了来自信息终端100的操作指示,则在S422中,视像装置120的指示执行部325控制视像装置120的各组件(各功能),以使得其执行与该操作指示相应的动作。
需要说明的是,实施方式的目的之一是,如上所述降低用于使用信息终端100远程地操作视像装置120的声音的操作输入的负荷(难易程度),提高便利性。
因此,在作为第1操作图像的触摸操作图像的显示中满足了规定的条件的情况下,实施方式的显示处理部312将能够达成上述的目的的作为第2操作图像的声音操作图像显示在信息终端100的显示器104a上。
更具体而言,返回到图4,在触摸操作图像的显示中满足了规定的条件的情况下,在S414中,信息终端100的通信处理部311对视像装置120请求声音操作图像(图像的显示所需要的信息)的发送。然后,在S423中,视像装置120的第2操作图像生成部324根据来自信息终端100的请求的接收,生成声音操作图像(图像的显示所需要的信息),视像装置120的通信处理部321将生成的声音操作图像发送到信息终端100。然后,在S415中,信息终端100的显示处理部312根据来自视像装置120的声音操作图像的接收,将声音操作图像显示在显示器104a上。
在此,对于声音操作图像的具体例子与附图一起进行说明。
图7是示出了实施方式的声音操作图像的一个例子的例示性且示意性的图。图7所示的图像700构成为具有一定的透过性,在图5所示的图像500中进行了对项目501的手动的操作输入的情况下,以与该图像500重叠的形式使其显示在信息终端100的显示器104a上。
此外,在此,说明具有一定的透过性的图像700以与图像500重叠的形式显示在显示器104a上的例子,但是在实施方式中,也可以将不具有透过性的图像700以从图像500切换的形式显示在显示器104a上。另外,在实施方式中,图像700的重叠不限于进行了对项目501的手动的操作输入的情况,在将信息终端100向规定的方向或位置移动了的情况、或将规定的声音输入到信息终端100的情况下等,满足预先设定的规定的条件的情况下也可执行。
如图7所示,在作为声音操作图像的一个例子的图像700中显示项目703~712,该项目703~712构成为:将与图5所示的图像500中的作为操作项目的项目503~512对应的文字信息(信息中的至少一部分)强调显示在与项目503~512重叠的位置。
更具体而言,项目703是构成为将项目503中的“跨库检索”(Cross-Databasesearch)中的一部分的“检索”这种文字信息(字符串)强调显示的项目。另外,项目704是构成为将项目504中的“观看广播中节目”中的一部分的“广播中节目”这种文字信息强调显示的项目。另外,项目705是构成为将项目505中的“观看录像节目”中的一部分的“录像节目”这种文字信息强调显示的项目。
另外,项目706是构成为将项目506中的“观看过去节目表”中的一部分的“过去节目表”这种文字信息强调显示的项目。另外,项目707是构成为将项目507中的“短时间观看”中的一部分的“短时间”这种文字信息强调显示的项目。另外,项目708是构成为将项目508中的“遥控”的全部的文字信息强调显示的项目。
另外,项目709是构成为将项目509中的“从排位进行预约”中的一部分的“排位”这种文字信息强调显示的项目。另外,项目710是构成为将项目510中的“从节目表中进行预约”中的一部分的“节目表”这种文字信息强调显示的项目。另外,项目711是构成为将项目511中的“预约一览”的全部的文字信息强调显示的项目。另外,项目712是构成为将项目512中的“去往主菜单”中的一部分的“主菜单”这种文字信息强调显示的项目。
在上述的项目703~712中强调显示的文字信息作为声音的操作输入的引导(关键词)而发挥功能。因此,用户通过一边观看图像700一边将在项目703~712中强调显示的文字信息作为声音输入到信息终端100,从而能够得到与对项目503~512进行了手动的操作输入的情况同等的结果。
例如,若将项目703中的“检索”这种文字信息作为声音而输入到信息终端100,则该项目703的显示按照下面的图8所示的形式变化。
图8是用于说明实施方式的借助声音操作图像进行的检索的例示性且示意性的图。
如图8所示,在图7所示的图像700中将“检索”这种文字信息作为声音输入到信息终端100,检索框800为空,在该检索框800的附近,显示包含催促检索词的输入的“输入”这种文字信息在内的气泡状的项目801。在这样的构成中,用户通过在说出了项目801中的“输入”这种文字信息之后,说出检索词,从而能够在检索框800中输入检索词。此外,在检索词的输入后,包含用于取消该检索词的输入的“取消”这种文字信息在内的气泡状的项目802代替上述的项目801,显示在检索框800的附近。
返回到图7,在图像700中显示了未在图像500中显示的项目713。项目713是接收使图像700滚动的操作的项目。与上述的项目703~712同样,在项目713中也强调显示了作为声音的操作输入的引导的“下一个”这种文字信息。因此,用户通过将在项目713中强调显示的“下一个”这种文字信息作为声音而输入到信息终端100中,从而能够执行图像700的滚动。
这样,实施方式通过利用项目703~712强调显示成为基于声音的操作输入的关键词的文字信息,从而降低声音的操作输入的负荷(难易程度),提高便利性。另外,实施方式通过使项目703~712与项目503~512的位置相互重叠,从而进一步提高便利性。
此外,在实施方式中,预先确定了成为声音的操作输入的关键词的文字信息。因此,在实施方式中,仅在将强调显示的文字信息作为声音进行了输入的情况下,执行对应的操作,在将强调显示的文字信息以外的文字信息作为声音进行了输入的情况下,不执行任何的操作。
然而,允许地域各自的方言等少许的误差是有益的。因此,在实施方式中,可以采用如下构成:准备多种模式的、作为声音的操作输入的关键词而预先确定的文字信息,并根据将该多种模式中的某一种文字信息作为声音进行输入的情况,而执行对应的操作。例如,对项目507中的“短时间”,除了和作为正规的读法的“Jidan(日文读音)”这种关键词建立对应之外,还和“Yidan(日文读音)”那样的关键词等也建立对应。
此外,声音操作图像并不仅限于上述的图像700。在实施方式中,作为与图6所示的图像600对应的声音操作图像,也存在下面的图9所示的图像900。
图9是示出了实施方式的声音操作图像的另一个例子的例示性且示意性的图。在图7所示的图像700中进行了与项目704的“广播中节目”这种文字信息对应的声音的操作输入的情况下、或在图6所示的图像600中进行了对项目601的手动的操作输入的情况下,将图9所示的图像900显示在信息终端100的显示器104a上。
图9所示的图像900与图7所示的图像700同样,具有一定的透过性,以与图6所示的图像600重叠的形式显示在信息终端100的显示器104a上。因此,与图6所示的图像600同样,在图9所示的图像900中也以可视的形式显示地面波数字广播、BS广播、及CS广播中的至少任意一个广播中节目的一览。
如图9所示,在作为声音操作图像的另一个例子的图像900中,显示了与图6所示的图像600中的作为操作项目的项目603~610对应的项目903~910、以及与图6所示的图像600的操作项目不对应的项目911及912。
更具体而言,项目903是构成为将用于实现与上述的项目603(参照图6)同样的操作的作为声音输入的引导的“菜单”这种文字信息在项目603的附近的位置用气泡框包围从而强调显示的项目。因此,用户通过用声音输入“菜单”这种文字信息,从而能够得到与对上述的项目603(参照图6)进行了手动的操作输入的情况同等的结果。
另外,项目904是构成为将用于实现与上述的项目604(参照图6)同样的操作的作为声音输入的引导的“地面数字”、“BS”及“CS”这种文字信息在与原来的项目604重叠的位置强调显示的项目。因此,用户通过将“地面数字”、“BS”、及“CS”中的任一种文字信息用声音进行输入,从而能够选择是在图像900中显示地面波数字广播的广播中节目的一览、还是在图像900中显示BS广播的广播中节目的一览、还是在图像900中显示CS广播的广播中节目。
另外,项目905~909是构成为通过将用于实现与上述的项目605~609(参照图6)同样的操作的作为声音输入的引导的文字信息用气泡框包围从而强调显示的项目。在实施方式中,在项目905~909中强调显示的文字信息构成为与对应的节目标题不关联的、由数字及文字的单独或组合等构成的简单的(短的)文字信息。
通常,节目标题会各种各样地变化,因此,表示节目标题的文字信息作为声音输入的引导不合适的情况较多。对此,实施方式通过如上所述将简单的(短的)文字信息作为声音输入的引导进行强调显示,从而提高了便利性。
此外,项目910是与上述的项目710(参照图7)同样的项目。因此,若用声音输入了在项目910中强调显示的“主菜单”这种文字信息,则在信息终端100上显示在信息终端100中执行的应用程序的初始画面。
另外,项目911及912是接收使图像900滚动的操作的项目。例如,若用声音输入了在项目911中强调显示的“前一个”这种文字信息,则图像900向上方滚动,若用声音输入了在项目912中强调显示的“下一个”这种文字信息,则图像900向下方滚动。
这样,在实施方式中,通过对声音操作图像的声音的操作输入,也能够执行与对触摸操作图像的手动的操作输入同等的操作。
因此,返回到图4,若进行了与在声音操作图像中强调显示的文字信息对应的声音的操作输入,则在S415中,信息终端100的通信处理部311向视像装置120发送用于使视像装置120执行与该操作输入对应的操作的操作指示。此外,在实施方式中,在声音操作图像的显示中一定时间地未进行声音的操作输入的情况下,可以执行从声音操作图像向触摸操作图像的切换。
而且,若视像装置120的通信处理部321接收了来自信息终端100的操作指示,则在S424中,视像装置120的指示执行部325控制视像装置120的各组件(各功能),以使得执行与该操作指示相应的动作。
此外,在实施方式中,上述的图3所示的功能模块组作为由CPU107执行了存储器108等中存储的预定的应用程序的结果,通过硬件与软件的协作来实现。但是,在实施方式中,上述的图3所示的功能模块组的至少一部分也可以作为专用的硬件(电路)来实现。
上述的应用程序既可以以预先装入在存储器108等存储装置中的状态来提供,也可以作为以在存储介质中能够安装的形式或能够执行的形式记录的计算机程序产品来提供,其中,该存储介质是软盘那样的各种磁盘、或DVD(Digital Versatile Disk:数字通用盘)那样的各种光盘等这样的计算机可读取的非易失性存储介质。
另外,上述的应用程序也可以经由互联网等网络来提供或发布。即,上述的应用程序也可以以在存储在连接于互联网等网络的计算机上的状态下,从该计算机经由网络下载这样的形式来提供。
如以上说明的那样,实施方式的信息终端100具备显示处理部312、以及声音操作处理部314。
显示处理部312构成为:将显示了接收与对视像装置120的操作对应的手动的操作输入的操作项目的作为第1操作图像的触摸操作图像(参照图5及图6)显示在显示部104(显示器104a)上,在触摸操作图像的显示中满足了规定的条件的情况下,将强调显示了与触摸操作图像中的操作项目对应的文字信息的作为第2操作图像的声音操作图像(参照图7及图9)显示在显示部104上。而且,声音操作处理部314构成为:在声音操作图像的显示中,将与在声音操作图像中强调显示的文字信息对应的声音的操作输入,作为对视像装置120的操作进行接收。
根据上述这样的构成,在为了操作视像装置120而对信息终端100进行声音的操作输入的情况下,能够将在声音操作图像中强调显示的文字信息作为声音的操作输入的引导来利用。因此,能够降低对信息终端100的声音的操作输入的负荷(难易程度),提高便利性。
在此,在实施方式中,声音操作处理部314构成为:(不会将与在声音操作图像中强调显示的文字信息对应的声音不同于声音的操作输入作为对视像装置120的操作进行接收,而)仅将与在声音操作图像中强调显示的文字信息对应的声音的操作输入作为对视像装置120的操作进行接收。根据这样的构成,仅在精确地执行了声音的操作输入的情况下,能够实现对视像装置120的操作。
另外,在实施方式中,声音操作处理部314将声音的操作输入和与第2操作图像中强调显示的文字信息对应的声音的模式建立关联,并将声音的模式和对视像装置120的操作建立对应。根据这样的构成,能够容易将声音的操作输入和对视像装置120的操作建立对应。因此,例如在因方言等导致按照地域而文字信息的发出声音的模式不同这样的情况下,能够将这些不同的模式的发出的声音与同一操作建立对应。例如,“hi ga si da gou ji oken sa ku(日文发音)”这种第1声音模式和“si ga si da gou ji o ken sa ku(日文发音)”这种第2声音模式和“su ga su da gou ji o ken sa ku(日文发音)”这种第3声音模式作为声音的模式各不相同,但是,认为该差异只不过是方言所导致的误差。因此,这3个声音模式均与“检索东田光司”这种用于检索东田光司(hi ga si da gou ji(日文发音))这一特定的个人的声音的操作输入建立对应是有益的。
换言之,在实施方式中,声音操作处理部314可以构成为:预先将多个模式的声音与在声音操作图像中强调显示的文字信息对应的声音建立对应,将该多个模式的声音中的某一个的操作输入,作为与在声音操作图像中强调显示的文字信息对应的声音的操作输入所对应的、对视像装置120的操作来接收。根据这样的构成,例如在因方言等导致按照地域而文字信息的发出声音的模式存在多个模式的情况下,能够适当地处理。
此外,在实施方式中,显示处理部312构成为:能够在声音操作图像上,将与触摸操作图像中的操作项目对应的文字信息在与触摸操作图像中的操作项目重叠的位置强调显示。根据这样的构成,能够容易识别经由声音操作图像进行的声音的操作输入和经由触摸操作图像进行的手动的操作输入的对应关系。
另外,在实施方式中,显示处理部312构成为:还能够在声音操作图像上,将与触摸操作图像中的操作项目对应的文字信息以由气泡框包围的状态在触摸操作图像中的操作项目的附近的位置强调显示。根据这样的构成,也能够容易识别经由声音操作图像进行的声音的操作输入和经由触摸操作图像进行的手动的操作输入的对应关系。
另外,在实施方式中,显示处理部312构成为:在触摸操作图像中显示的操作项目与对应该使视像装置120输出的内容(上述的广播中节目及录像节目等)的操作对应的情况下,将声音操作图像中的文字信息作为由预先确定的文字及数字中的至少一方的单独或组合构成的识别信息来显示。根据这样的构成,在声音的操作输入时,通过使用识别信息,从而例如能够简单地执行对显示播放及停止等的内容的操作。
另外,在实施方式中,显示处理部312以触摸操作图像中的操作项目隔着声音操作图像而透过这样的显示形态,将声音操作图像重叠于触摸操作图像地显示。根据这样的构成,能够容易地识别在触摸操作图像中显示的操作项目和在声音操作图像中强调显示的文字信息的对应关系。
<变形例>
此外,在上述的实施方式中,例示了将具有透过性的声音操作图像以重叠于触摸操作图像的形式来显示的构成。然而,只要是成为声音的操作输入的引导的文字信息被强调显示的构成,则也可以将不具有透过性的声音操作图像以从触摸操作图像切换的形式来显示。
另外,在上述的实施方式中,例示了将声音操作图像中的文字信息在与触摸操作图像中的操作项目重叠的位置或附近的位置强调显示的构成。然而,即使文字信息和操作项目存在于分离的位置,只要成为声音的操作输入的引导的文字信息被强调显示,则能够得到降低对信息终端100的声音的操作输入的负荷(难易程度)并提高便利性这种效果。
另外,在上述的实施方式中,例示了将与对内容的操作对应的文字信息作为由预先确定的文字及数字中的至少一方的单独或组合构成的识别信息来显示的构成。然而,只要能够获取内容的标题等,则也可以将内容的标题整体作为成为声音的操作输入的引导的文字信息而在声音操作图像中强调显示。
以上,说明了本申请的实施方式及变形例,但是,上述的实施方式及变形例只不过是一个例子,并不意图限定申请的范围。上述的新的实施方式及变形例能够以各种各样的形态来实施,在不脱离申请的主旨的范围内,能够进行各种省略、置换、变更。上述的实施方式及变形例包含在申请的范围、主旨中,并且包含在权利要求书的范围中记载的发明及其等同的范围内。

Claims (6)

1.一种电子设备,具备:
通信处理部,配置为:与视像装置连接并且进行数据交互,向所述视像装置发送用于请求所述视像装置生成触摸操作图像的第一请求,以及向所述视像装置发送用于请求所述视像装置生成声音操作图像的第二请求,其中,所述触摸操作图像包括包含表示多个操作项目的按钮、图标或区域,该操作项目接收与对视像装置的各种操作对应的手动的操作输入,所述声音操作图像包括多个用于对视像装置的各种操作的显示项目;
显示部,包括显示器和触摸面板,其中,所述触摸面板配置为检测由用户的手指或触摸笔触碰的显示器的显示画面上的触碰位置;
显示处理部, 配置为:接收所述视像装置发送的作为第1操作图像的触摸操作图像,并且将所述触摸操作图像显示在所述电子设备的显示部,接收所述视像装置发送的作为第2操作图像的声音操作图像,所述声音操作图像的部分文字信息强调显示在所述电子设备的显示部以引导用户进行语音输入,并且所述声音操作图像构成为:将具有一定透过性的声音操作图像与所述触摸操作图像重叠展示,并且将与作为所述触摸操作图像中的多个操作项目对应的文字信息强调显示在与所述触摸操作图像中相应项目重叠的位置以引导用户进行语音输入;以及
声音操作处理部,其在所述第2操作图像的显示中,将与所述第2操作图像中强调显示的所述文字信息对应的声音的操作输入作为对视像装置的操作来接收,并向所述视像装置发送所述文字信息对应的声音的操作指令,在预定时间内没有接收到语音输入,向触摸操作模式切换。
2.根据权利要求1所述的电子设备,其中,
所述声音操作处理部仅将与所述第2操作图像中强调显示的所述文字信息对应的声音的操作输入作为对所述视像装置的操作来接收,而不会将与在声音操作图像中强调显示的文字信息对应的声音不同的声音的操作输入作为对视像装置的操作进行接收。
3.根据权利要求2所述的电子设备,其中,
所述声音操作处理部将所述声音的操作输入和对应于所述第2操作图像中强调显示的所述文字信息的声音的模式建立关联,并将所述声音的模式和对所述视像装置的操作建立对应。
4.根据权利要求1~3中任一项所述的电子设备,其中,
所述显示处理部在所述第2操作图像上,将与所述第1操作图像中的所述操作项目对应的所述文字信息强调显示在与所述第1操作图像中的所述操作项目重叠的位置。
5.根据权利要求1~3中任一项所述的电子设备,其中,
所述显示处理部在所述第2操作图像上,将与所述第1操作图像中的所述操作项目对应的所述文字信息以由气泡框包围的状态强调显示。
6.根据权利要求1~3中任一项所述的电子设备,其中,
在所述第1操作图像中显示的所述操作项目与针对应该向所述视像装置输出的内容的操作相对应的情况下,所述显示处理部将所述第2操作图像中的所述文字信息作为由预先确定的文字及数字中的至少一方的单独或组合所构成的识别信息来显示。
CN202080004679.5A 2019-10-29 2020-10-16 电子设备及非易失性存储介质 Active CN112602330B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019-196719 2019-10-29
JP2019196719A JP2021071807A (ja) 2019-10-29 2019-10-29 電子機器およびプログラム
PCT/CN2020/121423 WO2021082947A1 (zh) 2019-10-29 2020-10-16 电子设备及非易失性存储介质

Publications (2)

Publication Number Publication Date
CN112602330A CN112602330A (zh) 2021-04-02
CN112602330B true CN112602330B (zh) 2023-07-11

Family

ID=75207743

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080004679.5A Active CN112602330B (zh) 2019-10-29 2020-10-16 电子设备及非易失性存储介质

Country Status (2)

Country Link
US (1) US12039228B2 (zh)
CN (1) CN112602330B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115243062B (zh) * 2022-06-16 2024-06-07 科大讯飞股份有限公司 场景展示方法、装置、屏显设备、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106935235A (zh) * 2015-09-24 2017-07-07 卡西欧计算机株式会社 电子设备以及乐音控制方法
CN107005674A (zh) * 2014-12-26 2017-08-01 日立麦克赛尔株式会社 视听系统、广播接收装置、便携终端、节目录像和视听方法、以及录像节目的视听方法
JP2019071061A (ja) * 2018-10-18 2019-05-09 マクセル株式会社 映像表示装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11232438A (ja) 1998-02-10 1999-08-27 Square Co Ltd 情報処理装置および情報記録媒体
US7324947B2 (en) * 2001-10-03 2008-01-29 Promptu Systems Corporation Global speech user interface
JP2005242183A (ja) 2004-02-27 2005-09-08 Toshiba Corp 音声認識装置、表示制御装置、レコーダ装置、表示方法およびプログラム
JP2007171809A (ja) * 2005-12-26 2007-07-05 Canon Inc 情報処理装置及び情報処理方法
JP5222535B2 (ja) 2007-11-19 2013-06-26 株式会社タイトー 携帯端末、ゲームプログラム
JP5629890B2 (ja) * 2011-03-30 2014-11-26 日立マクセル株式会社 ネットスーパーシステムにおける画面表示方法
ES2958183T3 (es) 2011-08-05 2024-02-05 Samsung Electronics Co Ltd Procedimiento de control de aparatos electrónicos basado en el reconocimiento de voz y de movimiento, y aparato electrónico que aplica el mismo
WO2014007020A1 (ja) * 2012-07-03 2014-01-09 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、情報処理方法、およびプログラム
CN103885662A (zh) * 2012-12-20 2014-06-25 联想(北京)有限公司 辅助语音输入的方法和装置
US20140181672A1 (en) 2012-12-20 2014-06-26 Lenovo (Beijing) Co., Ltd. Information processing method and electronic apparatus
CN104898625A (zh) * 2015-05-28 2015-09-09 华帝股份有限公司 一种语音烟机控制系统及其控制方法
CN105045828B (zh) * 2015-06-26 2019-04-02 徐信 一种音视频语音信息精确定位的检索系统及方法
JP2017204745A (ja) * 2016-05-11 2017-11-16 知紘 松野 プログラム
CN106910503A (zh) 2017-04-26 2017-06-30 海信集团有限公司 用于智能终端显示用户操控指令的方法、装置和智能终端
JP7098897B2 (ja) 2017-09-14 2022-07-12 大日本印刷株式会社 画像処理装置、プログラム及び画像データ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107005674A (zh) * 2014-12-26 2017-08-01 日立麦克赛尔株式会社 视听系统、广播接收装置、便携终端、节目录像和视听方法、以及录像节目的视听方法
CN106935235A (zh) * 2015-09-24 2017-07-07 卡西欧计算机株式会社 电子设备以及乐音控制方法
JP2019071061A (ja) * 2018-10-18 2019-05-09 マクセル株式会社 映像表示装置

Also Published As

Publication number Publication date
US12039228B2 (en) 2024-07-16
US20220107781A1 (en) 2022-04-07
CN112602330A (zh) 2021-04-02

Similar Documents

Publication Publication Date Title
JP6270982B2 (ja) バックグラウンドタスク用の対話式入力
US20160156957A1 (en) Multimedia device and method for controlling the same
EP3141997A1 (en) Mobile terminal and method for controlling the same
CN110659010A (zh) 一种画中画显示方法以及显示设备
JP2014532933A (ja) 電子装置及びその制御方法
CN113703643B (zh) 内容显示方法、装置、设备及介质
AU2014287956A1 (en) Method for displaying and electronic device thereof
JP6223744B2 (ja) 方法、電子機器およびプログラム
CN110519628A (zh) 一种画中画显示方法以及显示设备
EP2605527B1 (en) A method and system for mapping visual display screens to touch screens
CN112602330B (zh) 电子设备及非易失性存储介质
CN110572519A (zh) 一种来电显示界面的拦截方法以及显示设备
WO2021082947A1 (zh) 电子设备及非易失性存储介质
US20120136930A1 (en) Interruption display system, content information provision server device, and client device
CN112804576B (zh) 一种操作控制方法、设备及介质
EP3319329A1 (en) Electronic device and electronic device operation method
KR102668748B1 (ko) 디스플레이 디바이스 및 그 제어 방법
CN114302248B (zh) 一种显示设备及多窗口语音播报方法
KR20200079026A (ko) 디지털 디바이스 및 그 제어 방법
KR102303286B1 (ko) 단말기 및 그의 동작 방법
US20240298061A1 (en) Method, apparatus, electronic device and storage medium for displaying prompt information
KR20170012998A (ko) 디스플레이 디바이스 및 그 제어 방법
KR101683076B1 (ko) 휴대 단말기의 보조키맵 운용 방법 및 장치
KR101546620B1 (ko) 이동단말기 및 그 제어방법
CN114089852A (zh) 一种显示设备、电子白板装置及白板擦除方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant