CN103686394A - 显示装置及其控制方法 - Google Patents

显示装置及其控制方法 Download PDF

Info

Publication number
CN103686394A
CN103686394A CN201310454076.7A CN201310454076A CN103686394A CN 103686394 A CN103686394 A CN 103686394A CN 201310454076 A CN201310454076 A CN 201310454076A CN 103686394 A CN103686394 A CN 103686394A
Authority
CN
China
Prior art keywords
scene
user
voice
lines
scenes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310454076.7A
Other languages
English (en)
Inventor
李和洙
郑芸
金玟志
H·韩
Y·卢
朴荣椿
任慧民
池侑宣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN103686394A publication Critical patent/CN103686394A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8541Content authoring involving branching, e.g. to different story endings
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

公开了一种显示装置及其控制方法。该显示装置包括:图像处理器,其处理包括多个场景的内容的图像以便显示图像;显示器,其在其上显示内容的图像;语音输入,其输入用户的语音;以及控制器,其显示该内容的多个场景中的第一场景,并且响应于确定在显示第一场景的同时已输入的用户的语音对应于第一场景而显示该内容的多个场景中的、归入第一场景的下一个场景的第二场景。

Description

显示装置及其控制方法
技术领域
与示范性实施例一致的装置和方法涉及显示装置及其控制方法。并且更具体地,示范性实施例涉及提供包括一系列场景的内容的显示装置及其控制方法。
背景技术
诸如TV、智能平板、或个人计算机(PC)等的显示装置可以播放和提供包括图像的内容。此种内容可以变化,例如,包括由一系列场景组成的内容,诸如童话故事。
响应于诸如童话故事的内容被播放,当用户意图从一个场景移动到另一场景时,他/她按照熟知的方式按压遥控器上的按钮或操纵显示装置的面板或触摸屏幕。
除了这种简单的接口类型之外,需要更加直观、并吸引用户的注意力,而且使得用户能够专注于内容的一种接口。
发明内容
因此,一个或多个示范性实施例提供一种显示装置及其控制方法,其在播放包括一系列场景的内容的同时更加直观、并吸引用户的注意力、而且使得用户能够专注于内容。
上述和/或其他方面可以通过提供一种显示装置来实现,该显示装置包括:图像处理器,其处理包括多个场景的内容的图像以便显示图像;显示器,其显示内容的图像;语音输入,其输入用户的语音;以及控制器,其显示该内容的多个场景中的第一场景,并且响应于确定在显示第一场景的同时已输入的用户的语音对应于第一场景而显示该内容的多个场景中的、归入第一场景的下一个场景的第二场景。
所述显示装置还可以包括储存器,其在其中存储关于对应于多个场景中的每一个的台词的信息,其中控制器响应于在用户的语音和第二场景的台词之间的一致性程度等于或大于预定值而确定用户的语音对应于第一场景。
响应于在用户的语音和第二场景的台词之间的一致性程度小于预定值,控制器可以为用户指导第二场景的台词。
所述显示装置还可以包括用户输入,其中控制器根据用户的输入确定在用户的语音和第二场景的台词之间的一致性程度的基准。
在显示第一场景的同时,控制器可以指导用户以便让用户知道何时轮到用户说第二场景的台词。
所述显示装置还可以包括照相机,其拍摄用户的图像,其中控制器将拍摄的用户的图像反映在内容的多个场景中的至少一个上。
上述和/或其他方面也可以通过提供一种控制显示装置的方法来实现,该方法包括:显示内容的多个场景中的第一场景;在显示第一场景的同时输入用户的语音;确定输入的用户的语音是否对应于第一场景;以及响应于输入的用户的语音对应于第一场景,显示该内容的多个场景中的、归入第一场景的下一个场景的第二场景。
确定输入的用户的语音是否对应于第一场景的步骤可以包括:参考存储在显示装置中的、关于对应于多个场景的台词的信息,以便确定在用户的语音和第二场景的台词之间的一致性程度是否等于或大于预定值。
所述控制方法还可以包括响应于在用户的语音和第二场景的台词之间的一致性程度小于预定值,为用户指导第二场景的台词。
所述控制方法还可以包括根据用户的输入确定在用户的语音和第二场景的台词之间的一致性程度的基准。
所述控制方法还可以包括在显示第一场景的同时指导用户以便通知用户何时轮到用户说第二场景的台词。
所述控制方法还可以包括拍摄用户的图像;以及显示内容的多个场景中的、反映了拍摄的用户的图像的场景的至少一个。
示范性实施例还可以提供一种显示装置,包括:图像处理器,其处理包括多个场景的内容的图像;语音输入,其输入用户的语音;以及控制器,其向显示器传送多个场景中的第一场景,并且响应于确定在显示第一场景的同时已输入的用户的语音对应于第一场景而显示归入第一场景的下一个场景的第二场景。可以提供储存器,其存储对应于多个场景中的每一个的信息,其中控制器响应于在用户的语音和第二场景的台词之间的一致性程度等于或大于预定值而确定用户的语音对应于第一场景。此外,在显示第一场景的同时,控制器可以让用户知道何时轮到用户说第二场景的台词。
附图说明
从以下结合附图的对示范性实施例的描述,以上和/或其他方面将变得清楚和更易于理解,其中:
图1是根据示范性实施例的显示装置的框图。
图2是示出根据示范性实施例的控制显示装置的方法的流程图。
图3示出根据示范性实施例的每个场景和内容台词之间的相关性。
图4是示出根据示范性实施例的控制显示装置的方法的另一示例的流程图。
图5示出根据实施例的角色选择屏幕。
图6示出根据示范性实施例的角色制作屏幕;和
图7示出根据示范性实施例的内容播放屏幕。
具体实施方式
下文中,将参考附图来详细描述示范性实施例从而本领域的普通技术人员容易理解。示范实施例可以按照各种形式具体实现而不局限于这里阐述的示范实施例。为了清楚起见,公知部分的描述被省去,并且相同参考数字始终指代相同元素。
下文中,将详细描述示范实施例。图1是根据示范实施例的显示装置的框图。显示装置1可以包括接收器11、图像处理器12、显示器13、用户输入14、控制器15、储存器16、语音输入17、和照相机18。显示设备1可以被实现为TV,智能平板或PC,并且可以应用于任何设备,只要它播放内容,无所谓它的名字。图1所示的显示装置1的配置只是一个示范性实施例,并且可以变化。例如,图1所示的显示装置1可以被实现为不具有照相机18。
接收器11接收包括内容的图像信号。接收器11可以从广播信号(诸如TV广播信号)的传输装置(未示出)接收广播信号作为图像信号,从诸如DVD播放器或BD播放器的图像设备接收图像信号,从PC接收图像信号,从诸如智能电话或智能平板的移动设备接收图像信号,从诸如因特网的网络接收图像信号,或可以接收存储在诸如通用串行总线(USB)储存介质的储存介质中的图像内容作为图像信号。根据另一示范性实施例,内容可以被存储在储存器16中以被提供,而不是由接收器11接收。
根据示范性实施例的内容是包括一系列场景的内容。例如,内容可以包括按照图像形式提供的童话故事。按场景播放内容,并且每个场景在用户的命令时进行播放,并且场景根据用户的命令改变到下一个场景。
图像处理器12处理由接收器11接收的图像信号以显示图像。显示器13可基于由图像处理器12处理的图像信号在其上显示图像。显示器13的显示器类型包括,但不限于,液晶显示器(LCD),等离子体显示面板(PDP),有机发光二极管(OLED)等。在这种情况下,显示器13可包括LCD、PDP、或OLED面板。
用户输入14接收用户的输入。用户输入14可以包括遥控信号接收器和用于直接接收用户输入的操纵按钮或触摸板,其中遥控信号接收器从遥控器接收包括用户的输入的遥控信号。
储存器16包括诸如快闪存储器、硬盘驱动器等的非易失性存储器。储存器16在其中存储显示装置1的操作必需的程序和数据。这样的程序包括操作系统(OS)、应用程序等。储存器16还可以在其中存储关于对应于内容的每个场景的台词的信息。根据示范性实施例的台词可以是,例如,由童话故事的角色所说的台词。
控制器15控制内容的播放。也即,响应于在播放内容的场景(下文中,将被称为“第一场景”)的同时输入的用户的语音,控制器15确定输入的用户的语音是否对应于当前的第一场景,如果是,则显示下一个场景(在下文中,将被称为“第二场景”)。控制器15的详细操作将在后面描述。
语音输入17接收用户的语音。例如,语音输入17可以被实现为麦克风。照相机18拍摄用户的图像。
控制器15可以包括:非易失性存储器(未示出),其在其中存储执行控制操作的控制程序;易失性存储器(未示出),其加载所存储的控制程序的至少一部分;和微处理器(未示出),其执行所加载的控制程序。储存器16可包括存储控制程序的非易失性存储器。
图2是示出控制图1所示的显示装置1的方法的流程图。在操作S21中,显示装置1的控制器15显示内容的一系列场景的第一场景。假设根据示范性实施例的内容是故事书。在操作S22中,控制器15鉴定在显示第一场景的同时用户的语音是否已经通过语音输入17而输入。在操作S23,控制器15确定所输入的用户的语音是否对应于当前正被显示的内容的第一场景。在操作S24中,响应于确定输入的用户的语音对应于当前正被显示的内容的第一场景,控制器15显示第二场景作为下一个场景。采用相同的方法,通过与用户交互地交换台词,显示装置1继续进行内容的场景。
参照图3,响应于正在显示第一场景31的同时被输入的用户的语音,控制器15参考存储在储存器16中的关于台词的信息。储存器16在其中存储关于对应于内容的每个场景的台词的信息。控制器15在储存器16的台词信息中参考台词a33,台词a33对应于作为当前正被显示的第一场景31的下一个场景的第二场景32。控制器15确定所输入的用户的语音是否对应于台词a33,并且根据确定结果显示第二场景。
根据另外的示范性实施例,当第一场景正被显示时,控制器15鉴定是否轮到用户来说台词,如果是这样(在图3的示例中的是),则可通知用户轮到用户说台词了。例如,控制器15可以与第一场景一起显示指导消息或指导图标,或者可以输出指导的语音以通知用户,轮到用户说台词了。显示装置1还可以包括:包括扬声器以输出指导语音的语音输出(未示出)。
图4是示出控制显示装置1的方法的另一示例的流程图。这个示范性实施例可以归入比图2中的操作S23更具体的过程。在操作S41中,控制器15辨别输入的用户的语音。控制器15可分析句子结构、词汇、含义等来辨别用户的语音。对于所输入的用户的语音,控制器15可以通过预定的软件算法辨别句子结构和词汇,并通过上下文分析含义。
在操作S42中,控制器15确定在辨别的用户的语音的内容和第二场景的台词之间的一致性的程度。控制器15可鉴定在台词和图案(pattem)之间的一致性、台词的顺序、以及台词的主题以确定在用户的语音的内容和第二场景的台词之间的一致性的程度。在操作S43中,控制器15鉴定在用户的语音的内容和第二场景的台词之间的一致性的程度是否是预定值或更大值。响应于在操作S43中确定一致性程度为预定值或更大值,控制器15在操作S44中显示第二场景。
根据另外的示范性实施例,控制器15可确定在用户的语音的内容和第二场景的台词之间的一致性的程度的基准(basis)。例如,台词的一致性程度可包括各种模式,诸如新手(低一致性)、中间(中间的一致性)、和高级(高一致性)。每个模式可以通过用户的输入选择。台词的一致性程度的模式可以通过用户界面(未示出)选择。
响应于在操作S43中确定该一致性程度不是等于或高于预定值,控制器15可以鉴定不一致的数目是否是预定值或更大值,并且响应于不一致的数目小于预定值,控制器15可以给用户再一次机会来说台词,并可以再次执行操作S41。在这种情况下,控制器15可以显示指导消息,以使得用户能够再次说台词。
响应于在操作S45中确定不一致的数目是预定值(例如,3次)或更大值,控制器15可以提供台词,以便用户可以很容易地讲台词。例如,控制器15可以在显示器13上显示第二场景的台词或说出第二场景的台词,从而用户可以在控制器15之后进行重复。显示装置1还可以包括:包括扬声器以输出朗读台词的语音的语音输出(未示出)。
根据另一示范性实施例,响应于台词不一致(或不一致达预定次数或更多次),控制器15可以跳到接下来的第二场景。
图5示出根据示范性实施例的角色选择屏幕。当内容播放操作开始时,控制器15可以在显示器51上显示角色选择屏幕52。用户可以通过使用用户输入14选择他/她为之说内容中台词的角色53。控制器15在内容的多个场景中的、其中所选择的角色53说台词的场景中执行上述操作。
图6示出根据示范实施例的角色制作(making)屏幕。根据另外的示范性实施例,当选择角色时,控制器15可以进一步显示角色制作屏幕62。在这种情况下,控制器15通过照相机18拍摄用户的图像。在这个示范性实施例中,假设用户穿戴诸如王冠的配饰。控制器15根据拍摄的用户图像鉴定王冠的形状,并且在角色上反映该鉴定的形状(如,图像的合成)(参照参考数字63)。然后,当播放内容时,控制器15可以在示出用户的角色的场景中在角色上反映该王冠的形状。然后,用户会对内容更加感兴趣。
图7示出根据示范性实施例的内容播放屏幕的示例。如这里所示,控制器15显示内容的第一场景72,并且输出用户的角色的对手的台词73。用户在轮到他/她的角色说台词时说他/她的台词。控制器15鉴定用户的语音并且根据台词的一致性而前进到下一个场景。
如上所述,显示装置及其控制方法使得用户能够通过用户的语音继续进行内容的场景而无需任何额外的操纵设备,并且使得用户能够更直观和方便地享受内容。
同样,显示装置及其控制方法使得用户能够由他/她自己说台词并专注于内容,以及对内容更感兴趣。
此外,显示装置及其控制方法可以帮助儿童提高他们的讲故事和说话的能力。
虽然已经示出和描述少数示范性实施例,但是本领域技术人员将理解,可以对这些示范性实施例做出改变而不脱离本发明的原理和精神,其范围由所附权利要求及其等价物定义。

Claims (12)

1.一种显示装置,包括:
图像处理器,其处理包括多个场景的内容的图像以便显示图像;
显示器,其在其上显示该内容的图像;
语音输入,其输入用户的语音;以及
控制器,其显示该内容的多个场景中的第一场景,并且响应于确定在显示第一场景的同时已输入的用户的语音对应于第一场景,显示该内容的多个场景中的、归入第一场景的下一个场景的第二场景。
2.根据权利要求1所述的显示装置,还包括储存器,其在其中存储关于对应于多个场景中的每一个的台词的信息,其中所述控制器响应于在用户的语音和第二场景的台词之间的一致性程度等于或大于预定值而确定用户的语音对应于第一场景。
3.根据权利要求2所述的显示装置,其中,响应于在用户的语音和第二场景的台词之间的一致性程度小于预定值,所述控制器为用户指导第二场景的台词。
4.根据权利要求2所述的显示装置,还包括用户输入,其接收用户的输入,其中所述控制器根据用户的输入确定在用户的语音和第二场景的台词之间的一致性程度的基准。
5.根据权利要求1所述的显示装置,其中在显示第一场景的同时控制器指导用户以便让用户知道何时轮到用户说第二场景的台词。
6.根据权利要求1所述的显示装置,还包括照相机,其拍摄用户的图像,其中所述控制器将拍摄的用户的图像反映在内容的多个场景中的至少一个上。
7.一种控制显示装置的方法,包括:
显示内容的多个场景中的第一场景;
在显示第一场景的同时输入用户的语音;
确定输入的用户的语音是否对应于第一场景;以及
响应于输入的用户的语音对应于第一场景,显示该内容的多个场景中的、归入第一场景的下一个场景的第二场景。
8.根据权利要求7所述的控制方法,其中确定输入的用户的语音是否对应于第一场景的步骤包括:参考存储在显示装置中的、关于对应于多个场景的台词的信息,以便确定在用户的语音和第二场景的台词之间的一致性程度是否等于或大于预定值。
9.根据权利要求8所述的控制方法,还包括响应于在用户的语音和第二场景的台词之间的一致性程度小于预定值,为用户指导第二场景的台词。
10.根据权利要求8所述的控制方法,还包括根据用户的输入确定在用户的语音和第二场景的台词之间的一致性程度的基准。
11.根据权利要求7所述的控制方法,还包括在显示第一场景的同时指导用户何时轮到用户说第二场景的台词。
12.根据权利要求7所述的控制方法,还包括拍摄用户的图像;以及
显示内容的多个场景中的、反映了拍摄的用户的图像的场景中的至少一个。
CN201310454076.7A 2012-09-25 2013-09-25 显示装置及其控制方法 Pending CN103686394A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120106410A KR20140039757A (ko) 2012-09-25 2012-09-25 디스플레이장치 및 그 제어방법
KR10-2012-0106410 2012-09-25

Publications (1)

Publication Number Publication Date
CN103686394A true CN103686394A (zh) 2014-03-26

Family

ID=49054382

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310454076.7A Pending CN103686394A (zh) 2012-09-25 2013-09-25 显示装置及其控制方法

Country Status (5)

Country Link
US (1) US20140085187A1 (zh)
EP (1) EP2711851A3 (zh)
JP (1) JP2014068343A (zh)
KR (1) KR20140039757A (zh)
CN (1) CN103686394A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040230410A1 (en) * 2003-05-13 2004-11-18 Harless William G. Method and system for simulated interactive conversation
US20110314381A1 (en) * 2010-06-21 2011-12-22 Microsoft Corporation Natural user input for driving interactive stories
CN102654824A (zh) * 2011-03-04 2012-09-05 三星电子株式会社 显示设备及其控制方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030163315A1 (en) * 2002-02-25 2003-08-28 Koninklijke Philips Electronics N.V. Method and system for generating caricaturized talking heads
US20100085363A1 (en) * 2002-08-14 2010-04-08 PRTH-Brand-CIP Photo Realistic Talking Head Creation, Content Creation, and Distribution System and Method
TW201005583A (en) * 2008-07-01 2010-02-01 Yoostar Entertainment Group Inc Interactive systems and methods for video compositing
TWI420433B (zh) * 2009-02-27 2013-12-21 Ind Tech Res Inst 語音互動系統與方法
KR101164379B1 (ko) * 2011-08-01 2012-08-07 민병철 사용자 맞춤형 컨텐츠 제작이 가능한 학습 장치 및 이를 이용한 학습 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040230410A1 (en) * 2003-05-13 2004-11-18 Harless William G. Method and system for simulated interactive conversation
US20110314381A1 (en) * 2010-06-21 2011-12-22 Microsoft Corporation Natural user input for driving interactive stories
CN102654824A (zh) * 2011-03-04 2012-09-05 三星电子株式会社 显示设备及其控制方法

Also Published As

Publication number Publication date
KR20140039757A (ko) 2014-04-02
JP2014068343A (ja) 2014-04-17
EP2711851A3 (en) 2016-07-27
US20140085187A1 (en) 2014-03-27
EP2711851A2 (en) 2014-03-26

Similar Documents

Publication Publication Date Title
CN111353839B (zh) 商品信息处理方法、直播商品的方法、装置及电子设备
CN108235086B (zh) 视频播放控制方法、装置及相应的终端
CN111294638B (zh) 一种实现视频互动的方法、装置、终端和存储介质
US9582246B2 (en) Voice-command suggestions based on computer context
US9786326B2 (en) Method and device of playing multimedia and medium
US9489171B2 (en) Voice-command suggestions based on user identity
US9542060B1 (en) User interface for access of content
US11632584B2 (en) Video switching during music playback
CN109416562B (zh) 用于虚拟现实的装置、方法和计算机可读介质
US20150256873A1 (en) Relayed voice control of devices
JP5955299B2 (ja) 表示制御装置、表示制御方法、プログラム及び情報記憶媒体
CN105983233B (zh) 游戏历程记录装置、游戏历程记录方法及游戏历程互动方法
CN108600818B (zh) 展示多媒体资源的方法及装置
US10468004B2 (en) Information processing method, terminal device and computer storage medium
KR102192704B1 (ko) 영상 출력 장치
KR101883414B1 (ko) 안내 장치, 안내 방법, 프로그램 및 정보 저장 매체
KR20130056529A (ko) 휴대용 단말기에서 증강현실 서비스를 제공하기 위한 장치 및 방법
JPWO2015068699A1 (ja) エンタテインメント装置、表示制御方法、プログラム及び情報記憶媒体
CN111263204A (zh) 用于多媒体播放设备的控制方法、装置及计算机存储介质
EP2750026A2 (en) Audio device and storage medium
CN111078081B (zh) 一种点读模式的控制方法及电子设备
CN115278341A (zh) 显示设备及视频处理方法
KR20230120668A (ko) 영상통화 방법 및 장치
KR20170032864A (ko) 전자 장치 및 전자 장치의 동작 방법
CN103686394A (zh) 显示装置及其控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140326