JP2019153314A - 映像処理装置及びその制御方法、並びに映像処理システム - Google Patents

映像処理装置及びその制御方法、並びに映像処理システム Download PDF

Info

Publication number
JP2019153314A
JP2019153314A JP2019063726A JP2019063726A JP2019153314A JP 2019153314 A JP2019153314 A JP 2019153314A JP 2019063726 A JP2019063726 A JP 2019063726A JP 2019063726 A JP2019063726 A JP 2019063726A JP 2019153314 A JP2019153314 A JP 2019153314A
Authority
JP
Japan
Prior art keywords
voice
voice command
video
server
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019063726A
Other languages
English (en)
Other versions
JP6824316B2 (ja
Inventor
周 瑛 李
Joo-Yeong Lee
周 瑛 李
相 信 朴
Sang-Shin Park
相 信 朴
鍾 ▲ちょる▼ 朴
Jong-Cheol Park
鍾 ▲ちょる▼ 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019153314A publication Critical patent/JP2019153314A/ja
Application granted granted Critical
Publication of JP6824316B2 publication Critical patent/JP6824316B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4227Providing Remote input by a user located remotely from the client device, e.g. at work
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4396Processing of audio elementary streams by muting the audio signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration

Abstract

【課題】音声認識によって動作が行われる映像処理装置において、ユーザーに簡単な短文の命令語を容易に案内する。【解決手段】映像処理装置は、映像信号を映像で表示されるように処理する映像処理部と、ユーザーの発話が入力される音声入力部と、少なくとも一つの短文音声命令、及び短文音声命令の対応動作を保存する保存部と、会話文音声命令を分析して会話文音声命令の対応動作を判断するサーバーと通信する通信部と、発話に対応する第1音声命令が保存部に保存された短文音声命令である場合に、保存部に保存された短文音声命令に該当する対応動作が行われるように処理し、第1音声命令が保存部に保存された短文音声命令でない場合に、第1音声命令を通信部に伝達する音声処理部と、サーバーにより判断された対応動作が保存部に保存された対応動作である場合に、対応動作に該当する短文音声命令を案内する案内映像を表示する制御部と、を備える。【選択図】図1

Description

本発明は、外部から入力される放送信号などの映像信号を映像で表示されるように処理する映像処理装置及びその制御方法、並びに映像処理システムに係り、特に、ユーザーの発話を認識し、当該発話に対応する機能又は動作を実行することができる映像処理装置及びその制御方法、並びに映像処理システムに関する。
映像処理装置は、外部から入力される映像信号/映像データを様々な映像処理プロセスに従って処理する。映像処理装置は、処理された映像信号を、自身のディスプレイパネル上に映像で表示するものであってもよく、又は処理された映像信号を、ディスプレイパネルを備えている別のディスプレイ装置で映像として表示されるように該ディスプレイ装置に出力するものであってもよい。すなわち、映像処理装置としては、映像信号を処理可能な装置であれば、映像を表示可能なパネルを備えている装置も、パネルを備えていない装置も使用可能であり、電子の例にはTVがあり、後者の例にはセットトップボックス(set−top box)がある。
映像処理装置は技術の発展に伴って様々な機能の追加及び拡張が続いており、これに対応して、ユーザーの意図を反映したコマンドを映像処理装置に入力する構成についても様々な構造又は方法が提案されている。例えば、従来ではユーザーがリモコン(remote controller)上のキー/ボタンを押すと、リモコンが、ユーザーの所望する動作を実行させる制御信号を映像処理装置に伝送する構成だったが、最近では、映像処理装置がユーザーによるモーション又は発話などを感知し、感知した内容を分析して対応動作を実行させる等、ユーザーの意図を反映して映像処理装置を制御する様々な構成が提案されている。
本発明は、音声認識によって動作が行われる映像処理装置において、ユーザーに簡単な短文の命令語を容易に案内することができる映像処理装置を提供することを目的とする。
本発明の実施例に係る映像処理装置は、映像信号を映像で表示されるように処理する映像処理部と、ユーザーの発話が入力される音声入力部と、少なくとも一つの短文音声命令、及び前記短文音声命令の対応動作を保存する保存部と、会話文音声命令を分析して前記会話文音声命令の対応動作を判断するサーバーと通信する通信部と、前記発話に対応する第1音声命令が前記保存部に保存された前記短文音声命令である場合に、前記保存部に保存された前記短文音声命令に該当する対応動作が行われるように処理し、前記第1音声命令が前記保存部に保存された前記短文音声命令でない場合に、前記第1音声命令を前記通信部に伝達する音声処理部と、前記サーバーにより判断された対応動作が前記保存部に保存された対応動作である場合に、前記対応動作に該当する短文音声命令を案内する案内映像を表示する制御部と、を備えることを特徴とする。
ここで、前記保存部は、前記短文音声命令及び前記対応動作のリストを保存し、前記音声処理部は、前記第1音声命令が前記リストにあるか否か検索し、前記第1音声命令が前記リストから検索されないと、前記第1音声命令を前記通信部に伝達してもよい。
ここで、前記制御部は、前記サーバーから前記第1音声命令に基づいて伝送される制御コマンドによって前記第1音声命令の前記対応動作を判断してもよい。
また、前記発話が前記音声入力部に入力される時点から前記対応動作の実行までの所要時間は、前記第1音声命令が前記短文音声命令である場合が、前記第1音声命令が前記短文音声命令でない場合に比べてより短くてもよい。
また、前記制御部は、複数の前記発話にそれぞれ対応する複数の前記音声命令が順次に入力される場合又はあらかじめ設定された第2音声命令が入力される場合によってあらかじめ設定された対応動作が実行されるように指定された状態で、前記複数の音声命令が順次に入力されると、前記第2音声命令を案内する前記案内映像を表示してもよい。
また、前記通信部は、前記発話をテキストの音声命令に変換するSTT(speech−to−text)サーバーと通信し、前記制御部は、前記音声入力部に前記発話が入力されると、前記発話の音声信号を前記STTサーバーに伝送し、前記STTサーバーから前記発話に対応する前記音声命令を受信してもよい。
また、前記映像処理装置は、前記映像処理部により処理される映像信号を映像で表示するディスプレイ部をさらに備えていてもよい。
また、本発明の実施例に係る映像処理装置の制御方法は、ユーザーの発話が入力されるステップと、前記発話に対応する第1音声命令が前記映像処理装置に保存された短文音声命令である場合に、前記映像処理装置に保存された前記短文音声命令に該当する対応動作を実行するステップと、前記発話に対応する第1音声命令が前記映像処理装置に保存された短文音声命令でない場合に、会話文音声命令を分析して前記会話文音声命令の対応動作を判断するサーバーに、前記第1音声命令を伝達するステップと、を含み、前記サーバーに前記第1音声命令を伝達するステップは、前記サーバーにより判断された対応動作が前記映像処理装置に保存された対応動作であれば、前記対応動作に該当する短文音声命令を案内する案内映像を表示するステップを含むことを特徴とする。
ここで、前記映像処理装置は、前記短文音声命令及び前記対応動作のリストを保存しており、前記サーバーに前記第1音声命令を伝達するステップは、前記第1音声命令が前記リストから検索されないと、前記第1音声命令を前記サーバーに伝達するステップを含んでもよい。
ここで、前記対応動作に該当する短文音声命令を案内する案内映像を表示するステップは、前記サーバーから前記第1音声命令に基づいて伝送される制御コマンドによって前記第1音声命令の前記対応動作を判断するステップを含んでもよい。
また、前記発話が前記音声入力部に入力される時点から前記対応動作の実行までの所要時間は、前記第1音声命令が前記短文音声命令である場合が、前記第1音声命令が前記短文音声命令でない場合に比べてより短くてもよい。
また、前記対応動作に該当する短文音声命令を案内する案内映像を表示するステップは、複数の前記発話にそれぞれ対応する複数の前記音声命令が順次に入力される場合又はあらかじめ設定された第2音声命令が入力される場合によってあらかじめ設定された対応動作が実行されるように指定された状態で、前記複数の音声命令が順次に入力されると、前記第2音声命令を案内する前記案内映像を表示するステップを含んでもよい。
また、前記ユーザーの発話が入力されるステップは、前記発話をテキストの音声命令に変換するSTTサーバーに前記発話の音声信号を伝送するステップと、前記STTサーバーから前記発話に対応する前記音声命令を受信するステップと、を含んでもよい。
また、本発明の実施例に係る映像処理システムは、映像信号を映像で表示されるように処理する映像処理装置と、前記映像処理装置と通信するサーバーと、を備え、前記映像処理装置は、ユーザーの発話が入力される音声入力部と、少なくとも一つの短文音声命令、及び前記短文音声命令の対応動作を保存する保存部と、会話文音声命令を分析して前記会話文音声命令の対応動作を判断する前記サーバーと通信する通信部と、前記発話に対応する第1音声命令が前記保存部に保存された前記短文音声命令である場合に、前記保存部に保存された前記短文音声命令に該当する対応動作が行われるように処理し、前記第1音声命令が前記保存部に保存された前記短文音声命令でない場合に、前記第1音声命令を前記通信部に伝達する音声処理部と、前記サーバーにより判断された対応動作が前記保存部に保存された対応動作である場合に、前記対応動作に該当する短文音声命令を案内する案内映像を表示する制御部と、を備えることを特徴とする。
また、本発明の実施例に係る映像処理装置は、ディスプレイ部と、ユーザーの発話が入力される音声入力部と、前記発話に対応する音声命令が短文である第1音声命令及び会話文である第2音声命令のいずれか一つであれば、あらかじめ設定された第1動作が実行されるように制御する制御部と、を備え、前記制御部は、前記音声命令が前記第2音声命令であれば、前記第1音声命令を案内する案内映像を前記ディスプレイ部に表示することを特徴とする。
本発明によれば、ユーザーに簡単な短文の命令語を容易に案内できる構造の映像処理装置を提供することができる。
本発明の第1実施例に係る映像処理装置の構成ブロック図である。 図1のディスプレイ装置とサーバーとのインタラクション構造を示す構成ブロック図である。 図1のディスプレイ装置に保存された、音声命令に対応する動作のリストを示す例示図である。 図1のディスプレイ装置の制御方法を示すフローチャートである。 図1のディスプレイ装置及び会話型サーバーの制御過程を示す関係図である。 図1のディスプレイ装置に表示される案内映像の例示図である。 本発明の第2実施例に係るディスプレイ装置に表示される案内映像の例示図である。 本発明の第3実施例に係るディスプレイ装置及びサーバーの構成ブロック図である。 本発明の第4実施例に係るディスプレイ装置の音声処理部の信号伝達構造を示す構成ブロック図である。
以下、添付の図面を参照して本発明について詳しく説明する。以下の実施例では、本発明の思想と直接関連している構成についてのみ説明し、その他の構成については説明を省略する。しかし、本発明の思想が適用された装置又はシステムを具現するにあって、このように説明の省略された構成が不要であるということを意味するわけではない。
図1は、本発明の第1実施例に係る映像処理装置100の構成ブロック図である。
以下の実施例は、映像処理装置自体で映像を表示できる構造のディスプレイ装置100を挙げて説明するが、本発明の思想は、映像処理装置自体で映像を表示せずに、別のディスプレイ装置に映像信号/制御信号を出力する構造の映像処理装置も適用可能であるため、以下に説明する実施例に限定されない。本実施例は映像処理装置100がTVである場合について説明するが、上記の理由から、その具現方式は様々に変更して適用可能である。
図1に示すように、本実施例に係る映像処理装置100又はディスプレイ装置100は、映像供給源(図示せず)から映像信号を受信する。ディスプレイ装置100が受信可能な映像信号はその種類又は特性に限定がなく、例えば、ディスプレイ装置100は放送局の送出装備(図示せず)から送出される放送信号を受信し、当該放送信号をチューニングして放送映像を表示可能である。
ディスプレイ装置100は、映像供給源(図示せず)から映像信号を受信する映像受信部110と、映像受信部110に受信される映像信号をあらかじめ設定された映像処理プロセスに従って処理する映像処理部120と、映像処理部120で処理される映像信号に基づいて映像を表示するディスプレイ部130と、サーバー10のような外部装置と通信する通信部140と、ユーザーにより操作されるユーザー入力部150と、外部からの音又は声が入力される音声入力部160と、音声入力部160に入力される音/声を解析及び処理する音声処理部170と、データ/情報が保存される保存部180と、ディスプレイ装置100の諸般動作を制御する制御部190と、を備えている。
映像受信部110は、映像信号/映像データを有線又は無線で受信して映像処理部120に伝達する。映像受信部110は、受信する映像信号の規格及びディスプレイ装置100の具現形態に対応して様々な方式のものとすればよい。例えば、映像受信部110は、RF(radio frequency)信号を受信したり、コンポジット(composite)ビデオ、コンポーネント(component)ビデオ、スーパービデオ(super video)、SCART、HDMI(登録商標(high definition multimedia interface))、ディスプレイポート(Display Port)、UDI(unified display interface)、又はワイヤレス(wireless)HD規格などによる映像信号を受信したりするように構成可能である。映像受信部110は、映像信号が放送信号である場合に、この放送信号をチャンネル別にチューニングするチューナー(tuner)を備える。
映像処理部120は、映像受信部110に受信される映像信号に対して様々な映像処理プロセスを行う。映像処理部120は、このようなプロセスを行った映像信号をディスプレイ部130に出力することによって、ディスプレイ部130に当該映像信号に基づく映像が表示されるようにする。例えば、映像処理部120は、映像受信部110で特定チャンネルに放送信号がチューニングされると、放送信号から当該チャンネルに対応する映像、音声及び付加データを抽出し、あらかじめ設定された解像度に調整してディスプレイ部130に表示する。
映像処理部120が行う映像処理プロセスの種類は限定されず、例えば、映像データの映像フォーマットに対応するデコーディング(decoding)、インターレース(interlace)方式の映像データをプログレッシブ(progressive)方式に変換するデインターレーシング(de−interlacing)、映像データをあらかじめ設定された解像度に調整するスケーリング(scaling)、映像の画質改善のためのノイズ低減(noise reduction)、ディテール強化(detail enhancement)、フレームリフレッシュレート(frame refreshrate)変換などが挙げられる。
映像処理部120は、これらの種々の機能を統合したSOC(system−on−chip)、又はこれらの各プロセスを独自で行える個別の構成が印刷回路基板上に装着されてなる映像処理ボード(図示せず)と具現され、ディスプレイ装置100内に組み込まれる。
ディスプレイ部130は、映像処理部120から出力される映像信号に基づいて映像を表示する。ディスプレイ部130の具現方式は限定されず、例えば、液晶(liquid crystal)、プラズマ(plasma)、発光ダイオード(light−emitting diode)、有機発光ダイオード(organic light−emitting diode)、面伝導型電子銃(surface−conduction electron−emitter)、炭素ナノチューブ(carbon nano−tube)、ナノクリスタル(nano−crystal)などの様々なディスプレイ方式が挙げられる。
ディスプレイ部130は、その具現方式によって異なる構成を備える。例えば、ディスプレイ部130を液晶方式にした場合に、ディスプレイ部130は、液晶ディスプレイパネル(図示せず)と、これに光を供給するバックライトユニット(図示せず)と、パネル(図示せず)を駆動させるパネル駆動基板(図示せず)と、を備える。
通信部140は、ディスプレイ装置100がサーバー10と両方向通信を行うようにデータの送受信を行う。通信部140は、サーバー10の通信プロトコル(protocol)に基づいて、有線/無線による広帯域/近距離ネットワーク又はローカル接続方式でサーバー10に接続する。
ユーザー入力部150は、ユーザーの操作及び入力に応じて、既に設定された様々な制御コマンド又は情報を制御部190に伝達する。ユーザー入力部150は、ディスプレイ装置100の外側に設けられたメニューキー(menu−key)又は入力パネル(panel)や、ディスプレイ装置100と分離された遠隔のリモコンなどでよい。又は、ユーザー入力部150は、ディスプレイ部130と一体型であってもよく、例えば、ディスプレイ部130をタッチスクリーン(touch−screen)にした場合に、ユーザーは、ディスプレイ部130に表示された入力メニュー(図示せず)をタッチすることによって、既に設定されたコマンドを制御部190に伝達可能である。
音声入力部160はマイクとし、ディスプレイ装置100の外部環境で発生する様々な音声を感知する。音声入力部160が感知する音声には、ユーザーによる発話、及びユーザー以外の様々な要因により発生する音が含まれる。
音声処理部170は、ディスプレイ装置100で行われる様々な既に設定されたプロセスのうち、音声入力部160に入力される音/声に関するプロセスを行う。ここで、音声処理部170が処理する「音声」は、音声入力部160に入力される発話のことを指す。映像処理部120が映像信号を処理する時に、該映像信号にも音声データが含まれることがあるが、この映像信号に含まれた音声データは映像処理部120で処理される。
音声処理部170は、音声入力部160に音/声が入力されると、入力された音/声が、ユーザーによる発話であるか、その他の要因により発生した音であるか判断する。この判断方法は、特に限定されず、様々な方法が適用可能であり、例えば、入力された音/声が人の声に対応する波長/周波数帯域に該当するのか判断する方法、又は事前に指定されたユーザーの声のプロファイルに該当するのか判断する方法などが可能である。
音声処理部170は、ユーザーの発話が入力されたと判断すると、当該発話に対応する音声命令に応じて、既に設定された対応の動作が行われるように処理する。ここで、音声命令は、ユーザーの発話の内容を意味する。その詳細内容は後述する。
本実施例では、音声処理部170が映像処理部120と別個の構成であるとして説明する。ただし、これは、実施例をより明確に説明するために機能別に便宜上分類した例示に過ぎず、本発明の思想が具現されたディスプレイ装置100において必ずしも映像処理部120と音声処理部170とが分離されているということを意味するものではない。すなわち、ディスプレイ装置100は、映像処理部120と音声処理部170とを統合した信号処理部(図示せず)を備えていてもよい。
保存部180は、制御部190の制御に応じて、限定されていないデータを保存する。保存部180としては、フラッシュメモリ(flash−memory)、ハードディスクドライブ(hard−disc drive)のような不揮発性メモリが可能である。保存部180は、制御部190、映像処理部120又は音声処理部170などによりアクセスされて、データの読み取り/書き込み/修正/削除/更新などが行われる。
制御部190は、音声入力部160を通してユーザーの発話が入力されると、入力された発話を処理するように音声処理部170を制御する。この時、制御部190は、発話が入力されると、当該発話に対応する音声命令が短文であるか或いは会話文であるかを判断し、判断結果に基づいて、当該音声命令が音声処理部170又はサーバー10で処理されるように制御する。具体的に、制御部190は、音声命令が短文であれば、音声処理部170で処理されるようにし、音声命令が会話文であれば、通信部140を介してサーバー10に伝送することによってサーバー10で処理されるようにする。
図2は、ディスプレイ装置100とサーバー20,30とのインタラクション構造を示す構成ブロック図である。図2を参照すると、ディスプレイ装置100は、通信部140と、音声入力部160と、音声処理部170と、制御部190とを備えている。このような構成は、図1で上述した通りである。ここで、通信部140は、ユーザーの発話を音声命令に変換するSTT(speech−to−text)サーバー20、及び音声命令を分析することによって音声命令に対応する対応動作を判断する会話型サーバー30に接続する。
STTサーバー20は、音声信号を受信すると、該音声信号の波形を分析することによって音声信号の内容をテキストとして生成する。STTサーバー20は、ディスプレイ装置100からユーザーの発話の音声信号を受信すると、これを音声命令に変換する。
会話型サーバー30は、音声命令に対応する様々なディスプレイ装置100の動作のデータベースを有している。会話型サーバー30は、ディスプレイ装置100から受信した音声命令を分析し、分析結果に基づいて、当該音声命令に対応する動作を行うための制御信号をディスプレイ装置100に伝送する。
制御部190は、音声入力部160にユーザーの発話が入力されると、当該発話の音声信号をSTTサーバー20に伝送し、STTサーバー20から当該発話に対応する音声命令を受信する。制御部190は、STTサーバー20から受信した音声命令を音声処理部170に伝達することによって当該音声命令が音声処理部170で処理されるようにする。
音声処理部170は、複数の音声命令に対応する、ディスプレイ装置100で実行可能な様々な動作/機能のリスト又はデータベースを有しており、それらのリスト/データベースは保存部180(図1参照)に保存されている。音声処理部170は、伝達された音声命令を用いてリストから検索を行うことによって対応動作/機能を特定する。リストから対応動作が検索されると、音声処理部170は当該動作が実行されるように処理する。リストに関する詳細な説明は後述する。
ところが、このようなリスト中の音声命令は、簡単な短文となっている。もし、入力された音声命令が短文ではなく会話文であるなら、当該音声命令はリストから検索されず、音声処理部170は対応動作が特定できない。
音声命令が会話文である場合には、すなわち、音声命令がリストから検索されず、音声処理部170で処理されることが困難である場合には、制御部190は、当該音声命令を会話型サーバー30に伝送する。会話型サーバー30は、ディスプレイ装置100から受信した音声命令を分析することによって当該音声命令に対応するディスプレイ装置100の動作/機能を特定する。会話型サーバー30は、特定した動作を指示する制御信号をディスプレイ装置100に伝送することによって、ディスプレイ装置100が当該制御信号に応じて動作を実行するようにする。
これで、ユーザーの発話に従ってディスプレイ装置100のあらかじめ設定された対応動作が実行される。
音声命令が短文か会話文かによって当該音声命令の処理主体が選択される上記のような過程は、ディスプレイ装置100のシステム負荷と処理能力などに起因するところが多い。会話文は自然語であるがゆえに、会話文である音声命令の中からユーザー所望の対応動作を機械的に抽出することが相対的に難しい。したがって、ディスプレイ装置100の限定されたリソースを用いて会話文である音声命令を分析することが容易でない場合があり、よって、会話文である音声命令は会話型サーバー30で処理されるようにすることによって、様々な内容の発話に対応可能にしているわけである。
ただし、このような構造については様々な変更設計が可能であり、一例として、STTサーバー20及び会話型サーバー30の少なくとも一つのプロセスをディスプレイ装置100自体で行うようにしてもよい。例えば、ディスプレイ装置100は、ユーザーの発話を音声命令に変換するプロセスや、会話文の音声命令を分析するプロセスを、別のサーバー20,30ではなくディスプレイ装置100自体で行ってもよい。
このような構造下で、制御部190は、ユーザーの発話による音声命令に対応する動作を特定するプロセスが音声処理部170又は会話型サーバー30で処理されるように制御する。以下、本実施例では、制御部190が音声処理部170を制御して、短文の音声命令に対応するディスプレイ装置100の動作を特定する構成について説明する。
図3は、ディスプレイ装置100に保存されている、音声命令に対応する動作のリスト210の例示図である。図3に示すように、保存部180(図1参照)は、ユーザーの発話に対応する音声命令を、ディスプレイ装置100が実行できる様々な機能又は動作に関連付けたリスト210を保存している。ここで、「動作」は、ディスプレイ装置100が実行でき、且つディスプレイ装置100が支援するあらゆる可能な形態の動作及び機能を意味する。
音声処理部170(図2参照)は、所定の音声命令を用いてリスト210を検索することによって、当該音声命令に対応する動作を判断できる。
本実施例におけるリスト210は、リスト210を構築する原理又は方式のみを表しているものであり、本発明の思想を限定しない。また、同図のリスト210は、一つの命令が一つの動作に対応するとしているが、これは実施例を簡略に説明するために便宜上表したものに過ぎない。実際に、リスト210は、複数の命令が一つの動作に対応してもよい。また、同図でリスト210の番号は区別のために便宜上付したものである。
例えば、ユーザーの発話に対応する音声命令が「つけて(turn−on)」ならば、音声処理部170は「つけて」という音声命令を用いてリスト210を検索することによって、「つけて」という音声命令に対応する動作が「システムの電源をつける」ということであることがわかる。このとき、音声処理部170は、ディスプレイ装置100の現在状態を考慮して当該動作を選択的に行えばよい。音声処理部170は、もし現在ディスプレイ装置100の電源がついている状態であれば、「システムの電源をつける」動作を行わなく、一方、現在ディスプレイ装置100の電源が消えている状態であれば、システムの電源が入るように処理する。
他の例として、現在ディスプレイ装置100上に映像が表示されている状態でユーザーが「うるさい」と発話したならば、音声処理部170は、リスト210上で「うるさい」という音声命令に該当する動作が「ミュート(mute)」と特定されていることがわかる。そこで、音声処理部170は、現在表示されている映像の音量を0に調整することによって、ミュート動作が行われるように処理する。
さらに他の例として、現在ディスプレイ装置100上に映像が表示されている状態でユーザーが「聞こえない」と発話したならば、音声処理部170は、リスト210から「聞こえない」という命令に該当する動作が「現在音量を5レベル上げる」と特定されていることがわかる。そこで、音声処理部170は、現在表示されている映像の音量を5レベル上げる。
このような方法により、音声処理部170はユーザーの発話に対応する対応動作が行われるように制御することができる。
ここで、リスト210が含む音声命令は、簡単な単語からなる短文である。リスト210の情報量を増加させることによって、短文と様々な会話文を含むリスト210を具現できないこともないが、リスト210の情報量が増加するほどディスプレイ装置100のシステム負荷も増加し、リスト210の検索期間が長くなってしまう。また、ディスプレイ装置100のリスト210に、それぞれ異なった言語習慣を持つ様々なユーザーを考慮した音声命令が含まれるように構築することは、個別ユーザーを対象とするディスプレイ装置100において効率的でないといえる。
そのため、制御部190は、まずは音声命令を音声処理部170により処理されるようにし、当該音声命令が音声処理部170で処理され難い場合には、続いて会話型サーバー30(図2参照)で処理されるように制御する。こうすると、音声命令が短文である場合は、音声処理部170による処理過程を経ることで済むが、音声命令が会話文である場合は、当該音声命令が、プロセス上、音声処理部170による処理過程と会話型サーバー30による処理過程の両方を経る必要がある。
例えば、ユーザーの発話に対応する音声命令が「音が小さい」なら、制御部190は、当該音声命令を音声処理部170に伝達することによって、音声処理部170が音声命令に対応する動作を行うようにする。ところが、リスト210に「音が小さい」という音声命令が含まれていないと、音声処理部170はリスト210から「音が小さい」という音声命令に対応する動作を特定できない。この場合、制御部190は、音声命令を会話型サーバー30に伝送することによって、会話型サーバー30で当該音声命令に対応する動作が分析されるようにする。
会話型サーバー30は、分析結果に基づいて動作が「音量+5」ということを特定すると、当該動作の実行を指示する制御コマンドをディスプレイ装置100に伝送する。制御部190は、会話型サーバー30から受信する制御コマンドに従って映像の音量を5レベル増加させる動作を実行する。
一方、ユーザーの発話に対応する音声命令が「聞こえない」ならば、音声処理部170は、当該音声命令がリスト210に含まれているので、会話型サーバー30に音声命令を伝送することなく、リスト210で「音量+5」という動作を直接特定すればよい。
したがって、ユーザーの発話が入力される時点から対応動作が実行される時点までの所要時間の側面から見ると、会話文の音声命令を処理する時間が短文の音声命令を処理する時間よりも長くなる。これは、迅速な動作実行を好むユーザーにとってディスプレイ装置100の使用に不便を感じる原因となることもある。
このような点を考慮して、本実施例では下記のような方法を提案する。
制御部190は、音声入力部160に入力された所定の発話に対応する第1音声命令が会話文であれば、会話型サーバー30により第1音声命令に対応するものと判断された第1動作を行い、この第1動作に対応する短文の第2音声命令を案内する案内映像を表示する。ここで、第2音声命令は、リスト210上で第1動作に対応する音声命令として特定され得る。すなわち、制御部190は、会話型サーバー30により判断された会話文音声命令の対応動作が保存部180に保存された対応動作である場合に、この対応動作に該当する短文音声命令を案内する案内映像を表示する。
第1音声命令及び第2音声命令のいずれによっても第1動作が実行されるが、ディスプレイ装置100自体で処理可能な第2音声命令の方が、会話型サーバー30の処理を必要とする第1音声命令に比べて、第1動作の実行のための所要時間を短縮させることができる。案内映像は、第1音声命令と同一の動作実行ができる第2音声命令をユーザーに案内することによって、今後、ユーザーが第1音声命令の代わりに第2音声命令を発話するように誘導する。
図4は、本実施例に係るディスプレイ装置100の制御方法を示すフローチャートである。ここで、あらかじめ設定されたディスプレイ装置100の第1動作を実行させるための音声命令として、短文の第1音声命令と会話文の第2音声命令がある場合について説明する。
図4に示すように、ディスプレイ装置100は、ユーザーから発話を受信すると(S100)、受信した発話に対応する音声命令が短文の第1音声命令であるか、或いは会話文の第2音声命令であるか判断する(S110)。
ディスプレイ装置100は、受信した発話が短文の第1音声命令であると判断されると、あらかじめ設定された短文処理プロセスに従って第1音声命令に対応する第1動作を実行する(S120)。
一方、ディスプレイ装置100は、受信した発話が会話文の第2音声命令であると判断されると、あらかじめ設定された会話文処理プロセスに従って第2音声命令に対応する第1動作を実行する(S130)。そして、ディスプレイ装置100は、第2音声命令と同一に第1動作を実行させられる短文の第1音声命令を案内する案内映像を表示する(S140)。
このような方法により、ユーザーが会話文の音声命令に比べて動作の実行時間が速い短文の音声命令を使用できるように案内及び誘導可能となる。
ここで、短文処理プロセス及び会話文処理プロセスには様々な方法が適用可能である。例えば、短文処理プロセスは、図2の音声処理部170のみで音声命令の処理が行われるプロセスであり、会話文処理プロセスは、会話型サーバー30で音声命令の分析が行われるプロセスである。
図5は、本実施例に係るディスプレイ装置100及び会話型サーバー30の制御過程を示す関係図である。図5に示すように、ディスプレイ装置100は、ユーザーから発話を受信する(310)。ディスプレイ装置100は、発話に対応する音声信号をSTTサーバー20に伝送する(320)。STTサーバー20は、ディスプレイ装置100から受信した音声信号をテキストの音声命令に変換し、変換された音声命令をディスプレイ装置100に伝送する(330)。
ディスプレイ装置100は、STTサーバー20から受信した音声命令を用いて音声命令及び動作の対応リスト210(図3参照)を検索することによって、当該音声命令に対応する動作を特定する(340)。ディスプレイ装置100は、音声命令に対応する動作が検索されると、当該動作を実行する。一方、ディスプレイ装置100は、音声命令に対応する動作が検索されないと、音声命令を会話型サーバー30に伝送する(350)。
会話型サーバー30は、音声命令を分析し、当該音声命令に対応する動作を特定する(360)。会話型サーバー30が対応動作を特定するために会話文の音声命令を分析する方法には、様々な構成及び方法が適用可能である。会話型サーバー30は、特定した動作の実行を指示する制御コマンドをディスプレイ装置100に伝送する(370)。
ディスプレイ装置100は、会話型サーバー30から受信した制御コマンドに従って対応動作を実行する(380)。ディスプレイ装置100は、上記のリストから実行動作に対応する音声命令を検索し(390)、検索された音声命令を案内する案内映像を表示する(400)。
図6は、ディスプレイ装置100に表示される案内映像530の例示図である。図6に示すように、案内映像530は、音声命令に対応する動作が実行される時に、当該動作に関連した映像と共に表示されてもよく、又は当該動作が行われた後に表示されてもよい。
例えば、短文音声命令である「ボリューム上げて」に対応する動作が「音量+3」に設定されている状態で、会話文音声命令である「ちょっとボリュームを上げてね」についても「ボリューム上げて」と同一に、「音量+3」が実行される場合を考慮してみる。このような例示において、短文である第1音声命令は「ボリューム上げて」であり、会話文である第2音声命令は「ちょっとボリュームを上げてね」であり、第1音声命令及び第2音声命令に対応する動作はいずれも「音量+3」となる。
ディスプレイ装置100が所定のコンテンツ映像510を表示している状態でユーザーから音声命令の発話が入力されると、ディスプレイ装置100は、当該音声命令が短文か会話文か判断する。もし、音声命令が「ボリューム上げて」なら、ディスプレイ装置100は独自で当該音声命令に対応する「音量+3」の動作を検索及び特定できる。この場合、ディスプレイ装置100は、コンテンツ映像510のボリュームを3レベル上げる動作を行い、コンテンツ映像510に当該動作に関連した映像520を共に表示してもよい。映像520として、例えば、ボリュームが上がる様子を視覚的に表現可能である。
一方、音声命令が「ちょっとボリュームを上げてね」ならば、ディスプレイ装置100は独自で当該音声命令の対応動作を特定し難く、会話型サーバー30による会話文音声命令の分析が必要である。この場合、ディスプレイ装置100は、会話型サーバー30の分析及び制御によって、コンテンツ映像510のボリュームを3レベル上げる動作を行い、コンテンツ映像510に当該動作に関連した映像520を共に表示可能である。そして、ディスプレイ装置100は、「音量+3」の動作を実行させられる短文音声命令である「ボリューム上げて」をユーザーに公知及び案内する内容を含む案内映像530をコンテンツ映像510と共に表示する。
ユーザーは、案内映像530から、「ちょっとボリュームを上げてね」に代えられる「ボリューム上げて」という音声命令を認知可能となる。そして、今後、「音量+3」の動作を実行させる時に、ユーザーは、このような経験の蓄積により、「ちょっとボリュームを上げてね」に代えて「ボリューム上げて」と発話することによって、動作実行のための所要時間を相対的に短縮可能となる。
一方、上記の実施例とは違い、複数の音声命令が順次に入力されることによって特定動作が実行される場合も考慮可能である。
図7は、本発明の第2実施例に係るディスプレイ装置100に表示される案内映像550の例示図である。図7に示すように、例えば、「就寝予約」という音声命令に対応する動作である「システムの電源を切る」は、何時間後にシステム電源を切るかを決める必要がある。ディスプレイ装置100は「就寝予約」という音声命令及び「1時間」という音声命令が順次に入力されると、現在時刻から1時間後にディスプレイ装置100の電源を切る動作を行う。
一方、ディスプレイ装置100に「就寝予約1時間」という音声命令が一度に入力される場合にも上記と同一の動作が行われることが可能である。すなわち、現在時刻から1時間後にディスプレイ装置100の電源を切る動作は、「就寝予約」という音声命令及び「1時間」という音声命令が順次に入力される場合にも、「就寝予約1時間」という音声命令が一度に入力される場合にもそれぞれ実行される。
もし、ユーザーが「就寝予約」という音声命令及び「1時間」という音声命令にそれぞれ対応する発話を順次に入力したとすれば、ディスプレイ装置100は、それらの音声命令に対応して1時間後にディスプレイ装置100の電源を切る動作を行い、該動作に関連した映像540を表示する。そして、ディスプレイ装置100は、より簡単に当該動作を実行させられるように、あらかじめ設定された音声命令である「就寝予約1時間」を案内する案内映像550を表示する。
このような案内映像550を認知することで、ユーザーは、「就寝予約」という音声命令及び「1時間」という音声命令にそれぞれ対応する発話を順次に入力するに代え、「就寝予約1時間」という音声命令に対応する発話を入力可能となる。これにより、より簡単で迅速にディスプレイ装置100が対応動作を実行できるようにする。
一方、以上の実施例では、ディスプレイ装置100に入力された発話がSTTサーバー20により音声命令に変換されるとした。また、以上の実施例では、短文処理プロセスが、ディスプレイ装置100内で音声処理部170により音声命令が独自で処理されるプロセスであり、会話文処理プロセスが、会話型サーバー30により音声命令が処理され、その処理結果がディスプレイ装置100に伝達されるプロセスであるとした。
しかし、本発明の思想がこれに限定されるのではなく、発話を音声命令に変換する構成と、音声命令が短文か会話文かによって当該音声命令を処理する主体に関する構成は、以上の実施例と異なった構造にしてもよい。
図8は、第3実施例に係るディスプレイ装置100a及びサーバー40の構成ブロック図である。図8を参照すると、ディスプレイ装置100aは、通信部140aと、音声入力部160aと、音声処理部170aと、制御部190aと、を備えている。ここで、音声処理部170aは、音声入力部160aから伝達された発話を音声命令に変換するSTT変換部171aと、音声命令が短文である場合にそれを処理する短文命令処理部172aと、を備えている。
音声入力部160aは、ユーザーから発話が入力されると、入力された発話の音声信号をSTT変換部171aに伝達する。STT変換部171aは、音声入力部160aから伝達された音声信号を分析し、当該音声の内容を含む音声命令に変換する。STT変換部171aは、変換した音声命令を制御部190aの制御によって短文命令処理部172aに伝達する。すなわち、STT変換部171aは、前述の第1実施例におけるSTTサーバー20の機能を担う。
短文命令処理部172aは、前述の第1実施例における音声処理部170と同様、音声命令に対応する動作を特定する。短文命令処理部172aは、制御部190aの制御によって音声命令を分析し、分析結果に基づいて対応動作を実行する。音声命令の分析及び実行に関する内容は、前述の実施例を応用すればよく、その詳細な説明を省略する。
もし、音声命令が会話文であれば、当該音声命令は短文命令処理部172aで処理しにくい場合もある。この場合、制御部190aは、通信部140aを介して音声命令を会話型サーバー40に伝送する。会話型サーバー20は、前述の第1実施例の会話型サーバー30と同一の機能を担う。
以降、ディスプレイ装置100aは、会話型サーバー40から受信した制御信号に対応する動作を行う。
図9は、本発明の第4実施例に係るディスプレイ装置100bの音声処理部170bの信号伝達構造を示す構成ブロック図である。図9を参照すると、音声処理部170bは、音声入力部160bから伝達されるユーザーの発話を音声命令に変換するSTT変換部171bと、STT変換部171bにより変換された音声命令が短文であるとそれを処理する短文命令処理部172bと、STT変換部171bにより変換された音声命令が会話文/自然語であるとそれを処理する会話型命令処理部173bと、を備えている。音声処理部170bの構造は本例示に限定されるものではなく、本例示は、本発明の実施例と直接関連している事項のみを簡略に示したものである。
音声入力部160bは、ユーザーから発話が入力されると、入力された発話の音声信号をSTT変換部171bに伝達する。STT変換部171bは、音声入力部160bから伝達された発話を、当該発話の内容を含む音声命令に変換する。STT変換部171bは、変換された音声命令をまずは短文命令処理部172bに伝達する。
短文命令処理部172bは、前述の第1実施例における音声処理部170と同様に、音声命令に対応する動作を特定する。短文命令処理部172bは、制御部190bの制御によって音声命令を分析し、分析結果に基づいて対応動作を実行する。
もし、音声命令が会話文であれば、当該音声命令は短文命令処理部172bで処理しにくい場合もある。この場合、制御部190aは音声命令を会話型命令処理部173bに伝達する。
短文命令処理部172bは、図8の短文命令処理部172aと実質的に同一の機能を担う。また、会話型命令処理部173bは、前述の実施例における会話型サーバー30,40と同一の機能を担う。
すなわち、本実施例に係るディスプレイ装置100bは、前述の実施例と違い、外部サーバー20,30、40とのデータ/信号送受信を行わず、ディスプレイ装置100b自体でユーザーの発話による音声命令の変換、及び当該音声命令に対応する動作を分析可能である。
ただし、このような場合にも、まずは、音声命令が短文命令処理部172bで処理され、当該音声命令が短文命令処理部172bで処理され難い場合に、続いて、音声命令は会話型命令処理部173bで処理される。したがって、本実施例にも、前述の第1実施例で説明した本発明の思想が適用可能となる。
以上実施例は例示的なものに過ぎず、当該技術の分野における通常の知識を有する者にとっては様々な変形及び均等な他の実施例が可能である。したがって、本発明の真の技術的保護範囲は、添付した特許請求の範囲に記載された発明の技術的思想により定められるべきである。
20 STTサーバー
30 会話型サーバー
100 ディスプレイ装置
110 映像受信部
120 映像処理部
130 ディスプレイ部
140 通信部
150 ユーザー入力部
160 音声入力部
170 音声処理部
180 保存部
190 制御部

Claims (11)

  1. 映像処理装置において、
    映像信号を処理して、処理された映像を表示するように構成される映像処理部と、
    ユーザーの発話に対応する音声信号を受け取るように構成されるユーザー入力受信部と、
    音声命令と該音声命令にそれぞれ対応する動作のリストを保存する保存部と、
    サーバーと通信する通信部と、
    前記音声信号を処理するように構成される音声処理部と、
    制御部であって、
    前記処理された音声信号が前記リスト内の前記音声命令の1つに対応するかどうか判断し、
    前記処理された音声信号が前記音声命令の1つに対応しないことに応答して、前記処理された音声信号に対応する動作を実行するために、前記処理された音声信号を前記サーバーに伝送し、
    前記処理された音声信号を前記サーバーに伝送したことに応答して前記サーバーから受け取った情報に基づいて、前記処理された音声信号に関連付けられる、推奨される音声命令を含む案内映像を表示する、
    ように構成される制御部と、
    を備える、映像処理装置。
  2. 前記案内映像内の前記推奨される音声命令は、前記情報よりも短い、
    請求項1に記載の映像処理装置。
  3. 前記発話が前記ユーザー入力受信部に入力された時点から前記対応する動作が実行される時点までの時間は、前記処理された音声信号が前記音声命令の1つに対応するときの方が、前記処理された音声信号が前記音声命令の1つに対応しないときよりもより短い、
    請求項1に記載の映像処理装置。
  4. 前記制御部は、複数のユーザー発話にそれぞれ対応する複数の音声命令が順次入力されるとき又はあらかじめ設定された第2音声命令が入力されるときであるかに応じて、あらかじめ設定された対応する動作が実行されるように設定された状態で、前記複数の音声命令が順次入力されると、前記第2音声命令を推薦する第2案内映像を表示する、
    請求項1に記載の映像処理装置。
  5. 前記通信部は、前記ユーザーの発話の前記音声信号をテキストの音声命令に変換するSTT(speech−to−text)サーバーと通信し、
    前記制御部は、前記音声信号を前記STTサーバーに伝送し、前記STTサーバーから前記音声信号に対応する前記音声命令を受け取る、
    請求項1に記載の映像処理装置。
  6. 前記映像処理部により処理される前記映像信号を映像として表示するように構成されるディスプレイ部をさらに備える、
    請求項1に記載の映像処理装置。
  7. 映像処理装置の制御方法において、
    ユーザーの発話に対応する音声信号を受け取るステップと、
    処理された音声信号がリスト内の音声命令の1つに対応するかどうか判断するステップであって、前記リストは、前記音声命令と前記音声命令にそれぞれ対応する動作を含む、ステップと、
    前記処理された音声信号が前記音声命令の1つに対応しないことに応答して、前記処理された音声信号に対応する動作を実行するために、前記処理された音声信号をサーバーに伝送するステップと、
    前記処理された音声信号を前記サーバーに伝送したことに応答して前記サーバーから受け取った情報に基づいて、前記処理された音声信号に関連付けられる、推奨される音声命令を含む案内映像を表示するステップと、
    を含む、制御方法。
  8. 前記案内映像内の前記推奨される音声命令は、前記情報よりも短い、
    請求項7に記載の制御方法。
  9. 前記発話がユーザー入力受信部に入力された時点から前記対応する動作が実行される時点までの時間は、前記処理された音声信号が前記音声命令の1つに対応するときの方が、前記処理された音声信号が前記音声命令の1つに対応しないときよりもより短い、
    請求項7に記載の制御方法。
  10. 複数のユーザー発話にそれぞれ対応する複数の音声命令が順次入力されるとき又はあらかじめ設定された第2音声命令が入力されるときであるかに応じて、あらかじめ設定された対応動作が実行されるように設定された状態で、前記複数の音声命令が順次入力されると、前記第2音声命令を推薦する第2案内映像を表示するステップ、
    をさらに含む、請求項7に記載の制御方法。
  11. 前記音声信号を受け取るステップは、前記音声信号をテキストの音声命令に変換するSTT(speech−to−text)サーバーに、前記発話の前記音声信号を伝送することと、前記STTサーバーから前記音声信号に対応する前記音声命令を受け取ることを含む、
    請求項7に記載の制御方法。
JP2019063726A 2013-01-17 2019-03-28 映像処理装置及びその制御方法、並びに映像処理システム Active JP6824316B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0005314 2013-01-17
KR1020130005314A KR102019719B1 (ko) 2013-01-17 2013-01-17 영상처리장치 및 그 제어방법, 영상처리 시스템

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013231945A Division JP6505966B2 (ja) 2013-01-17 2013-11-08 映像処理装置及びその制御方法、並びに映像処理システム

Publications (2)

Publication Number Publication Date
JP2019153314A true JP2019153314A (ja) 2019-09-12
JP6824316B2 JP6824316B2 (ja) 2021-02-03

Family

ID=50028754

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013231945A Active JP6505966B2 (ja) 2013-01-17 2013-11-08 映像処理装置及びその制御方法、並びに映像処理システム
JP2019063726A Active JP6824316B2 (ja) 2013-01-17 2019-03-28 映像処理装置及びその制御方法、並びに映像処理システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013231945A Active JP6505966B2 (ja) 2013-01-17 2013-11-08 映像処理装置及びその制御方法、並びに映像処理システム

Country Status (8)

Country Link
US (1) US9392326B2 (ja)
EP (1) EP2757465B1 (ja)
JP (2) JP6505966B2 (ja)
KR (1) KR102019719B1 (ja)
CN (2) CN108446095B (ja)
BR (1) BR112015015395B1 (ja)
MX (1) MX343941B (ja)
WO (1) WO2014112706A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071797A (ja) * 2019-10-29 2021-05-06 富士通クライアントコンピューティング株式会社 表示装置および情報処理装置

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101460179B1 (ko) 2012-11-28 2014-11-10 에스케이씨앤씨 주식회사 임시 결제카드 설정 방법 및 이를 적용한 모바일 기기
KR102112742B1 (ko) * 2013-01-22 2020-05-19 삼성전자주식회사 전자장치 및 그 음성 처리 방법
KR101517738B1 (ko) * 2014-05-13 2015-05-04 박남태 음성제어 영상표시 장치 및 영상표시 장치의 음성제어 방법
EP2958010A1 (en) * 2014-06-20 2015-12-23 Thomson Licensing Apparatus and method for controlling the apparatus by a user
US20170286049A1 (en) * 2014-08-27 2017-10-05 Samsung Electronics Co., Ltd. Apparatus and method for recognizing voice commands
KR102298767B1 (ko) 2014-11-17 2021-09-06 삼성전자주식회사 음성 인식 시스템, 서버, 디스플레이 장치 및 그 제어 방법
KR101581138B1 (ko) * 2014-12-05 2015-12-30 박남태 음성제어 영상표시 리듬게임 장치 및 방법
US9736317B2 (en) * 2015-02-27 2017-08-15 Cisco Technology, Inc. Secure mechanism for mute alert
CN104766607A (zh) * 2015-03-05 2015-07-08 广州视源电子科技股份有限公司 一种电视节目推荐方法与系统
CN105159148B (zh) * 2015-07-16 2017-11-10 深圳前海达闼科技有限公司 一种机器人指令处理方法及装置
CN106488310A (zh) * 2015-08-31 2017-03-08 晨星半导体股份有限公司 电视节目智慧播放方法与其控制装置
KR102420518B1 (ko) * 2015-09-09 2022-07-13 삼성전자주식회사 자연어 처리 시스템, 자연어 처리 장치, 자연어 처리 방법 및 컴퓨터 판독가능 기록매체
KR101927438B1 (ko) 2016-07-14 2018-12-10 삼성전자주식회사 홀 영역을 가지는 전자 장치 및 전자 장치의 홀 영역 제어방법
US10187503B2 (en) * 2016-08-19 2019-01-22 Amazon Technologies, Inc. Enabling voice control of telephone device
US11327538B2 (en) 2016-10-27 2022-05-10 Samsung Electronics Co., Ltd. Electronic apparatus having a hole area within screen and control method thereof
JP6908461B2 (ja) * 2016-11-02 2021-07-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法及びプログラム
US10178219B1 (en) * 2017-06-21 2019-01-08 Motorola Solutions, Inc. Methods and systems for delivering a voice message
US10194023B1 (en) 2017-08-31 2019-01-29 Amazon Technologies, Inc. Voice user interface for wired communications system
US10326886B1 (en) 2017-08-31 2019-06-18 Amazon Technologies, Inc. Enabling additional endpoints to connect to audio mixing device
US10911596B1 (en) 2017-08-31 2021-02-02 Amazon Technologies, Inc. Voice user interface for wired communications system
CN109584864B (zh) * 2017-09-29 2023-11-24 上海寒武纪信息科技有限公司 图像处理装置和方法
CN109584862B (zh) * 2017-09-29 2024-01-12 上海寒武纪信息科技有限公司 图像处理装置和方法
EP3739892A4 (en) 2018-01-08 2021-08-04 LG Electronics Inc. DISPLAY DEVICE AND PROVIDED SYSTEM
KR102540001B1 (ko) * 2018-01-29 2023-06-05 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 화면 표시방법
JP7003720B2 (ja) 2018-02-19 2022-01-21 コニカミノルタ株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
US11100146B1 (en) * 2018-03-23 2021-08-24 Amazon Technologies, Inc. System management using natural language statements
CN109218843B (zh) * 2018-09-27 2020-10-23 四川长虹电器股份有限公司 基于电视设备的个性化智能语音提示方法
US20210398520A1 (en) * 2018-10-31 2021-12-23 Sony Corporation Information processing device and program
CN111383638A (zh) * 2018-12-28 2020-07-07 上海寒武纪信息科技有限公司 信号处理装置、信号处理方法及相关产品
US20210065719A1 (en) * 2019-08-29 2021-03-04 Comcast Cable Communications, Llc Methods and systems for intelligent content controls
US20230153060A1 (en) * 2021-11-18 2023-05-18 International Business Machines Corporation Dynamic display accommodations for multiple voice commands
US11960668B1 (en) 2022-11-10 2024-04-16 Honeywell International Inc. Cursor management methods and systems for recovery from incomplete interactions
US11954325B1 (en) 2023-04-05 2024-04-09 Honeywell International Inc. Methods and systems for assigning text entry components to cursors

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11119792A (ja) * 1997-10-20 1999-04-30 Toyota Motor Corp 音声認識機能付き機器制御装置および音声認識装置
JP2000075887A (ja) * 1998-08-31 2000-03-14 Sony Corp パターン認識装置、方法及びシステム
JP2003241790A (ja) * 2002-02-13 2003-08-29 Internatl Business Mach Corp <Ibm> 音声コマンド処理システム、コンピュータ装置、音声コマンド処理方法およびプログラム
JP2004061576A (ja) * 2002-07-25 2004-02-26 Denso Corp 音声制御装置
JP2008268517A (ja) * 2007-04-19 2008-11-06 Matsushita Electric Works Ltd 音声認識機能付き操作器
JP2012123492A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 情報提供システムおよび情報提供装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1013006B (zh) * 1985-04-01 1991-06-26 株式会社日立制作所 自然语言智能指导的方法与装置
US5890122A (en) 1993-02-08 1999-03-30 Microsoft Corporation Voice-controlled computer simulateously displaying application menu and list of available commands
JP2002182896A (ja) * 2000-12-12 2002-06-28 Canon Inc 音声認識システム及び音声認識装置ならびにそれらの方法
FR2783625B1 (fr) * 1998-09-21 2000-10-13 Thomson Multimedia Sa Systeme comprenant un appareil telecommande et un dispositif de telecommande vocale de l'appareil
JP3919210B2 (ja) * 2001-02-15 2007-05-23 アルパイン株式会社 音声入力案内方法及び装置
US20020174177A1 (en) * 2001-04-25 2002-11-21 Sharon Miesen Voice activated navigation of a computer network
US7324947B2 (en) 2001-10-03 2008-01-29 Promptu Systems Corporation Global speech user interface
JP2003295893A (ja) * 2002-04-01 2003-10-15 Omron Corp 音声認識システム、装置、音声認識方法、音声認識プログラム及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体
JP3728304B2 (ja) * 2003-07-10 2005-12-21 キヤノン株式会社 情報処理方法、情報処理装置、プログラム、及び記憶媒体
US8244828B2 (en) 2003-08-28 2012-08-14 International Business Machines Corporation Digital guide system
US8635073B2 (en) 2005-09-14 2014-01-21 At&T Intellectual Property I, L.P. Wireless multimodal voice browser for wireline-based IPTV services
EP1961619B1 (en) * 2005-12-16 2012-03-14 Panasonic Corporation Input device and input method for mobile body
CN101188108A (zh) * 2007-12-17 2008-05-28 凯立德欣技术(深圳)有限公司 一种语音控制方法、装置及移动终端
US8958848B2 (en) 2008-04-08 2015-02-17 Lg Electronics Inc. Mobile terminal and menu control method thereof
CN101599270A (zh) * 2008-06-02 2009-12-09 海尔集团公司 语音服务器及语音控制的方法
KR20100007625A (ko) 2008-07-14 2010-01-22 엘지전자 주식회사 이동 단말기 및 그 메뉴 표시 방법
US20110067059A1 (en) 2009-09-15 2011-03-17 At&T Intellectual Property I, L.P. Media control
KR101605347B1 (ko) * 2009-12-18 2016-03-22 삼성전자주식회사 휴대단말의 외부 출력 제어 방법 및 장치
JP5771002B2 (ja) * 2010-12-22 2015-08-26 株式会社東芝 音声認識装置、音声認識方法および音声認識装置を搭載したテレビ受像機
CN102196207B (zh) * 2011-05-12 2014-06-18 深圳市车音网科技有限公司 语音控制电视机的方法、装置和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11119792A (ja) * 1997-10-20 1999-04-30 Toyota Motor Corp 音声認識機能付き機器制御装置および音声認識装置
JP2000075887A (ja) * 1998-08-31 2000-03-14 Sony Corp パターン認識装置、方法及びシステム
JP2003241790A (ja) * 2002-02-13 2003-08-29 Internatl Business Mach Corp <Ibm> 音声コマンド処理システム、コンピュータ装置、音声コマンド処理方法およびプログラム
JP2004061576A (ja) * 2002-07-25 2004-02-26 Denso Corp 音声制御装置
JP2008268517A (ja) * 2007-04-19 2008-11-06 Matsushita Electric Works Ltd 音声認識機能付き操作器
JP2012123492A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 情報提供システムおよび情報提供装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071797A (ja) * 2019-10-29 2021-05-06 富士通クライアントコンピューティング株式会社 表示装置および情報処理装置

Also Published As

Publication number Publication date
EP2757465A2 (en) 2014-07-23
BR112015015395A2 (pt) 2018-05-15
EP2757465B1 (en) 2018-03-07
US9392326B2 (en) 2016-07-12
JP6824316B2 (ja) 2021-02-03
MX343941B (es) 2016-11-30
JP2014138421A (ja) 2014-07-28
KR20140096202A (ko) 2014-08-05
CN108446095B (zh) 2021-08-31
WO2014112706A1 (en) 2014-07-24
CN103945250B (zh) 2018-11-02
EP2757465A3 (en) 2015-06-24
CN108446095A (zh) 2018-08-24
BR112015015395B1 (pt) 2022-11-16
KR102019719B1 (ko) 2019-09-09
US20140200896A1 (en) 2014-07-17
JP6505966B2 (ja) 2019-04-24
MX2015009063A (es) 2015-10-05
CN103945250A (zh) 2014-07-23

Similar Documents

Publication Publication Date Title
JP6824316B2 (ja) 映像処理装置及びその制御方法、並びに映像処理システム
KR101284594B1 (ko) 영상처리장치 및 그 제어방법, 영상처리 시스템
USRE48423E1 (en) Display apparatus, electronic device, interactive system, and controlling methods thereof
CN108391149B (zh) 显示设备、控制显示设备的方法、服务器以及控制服务器的方法
US20140195230A1 (en) Display apparatus and method for controlling the same
EP3011751B1 (en) Server, control method thereof, image processing apparatus, and control method thereof
WO2015098079A1 (ja) 音声認識処理装置、音声認識処理方法、および表示装置
KR20130134545A (ko) 리모컨을 이용한 디지털tv 음성 검색 시스템 및 방법
KR20140008870A (ko) 컨텐츠 정보 제공 방법 및 이를 적용한 방송 수신 장치
US8600732B2 (en) Translating programming content to match received voice command language
KR102501655B1 (ko) 디스플레이장치, 음성취득장치 및 그 음성인식방법
US11941322B2 (en) Display control device for selecting item on basis of speech
KR102160756B1 (ko) 디스플레이 장치 및 디스플레이 장치의 제어 방법
KR20140053760A (ko) 영상처리장치 및 그 제어방법, 영상처리 시스템
AU2018202888B2 (en) Image processing apparatus, control method thereof, and image processing system
KR101877430B1 (ko) 영상처리장치 및 그 제어방법, 영상처리 시스템
KR20190099676A (ko) 사용자의 발화를 기반으로 컨텐츠를 제공하는 장치 및 시스템
KR102420155B1 (ko) 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법
KR20140137263A (ko) 대화형 서버, 디스플레이 장치 및 제어 방법
KR20220101591A (ko) 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200923

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210112

R150 Certificate of patent or registration of utility model

Ref document number: 6824316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250