JP6801539B2 - 情報処理システム、情報処理装置、情報処理プログラム及び情報処理方法 - Google Patents

情報処理システム、情報処理装置、情報処理プログラム及び情報処理方法 Download PDF

Info

Publication number
JP6801539B2
JP6801539B2 JP2017053016A JP2017053016A JP6801539B2 JP 6801539 B2 JP6801539 B2 JP 6801539B2 JP 2017053016 A JP2017053016 A JP 2017053016A JP 2017053016 A JP2017053016 A JP 2017053016A JP 6801539 B2 JP6801539 B2 JP 6801539B2
Authority
JP
Japan
Prior art keywords
data
voice
information processing
voice recognition
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017053016A
Other languages
English (en)
Other versions
JP2018156424A (ja
Inventor
拓郎 真野
拓郎 真野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017053016A priority Critical patent/JP6801539B2/ja
Priority to US15/918,223 priority patent/US10535353B2/en
Publication of JP2018156424A publication Critical patent/JP2018156424A/ja
Application granted granted Critical
Publication of JP6801539B2 publication Critical patent/JP6801539B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理システム、情報処理装置、情報処理プログラム及び情報処理方法に関する。
近年では、自然言語の音声認識技術の発展や、人工知能と呼ばれるサービスの向上等により、発話によって機器の操作を行う音声操作が利用されつつある。この音声操作では、操作対象の機器において音声認識が行われてコマンドが実行される場合と、操作対象の機器からクラウドサービスに発話データが送信され、クラウドサービスで行われた音声認識の結果であるコマンドを機器が実行する場合と、が知られている。
クラウドサービスでは、機器により集音された発話データをインターネット経由で受信し音声認識によって認識されたコマンドを機器に返す。このため、操作対象となる機器において、発話データを取得してからコマンドが実行されるまでの時間は、ネットワークの帯域に大きく依存する。
このような通信システムでは、通信状況に応じて、単位時間あたりのデータ転送量を変化させる工夫等が行われている(特許文献1)。
ネットワークを経由して送受信されるデータは、発話データだけではなく、画像データ、音声データ、動画データ、ドキュメントといったコンテンツが含まれる。
このため、従来の技術では、発話よって機器を操作する音声操作においては、音声データ以外のコンテンツの送受信にネットワーク帯域を奪われ、その応答性が低下する可能性がある。
開示の技術は、上記事情に鑑みてなされたものであり、音声操作に対する応答性を向上させることを目的としている。
開示の技術は、音声データを含むコンテンツデータの送受信を行う複数の装置を有する情報処理システムであって、前記複数の装置の間の通信にかかる通信遅延時間に基づき、前記コンテンツデータのデータ量を変更するか否かを判定する通信状態判定部と、前記通信遅延時間に基づき、前記コンテンツデータのうち、前記音声データ以外のデータのデータ量を調整するコンテンツ変換部と、前記音声データを音声認識装置に送信し、前記音声認識装置から、前記音声データに対する音声認識結果であるテキストデータを受信する送受信部と、前記音声データに特定のワードが含まれるか否かを判定する特定ワード検出部と、を有し、前記特定ワード検出部は、前記ワードを含む所定の長さの音声データを前記送受信部によって、前記音声認識装置に送信する

音声操作に対する応答性を向上させることができる。
第一の実施形態の情報処理システムのシステム構成の一例を示す図である。 第一の実施形態の電子黒板のハードウェア構成の一例を示す図である。 第一の実施形態のサーバ装置のハードウェア構成の一例を示す図である。 第一の実施形態の情報処理システムの有する各装置の機能を説明する図である。 第一の実施形態のコマンドデータベースの一例を示す図である。 第一の実施形態のパラメータテーブルを説明する図である。 第一の実施形態の情報処理システムの動作を説明するシーケンス図である。 第二の実施形態の情報処理システムの有する各装置の機能を説明する図である。 第二の実施形態の情報処理システムの動作を説明するシーケンス図である。 第三の実施形態の情報処理システムの各装置が有する機能を説明する図である。 第三の実施形態の情報処理システムの動作を説明するシーケンス図である。
(第一の実施形態)
以下に図面を参照して、第一の実施形態について説明する。図1は、第一の実施形態の情報処理システムのシステム構成の一例を示す図である。
本実施形態の情報処理システム100は、電子黒板200と、サーバ装置300と、を有する。情報処理システム100において、電子黒板200とサーバ装置300とは、ネットワークNを介して接続される。また、本実施形態の情報処理システム100は、ネットワークNを介して、音声データをテキストデータに変換する音声認識装置400と接続される。
本実施形態の情報処理システム100において、電子黒板200は、手書き入力された文字や画像等を示すストローク情報、電子黒板200の画面をキャプチャした画像データ等を、サーバ装置300に送信する。また、本実施形態の電子黒板200は、マイク等の集音装置を有しており、集音装置によって集音された音声データを、サーバ装置300と、音声認識装置400とに送信する。
本実施形態の音声認識装置400は、例えば、人工知能により提供されるサービスである。音声認識装置400は、受信した音声データを音声認識機能によりテキストデータとし、サーバ装置300へ送信する。
尚、本実施形態の音声データは、電子黒板200の周辺で発話した人の声や、人の声以外の様々な音等、集音装置が集音した全ての音の音声データである。したがって、本実施形態では、電子黒板200の周辺で発話した人の声を示す発話データは、音声データの一部である。
また、本実施形態の電子黒板200は、音声認識装置400による音声認識機能を用いて、発話データに基づく操作指示(コマンド)を受け付けることができる。つまり、本実施形態の電子黒板200は、音声操作を行うことができる。
本実施形態のサーバ装置300は、受信したストローク情報や画像データ、音声データ等を格納する。また、本実施形態のサーバ装置300は、音声認識装置400から送信されたテキストデータを、音声データと対応付けて格納する。
尚、サーバ装置300は、例えば、ある会議において電子黒板200が使用された場合、会議名と、会議中に取得したスクロール情報と、画像データと、音声データとが対応付けられて格納されても良い。言い換えれば、サーバ装置300では、電子黒板200から取得した各種の情報が、会議毎に格納されても良い。
さらに、本実施形態のサーバ装置300は、ネットワークNの混雑具合いを判定し、ネットワークNが混雑している場合には、電子黒板200から音声認識装置400への音声データの送信を、他のコンテンツの送信よりも優先させる。
本実施形態では、このように、ネットワークNが混雑している場合には、電子黒板200において集音された音声データを、優先的に音声認識装置400へ送信させることで、発話による操作指示に対する電子黒板200の応答性を向上させる。
尚、図1では、音声操作の対象となる機器を電子黒板200としているが、これに限定されない。本実施形態の情報処理システム100において、音声操作の対象となる機器は、集音装置を有しており、且つ、音声認識装置400と通信を行うことができる機器であれば良い。具体的には、本実施形態における音声操作の対象となる機器は、例えば、一般的なコンピュータ、タブレット型端末、スマートフォン等がある。また、その他にも、各種の電子機器に本実施形態を適用することができる。
また、以下の説明では、電子黒板200からサーバ装置300に送信される各種のデータをコンテンツデータと呼ぶ。したがって、本実施形態のコンテンツデータは、音声データ、画像データ、動画データ、ストローク情報等を含む。
次に、本実施形態の情報処理システム100の有する各装置について説明する。図2は、第一の実施形態の電子黒板のハードウェア構成の一例を示す図である。
本実施形態の電子黒板200は、入力装置21と、表示装置22と、外部I/F23と、通信I/F24と、ROM25(Read Only Memory)とを有する。また、本実施形態の電子黒板200は、RAM(Random Access Memory)26と、CPU(Central Processing Unit)27と、HDD(Hard Disk Drive)28と、集音装置29と、撮像装置30と、を有する。これらの各ハードウェアは、それぞれがバスB1で接続されている。
入力装置21は、タッチパネル等であり、ユーザによる各種操作(例えば、音声テキスト変換(日本語)や音声テキスト変換(英語)等の機能の選択操作)を入力するのに用いられる。表示装置22は、ディスプレイ等であり、各種情報(例えば、音声テキスト変換(日本語)による変換結果を示すテキスト等)を表示する。尚、本実施形態では、タッチパネルが、入力装置と21と表示装置22の両方を兼ねていても良い。
外部I/F23は、外部装置とのインターフェースである。外部装置には、記録媒体23a等がある。これにより、電子黒板200は、外部I/F23を介して、記録媒体23a等の読み取りや書き込みを行うことができる。なお、記録媒体23aには、例えば、USBメモリやCD、DVD、SDメモリカード等がある。
通信I/F24は、電子黒板200をネットワークN1等に接続するためのインターフェースである。これにより、電子黒板200は、通信I/F24を介して、他の装置(と通信を行うことができる。
HDD28は、プログラムやデータを格納している不揮発性の記憶装置である。HDD28に格納されるプログラムやデータには、電子黒板200全体を制御する基本ソフトウェアであるOS(Operating System)、OS上において各種機能を提供するアプリケーションプログラム等がある。
また、HDD28は、格納しているプログラムやデータを所定のファイルシステム及び/又はDB(データベース)により管理している。なお、電子黒板200は、HDD28に代えて、記録媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)を有していても良い。
ROM25は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリである。ROM25には、電子黒板200の起動時に実行されるBIOS(Basic Input/Output System)、OS設定、及びネットワーク設定等のプログラムやデータが格納されている。RAM26は、プログラムやデータを一時保持する揮発性の半導体メモリである。
CPU27は、ROM25やHDD28等の記憶装置からプログラムやデータをRAM26上に読み出し、処理を実行することで、電子黒板200全体の制御や機能を実現する演算装置である。
集音装置29は、例えばマイクロフォン(マイク)等であり、電子黒板200の周囲の音を集音する。
撮像装置30は、例えばカメラ等であり、電子黒板200の周辺の画像を撮像する。具体的には、例えば、撮像装置30は、電子黒板200を用いて会議等を行っている様子等を撮像する。
本実施形態の電子黒板200は、図2に示すハードウェア構成を有することにより、後述するような各種処理を実現できる。
次に、図3を参照して、本実施形態のサーバ装置300のハードウェア構成について説明する。図3は、第一の実施形態のサーバ装置のハードウェア構成の一例を示す図である。
本実施形態のサーバ装置300は、一般の情報処理装置であり、それぞれバスBで相互に接続されている入力装置31、出力装置32、ドライブ装置33、補助記憶装置34、メモリ装置35、演算処理装置36及びインターフェース装置37を有する。
入力装置31は、例えばマウスやキーボードであり、各種の情報を入力するために用いられる。出力装置32は、例えばディスプレイ等であり、各種信号の表示(出力)に用いられる。インターフェース装置37は、モデム,LANカード等を含み、ネットワークに接続する為に用いられる。
情報処理プログラムは、サーバ装置300を制御する各種プログラムの少なくとも一部である。情報処理プログラムは例えば記録媒体38の配布やネットワークからのダウンロードなどによって提供される。情報処理プログラムを記録した記録媒体38は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
また、情報処理プログラムを記録した記録媒体38がドライブ装置33にセットされると、情報処理プログラムは記録媒体38からドライブ装置33を介して補助記憶装置34にインストールされる。ネットワークからダウンロードされた通信プログラムは、インターフェース装置37を介して補助記憶装置34にインストールされる。
補助記憶装置34は、インストールされた情報処理プログラムを格納すると共に、必要なファイル、データ等を格納する。メモリ装置35は、コンピュータの起動時に補助記憶装置34から情報処理プログラムを読み出して格納する。そして、演算処理装置36はメモリ装置35に格納された各プログラムに従って、後述するような各種処理を実現している。
次に、図4を参照して、情報処理システム100の有する各装置の機能について説明する。図4は、第一の実施形態の情報処理システムの有する各装置の機能を説明する図である。
始めに、電子黒板200の機能について説明する。本実施形態の電子黒板200は、集音部210、入力部220、コンテンツ変換部230、送受信部240、コマンド実行部250を有する。
集音部210は、集音装置29に入力された音声を音声データとして取得する。
入力部220は、電子黒板200の有するタッチパネル(入力装置21、表示装置22)に対して手書き入力された文字や画像を示すストローク情報や、タッチパネルに表示された画像の画像データ等を取得する。尚、本実施形態のストローク情報とは、タッチパネルに対して手書き入力が行われた場合の、利用者による一画毎の軌跡を示す点群の座標報である。また、入力部220は、撮像装置30により撮影された動画データ等を取得する。
コンテンツ変換部230は、音声データ、画像データ、動画データを、サーバ装置300に保存できる形式に変換する。具体的には、コンテンツ変換部230は、音声データは、AAC(Advanced Audio Coding)形式等とし、画像データや動画データはJPEG形式等とする。本実施形態のコンテンツ変換部230は、このように、各種のデータを圧縮することで、ネットワークNを介して送受信しやすく、且つ、サーバ装置300のメモリ容量を圧迫しないようにしている。また、本実施形態では、動画データは、画像データに含まれるものである。
また、本実施形態のコンテンツ変換部230は、後述するサーバ装置300からの通知に基づき、画像データの圧縮率や解像度、動画データのフレームレート等を変更する。より具体的には、コンテンツ変換部230は、画像データの圧縮率や解像度、動画データのフレームレートのうちの少なくとも何れか1つを変更して、サーバ装置300に送信される、音声データ以外のコンテンツデータのデータ量を調整する。
言い換えれば、コンテンツ変換部230は、サーバ装置300の通知を受けて、音声データ以外のコンテンツデータのデータ量を増減することで、ネットワークNに対する負荷を調整している。
尚、以下の説明では、ここでは、画像データの圧縮率や解像度、動画データのフレームレート等をパラメータと呼ぶ。本実施形態のパラメータとは、入力部220により入力されたコンテンツを、サーバ装置300に格納する形式に変換するときに参照される値である。本実施形態では、このパラメータの値を変更することで、サーバ装置300に送信する音声データ以外のコンテンツデータのデータ量を調整する。コンテンツ変換部230による処理の詳細は後述する。
送受信部240は、集音部210により取得された音声データをサーバ装置300と音声認識装置400とに送信する。また、送受信部240は、入力部220により取得された画像データ、動画データ等をサーバ装置300に送信する。また、送受信部240は、サーバ装置300から、電子黒板200に対する操作内容を示すコマンドや、コンテンツ変換部230におけるデータの変換に関する通知等を受信する。
コマンド実行部250は、送受信部240がサーバ装置300から受信したコマンドに基づき、コマンドが示す操作を実行する。
次に、サーバ装置300の機能について説明する。本実施形態のサーバ装置300は、送受信部330、コンテンツ格納部340、コマンド抽出部350、通信状態判定部360を有する。ここで上述した各部は、演算処理装置36がメモリ装置35から情報処理プログラムを読み出して実行することで実現される。
また、本実施形態のサーバ装置300は、記憶部500を有する。記憶部500には、コンテンツデータベース310と、コマンドデータベース320とが設けられている。記憶部500は、例えば、サーバ装置300の補助記憶装置34等に設けられていても良い。
また、本実施形態の記憶部500は、メモリ上の記憶領域を示すものであり、記憶部500は、複数のメモリによって実現されても良い。
コンテンツデータベース310は、電子黒板200から受信した各種のデータ(コンテンツ)が格納される。本実施形態のコンテンツとは、音声データ、画像データ、動画データ、ストローク情報を含む。
コマンドデータベース320は、音声データの認識結果と、電子黒板200の操作内容とが対応付けられて格納される。コマンドデータベース320の詳細は後述する。
本実施形態の送受信部330は、電子黒板200と間の情報の送受信と、音声認識装置400からの情報の受信を行う。
コンテンツ格納部340は、電子黒板200から受信したコンテンツをコンテンツデータベース310へ格納する。
コマンド抽出部350は、音声認識装置400から受信したテキストデータと、コマンドデータベース320とか、音声データに含まれる電子黒板200に対するコマンドを抽出する。
通信状態判定部360は、送受信部330による情報の送受信のタイミングから、ネットワークNの混雑具合を判定する。また、本実施形態の通信状態判定部360は、パラメータテーブル361を有し、ネットワークNが混雑している場合には、パラメータテーブル361を参照し、音声データ以外のコンテンツデータのデータ量を減らすように、電子黒板200のコンテンツ変換部230へ通知する。パラメータテーブル361の詳細は後述する。
次に、図5を参照して、本実施形態のコマンドデータベース320について説明する。図5は、第一の実施形態のコマンドデータベースの一例を示す図である。
本実施形態のコマンドデータベース320では、例えば、操作内容を示す1つのワードに対し、関連する複数のワードが対応付けられたツリー状の構造となっている。
図5の例では、例えば、「ペン」というワードに、「色」、「太さ」と言うワードが対応付けられており、「色」には、「赤」、「青」等の線の色を示すワードが対応付けられている。また、「太さ」には、「1.0ポイント」、「5.0ポイント」といった、線の太さを示すワードが対応付けられている。
次に、図6を参照して、パラメータテーブル361について説明する。図6は、第一の実施形態のパラメータテーブルを説明する図である。
図6の例では、パラメータをフレームレートとし、音声データ以外のコンテンツデータのデータ量を減らす方法として、動画データのフレームレートを変更する場合のパラメータテーブル361を示している。
図6に示すパラメータテーブル361では、情報の項目として、通信遅延時間と、フレームレートとを有し、両者は対応付けられている。
項目「通信遅延時間」の値は、例えば、サーバ装置300が電子黒板200から、コンテンツデータのうち、音声データを受信したタイミングから、音声認識装置400からテキストデータを受信したタイミングまでの時間を示す。尚、項目「通信遅延時間」の値は、サーバ装置300と電子黒板200又は音声認識装置400との通信にかかる時間を示す値であれば、どのタイミングからどのタイミングまでであっても良い。
項目「フレームレート」の値は、電子黒板200において、動画データをサーバ装置300に送信する際のフレームレートの値を示す。
図6では、通信遅延時間が1秒を超えた場合には、フレームレートは5fpsとなり、通信遅延時間が1秒を超えることが10秒間以上続く場合には、フレームレートは3fpsとなることがわかる。また、図6では、通信遅延時間が5秒を超えた場合には、フレームレートは1fpsとなり、通信遅延時間が1秒以下となることが10秒間続く場合には、フレームレートは初期値の20fpsとなる。
したがって、図6から、通信遅延時間が長くなるほど、フレームレートが下がることがわかる。
尚、図6のパラメータテーブル361では、通信遅延時間とフレームレートとが対応付けられるものとしたが、これに限定されない。パラメータテーブル361では、通信遅延時間と、画像データ及び動画データの圧縮率や解像度が対応付けられても良い。本実施形態では、例えば、通信遅延時間が長くなるほど、圧縮率を高くして、データ量が削減されるようにしても良い。また、本実施形態では、例えば、通信遅延時間が長くなるほど、解像度を低くして、データ量が削減されるようにしても良い。
本実施形態のパラメータテーブル361では、通信遅延時間と、通信遅延時間に対応したデータ量の調整の仕方(増減のさせ方)と、が対応付けられていれば良い。
また、図6に示す通信遅延時間の設定の仕方は、一例であって、これに限定されない。例えば、パラメータテーブル361では、通信遅延時間が2秒を超えた場合にフレームレートを1fpsにしても良い。通信遅延時間と、フレームレートとの関係は、情報処理システム100の管理者によって任意に設定されて良い。
次に、図7を参照して、本実施形態の情報処理システム100の動作を説明する。図7は、第一の実施形態の情報処理システムの動作を説明するシーケンス図である。
本実施形態の情報処理システム100において、集音部210は、音声データを取得すると、コンテンツ変換部230へ渡す(ステップS701)。また、入力部220とは、画像データや動画データを取得すると、コンテンツ変換部230へ渡す(ステップS702)。
コンテンツ変換部230は、これらのデータに対して、設定されたパラメータに応じてデータ形式の変換を行い(ステップS703)、送受信部240へ渡す(ステップS704)。
送受信部240は、画像データ、動画データ、音声データを含むコンテンツデータをサーバ装置300へ送信する(ステップS705)。サーバ装置300において、送受信部330は、コンテンツデータを受信すると、通信状態判定部360に対して、電子黒板200からコンテンツデータを受信したことを通知する(ステップS706)。
また、送受信部240は、音声データを音声認識装置400へ送信する(ステップS707)。
サーバ装置300は、送受信部330がコンテンツデータを受信すると、コンテンツ格納部340へ渡し(ステップS708)、コンテンツデータベース310へ受信したコンテンツデータへ格納する(ステップS709)。
また、送受信部330は、音声認識装置400から、音声データの認識結果のテキストデータを受信すると(ステップS710)、テキストデータをコンテンツ格納部340へ渡す(ステップS711)。コンテンツ格納部340は、このテキストデータをステップS705で受信したコンテンツデータと対応付けてコンテンツデータベース310へ格納する(ステップS712)。
また、コンテンツ格納部340は、音声認識装置400からテキストデータを受信したことを通信状態判定部360へ通知する(ステップS713)。
通信状態判定部360は、ステップS706で通知を受けたタイミングから、ステップS713で通知を受けたタイミングまでの通信遅延時間を算出し、パラメータの値を変更するか否かを判定する(ステップS714)。
具体的には、通信状態判定部360は、コンテンツ変換部230において設定されているパラメータの値と、パラメータテーブル361において、通信遅延時間と対応するパラメータの値とが一致しない場合に、パラメータの値を変更するものと判定する。
パラメータの値が変更される場合とは、通信遅延時間が長くなり、ネットワークNが混雑していると判定される場合や、通信遅延時間が短くなり、ネットワークNの混雑が解消された場合等である。つまり、本実施形態のコンテンツ変換部230は、通信遅延時間に応じて、音声データ以外のコンテンツデータのデータ量を増減させる。
ステップS714において、パラメータの値を変更しない場合には、通信状態判定部360は、処理を終了する。また、パラメータの変更の値を変更する場合には、後述するステップS722へ処理に進む。
次に、コンテンツ格納部340は、音声認識装置400からテキストデータを取得すると、コマンド抽出部350へテキストデータを渡す(ステップS715)。コマンド抽出部350は、テキストデータを受けて、コマンドデータベース320を参照し、テキストデータに電子黒板200に対するコマンドが含まれるか否かを判定する(ステップS716)。
ステップS716でコマンドが含まれない場合には、コマンド抽出部350は、処理を終了する。
ステップS716でコマンドが含まれる場合、コマンド抽出部350は、コマンドを抽出し(ステップS717)、送受信部330へ渡す(ステップS718)。送受信部330は、電子黒板200に対し、コマンドを送信する(ステップS719)。
電子黒板200は、送受信部240によりコマンドを受信すると、送受信部240は、受信したコマンドをコマンド実行部250へ渡す(ステップS720)。コマンド実行部250は、コマンドを受けて、このコマンドが示す操作を実行し(ステップS721)、処理を終了する。
また、通信状態判定部360において、パラメータの値を変更するものと判定された場合、通信状態判定部360は、パラメータテーブル361を参照し、通信遅延時間と対応するパラメータの値を送受信部330へ渡す(ステップS722)。送受信部330は、このパラメータの値を、電子黒板200へ送信する(ステップS723)。言い換えれば、本実施形態の送受信部330は、電子黒板200に対し、音声データ以外のコンテンツデータのデータ量の調整指示を送信する。
電子黒板200では、送受信部240は、パラメータの値を受信すると、コンテンツ変換部230に対してこのパラメータの値を渡す(ステップS724)。コンテンツ変換部230は、画像データ及び動画データの形式の変換の際に参照するパラメータの値を、送受信部240から渡されたパラメータの値に変更し(ステップS725)、処理を終了する。
尚、図7では、コマンド抽出部350の処理と、通信状態判定部360の処理とが、前後して行われるように記載されているが、これに限定されない。コマンド抽出部350の処理と、通信状態判定部360の処理とは、並行して実行されても良い。
以上のように、本実施形態では、通信遅延時間に応じて、電子黒板200からサーバ装置300に送信する音声データ以外のコンテンツデータのデータ量を調整することで、ネットワークNの負荷を軽減させることができる。
言い換えれば、本実施形態によれば、通信遅延時間に応じて、電子黒板200からサーバ装置300に送信されるコンテンツデータのうち、音声データ以外のデータのデータ量を増減させる。
このため、本実施形態によれば、音声データを優先的に音声認識装置400へ送信し、コマンドの抽出を行うことができ、音声操作に対する応答性を向上させることができる。
(第二の実施形態)
以下に、図面を参照して第二の実施形態について説明する。第二の実施形態では、通信状態判定部が電子黒板200に設けられた点のみ、第一の実施形態と相違する。よって、以下の第二の実施形態の説明では、第一の実施形態との相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
図8は、第二の実施形態の情報処理システムの有する各装置の機能を説明する図である。
本実施形態の情報処理システム100Aは、電子黒板200Aとサーバ装置300Aとを有する。
電子黒板200Aは、第一の実施形態の電子黒板200の有する各部に加え、コマンドデータベース320、コマンド抽出部350、通信状態判定部360を有する。
また、本実施形態のサーバ装置300Aは、コンテンツデータベース310、送受信部330、コンテンツ格納部340を有する。
本実施形態の情報処理システム100Aでは、電子黒板200Aにおいて、音声データの音声認識結果であるテキストデータにおけるコマンドの有無を判定し、コマンドが存在する場合にはコマンドを抽出して実行する。
また、本実施形態の通信状態判定部360は、電子黒板200Aから音声認識装置400へ音声データが送信されてから、音声認識結果のテキストデータを受信するまでの時間を通信遅延時間としても良い。
また、本維持の通信状態判定部360は、電子黒板200Aからサーバ装置300Aにコンテンツデータを送信し、サーバ装置300Aから格納が完了したことを示す通知を受信するまでの時間を通信遅延時間としても良い。
また、本実施形態の通信状態判定部360は、これらの時間の平均等を通信遅延時間としても良い。
以下に、図9を参照して、第二の実施形態の情報処理システム100Aの動作について説明する。図9は、第二の実施形態の情報処理システムの動作を説明するシーケンス図である。
図9のステップS901からステップS905までの処理は、図7のステップS701からステップS705までの処理と同様であるから、説明を省略する。
ステップS905に続いて、サーバ装置300Aは、送受信部330がコンテンツデータを受信すると、受信したコンテンツデータをコンテンツ格納部340へ渡す(ステップS906)。コンテンツ格納部340は、コンテンツデータを受けて、コンテンツデータベース310にコンテンツデータを格納し(ステップS907)、格納が完了したことを送受信部330へ通知する(ステップS908)。送受信部330は、この通知を電子黒板200Aに送信する(ステップS909)。
また、電子黒板200Aは、送受信部240により、集音部210が取得した音声データを音声認識装置400へ送信する(ステップS910)。音声認識装置400は、音声データを受信すると、音声認識を行い(ステップS911)、その結果のテキストデータを電子黒板200Aへ送信する(ステップS912)。
また、音声認識装置400は、音声認識結果のテキストデータを、サーバ装置300Aに送信する(ステップS913)。サーバ装置300Aにおいて、送受信部330は、テキストデータを受信すると、受信したテキストデータをコンテンツ格納部340へ渡す(ステップS914)。コンテンツ格納部340は、このテキストデータをステップS907で格納されたコンテンツデータと対応付けて格納する(ステップS915)。
また、電子黒板200Aにおいて、送受信部240は、テキストデータを受信すると、受信したテキストデータをコマンド抽出部350へ渡す(ステップS916)。
コマンド抽出部350は、テキストデータを受け取ると、コマンドデータベース320を参照し、テキストデータに電子黒板200Aに対するコマンドが含まれるか否かを判定する(ステップS917)。コマンド抽出部350は、コマンドが含まれない場合は、処理を終了する。
コマンド抽出部350は、コマンドが含まれる場合には、コマンドを抽出し(ステップS918)、コマンド実行部250に渡す(ステップS919)。コマンド実行部250は、コマンドを受けて、このコマンドが示す操作内容を実行する(ステップS920)。
また、通信状態判定部360は、ステップS906におけるコンテンツデータの送信の通知から、ステップS910のコンテンツデータの格納の完了の通知を受けるまでの時間を通信遅延時間とし、パラメータの値を変更するか否かを判定する(ステップS921)尚、本実施形態では、送受信部240が音声データを音声認識装置400に送信してから、テキストデータを受信するまでの時間を通信遅延時間としても良い。
ステップS921において、パラメータの値を変更しないと判定された場合には、通信状態判定部360は、処理を終了する。
ステップS921において、パラメータの値を変更すると判定された場合、通信状態判定部360は、パラメータテーブル361において、通信遅延時間と対応するパラメータの値をコンテンツ変換部230へ渡す(ステップS922)。コンテンツ変換部230は、通信状態判定部360から受けた値をパラメータの値を変更し(ステップS923)、処理を終了する。
以上のように、本実施形態では、電子黒板200Aに、コマンド抽出部350と通信状態判定部360を設けた。したがって、本実施形態によれは、サーバ装置300Aでは、コンテンツデータの格納のみを行えば良く、サーバ装置300を単なる記憶装置とすることもできる。
(第三の実施形態)
以下に図面を参照して第三の実施形態について説明する。第三の実施形態は、電子黒板の集音部が集音した音声データにおいて、特定のワードが検出された場合には、そのワードを含む音声データを音声認識装置400に送信する点が、第二の実施形態と相違する。よって、以下の第三の実施形態の説明では、第二の実施形態と同様の機能構成を有するものには、第二の実施形態の説明で用いた符号と同様の符号を付与しその説明を省略する。
図10は、第三の実施形態の情報処理システムの各装置が有する機能を説明する図である。
本実施形態の情報処理システム100Bは、電子黒板200Bと、サーバ装置300Aと、を有する。本実施形態の電子黒板200Bは、第二の実施形態の電子黒板200Aの有する各部に加え、特定ワード検出部260を有する。
本実施形態の特定ワード検出部260は、集音部210が集音した音声データに、特定のワードが含まれるか否かを検出する。
具体的には、本実施形態の特定ワード検出部260は、例えば、音声認識機能を有しており、音声認識機能によって、音声データから特定のワードを検出しても良い。また、本実施形態の特定ワード検出部260き、例えば、特定のワードを発音したときの波形データを保持しておき、集音部210が集音した音声データが示す波形データの中に、特定のワードと対応する波形が存在するか否かによって、特定のワードを検出しても良い。
本実施形態の特定のワードとは、例えば、電子黒板200Bを示すワード等であり、音声操作が行われる合図として発せられる単語等である。したがって、本実施形態では、特定にワードが含まれる音声データには、電子黒板200Bに対するコマンドが含まれる可能性が高くなる。
本実施形態では、音声データから特定のワードが検出されると、このワードを含む1文を示す音声データを、コンテンツデータに先立って、音声認識装置400に送信し、コマンドが含まれるか否かを判定する。
以下に、図11を参照して、本実施形態の情報処理システム100Bの動作を説明する。図11は、第三の実施形態の情報処理システムの動作を説明するシーケンス図である。
図11のステップS1101からステップS1103までの処理は、図9のステップS901からステップS903までの処理と同様であるから、説明を省略する。
電子黒板200Bにおいて、コンテンツ変換部230は、ステップS1103に続いて、音声データを特定ワード検出部260へ渡す(ステップS1104)。特定ワード検出部260は、音声データに、特定のワードか含まれるか否かを判定する(ステップS1105)。ステップS1105において、特定のワードが検出されない場合、特定ワード検出部260は、処理を終了し、電子黒板200Bは、後述するステップS1110へ進む。
ステップS1105において、特定のワードが検出された場合、特定ワード検出部260は、特定のワードを含む一文と対応する音声データを送受信部240へ渡す(ステップS1106)。尚、このとき、特定ワード検出部260が送受信部240に渡す音声データは、一文に対応するものに限定されない。例えば、特定ワード検出部260は、特定のワードを含む一文と対応する音声データ前後の数秒文の音声データを送受信部240に渡しても良い。
送受信部240は、音声データを受け付けると、音声認識装置400へ送信する(ステップS1107)。音声認識装置400は、この音声データに対する音声認識を行い(ステップS1108)、その結果であるテキストデータを電子黒板200Bへ送信する(ステップS1109)。
図11のステップS1110からステップS1129までの処理は、図9のステップS904からステップS923までの処理と同様であるから、説明を省略する。
以上のように、本実施形態によれば、音声データに、音声操作を行う合図となる特定のワードが含まれる場合に、この特定のワードを含む一文と対応する音声データに音声認識を先に行う。本実施形態では、この処理により、電子黒板200Bに対するコマンドが含まれる可能性が高い音声データを優先的に音声認識装置400に送信し、音声認識を行うことができる。
また、本実施形態では、会話を示す音声データの一部として、特定のワードを含む音声データを抽出し、音声認識装置400へ送信するため、データ量を削減することができ、ネットワークに対する負荷を削減できる。よって、本実施形態によれば、音声操作に対する応答性を向上させることができる。尚、本実施形態、第一の実施形態と組み合わせることも可能である。
以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。
100、100A、100B 情報処理システム
200、200A、200B 電子黒板
210 集音部
220 入力部
230 コンテンツ変換部
240 送受信部
250 コマンド実行部
260 特定ワード検出部
300、300A サーバ装置
310 コンテンツデータベース
320 コマンドデータベース
330 送受信部
340 コンテンツ格納部
350 コマンド抽出部
360 通信状態判定部
361 パラメータテーブル
500 記憶部
特開2014−29922号公報

Claims (10)

  1. 音声データを含むコンテンツデータの送受信を行う複数の装置を有する情報処理システムであって、
    前記複数の装置の間の通信にかかる通信遅延時間に基づき、前記コンテンツデータのデータ量を変更するか否かを判定する通信状態判定部と、
    前記通信遅延時間に基づき、前記コンテンツデータのうち、前記音声データ以外のデータのデータ量を調整するコンテンツ変換部と、
    前記音声データを音声認識装置に送信し、前記音声認識装置から、前記音声データに対する音声認識結果であるテキストデータを受信する送受信部と、
    前記音声データに特定のワードが含まれるか否かを判定する特定ワード検出部と、を有し、
    前記特定ワード検出部は、
    前記ワードを含む所定の長さの音声データを前記送受信部によって、前記音声認識装置に送信する、情報処理システム。
  2. 前記音声データ以外のデータは、動画データを含む画像データであって、
    前記コンテンツ変換部は、
    前記動画データのフレームレート、解像度、圧縮率の少なくとも何れか1つを変更して、前記データ量を調整する、請求項1記載の情報処理システム。
  3. 前記音声データを前記音声認識装置に送信し、前記音声認識装置から、前記音声データに対する音声認識結果であるテキストデータを受信する送受信部と、
    前記複数の装置のうち、一の装置に対するコマンドが格納された記憶部を参照し、前記テキストデータから、前記一の装置に対する操作内容を含むコマンドを抽出するコマンド抽出部と、
    前記コマンドを前記一の装置に実行させるコマンド実行部と、を有する、請求項1又は2記載の情報処理システム。
  4. 前記通信状態判定部は、
    前記通信遅延時間と、前記データ量の変更の仕方と、を対応付けたテーブルを有し、
    前記テーブルを参照して、前記コンテンツ変換部に対して前記データ量を調整させる、請求項3記載の情報処理システム。
  5. 前記特定のワードは、
    前記複数の装置のうち、一の装置に対するコマンドの送信の合図として予め決められたワードである、請求項1乃至4の何れか一項に記載の情報処理システム。
  6. 集音装置を有する外部装置と、前記集音装置により集音した音声データを含むコンテンツデータの送受信を行う情報処理装置であって、
    前記外部装置との通信にかかる通信遅延時間に基づき、前記コンテンツデータのデータ量を変更するか否かを判定する通信状態判定部と、
    前記通信遅延時間に基づき、前記コンテンツデータのうち、前記音声データ以外のデータのデータ量の調整指示を前記集音装置に送信する送受信部と、を有し、
    前記通信遅延時間は、
    前記外部装置が特定のワードを含む所定の長さの音声データを音声認識装置に送信してから、前記外部装置が前記音声認識装置からテキストデータを受信するまでの時間である、情報処理装置。
  7. 集音装置を有し、前記集音装置により集音した音声データを含むコンテンツデータの送受信を行う情報処理装置であって、
    外部装置との通信にかかる通信遅延時間に基づき、前記コンテンツデータのデータ量を変更するか否かを判定する通信状態判定部と、
    前記通信遅延時間に基づき、前記コンテンツデータのうち、前記音声データ以外のデータのデータ量の調整を行うコンテンツ変換部と、
    前記音声データを音声認識装置に送信し、前記音声認識装置から、前記音声データに対する音声認識結果であるテキストデータを受信する送受信部と、
    前記音声データに特定のワードが含まれるか否かを判定する特定ワード検出部と、を有し、
    前記特定ワード検出部は、
    前記ワードを含む所定の長さの音声データを前記送受信部によって、前記音声認識装置に送信する、情報処理装置。
  8. 集音装置を有する外部装置と、前記集音装置により集音した音声データを含むコンテンツデータの送受信を行う情報処理装置により実行される情報処理プログラムであって、
    前記外部装置との通信にかかる通信遅延時間に基づき、前記コンテンツデータのデータ量を変更するか否かを判定する処理と、
    前記通信遅延時間に基づき、前記コンテンツデータのうち、前記音声データ以外のデータのデータ量の調整指示を前記集音装置に送信する処理と、を前記情報処理装置に実行させ
    前記通信遅延時間は、
    前記外部装置が特定のワードを含む所定の長さの音声データを音声認識装置に送信してから、前記外部装置が前記音声認識装置からテキストデータを受信するまでの時間である、情報処理プログラム。
  9. 集音装置を有し、前記集音装置により集音した音声データを含むコンテンツデータの送受信を行う情報処理装置により実行される情報処理プログラムであって、
    外部装置との通信にかかる通信遅延時間に基づき、前記コンテンツデータのデータ量を変更するか否かを判定する処理と、
    前記通信遅延時間に基づき、前記コンテンツデータのうち、前記音声データ以外のデータのデータ量の調整を行う処理と、
    前記音声データを音声認識装置に送信し、前記音声認識装置から、前記音声データに対する音声認識結果であるテキストデータを受信する送受信処理と、
    前記音声データに特定のワードが含まれるか否かを判定する処理と、を前記情報処理装置に実行させ、
    前記送受信処理は、
    前記ワードを含む所定の長さの音声データを、前記音声認識装置に送信する、情報処理プログラム。
  10. 音声データを含むコンテンツデータの送受信を行う複数の装置を有する情報処理システムによる情報処理方法であって、
    前記複数の装置の間の通信にかかる通信遅延時間に基づき、前記コンテンツデータのデータ量を変更するか否かを判定する手順と、
    前記通信遅延時間に基づき、前記コンテンツデータのうち、前記音声データ以外のデータのデータ量を調整する手順と、
    送受信部により、前記音声データを音声認識装置に送信し、前記音声認識装置から、前記音声データに対する音声認識結果であるテキストデータを受信する手順と、
    前記音声データに特定のワードが含まれるか否かを判定する手順と、を有し、
    前記ワードを含む所定の長さの音声データを前記送受信部によって、前記音声認識装置に送信する、情報処理方法。
JP2017053016A 2017-03-17 2017-03-17 情報処理システム、情報処理装置、情報処理プログラム及び情報処理方法 Active JP6801539B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017053016A JP6801539B2 (ja) 2017-03-17 2017-03-17 情報処理システム、情報処理装置、情報処理プログラム及び情報処理方法
US15/918,223 US10535353B2 (en) 2017-03-17 2018-03-12 Information processing system and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017053016A JP6801539B2 (ja) 2017-03-17 2017-03-17 情報処理システム、情報処理装置、情報処理プログラム及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2018156424A JP2018156424A (ja) 2018-10-04
JP6801539B2 true JP6801539B2 (ja) 2020-12-16

Family

ID=63521218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017053016A Active JP6801539B2 (ja) 2017-03-17 2017-03-17 情報処理システム、情報処理装置、情報処理プログラム及び情報処理方法

Country Status (2)

Country Link
US (1) US10535353B2 (ja)
JP (1) JP6801539B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3660848A1 (en) 2018-11-29 2020-06-03 Ricoh Company, Ltd. Apparatus, system, and method of display control, and carrier means
JP7302270B2 (ja) 2019-05-10 2023-07-04 株式会社リコー 表示端末、共用システム、表示制御方法およびプログラム
KR102297262B1 (ko) * 2020-07-16 2021-09-03 한국과학기술연구원 하이브리드 해상도를 가진 영상 데이터 전송 방법 및 이를 이용한 하이브리드 해상도 영상 생성 방법
WO2023145447A1 (ja) * 2022-01-27 2023-08-03 ソニーグループ株式会社 情報処理方法、情報処理システム、およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3726684B2 (ja) * 2001-01-11 2005-12-14 株式会社Kddi研究所 動画像データ転送における輻輳を回避する通信システム
JP4768250B2 (ja) * 2004-10-28 2011-09-07 シャープ株式会社 送信装置、受信装置、送受信装置、送信方法及び伝送システム
JP4994698B2 (ja) * 2006-04-13 2012-08-08 キヤノン株式会社 情報伝送装置及び情報伝送方法
US8297786B2 (en) * 2008-07-10 2012-10-30 Oree, Inc. Slim waveguide coupling apparatus and method
JP5402389B2 (ja) * 2009-08-17 2014-01-29 株式会社リコー 電子会議システム、配信管理サーバ、データ制御方法、プログラム、及び記録媒体
JP5790301B2 (ja) 2011-08-18 2015-10-07 株式会社リコー ネットワークシステム、画像投影装置、プログラム
JP2013131141A (ja) 2011-12-22 2013-07-04 Ricoh Co Ltd プロジェクタ、プロジェクタの制御方法及びプロジェクタの制御プログラム
JP2014029922A (ja) 2012-07-31 2014-02-13 Murata Mfg Co Ltd セラミック電子部品
KR20140039946A (ko) * 2012-09-28 2014-04-02 삼성전자주식회사 영상처리장치 및 그 제어방법, 영상처리 시스템
JP6507467B2 (ja) 2013-03-13 2019-05-08 株式会社リコー 情報処理装置
JP6090027B2 (ja) * 2013-07-22 2017-03-08 株式会社ナカヨ 特定音付き音声コマンド対応情報端末
US9575720B2 (en) * 2013-07-31 2017-02-21 Google Inc. Visual confirmation for a recognized voice-initiated action
WO2016043161A1 (ja) 2014-09-16 2016-03-24 株式会社リコー 表示装置、表示システム、及び表示制御プログラム
WO2016043140A1 (ja) 2014-09-16 2016-03-24 株式会社リコー 表示装置、表示システム及び表示制御プログラム
JP6547349B2 (ja) 2015-03-18 2019-07-24 株式会社リコー データ伝送システム、端末装置、プログラムおよび方法
JP5967848B1 (ja) * 2015-03-25 2016-08-10 株式会社アルブレイン 会議システム

Also Published As

Publication number Publication date
US20180268822A1 (en) 2018-09-20
JP2018156424A (ja) 2018-10-04
US10535353B2 (en) 2020-01-14

Similar Documents

Publication Publication Date Title
JP6801539B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム及び情報処理方法
US7831598B2 (en) Data recording and reproducing apparatus and method of generating metadata
JP6095381B2 (ja) データ処理装置、データ処理方法及びプログラム
US9704279B2 (en) Image processing device, image processing method, program, and recording medium
US11281707B2 (en) System, summarization apparatus, summarization system, and method of controlling summarization apparatus, for acquiring summary information
JP6396021B2 (ja) カメラの画像データ圧縮方法及びこれを支援する端末
CN104580888A (zh) 一种图像处理方法及终端
US8868419B2 (en) Generalizing text content summary from speech content
KR101756836B1 (ko) 음성데이터를 이용한 문서생성 방법 및 시스템과, 이를 구비한 화상형성장치
CN111723653A (zh) 基于人工智能的绘本阅读方法及装置
JP5464786B2 (ja) 情報処理装置、制御方法、及び制御プログラム
US10468029B2 (en) Communication terminal, communication method, and computer program product
CN111506183A (zh) 一种智能终端及用户交互方法
JP6756211B2 (ja) 通信端末、音声変換方法、及びプログラム
JP7468360B2 (ja) 情報処理装置および情報処理方法
KR20150000030A (ko) 컨텐츠 공유 서비스
TWI382400B (zh) 語音辨識裝置及其操作方法
US20230014604A1 (en) Electronic device for generating mouth shape and method for operating thereof
JP2020052511A (ja) 要約生成装置、要約生成方法、及びプログラム
CN106502938B (zh) 用于实现图像和语音交互的方法和装置
CN111816183B (zh) 基于音视频录制的语音识别方法、装置、设备及存储介质
WO2024093512A1 (zh) 对象处理方法、装置、电子设备以及可读存储介质
WO2021171417A1 (ja) 発話終端検出装置、制御方法、及びプログラム
US20230046763A1 (en) Speech recognition apparatus, control method, and non-transitory storage medium
WO2023051245A1 (zh) 视频处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201109

R151 Written notification of patent or utility model registration

Ref document number: 6801539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151