JP2020181044A - 情報処理装置、その制御方法、およびプログラム - Google Patents
情報処理装置、その制御方法、およびプログラム Download PDFInfo
- Publication number
- JP2020181044A JP2020181044A JP2019082845A JP2019082845A JP2020181044A JP 2020181044 A JP2020181044 A JP 2020181044A JP 2019082845 A JP2019082845 A JP 2019082845A JP 2019082845 A JP2019082845 A JP 2019082845A JP 2020181044 A JP2020181044 A JP 2020181044A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- job
- information
- unit
- execution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Accessory Devices And Overall Control Thereof (AREA)
- Facsimiles In General (AREA)
Abstract
【課題】複数の種類の音声が出力される場面において、情報処理装置に、指示の対象となる種類の音声を適切に識別させるための技術を提供すること。【解決手段】ユーザー900は、ユーザー端末300に対して、第1の言語で制御指示の音声を出力する。ユーザー端末300は、第1の言語の制御指示を第2の言語に翻訳し、第2の言語の制御指示の音声を出力する。MFP200は、第2の言語の制御指示の音声に対する音声認識の結果を用いて制御情報を生成し、当該制御情報に従ってジョブを制御する。MFP200は、マイクロフォン211から入力される音声の中で、MFP200から出力される種類の音声(合成音声)を、制御情報の生成に利用する。【選択図】図1
Description
本開示は、情報処理の指示の音声入力を受け付ける装置に関する。
従来のMFP(Multi-Functional Peripheral)等の画像処理装置には、入力された音声を認識することにより指示を受け付けるものがあった。このような装置において、音声認識の精度を向上させるための技術が種々提案されている。
たとえば、特許文献1(特開2013−182556号公報)および特許文献2(特開2011−059958号公報)は、入力される音声の言語属性を適切に設定するための技術を開示している。特許文献3(特開2014−203024号公報)は、複数のマイクから音声の入力が可能な画像処理システムにおいて、音声の認識結果に基づいて、認識の対象となる音声の入力元を設定する技術を開示する。特許文献4(特開2004−077601号公報)は、予め定められた記憶されている動作音データを用いて入力された音データから音声データを抽出し、抽出された音声データの音声認識を実行する技術を開示している。
近年、スマートフォンなどの端末を利用して、第1の言語の音声の入力に従って第2の言語の音声を出力する技術が利用されている。このような技術を利用して、海外出張などの場面において、ユーザーは、異国で、現地の言語で情報処理装置に対して音声入力をすることができる。
しかしながら、端末に入力するために出力される第1の言語の音声も、端末から出力される第2の言語の音声も、いずれも動作音データではなく音声データの出力である。従来の技術では、情報処理装置は、これらの音声から、指示の対象となる種類の音声を適切に識別することができなかった。
本開示は、係る実情に鑑み考え出されたものであり、その目的は、複数の種類の音声が出力される場面において、情報処理装置に、指示の対象となる種類の音声を適切に識別させるための技術を提供することである。
本開示のある局面に従うと、音声認識部と、音声認識部によって認識された情報がジョブの実行に関する情報であるか否かを判断し、ジョブの実行に関する情報であると判断した場合に、音声認識部によって認識された情報を用いてジョブの実行を指示する情報を生成するジョブ情報生成部と、音声認識部に入力された音声が所与の種類の音声であるか否かを識別する音声識別部と、音声識別部が音声認識部に入力された音声が所与の種類の音声であることを識別した場合に、ジョブの実行を指示する情報を使用してジョブの実行を制御する制御部とを備える、情報処理装置が提供される。
音声識別部は、音声の声紋データに基づいて、音声認識部に入力された音声が所与の種類の音声であるか否かを識別してもよい。
情報処理装置は、音声を識別するための情報を格納する記憶部をさらに備えていてもよい。音声識別部は、音声認識部に入力された音声を記憶部に格納された情報と照合することにより、音声認識部に入力された音声が所与の種類の音声であるか否かを識別してもよい。
情報処理装置は、音声認識部に音声を入力するユーザーを識別するユーザー識別部をさらに備えていてもよい。所与の種類はユーザー識別部によって識別されたユーザーに従って特定されてもよい。
制御部は、音声入力に関するモードである翻訳音声モードの使用の指定を受け付けてもよい。音声識別部は、翻訳音声モードの使用の指定を受け付けたことを条件として、識別を実施してもよい。
制御部は、所与の種類の音声の入力を、翻訳音声モードの使用の指定として扱ってもよい。
制御部は、音声認識部による音声認識率が所与の閾値より低い場合に、翻訳音声モードの使用の指定を促すための情報を出力してもよい。
情報処理装置は、ディスプレイをさらに備えていてもよい。制御部は、翻訳音声モードの使用が指定されている場合には、ユーザーへの質問をディスプレイにおける表示として出力してもよい。
制御部は、音声出力に関するモードである応答翻訳音声モードの使用の指定を受け付け、ユーザーへの質問を音声で出力した場合に、当該質問が音声で出力された後、一定時間、音声識別部からの音声の認識結果を無視することにより、ジョブの実行を指示する情報を使用したジョブの実行の制御を行わなくてもよい。
制御部は、音声出力に関するモードである応答翻訳音声モードの使用の指定を受け付け、ユーザーへの質問を音声で出力した場合に、当該質問が音声で出力された後、一定時間、音声識別部が音声認識部に入力された音声が所与の種類の音声であると識別した場合でも、ジョブの実行を指示する情報を使用したジョブの実行の制御を行わなくてもよい。
制御部は、ユーザーへの質問を音声で出力した場合に、所与の種類とは異なる種類の音声が検出されたことを条件として、ジョブの実行を指示する情報を使用したジョブの実行の制御を再開してもよい。
情報処理装置は、画像処理に関するジョブを実行する画像処理部をさらに備えていてもよい。ジョブの実行の制御は画像処理部の制御を含んでいてもよい。
本開示の他の局面に従うと、音声認識部によって認識された情報がジョブの実行に関する情報であるか否かを判断するステップと、音声認識部に入力された音声が所与の種類の音声であるか否かを識別するステップと、音声認識部に入力された音声が所与の種類の音声であることが識別された場合に、音声認識部によって認識された情報を用いて生成されたジョブの実行を指示する情報を使用して、ジョブの実行を制御するステップとを備える、情報処理装置の制御方法が提供される。
本開示のさらに他の局面に従うと、1以上のプロセッサーによって実行されることにより、1以上のプロセッサーに、音声認識部によって認識された情報がジョブの実行に関する情報であるか否かを判断するステップと、音声認識部に入力された音声が所与の種類の音声であるか否かを識別するステップと、音声認識部に入力された音声が所与の種類の音声であることが識別された場合に、音声認識部によって認識された情報を用いて生成されたジョブの実行を指示する情報を使用して、ジョブの実行を制御するステップとを実行させる、プログラムが提供される。
本開示によれば、情報処理装置は、入力された音声が所与の種類の音声であることを条件として、当該音声の認識結果を用いて生成された情報を利用してジョブの実行を制御する。これにより、複数の種類の音声が出力される場面でも、情報処理装置は、適切に、複数種類の音声の中から指示の対象となる種類の音声を識別できる。
以下に、図面を参照しつつ、情報処理装置の一実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらの説明は繰り返さない。
[1.情報処理システムの構成]
図1は、本開示に係る情報処理装置の一例を含む情報処理システムの構成を示す図である。図1に示されるように、情報処理システム100は、MFP200とユーザー端末300とを含む。MFP200は、音声の入力を受け付けるマイクロフォン211と、音声を出力するスピーカー212とを含む。ユーザー端末300は、音声の入力を受け付けるマイクロフォン311と、音声を出力するスピーカー312とを含む。
図1は、本開示に係る情報処理装置の一例を含む情報処理システムの構成を示す図である。図1に示されるように、情報処理システム100は、MFP200とユーザー端末300とを含む。MFP200は、音声の入力を受け付けるマイクロフォン211と、音声を出力するスピーカー212とを含む。ユーザー端末300は、音声の入力を受け付けるマイクロフォン311と、音声を出力するスピーカー312とを含む。
ユーザー端末300は、翻訳機能を備え、第1の言語で入力された音声を第2の言語で出力する。一実現例では、翻訳機能はユーザー端末300にインストールされたアプリケーションとして実現される。他の例では、ユーザー端末300は、翻訳専用機である。
ユーザー900は、ユーザー端末300に、第1の言語で、MFP200におけるジョブの実行に関する音声を入力する。ユーザー端末300は、入力された音声に対応する第2の言語の音声を出力する。
ユーザー900が出力する音声(ユーザー端末300に入力される音声)とユーザー端末300が出力する音声とは音声の種類が異なる。一実現例では、ユーザー900が出力する音声は人間の肉声であり、ユーザー端末300が出力する音声は機械が出力する合成音声である。
MFP200は、ユーザー端末300から出力される音声の種類をユーザー900から出力される音声の種類に対して識別し得る。MFP200は、スピーカー212に入力された音声のうち、ユーザー端末300から出力された音声の種類の音声を抽出し、当該音声の認識の結果として得られた情報を用いてジョブの実行を制御する情報を生成し、生成された情報に従ってジョブの実行を制御する。
[2.ハードウェア構成]
(MFP)
図2は、MFP200のハードウェア構成を示す図である。図2に示されるように、MFP200は、主な構成要素として、CPU201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、NV(Non-Volatile)−RAM204と、記憶装置205と、NIC(Network Interface Card)206と、操作パネル207と、スキャナー部208と、プリンター部209と、ファクシミリ(FAX)部210と、マイクロフォン211と、スピーカー212とを備えている。MFP200内の各要素は、互いに内部バスで接続されている。
(MFP)
図2は、MFP200のハードウェア構成を示す図である。図2に示されるように、MFP200は、主な構成要素として、CPU201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、NV(Non-Volatile)−RAM204と、記憶装置205と、NIC(Network Interface Card)206と、操作パネル207と、スキャナー部208と、プリンター部209と、ファクシミリ(FAX)部210と、マイクロフォン211と、スピーカー212とを備えている。MFP200内の各要素は、互いに内部バスで接続されている。
CPU201は、MFP200の動作を統括的に制御する。一実現例では、CPU201は、たとえば、1以上のプロセッサーを含む電気回路(circuitry)によって構成される。ROM202は、CPU201が実行するプログラムを含む各種のデータを格納する。RAM203およびNV−RAM204は、CPU201におけるプログラム実行時のワークエリアとして機能する。RAM203および/またはNV−RAM204は、スキャナー部208で読み取られた画像データ等を一時的に保存する場合もある。
記憶装置205は、MFP200に登録されている宛先情報やドキュメントなどの各種のデータを保存する。ドキュメントのデータは、ネットワークを介してMFP200に入力される場合もあれば、スキャナー部208で画像が読み取られることによって生成される場合もある。
NIC206は、MFP200が、UMS100やユーザー端末300等の、ユーザー統合管理システム内の他の装置と情報をやり取りする際の通信インターフェースである。
操作パネル207は、コピーの画質または用紙のための設定値、スキャンの送信先(宛先登録)を登録または選択するための情報など、各種の情報の入力を受け付ける。操作パネル207の表面には、たとえばタッチパネルが積層された液晶表示部が設けられている。操作パネル207は、さらに有機EL(Electro-Luminescence)ディスプレイなどのディスプレイを含んでいても良い。当該ディスプレイは、たとえばMFP200における設定内容を表示する。
スキャナー部208は、原稿台にセットされた原稿をスキャンし、原稿の画像データを生成する。スキャナー部208における画像データの生成方法は公知の方法を採用することができる。
プリンター部209は、たとえば電子写真方式により、スキャナー部208で読み取られた画像データや、FW配信サーバー100等の外部の情報処理装置から送信されたプリントデータを、印刷のためのデータに変換し、変換後のデータに基づいて文書等の画像を印刷する装置である。電子写真方式などの画像形成の態様は、公知の技術を採用することができる。
一実現例では、MFP200は、「コピー」「プリント」および「スキャン」のそれぞれの機能を実現できる。本明細書において、「機能」とはジョブの種類を意味する場合がある。
「コピー」機能は、記録媒体の上に、原稿台にセットされた原稿の画像を形成する機能であり、スキャナー部208とプリンター部209とが利用されることによって実現される。「プリント」機能は、データに従って記録媒体上に画像を形成する機能であり、プリンター部209が利用されることによって実現される。「スキャン」機能は、原稿の画像データを生成する機能であり、スキャナー部208が利用されることによって実現される。
この意味において、スキャナー部208およびプリンター部209は、いずれも、画像処理に関するジョブを実行する画像処理部の構成要素の一例である。
FAX部210は、ファクシミリ通信により画像情報を送受信する。この意味において、FAX部210は、画像処理部の構成要素の一例である。
MFP200では、CPU201が適切なプログラムを実行することによって、本明細書に記載されたようなMFP200の動作が実現される。CPU201によって実行されるプログラムは、上記したようにROM202に格納されている代わりに、記憶装置205に格納されていてもよいし、MFP200に対して着脱可能な記憶媒体に格納されていてもよい。当該プログラムが格納される記憶媒体は、たとえば、CD−ROM、DVD−ROM、USBメモリー、メモリーカード、FD、ハードディスク、SSD、磁気テープ、カセットテープ、MO、MD、ICカード(メモリーカードを除く)、光カード、マスクROM、EPROM、EEPROMなどの、不揮発的にデータを格納する媒体が挙げられる。
(ユーザー端末)
図3は、ユーザー端末300のハードウェア構成の一例を示す図である。ユーザー端末300は、スマートフォンなどの携帯端末であってもよいし、パーソナルコンピューターなどの備え付けの端末であってもよい。
図3は、ユーザー端末300のハードウェア構成の一例を示す図である。ユーザー端末300は、スマートフォンなどの携帯端末であってもよいし、パーソナルコンピューターなどの備え付けの端末であってもよい。
図3に示されるように、ユーザー端末300は、主な構成要素として、CPU301と、RAM302と、記憶装置303と、ディスプレイ304と、入力装置305と、NIC306と、マイクロフォン311と、スピーカー312とを備えている。CPU301と、RAM302と、記憶装置303と、ディスプレイ304と、入力装置305と、NIC306とは、互いに内部バスで接続されている。
CPU301は、ユーザー端末300の全体的な動作を制御するための処理を実行するプロセッサーの一例である。RAM302は、CPU301における処理実行時のワークエリアとして機能する。記憶装置303は、CPU301が実行するOSやブラウザーアプリケーションなどの各種のプログラムやこれらのプログラムの実行に利用されるデータを含む、各種のデータを保存する。上記アプリケーションは、署名されたデータを検証するためのアプリケーションを含む。
記憶装置303は、たとえば、CD−ROM、DVD−ROM、USBメモリー、メモリーカード、FD、ハードディスク、SSD、磁気テープ、カセットテープ、MO、MD、ICカード(メモリーカードを除く)、光カード、マスクROM、EPROM、EEPROMなどの、不揮発的にデータを格納する媒体が挙げられる。また、記憶装置303には、ネットワークを介してダウンロードされたプログラムがインストールされる場合も有り得る。
ディスプレイ304は、CPU301によって実行されるプログラムの処理結果を示す画像を表示するための表示装置である。
入力装置305は、たとえばキーボードや操作ボタンによって実現される。入力装置305は、情報の入力を受け付けると、当該情報をCPU301へ送る。
NIC306は、ユーザー端末300が、UMS100、MFP200、および管理装置400等のユーザー統合管理システムの他の装置との間で情報をやり取りする際の通信インターフェースである。
[3.機能構成]
図4は、MFP200における、ジョブ制御のための音声認識に係る機能構成を説明するための図である。図4に示されるように、MFP200において、CPU201は、所与のプログラムを実行することによって、音声認識部291、ジョブ判断生成部292、音声識別部293、および、ジョブ制御部294として機能する。
図4は、MFP200における、ジョブ制御のための音声認識に係る機能構成を説明するための図である。図4に示されるように、MFP200において、CPU201は、所与のプログラムを実行することによって、音声認識部291、ジョブ判断生成部292、音声識別部293、および、ジョブ制御部294として機能する。
音声認識部291は、マイクロフォン211を介して入力された音声に対して音声認識処理を実行し、認識結果をジョブ判断生成部292へ出力する。ジョブ判断生成部292は、認識結果を利用して、ジョブを制御するための情報(以下、「制御情報」ともいう)を生成する。
図5は、認識結果と制御情報との関係の一例を説明するための図である。図5には、キーワードに、機能名および/または設定内容が関連付けられている。
たとえば、キーワード「コピー」は、生成される制御情報において、機能として「コピー」を特定する。
キーワードが数字である場合、制御情報における数値を特定する。たとえば、キーワードが「3」である場合、制御情報において設定される数値として「3」が特定される。
キーワード「片片」は、機能として「コピー」を特定し、さらに、当該「コピー」機能における設定として「片面読み取り、片面印刷」を特定する。
キーワード「拡大」は、機能として「コピー」を特定し、さらに、別途設定された倍率で原稿画像を拡大して出力する設定と特定する。
キーワード「A3」は、制御情報における用紙サイズ「A3」を特定する。
図4に戻って、音声認識部291は、認識に利用した音声(マイクロフォン211を介して入力された音声)と認識結果とを関連付けて音声識別部293へ出力する。音声識別部293は、マイクロフォン211を介して入力された音声が所与の種類の音声であるか否かを識別し、識別の結果をジョブ制御部294へ出力する。所与の種類の一例は、機械による合成音声である。
図4に戻って、音声認識部291は、認識に利用した音声(マイクロフォン211を介して入力された音声)と認識結果とを関連付けて音声識別部293へ出力する。音声識別部293は、マイクロフォン211を介して入力された音声が所与の種類の音声であるか否かを識別し、識別の結果をジョブ制御部294へ出力する。所与の種類の一例は、機械による合成音声である。
ユーザー900が、第1の言語のキーワードを肉声でユーザー端末300に入力した場合を想定する。この場合、ユーザー端末300は、第1の言語で入力されたキーワードを第2の言語へ翻訳し、翻訳結果として第2の言語でキーワードを出力する。したがって、この場合、MFP200のマイクロフォン211には、第1の言語のキーワードに対応する肉声と、第2の言語のキーワードに対応する合成音声とが入力される。音声識別部293は、上記肉声に関する識別結果(所与の種類ではない)と、上記合成音声に関する識別結果(所与の種類の音声である)とを、ジョブ制御部294へ出力する。
ジョブ制御部294は、ジョブ判断生成部292から制御情報を入力され、音声識別部293から識別結果を入力される。ジョブ制御部294は、音声識別部293からの識別結果として「所与の種類である」を付与された音声に基づいて生成された制御情報のみを、ジョブの制御に利用する。
たとえば、上述したような、「ユーザー900が、第1の言語のキーワードを肉声でユーザー端末300に入力」する例では、第2の言語でキーワードを発音する音声は、識別結果「所与の種類である」を付与されているので、ジョブ制御部294は、当該音声に基づいて生成された制御情報をジョブの制御に利用する。
一方、上記の例において、第1の言語でキーワードを発音する音声は、識別結果「所与の種類ではない」を付与されているので、ジョブ制御部294は、当該音声をジョブの制御において無視する。MFP200では、当該音声の音声認識の結果を用いた制御情報が生成されてもよいし、生成されなくてもよい。当該音声の音声認識の結果を用いた制御情報が生成された場合であっても、ジョブ制御部294は、当該制御情報をジョブの制御には利用しない。
[4.処理の流れ]
図6は、MFP200において入力された音声を用いてジョブを制御するために実行される処理のフローチャートである。一実現例では、図6の処理は、CPU201が所与のプログラムを実行することによって実現される。CPU201は、たとえばジョブ制御部294の機能として実現される。
図6は、MFP200において入力された音声を用いてジョブを制御するために実行される処理のフローチャートである。一実現例では、図6の処理は、CPU201が所与のプログラムを実行することによって実現される。CPU201は、たとえばジョブ制御部294の機能として実現される。
ステップS10にて、CPU201は、音声内容によりMFP200のジョブの種類/ジョブ設定が検出されたか否かを判断する。より具体的には、CPU201は、マイクロフォン211を介して入力された音声に対する音声認識の結果(音声内容)から、図5に示されたようなキーワード(MFP200のジョブの種類およびジョブ設定の少なくとも一方を特定する情報)が検出されたか否かを判断する。さらに具体的には、CPU201は、ジョブ判断生成部292が、音声認識部291から出力された認識結果と図5に示された情報から制御情報を生成することができるか否かを判断する。
CPU201は、ジョブの種類/ジョブ設定が検出されたと判断するとステップS20へ制御を進め(ステップS10にてYES)、そうでなければ図6の処理を終了する(ステップS10にてNO)。
ステップS20にて、CPU201は、制御情報の生成に利用された音声に、合成音声が含まれるか否かを判断する。一実現例では、当該判断は、音声識別部293から出力された情報に従って実現される。CPU201は、上記音声に合成音声が含まれると判断するとステップS30へ制御を進め(ステップS20にててYES)、そうでなければ図6の処理を終了する(ステップS20にてNO)。一例では、音声が合成音声を含むか否かは、当該音声に含まれる音声の要素が所与の性質(データのパターン)を有するか否かに従って判断される。
ステップS30にて、CPU201は、マイクロフォン211を介してMFP200に入力された音声の中から合成音声を抽出し、抽出された音声に従ってジョブの設定を生成し、当該設定に従って画像処理部にジョブを実行させる。
図6には、処理内容の一具体例を説明するために、MFP200についての2つの状態ST11,ST12が示されている。状態ST11は、MFP200がジョブ設定「A3サイズ」を含んでいる状態を表す。ジョブ設定「A3サイズ」は、MFP200におけるデフォルト設定であってもよい。状態ST12は、MFP200が、設定「ジョブ種類:拡大コピー,サイズA3」を含むジョブの実行を指示された状態を表す。状態ST11,ST12をより具体的に説明するために、キーワード「拡大」および「コピー」を含む音声がMFP200に入力された場合を想定する。
当該音声の種類が所与の種類(たとえば、合成音声)でなければ、当該音声はジョブの制御において無視される。すなわち、MFP200は、ジョブに関するデフォルト設定「A3サイズ」を含んだ状態で何もしない。この状態は、状態ST11に相当する。
一方、当該音声の種類が所与の種類であれば、当該音声はジョブの制御に利用される。音声の認識結果がキーワード「コピー」を含むことに基づいて、ジョブの種類「コピー」の開始を指示する制御情報が生成される。さらに、音声の認識結果がキーワード「拡大」を含むことに基づいて、上記制御情報は、ジョブ「コピー」の設定として拡大コピー(コピージョブの設定の一例であり、原稿の画像を拡大して記録媒体上に形成するための設定)を含む。さらに、上記制御情報は、画像がどこまで拡大されるかの設定として、デフォルド設定「A3サイズ」を含む。この状態は、状態ST12に相当する。
以上説明されたように、本実施の形態では、MFP200に入力される音声の種類に従って、MFP200は、当該音声の認識結果を用いてジョブの実行を制御するか否かを決定する。
[5.変形例(1)]
図7および図8を参照して、上記実施の形態の1つ目の変形例について説明する。図7は、変形例(1)に従った処理のフローチャートである。図8は、図7の処理に利用される情報の一例のデータ構成を模式的に示す図である。
図7および図8を参照して、上記実施の形態の1つ目の変形例について説明する。図7は、変形例(1)に従った処理のフローチャートである。図8は、図7の処理に利用される情報の一例のデータ構成を模式的に示す図である。
変形例(1)では、音声識別部293は、記憶装置205に格納された声紋データと照合することにより、マイクロフォン211を介して入力された音声が所与の種類の音声であるか否かを識別する。より具体的には、記憶装置205には、声紋データとして、複数の翻訳用アプリケーション(以下、「翻訳アプリ」ともいう)のそれぞれに特有の声紋データが格納されている。一例では、翻訳アプリ特有の声紋データは、当該翻訳アプリに登場するキャラクターの声として設定された声紋データである。
なお、本明細書では、「記憶装置205」に記憶されていると言及されたデータの記憶場所は「記憶装置205」に限定されない。CPU201がアクセス可能な記憶装置に記憶されているのであれば、データは、MFP200に着脱可能な記憶装置に格納されていてもよいし、MFP200に対して離間された記憶装置に格納されていてもよい。
さて、変形例(1)では、図8に示されるように、記憶装置205に、所与の種類として3種類の翻訳アプリ(翻訳アプリA,B,C)が特定されている。そして、変形例(2)では、MFP200に入力された音声が、合成音声であって、かつ、図8に示された3種類の翻訳アプリの中のいずれかにおいて利用される種類の音声であれば、当該音声の音声認識の結果がジョブの制御に利用される。
より具体的には、図7の処理は、図6の処理に対してステップS22の制御をさらに含む。CPU201は、ステップS20において、制御情報の生成に利用された音声が合成音声を含むと判断すると、ステップS22へ制御を進める。
ステップS22において、CPU201は、制御情報の生成に利用された音声が、ジョブの制御用に登録された合成音声(図8に登録された翻訳アプリの音声)であるか否かを判断する。ステップS22における判断は、たとえば、制御情報の生成に利用された音声の声紋データと、各翻訳アプリの声紋データとして記憶装置205に格納された声紋データとの照合の結果に基づいて実現される。一例では、CPU201は、当該照合の結果において一致度が所与の閾値以上であれば、制御情報の生成に利用された音声がジョブの制御用に登録された合成音声であると判断し、所与の閾値未満であれば、制御情報の生成に利用された音声はジョブの制御用に登録された合成音声ではないと判断する。
CPU201は、制御情報の生成に利用された音声がジョブの制御用に登録された合成音声であると判断すると(ステップS22にてYES)、ステップS30へ制御を進める。これにより、生成された制御情報がジョブの制御に利用される。一方、CPU201は、制御情報の生成に利用された音声がジョブの制御用に登録された合成音声ではないと判断すると(ステップS22にてNO)、図7の処理を終了する。これにより、マイクロフォン211に入力された音声はジョブの制御において無視される。
[6.変形例(2)]
図9〜図10を参照して、上記実施の形態の2つ目の変形例について説明する。図9は、変形例(2)に従った処理のフローチャートである。図10は、図9の処理に利用される情報の一例のデータ構成を模式的に示す図である。
図9〜図10を参照して、上記実施の形態の2つ目の変形例について説明する。図9は、変形例(2)に従った処理のフローチャートである。図10は、図9の処理に利用される情報の一例のデータ構成を模式的に示す図である。
変形例(2)では、MFP200をユーザーごとに、ジョブの制御に利用される音声の種類が特定される。
より具体的には、図9の処理は、図7に示された処理と比較して、ステップS02、ステップS12、および、ステップS24の制御をさらに備える。
ステップS02にて、CPU201は、情報処理システムにおいて管理される1以上のユーザーのそれぞれについて、声紋情報(たとえば、声紋データ)をダウンロードする。より具体的には、情報処理システムにおいて、CPU201は、ユーザー情報を管理するサーバーと接続が可能である。CPU201は、NIC206を利用して当該サーバーに接続し、当該サーバーから各ユーザーの声紋情報をダウンロードして、記憶装置205に格納する。
ステップS10にて、CPU201は、ステップS10にて、ジョブの種類/ジョブ設定が検出されたと判断すると(ステップS10にてYES)、ステップS12へ制御を進める。
ステップS12にて、CPU201は、ユーザーに対してマイクロフォン211にユーザーの肉声を入力することを要求する。そして、CPU201は、入力された音声の声紋がステップS02にてダウンロードされた1以上のユーザーのいずれかの声紋と一致する音声を含むか否かを判断する。CPU201は、入力された音声の声紋がダウンロードされた1以上のユーザーのいずれかの音声を含むと判断すると(ステップS12にてYES)、ステップS20へ制御を進め、そうでなければ(ステップS12にてNO)、図9の処理を終了する。マイクロフォン211に肉声を入力したユーザーは、MFP200を使用しているユーザーであり、かつ、当該肉声の声紋が一致したユーザーとして特定される。
ステップS20にて、CPU201は、制御情報の生成に利用された音声に、合成音声が含まれると判断すると(ステップS20にててYES)、ステップS24へ制御を進める。
ステップS24にて、CPU201は、MFP200を使用しているユーザー(ステップS12の肉声の声紋と一致する声紋を有するユーザー)について登録されている翻訳アプリを特定し、制御情報の生成に利用された音声が、特定された翻訳アプリの音声を含むか否かを判断する。
図10には、ユーザーごとの翻訳アプリの登録の一態様が模式的に示される。図10では、たとえば、「ユーザーA」に関連付けられて「翻訳アプリA」が登録されている。図10に示された情報は、たとえば記憶装置205に格納されている。記憶装置205には、さらに、翻訳アプリA〜Cのそれぞれに関連付けられた声紋データが格納されている。
CPU201は、制御情報の生成に利用された音声が、MFP200を使用しているユーザーに関連付けられた翻訳アプリの声紋データに一致する(または、当該声紋データに対して所与の閾値以上の一致度を有する)音声を含む場合に、制御情報の生成に利用された音声がMFP200を使用しているユーザーに関連付けられた翻訳アプリの音声を含むと判断する。
CPU201は、制御情報の生成に利用された音声が、MFP200を使用しているユーザーに関連付けられた翻訳アプリの音声を含むと判断すると(ステップS24にてYES)、ステップS30へ制御を進め、そうでなければ(ステップS24にてNO)、図9の処理を終了する。
ステップS30にて、CPU201は、マイクロフォン211を介してMFP200に入力された音声の中から合成音声を抽出し、抽出された音声に従ってジョブの設定を生成し、当該設定に従って画像処理部にジョブを実行させる。
以上説明された変形例(2)では、MFP200を使用するユーザーに従って特定された翻訳アプリの種類が、ジョブの制御に利用する音声の種類として特定される。また、ステップS12において、マイクロフォン211に入力されたユーザーの肉声と一致する音声を特定することにより、CPU201は、音声認識部に音声を入力するユーザーを識別する「ユーザー識別部」として機能する。
[7.変形例(3)]
次に、上記実施の形態の3つ目の変形例について説明する。この変形例は、MFP200において使用される「翻訳音声モード」に関連する。
次に、上記実施の形態の3つ目の変形例について説明する。この変形例は、MFP200において使用される「翻訳音声モード」に関連する。
図11は、MFP200の操作パネル207に表示される画面の一例を示す図である。変形例(3)では、ユーザーは、MFP200において翻訳音声モードを使用するかしないかを選択できる。図11の画面1100は、MFP200において翻訳音声モードを使用するか否かの設定値を入力するための画面である。
画面1100において、欄1101は、メッセージ「翻訳音声モードを使用しますか?」を表示する。欄1110は、翻訳音声モードが使用される状態を表す画像を示す。ボタン1111は、欄1110に関連付けられて表示され、翻訳音声モードを使用するという設定値を入力するために操作される。欄1120は、翻訳音声モードが使用されない状態を表す画像を示す。ボタン1121は、欄1120に関連付けられて表示され、翻訳音声モードを使用しないという設定値を入力するために操作される。
「翻訳音声モード」とは、MFP200への操作指示用の音声の入力前に、ユーザー端末300への音声の入力が想定されるモードである。「翻訳音声モード」では、ユーザーは、ユーザー端末300に第1の言語で音声を入力する。ユーザー端末300は、当該音声を第2の言語に翻訳し、第2の言語で当該音声に対応する合成音声を出力する。「翻訳音声モード」が使用されない場合、ユーザーはMFP200に直接操作指示用の音声を入力する。
一実現例では、MFP200では、翻訳音声モードが使用されるか否かによって、必要とされる機能が異なる。より具体的には、「翻訳音声モード」が使用される場合には、MFP200は、音声識別部293の機能を必要とする。MFP200は、ユーザー端末300が出力した音声のみを使用して制御情報を生成し、ユーザーがユーザー端末300に対して出力した音声を制御情報の生成に使用しないために、音声識別部293として機能する。「翻訳音声モード」が使用されない場合には、音声識別部293は必要とされない。MFP200では、デフォルトでは翻訳音声モードが使用されない設定が登録されており、合成音声が入力されたことを条件として、翻訳音声モードを使用する設定が登録されてもよい。すなわち、合成音声の入力により翻訳音声モードの使用が指定される。
なお、CPU201は、スピーカー212を介して入力された音声に対する音声認識率が所与の閾値より低いことを条件として、操作パネル207に、翻訳音声モードの使用を促す画面を表示してもよい。音声認識率は、一例では、入力された音声のデータ量に対する、音声認識により文字列に置換された音声のデータ量の割合として算出される。
[8.変形例(4)]
次に、上記実施の形態の4つ目の変形例について説明する。この変形例は、MFP200において使用される「応答翻訳音声モード」に関連する。
次に、上記実施の形態の4つ目の変形例について説明する。この変形例は、MFP200において使用される「応答翻訳音声モード」に関連する。
図12は、応答翻訳音声モードを使用するときのMFP200の機能構成の一例を示す図である。図12に示された構成では、MFP200のCPU201は、図4と比較して、さらにジョブ情報確認部295および音声生成部296として機能する。応答翻訳音声モードは、MFP200が音声で出力した応答を、ユーザー端末300が翻訳して出力することを想定したモードである。
図12の例では、ジョブ情報確認部295は、ジョブ判断生成部292によって生成された制御情報において、ジョブの制御に対する不足事項があるか否かを判断する。ジョブ情報確認部295は、不足事項があれば、当該不足事項を音声生成部296へ通知する。
音声生成部296は、不足事項の通知を受けると、不足事項の補充を要求する音声を生成する。たとえば、ジョブ情報確認部295は、入力された音声によって拡大コピーのジョブの開始が指示されたときに、拡大倍率の情報が不足していると判断する場合がある。この場合、ジョブ情報確認部295は、不足事項として「拡大倍率」を音声生成部296へ通知する。音声生成部296は、「拡大倍率」を問い合わせるための音声を生成し、当該音声をスピーカー312から出力する。1以上の不足事項のそれぞれに対応する問い合わせ用の音声が予め格納されており、音声生成部296は、不足事項に対応する音声を選択して出力してもよい。
応答翻訳音声モードでは、MFP200は、不足事項に対応する音声が出力された後、一定時間、入力された音声をジョブの制御のための制御情報の生成において無視する。
図13は、MFP200の操作パネル207に表示される画面の一例を示す図である。ユーザーは、MFP200において応答翻訳音声モードを使用するかしないかを選択できる。図13の画面1300は、MFP200において翻訳音声モードを使用するか否かの設定値を入力するための画面である。
画面1300において、欄1301は、メッセージ「応答翻訳音声モードを使用しますか?」を表示する。欄1310は、応答翻訳音声モードが使用される状態を表す画像を示す。ボタン1311は、欄1310に関連付けられて表示され、応答翻訳音声モードを使用するという設定値を入力するために操作される。欄1320は、応答翻訳音声モードが使用されない状態を表す画像を示す。ボタン1321は、欄1320に関連付けられて表示され、応答翻訳音声モードを使用しないという設定値を入力するために操作される。
図14は、変形例(4)に従った処理のフローチャートである。
図14に示されるように、ステップS10にて、CPU201は、音声内容によりMFP200のジョブの種類/ジョブ設定が検出されたか否かを判断する。CPU201は、ジョブの種類/ジョブ設定が検出されたと判断するとステップS28へ制御を進め(ステップS10にてYES)、そうでなければ図14の処理を終了する(ステップS10にてNO)。
図14に示されるように、ステップS10にて、CPU201は、音声内容によりMFP200のジョブの種類/ジョブ設定が検出されたか否かを判断する。CPU201は、ジョブの種類/ジョブ設定が検出されたと判断するとステップS28へ制御を進め(ステップS10にてYES)、そうでなければ図14の処理を終了する(ステップS10にてNO)。
ステップS28にて、CPU201は、MFP200において翻訳音声モードを使用することが設定されているか否かを判断する。CPU201は、翻訳音声モードを使用することが設定されていると判断すると(ステップS28にてYES)、ステップS32へ制御を進め、そうでなければ(ステップS28にてNO)、図14の処理を終了する。
ステップS32にて、CPU201は、マイクロフォン211を介してMFP200に入力された音声の中から合成音声を抽出し、抽出された音声に従ってジョブの設定を生成する。
ステップS40にて、CPU201は、ステップS32において生成されたジョブの設定から、ジョブの実行指示に対する不足事項が検出されたか否かを判断する。CPU201は、不足事項が検出されたと判断すると(ステップS40にてYES)、ステップS50へ制御を進め、そうでなければ、生成された設定に従ってジョブを制御して、図14の処理を終了する。
ステップS50にて、CPU201は、MFP200において応答翻訳音声モードを使用することが設定されているか否かを判断する。CPU201は、応答翻訳音声モードを使用することが設定されていると判断すると(ステップS50にてYES)、ステップS60へ制御を進め、そうでなければ(ステップS50にてNO)、ステップS70へ制御を進める。
ステップS60にて、CPU201は、不足事項の問い合わせ(質問事項)を音声で出力し、一定時間ステップS60に制御を留めた後、図14の処理を終了する。MFP200から出力された質問事項の音声がユーザー端末300で翻訳され、ユーザー端末300が翻訳後の質問事項を出力する事態が想定される。ステップS60によれば、翻訳後の質問事項の音声が出力されている期間、音声がジョブの制御に利用されることが回避され得る。
なお、CPU201は、ステップS60に記載されたような質問事項の音声出力の後、一定時間待つこと無く図14の処理を終了し、その後、一定時間、図14の処理を再開しないように動作しても良い。これにより、質問事項の音声出力後、所与の種類の音声(合成音声)がMFP200に入力されても、MFP200は、当該音声を使用したジョブの制御を実行しない。
ステップS70にて、CPU201は、質問事項に対応する設定を入力するための画面を操作パネル207に表示した後、図14の処理を終了する。質問事項の表示の後、MFP200にマイクロフォン211を介して音声が入力された場合、ステップS60のように一定時間の経過を待つこと無く、ステップS10から図14の処理が再開される。
図14の処理では、応答翻訳音声モードの使用が設定されていることを条件として、質問事項が表示された。図15は、質問事項の表示の一例を示す図である。
図15の画面1500は、拡大コピーにおける拡大サイズを問い合わせる画面である。画面1500は、欄1501を含む。欄1501は、メッセージ「拡大サイズを選択してください。」を含む。画面1500は、それぞれ異なる拡大サイズを指定するための3つのアイコン1510,1520,1530を含む。たとえば、アイコン1510は、B5サイズからA4サイズへの拡大を指定するために操作される。
図14には、処理内容の一具体例を説明するために、MFP200についての2つの状態ST21,ST22が示されている。状態ST21は、MFP200において生成された制御情報が「拡大コピー」を含む状態である。この制御情報が生成された状態でステップS32の制御が実施された場合、不足事項として「拡大サイズ」が検出される。不足事項として「拡大サイズ」が検出された状態が状態ST22として示される。その後、ユーザーが質問事項に対応する設定を入力することにより不足事項が補われ、これにより、MFP200はジョブを実行する。
[9.変形例(5)]
図16は、変形例(5)に従ったMFP200において実行される処理のフローチャートである。図16の処理は、図14の処理と比較して、ステップS60の代わりにステップS62を含み、さらにステップS80およびステップS90を含む。図16を参照して、変形例(5)の処理を説明する。
図16は、変形例(5)に従ったMFP200において実行される処理のフローチャートである。図16の処理は、図14の処理と比較して、ステップS60の代わりにステップS62を含み、さらにステップS80およびステップS90を含む。図16を参照して、変形例(5)の処理を説明する。
ステップS62にて、CPU201は、不足事項の問い合わせ(質問事項)を音声で出力し、機械音声(合成音声)を無視し、(一定時間待つこと無く)ステップS80へ制御を進める。機械音声を無視することの一例は、マイクロフォン211を介して合成音声が入力されても、当該合成音声に対する音声認識および制御情報の生成を実施しないことである。
ステップS70にて、CPU201は、質問事項に対応する設定を入力するための画面を操作パネル207に表示した後、ステップS80へ制御を進める。
ステップS80にて、CPU201は、ユーザー音声を検出したか否かを判断する。ユーザー音声とは、たとえば、ユーザー(人間)の肉声である。一実現例では、CPU201は、マイクロフォン211を介して入力された音声が所与の種類(合成音声)以外の種類の音声であることが特定された場合に、ユーザー音声を検出したと判断する。CPU201は、ユーザー音声を検出したと判断するまで繰り返しステップS80の制御を実行する(ステップS80にてNO)。CPU201は、ユーザー音声を検出したと判断すると(ステップS80にてYES)、ステップS90へ制御を進める。
ステップS90にて、CPU201は、ステップS62における機械音声の無視を解除して、図16の処理を終了する。
図16の処理によれば、MFP200は、ユーザーへの質問を音声で出力した場合に、所与の種類の音声(合成音声)とは異なる種類の音声(ユーザー音声)が検出されたことを条件として、ジョブの実行を指示する情報を使用したジョブの実行の制御を再開する。
今回開示された各実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。また、実施の形態および各変形例において説明された発明は、可能な限り、単独でも、組合わせても、実施することが意図される。
100 情報処理システム、200 MFP、201,301 CPU、207 操作パネル、208 スキャナー部、209 プリンター部、210 FAX部、211,311 マイクロフォン、212,312 スピーカー、291 音声認識部、292 ジョブ判断生成部、293 音声識別部、294 ジョブ制御部、295 ジョブ情報確認部、296 音声生成部、300 ユーザー端末、304 ディスプレイ、305 入力装置、900 ユーザー、1100,1300,1500 画面、1101,1110,1120,1301,1310,1320,1501 欄、1111,1121,1311,1321 ボタン、1510,1520,1530 アイコン。
Claims (14)
- 音声認識部と、
前記音声認識部によって認識された情報がジョブの実行に関する情報であるか否かを判断し、ジョブの実行に関する情報であると判断した場合に、前記音声認識部によって認識された情報を用いてジョブの実行を指示する情報を生成するジョブ情報生成部と、
前記音声認識部に入力された音声が所与の種類の音声であるか否かを識別する音声識別部と、
前記音声識別部が前記音声認識部に入力された音声が前記所与の種類の音声であることを識別した場合に、前記ジョブの実行を指示する情報を使用してジョブの実行を制御する制御部とを備える、情報処理装置。 - 前記音声識別部は、音声の声紋データに基づいて、前記音声認識部に入力された音声が前記所与の種類の音声であるか否かを識別する、請求項1に記載の情報処理装置。
- 音声を識別するための情報を格納する記憶部をさらに備え、
前記音声識別部は、前記音声認識部に入力された音声を前記記憶部に格納された情報と照合することにより、前記音声認識部に入力された音声が前記所与の種類の音声であるか否かを識別する、請求項1または請求項2に記載の情報処理装置。 - 前記音声認識部に音声を入力するユーザーを識別するユーザー識別部をさらに備え、
前記所与の種類は前記ユーザー識別部によって識別されたユーザーに従って特定される、請求項1〜請求項3のいずれか1項に記載の情報処理装置。 - 前記制御部は、音声入力に関するモードである翻訳音声モードの使用の指定を受け付け、
前記音声識別部は、前記翻訳音声モードの使用の指定を受け付けたことを条件として、前記識別を実施する、請求項1〜請求項4のいずれか1項に記載の情報処理装置。 - 前記制御部は、前記所与の種類の音声の入力を、前記翻訳音声モードの使用の指定として扱う、請求項5に記載の情報処理装置。
- 前記制御部は、前記音声認識部による音声認識率が所与の閾値より低い場合に、前記翻訳音声モードの使用の指定を促すための情報を出力する、請求項5に記載の情報処理装置。
- ディスプレイをさらに備え、
前記制御部は、前記翻訳音声モードの使用が指定されている場合には、ユーザーへの質問を前記ディスプレイにおける表示として出力する、請求項5〜請求項7のいずれか1項に記載の情報処理装置。 - 前記制御部は、
音声出力に関するモードである応答翻訳音声モードの使用の指定を受け付け、
ユーザーへの質問を音声で出力した場合に、当該質問が音声で出力された後、一定時間、前記音声識別部からの音声の認識結果を無視することにより、前記ジョブの実行を指示する情報を使用したジョブの実行の制御を行わない、請求項5〜請求項7のいずれか1項に記載の情報処理装置。 - 前記制御部は、
音声出力に関するモードである応答翻訳音声モードの使用の指定を受け付け、
ユーザーへの質問を音声で出力した場合に、当該質問が音声で出力された後、一定時間、前記音声識別部が前記音声認識部に入力された音声が前記所与の種類の音声であると識別した場合でも、前記ジョブの実行を指示する情報を使用したジョブの実行の制御を行わない、請求項5〜請求項7のいずれか1項に記載の情報処理装置。 - 前記制御部は、ユーザーへの質問を音声で出力した場合に、前記所与の種類とは異なる種類の音声が検出されたことを条件として、前記ジョブの実行を指示する情報を使用したジョブの実行の制御を再開する、請求項9または請求項10に記載の情報処理装置。
- 画像処理に関するジョブを実行する画像処理部をさらに備え、
前記ジョブの実行の制御は前記画像処理部の制御を含む、請求項1〜請求項11のいずれか1項に記載の情報処理装置。 - 音声認識部によって認識された情報がジョブの実行に関する情報であるか否かを判断するステップと、
前記音声認識部に入力された音声が所与の種類の音声であるか否かを識別するステップと、
前記音声認識部に入力された音声が前記所与の種類の音声であることが識別された場合に、前記音声認識部によって認識された情報を用いて生成されたジョブの実行を指示する情報を使用して、ジョブの実行を制御するステップとを備える、情報処理装置の制御方法。 - 1以上のプロセッサーによって実行されることにより、前記1以上のプロセッサーに、
音声認識部によって認識された情報がジョブの実行に関する情報であるか否かを判断するステップと、
前記音声認識部に入力された音声が所与の種類の音声であるか否かを識別するステップと、
前記音声認識部に入力された音声が前記所与の種類の音声であることが識別された場合に、前記音声認識部によって認識された情報を用いて生成されたジョブの実行を指示する情報を使用して、ジョブの実行を制御するステップとを実行させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019082845A JP2020181044A (ja) | 2019-04-24 | 2019-04-24 | 情報処理装置、その制御方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019082845A JP2020181044A (ja) | 2019-04-24 | 2019-04-24 | 情報処理装置、その制御方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020181044A true JP2020181044A (ja) | 2020-11-05 |
Family
ID=73023450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019082845A Pending JP2020181044A (ja) | 2019-04-24 | 2019-04-24 | 情報処理装置、その制御方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020181044A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022182038A1 (ko) * | 2021-02-24 | 2022-09-01 | 삼성전자주식회사 | 음성 명령 처리 장치 및 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08286692A (ja) * | 1995-04-12 | 1996-11-01 | N T T Data Tsushin Kk | 話者照合方法および装置 |
JP2005308950A (ja) * | 2004-04-20 | 2005-11-04 | Sony Corp | 音声処理装置および音声処理システム |
JP2016133378A (ja) * | 2015-01-19 | 2016-07-25 | 株式会社デンソー | カーナビゲーション装置 |
JP2018182616A (ja) * | 2017-04-18 | 2018-11-15 | 京セラ株式会社 | 電子機器、制御方法、およびプログラム |
-
2019
- 2019-04-24 JP JP2019082845A patent/JP2020181044A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08286692A (ja) * | 1995-04-12 | 1996-11-01 | N T T Data Tsushin Kk | 話者照合方法および装置 |
JP2005308950A (ja) * | 2004-04-20 | 2005-11-04 | Sony Corp | 音声処理装置および音声処理システム |
JP2016133378A (ja) * | 2015-01-19 | 2016-07-25 | 株式会社デンソー | カーナビゲーション装置 |
JP2018182616A (ja) * | 2017-04-18 | 2018-11-15 | 京セラ株式会社 | 電子機器、制御方法、およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022182038A1 (ko) * | 2021-02-24 | 2022-09-01 | 삼성전자주식회사 | 음성 명령 처리 장치 및 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11355106B2 (en) | Information processing apparatus, method of processing information and storage medium comprising dot per inch resolution for scan or copy | |
US11159339B2 (en) | Information processing apparatus, method of processing information and storage medium | |
JP5146479B2 (ja) | 文書管理装置、文書管理方法、文書管理プログラム | |
US20200177747A1 (en) | Information processing system, method of processing information and storage medium | |
JP2011059958A (ja) | 情報処理装置、情報処理システム、画像形成装置及びプログラム | |
JP2020127104A (ja) | 画像形成装置、画像形成システム、および情報処理方法 | |
JP2019215485A (ja) | 画像形成装置、画像形成システム、制御方法および制御プログラム | |
JP7263869B2 (ja) | 情報処理装置及びプログラム | |
CN111510569A (zh) | 图像形成系统、图像形成装置、图像形成方法及记录介质 | |
JP2020181044A (ja) | 情報処理装置、その制御方法、およびプログラム | |
JP2008197229A (ja) | 音声認識辞書構築装置及びプログラム | |
EP3716040A1 (en) | Image forming apparatus and job execution method | |
JP6582832B2 (ja) | 電子機器、情報処理システム及び外部連携方法 | |
US11647129B2 (en) | Image forming system equipped with interactive agent function, method of controlling same, and storage medium | |
JP2011193139A (ja) | 画像形成装置 | |
US11825042B2 (en) | Peripheral device management system, peripheral device management method, and printing apparatus control system | |
JP7375409B2 (ja) | アドレス検索システム及びプログラム | |
JP7314499B2 (ja) | 情報処理システム、情報処理装置、ジョブ制御方法およびジョブ制御プログラム | |
JP4687686B2 (ja) | 画像形成装置および画像形成システム | |
JP4562547B2 (ja) | 画像形成装置、プログラムおよび記録媒体 | |
JP2006086755A (ja) | 画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システム | |
JP2020088830A (ja) | 情報処理システム、プログラムおよび情報処理方法 | |
JP7383885B2 (ja) | 情報処理装置及びプログラム | |
US11700338B2 (en) | Information processing system that receives audio operations on multifunction peripheral, as well as image processing apparatus and control method therefor | |
JP2004351622A (ja) | 画像形成装置、プログラムおよび記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230530 |