JP2022096305A - 情報処理システム、画像処理装置、情報処理システムの制御方法、及びプログラム - Google Patents

情報処理システム、画像処理装置、情報処理システムの制御方法、及びプログラム Download PDF

Info

Publication number
JP2022096305A
JP2022096305A JP2020209345A JP2020209345A JP2022096305A JP 2022096305 A JP2022096305 A JP 2022096305A JP 2020209345 A JP2020209345 A JP 2020209345A JP 2020209345 A JP2020209345 A JP 2020209345A JP 2022096305 A JP2022096305 A JP 2022096305A
Authority
JP
Japan
Prior art keywords
voice
information
data
information processing
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020209345A
Other languages
English (en)
Inventor
一浩 菅原
Kazuhiro Sugawara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020209345A priority Critical patent/JP2022096305A/ja
Priority to US17/541,611 priority patent/US20220201136A1/en
Priority to CN202111529817.4A priority patent/CN114648991A/zh
Publication of JP2022096305A publication Critical patent/JP2022096305A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00403Voice input means, e.g. voice commands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00411Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Facsimiles In General (AREA)

Abstract

Figure 2022096305000001
【課題】実行される処理と発話指示との結びつきをユーザが容易に習熟可能な情報処理システムを提供する。
【解決手段】サーバ102は、音声制御装置100から取得した音声データに基づいてテキストデータを画像形成装置101へ送信する。画像形成装置101は、音声認識情報及びテキストデータに基づいて、UI部品に紐付く所定の処理を実行する。音声認識情報は、UI部品に紐付く所定の処理と関連する単語を少なくとも含み、画像形成装置101のタッチパネル200に表示中の画面に含まれるUI部品に対応付けて表示される。
【選択図】図11

Description

本発明は、情報処理システム、画像処理装置、情報処理システムの制御方法、及びプログラムに関する。
昨今、ユーザの発話を解析し、発話に対応するコマンドを実行する情報処理システムが普及してきている。関連する技術として、特許文献1の技術が提案されている。特許文献1では、情報処理装置の操作画面内のUI部品に「数字」や「アルファベット」の識別子を追加し、この識別子を用いた発話指示を受け付けることで、UI部品に対応した処理を発話によって実現している。
特開2020-112933号公報
しかしながら、こうした「数字」や「アルファベット」等の識別子は、実行される処理との意味的な結びつきを持たず、ユーザにとって習熟することが困難である。このため、実行される処理と発話指示との結びつきを容易に習熟可能な情報処理システムが望まれる。
本発明の目的は、実行される処理と発話指示との結びつきをユーザが容易に習熟可能な情報処理システム、画像処理装置、情報処理システムの制御方法、及びプログラムを提供することにある。
上記目的を達成するために、本発明の情報処理システムは、情報を表示可能な表示デバイスと、音を取得可能なマイクロフォンと、自然言語の音声情報が前記マイクロフォンを介して入力されたことに従って前記音声情報に基づく単語情報を出力する出力手段と、前記表示デバイスに表示中の画面に含まれるタッチオブジェクトに対応付けて発話例を追加表示させる表示制御手段と、前記発話例に含まれる単語の組み合わせの情報及び前記出力された単語情報に少なくとも基づいて、前記タッチオブジェクトに紐付く所定の処理を実行する実行手段と、を有することを特徴とする。
本発明によれば、実行される処理と発話指示との結びつきをユーザが容易に習熟することができる。
本実施の形態の情報処理システムの構成図である。 図1の操作パネルのタッチパネルに表示されるホーム画面の一例を示す図である。 図1の音声制御装置のハードウェアの構成を概略的に示すブロック図である。 図1のサーバのコントローラ部のハードウェアの構成を概略的に示すブロック図である。 図1の画像形成装置のハードウェアの構成を概略的に示すブロック図である。 図3のCPUが実行する音声制御装置の音声制御プログラムの機能構成を示すブロック図である。 図4のCPUが実行するサーバの音声認識プログラムの機能構成を示すブロック図である。 図4のCPUが実行するサーバのリモート制御プログラムの機能構成を示すブロック図である。 図8Aのデータ管理部が管理する情報を説明するための図である。 図5のCPUが実行する画像形成装置のデバイス制御プログラムの機能構成を示すブロック図である。 本実施の形態の情報処理システムによって実行される音声操作制御処理の手順を示すシーケンス図である。 図2のタッチパネルに表示される画面の一例を示す図である。 図9のデバイス制御プログラムによって実行される画面更新制御処理の手順を示すフローチャートである。 図6の音声制御プログラムによって実行される音声制御処理の手順を示すフローチャートである。 図7の音声認識プログラムによって実行される音声認識制御処理の手順を示すフローチャートである。 図8Aのリモート制御プログラムによって実行されるリモート制御処理の手順を示すフローチャートである。 図2のタッチパネルに表示されるホーム画面の一例を示す図である。 本実施の形態における音声認識情報及びフィルタワードを設定するための設定画面の一例を示す図である。 図8Aのリモート制御プログラムによって実行される設定制御処理の手順を示すフローチャートである。
以下、本発明を実施するための形態について実施例を挙げ、図面を用いて具体的に説明する。ただし、実施例で挙げる構成要素はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。
図1は、本実施の形態の情報処理システムの構成図である。図1に示すように、情報処理システムは、音声制御装置100、画像形成装置101(画像処理装置)、サーバ102(情報処理装置)、クライアント端末103、及びゲートウェイ105で構成される。なお、情報処理システムは、音声制御装置100、画像形成装置101、及びクライアント端末103を、それぞれ複数備える構成であってもよい。
音声制御装置100、画像形成装置101、クライアント端末103は、ゲートウェイ105及びネットワーク104を介して互いに通信可能である。また、音声制御装置100、画像形成装置101、クライアント端末103は、ゲートウェイ105及びインターネット107を介してサーバ102と通信可能である。
音声制御装置100は、ユーザ106の音声操作開始指示に従って、ユーザ106の音声を取得し、取得した音声(音声情報)を符号化した音声データをサーバ102へ送信する。また、音声制御装置100は、サーバ102から受信した音声データを音声出力する。音声制御装置100は、スマートスピーカやスマートフォン等の音声によりユーザとコミュニケーション可能な音声入出力装置である。なお、本実施の形態では、音声制御装置100と画像形成装置101が独立した構成となっている。しかしながら、音声制御装置100を構成するハードウェア(図3を用いて後述する各ハードブロック)、及びソフトウェア機能(図6を用いて後述する各ソフトブロック)が画像形成装置101の中に含まれていてもよく、この構成に限定するものではない。
画像形成装置101は、例えば、コピー機能、スキャン機能、プリント機能、FAX機能等の複数の機能を備える複合機であるが、単体の機能を備えるプリンタやスキャナであってもよい。以下では、画像形成装置101がカラーレーザービーム複合機である前提で説明を行う。また、画像形成装置101は、操作パネル108を備える。操作パネル108は、ユーザ106からの操作指示を受け付ける画面や画像形成装置101の状態を表示する表示部である。また、操作パネル108は、LCDディスプレイと一体となった後述する図2のタッチパネル200(表示デバイス)を備え、ユーザ106の操作を受け付ける入力部としても機能する。
サーバ102は、音声制御装置100から取得したユーザ106の音声データの音声認識を行い、音声認識した結果から画像形成装置101の設定操作やジョブの実行に関わる単語を判定する。なお、ジョブとは、画像形成装置101が後述する図5のプリントエンジン513及びスキャナ515を用いて実現する一連の画像形成処理(例えばコピー、スキャン、プリントなど)の単位を示す。また、サーバ102は、音声認識した結果又は上記単語の判定結果に応じてテキストを生成し、そのテキストの内容を音声制御装置100で音声再生するための音声データの合成を行う。なお、サーバ102は、ディープラーニング等のニューラルネットワークを用いた機械学習により、精度の高い音声認識結果を提供することができる。例えば、サーバ102には、遠く離れたユーザからの音声を正確に認識するための学習が行われている。また、サーバ102は自然言語処理に対応しており、形態素解析、構文解析、意味解析、文脈解析等を経ることで、入力された自然言語から適切な情報(単語、かな漢字変換結果)を取得することができる。
クライアント端末103は、例えば、ユーザ106が使うパーソナルコンピュータ(PC)である。クライアント端末103は、画像形成装置101の後述する図5の外部記憶装置505やクライアント端末103等に保存されている電子ファイルを画像形成装置101に印刷させるためのプリントジョブを生成する。また、クライアント端末103は、画像形成装置101がスキャンして生成した画像データを画像形成装置101から受信する。
ネットワーク104は、音声制御装置100、画像形成装置101、クライアント端末103、及びゲートウェイ105を互いに接続する。ネットワーク104は、プリントジョブやスキャンジョブ等の各種データ、及び音声データを送受信する。
ゲートウェイ105は、例えば、IEEE802.11規格シリーズに準拠した無線LANルータ等である。IEEE802.11規格シリーズとは、IEEE802.11aやIEEE802.11b等のIEEE802.11に属する一連の規格を含む。なお、ゲートウェイ105は、IEEE802.11規格シリーズと異なる他の無線通信方式に従って動作する能力を有してもよい。また、ゲートウェイ105は、無線LANルータではなく、10BASE-T、100BASE―T、1000BASE-T等に代表されるEthernet規格に準拠した有線LANルータでもよく、他の有線通信方式に従って動作する能力を有してもよい。
図2は、図1の操作パネル108のタッチパネル200に表示されるホーム画面201の一例を示す図である。ホーム画面201は、画像形成装置101が起動した際に表示される。ホーム画面201には、画像形成装置101が実行する各機能のUI部品(タッチオブジェクト)が表示される。ここで、UI部品とは、ユーザ106が判別可能なタッチパネル200上の一定区画の領域(ボタン、アイコン、マーク、矢印、タブ、矩形)を示す。ユーザ106がこれらのUI部品をタッチすると、タッチされたUI部品に対応付けられた機能が実行される。
コピー202は、コピー機能の実行に必要な設定を行う後述する図11(b)のコピー画面1112に遷移するためのUI部品である。スキャン203は、スキャン機能の実行に必要な設定を行うスキャン画面(不図示)に遷移するためのUI部品である。メニュー204は、操作パネル108の表示言語等の設定を行うメニュー画面(不図示)に遷移するためのUI部品である。アドレス帳205は、画像形成装置101がスキャンして生成した画像データの送信先の設定を行うアドレス帳画面に遷移するためのUI部品である。セキュアプリント206は、画像形成装置101が受信したパスワード付きの画像データを印刷するための印刷画面(不図示)に遷移するためのUI部品である。音声認識207は、音声制御装置100による音声操作を有効に設定するためのUI部品である。音声認識207を押下し、音声制御装置100による音声操作が可能になると、ステータス表示210の領域には「音声認識中」が表示される。
状況確認208は、画像形成装置101が実行したジョブや、実行中のジョブの情報を表示するためのUI部品である。タブ領域209には、「1」~「7」のタブ番号が表示されている。ホーム画面201は、複数のページ画面で構成され、ユーザ106が「2」~「7」の何れかのタブ番号を押下すると、押下されたタブ番号に対応するページ画面に切り替わる。このページ画面には、図2に示されたUI部品とは異なるUI部品が表示される。このような構成により、ユーザは、タブ番号を押下するといった簡単な操作で、ホーム画面201に表示しきれなかった別のUI部品を容易に表示させることができる。ステータス表示210には、上述したように、音声操作が可能であることを示す「音声認識中」が表示される。また、ステータス表示210には、「印刷中」、「受信中」、「送信中」、「読み取り中」等のジョブの状況や、「紙なし」、「ジャム」、「トナー無」等のエラーが表示される。
図3は、図1の音声制御装置100のハードウェアの構成を概略的に示すブロック図である。図3において、音声制御装置100は、コントローラ部300、マイクロフォン308、スピーカ310(音声出力デバイス)、及びLED312を備える。コントローラ部300は、マイクロフォン308、スピーカ310、及びLED312と接続されている。また、コントローラ部300は、CPU302、RAM303、ROM304、外部記憶装置305、ネットワークI/F306、マイクI/F307、オーディオコントローラ309、及び表示コントローラ311を備える。CPU302、RAM303、ROM304、外部記憶装置305、ネットワークI/F306、マイクI/F307、オーディオコントローラ309、及び表示コントローラ311は、システムバス301を介して互いに接続されている。
CPU302は、コントローラ部300全体の動作を制御する中央演算装置である。RAM303は、揮発性メモリである。ROM304は、不揮発性メモリであり、CPU302の起動用プログラムが格納されている。外部記憶装置305は、RAM303と比較して大容量な記憶デバイス(例えば、SDカード)である。なお、外部記憶装置305は、SDカードと同等の機能を有する記憶デバイスであれば、SDカード以外の記憶デバイス、例えば、フラッシュROMであってもよい。外部記憶装置305には、コントローラ部300によって実行される音声制御装置100の制御用プログラム、例えば、後述する図6の音声制御プログラム601が格納されている。
CPU302は、電源ONにより起動する時、ROM304に格納されている起動用プログラムを実行する。この起動用プログラムは、外部記憶装置305に格納されている制御用プログラムを読み出し、当該制御用プログラムをRAM303上に展開するためのプログラムである。CPU302は、起動用プログラムを実行すると、続けてRAM303上に展開した制御用プログラムを実行し、音声の入出力制御や表示制御、ネットワーク104とのデータ通信制御を行う。また、CPU302は、制御用プログラムの実行時に用いるデータもRAM303上に格納して読み書きを行う。外部記憶装置305上には制御用プログラムの実行時に必要な各種設定等を格納することができる。各種設定は、例えば、画像形成装置101へのアクセスを可能にするサーバ102のURLであり、CPU302によって読み書きされる。CPU302は、ネットワークI/F306を介してネットワーク104上の他の機器との通信を行う。
ネットワークI/F306は、IEEE802.11規格シリーズに準拠した無線通信方式に従って通信を行うための回路やアンテナを含んで構成される。なお、ネットワークI/F306の通信方式は、無線通信方式に限られず、例えば、Ethernet規格に準拠した有線通信方式であってもよい。マイクI/F307には、マイクロフォン308が接続されている。マイクI/F307は、ユーザ106が発した音声をマイクロフォン308から取得し、取得した音声を符号化して音声データに変換し、CPU302の指示に従って当該音声データをRAM303に格納する。
マイクロフォン308は、ユーザ106の音声を取得可能な音声操作用のデバイスであり、例えば、スマートフォン等に搭載される小型のMEMSマイクロフォンである。また、マイクロフォン308は、ユーザ106が発した音声の到来方向を算出できるように、3個以上を所定の位置に配して用いることが好ましい。なお、マイクロフォン308は、1個であっても本実施例は実現可能であり、3個以上にこだわるものではない。オーディオコントローラ309には、スピーカ310が接続されている。オーディオコントローラ309は、CPU302の指示に従って、音声データをアナログ音声信号に変換し、スピーカ310を通じて音声を出力する。
スピーカ310は、音声を再生するための汎用のデバイスである。スピーカ310は、音声制御装置100が応答していることを表す装置の応答音、及びサーバ102によって合成された音声を再生する。
表示コントローラ311には、LED312が接続されている。表示コントローラ311は、CPU302の指示に従って、LED312の表示を制御する。例えば、表示コントローラ311は、音声制御装置100がユーザ106の音声を正しく取得していることを示すためのLEDの点灯制御を行う。LED312は、例えば、ユーザ106が可視可能な青色等のLEDである。LED312は汎用のデバイスである。なお、LED312の代わりに、文字や絵を表示可能なディスプレイ装置に置き換えてもよい。
図4は、図1のサーバ102のコントローラ部のハードウェアの構成を概略的に示すブロック図である。図4に示すように、サーバ102は、コントローラ部400a及びコントローラ部400bを備える。なお、本実施の形態では、コントローラ部400a及びコントローラ部400bは同様の構成であり、以下では、一例として、コントローラ部400aを用いてその構成を説明する。コントローラ部400aは、後述する図7の音声認識プログラム701を実行する。コントローラ部400aは、システムバス401aに接続されたCPU402a、RAM403a、ROM404a、外部記憶装置405a、及びネットワークI/F406aを備える。
CPU402aは、コントローラ部400a全体の動作を制御する中央演算装置である。RAM403aは、揮発性メモリである。ROM404aは、不揮発性メモリであり、CPU402aの起動用プログラムを格納する。外部記憶装置405aは、RAM403aと比較して大容量な記憶装置(例えばハードディスクドライブ:HDD)である。外部記憶装置405aには、コントローラ部400aが実行するサーバ102の制御用プログラム、例えば、後述する図7の音声認識プログラム701が格納されている。なお、外部記憶装置405aは、ハードディスクドライブと同等の機能を有する記憶装置であれば、ハードディスクドライブ以外の記憶装置、例えば、ソリッドステートドライブ(SSD)であってもよい。また、外部記憶装置405aは、サーバ102としてアクセス可能な外部ストレージであってもよい。
CPU402aは、電源ON等の起動時、ROM404aに格納されている起動用プログラムを実行する。この起動用プログラムは、外部記憶装置405aに格納されている制御用プログラムを読み出し、当該制御用プログラムをRAM403a上に展開するためのものである。CPU402aは、起動用プログラムを実行すると、続けてRAM403a上に展開した制御用プログラムを実行し、制御を行う。また、CPU402aは、制御用プログラムの実行時に用いるデータもRAM403a上に格納して読み書きを行う。外部記憶装置405a上にはさらに、制御用プログラムの実行時に必要な各種設定を格納することができる。各種設定は、CPU402aによって読み書きされる。CPU402aは、ネットワークI/F406aを介してネットワーク104上の他の機器との通信を行う。
コントローラ部400bは、後述する図8のリモート制御プログラム801を実行する。コントローラ部400bは、システムバス401bに接続されたCPU402b、RAM403b、ROM404b、外部記憶装置405b、及びネットワークI/F406bを備える。CPU402b、RAM403b、ROM404b、外部記憶装置405b、及びネットワークI/F406bは、それぞれCPU402a、RAM403a、ROM404a、外部記憶装置405a、及びネットワークI/F406aと機能及び構成が同じである。外部記憶装置405bには、コントローラ部400bが実行するサーバ102の制御用プログラム、例えば、後述する図8のリモート制御プログラム801が格納されている。なお、本実施の形態では、後述する音声認識プログラム701及びリモート制御プログラム801が異なるコントローラ部によって実行される構成について説明するが、この構成に限られない。例えば、コントローラ部400a及びコントローラ部400bの何れか一方が、後述する音声認識プログラム701及びリモート制御プログラム801の両方を実行してもよい。
図5は、図1の画像形成装置101のハードウェアの構成を概略的に示すブロック図である。図5に示すように、画像形成装置101は、コントローラ部500、操作パネル108、プリントエンジン513(印刷デバイス)、及びスキャナ515(読取デバイス)を備える。コントローラ部500は、操作パネル108、プリントエンジン513、及びスキャナ515と接続されている。また、コントローラ部500は、CPU502、RAM503、ROM504、外部記憶装置505、ネットワークI/F506、ディスプレイコントローラ507、操作I/F508、プリントコントローラ512、及びスキャンコントローラ514を備える。CPU502、RAM503、ROM504、外部記憶装置505、ネットワークI/F506、ディスプレイコントローラ507、操作I/F508、プリントコントローラ512、及びスキャンコントローラ514は、システムバス501を介して互いに接続されている。
CPU502はコントローラ部500全体の動作を制御する中央演算装置である。RAM503は揮発性メモリである。ROM504は不揮発性メモリであり、CPU502の起動用プログラムを格納する。外部記憶装置505はRAM503と比較して大容量な記憶装置(例えばハードディスクドライブ:HDD)である。外部記憶装置505には、CPU502によって実行される画像形成装置101の制御用プログラム、例えば、後述する図9のデバイス制御プログラム901が格納されている。なお、外部記憶装置505は、ハードディスクドライブと同等の機能を有する記憶装置であれば、ハードディスクドライブと異なる他の記憶装置、例えば、ソリッドステートドライブ(SSD)であってもよい。
CPU502は、電源ON等の起動時、ROM504に格納されている起動用プログラムを実行する。この起動用プログラムは、外部記憶装置505に格納されている制御用プログラムを読み出し、当該制御用プログラムをRAM503上に展開するためのものである。CPU502は起動用プログラムを実行すると、続けてRAM503上に展開した制御用プログラムを実行し、制御を行う。また、CPU502は制御用プログラムの実行時に用いるデータもRAM503上に格納して読み書きを行う。外部記憶装置505には、さらに、制御用プログラムの実行時に必要な各種設定や、スキャナ515で読み取った画像データを格納することができ、CPU502によって読み書きされる。CPU502はネットワークI/F506を介してネットワーク104上の他の機器や、ゲートウェイを介してインターネット上のサーバ102との通信を行う。
ディスプレイコントローラ507及び操作I/F508には、操作パネル108が接続されている。ディスプレイコントローラ507は、CPU502の指示に従って、操作パネル108のタッチパネル200の画面表示制御を行う。操作I/F508は、操作信号の入出力を行う。タッチパネル200が押下された場合、CPU502は、操作I/F508を介して、タッチパネル200が押下された位置を示す座標を取得する。
プリントコントローラ512には、プリントエンジン513が接続されている。プリントコントローラ512は、CPU502からの指示に従って、プリントエンジン513に対して制御コマンドや画像データを送信する。プリントエンジン513は、プリントコントローラ512から受信した制御コマンドに従って、受信した画像データをシートに印刷する印刷処理を行う。スキャンコントローラ514には、スキャナ515が接続されている。スキャンコントローラ514は、CPU502からの指示に従って、スキャナ515に対して制御コマンドを送信し、また、スキャナ515から受信した画像データをRAM503へ書き込む。スキャナ515は、スキャンコントローラ514から受信した制御コマンドに従って、画像形成装置101が備える原稿台ガラス上(不図示)の原稿を、光学ユニットを用いて読み取る読取処理を行う。
図6は、図3のCPU302が実行する音声制御装置100の音声制御プログラム601の機能構成を示すブロック図である。音声制御プログラム601は、上述したように外部記憶装置305に格納されており、CPU302が起動時に音声制御プログラム601をRAM303上に展開して実行する。音声制御プログラム601は、データ送受信部602、データ管理部603、音声取得部604、音声再生部605、表示部606、音声操作開始検知部607、発話終了判定部608、及び音声制御部609で構成される。
データ送受信部602は、ネットワークI/F306を介して、ネットワーク104上の他の機器とTCP/IPによるデータの送受信を行う。データ送受信部602は、音声取得部604から取得した音声データをサーバ102に送信する。また、データ送受信部602は、サーバ102上で生成される音声合成データ(ユーザ106への応答)の受信も行う。
データ管理部603は、音声制御プログラム601の実行において生成した作業データ等の様々なデータを外部記憶装置305上の所定の領域へ格納し、管理する。例えば、音声再生部605によって再生される音声の音量設定データや、ゲートウェイ105との通信に必要な認証情報、画像形成装置101やサーバ102と通信するために必要な各デバイス情報、プログラムのURL等が格納、管理される。
音声取得部604は、マイクロフォン308によって取得された音声制御装置100の近辺にいるユーザ106のアナログ音声を音声データに変換し、当該音声データをRAM303上に一時的に格納する。ユーザ106の音声は、MP3等の所定のフォーマットに変換され、更にサーバ102に送信するために符号化されて音声データとしてRAM303上に一時的に格納される。音声取得部604による処理の開始及びその終了のタイミングは、音声制御部609によって管理される。なお、音声データの符号化は、汎用のストリーミング用フォーマットでもよく、符号化された音声データを順次、データ送受信部602によって送信するようにしてもよい。
音声再生部605は、データ送受信部602が受信した音声合成データを、オーディオコントローラ309を介してスピーカ310で再生する。音声再生部605の音声再生のタイミングは音声制御部609によって管理される。表示部606は、表示コントローラ311を介してLED312の点灯制御を行う。例えば、音声操作開始検知部607で音声操作があることを検知した場合、表示部606は、LED312を点灯させる。表示部606の点灯のタイミングは音声制御部609によって管理される。
音声操作開始検知部607は、ユーザ106によるウェイクワードの発話、音声制御装置100の操作開始キー(不図示)の押下、又はデータ送受信部602による音声制御起動コマンドの受信を検知すると、音声制御部609へ操作開始通知を送信する。ここで、ウェイクワードとは、音声制御装置100の音声操作を開始するために予め決められている音声単語である。音声操作開始検知部607は、マイクロフォン308で取得される音声制御装置100の近辺にいるユーザ106のアナログ音声から、常時ウェイクワードを検知する。ユーザ106はウェイクワードを発話し、続いて操作指示を発することで画像形成装置101の操作を行うことができる。
発話終了判定部608は、音声取得部604による処理の終了タイミングを判定する。例えば、ユーザ106の音声が所定時間(例えば3秒)途切れた際に、発話終了判定部608は、ユーザ106の発話が終了したと判定し、音声制御部609へ発話終了通知を送信する。なお、発話終了の判定は、発話が無い時間(以降、空白時間と呼ぶ)ではなく、ユーザ106が発した所定の単語から判定してもよい。例えば、「はい」、「いいえ」、「OK」、「キャンセル」、「終了」、「スタート」、「開始」といった所定の単語を検知した場合には、所定時間を待たずに発話終了と判定してもよい。また、発話終了の判定は、音声制御装置100ではなく、サーバ102で行うようにしてもよく、ユーザの106の発話内容の意味や文脈から発話の終了を判定するようにしてもよい。
音声制御部609は制御の中心であり、音声制御プログラム601内の他の各モジュールが相互に連携して動作するように制御する。具体的には、音声制御部609は、音声取得部604、音声再生部605、表示部606の処理の開始や終了の制御を行う。また、音声制御部609は、音声取得部604がマイクロフォン308で取得した音声を音声データに変換した後にデータ送受信部602が当該音声データをサーバ102へ送信するように制御する。また、音声制御部609は、データ送受信部602がサーバ102から音声合成データを受信した後に音声再生部605が音声合成データを再生するように制御する。
ここで、音声取得部604、音声再生部605、表示部606の処理の開始や終了のタイミングについて述べる。
音声制御部609は、音声操作開始検知部607から操作開始通知を受信すると、音声取得部604の処理を開始する。また、発話終了判定部608から発話終了通知を受信すると、音声取得部604の処理を終了する。例えば、ユーザ106がウェイクワードを発し、続いて「コピーして」と発したとする。このとき、音声操作開始検知部607が、ウェイクワードの音声を検知し、音声制御部609に操作開始通知を送信する。音声制御部609は、操作開始通知を受信すると、音声取得部604の処理を開始するように制御する。音声取得部604は、ウェイクワードに続けて発せられた「コピーして」というアナログ音声を音声データへ変換し、当該音声データを一時的に格納する。発話終了判定部608は、「コピーして」の発話後に空白時間が所定時間あったと判定すると、発話終了通知を音声制御部609に送信する。音声制御部609は、発話終了通知を受信すると、音声取得部604の処理を終了する。なお、音声取得部604が処理を開始してから終了するまでの状態を発話処理状態と呼ぶこととする。表示部606は、発話処理状態の期間、LED312を点灯させる。
ユーザ106の発話終了判定後、音声制御部609は、音声データをデータ送受信部602からサーバ102へ送信するように制御し、サーバ102からの応答を待つ。サーバ102からの応答は、例えば、応答であることを示すヘッダ部と、応答メッセージを再生するための音声合成データある。音声制御部609は、データ送受信部602によってサーバ102からの応答を受信すると、サーバ102からの応答に含まれる音声合成データを音声再生部605に再生させる。音声合成データは、例えば、「コピー画面を表示しました」である。なお、発話終了判定後から音声合成データの再生終了までの状態を応答処理状態と呼ぶこととする。表示部606は、応答処理状態の期間、LED312を点滅させる。
応答処理の後、サーバ102との対話セッションが継続している間、ユーザ106は、ウェイクワードを発することなく、続けて自身の行いたいことを発話することができる。対話セッションの終了判定は、サーバ102が行い、音声制御装置100に対話セッション終了通知を送信することで行う。なお、対話セッション終了から次の対話セッションが開始されるまでの状態を待機状態と呼ぶこととする。音声制御装置100が音声操作開始検知部607からの操作開始通知を受信するまで、音声制御装置100は待機状態となる。表示部606は、待機状態の期間、LED312を消灯させる。
図7は、図4のCPU402aが実行するサーバ102の音声認識プログラム701の機能構成を示すブロック図である。音声認識プログラム701は、上述したように外部記憶装置405aに格納されており、CPU402aが起動時に音声認識プログラム701をRAM403a上に展開して実行する。音声認識プログラム701は、データ送受信部702、データ管理部703、及び音声データ変換部704で構成される。
データ送受信部702は、ネットワークI/F406aを介して、ネットワーク104上の他の機器とTCP/IPによるデータの送受信を行う。データ送受信部702は、音声制御装置100からユーザ106の音声データを受信する。
データ管理部703は、音声認識プログラム701の実行において生成した作業データや、音声データ変換部704が音声認識処理を行うために必要なパラメータ等の様々なデータを外部記憶装置405a上の所定の領域へ格納し、管理する。例えば、データ管理部703は、データ送受信部702が受信した音声データをテキスト(テキスト情報)へ変換するための音響モデルや言語モデルを外部記憶装置405a上の所定の領域へ格納し、管理する。また、データ管理部703は、後述する形態素解析部706がテキストの形態素解析を行うための辞書を外部記憶装置405a上の所定の領域へ格納し、管理する。また、データ管理部703は、後述する音声合成部707が音声合成を行うための音声データベースを外部記憶装置405a上の所定の領域へ格納し、管理する。さらに、データ管理部703には、音声制御装置100や画像形成装置101等と通信するために必要な各デバイス情報が格納、管理される。
音声データ変換部704は、音声認識部705、形態素解析部706、及び音声合成部707から成る。音声認識部705は、データ送受信部702によって受信したユーザ106の音声データをテキストに変換するための音声認識処理を行う。音声認識処理は、音響モデルを用いてユーザ106の音声データを音素に変換し、さらに言語モデルによるパターンマッチングにより音素を実際のテキスト形式のデータに変換する。なお、音響モデルは、DNN-HMMのようにニューラルネットワークによる機械学習手法を用いるモデルであってもよいし、GMM-HMMのように異なる手法を用いたモデルであってもよい。ニューラルネットワークを用いた機械学習では、例えば、音声とテキストを対とする教師データに基づいて学習モデルの学習が行われる。言語モデルは、RNNのようにニューラルネットワークによる機械学習手法のモデルを用いるモデルであってもよいし、N-gram手法のように異なる手法を用いるモデルであってもよい。
本実施の形態では、上記テキスト形式のデータは、1つ以上のカナから構成されるテキストと、それらを「かな漢字変換」(数字、アルファベット、記号等への変換も含む)したテキストから成るものとする。ただし、音声データをテキスト形式のデータへ変換する音声認識処理として他の手法を用いてもよく、上述した手法に限るものではない。
形態素解析部706は、音声認識部705によって変換されたテキスト形式のデータに形態素解析を行う。形態素解析は、その言語の文法や、品詞等の情報を持つ辞書から形態素列を導出し、さらに各形態素の品詞等を判別する。形態素解析部706は、例えば、JUMAN、茶筒、MeCab等の公知の形態素解析ソフトウェアを用いて実現することができる。形態素解析部706は、例えば、音声認識部705で変換された「コピーをしたい」というテキスト形式のデータを、「コピー」、「を」、「し」、「たい」の形態素列として解析する。また、「A3からA4へ」というテキスト形式のデータを、「A3」、「から」、「A4」、「へ」の形態素列として解析する。
音声合成部707は、画像形成装置101から受信した通知に基づいて音声合成処理を行う。音声合成処理は、所定の通知に対して、組となる予め用意されたテキストをMP3等の所定のフォーマットの音声合成データに変換する。音声合成処理は、例えば、データ管理部703に格納されている音声データベースに基づいて音声合成データを生成する。音声データベースとは、例えば、単語等の定型の内容を発話した音声を集めたデータベースである。なお、本実施の形態では、音声データベースを用いて音声合成処理を行っているが、音声合成の手法として他の手法を用いてもよく、音声データベースによる手法に限定するものではない。
図8Aは、図4のCPU402bが実行するサーバ102のリモート制御プログラム801の機能構成を示すブロック図である。リモート制御プログラム801は、上述したように外部記憶装置405bに格納されており、CPU402bが起動時にリモート制御プログラム801をRAM403b上に展開して実行する。リモート制御プログラム801は、データ送受信部802、データ管理部803、及び遠隔制御データ変換部804で構成される。
データ送受信部802は、ネットワークI/F406bを介して、ネットワーク104上の他の機器とTCP/IPによるデータの送受信を行う。また、データ送受信部802は、音声認識プログラム701から形態素解析を行って得られたテキストデータ(単語情報)を受信する。このテキストデータは、音声認識プログラム701がユーザ106の音声データに形態素解析を行って得られた1つ以上の形態素から成るテキスト形式のデータである。
データ管理部803は、音声制御装置100が取得したユーザ106の音声に基づいて画像形成装置101の遠隔制御を行うために必要なパラメータ等の様々なデータを外部記憶装置405b上の所定の領域へ格納し、管理する。具体的に、データ管理部803は、図8Bに示す画面情報、UI部品情報、音声認識情報、操作指示命令、及びフィルタワードを格納し、管理する。
画面情報は、ホーム画面やコピー画面といった画像形成装置101のタッチパネル200に表示される画面の種別を示す情報である。なお、本実施の形態では、ホーム画面のように、複数のページ画面を備え、タブによって各ページに切り替え可能な画面に関し、全てのページ画面の画面情報がデータ管理部803によって管理されている。
UI部品情報は、画面情報が示す画面に表示されるUI部品を示す情報である。例えば、図2に示されるコピー202、スキャン203、メニュー204といったUI部品や、タブ番号等の各名称がUI部品情報として管理されている。なお、本実施の形態では、UI部品情報としてUI部品の名称が管理されている場合について説明するが、UI部品を示す情報であれば、これに限らない。例えば、画面上でUI部品が表示される位置を示す座標情報や、UI部品の表示形式(ボタン、アイコン、入力ボックス等)で管理されても良い。
音声認識情報は、UI部品情報が示すUI部品を音声認識するための語句である。また、音声認識情報は、当該UI部品に対応する機能によって実行される処理と関連する単語を少なくとも含み、当該実行される処理との意味的な結びつきを持つ。音声認識情報は、UI部品毎に異なる音声認識情報が設定されている。なお、セキュリティ等の観点から、音声操作が許可されていないセキュアプリント206の音声認識情報は、設定されず、図8Bでは、その旨を示す「-」で表されている。リモート制御プログラム801は、データ管理部803によって管理されるUI部品情報及び音声認識情報に基づいて、音声操作の対象となるUI部品を特定する。
操作指示命令は、音声認識プログラム701から受信したテキストデータが音声認識情報と一致した際にサーバ102から画像形成装置101へ送信される命令であり、音声認識情報毎に異なる命令が対応付けられている。フィルタワードは、タッチパネル200に表示されるUI部品のフィルタ表示を行うための単語であり、UI部品が属するグループ毎に異なるフィルタワードが設定されている。例えば、コピーに関連するUI部品には、フィルタワードとして「コピー」が設定され、スキャンに関連するUI部品には、フィルタワードとして「スキャン」が設定される。なお、フィルタワードが音声認識情報と同じであると、フィルタ表示が行えなくなる。このため、フィルタワードには、音声認識情報と異なる単語、例えば、音声認識情報を構成する一部の単語や、音声認識情報と類似する意味を持つ別の単語が設定される。
遠隔制御データ変換部804は、制御コマンド解析部805、音声文字列データ変換部806、及び画面構成取得部807から成る。制御コマンド解析部805は、音声認識プログラム701から受信したテキストデータを、データ管理部803が管理する複数の音声認識情報と比較する。複数の音声認識情報の中にテキストデータと一致する音声認識情報が含まれている場合、遠隔制御データ変換部804は、この音声認識情報に対応する操作指示命令を画像形成装置101へ送信する。一方、複数の音声認識情報の中にテキストデータと一致する音声認識情報が含まれていない場合、遠隔制御データ変換部804は、テキストデータを、データ管理部803が管理する複数のフィルタワードと比較する。複数のフィルタワードの中にテキストデータと一致するフィルタワードが含まれている場合、遠隔制御データ変換部804は、このフィルタワードに対応する音声認識情報と、当該音声認識情報に対応するUI部品情報を画像形成装置101へ送信する。
音声文字列データ変換部806は、画像形成装置101から後述する画面更新通知を受信したことに基づいて、音声制御装置100のスピーカ310から出力する音声データのテキスト情報を音声認識プログラム701へ送信する。
画面構成取得部807は、操作指示命令の送信後、データ管理部803に対し、画像形成装置101から受信した画面情報とUI部品情報を保存することを依頼する。また、画面構成取得部807は、データ送受信部802に対し、画像形成装置101のタッチパネル200に表示される画面に含まれるUI部品に対応付けて表示させる音声認識情報を画像形成装置101へ送信することを依頼する。
図9は、図5のCPU502が実行する画像形成装置101のデバイス制御プログラム901の機能構成を示すブロック図である。デバイス制御プログラム901は、上述したように外部記憶装置505に格納されており、CPU502が起動時にデバイス制御プログラム901をRAM503上に展開して実行する。デバイス制御プログラム901は、データ送受信部902、データ管理部903、スキャン部904、プリント部905、表示部906、音声操作判定部907、及びデバイス制御部908で構成される。
データ送受信部902は、ネットワークI/F506を介して、ネットワーク104上の他の機器とTCP/IPによるデータの送受信を行う。例えば、データ送受信部902は、サーバ102から操作指示命令やフィルタ表示命令の受信を行う。また、データ送受信部902は、タッチパネル200の画面表示内容が更新されたことを示す画面更新通知、及びジョブの状態を示すジョブ実行状態通知をサーバ102へ送信する。
データ管理部903は、デバイス制御プログラム901の実行において生成した作業データや、各デバイス制御に必要な設定パラメータ等の様々なデータをRAM503及び外部記憶装置505上の所定の領域へ格納し、管理する。例えば、デバイス制御部908で実行するジョブの各設定項目及び設定値の組み合わせから成るジョブデータや、用紙の属性情報等が設定された機械設定情報が、管理される。また、ゲートウェイ105との通信に必要な認証情報、サーバ102と通信するために必要なデバイス情報、URL、認証情報等が、管理される。また、画像形成装置101で画像形成する対象の画像データが、格納され、管理される。また、表示部906が画面表示制御に用いる画面制御情報と、音声操作判定部907が操作を判定するために用いる音声操作判定情報が格納され、画面制御情報と音声操作判定情報は、表示部906が表示する画面毎に管理される。また、ネットワークI/F506やその他の起動手段による音声認識起動や音声操作起動のための命令や制御手段等が管理される。
スキャン部904は、デバイス制御部908のスキャンジョブパラメータ設定に基づいて、スキャンコントローラ514を介してスキャナ515でスキャンを実行し、読み取った画像データをデータ管理部903に格納する。プリント部905は、デバイス制御部908のプリントジョブパラメータ設定に基づいて、プリントコントローラ512を介してプリントエンジン513で印刷を実行する。
表示部906は、ディスプレイコントローラ507を介して、操作パネル108の制御を行う。表示部906は、上記画面制御情報に基づいてユーザ操作可能なUI部品(ボタン、プルダウンリスト、チェックボックス等)をタッチパネル200に表示する。また、表示部906は、操作I/F508を介して、タッチパネル200上のタッチされた位置を示す座標を取得し、操作対象のUI部品と操作受付時の処理内容を決定する。表示部906は、処理内容の決定に応じて、タッチパネル200に表示される画面の内容を更新したり、ユーザ操作により設定されたジョブのパラメータ及び当該ジョブの開始指示をデバイス制御部908へ送信したりする。また、音声操作が開始されると、表示部906は、後述する図11(a)のように、UI部品に対応付けて音声認識情報を表示する。そして、音声操作判定部907の音声操作判定結果に応じて、タッチパネル200に表示される画面の内容を更新したり、ユーザ操作により設定されたジョブのパラメータ及び当該ジョブの開始指示をデバイス制御部908に送信したりする。
音声操作判定部907は、データ送受信部902にてサーバ102から受信した操作指示命令に基づいて、タッチパネル200に表示される画面を構成するユーザ操作可能なUI部品を操作対象として判定する。例えば、ホーム画面201を表示している状態で、「コピー開始」の操作指示命令を受信した場合、画像形成装置101では、タッチパネル200に後述する図11(d)のコピー画面1112が表示される。この状態で「スタート」の操作指示命令を受信した場合、画像形成装置101は、コピーを実行する。このように、音声認識中のステータス表示後、ユーザ106が音声制御装置100に「コピーして」と「スタート」と発話することで、画像形成装置101は、コピー画面のデフォルト設定状態でコピーを開始する。
デバイス制御部908は、プリントコントローラ512及びスキャンコントローラ514を介して、プリントエンジン513及びスキャナ515の制御指示を行う。例えば、タッチパネル200に後述する図11(d)のコピー画面1112が表示された状態でタッチパネル200のスタートキー押下を検知した場合、デバイス制御部908は表示部906からコピージョブのパラメータとジョブ開始指示を受信する。そのジョブパラメータに基づいて、スキャナ515によって読取られた画像データをプリントエンジン513でシートに印刷するよう制御する。
図10は、本実施の形態の情報処理システムによって実行される音声操作制御処理の手順を示すシーケンス図である。本実施の形態では、音声制御装置100のCPU302が外部記憶装置305に格納された音声制御プログラム601をRAM303上に展開して実行する。また、サーバ102のCPU402aが外部記憶装置405aに格納された音声認識プログラム701をRAM403a上に展開して実行し、CPU402bが外部記憶装置405bに格納されたリモート制御プログラム801をRAM403b上に展開して実行する。さらに、画像形成装置101のCPU502が外部記憶装置505に格納されたデバイス制御プログラム901をRAM503上に展開して実行する。これにより、図10の音声操作制御処理が実現される。図10では、一例として、ユーザ106が「音声操作開始」、「コピー」、「コピーして」と発話した場合について説明する。なお、図10の表示制御処理では、画像形成装置101が起動して、タッチパネル200にホーム画面201が表示されていることとする。
図10において、まず、ユーザ106が音声制御装置100のマイクロフォン308に対して「音声操作開始」と発話する(ステップS1001)。音声制御プログラム601は、ユーザ106が発話した「音声操作開始」を音声データとして外部記憶装置305に保存する。次いで、音声制御プログラム601は、「音声操作開始」の音声データをサーバ102へ送信する(ステップS1002)。
サーバ102の音声認識プログラム701は、受信した音声データに基づいて音声認識処理を行う(ステップS1003)。具体的に、音声認識プログラム701は、受信した音声データを外部記憶装置405aに保存し、また、音声認識部705により当該音声データをテキストデータに変換する。次いで、音声認識プログラム701は、変換したテキストデータをリモート制御プログラム801へ送信する(ステップS1004)。
リモート制御プログラム801は、データ管理部803が管理する複数の操作指示命令の中から、受信したテキストデータに対応する操作指示命令、具体的に、「音声操作開始」を画像形成装置101へ送信する(ステップS1005)。
画像形成装置101のデバイス制御プログラム901は、操作指示命令(「音声操作開始」)を受信すると、ホーム画面201のステータス表示210に、音声操作可能であることを示すメッセージ、具体的に、「音声認識中」を表示させる(ステップS1006)。次いで、デバイス制御プログラム901は、タッチパネル200に表示された画面の種別を示す画面情報、及び当該画面に含まれるUI部品を示すUI部品情報をサーバ102へ送信する(ステップS1007)。具体的に、デバイス制御プログラム901は、タッチパネル200に表示されたホーム画面201を示す「ホーム画面201」を画面情報としてサーバ102へ送信する。
サーバ102のリモート制御プログラム801は、画像形成装置101から受信した画面情報に基づいて、データ管理部803が管理する複数のUI部品情報の中から、ホーム画面201に対応するUI部品情報を特定する。また、リモート制御プログラム801は、データ管理部803が管理する複数の音声認識情報の中から、特定したUI部品情報に対応する音声認識情報を特定する。リモート制御プログラム801は、特定した全てのUI部品情報、及び特定した全ての音声認識情報を画像形成装置101へ送信する(ステップS1008)。
画像形成装置101のデバイス制御プログラム901は、受信したUI部品情報及び音声認識情報に基づいて、ホーム画面201上に表示される各UI部品に対応付けて音声認識情報を発話例として表示する(ステップS1009)。具体的に、デバイス制御プログラム901は、音声操作可能なUI部品、例えば、コピー202に対応付けて、このアイコンの音声認識情報である「コピーして」を含む図11(a)の吹き出し1101を表示する。また、デバイス制御プログラム901は、音声操作不可能なUI部品、例えば、セキュアプリント206に対応付けて、音声操作不可能であることを示す図11(a)の情報1102を表示する。さらに、デバイス制御プログラム901は、ステータス表示210に「表示中のワードで音声操作してください」といったメッセージを表示すると共に、ステータス表示210に対応付けて、「ワード消して」を含む図11(a)の吹き出し1103を表示する。「ワード消して」は、タッチパネル200の画面に表示される音声認識情報を非表示に切り替えるための音声認識情報である。次いで、デバイス制御プログラム901は、タッチパネル200の画面の表示内容が更新されたことを示す画面更新通知をサーバ102へ送信する(ステップS1010)。
画面更新通知を受信すると、サーバ102のリモート制御プログラム801は、ステップS1001にてユーザ106が発話した内容に対する応答メッセージを示す応答テキストデータを音声認識プログラム701へ送信する(ステップS1011)。具体的に、リモート制御プログラム801は、「表示中のワードで操作できます」といったメッセージを含む応答テキストデータを音声認識プログラム701へ送信する。音声認識プログラム701は、受信した応答テキストデータを音声合成データに変換して、当該音声合成データを音声制御装置100へ送信する(ステップS1012)。
音声制御装置100の音声制御プログラム601は、受信した音声合成データをスピーカ310から出力する(音声出力制御手段)。具体的に、音声制御プログラム601は、スピーカ310から「表示中のワードで操作できます」といった音声メッセージを出力する(ステップS1013)。このように、本実施の形態では、ユーザ106がマイクロフォン308に「音声操作開始」と発話することで、画像形成装置101を音声操作可能となる。
その後、ユーザ106が音声制御装置100のマイクロフォン308に対して「コピー」と発話すると(ステップS1014)、音声制御プログラム601は、ユーザ106が発話した「コピー」を音声データとして外部記憶装置305に保存する。次いで、音声制御プログラム601は、「コピー」の音声データをサーバ102へ送信する(ステップS1015)。
サーバ102の音声認識プログラム701は、上述したステップS1003と同様に、受信した音声データに基づいて音声認識処理を行う(ステップS1016)。次いで、音声認識プログラム701は、変換したテキストデータをリモート制御プログラム801へ送信する(ステップS1017)。次いで、リモート制御プログラム801は、受信したテキストデータを、データ管理部803が管理する情報と比較する。具体的に、リモート制御プログラム801は、受信したテキストデータを、データ管理部803が管理する複数の音声認識情報と比較する。例えば、データ管理部803が管理する図8Bの複数の音声認識情報の中には、受信したテキストデータである「コピー」と一致する音声認識情報が含まれていない。この場合、リモート制御プログラム801は、受信したテキストデータを、データ管理部803が管理する複数のフィルタワードと比較する。例えば、データ管理部803が管理する図8Bの複数のフィルタワードの中には、「コピー」と一致するフィルタワードが含まれている。この場合、リモート制御プログラム801は、データ管理部803が管理する複数のUI部品情報の中から、対応するフィルタワードが「コピー」であるUI部品情報を特定する。また、リモート制御プログラム801は、データ管理部803が管理する複数の音声認識情報の中から、特定したUI部品情報に対応する音声認識情報を特定する。リモート制御プログラム801は、特定した全てのUI部品情報、及び特定した全ての音声認識情報を含むフィルタ表示命令を画像形成装置101へ送信する(ステップS1018)。
画像形成装置101のデバイス制御プログラム901は、受信したフィルタ表示命令に基づいて、「コピー」に関連するUI部品のフィルタ表示を行う(ステップS1019)。これにより、図11(b)のホーム画面1104がタッチパネル200に表示される。ホーム画面1104は、コピー202、裏移り防止コピー1105、節約コピー1106、プリセットIDカードコピー1107、文字を濃くコピー1108、パスポートコピー1109、及びIDカードコピー1110等の「コピー」に関連するアイコンを含む。また、上述したステップS1009と同様に、これらのアイコンに対応付けて、音声認識情報が発話例として追加表示される。さらに、ステータス表示210には、「コピー関連アイコンでフィルタ表示しました」といったメッセージが表示される。なお、ステップS1019では、デバイス制御プログラム901は、図11(c)の吹き出し1111のように、「コピー」に関連する機能をまとめて一覧表示しても良い。このように「コピー」に関連する機能を一覧表示することにより、ユーザが所望の機能を容易に見つけることができ、音声操作による操作性を向上させることができる。また、本実施の形態では、「コピー」に関連するアイコンがホーム画面に表示しきれない場合、「コピー」に関連するアイコンをポップアップ画面にてまとめてスクロールして表示するようにしてもよい。本実施の形態では、「コピー」に関連するアイコンの数が予め設定された所定の数より多い場合には、音声制御装置100から「一致する項目が多すぎる」といった音声メッセージが出力されるように制御してもよい。次いで、デバイス制御プログラム901は、タッチパネル200の画面の表示内容が更新されたことを示す画面更新通知をサーバ102へ送信する(ステップS1020)。画面更新通知には、ステップS1019にてタッチパネル200に表示された画面の種別を示す画面情報が含まれる。
画面更新通知を受信すると、サーバ102のリモート制御プログラム801は、画面更新通知に含まれる画面情報を外部記憶装置405bに保存する。また、リモート制御プログラム801は、「コピーでフィルタしました」といったメッセージを含む応答テキストデータを音声認識プログラム701へ送信する(ステップS1021)。音声認識プログラム701は、受信した応答テキストデータを音声合成データに変換して、当該音声合成データを音声制御装置100へ送信する(ステップS1022)。
音声制御装置100の音声制御プログラム601は、受信した音声合成データをスピーカ310から出力する。具体的に、音声制御プログラム601は、スピーカ310から「コピーでフィルタしました」といった音声メッセージを出力する(ステップS1023)。このように、本実施の形態では、ユーザ106がマイクロフォン308に「コピー」と発話することで、画像形成装置101のタッチパネル200において「コピー」に関連するUI部品のフィルタ表示が行われる。
その後、ユーザ106が音声制御装置100のマイクロフォン308に対して「コピーして」と発話する(ステップS1024)。音声制御プログラム601は、ユーザ106が発話した「コピーして」を音声データとして外部記憶装置305に保存する。次いで、音声制御プログラム601は、「コピーして」の音声データをサーバ102へ送信する(ステップS1025)。
サーバ102の音声認識プログラム701は、上述したステップS1003と同様に、受信した音声データに基づいて音声認識処理を行い(ステップS1026)、変換したテキストデータをリモート制御プログラム801へ送信する(ステップS1027)。
リモート制御プログラム801は、データ管理部803が管理する複数の操作指示命令の中から、受信したテキストデータに対応する操作指示命令、具体的に、「コピー開始」を画像形成装置101へ送信する(ステップS1028)。
画像形成装置101のデバイス制御プログラム901は、操作指示命令(「コピー開始」)を受信すると、コピージョブを実行するためのコピー画面をタッチパネル200に表示する(ステップS1029)。なお、この時点では、コピー画面上には、図11(a)等のような音声認識情報は表示されていない。次いで、デバイス制御プログラム901は、タッチパネル200に表示されている画面の種別を示す画面情報、及び当該画面に含まれるUI部品を示すUI部品情報をサーバ102へ送信する(ステップS1030)。
サーバ102のリモート制御プログラム801は、受信した画面情報に基づいて、データ管理部803が管理する複数のUI部品情報の中から、コピー画面に対応するUI部品情報を特定する。また、リモート制御プログラム801は、データ管理部803が管理する複数の音声認識情報の中から、特定したUI部品情報に対応する音声認識情報を特定する。リモート制御プログラム801は、特定した全てのUI部品情報、及び特定した全ての音声認識情報を画像形成装置101へ送信する(ステップS1031)。
画像形成装置101のデバイス制御プログラム901は、受信した音声認識情報に基づいて、コピー画面上に表示される各UI部品に対応付けて音声認識情報を発話例として表示する(ステップS1032)。ステップS1032では、図11(d)のコピー画面1112のように、当該コピー画面1112に含まれる各UI部品に対応付けて、対応する音声認識情報を含む吹き出しが発話例として表示される。次いで、デバイス制御プログラム901は、タッチパネル200に表示されている画面の種別を示す画面情報を含む画面更新通知をサーバ102へ送信する(ステップS1033)。
画面更新通知を受信すると、サーバ102のリモート制御プログラム801は、ステップS1024にてユーザ106が発話した内容に対する応答メッセージを示す応答テキストデータを音声認識プログラム701へ送信する。具体的に、リモート制御プログラム801は、「コピー画面を表示しました」といったメッセージを含む応答テキストデータを音声認識プログラム701へ送信する(ステップS1034)。音声認識プログラム701は、受信した応答テキストデータを音声合成データに変換して、当該音声合成データを音声制御装置100へ送信する(ステップS1035)。
音声制御装置100の音声制御プログラム601は、受信した音声合成データをスピーカ310から出力する。具体的に、音声制御プログラム601は、スピーカ310から「コピー画面を表示しました」といった音声メッセージを出力する(ステップS1036)。
以上のようにして、本実施の形態では、音声制御装置100が取得したユーザ106の音声に基づいて、画像形成装置101の音声操作が行われる。
なお、上述した図10の処理では、UI部品に対応付けて音声認識情報を表示する場合について説明したが、表示された音声認識情報を非表示にすることも可能である。
例えば、図11(a)に示すように、ホーム画面201に含まれるUI部品に対応付けて音声認識情報が表示された状態で、ユーザ106がマイクロフォン308に対して「ワード消して」と発話すると、音声制御装置100は、「ワード消して」を音声データとしてサーバ102へ送信する。
サーバ102は、受信した音声データに基づいて音声認識処理を行ってテキストデータを生成し、データ管理部803が管理する複数の操作指示命令の中から上記テキストデータに対応する操作指示命令、具体的に、「ワード消去」を画像形成装置101へ送信する。
画像形成装置101は、操作指示命令(「ワード消去」)を受信すると、ホーム画面201上の音声認識情報を非表示にする。これにより、タッチパネル200には、音声認識情報が含まれないホーム画面201(例えば、図2を参照。)が表示される。次いで、画像形成装置101は、タッチパネル200に表示されている画面の種別を示す画面情報を含む画面更新通知をサーバ102へ送信する。
画面更新通知を受信したサーバ102は、ユーザ106が発話した内容に対する応答メッセージを示す応答テキストデータを音声合成データに変換して、当該音声合成データを音声制御装置100へ送信する。
音声制御装置100は、受信した音声合成データをスピーカ310から出力する。具体的に、音声制御プログラム601は、スピーカ310から「ワードを消しました。音声操作は可能です。」といった音声メッセージを出力する。
このように、本実施の形態では、ユーザが発話した音声に基づいて、音声認識情報の表示及び非表示を容易に切り替えることができる。
次に、本実施の形態における情報処理システムの音声操作を実現するための画像形成装置101、サーバ102、及び音声制御装置100の各動作について説明する。
図12は、図9のデバイス制御プログラム901によって実行される画面更新制御処理の手順を示すフローチャートである。図12の画面更新制御処理は、画像形成装置101のCPU502が外部記憶装置505に格納されたデバイス制御プログラム901をRAM503上に展開して実行することによって実現される。図12の画面更新制御処理では、画像形成装置101が起動して、タッチパネル200にホーム画面201が表示されていることとする。
図12において、まず、デバイス制御プログラム901は、上述した操作指示命令やフィルタ表示命令といった音声操作情報をサーバ102から受信すると(ステップS1201)、当該音声操作情報が操作指示命令であるか否を判別する(ステップS1202)。
ステップS1202の判別の結果、受信した音声操作情報が操作指示命令である場合、デバイス制御プログラム901は、操作指示命令に対応するタッチパネルの表示制御を行う(ステップS1203)。例えば、操作指示命令が「音声操作開始」である場合、デバイス制御プログラム901は、ホーム画面201のステータス表示210に、「音声認識中」を表示させる(例えば、上述したステップS1006を参照。)。また、操作指示命令が「メニュー表示」である場合、デバイス制御プログラム901は、タッチパネル200にメニュー画面(不図示)を表示させる。また、操作指示命令がジョブの実行指示である場合、デバイス制御プログラム901は、当該ジョブを並行で実行する。例えば、操作指示命令がコピー画面1112のスタートボタンの操作指示である場合、コピージョブを実行すると共に、当該コピージョブを実行中であることを示すコピー実行画面(不図示)をタッチパネル200に表示させる。
次いで、デバイス制御プログラム901は、タッチパネル200に表示されている画面の種別を示す画面情報、及び当該画面に含まれるUI部品を示すUI部品情報をサーバ102へ送信する(ステップS1204)。画像形成装置101から画面情報を受信したサーバ102は、データ管理部803が管理する複数のUI部品情報の中から、当該画面情報に対応するUI部品情報を特定する。また、サーバ102は、データ管理部803が管理する複数の音声認識情報の中から、特定したUI部品情報に対応する音声認識情報を特定する。リモート制御プログラム801は、特定した全てのUI部品情報、及び特定した全ての音声認識情報を画像形成装置101へ送信する。
次いで、デバイス制御プログラム901は、サーバ102からUI部品情報及び音声認識情報を受信する(ステップS1205)。次いで、デバイス制御プログラム901は、タッチパネル200の画面上に表示される各UI部品に対応付けて、音声認識情報を表示させる(ステップS1206)(例えば、上述したステップS1009、S1032を参照。)。ここで、例えば、サーバ102から受信した音声認識情報に対応するUI部品がタッチパネル200の画面に表示されていない場合、デバイス制御プログラム901は、図11(c)の吹き出し1111のように、対応するUI部品が存在しない音声認識情報をまとめて一覧表示しても良い。
次いで、デバイス制御プログラム901は、タッチパネル200に表示されている画面の種別を示す画面情報を含む画面更新通知をサーバ102へ送信し(ステップS1207)、本処理を終了する。
ステップS1202の判別の結果、受信した音声操作情報が操作指示命令でない場合、デバイス制御プログラム901は、受信した音声操作情報がフィルタ表示命令であるか否かを判別する(ステップS1208)。
ステップS1208の判別の結果、受信した音声操作情報がフィルタ表示命令である場合、デバイス制御プログラム901は、受信したフィルタ表示命令に基づいて、フィルタ表示を行う(ステップS1209)(例えば、上述したステップS1019を参照。)。ステップS1209の処理により、受信したフィルタ表示命令に含まれるUI部品情報に基づいて、ユーザ106がマイクロフォン308に対して発話した単語でフィルタリングされたUI部品が含まれる画面がタッチパネル200に表示される。また、受信したフィルタ表示命令に含まれる音声認識情報が、各UI部品に対応付けて表示される。その後、画面更新制御処理はステップS1207へ進む。このとき、ステップS1207にて送信される画面更新通知には、フィルタ表示を行う直前にタッチパネル200に表示されていた画面を示す画面情報が含まれていてもよく、また、当該画面と異なる新たな画面を示す画面情報が含まれていてもよい。
ステップS1208の判別の結果、受信した音声操作情報がフィルタ表示命令でない場合、画面更新制御処理はステップS1210へ進む。受信した音声操作情報がフィルタ表示命令でない場合は、例えば、音声操作情報が音声操作を許可されていないセキュアプリント206の操作指示を示す情報である場合である。ステップS1210では、デバイス制御プログラム901は、実行不可能な命令を受信した旨を示す音声指示失敗応答をサーバ102へ送信する。その後、画面更新制御処理は終了する。画面更新制御処理を終了した後、デバイス制御プログラム901は、サーバ102からの音声操作情報の受信待ち状態となる。
図13は、図6の音声制御プログラム601によって実行される音声制御処理の手順を示すフローチャートである。図13の音声制御処理は、音声制御装置100のCPU302が外部記憶装置305に格納された音声制御プログラム601をRAM303上に展開して実行することによって実現される。
図13において、音声制御プログラム601は、ユーザがマイクロフォン308に対して発話した音声を音声取得部604によって取得する(ステップS1301)。音声制御プログラム601は、取得した音声の終了を発話終了判定部608によって判定し、発話開始から発話終了までの音声を音声データに変換し、当該音声データを外部記憶装置305に格納する。次いで、音声制御プログラム601は、音声データを検出したか否かを判別する(ステップS1302)。ステップS1302では、例えば、外部記憶装置305へ音声データを格納する処理を完了した場合、音声制御プログラム601は、音声データを検出したと判別する。一方、取得した音声の終了を発話終了判定部608によって判定されず、外部記憶装置305へ音声データを格納する処理を完了しない場合、音声制御プログラム601は、音声データを検出しないと判別する。
ステップS1302の判別の結果、音声データを検出しない場合、音声制御処理はステップS1301に戻る。ステップS1302の判別の結果、音声データを検出した場合、音声制御プログラム601は、表示部606によりLED312を点滅させ(ステップS1303)、音声制御装置100が応答処理状態であることを通知する。次いで、音声制御プログラム601は、データ送受信部602により、外部記憶装置305に格納した音声データをサーバ102へ送信する(ステップS1304)。その後、音声制御プログラム601は、サーバ102から音声合成データを受信するまで待機する。
サーバ102から音声合成データを受信すると(ステップS1305でYES)、音声制御プログラム601は、音声再生部605により、受信した音声合成データを再生させる(ステップS1306)。次いで、音声制御プログラム601は、サーバ102から対話セッション終了通知を受信したか否かを判別する(ステップS1307)。
ステップS1307の判別の結果、サーバ102から対話セッション終了通知を受信しない場合、音声制御処理はステップS1301に戻る。ステップS1307の判別の結果、サーバ102から対話セッション終了通知を受信した場合、音声制御プログラム601は、表示部606によりLED312を消灯させ(ステップS1308)、音声制御装置100が待機状態であることを通知する。次いで、音声制御プログラム601は、対話セッションを終了し(ステップS1309)、音声制御処理は終了する。音声制御処理を終了した後、ユーザがマイクロフォン308に対して発話すると、ステップS1301の処理が実行される。
図14は、図7の音声認識プログラム701によって実行される音声認識制御処理の手順を示すフローチャートである。図14の音声認識制御処理は、サーバ102のCPU402aが外部記憶装置405aに格納された音声認識プログラム701をRAM403a上に展開して実行することによって実現される。
図14において、音声認識プログラム701は、データ送受信部702により、音声データ又はテキストデータを受信する(ステップS1401)。音声認識プログラム701は、データ管理部703により、受信したデータ及び当該データの送信元の情報を外部記憶装置405aに格納する。次いで、音声認識プログラム701は、外部記憶装置405aに格納したデータが音声データであるか否かを判別する(ステップS1402)。
ステップS1402の判別の結果、外部記憶装置405aに格納したデータが音声データである場合、音声認識プログラム701は、音声認識部705により、受信した音声データの音声認識処理を行う(ステップS1403)。また、音声認識プログラム701は、データ管理部703により、音声認識処理の結果を外部記憶装置405aに格納する。次いで、音声認識プログラム701は、形態素解析部706により、格納した音声認識処理の結果に対して形態素解析を行ってテキストデータを生成する。音声認識プログラム701は、このテキストデータをリモート制御プログラム801へ送信し(ステップS1404)、音声認識制御処理は終了する。
ステップS1402の判別の結果、外部記憶装置405aに格納したデータが音声データでない場合、音声認識プログラム701は、外部記憶装置405aに格納したデータが応答テキストデータであるか否かを判別する(ステップS1405)。
ステップS1405の判別の結果、外部記憶装置405aに格納したデータが応答テキストデータである場合、音声認識プログラム701は、音声合成部707により、外部記憶装置405aに格納したデータに対して音声合成処理を施して音声合成データを生成する(ステップS1406)。次いで、音声認識プログラム701は、生成した音声合成データを音声制御装置100へ送信し(ステップS1407)、音声認識制御処理は終了する。
ステップS1405の判別の結果、外部記憶装置405aに格納したデータが応答テキストデータでない場合、音声認識プログラム701は、外部記憶装置405aに格納したデータが無効データであると判別する。音声認識プログラム701は、「音声が認識できません」等のエラーメッセージを再生する音声合成データを生成する(ステップS1408)。その後、音声認識制御処理はステップS1407ヘ進む。
図15は、図8Aのリモート制御プログラム801によって実行されるリモート制御処理の手順を示すフローチャートである。図15のリモート制御処理は、サーバ102のCPU402bが外部記憶装置405bに格納されたリモート制御プログラム801をRAM403b上に展開して実行することによって実現される。
図15において、リモート制御プログラム801は、データ送受信部802により、音声認識プログラム701からテキストデータを受信する(ステップS1501)。リモート制御プログラム801は、データ管理部803により、このテキストデータを外部記憶装置405bへ格納する。次いで、リモート制御プログラム801は、受信したテキストデータを、データ管理部803が管理する複数の音声認識情報と比較する。リモート制御プログラム801は、データ管理部803が管理する複数の音声認識情報の中に、受信したテキストデータと一致する音声認識情報が含まれているか否かを判別する(ステップS1502)。
ステップS1502の判別の結果、データ管理部803が管理する複数の音声認識情報の中に、受信したテキストデータと一致する音声認識情報が含まれている場合、リモート制御プログラム801は、データ送受信部802により、この音声認識情報に対応する操作指示命令を画像形成装置101へ送信する(ステップS1503)。操作指示命令を受信した画像形成装置101は、上述したステップS1203の処理を行って、受信した操作指示命令に対応するタッチパネルの表示制御を行う。また、画像形成装置101は、上述したステップS1204の処理を行って、タッチパネル200に表示されている画面の種別を示す画面情報、及び当該画面に含まれるUI部品を示すUI部品情報をサーバ102へ送信する。
リモート制御プログラム801は、データ送受信部802により、画像形成装置101から画面情報及びUI部品情報を受信する(ステップS1504)。次いで、リモート制御プログラム801は、データ管理部803が管理する複数の音声認識情報の中から、受信したUI部品情報に対応する音声認識情報を特定する。リモート制御プログラム801は、特定した全ての音声認識情報をデータ送受信部802により画像形成装置101へ送信する(ステップS1505)。次いで、リモート制御処理は、後述するステップS1508へ進む。
ステップS1502の判別の結果、データ管理部803が管理する複数の音声認識情報の中に、受信したテキストデータと一致する音声認識情報が含まれていない場合、リモート制御プログラム801は、受信したテキストデータを、データ管理部803が管理する複数のフィルタワードと比較する。リモート制御プログラム801は、データ管理部803が管理する複数のフィルタワードの中に、受信したテキストデータと一致するフィルタワードが含まれているか否かを判別する(ステップS1506)。
ステップS1506の判別の結果、データ管理部803が管理する複数のフィルタワードの中に、受信したテキストデータと一致するフィルタワードが含まれている場合、リモート制御プログラム801は、フィルタ表示命令を画像形成装置101へ送信する(ステップS1507)。このフィルタ表示命令は、上述したように、対応するフィルタワードが受信したテキストデータと一致する音声認識情報と、当該音声認識情報に対応するUI部品情報を含む。
次いで、リモート制御プログラム801は、操作指示命令やフィルタ表示命令といった音声操作情報に対する応答を画像形成装置101から受信すると(ステップS1508)、受信した応答が画面更新通知であるか否かを判別する(ステップS1509)。
ステップS1509の判別の結果、受信した応答が画面更新通知である場合、リモート制御プログラム801は、受信した画面更新通知に含まれる画面情報をデータ管理部803によって外部記憶装置405bへ格納する(ステップS1510)。次いで、リモート制御プログラム801は、応答テキストデータを音声認識プログラム701へ送信し(ステップS1511)、リモート制御処理は終了する。
ステップS1509の判別の結果、受信した応答が画面更新通知でない場合、リモート制御プログラム801は、受信した応答が実行不可能な命令を受信した旨を示す音声指示失敗応答であるか否かを判別する(ステップS1512)。
ステップS1512の判別の結果、受信した応答が音声指示失敗応答である場合、リモート制御プログラム801は、「音声操作できませんでした」等のように、受信した音声操作情報に対して音声操作を行えなかったことを示すメッセージを含む応答テキストデータを音声認識プログラム701へ送信する(ステップS1513)。その後、リモート制御処理は終了する。
ステップS1512の判別の結果、受信した応答が上記音声指示失敗応答でない場合、又はステップS1506の判別の結果、データ管理部803が管理する複数のフィルタワードの中に、受信したテキストデータと一致するフィルタワードが含まれていない場合、リモート制御プログラム801は、ステップS1501にて受信したテキストデータに対する音声操作が無効であることを示す無効データ応答を音声認識プログラム701へ送信する(ステップS1514)。その後、リモート制御処理は終了する。
上述した実施の形態によれば、音声制御装置100が取得した音声を符号化した音声データに基づいてテキストデータが出力され、音声認識情報及びテキストデータに基づいて、UI部品に紐付く所定の処理が実行される。音声認識情報は、UI部品に紐付く所定の処理と関連する単語を少なくとも含み、画像形成装置101のタッチパネル200に表示中の画面に含まれるUI部品に対応付けて表示される。すなわち、UI部品に対応する機能によって実行される処理との意味的な結びつきを持つ音声認識情報がUI部品に対応付けて表示される。これにより、実行される処理と発話指示との結びつきをユーザが容易に習熟することができる。
また、上述した実施の形態では、テキストデータが文字認識情報と一致しない場合、テキストデータと関連するUI部品のフィルタ表示が行われ、当該UI部品に対応付けて音声認識情報が表示される。これにより、UI部品に対応付けて表示される音声認識情報に基づいて、実行される処理と発話指示との結びつきの習熟のし易さを保ちつつ、表示されるUI部品をテキストデータと関連するUI部品に絞り込むことで、所望の機能に対応するUI部品を見つけ易くすることができる。
上述した実施の形態では、UI部品は、アイコン、マーク、ボタン、矢印、又はタブであるので、タッチパネル200に表示されたアイコン、マーク、ボタン、矢印、及びタブに対応する各処理と発話指示との結びつきをユーザが容易に習熟することができる。
また、上述した実施の形態では、UI部品に対応付けて表示された吹き出し(例えば、吹き出し1101を参照。)に音声認識情報が表示される。これにより、ユーザがUI部品と音声認識情報との対応関係を容易に理解することができる。
上述した実施の形態では、タッチパネル200に表示中の画面に含まれるUI部品のうち、音声操作を許可されていない機能に対応するセキュアプリント206に、音声操作不可能である旨を示す情報1102が対応付けて表示される。これにより、ユーザはセキュアプリント206が音声操作不可能であることを容易に理解することができる。
上述した実施の形態では、UI部品に紐付く所定の処理は、印刷処理、印刷処理に関する設定の受付処理、読取処理、又は読取処理に関する設定の受付処理である。これにより、ユーザは、印刷処理や読取処理について、その設定の受け付けや実行指示の音声操作を容易に行うことができる。
以上、本発明について、上述した実施の形態を用いて説明したが、本発明は上述した実施の形態に限定されるものではない。例えば、データ管理部803がフィルタワードを管理せず、音声認識情報の関連ワード(同義語、類似語、Web検索結果)から、フィルタ表示されるUI部品を特定するようにしてもよい。
また、上述した実施の形態では、画像形成装置101の外部記憶装置505に音声認識プログラム701及びリモート制御プログラム801が格納され、画像形成装置101が図14の音声認識制御処理及び図15のリモート制御処理を実行してもよい。このような構成において、画像形成装置101は、ユーザ106の音声を符号化した音声データを、音声制御装置100又は画像形成装置101が備えるマイクロフォンから取得する。このように、サーバ102を介すことなく、画像形成装置101が音声認識を行う構成において、実行される処理と発話指示との結びつきをユーザが容易に習熟することができる。
上述した実施の形態では、画像形成装置101のホーム画面は、ホーム画面201に限られず、別のホーム画面に対しても同様の制御が行われる。
図16は、図2のタッチパネル200に表示されるホーム画面201bの一例を示す図である。ホーム画面202bは、タブ3に対応するホーム画面である。ホーム画面202bには、画像形成装置101のスキャン機能に関連するアイコン、具体的に、よく使う設定A1601、よく使う設定B1602、定型文添えてSend1603、固定宛先スキャン1604、及び仕分けスキャン1605が含まれる。
よく使う設定A1601は、予め登録されたスキャン設定に基づいて原稿をスキャンして画像データを生成して当該画像データを送信する処理の実行指示を行うためのアイコンである。よく使う設定B1602は、よく使う設定A1601と異なるスキャン設定に基づいて原稿をスキャンして画像データを生成して当該画像データを送信する処理の実行指示を行うためのアイコンである。定型文添えてSend1603は、原稿をスキャンして画像データを生成して予め登録されたEメール本文のテキスト情報に上記画像データを添付してEメール送信を行う処理の実行指示を行うためのアイコンである。予め登録されたEメール本文のテキスト情報は、例えば、「資料を添付します。よろしくお願いします。」といった定型文である。
固定宛先スキャン1604は、原稿をスキャンして画像データを生成して当該画像データを予め登録された宛先Zに送信する処理の実行指示を行うためのアイコンである。仕分けスキャン1605は、原稿をスキャンして画像データを生成して当該画像データの名称をスキャンした日時等として保存する処理の実行指示を行うためのアイコンである。
タッチパネル200にホーム画面201bが表示された状態で、ユーザが音声制御装置100のマイクロフォン308に対して「音声操作開始」と発話すると、図16に示すように、ホーム画面201bの各アイコンに対応付けて文字認識情報が表示される。
また、上述した実施の形態では、音声認識情報及びフィルタワードの設定をリモート制御プログラム801のWebサーバ機能を利用して実現してもよい。
図17は、本実施の形態における音声認識情報及びフィルタワードを設定するための設定画面1700の一例を示す図である。図17では、タブ1に対応するホーム画面201、タブ2に対応するホーム画面201a、タブ3に対応するホーム画面201bと、それらに対応するテキストボックスが表示されている様子が示されている。設定画面1700は、Webブラウザでサーバ102のリモート制御プログラム801にアクセスすることで表示される。テキストボックスの「位置」の列には、対応するホーム画面に含まれるアイコンの名称が設定される。ユーザは、各アイコンの名称に対応させて音声認識情報及びフィルタワードを設定可能である。なお、セキュアプリント206のように音声操作を許可されないアイコンの名称に対応する音声認識情報及びフィルタワードの各設定欄には、音声認識情報及びフィルタワードを設定不可であることを示す「-」が予め入力されている。フィルタワードの設定について、単語と単語の間に区切り文字「、」を入れることで、複数のフィルタワードを設定可能である。また、設定画面1700では、画面情報やUI部品情報を変更することも可能である。
図18は、図8Aのリモート制御プログラム801によって実行される設定制御処理の手順を示すフローチャートである。図18の設定制御処理は、サーバ102のCPU402bが外部記憶装置405bに格納されたリモート制御プログラム801をRAM403b上に展開して実行することによって実現される。
図18において、リモート制御プログラム801は、データ送受信部802により、データを受信する(ステップS1801)。次いで、リモート制御プログラム801は、受信したデータが音声認識プログラム701から送信されたテキストデータであるか否かを判別する(ステップS1802)。
ステップS1802の判別の結果、受信したデータが音声認識プログラム701から送信されたテキストデータである場合、リモート制御プログラム801は、図15のリモート制御処理を実行し(ステップS1803)、設定制御処理は終了する。
ステップS1802の判別の結果、受信したデータが音声認識プログラム701から送信されたテキストデータでない場合、リモート制御プログラム801は、受信したデータがクライアント端末103等のWebブラウザから送信されたアクセス通知であるか否かを判別する(ステップS1804)。
ステップS1804の判別の結果、受信したデータがクライアント端末103のWebブラウザから送信されたアクセス通知でない場合、リモート制御プログラム801は、処理不可能であることを示す無効応答を、受信したデータの送信元へ送信する(ステップS1805)。その後、設定制御処理は終了する。
ステップS1804の判別の結果、受信したデータがクライアント端末103のWebブラウザから送信されたアクセス通知である場合、リモート制御プログラム801は、データ管理部803が管理する情報を取得する(ステップS1806)。具体的に、リモート制御プログラム801は、データ管理部803が管理する画面情報、UI部品情報、音声認識情報、及びフィルタワード情報を取得する。次いで、リモート制御プログラム801は、ステップS1806にて取得した情報に基づいて、クライアント端末103のWebブラウザに設定画面1700を表示するための設定画面表示用データを生成する(ステップS1807)。次いで、リモート制御プログラム801は、生成した設定画面表示用データをクライアント端末103へ送信する(ステップS1808)。クライアント端末103は、受信した設定画面表示用データに基づいて、クライアント端末103のWebブラウザに設定画面1700を表示する。クライアント端末103は、設定画面1700にてユーザが設定した設定データをサーバ102へ送信する。設定データには、例えば、ユーザによって変更された音声認識情報やフィルタワードが、対応する画面情報やUI部品情報を識別可能なように含まれている。また、設定データには、ユーザによって設定された新たな画面の画面情報や当該画面情報に対応するUI部品情報が含まれている。
次いで、リモート制御プログラム801は、クライアント端末103から設定データを受信する(ステップS1809)。次いで、リモート制御プログラム801は、設定データ及びステップS1806にて取得した情報に基づいて、変更されたデータ(以下、「変更データ」という。)を特定し、特定した変更データを取得する(ステップS1810)。ステップS1810では、特定した変更データが複数である場合、リモート制御プログラム801は、複数の変更データの中から1つの変更データを取得する。次いで、リモート制御プログラム801は、取得した変更データが音声認識情報であるか否かを判別する(ステップS1811)。
ステップS1811の判別の結果、取得した変更データが音声認識情報である場合、リモート制御プログラム801は、データ管理部803が管理する複数の音声認識情報の中から、変更データと同じ画面情報及びUI部品情報に対応する音声認識情報を特定する。リモート制御プログラム801は、特定した音声認識情報を変更データに変更する(ステップS1812)。次いで、設定制御処理は後述するステップS1817へ進む。
ステップS1811の判別の結果、取得した変更データが音声認識情報でない場合、リモート制御プログラム801は、取得した変更データがフィルタワードであるか否かを判別する(ステップS1813)。
ステップS1813の判別の結果、取得した変更データがフィルタワードである場合、リモート制御プログラム801は、データ管理部803が管理する複数のフィルタワードの中から、変更データと同じ画面情報及びUI部品情報に対応するフィルタワードを特定する。リモート制御プログラム801は、特定したフィルタワードを変更データに変更する(ステップS1814)。次いで、設定制御処理は後述するステップS1817へ進む。
ステップS1813の判別の結果、取得した変更データがフィルタワードでない場合、リモート制御プログラム801は、取得した変更データが画面情報又はUI部品情報であるか否かを判別する(ステップS1815)。
ステップS1815の判別の結果、取得した変更データが画面情報及びUI部品情報の何れでもない場合、設定制御処理は終了する。ステップS1815の判別の結果、取得した変更データが画面情報又はUI部品情報である場合、リモート制御プログラム801は、データ管理部803が管理する複数の画面情報及びUI部品情報の中から、変更データに対応する情報を特定する。リモート制御プログラム801は、特定した情報を変更データに変更する(ステップS1816)。次いで、リモート制御プログラム801は、全ての変更データの処理を完了したか否かを判別する(ステップS1817)。
ステップS1817の判別の結果、何れかの変更データの処理を完了しない場合、設定制御処理は、ステップS1810に戻る。ステップS1817の判別の結果、全ての変更データの処理を完了した場合、リモート制御プログラム801は、変更した情報を画像形成装置101へ送信する(ステップS1818)。画像形成装置101は、受信した情報に基づいてホーム画面の表示を変更する。その後、設定制御処理は終了する。
上述した図18の設定制御処理を行うことで、音声認識情報及びフィルタワードを容易にカスタマイズすることが可能となる。
上述した実施の形態では、リモート制御プログラム801のデータ管理部803が、音声認識情報及びフィルタワードを管理する構成について説明したが、この構成に限られない。例えば、デバイス制御プログラム901のデータ管理部903が音声認識情報及びフィルタワードを管理してもよい。データ管理部903が音声認識情報及びフィルタワードを管理することにより、画像形成装置101のタッチパネル200上で音声認識情報及びフィルタワードの設定変更を行うことができる。
また、上述した実施の形態では、デバイス制御プログラム901のデータ管理部903が音声認識情報及びフィルタワードを管理する構成において、デバイス制御プログラム901のWebサーバ機能を利用して、デバイス制御プログラム901が図18の設定制御処理を実行してもよい。
本発明は、上述の実施の形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、該システム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
なお、CPUとは、Central Processing Unitのことである。DNNとは、Deep Neural Networkのことである。GMMとは、Gaussian mixture modelのことである。HDDとは、Hard Disk Driveのことである。HMMとは、Hidden Markov Modelのことである。IDとは、Identificationのことである。IEEEとは、Institute of Electrical and Electronics Engineersのことである。IPとは、Internet Protocolのことである。LANとは、Local Area Networkのことである。LCDとは、Liquid Crystal Displayのことである。LEDとは、Light Emitting Diodeのことである。MEMSとは、Micro Electro Mechanical Systemsのことである。 MP3とは、MPEG Audio Layer-3のことである。PCとは、Personal Computerのことである。RAMとは、Random‐Access Memoryのことである。RNNとは、Recurrent Neural Networksのことである。ROMとは、Read Only Memoryのことである。SDカードとは、Secure Digital Memory Cardのことである。SSDとは、Solid State Driveのことである。TCPとは、Transmission Control Protocolのことである。UIとは、User Interfaceのことである。URLとは、Uniform Resource Locatorのことである。
100 音声制御装置
101 画像形成装置
102 サーバ
200 タッチパネル
202 コピー
203 スキャン
204 メニュー
205 アドレス帳
206 セキュアプリント
207 音声認識
308 マイクロフォン
402a、402b、502 CPU
513 プリントエンジン
515 スキャナ
701 音声認識プログラム
801 リモート制御プログラム
901 デバイス制御プログラム
1101 吹き出し

Claims (19)

  1. 情報を表示可能な表示デバイスと、
    音を取得可能なマイクロフォンと、
    自然言語の音声情報が前記マイクロフォンを介して入力されたことに従って前記音声情報に基づく単語情報を出力する出力手段と、
    前記表示デバイスに表示中の画面に含まれるタッチオブジェクトに対応付けて発話例を追加表示させる表示制御手段と、
    前記発話例に含まれる単語の組み合わせの情報及び前記出力された単語情報に少なくとも基づいて、前記タッチオブジェクトに紐付く所定の処理を実行する実行手段と、を有することを特徴とする情報処理システム。
  2. 前記出力された単語情報が前記発話例に含まれる単語の組み合わせの情報と一致しない場合、前記表示制御手段は、前記出力された単語情報に関連するタッチオブジェクト、及び当該タッチオブジェクトに対応付けて前記発話例を前記表示デバイスに表示させることを特徴とする請求項1記載の情報処理システム。
  3. 前記タッチオブジェクトは、アイコン、マーク、ボタン、矢印、又はタブであることを特徴とする請求項1又は2記載の情報処理システム。
  4. 前記表示制御手段は、前記タッチオブジェクトに対応付けて表示された吹き出しに前記発話例を表示させることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理システム。
  5. 前記表示制御手段は、前記表示デバイスに表示中の画面に含まれるタッチオブジェクトのうち、前記出力された単語情報に基づく音声操作を許可されていない機能に対応するタッチオブジェクトに、音声操作不可能である旨を示す情報を対応付けて表示させることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理システム。
  6. 前記タッチオブジェクトに対応付けて前記発話例を表示した状態で前記発話例の非表示を指示する単語情報が出力された場合、前記表示制御手段は、前記タッチオブジェクトに対応付けて表示された前記発話例を非表示にすることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理システム。
  7. 前記発話例は、前記所定の処理に関連する単語を少なくとも含むことを特徴とする請求項1乃至6のいずれか1項に記載の情報処理システム。
  8. 前記所定の処理の実行に従って、前記表示制御手段は、前記画面を遷移させることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理システム。
  9. 前記所定の処理の実行に従って、音声出力デバイスに音声メッセージを出力させる音声出力制御手段を更に有することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理システム。
  10. シートに画像を形成する印刷デバイスを更に備え、
    前記所定の処理は、印刷処理であることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理システム。
  11. シートに画像を形成する印刷デバイスを更に備え、
    前記所定の処理は、印刷処理に関する設定の受付処理であることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理システム。
  12. 原稿を読み取る読取デバイスを更に備え、
    前記所定の処理は、読取処理であることを特徴とする請求項1乃至11のいずれか1項に記載の情報処理システム。
  13. 原稿を読み取る読取デバイスを更に備え、
    前記所定の処理は、読取処理に関する設定の受付処理であることを特徴とする請求項1乃至11のいずれか1項に記載の情報処理システム。
  14. 前記情報処理システムは、前記表示デバイス、前記表示制御手段、及び前記実行手段を備える画像処理装置、前記マイクロフォンを備える音声制御装置、並びに前記出力手段を備える情報処理装置を有し、
    前記音声制御装置は、
    前記マイクロフォンを介して受け付けた自然言語の音声情報を前記情報処理装置に送信する送信手段を有し、
    前記画像処理装置は、
    前記情報処理装置から前記単語情報を取得する取得手段を有することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理システム。
  15. 前記情報処理システムは、前記表示デバイス、前記マイクロフォン、前記表示制御手段、及び前記実行手段を備える画像処理装置、並びに前記出力手段を備える情報処理装置を有し、
    前記画像処理装置は、
    前記マイクロフォンを介して受け付けた自然言語の音声情報を前記情報処理装置に送信する送信手段と、
    前記情報処理装置から前記単語情報を取得する取得手段と、を有することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理システム。
  16. 前記情報処理システムは、前記表示デバイス、前記出力手段、前記表示制御手段、及び前記実行手段を備える画像処理装置、並びに前記マイクロフォンを備える音声制御装置を有し、
    前記音声制御装置は、
    前記マイクロフォンを介して受け付けた自然言語の音声情報を前記画像処理装置に送信する送信手段を有することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理システム。
  17. 請求項1乃至13のいずれか1項に記載された表示デバイス、マイクロフォン、印刷デバイス、読み取りデバイス、及び各手段を有する画像処理装置。
  18. 情報を表示可能な表示デバイス及び音を取得可能なマイクロフォンを備える情報処理システムの制御方法であって、
    自然言語の音声情報が前記マイクロフォンを介して入力されたことに従って前記音声情報に基づく単語情報を出力する出力工程と、
    前記表示デバイスに表示中の画面に含まれるタッチオブジェクトに対応付けて発話例を追加表示させる表示制御工程と、
    前記発話例に含まれる単語の組み合わせの情報及び前記出力された単語情報に少なくとも基づいて、前記タッチオブジェクトに紐付く所定の処理を実行する実行工程と、を有することを特徴とする情報処理システムの制御方法。
  19. 情報を表示可能な表示デバイス及び音を取得可能なマイクロフォンを備える情報処理システムの制御方法をコンピュータに実行させるプログラムであって、
    前記情報処理システムの制御方法は、
    自然言語の音声情報が前記マイクロフォンを介して入力されたことに従って前記音声情報に基づく単語情報を出力する出力工程と、
    前記表示デバイスに表示中の画面に含まれるタッチオブジェクトに対応付けて発話例を追加表示させる表示制御工程と、
    前記発話例に含まれる単語の組み合わせの情報及び前記出力された単語情報に少なくとも基づいて、前記タッチオブジェクトに紐付く所定の処理を実行する実行工程と、を有することを特徴とするプログラム。
JP2020209345A 2020-12-17 2020-12-17 情報処理システム、画像処理装置、情報処理システムの制御方法、及びプログラム Pending JP2022096305A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020209345A JP2022096305A (ja) 2020-12-17 2020-12-17 情報処理システム、画像処理装置、情報処理システムの制御方法、及びプログラム
US17/541,611 US20220201136A1 (en) 2020-12-17 2021-12-03 Information processing system that executes command corresponding to utterance, image processing apparatus, control method for information processing system, and storage medium storing control program for information processing system
CN202111529817.4A CN114648991A (zh) 2020-12-17 2021-12-14 信息处理系统、其控制方法、存储其控制程序的存储介质、以及图像处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020209345A JP2022096305A (ja) 2020-12-17 2020-12-17 情報処理システム、画像処理装置、情報処理システムの制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2022096305A true JP2022096305A (ja) 2022-06-29

Family

ID=81992258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020209345A Pending JP2022096305A (ja) 2020-12-17 2020-12-17 情報処理システム、画像処理装置、情報処理システムの制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US20220201136A1 (ja)
JP (1) JP2022096305A (ja)
CN (1) CN114648991A (ja)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8275617B1 (en) * 1998-12-17 2012-09-25 Nuance Communications, Inc. Speech command input recognition system for interactive computer display with interpretation of ancillary relevant speech query terms into commands
US7812989B2 (en) * 2006-09-29 2010-10-12 Samsung Electronics Co., Ltd. System and method for voice help on a topic the user selects at the device, or to correct an error at a multi-function peripheral (MFP)
WO2013022222A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
WO2013022218A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing user interface thereof
KR102022318B1 (ko) * 2012-01-11 2019-09-18 삼성전자 주식회사 음성 인식을 사용하여 사용자 기능을 수행하는 방법 및 장치
JP6942995B2 (ja) * 2017-03-31 2021-09-29 ブラザー工業株式会社 情報処理プログラム、情報処理装置、および情報処理装置の制御方法
KR102498007B1 (ko) * 2018-01-08 2023-02-08 엘지전자 주식회사 음성인식을 이용한 세탁물 처리기기 제어시스템 및 동작방법
US10782923B1 (en) * 2019-03-04 2020-09-22 Xerox Corporation Systems and methods for assisting users through interactive voice-based job-related instructions via multi-function device
KR20220005590A (ko) * 2019-07-22 2022-01-13 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
KR20190098110A (ko) * 2019-08-02 2019-08-21 엘지전자 주식회사 지능형 프레젠테이션 방법
EP4075258A4 (en) * 2019-12-13 2023-08-23 LG Electronics Inc. DISPLAY DEVICE

Also Published As

Publication number Publication date
US20220201136A1 (en) 2022-06-23
CN114648991A (zh) 2022-06-21

Similar Documents

Publication Publication Date Title
JP5146429B2 (ja) 画像処理装置、音声認識処理装置、音声認識処理装置の制御方法、およびコンピュータプログラム
JP2001014134A (ja) ネットワークシステム、ネットワークシステムにおけるサーバ及び装置
US11327697B2 (en) Information processing apparatus and startup method for input-output device
US11792338B2 (en) Image processing system for controlling an image forming apparatus with a microphone
US12015746B2 (en) Image processing system, setting control method, image processing apparatus, and storage medium
KR20120051517A (ko) 음성데이터를 이용한 문서생성 방법 및 시스템과, 이를 구비한 화상형성장치
US20210176371A1 (en) Image processing system, image processing apparatus, and image processing method
JP2022001997A (ja) 情報処理装置、情報処理システム、制御方法、並びにプログラム
US11036441B1 (en) System and method for creation and invocation of predefined print settings via speech input
US11838460B2 (en) Information processing system, information processing apparatus, and information processing method
JP2022096305A (ja) 情報処理システム、画像処理装置、情報処理システムの制御方法、及びプログラム
JP7286321B2 (ja) 情報処理システム、情報処理装置、制御方法、プログラム
JP2020201911A (ja) 情報処理システム、情報処理装置、情報処理方法
JP7361509B2 (ja) 周辺装置管理システム、印刷装置制御システム、制御方法、印刷制御装置及びプログラム
US11700338B2 (en) Information processing system that receives audio operations on multifunction peripheral, as well as image processing apparatus and control method therefor
JP2023018516A (ja) 情報処理システム、情報処理システムの制御方法およびプログラム
JP7327939B2 (ja) 情報処理システム、情報処理装置、制御方法、プログラム
JP7483487B2 (ja) 画像形成システム、画像形成システムの制御方法、及びプログラム
JP7353806B2 (ja) 情報処理システム、情報処理装置、情報処理方法
JP2021015441A (ja) 情報処理システム、情報処理装置、情報処理方法
JP2021163163A (ja) 情報処理装置、情報処理方法及びプログラム
JP2022167659A (ja) 画像形成システム、制御方法、及びプログラム
JP2021163069A (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240820