JP2021056810A - Information processing device, image forming device, information processing method, and program - Google Patents

Information processing device, image forming device, information processing method, and program Download PDF

Info

Publication number
JP2021056810A
JP2021056810A JP2019179836A JP2019179836A JP2021056810A JP 2021056810 A JP2021056810 A JP 2021056810A JP 2019179836 A JP2019179836 A JP 2019179836A JP 2019179836 A JP2019179836 A JP 2019179836A JP 2021056810 A JP2021056810 A JP 2021056810A
Authority
JP
Japan
Prior art keywords
voice
user
job
unit
voice data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019179836A
Other languages
Japanese (ja)
Inventor
勝彦 穐田
Katsuhiko Akita
勝彦 穐田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019179836A priority Critical patent/JP2021056810A/en
Publication of JP2021056810A publication Critical patent/JP2021056810A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Facsimiles In General (AREA)

Abstract

To provide a technique that enables users, even if they are unfamiliar with information processing devices, to execute jobs based on voice input.SOLUTION: An information processing device includes an acquisition unit 102 configured to acquire setting contents of a job, a generation unit 104 configured to generate voice data of the voice of wording indicating the setting contents acquired by the acquisition unit, and a transmission unit 106 configured to transmit the voice data to an external device that outputs the voice based on the voice data.SELECTED DRAWING: Figure 11

Description

本開示は、情報処理装置、画像形成装置、情報処理方法、およびプログラムに関する。 The present disclosure relates to information processing devices, image forming devices, information processing methods, and programs.

ユーザーにより様々な設定内容が入力される設定画面を表示する情報処理装置がある。情報処理装置は、入力された設定内容に基づいたジョブを実行する。また、情報処理装置は、ユーザーからの音声入力に基づくジョブを実行することができる(例えば、特許文献1参照)。 There is an information processing device that displays a setting screen in which various setting contents are input by the user. The information processing device executes a job based on the input setting contents. Further, the information processing apparatus can execute a job based on voice input from the user (see, for example, Patent Document 1).

特開2015−166912号公報JP 2015-166912

一般的に、音声入力に基づくジョブを情報処理装置に実行させる場合の方が、設定画面から設定内容を手入力してジョブを情報処理装置に実行させるよりも、ユーザーの負担は軽い。ユーザーが、音声入力に基づくジョブを情報処理装置に実行させる場合には、ユーザーは、設定内容の文言を音声で発する必要がある。したがって、このユーザーは、設定内容を覚えておく必要がある。しかしながら、情報処理装置に不慣れなユーザーは、設定内容を覚えていない。特許文献1記載の発明では、このような不慣れなユーザーは、音声入力に基づくジョブを情報処理装置に実行させることができないという問題が生じ得る。 In general, when the information processing device executes a job based on voice input, the burden on the user is lighter than when the information processing device executes the job by manually inputting the setting contents from the setting screen. When the user causes the information processing apparatus to execute a job based on voice input, the user needs to utter the wording of the setting contents by voice. Therefore, this user needs to remember the settings. However, the user who is unfamiliar with the information processing device does not remember the setting contents. In the invention described in Patent Document 1, there may be a problem that such an unfamiliar user cannot cause the information processing apparatus to execute a job based on voice input.

本開示は上述のような問題点を解決するためになされたものであって、ある局面における目的は、情報処理装置に不慣れなユーザーであっても、音声入力に基づくジョブを情報処理装置に実行させる技術を提供することである。 The present disclosure has been made to solve the above-mentioned problems, and the purpose in a certain aspect is to execute a job based on voice input to the information processing device even by a user who is unfamiliar with the information processing device. It is to provide the technology to make it.

本開示のある局面に従うと、ジョブの設定内容を取得する取得部と、取得部が取得した設定内容を示す文言の音声の音声データを生成する生成部と、音声データに基づく音声を出力する外部装置に音声データを送信する送信部とを備える情報処理装置が提供される。 According to a certain aspect of the present disclosure, an acquisition unit that acquires the setting contents of the job, a generation unit that generates audio data of the voice of the wording indicating the setting contents acquired by the acquisition unit, and an external that outputs the audio based on the audio data. An information processing device including a transmission unit that transmits voice data to the device is provided.

ある局面において、取得部は、複数の設定内容を取得し、生成部は、複数の設定内容毎の音声データを生成し、送信部は、複数の設定内容毎の音声データそれぞれに基づく音声を出力する外部装置に複数の設定内容毎の音声データを送信する。 In a certain aspect, the acquisition unit acquires a plurality of setting contents, the generation unit generates audio data for each of the plurality of setting contents, and the transmission unit outputs audio based on each of the audio data for each of the plurality of setting contents. Sends audio data for each of multiple settings to an external device.

ある局面において、情報処理装置は、さらに、音声が入力されるマイクと、ユーザーの音声のマイクへの入力をユーザーに促進する第1促進処理を実行する第1促進部とを備え、生成部は、第1促進処理の実行後にマイクに入力されたユーザーの音声の音声データを、生成部が生成した音声データに対して付与することにより新たな音声データを生成し、送信部は、新たな音声データに基づく音声を出力する外部装置に新たな音声データを送信する。 In a certain aspect, the information processing device further includes a microphone into which voice is input and a first promotion unit that executes a first promotion process for urging the user to input the user's voice into the microphone. , The voice data of the user's voice input to the microphone after the execution of the first promotion process is added to the voice data generated by the generation unit to generate new voice data, and the transmission unit generates new voice. Send new audio data to an external device that outputs data-based audio.

ある局面において、第1促進部は、新たな音声データに基づく音声が外部装置からマイクに入力された場合に、ユーザーの音声のマイクへの入力をユーザーに促進する第2促進処理を実行し、情報処理装置は、さらに、第2促進処理の実行後にマイクに入力されたユーザーの音声の特徴情報と、新たな音声データに基づく音声に含まれるユーザーの音声の特徴情報とが同一である場合に、新たな音声データに基づく音声により示される設定内容に基づくジョブを実行する第1実行部を備える。 In a certain aspect, the first promotion unit executes a second promotion process that promotes the user to input the user's voice to the microphone when the voice based on the new voice data is input to the microphone from the external device. In the information processing device, further, when the characteristic information of the user's voice input to the microphone after the execution of the second promotion process and the characteristic information of the user's voice included in the voice based on the new voice data are the same. The first execution unit is provided to execute a job based on the setting contents indicated by the voice based on the new voice data.

本開示の別の局面に従うと、音声が入力されるマイクと、ジョブの設定内容を示す文言の音声およびユーザーの音声がマイクに入力された場合に、ユーザーの音声のマイクへの入力をユーザーに促進する第1促進部と、第1促進部の促進前にマイクに入力されたユーザーの音声の特徴情報と、第1促進部の促進後にマイクに入力されたユーザーの音声の特徴量とが同一である場合に、第1促進部の促進前にマイクに入力された音声により示されるジョブの設定内容に基づくジョブを実行する第1実行部とを備える情報処理装置が提供される。 According to another aspect of the present disclosure, if a microphone is input with audio, and the voice of the wording indicating the job settings and the user's voice are input to the microphone, the user is input with the user's voice into the microphone. The characteristic information of the user's voice input to the microphone before the promotion of the first promotion unit and the promotion of the first promotion unit is the same as the characteristic amount of the user's voice input to the microphone after the promotion of the first promotion unit. In this case, an information processing apparatus including a first execution unit that executes a job based on the setting contents of the job indicated by the voice input to the microphone before the promotion of the first promotion unit is provided.

ある局面において、音声の特徴情報は、声紋である。 In one aspect, the feature information of the voice is a voiceprint.

ある局面において、生成部は、取得部が取得した設定内容を示す文言の文字数よりも少ない文字数の内容に基づく音声データを生成し、送信部は、少ない文字数の内容に基づく音声データに基づく音声を外部装置に出力させるように音声データを外部装置に送信する、請求項1〜請求項4のいずれか1項に記載の情報処理装置。 In a certain aspect, the generation unit generates voice data based on the content of the number of characters smaller than the number of characters of the wording indicating the setting content acquired by the acquisition unit, and the transmission unit generates the voice data based on the voice data based on the content of the small number of characters. The information processing device according to any one of claims 1 to 4, wherein voice data is transmitted to the external device so as to be output to the external device.

ある局面において、外部装置から出力された音声により示される設定内容に基づくジョブを実行する第2実行部を備え、取得部は、ジョブの設定内容の変更を取得し、第2実行部は、取得部が取得した変更が反映された設定内容に基づくジョブを実行する。 In a certain aspect, a second execution unit that executes a job based on the setting contents indicated by the voice output from the external device is provided, the acquisition unit acquires the change of the job setting contents, and the second execution unit acquires. Execute the job based on the settings that reflect the changes acquired by the department.

本開示の別の局面に従うと、音声が入力されるマイクと、ジョブの設定内容を示す文言の音声がマイクに入力された場合に、該音声により示される設定内容に基づくジョブを実行する実行部と、ジョブの設定内容の変更を取得する取得部とを備え、実行部は、取得部に入力された変更が反映された設定内容に基づくジョブを実行する、情報処理装置が提供される。 According to another aspect of the present disclosure, when a microphone to which a voice is input and a voice of a word indicating a job setting content are input to the microphone, an execution unit that executes a job based on the setting content indicated by the voice. And an acquisition unit that acquires changes in the setting contents of the job, and the execution unit is provided with an information processing device that executes a job based on the setting contents that reflect the changes input to the acquisition unit.

ある局面において、設定内容の変更の取得部への入力をユーザーに促進する第2促進部をさらに備える。 In a certain aspect, a second promotion unit that prompts the user to input a change in the setting content to the acquisition unit is further provided.

本開示の別の局面に従うと、コンピューターに情報処理装置に実行させるジョブの設定内容の選択を受付ける選択受付手順と、選択された設定内容の決定を受付ける決定受付手順と、決定された設定内容を示す文言の音声を出力する出力手順とを実行させるためのプログラムが提供される。 According to another aspect of the present disclosure, the selection acceptance procedure for accepting the selection of the setting contents of the job to be executed by the computer to be executed by the information processing apparatus, the decision acceptance procedure for accepting the decision of the selected setting contents, and the determined setting contents are performed. A program for executing an output procedure for outputting the voice of the indicated wording is provided.

ある局面において、選択受付手順は、表示領域に表示された設定内容がユーザーにより指定されることにより、設定内容の選択を受付ける手順である。 In a certain aspect, the selection acceptance procedure is a procedure for accepting the selection of the setting content by designating the setting content displayed in the display area by the user.

ある局面において、プログラムは、コンピューターに、さらに、決定された設定内容に基づく音声データをサーバー装置に要求する要求手順をさらに実行させ、出力手順は、要求手順によりサーバー装置から受信した音声データでの音声を出力する手順であり、プログラムは、コンピューターに、さらに、要求手順によりサーバー装置から受信した音声データを所定領域に記憶させる記憶手順をさらに実行させる。 In one aspect, the program causes the computer to further perform a request procedure that further requests the server device for voice data based on the determined settings, and the output procedure is the voice data received from the server device by the request procedure. It is a procedure for outputting audio, and the program further causes the computer to perform a storage procedure for storing the audio data received from the server device in a predetermined area according to the request procedure.

ある局面において、プログラムは、コンピューターに、さらに、選択受付手順で選択された設定内容から、情報処理装置が実行可能なジョブに応じた設定内容に変更する変更手順を実行させる。 In a certain aspect, the program causes the computer to further execute a change procedure for changing the setting contents selected in the selection acceptance procedure to the setting contents according to the job that can be executed by the information processing apparatus.

本開示の別の局面に従うと、上述の情報処理装置を備える画像形成装置が提供される。 According to another aspect of the present disclosure, an image forming apparatus including the above-mentioned information processing apparatus is provided.

本開示の別の局面に従うと、ジョブの設定内容を取得する取得ステップと、取得ステップで取得した設定内容を示す文言の音声の音声データを生成する生成ステップと、音声データに基づく音声を外部装置に出力させるように音声データを外部装置に送信する送信ステップとを備える情報処理方法が提供される。 According to another aspect of the present disclosure, the acquisition step of acquiring the setting contents of the job, the generation step of generating the voice data of the voice of the wording indicating the setting contents acquired in the acquisition step, and the voice based on the voice data are externally deviced. An information processing method is provided that includes a transmission step of transmitting audio data to an external device so as to output the data.

本開示によれば、情報処理装置に不慣れなユーザーであっても、音声入力に基づくジョブを情報処理装置に実行させることができる。 According to the present disclosure, even a user who is unfamiliar with the information processing device can cause the information processing device to execute a job based on voice input.

この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。 The above and other objectives, features, aspects and advantages of the invention will become apparent from the following detailed description of the invention as understood in connection with the accompanying drawings.

本実施形態の画像形成システムの適用例を示す図である。It is a figure which shows the application example of the image formation system of this embodiment. MFPと、情報処理装置との関係を示す図である。It is a figure which shows the relationship between the MFP and the information processing apparatus. MFPのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware configuration of the MFP. 外部装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of an external device. メール送信ジョブにより送信する画像データの解像度を設定するための画面の一例である。This is an example of a screen for setting the resolution of image data transmitted by an email transmission job. メール送信ジョブにより送信する画像データのファイル形式を設定するための画面の一例である。This is an example of a screen for setting the file format of the image data to be sent by the mail sending job. メール送信ジョブにより送信する画像データの宛先を設定するための画面の一例である。This is an example of a screen for setting the destination of image data to be transmitted by an email transmission job. メール送信ボタンが表示される画面の一例である。This is an example of a screen on which the send mail button is displayed. 外部装置が表示する音声画面の一例である。This is an example of an audio screen displayed by an external device. 音声データの送信先が規定されているテーブルの一例である。This is an example of a table in which the destination of voice data is specified. MFP、外部装置との機能構成例を説明するための図である。It is a figure for demonstrating the functional configuration example with an MFP and an external device. 画像形成システムの処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of an image formation system. 第2実施形態のMFPおよび外部装置の処理フローである。It is a processing flow of the MFP and the external device of the 2nd Embodiment. 第2実施形態の外部装置が表示する音声画面の一例である。This is an example of an audio screen displayed by the external device of the second embodiment. 第3実施形態のMFPおよび外部装置の処理フローである。It is a processing flow of the MFP and the external device of the 3rd Embodiment. 第4実施形態のMFPと外部装置との機能構成例を示す図である。It is a figure which shows the functional configuration example of the MFP and the external device of 4th Embodiment. 第4実施形態のMFPおよび外部装置の処理フローである。It is a processing flow of the MFP and the external device of 4th Embodiment. 第4実施形態のMFPおよび外部装置の処理フローである。It is a processing flow of the MFP and the external device of 4th Embodiment. 変換テーブルの一例である。This is an example of a conversion table. 第6実施形態のMFPおよび外部装置の処理フローである。6 is a processing flow of the MFP and the external device of the sixth embodiment. 設定内容の変更を入力させるための画面の一例である。This is an example of a screen for inputting changes in setting contents. 第7実施形態のMFPと外部装置との機能構成例を示す図である。It is a figure which shows the functional configuration example of the MFP and the external device of 7th Embodiment. 第6実施形態のMFPおよび外部装置の処理フローを示す図である。It is a figure which shows the processing flow of the MFP and the external device of 6th Embodiment. ジョブの一覧が表示される画面である。This screen displays a list of jobs. メール送信ジョブに対応する音声画面の一例である。This is an example of an audio screen corresponding to an email transmission job. 3台のMFPの機能を示す図である。It is a figure which shows the function of three MFPs. コピー送信ジョブに対応する音声画面の一例である。This is an example of an audio screen corresponding to a copy transmission job. 第8実施形態の画像形成システムの構成例を示す図である。It is a figure which shows the structural example of the image formation system of 8th Embodiment. 第8実施形態の外部装置20Aの処理フローである。It is a processing flow of the external device 20A of the 8th embodiment.

本発明に基づいた実施形態における情報処理装置および画像形成装置等について、以下、図を参照しながら説明する。以下に説明する実施形態において、個数、量などに言及する場合、特に記載がある場合を除き、本発明の範囲は必ずしもその個数、量などに限定されない。同一の部品、相当部品に対しては、同一の参照番号を付し、重複する説明は繰り返さない場合がある。また、各実施形態における構成の少なくとも一部を適宜組み合わせて用いることは当初から予定されていることである。以下では、画像形成装置を、MFP10(multifunction peripheral/product/printer)という。 The information processing device, the image forming device, and the like in the embodiment based on the present invention will be described below with reference to the drawings. When the number, quantity, etc. are referred to in the embodiments described below, the scope of the present invention is not necessarily limited to the number, quantity, etc., unless otherwise specified. The same parts and equivalent parts may be given the same reference number, and duplicate explanations may not be repeated. In addition, it is planned from the beginning to use at least a part of the configurations in each embodiment in appropriate combinations. Hereinafter, the image forming apparatus is referred to as MFP10 (multifunction peripheral / product / printer).

[第1実施形態]
<本実施形態のMFPの適用例>
まず、MFPのある局面における適用例を説明する。本実施形態のMFPは、コピージョブ、プリントジョブ、スキャンジョブ、ファクスジョブ、およびメール送信ジョブを実行することができる。スキャンジョブは、ユーザーによりMFPにセットされた原稿に係る画像データをスキャンするジョブである。コピージョブはスキャンジョブでスキャンした画像データをMFPが印刷するジョブである。プリントジョブは、MFPが保存している画像データを印刷する等のジョブである。ファックジョブは、他の端末装置にファクス送信するジョブである。メール送信ジョブは、ユーザーにより指定された画像データを外部装置に送信するジョブである。外部装置は、PC(Personal Computer)、タブレット、スマートフォン、ユーザーが着脱可能なウェアラブルデバイス等である。また、外部装置は、スマートフォンなどユーザーが携帯可能となる携帯端末であることが好ましい。
[First Embodiment]
<Application example of the MFP of this embodiment>
First, an application example in a certain aspect of the MFP will be described. The MFP of the present embodiment can execute a copy job, a print job, a scan job, a fax job, and an email sending job. The scan job is a job of scanning image data related to a document set in the MFP by a user. The copy job is a job in which the MFP prints the image data scanned by the scan job. The print job is a job such as printing image data saved by the MFP. The fuck job is a job of faxing to another terminal device. The mail transmission job is a job for transmitting image data specified by the user to an external device. The external device is a PC (Personal Computer), a tablet, a smartphone, a wearable device that can be attached and detached by a user, and the like. Further, the external device is preferably a mobile terminal such as a smartphone that can be carried by the user.

本実施形態のMFPは、ユーザーによるジョブの設定内容の入力を受付ける。ジョブの設定内容は、ジョブの種別と、該ジョブの設定項目とを含む。MFP10は、後述する操作パネル(つまり、タッチパネル)に設定画面を表示する。MFP10は、設定画面に対するユーザーの手入力、およびユーザーによる音声入力に基づいて、ジョブの設定内容の入力を受付ける。また、一般的に、ジョブの設定内容の入力は、音声入力の方が設定画面に対する手入力よりも、ユーザーにとって負担が軽い。 The MFP of the present embodiment accepts the input of the job setting contents by the user. The job setting contents include the job type and the setting items of the job. The MFP 10 displays a setting screen on an operation panel (that is, a touch panel) described later. The MFP 10 accepts the input of the job setting contents based on the user's manual input to the setting screen and the user's voice input. Further, in general, inputting the setting contents of a job is less burdensome for the user to input by voice than by manually inputting to the setting screen.

ユーザーは設定画面を視認して、該設定画面に対して手入力することにより、ユーザーは、該設定に基づいた1回目のジョブをMFPに実行させる。その後、ユーザーは、該設定と同一の設定の2回目のジョブを、音声入力によりMFPに実行させたい場合がある。なお、「2回目のジョブ」は、例えば、1回目のジョブより後に実行されるジョブをいう。 The user visually recognizes the setting screen and manually inputs to the setting screen, so that the user causes the MFP to execute the first job based on the setting. After that, the user may want the MFP to execute a second job with the same settings as the settings by voice input. The "second job" means, for example, a job executed after the first job.

ここで、MFPの扱いに慣れているユーザー(以下、「第1ユーザー」ともいう。)であれば、設定内容を覚えている。したがって、第1ユーザーは、設定画面を視認しなくても、該設定画面に表示される設定内容の文言を音声で発することができる。その結果、第1ユーザーは、2回目のジョブを、音声入力によりMFPに実行させることができる。 Here, if the user is accustomed to handling the MFP (hereinafter, also referred to as "first user"), he / she remembers the setting contents. Therefore, the first user can utter the wording of the setting content displayed on the setting screen without visually recognizing the setting screen. As a result, the first user can cause the MFP to execute the second job by voice input.

しかし、MFPに不慣れなユーザー(以下、「第2ユーザー」ともいう。)もいる。このような第2ユーザーは、設定内容を覚えていない。第2ユーザーは、設定画面を視認した場合には、該設定画面に表示される設定内容の文言の音声を発することができる。一方、第2ユーザーは、設定画面を視認しなければ、該設定画面に表示される設定内容の文言の音声を発することができない。例えば、設定内容に「解像度」といった難解な文言がある場合には、第2ユーザーは、設定画面の「解像度」という文言を視認せずに、「解像度」という文言の音声を発することができない。第2ユーザーが、設定内容の文言の音声を適切に発することができない場合には、音声入力に基づいた2回目のジョブをMFPに実行させることができないという問題が生じ得る。このように、例えば、第2ユーザーが、1回目のジョブのために入力した設定内容を忘れた場合には、2回目のジョブを音声入力によりMFPに実行させることができないという問題が生じ得る。また、第2ユーザーが、1回目のジョブのために設定画面に入力した設定項目を理解していない場合等にも、2回目のジョブを音声入力によりMFPに実行させることができないという問題が生じ得る。 However, some users are unfamiliar with MFPs (hereinafter, also referred to as "second users"). Such a second user does not remember the settings. When the second user visually recognizes the setting screen, the second user can emit a voice of the wording of the setting content displayed on the setting screen. On the other hand, the second user cannot emit the voice of the wording of the setting content displayed on the setting screen unless he / she visually recognizes the setting screen. For example, when there is an esoteric word such as "resolution" in the setting content, the second user cannot emit the voice of the word "resolution" without visually recognizing the word "resolution" on the setting screen. If the second user cannot properly emit the voice of the wording of the setting content, there may be a problem that the MFP cannot execute the second job based on the voice input. As described above, for example, if the second user forgets the setting contents input for the first job, there may be a problem that the MFP cannot execute the second job by voice input. In addition, even if the second user does not understand the setting items entered in the setting screen for the first job, there arises a problem that the MFP cannot execute the second job by voice input. obtain.

そこで、本実施形態のMFPは、例えば、第2ユーザーが、1回目のジョブのために入力した設定内容を忘れた場合および第2ユーザーが、1回目のジョブのために入力した設定内容を理解していない場合等であっても、第2ユーザーは、該設定内容での2回目のジョブを音声入力によりMFPに実行させることができる。 Therefore, the MFP of the present embodiment understands, for example, the setting contents input by the second user for the first job and the setting contents input by the second user for the first job. Even if this is not the case, the second user can cause the MFP to execute the second job with the set contents by voice input.

このように、本実施形態の「第2ユーザー」は、MFP10の設定項目を、設定画面を視認しながらであれば理解することができる一方、設定画面を視認しない場合には、該設定項目の文言を発生することができないユーザーであるとする。 As described above, the "second user" of the present embodiment can understand the setting item of the MFP 10 while visually recognizing the setting screen, but when the setting screen is not visually recognized, the setting item of the setting item is understood. Suppose you are a user who cannot generate wording.

図1は本実施形態の画像形成システム1000の適用例を示す図である。図1を参照して、画像形成システム1000は、MFP10と外部装置20とを備える。図1の例では、1回目のジョブおよび2回目のジョブの種別は、共に、「スキャンジョブ」であるとし、設定内容は、「画像の解像度」および「スキャンジョブ」であるとし、解像度は、「300×300dpi」であるとする。 FIG. 1 is a diagram showing an application example of the image forming system 1000 of the present embodiment. With reference to FIG. 1, the image forming system 1000 includes an MFP 10 and an external device 20. In the example of FIG. 1, the types of the first job and the second job are both "scan job", the setting contents are "image resolution" and "scan job", and the resolution is It is assumed that it is "300 x 300 dpi".

まず、ステップ(1)において、ユーザーは、1回目のジョブをMFP10に実行させるために、1回目のジョブの設定内容をMFP10に対して設定画面から入力する。設定内容は、「300×300dpi」の解像度であるとする。MFP10は、入力された設定内容を取得する。 First, in step (1), the user inputs the setting contents of the first job to the MFP 10 from the setting screen in order to cause the MFP 10 to execute the first job. It is assumed that the setting content has a resolution of "300 x 300 dpi". The MFP 10 acquires the input setting contents.

次に、ユーザーは設定内容をMFP10に入力した後に、ジョブを開始させる開始操作をMFP10に行う。ステップ(2)において、MFP10が開始操作を受付けたときに、MFP10は、ステップ(1)において入力した設定内容に基づいたジョブ(1回目のジョブ)を実行する。 Next, after inputting the setting contents to the MFP 10, the user performs a start operation to start the job on the MFP 10. In step (2), when the MFP 10 accepts the start operation, the MFP 10 executes a job (first job) based on the setting contents input in step (1).

次に、MFP10は、ユーザーにより入力された設定内容の文言の音声を合成することにより音声を生成する。図1の例では、設定内容は、「画像の解像度」および「スキャンジョブ」であることから、MFP10は、「かいぞうど さんびゃくでぃーぴーあい すきゃんじょぶ」という音声を生成する。その後、MFP10は、この音声に係る音声データを生成する。ステップ(3)において、MFP10は、音声データを外部装置20に対して送信する。この送信する手段は、本実施形態の画像形成システム1000が導入されてない外部装置20が有する手段、つまり、外部装置20の既存の手段であることが好ましい。この手段は、例えば、NFC(Near Field Communication)、およびメール等である。外部装置20は、この音声データを受信する。外部装置20は、該受信した音声データを所定の記憶領域に記憶させる。 Next, the MFP 10 generates a voice by synthesizing the voice of the wording of the setting content input by the user. In the example of FIG. 1, since the setting contents are "image resolution" and "scan job", the MFP10 generates the sound "Kaizoudsanbyakudipeeaiskanjobu". .. After that, the MFP 10 generates voice data related to this voice. In step (3), the MFP 10 transmits audio data to the external device 20. It is preferable that the means for transmitting is a means included in the external device 20 to which the image forming system 1000 of the present embodiment is not introduced, that is, an existing means of the external device 20. This means is, for example, NFC (Near Field Communication), mail, or the like. The external device 20 receives this voice data. The external device 20 stores the received voice data in a predetermined storage area.

その後、ユーザーは、2回目のジョブをMFP10に対して音声入力により実行させたいと思ったとする。しかし、第2ユーザーは、MFP10に対して不慣れであるため、MFP10の設定画面を見ることなく1回目のジョブの設定内容を思い出すことができない。また、第2ユーザーは、MFP10に対して不慣れであるため、MFP10の設定画面を見ることなく1回目のジョブの設定内容を理解できない場合もある。そこで、ステップ(4)において、ユーザーは、外部装置20に対して音声出力操作を行う。音声出力操作は、ステップ(3)においてMFP10から送信された音声データに基づく音声をMFP10が出力するための操作である。本実施携帯では、音声データに基づく音声は、機械音声、または合成音声であるとする。 After that, suppose that the user wants the MFP 10 to execute the second job by voice input. However, since the second user is unfamiliar with the MFP10, he / she cannot remember the setting contents of the first job without looking at the setting screen of the MFP10. Further, since the second user is unfamiliar with the MFP 10, the second user may not be able to understand the setting contents of the first job without looking at the setting screen of the MFP 10. Therefore, in step (4), the user performs a voice output operation on the external device 20. The voice output operation is an operation for the MFP 10 to output a voice based on the voice data transmitted from the MFP 10 in step (3). In the present mobile phone, the voice based on the voice data is assumed to be machine voice or synthetic voice.

ステップ(5)において、外部装置20が、音声出力操作を受付けたときに、音声データに基づく機械音声を出力する。図1の例では、外部装置20が、「かいぞうど さんびゃくでぃーぴーあい すきゃんじょぶ」という機械音声を出力する。図1では、「かいぞうど さんびゃくでぃーぴーあい すきゃんじょぶ」という機械音声を、「かいぞうど・・・」というように省略して記載されている。外部装置20は、該機械音声の入力を受付ける。 In step (5), when the external device 20 receives the voice output operation, it outputs the machine voice based on the voice data. In the example of FIG. 1, the external device 20 outputs a machine voice of "Kaizoudo sanbyakudipeeaiskanjobu". In FIG. 1, the machine voice "Kaizoudo-sanbyakudipeeaiskanjobu" is abbreviated as "Kaizoudo ...". The external device 20 receives the input of the machine voice.

ステップ(6)において、MFP10は、該機械音声の入力を受付けると、MFP10は、機械音声に対して音声認識処理を実行する。MFP10は該音声認識処理の結果に基づいたジョブを実行する。つまり、ステップ(6)において、MFP10は、該機械音声に基づくジョブを実行する。図1の例では、MFP10は、解像度が「300×300dpi」であるスキャンジョブを実行する。 In step (6), when the MFP 10 receives the input of the machine voice, the MFP 10 executes the voice recognition process for the machine voice. The MFP 10 executes a job based on the result of the voice recognition process. That is, in step (6), the MFP 10 executes a job based on the machine voice. In the example of FIG. 1, the MFP 10 executes a scan job having a resolution of "300 x 300 dpi".

図1の例であると、1回目のジョブのために入力した設定内容を第2ユーザーが忘れた等の場合であっても、該設定内容での2回目のジョブを音声入力によりMFPに実行させることができる。 In the example of FIG. 1, even if the second user forgets the setting contents input for the first job, the second job with the setting contents is executed in the MFP by voice input. Can be made to.

<情報処理装置とMFPとの関係>
図2は、MFP10と、本開示の情報処理装置100との関係を示す図である。図2に示すように、MFP10は、概念的に、本開示の情報処理装置100を含む。また、本開示の情報処理装置100は、MFPに限られず、他の装置に適用するようにしてもよい。他の装置は、例えば、PC(Personal Computer)、タブレット、スマートフォン、ユーザーが着脱可能なウェアラブルデバイス等である。
<Relationship between information processing equipment and MFP>
FIG. 2 is a diagram showing the relationship between the MFP 10 and the information processing device 100 of the present disclosure. As shown in FIG. 2, the MFP 10 conceptually includes the information processing device 100 of the present disclosure. Further, the information processing device 100 of the present disclosure is not limited to the MFP, and may be applied to other devices. Other devices include, for example, PCs (Personal Computers), tablets, smartphones, wearable devices that can be attached and detached by the user, and the like.

<MFP10のハードウェア構成例>
図3は、MFP10のハードウェア構成の一例を表したブロック図である。図3を参照して、MFP10は、コントローラー31と、固定記憶装置32と、短距離無線IF(Inter Face)33と、スキャンユニット12と、操作パネル34と、給紙トレイ14と、マイク16と、画像形成ユニット11と、プリンタコントローラ35と、ネットワークIF36と、スピーカー37とを有する。コントローラー31には、固定記憶装置32と、短距離無線IF(Inter Face)33と、スキャンユニット12と、操作パネル34と、給紙トレイ14と、マイク16と、画像形成ユニット11と、プリンタコントローラ35と、ネットワークIF36と、スピーカー37がバス38を介して接続されている。
<Hardware configuration example of MFP10>
FIG. 3 is a block diagram showing an example of the hardware configuration of the MFP 10. With reference to FIG. 3, the MFP 10 includes a controller 31, a fixed storage device 32, a short-range wireless IF (Inter Face) 33, a scan unit 12, an operation panel 34, a paper feed tray 14, and a microphone 16. It has an image forming unit 11, a printer controller 35, a network IF 36, and a speaker 37. The controller 31 includes a fixed storage device 32, a short-range wireless IF (Inter Face) 33, a scan unit 12, an operation panel 34, a paper feed tray 14, a microphone 16, an image forming unit 11, and a printer controller. The 35, the network IF36, and the speaker 37 are connected via the bus 38.

コントローラー31は、CPU(Central Processing Unit)311と、制御プログラムの格納されたROM(Read Only Memory)312と、作業用のS−RAM(Static Random Access Memory)313と、画像形成に関わる各種の設定を記憶するバッテリバックアップされたNV−RAM(Non-Volatile RAM:不揮発性メモリ)314とを有する。CPU311と、ROM312と、S−RAM313と、画像形成に関わる各種の設定を記憶するバッテリバックアップされたNV−RAM(Non-Volatile RAM:不揮発性メモリ)314とは、バス38を介して接続されている。 The controller 31 includes a CPU (Central Processing Unit) 311, a ROM (Read Only Memory) 312 in which a control program is stored, a working S-RAM (Static Random Access Memory) 313, and various settings related to image formation. It has a battery-backed NV-RAM (Non-Volatile RAM) 314 that stores the data. The CPU 311 and ROM 312, the S-RAM 313, and the battery-backed NV-RAM (Non-Volatile RAM) 314 that stores various settings related to image formation are connected via the bus 38. There is.

操作パネル34は、表示装置342と入力装置344とを有する。表示装置342は、設定画面等の様々な画像、および様々な情報を表示する。入力装置344は、ユーザーからの手入力の操作等を受付ける。操作パネル34は、表示装置342と入力装置344とが一体的に構成されている。操作パネル34は、典型的には、タッチパネルである。 The operation panel 34 has a display device 342 and an input device 344. The display device 342 displays various images such as a setting screen and various information. The input device 344 accepts manual input operations and the like from the user. The operation panel 34 is integrally composed of a display device 342 and an input device 344. The operation panel 34 is typically a touch panel.

ネットワークIF36は、ネットワーク39を介して接続された外部装置20等との間で各種の情報を送受信する。 The network IF36 transmits and receives various information to and from the external device 20 and the like connected via the network 39.

プリンタコントローラ35は、ネットワークIF36により受信したプリントデータから複写画像を生成する。画像形成ユニット11は、複写画像を用紙上に形成する。 The printer controller 35 generates a copy image from the print data received by the network IF36. The image forming unit 11 forms a copied image on paper.

固定記憶装置32は、典型的には、ハードディスク装置である。固定記憶装置32には、各種のデータが記憶されている。 The fixed storage device 32 is typically a hard disk device. Various types of data are stored in the fixed storage device 32.

また、コントローラー31は、たとえば、少なくとも1つの集積回路によって構成されてもよい。集積回路は、たとえば、少なくとも1つのCPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、少なくとも1つのASIC(Application Specific Integrated Circuit)、少なくとも1つのFPGA(Field Programmable Gate Array)、またはそれらの組み合わせなどによって構成されるようにしてもよい。 Further, the controller 31 may be composed of, for example, at least one integrated circuit. The integrated circuit includes, for example, at least one CPU (Central Processing Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), at least one ASIC (Application Specific Integrated Circuit), and at least one FPGA (Field Programmable Gate Array). ) Or a combination thereof.

<外部装置20のハードウェア構成例>
図4は、外部装置20のハードウェア構成の一例を表したブロック図である。図4を参照して、外部装置20は、コントローラー41と、操作パネル44と、マイク46と、ネットワークIF46と、スピーカー47とを有する。コントローラー41には、と、短距離無線IF(Inter Face)44と、スキャンユニット12と、操作パネル44と、マイク16と、ネットワークIF46と、スピーカー47がバス48を介して接続されている。
<Hardware configuration example of external device 20>
FIG. 4 is a block diagram showing an example of the hardware configuration of the external device 20. With reference to FIG. 4, the external device 20 includes a controller 41, an operation panel 44, a microphone 46, a network IF 46, and a speaker 47. A short-range wireless IF (Inter Face) 44, a scan unit 12, an operation panel 44, a microphone 16, a network IF 46, and a speaker 47 are connected to the controller 41 via a bus 48.

コントローラー41は、CPU411と、制御プログラムの格納されたROM412と、作業用のS−RAM413とを有する。CPU411と、ROM412と、S−RAM414とは、バス48を介して接続されている。 The controller 41 has a CPU 411, a ROM 412 in which a control program is stored, and an S-RAM 413 for work. The CPU 411, the ROM 412, and the S-RAM 414 are connected via the bus 48.

操作パネル44は、表示装置442と入力装置444とを有する。表示装置442は、様々な画面等の様々な画像、および様々な情報を表示する。入力装置444は、ユーザーからの手入力の操作等を受付ける。操作パネル44は、表示装置442と入力装置444とが一体的に構成されている。操作パネル44は、典型的には、タッチパネルである。 The operation panel 44 has a display device 442 and an input device 444. The display device 442 displays various images such as various screens and various information. The input device 444 accepts manual input operations and the like from the user. The operation panel 44 is integrally composed of a display device 442 and an input device 444. The operation panel 44 is typically a touch panel.

ネットワークIF46は、ネットワーク39を介して接続されたMFP10等との間で各種の情報を送受信する。 The network IF46 transmits and receives various information to and from the MFP 10 and the like connected via the network 39.

また、コントローラー41は、たとえば、少なくとも1つの集積回路によって構成されてもよい。集積回路は、たとえば、少なくとも1つのCPU、MPU、少なくとも1つのASIC、少なくとも1つのFPGA、またはそれらの組み合わせなどによって構成されるようにしてもよい。 Further, the controller 41 may be composed of, for example, at least one integrated circuit. The integrated circuit may be composed of, for example, at least one CPU, MPU, at least one ASIC, at least one FPGA, or a combination thereof.

<設定画面>
次に、MFP10の表示装置342が表示する設定画面を説明する。ユーザーが、メニュー画面を表示させる操作をMFP10の入力装置344に行うと、表示装置342はメニュー画面(特に図示せず)を表示する。メニュー画面は、例えば、コピージョブの画像、プリントジョブの画像、スキャンジョブの画像、ファクスジョブの画像、およびメール送信ジョブの画像が表示される。MFP10は、これらの画像のうちユーザーにより決定された画像に対応するジョブを実行する。例えば、ユーザーが、メール送信ジョブの画像を決定した場合には、MFP10は、メール送信ジョブを実行する。
<Setting screen>
Next, the setting screen displayed by the display device 342 of the MFP 10 will be described. When the user performs an operation to display the menu screen on the input device 344 of the MFP 10, the display device 342 displays the menu screen (not particularly shown). On the menu screen, for example, an image of a copy job, an image of a print job, an image of a scan job, an image of a fax job, and an image of a mail sending job are displayed. The MFP 10 executes a job corresponding to an image determined by the user among these images. For example, when the user determines the image of the mail sending job, the MFP 10 executes the mail sending job.

図5〜図8は、メール送信ジョブのユーザーによる設定を行うための設定画面の一例である。コントローラー31は、図5〜図8の設定画面を、表示装置342の表示領域342Aに表示させる。ユーザーは、図5〜図8の設定画面において、設定内容を入力する事項が、図1のステップ(1)に対応する。 5 to 8 are examples of setting screens for setting by the user of the mail transmission job. The controller 31 displays the setting screens of FIGS. 5 to 8 in the display area 342A of the display device 342. The matter of inputting the setting contents on the setting screens of FIGS. 5 to 8 corresponds to the step (1) of FIG.

図5は、メール送信ジョブにより送信する画像データの解像度を設定するための画面である。図6は、メール送信ジョブにより送信する画像データのファイル形式を設定するための画面である。図7は、メール送信ジョブにより送信する画像データの宛先を設定するための画面である。図8は、メール送信ボタンが表示される画面である。メール送信ボタンは、ユーザーによる設定でメール送信ジョブを実行させるためのボタンである。 FIG. 5 is a screen for setting the resolution of the image data transmitted by the mail transmission job. FIG. 6 is a screen for setting the file format of the image data transmitted by the mail transmission job. FIG. 7 is a screen for setting the destination of the image data to be transmitted by the mail transmission job. FIG. 8 is a screen on which the mail transmission button is displayed. The mail sending button is a button for executing the mail sending job by the setting by the user.

図5の設定画面では、解像度に関する画像が表示される。図5の例では、200×200dpiの解像度に関する画像、300×300dpiの解像度に関する画像、400×400dpiの解像度に関する画像、600×600dpiの解像度に関する画像と、およびOKボタン504とが表示されている。 On the setting screen of FIG. 5, an image related to the resolution is displayed. In the example of FIG. 5, an image having a resolution of 200 × 200 dpi, an image having a resolution of 300 × 300 dpi, an image having a resolution of 400 × 400 dpi, an image having a resolution of 600 × 600 dpi, and an OK button 504 are displayed.

図5に示される解像度に関する複数の画像のうち、ユーザーにより選択された(つまり、ユーザーによりタッチされた)画像の枠線が太く表示される。図5の例では、300×300dpiの解像度に関する画像503が選択されているとする。また、解像度に関する画像が選択されている状態で、ユーザーが、OKボタン504をタッチすると、MFP10は、該選択されている画像に対応する解像度を設定する。図5の例では、MFP10は、300×300dpiの解像度を設定する。また、解像度に関する画像が選択されている状態で、ユーザーが、OKボタン504をタッチすると、表示装置342は、図6の設定画面を表示する。 Of the plurality of images with respect to resolution shown in FIG. 5, the border of the image selected by the user (that is, touched by the user) is displayed thickly. In the example of FIG. 5, it is assumed that the image 503 with respect to the resolution of 300 × 300 dpi is selected. Further, when the user touches the OK button 504 while the image related to the resolution is selected, the MFP 10 sets the resolution corresponding to the selected image. In the example of FIG. 5, the MFP 10 sets a resolution of 300 × 300 dpi. Further, when the user touches the OK button 504 while the image related to the resolution is selected, the display device 342 displays the setting screen of FIG.

図6の設定画面では、画像データのファイル形式に関する画像が表示される。図6の例では、PDF(Portable Document Format)形式に関する画像、コンパクトPDF形式に関する画像等が表示されている。 On the setting screen of FIG. 6, an image related to the file format of the image data is displayed. In the example of FIG. 6, an image related to the PDF (Portable Document Format) format, an image related to the compact PDF format, and the like are displayed.

図6に示されるファイル形式に関する複数の画像のうち、ユーザーにより選択された(つまり、ユーザーによりタッチされた)画像の枠線が太く表示される。図6の例では、コンパクトPDFに関する画像506が選択されているとする。また、ファイル形式に関する画像が選択されている状態で、ユーザーが、OKボタン504をタッチすると、MFP10は、該選択されている画像に対応するファイル形式を設定する。図6の例では、MFP10は、コンパクトPDFのファイル形式を設定する。また、ファイル形式に関する画像が選択されている状態で、ユーザーが、OKボタン504をタッチすると、表示装置342は、図7の設定画面を表示する。 Of the plurality of images related to the file format shown in FIG. 6, the border of the image selected by the user (that is, touched by the user) is displayed thickly. In the example of FIG. 6, it is assumed that the image 506 relating to the compact PDF is selected. Further, when the user touches the OK button 504 while the image related to the file format is selected, the MFP 10 sets the file format corresponding to the selected image. In the example of FIG. 6, the MFP 10 sets the file format of the compact PDF. Further, when the user touches the OK button 504 while the image related to the file format is selected, the display device 342 displays the setting screen of FIG. 7.

図7の設定画面は、画像データの宛先を設定するための画面である。図7の設定画面は、表示領域508と、ソフトキーボード510とを含む。図7の例でのソフトキーボード510は、「a〜z」の英字、「1〜9」の数字、および記号等に対応する複数のソフトキーから構成される。複数の文字は、例えば、それぞれの数字のソフトキー、および「a〜z」それぞれの文字のソフトキー等を含む。 The setting screen of FIG. 7 is a screen for setting the destination of the image data. The setting screen of FIG. 7 includes a display area 508 and a soft keyboard 510. The soft keyboard 510 in the example of FIG. 7 is composed of a plurality of soft keys corresponding to letters "a to z", numbers "1 to 9", symbols, and the like. The plurality of letters include, for example, softkeys of the respective numbers, softkeys of the letters "az", and the like.

ユーザーによりソフトキーがタッチされると、表示領域508に、該タッチされたソフトキーに対応する英字、数字、記号のいずれかが表示される。図7の例では、ユーザーは、ソフトキーボード510を用いて、「user@test.jp」を入力したとする。この場合には、表示領域508に「user@test.jp」が表示される。ユーザーがOKボタン504をタッチしたときに、MFP10は、表示領域508に表示されている情報(つまり、ユーザーがソフトキーボード510に入力した情報)を、メールの宛先として設定する。なお、表示領域508に表示されている情報が、メールの宛先とはならない情報である場合において、ユーザーがOKボタン504をタッチしたときには、宛先設定できない旨をユーザーに示すポップアップ画面(特に図示せず)が表示される。 When the softkey is touched by the user, any of the letters, numbers, and symbols corresponding to the touched softkey is displayed in the display area 508. In the example of FIG. 7, it is assumed that the user inputs "user@test.jp" using the soft keyboard 510. In this case, "user@test.jp" is displayed in the display area 508. When the user touches the OK button 504, the MFP 10 sets the information displayed in the display area 508 (that is, the information input by the user in the soft keyboard 510) as the mail destination. In addition, when the information displayed in the display area 508 is information that does not serve as the destination of the mail, when the user touches the OK button 504, a pop-up screen (not shown in particular) indicating to the user that the destination cannot be set. ) Is displayed.

図7の設定画面のOB再生ボタン504がタッチされた場合において、MFP10が、適切なアドレス先を設定した場合には、MFP10は、図8の画面を表示する。図8の画面には、表示領域516と、第1ボタン512と、第2ボタン514とが表示される。 When the OB playback button 504 on the setting screen of FIG. 7 is touched and the MFP 10 sets an appropriate address destination, the MFP 10 displays the screen of FIG. On the screen of FIG. 8, the display area 516, the first button 512, and the second button 514 are displayed.

表示領域516は、図7の設定画面で設定された宛先が表示される。ユーザーは、表示領域516に表示された宛先を視認することで、図7の設定画面で設定した宛先が正確か否かを確認することができる。第1ボタン512の領域内には「音声データ生成、出力 E−mail送信」という文字が表示されている。第1ボタン512は、MFP10が画像をメール送信すること、およびMFP10が図5〜図7の画面で設定された設定項目の文字の音声の音声データをユーザーの外部装置20に送信することを示すボタンである。ユーザーにより第1ボタン512が操作されると、MFP10は、設定内容に基づくジョブを実行する。図5〜図8の例では、MFP10は、メール送信ジョブを実行する。これとともに、MFP10は、設定内容に係る文字の音声の音声データを生成する。その後、MFPは、音声データを外部装置20に送信する。 In the display area 516, the destination set on the setting screen of FIG. 7 is displayed. By visually recognizing the destination displayed in the display area 516, the user can confirm whether or not the destination set on the setting screen of FIG. 7 is accurate. In the area of the first button 512, the characters "voice data generation, output E-mail transmission" are displayed. The first button 512 indicates that the MFP 10 sends an image by e-mail, and that the MFP 10 sends the voice data of the characters of the setting items set on the screens of FIGS. 5 to 7 to the user's external device 20. It's a button. When the first button 512 is operated by the user, the MFP 10 executes a job based on the setting contents. In the example of FIGS. 5 to 8, the MFP 10 executes the mail transmission job. At the same time, the MFP 10 generates voice data of the voice of the characters related to the setting contents. After that, the MFP transmits the voice data to the external device 20.

ユーザーにより第2ボタン514が操作された場合には、MFP10は、設定内容に基づくジョブを実行する。また、ユーザーにより第2ボタン514が操作された場合には、MFP10は、音声データの生成および音声データの送信を実行しない。 When the second button 514 is operated by the user, the MFP 10 executes a job based on the setting contents. Further, when the second button 514 is operated by the user, the MFP 10 does not execute the generation of the voice data and the transmission of the voice data.

このように、第1ボタン512または第2ボタン514がユーザーにより操作された場合には、MFP10は、ユーザーにより設定されたジョブを実行する。このジョブの実行は、図1のステップ(2)に対応する。 In this way, when the first button 512 or the second button 514 is operated by the user, the MFP 10 executes the job set by the user. Execution of this job corresponds to step (2) in FIG.

また、第2ボタン514がユーザーにより操作された場合には、MFP10は、ユーザーにより設定された設定内容を示す文字の音声の音声データを外部装置20に送信する。この音声データの送信は、図1のステップ(3)に対応する。 Further, when the second button 514 is operated by the user, the MFP 10 transmits the voice data of the voice of the character indicating the setting content set by the user to the external device 20. The transmission of this voice data corresponds to step (3) of FIG.

図5〜図7の例では、MFP10は、解像度が300×300dpiであり、ファイル形式がコンパクトPDF形式であり、宛先がuser@test.jpであるという設定を行った。さらに、MFP10は、メール送信ジョブを行った。したがって、MFP10は、「かいぞうど、さんびゃくでぃぴーあい、ふぁいるけいしき、こんぱくとぴーでぃーえふ、あてさき、あるふぁべっと、ゆーえすいーあーる、すうじ、いち、あっとまーく、あるふぁべっと、てぃーいーえすてぃーどっとじぇーぴー、に、いーめーるそうしんする」という音声を生成する。MFP10は、最小単位の複数の音声を記憶する。最小単位の音声は、設定内容の最小単位の文言の音声である。例えば、「いち」、「に」、「あてさき」、「かいぞうど」等である。MFP10は、これらの最小単位の音声を合成することにより、音声を生成する。その後、MFP10は、この音声に係る音声データを生成する。 In the examples of FIGS. 5 to 7, the MFP 10 is set to have a resolution of 300 × 300 dpi, a file format of a compact PDF format, and a destination of user@test.jp. Further, the MFP 10 has performed a mail transmission job. Therefore, the MFP10 is "Kaizoud, Sanbyakudipeeai, File Keishiki, Konpakutopediefu, Atesaki, Arufabetto, Yuesuiaru, Suuji," Ichi, Attomark, Arufabetto, Teeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeee The MFP 10 stores a plurality of voices in the smallest unit. The minimum unit voice is the voice of the wording of the minimum unit of the setting content. For example, "Ichi", "Ni", "Atesaki", "Kaizoudo" and the like. The MFP 10 generates voice by synthesizing the voice of these minimum units. After that, the MFP 10 generates voice data related to this voice.

なお、変形例として、MFP10は、複数の最小単位の音声のデータを記憶するようにしてもよい。MFP10は、複数の最小単位の音声のデータを組合せることにより、音声に係る音声データを生成するようにしてもよい。 As a modification, the MFP 10 may store a plurality of minimum units of audio data. The MFP 10 may generate voice data related to voice by combining a plurality of minimum units of voice data.

また、変形例として、MFP10は、複数の最小単位の音声のデータを記憶しないようにしてもよい。MFP10は、最小単位の音声のデータを用いずに、他の手法で設定内容の文言に基づく音声データを直接生成するようにしてもよい。 Further, as a modification, the MFP 10 may not store a plurality of minimum units of audio data. The MFP 10 may directly generate voice data based on the wording of the set contents by another method without using the voice data of the minimum unit.

MFP10は、生成した音声データを外部装置20に送信する。外部装置20は、該音声データを記憶する。また、ユーザーが、外部装置20に対して所定の操作を行ったときに、該音声データの音声を出力させるための音声画面を、外部装置20は表示する。 The MFP 10 transmits the generated voice data to the external device 20. The external device 20 stores the voice data. Further, when the user performs a predetermined operation on the external device 20, the external device 20 displays an audio screen for outputting the audio of the audio data.

図9は、外部装置20が表示する音声画面の一例である。コントローラー41は、図9の音声画面を、表示装置442の表示領域442Aに表示させる。図9の音声画面は、音声内容502と、再生ボタン504とを含む。図9の音声内容502は、「解像度:300dpi、コンパクトPDF、宛先:user1@test.jp、E−mail送信」という内容である。また、図9の音声画面で表示される音声内容は、ユーザーにより選択可能とされている。また、図9の音声画面では、1つの音声内容が表示されているが、2以上の音声内容が表示されるようにしてもよい。 FIG. 9 is an example of an audio screen displayed by the external device 20. The controller 41 displays the audio screen of FIG. 9 in the display area 442A of the display device 442. The audio screen of FIG. 9 includes an audio content 502 and a play button 504. The audio content 502 in FIG. 9 has the content of "resolution: 300 dpi, compact PDF, destination: user1@test.jp, E-mail transmission". Further, the audio content displayed on the audio screen of FIG. 9 can be selected by the user. Further, although one audio content is displayed on the audio screen of FIG. 9, two or more audio contents may be displayed.

ユーザーが、音声内容502を選択し(例えば、ユーザーが音声内容502をタッチし)、再生ボタン504をタッチする。ユーザーが音声内容502を選択しかつ再生ボタン504への操作が、図1のステップ(4)の音声出力操作に対応する。 The user selects the audio content 502 (for example, the user touches the audio content 502) and touches the play button 504. The operation of the user selecting the audio content 502 and pressing the play button 504 corresponds to the audio output operation of step (4) of FIG.

ユーザーにより再生ボタン504が操作された場合には、外部装置20は、ユーザーにより選択された音声内容502に係る音声を出力する。ここでは、外部装置20は、「かいぞうど、さんびゃくでぃぴーあい、ふぁいるけいしき、こんぱくとぴーでぃーえふ、あてさき、あるふぁべっと、ゆーえすいーあーる、すうじ、いち、あっとまーく、あるふぁべっと、てぃーいーえすてぃーどっとじぇーぴー、に、いーめーるそうしんする」という音声を出力する。この音声の出力が、図1のステップ(5)に対応する。 When the play button 504 is operated by the user, the external device 20 outputs the sound related to the sound content 502 selected by the user. Here, the external device 20 is "Kaizoud, Sanbyakudipeeai, File Keishiki, Konpakutopediefu, Atesaki, Arufabetto, Yuesuiaru, Yuesuiaru," Outputs the voice "Suji, Ichi, Attomark, Arufabetto, Teeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeee". This audio output corresponds to step (5) in FIG.

MFP10のマイク16に、この音声が入力されると、MFP10は、該音声に対して音声認識を実行する。MFP10は、この音声認識により、ジョブの設定内容を特定する。MFP10は、この音声認識の結果に基づいたジョブを実行する。ここでは、MFP10は、解像度が300×300dpiであり、ファイル形式がコンパクトPDF形式である画像を、user@test.jpという宛先に対して送信する。この送信は、メール送信ジョブであり、MFP10がこのメール送信ジョブを実行することが図1のステップ(6)に対応する。 When this voice is input to the microphone 16 of the MFP 10, the MFP 10 executes voice recognition for the voice. The MFP 10 specifies the setting contents of the job by this voice recognition. The MFP 10 executes a job based on the result of this voice recognition. Here, the MFP 10 transmits an image having a resolution of 300 × 300 dpi and a file format of the compact PDF format to a destination of user@test.jp. This transmission is a mail transmission job, and the MFP 10 executing this mail transmission job corresponds to step (6) in FIG.

<音声データの送信先>
図1のステップ(3)および図5〜図8でも説明したように、MFP10は、音声データを送信する。次に、この音声データの送信先を説明する。図10は、音声データの送信先が規定されているテーブルの一例である。MFP10は、図10のテーブルを記憶する。図10の例では、ユーザーID毎に、音声データの送信先が対応づけられている。図10の例では、ユーザーIDがA1であるユーザーに対しては、音声データの送信先として、「B1」が対応づけられている。また、図10の例では、ユーザーIDがA2であるユーザーに対しては、音声データの送信先として、「B2」が対応づけられている。
<Destination of audio data>
As described in step (3) of FIG. 1 and FIGS. 5 to 8, the MFP 10 transmits audio data. Next, the destination of this voice data will be described. FIG. 10 is an example of a table in which the destination of voice data is specified. The MFP 10 stores the table of FIG. In the example of FIG. 10, the destination of the voice data is associated with each user ID. In the example of FIG. 10, "B1" is associated with the user whose user ID is A1 as the destination of voice data. Further, in the example of FIG. 10, "B2" is associated with the user whose user ID is A2 as the transmission destination of the voice data.

例えば、図1のステップ(1)において、ユーザーが設定内容を入力する前に、MFP10は、ユーザー認証を実行可能である。ユーザー認証は、ユーザーにユーザーIDおよびパスワードをMFP10に入力させて、ユーザーIDおよびパスワードのそれぞれが正確なものであるか否かを判断する方式としてもよい。また、ユーザー認証は、顔認証、音声認証、および指紋認証のうちのいずれであってもよい。 For example, in step (1) of FIG. 1, the MFP 10 can execute user authentication before the user inputs the setting contents. The user authentication may be a method in which the user is made to input the user ID and the password into the MFP 10 and it is determined whether or not each of the user ID and the password is accurate. Further, the user authentication may be any of face authentication, voice authentication, and fingerprint authentication.

MFP10は、ユーザー認証により、ユーザーIDを取得する。MFP10は、図10のテーブルを参照して、取得したユーザーIDに対応する送信先を特定する。MFP10は、音声データを生成すると、特定した送信先に、ステップ(3)において音声データを送信する。外部装置20は該音声データを受信した後に、外部装置20は、この音声データを記憶する。 The MFP 10 acquires a user ID by user authentication. The MFP 10 refers to the table of FIG. 10 to specify the destination corresponding to the acquired user ID. When the MFP 10 generates the voice data, the MFP 10 transmits the voice data to the specified destination in the step (3). After the external device 20 receives the voice data, the external device 20 stores the voice data.

<MFP10と、外部装置20との機能構成例>
図11は、MFP10と、外部装置20との機能構成例を説明するための図である。MFP10のコントローラー31は、取得部102と、生成部104と、送信部106と、音声受付部110と、音声認識部112と、設定部114と、実行部116との機能を有する。なお、本実施形態では、便宜上、各ジョブを実行するユニットを分けて表現する場合がある。図5のジョブユニット120は、コピージョブユニット、プリントジョブユニット、スキャンジョブユニット、ファクスジョブユニット、およびメール送信ジョブユニットを含む。コピージョブユニットは、コピージョブを実行するユニットである。プリントジョブユニットは、プリントジョブを実行するユニットである。スキャンジョブユニットは、スキャンジョブを実行するユニットである。ファクスジョブユニットは、ファクスジョブを実行するユニットである。メール送信ジョブユニットは、メール送信ジョブを実行するユニットである。スキャンジョブユニットは、例えば、スキャンユニット12に対応する。
<Example of functional configuration of MFP 10 and external device 20>
FIG. 11 is a diagram for explaining a functional configuration example of the MFP 10 and the external device 20. The controller 31 of the MFP 10 has functions of an acquisition unit 102, a generation unit 104, a transmission unit 106, a voice reception unit 110, a voice recognition unit 112, a setting unit 114, and an execution unit 116. In this embodiment, for convenience, the units that execute each job may be expressed separately. The job unit 120 of FIG. 5 includes a copy job unit, a print job unit, a scan job unit, a fax job unit, and a mail transmission job unit. A copy job unit is a unit that executes a copy job. A print job unit is a unit that executes a print job. The scan job unit is a unit that executes a scan job. A fax job unit is a unit that executes a fax job. The mail sending job unit is a unit that executes a mail sending job. The scan job unit corresponds to, for example, the scan unit 12.

外部装置20のコントローラー41は、受信部202と、記憶部204と、操作受付部206と、出力制御部208の機能を有する。 The controller 41 of the external device 20 has the functions of the receiving unit 202, the storage unit 204, the operation receiving unit 206, and the output control unit 208.

ユーザーが操作パネル34に対して、ジョブの設定内容を入力すると(図1のステップ(1)参照)、該ジョブの設定内容は、取得部102および設定部114に入力される。上述の通り、ジョブの設定内容は、ジョブの種別と、該ジョブの設定項目とを受け付ける。図5〜図8で説明した例では、ジョブの種別は、「メール送信ジョブ」であり、ジョブの設定項目は、「300×300dpiの解像度」、「ファイル形式がコンパクトPDF形式」、および「user@test.jpという宛先」である。 When the user inputs the setting contents of the job to the operation panel 34 (see step (1) in FIG. 1), the setting contents of the job are input to the acquisition unit 102 and the setting unit 114. As described above, the job setting contents accept the job type and the setting items of the job. In the examples described with reference to FIGS. 5 to 8, the job type is "mail transmission job", and the job setting items are "300 x 300 dpi resolution", "file format is compact PDF format", and "user". The destination is @ test.jp.

取得部102は、ジョブの設定内容を取得する。生成部104は、該取得部102が取得した設定内容に係る文字の音声の音声データを生成する。図1の例では、ジョブの設定内容のうちの「ジョブの種別」は、「スキャンジョブ」であり、ジョブの設定内容のうちの「ジョブの設定項目」は、「「300×300dpi」の解像度」である。したがって、生成部104は、「かいぞうど さんびゃくでぃーぴーあい すきゃんじょぶ」という音声を生成する。その後、生成部104は、この音声に係る音声データを生成する。 The acquisition unit 102 acquires the setting contents of the job. The generation unit 104 generates voice data of the voice of the characters related to the setting contents acquired by the acquisition unit 102. In the example of FIG. 1, the "job type" in the job setting contents is "scan job", and the "job setting item" in the job setting contents has a resolution of "300 x 300 dpi". ". Therefore, the generation unit 104 generates the voice "Kaizoudo-sanbyakudipeeaiskanjobu". After that, the generation unit 104 generates voice data related to this voice.

また、図5〜図8の例では、ジョブの設定内容のうちの「ジョブの種別」は、「メール送信ジョブ」である。また、図5〜図8の例では、ジョブの設定内容のうちの「ジョブの設定項目」は、解像度が300×300dpiであり、ファイル形式がコンパクトPDF形式であり、宛先がuser@test.jpである項目である。 Further, in the examples of FIGS. 5 to 8, the "job type" in the job setting contents is the "mail transmission job". Further, in the examples of FIGS. 5 to 8, the "job setting item" in the job setting contents has a resolution of 300 x 300 dpi, a file format of a compact PDF format, and a destination of user@test.jp. It is an item that is.

したがって、生成部104は、「かいぞうど、さんびゃくでぃぴーあい、ふぁいるけいしき、こんぱくとぴーでぃーえふ、あてさき、あるふぁべっと、ゆーえすいーあーる、すうじ、いち、あっとまーく、あるふぁべっと、てぃーいーえすてぃーどっとじぇーぴー、に、いーめーるそうしんする」という音声を生成する。その後、生成部104は、この音声に係る音声データを生成する。 Therefore, the generation unit 104 is set to "Kaizoud, Sanbyakudipeeai, File Keishiki, Konpakutopediefu, Atesaki, Arufabetto, Yuesuiaru, Su". Uji, Ichi, Attomark, Arufabetto, Teeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeee After that, the generation unit 104 generates voice data related to this voice.

送信部106は、生成された音声データを外部装置20に送信する。また、MFP10が、ユーザー認証した場合には、図10のテーブルを参照して、該ユーザー認証により得られるユーザーIDに対応する外部装置20に音声データを送信する(図1のステップ(3)参照)。 The transmission unit 106 transmits the generated voice data to the external device 20. When the MFP 10 authenticates the user, the MFP 10 refers to the table in FIG. 10 and transmits voice data to the external device 20 corresponding to the user ID obtained by the user authentication (see step (3) in FIG. 1). ).

また、設定部114は、操作パネル34から入力されたジョブの設定内容を設定する。例えば、ジョブの設定内容に係る情報を所定の記憶領域に記憶させる。また、実行部116は、設定された設定内容(つまり、ジョブの設定内容に係る情報)に基づいたジョブを、該ジョブに対応するジョブユニット120に実行させる。図1で説明した例では、実行部116は、ジョブユニット120のうちのスキャンジョブユニットにスキャンジョブを実行させる。また、図5〜図9で説明した例では、実行部116は、ジョブユニット120のうちのメール送信ジョブユニットにメール送信ジョブを実行させる。 Further, the setting unit 114 sets the setting contents of the job input from the operation panel 34. For example, information related to job settings is stored in a predetermined storage area. Further, the execution unit 116 causes the job unit 120 corresponding to the job to execute a job based on the set setting content (that is, information related to the setting content of the job). In the example described with reference to FIG. 1, the execution unit 116 causes the scan job unit of the job units 120 to execute the scan job. Further, in the example described with reference to FIGS. 5 to 9, the execution unit 116 causes the mail transmission job unit of the job units 120 to execute the mail transmission job.

また、外部装置20の受信部202は、コントローラー31が送信した音声データを受信する。受信部202により受信された音声データは、記憶部204に記憶される。また、図9で説明したように、ユーザーが、外部装置20の操作パネル44に対して音声出力操作を行う(図1のステップ(4)に対応)。 Further, the receiving unit 202 of the external device 20 receives the audio data transmitted by the controller 31. The voice data received by the receiving unit 202 is stored in the storage unit 204. Further, as described with reference to FIG. 9, the user performs a voice output operation on the operation panel 44 of the external device 20 (corresponding to step (4) of FIG. 1).

操作受付部206は、操作パネル44に対して行われた音声出力操作を受付ける。出力制御部208は、操作受付部206が受付けた音声出力操作により選択された音声内容の機械音声をスピーカー47から出力させる(図1のステップ(5)参照)。MFP10のマイク16に、この音声が入力される。マイク16は、この音声をデジタル変換することにより、音声データを生成する。音声受付部110は、この音声データを受付ける。音声認識部112は、この音声データに対して音声認識処理を実行する。音声認識部112による音声認識の手法は、如何なる手法であってもよい。例えば、音声認識部112は、音響モデルおよび言語モデルなどを備え、音響モデルおよび言語モデルに基づいて、音声認識処理を実行する。音声認識処理による音声認識結果は、設定部114に入力される。 The operation reception unit 206 receives the voice output operation performed on the operation panel 44. The output control unit 208 outputs the mechanical voice of the voice content selected by the voice output operation received by the operation reception unit 206 from the speaker 47 (see step (5) in FIG. 1). This sound is input to the microphone 16 of the MFP 10. The microphone 16 generates voice data by digitally converting the voice. The voice reception unit 110 receives this voice data. The voice recognition unit 112 executes voice recognition processing on this voice data. The voice recognition method by the voice recognition unit 112 may be any method. For example, the voice recognition unit 112 includes an acoustic model, a language model, and the like, and executes voice recognition processing based on the acoustic model and the language model. The voice recognition result by the voice recognition process is input to the setting unit 114.

設定部114は、音声認識結果に基づく設定を行う。実行部116は、設定部114により設定された設定内容に基づいたジョブを、該ジョブに対応するジョブユニット120に実行させる(図1のステップ(6)参照)。 The setting unit 114 makes settings based on the voice recognition result. The execution unit 116 causes the job unit 120 corresponding to the job to execute a job based on the setting contents set by the setting unit 114 (see step (6) in FIG. 1).

<画像形成システムの処理フロー>
図12は、画像形成システム1000の処理フローの一例を示す図である。図12を参照して、ステップS2において、コントローラー31は、取得部102がジョブの設定内容を取得したか否かを判断する。コントローラー31は、取得部102がジョブの設定内容を取得したと判断するまで、ステップS2の処理を繰返す。コントローラー31は、取得部102がジョブの設定内容を取得したと判断した場合には(ステップS2でYES、図1のステップ(1)参照)、実行部116は、取得した設定内容でのジョブをジョブユニット120に実行させる(ステップS4、および図1のステップ(2)参照)。
<Processing flow of image formation system>
FIG. 12 is a diagram showing an example of the processing flow of the image forming system 1000. With reference to FIG. 12, in step S2, the controller 31 determines whether or not the acquisition unit 102 has acquired the job setting contents. The controller 31 repeats the process of step S2 until the acquisition unit 102 determines that the job setting contents have been acquired. When the controller 31 determines that the acquisition unit 102 has acquired the job setting contents (YES in step S2, see step (1) in FIG. 1), the execution unit 116 executes the job with the acquired setting contents. Let the job unit 120 execute the job (see step S4 and step (2) of FIG. 1).

次に、ステップS6において、生成部104は、設定された設定内容の音声データを生成する。次に、ステップS8において、送信部106は、音声データを送信する(図1のステップ(3)参照)。 Next, in step S6, the generation unit 104 generates audio data of the set contents. Next, in step S8, the transmission unit 106 transmits voice data (see step (3) in FIG. 1).

次に、ステップS10において、外部装置20の受信部202は、音声データを受信する。次に、ステップS12において、記憶部204は、音声データを記憶する。また、図12の「3点リーダー」は、任意の時間が経過したことを意味する。 Next, in step S10, the receiving unit 202 of the external device 20 receives the audio data. Next, in step S12, the storage unit 204 stores the voice data. Further, the “three-point reader” in FIG. 12 means that an arbitrary time has passed.

次に、ステップS14において、コントローラー41は、操作受付部206が音声出力操作を受付けたか否かを判断する。コントローラー41は、操作受付部206が音声出力操作を受付けたと判断するまで、ステップS14の処理を繰返す(ステップS14でNO)。コントローラー41は、操作受付部206が音声出力操作を受付けたと判断した場合には(ステップS14でYES、図1のステップ(4)参照)、スピーカー47は、機械音声を出力する。 Next, in step S14, the controller 41 determines whether or not the operation reception unit 206 has accepted the voice output operation. The controller 41 repeats the process of step S14 until it is determined that the operation reception unit 206 has accepted the voice output operation (NO in step S14). When the controller 41 determines that the operation receiving unit 206 has received the voice output operation (YES in step S14, see step (4) in FIG. 1), the speaker 47 outputs the machine voice.

次に、ステップS18において、マイク16に機械音声が入力される。マイク16からの機械音声の音声データを、音声受付部110が受付ける。次に、ステップS20において、音声認識部112は、音声データに対して音声認識を実行する。設定部114は、音声認識結果に基づく設定を行う。次に、ステップS22において、実行部116は、設定部114により設定された設定内容に基づいたジョブ(つまり、音声認識結果に基づいたジョブ)を、該ジョブに対応するジョブユニット120に実行させる。 Next, in step S18, machine voice is input to the microphone 16. The voice reception unit 110 receives the voice data of the machine voice from the microphone 16. Next, in step S20, the voice recognition unit 112 executes voice recognition on the voice data. The setting unit 114 makes settings based on the voice recognition result. Next, in step S22, the execution unit 116 causes the job unit 120 corresponding to the job to execute a job based on the setting contents set by the setting unit 114 (that is, a job based on the voice recognition result).

<小括>
上述のMFP10に対して第2ユーザーが、MFP10の設定画面に手入力で設定項目を設定することにより、該設定に基づいた1回目のジョブをMFPに実行させる。その後、ユーザーは、該設定と同一の設定の2回目のジョブを、音声入力によりMFPに実行させたい場合がある。このような第2ユーザーは、設定画面を視認しなければ、該設定画面に表示される設定内容の文言の音声を発することができない。したがって、第2ユーザーが、設定内容の文言の音声を適切に発することができない場合には、「それ以降のジョブ」をMFPに実行させることができないという問題が生じ得る。特に、第2ユーザーが、設定画面に入力した設定項目等を忘れた場合等に、2回目のジョブを、音声入力によりMFPに実行させることができないという問題がある。
<Summary>
A second user manually sets a setting item on the setting screen of the MFP 10 for the above-mentioned MFP 10, and causes the MFP to execute the first job based on the setting. After that, the user may want the MFP to execute a second job with the same settings as the settings by voice input. Such a second user cannot emit the voice of the wording of the setting content displayed on the setting screen without visually recognizing the setting screen. Therefore, if the second user cannot properly emit the voice of the wording of the setting content, there may be a problem that the MFP cannot execute the "subsequent jobs". In particular, there is a problem that the MFP cannot execute the second job by voice input when the second user forgets the setting items or the like input on the setting screen.

そこで、第2ユーザーに第1ボタン512が操作された場合には、MFP10の送信部106は、第2ユーザーが1回目のジョブのために入力した設定内容の文言の音声の音声データを、該第2ユーザーの外部装置20に送信する(図1のステップ(3)、および図12のステップS8参照)。また、第2ユーザーにより第1ボタン512が操作された場合に、MFP10は、音声データを外部装置20に対して送信する。 Therefore, when the first button 512 is operated by the second user, the transmission unit 106 of the MFP 10 uses the voice data of the wording of the setting contents input by the second user for the first job. It is transmitted to the external device 20 of the second user (see step (3) in FIG. 1 and step S8 in FIG. 12). Further, when the first button 512 is operated by the second user, the MFP 10 transmits the voice data to the external device 20.

外部装置20は、該音声データを記憶して、外部装置20は、図9に示すような音声画面を表示できる。第2ユーザーは、MFP10に対して不慣れであり、設定項目を表示する画面を視認することなく、設定項目を思い出すことができない。しかしながら、第2ユーザーは、図9の音声画面を視認することにより、設定項目を理解できる。第2ユーザーは、該音声画面での音声内容502に基づく音声を出力させることができる。つまり、送信部106は、音声データに基づいた音声を外部装置20に出力させるように音声データを外部装置20に送信する。MFP10は、該音声に基づくジョブを実行する。 The external device 20 can store the audio data, and the external device 20 can display an audio screen as shown in FIG. The second user is unfamiliar with the MFP 10 and cannot remember the setting items without visually recognizing the screen displaying the setting items. However, the second user can understand the setting items by visually recognizing the audio screen of FIG. The second user can output a voice based on the voice content 502 on the voice screen. That is, the transmission unit 106 transmits the voice data to the external device 20 so as to output the voice based on the voice data to the external device 20. The MFP 10 executes a job based on the voice.

したがって、MFP10に対して不慣れな第2ユーザーであっても、音声入力に基づくジョブ(本実施形態では、2回目のジョブ)をMFP10に実行させることができる。 Therefore, even a second user who is unfamiliar with the MFP 10 can have the MFP 10 execute a job based on voice input (in the present embodiment, the second job).

また、例えば、第1ユーザー(つまり、MFP10に対して慣れているユーザー)は、第2ボタン514を操作することにより、音声データを送信させずにMFP10にジョブを実行させることができる。したがって、本実施形態のMFP10は、「外部装置に対して音声データを必ず送信するMFP」と比較して、MFPから外部装置への通信量を低減できる。また、本実施形態のMFP10は、ユーザーの操作に基づいて(つまり、第1ボタン512および第2ボタン514のいずれかの操作に基づいて)、音声データを外部装置20に送信するか否かを決定する。したがって、ユーザーの利便性を向上させることができる。 Further, for example, a first user (that is, a user who is accustomed to the MFP 10) can cause the MFP 10 to execute a job by operating the second button 514 without transmitting voice data. Therefore, the MFP 10 of the present embodiment can reduce the amount of communication from the MFP to the external device as compared with the "MFP that always transmits voice data to the external device". Further, the MFP 10 of the present embodiment determines whether or not to transmit the voice data to the external device 20 based on the operation of the user (that is, based on the operation of either the first button 512 or the second button 514). decide. Therefore, the convenience of the user can be improved.

なお、MFP10は、音声入力によりジョブを実行する第1モードと、音声入力されたとしても該音声入力に基づくジョブを実行しない第2モードとのうちいずれかのモードに制御するようにしてもよい。また、MFP10が第1モードに制御しているときにおいて、MFP10は、ユーザー認証を行ってもよい。また、MFP10が第1モードに制御しているときにおいて、ユーザー認証の有効期限内であれば音声入力によりジョブを実行する一方、ユーザー認証の有効期限外であれば音声入力によりジョブを実行しないようにしてもよい。 The MFP 10 may be controlled to either a first mode in which a job is executed by voice input or a second mode in which a job based on the voice input is not executed even if voice input is performed. .. Further, when the MFP 10 is controlling to the first mode, the MFP 10 may perform user authentication. Further, when the MFP10 is controlled to the first mode, the job is executed by voice input if it is within the expiration date of user authentication, while the job is not executed by voice input if it is outside the expiration date of user authentication. You may do it.

また、図1のステップ(3)において、外部装置20が音声データを受信した後においては、ユーザーは、該音声データによる機械音声に基づくジョブを、音声データを送信したMFPとは異なるMFPに実行させるようにしてもよい。このように、本実施形態の画像形成システム1000は、ユーザーは、音声データによる機械音声に基づくジョブを、該音声データを送信したMFPに実行させるようにしてよく、該音声データを送信したMFPとは異なるMFPに実行させるようにしてもよい。 Further, in step (3) of FIG. 1, after the external device 20 receives the voice data, the user executes a job based on the machine voice based on the voice data to an MFP different from the MFP that transmitted the voice data. You may let it. As described above, in the image forming system 1000 of the present embodiment, the user may cause the MFP that transmits the voice data to execute a job based on the machine voice based on the voice data, and the MFP that transmits the voice data and the MFP. May be run by a different MFP.

[第2実施形態]
第1実施形態のMFP10は、2以上の設定内容の音声データを一括で、外部装置20に送信するとして説明した。第2実施形態のMFP10は、2以上の設定内容毎の音声データを個別に生成する。その後、MFP10は、2以上の設定内容毎の音声データを個別に、外部装置20に送信する。
[Second Embodiment]
The MFP 10 of the first embodiment has been described as transmitting audio data of two or more setting contents to the external device 20 in a batch. The MFP 10 of the second embodiment individually generates audio data for each of two or more setting contents. After that, the MFP 10 individually transmits the audio data for each of the two or more setting contents to the external device 20.

第2実施形態のMFP10および外部装置20は、図11に示した通りである。図13は、第2実施形態のMFP10および外部装置20の処理フローである。ステップS102において、コントローラー31は、取得部102がジョブの1の設定内容を取得したか否かを判断する。図5〜図8の例では、図5の解像度の設定、図6のファイル形式の設定、図7の宛先の設定、および図8のジョブの実行の設定が、それぞれ、1の設定内容である。ステップS102において、コントローラー31は、取得部102がジョブの1の設定内容を取得したと判断するまで、コントローラー31は、ステップS102の処理を繰り返す(ステップS102でNO)。ステップS102において、コントローラー31は、取得部102がジョブの1の設定内容を取得したと判断した場合には(ステップS102でYES)、処理は、ステップS104に進む。 The MFP 10 and the external device 20 of the second embodiment are as shown in FIG. FIG. 13 is a processing flow of the MFP 10 and the external device 20 of the second embodiment. In step S102, the controller 31 determines whether or not the acquisition unit 102 has acquired the setting content of job 1. In the example of FIGS. 5 to 8, the resolution setting of FIG. 5, the file format setting of FIG. 6, the destination setting of FIG. 7, and the job execution setting of FIG. 8 are the setting contents of 1, respectively. .. In step S102, the controller 31 repeats the process of step S102 until the acquisition unit 102 determines that the setting content of job 1 has been acquired (NO in step S102). In step S102, when the controller 31 determines that the acquisition unit 102 has acquired the setting content of job 1 (YES in step S102), the process proceeds to step S104.

ステップS104において、生成部104は、取得部102がジョブの1の設定内容の音声データを生成する。次に、ステップS106において、コントローラー31は、ジョブ設定が完了したか否かを判断する。 In step S104, the generation unit 104 generates audio data of the setting contents of job 1 by the acquisition unit 102. Next, in step S106, the controller 31 determines whether or not the job setting is completed.

ステップS102、ステップS104、およびステップS106を図5〜図8の例を用いて説明する。図5において、解像度が選択されてOKボタン504が操作されたときに、コントローラー31は、取得部102がジョブの1の設定内容が取得されたと判断する(ステップS102でYES)。次に、ステップS104において、生成部104は、図5で設定された解像度を示す文言の音声の音声データを生成する。図5の例では、「かいぞうど、さんびゃくでぃぴーあい」という音声の音声データを生成する。その後、ステップS106では、コントローラー31は、ジョブ設定が完了したか否かを判断する。図5の解像度が設定された場合においては、ジョブの設定が完了していないことから、処理は、ステップS102に戻る。 Step S102, step S104, and step S106 will be described with reference to the examples of FIGS. 5 to 8. In FIG. 5, when the resolution is selected and the OK button 504 is operated, the controller 31 determines that the acquisition unit 102 has acquired the setting content of job 1 (YES in step S102). Next, in step S104, the generation unit 104 generates voice data of the voice of the wording indicating the resolution set in FIG. In the example of FIG. 5, the voice data of the voice "Kaizoudo, Sanbyaku dipee" is generated. After that, in step S106, the controller 31 determines whether or not the job setting is completed. When the resolution shown in FIG. 5 is set, the process returns to step S102 because the job setting is not completed.

このような処理において、図5、図6、図7、および図8の順序に応じて、それぞれのステップS104で、生成部104は、音声データを生成する。1回目のステップS104で、生成部104は、図5で説明した「かいぞうど、さんびゃくでぃぴーあい」という音声の音声データを生成する。2回目のステップS104で、生成部104は、図6で説明した「ふぁいるけいしき、こんぱくとぴーでぃーえふ」という音声の音声データを生成する。3回目のステップS104で、生成部104は、図7で説明した「ふぁいるけいしき、こんぱくとぴーでぃーえふ」という音声の音声データを生成する。4回目のステップS104で、生成部104は、図7で説明した「いーめーるそうしんする」という音声の音声データを生成する。このように、図5〜図8の例では、生成部104は、4つの音声データを生成する。 In such a process, in each step S104, the generation unit 104 generates voice data according to the order of FIGS. 5, 6, 7, and 8. In the first step S104, the generation unit 104 generates the voice data of the voice "Kaizoudo, Sanbyaku dipee" described with reference to FIG. In the second step S104, the generation unit 104 generates the voice data of the voice "File Keishiki, Konpaku to Pidi Efu" described with reference to FIG. In the third step S104, the generation unit 104 generates the voice data of the voice "File Keishiki, Konpaku to Pidi Efu" described with reference to FIG. 7. In the fourth step S104, the generation unit 104 generates the voice data of the voice "I-mail-so-shin" described with reference to FIG. 7. As described above, in the example of FIGS. 5 to 8, the generation unit 104 generates four voice data.

ステップS106では、ユーザーによりジョブを実行させる操作が行われた場合に、コントローラー31は、ジョブ設定完了したと判断する(ステップS106でYES)。図5〜図8の例では、図8の第1ボタン512が操作されたときに、コントローラー31は、ジョブ設定完了したと判断する。 In step S106, when the user performs an operation to execute the job, the controller 31 determines that the job setting is completed (YES in step S106). In the example of FIGS. 5 to 8, when the first button 512 of FIG. 8 is operated, the controller 31 determines that the job setting is completed.

ステップS4においては、実行部116は、取得した設定内容でのジョブをジョブユニット120に実行させる。次に、ステップS108では、生成部104は、ステップS104で生成部104が生成した複数の音声データ(本実施形態では、4つの音声データ)をまとめることにより、1つの音声データにする。次に、ステップS8において、ステップS108で生成部104がまとめた1つの音声データを外部装置20に送信する。 In step S4, the execution unit 116 causes the job unit 120 to execute the job with the acquired setting contents. Next, in step S108, the generation unit 104 combines the plurality of voice data (four voice data in the present embodiment) generated by the generation unit 104 in step S104 into one voice data. Next, in step S8, one voice data collected by the generation unit 104 in step S108 is transmitted to the external device 20.

ステップS10において、外部装置20が、1つの音声データを受信する。次に、ステップS112において、外部装置20は、ステップS10で受信した音声データに含まれる複数の音声データ(本実施形態では、4つの音声データ)をそれぞれ、異なる記憶領域に記憶させる。本実施形態では、外部装置20は、4つの音声データをそれぞれ異なる記憶領域に記憶させる。 In step S10, the external device 20 receives one voice data. Next, in step S112, the external device 20 stores a plurality of voice data (four voice data in the present embodiment) included in the voice data received in step S10 in different storage areas. In the present embodiment, the external device 20 stores four voice data in different storage areas.

図14は、第2実施形態の外部装置20が表示する音声画面の一例である。コントローラー41は、図14の音声画面を、表示装置442の表示領域442Aに表示させる。図9と、図14とを対比すると、図9は、複数の音声内容がまとまって1つの音声内容502として表示されている。一方、図14は、複数の音声内容(本実施形態では、4つの音声内容)それぞれが、表示されている。また、表示される複数の音声内容はそれぞれ、生成部104が生成した音声データに対応している。 FIG. 14 is an example of an audio screen displayed by the external device 20 of the second embodiment. The controller 41 displays the audio screen of FIG. 14 in the display area 442A of the display device 442. Comparing FIG. 9 and FIG. 14, FIG. 9 shows a plurality of audio contents as one audio content 502. On the other hand, in FIG. 14, each of a plurality of audio contents (four audio contents in the present embodiment) is displayed. Further, each of the plurality of displayed audio contents corresponds to the audio data generated by the generation unit 104.

図14の例では、「解像度:300dpi」という音声内容5021と、「ファイルコンコンパクトPDF」という音声内容5022と、「宛先:user1@test.jp」という音声内容5023と、「宛先:user1@test.jp」という音声内容5023とが表示されている。 In the example of FIG. 14, the audio content 5021 "resolution: 300 dpi", the audio content 5022 "filecon compact PDF", the audio content 5023 "destination: user1@test.jp", and "destination: user1 @ test" The audio content 5023 ".jp" is displayed.

本実施形態では、表示領域442Aに表示されている複数の音声内容のうち、ユーザーにより複数選択可能となっている。例えば、複数の音声内容のうち、ユーザーにより選択された音声内容は、選択されていない音声内容とは異なる態様で表示される。例えば、ユーザーにより選択されていない音声内容の枠線は細く表示される一方、選択された音声内容の枠線は太く表示される。 In the present embodiment, a plurality of audio contents displayed in the display area 442A can be selected by the user. For example, among a plurality of audio contents, the audio content selected by the user is displayed in a mode different from the audio content not selected. For example, the border of the audio content not selected by the user is displayed thinly, while the border of the selected audio content is displayed thick.

また、ユーザーにより1以上の音声内容が選択された状態で、再生ボタン504がタッチされると、選択された1以上の音声内容の音声が出力される。例えば、「解像度:300dpi」と、「宛先:user1@test.jp」が選択された状態で、再生ボタン504がタッチされると、外部装置20は、「かいぞうど、さんびゃくでぃぴーあい、あてさき、あるふぁべっと、ゆーえすいーあーる、すうじ、いち、あっとまーく、あるふぁべっと、てぃーいーえすてぃーどっとじぇーぴー」という音声を出力する。 Further, when the play button 504 is touched while one or more audio contents are selected by the user, the audio of the selected one or more audio contents is output. For example, when the play button 504 is touched while "resolution: 300 dpi" and "destination: user1@test.jp" are selected, the external device 20 is set to "kaizoudo, sanbyakudipeeai". , Atesaki, Arufabetto, Yuesuiaru, Suuji, Ichi, Attomaku, Arufabetto, Teeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeee Output.

本実施形態のMFP10の取得部102は、複数の設定内容を取得する(図13のステップS102参照)。次に、生成部104は、複数の設定内容毎の音声データを生成する(図13のステップS104参照)。次に、送信部106は、複数の設定内容毎の音声データを送信する(図13のステップS8参照)。外部装置20は、該複数の設定内容毎の音声データをそれぞれ異なる記憶領域に記憶させる。さらに、図14に示すように、外部装置20は、該記憶された複数の音声データそれぞれに対応する音声内容(図14の例では、音声内容5021〜音声内容5024)を表示する。ユーザーは、複数の音声内容のうち1以上の音声内容を選択可能である。外部装置20は、ユーザーにより決定された1以上の選択された音声内容の音声データを出力することができる。したがって、ユーザーは、ユーザーが所望する音声データを組み合わせた機械音声を外部装置20から出力させることができる。よって、ユーザーは、音声入力により所望のジョブの設定をMFP10に行わせることができ、結果としてユーザーの利便性を向上させることができる。 The acquisition unit 102 of the MFP 10 of the present embodiment acquires a plurality of setting contents (see step S102 in FIG. 13). Next, the generation unit 104 generates audio data for each of a plurality of setting contents (see step S104 in FIG. 13). Next, the transmission unit 106 transmits voice data for each of the plurality of setting contents (see step S8 in FIG. 13). The external device 20 stores the audio data for each of the plurality of setting contents in different storage areas. Further, as shown in FIG. 14, the external device 20 displays the audio content (in the example of FIG. 14, audio content 5021 to audio content 5024) corresponding to each of the plurality of stored audio data. The user can select one or more audio contents from a plurality of audio contents. The external device 20 can output audio data of one or more selected audio contents determined by the user. Therefore, the user can output the machine voice combining the voice data desired by the user from the external device 20. Therefore, the user can make the MFP 10 set a desired job by voice input, and as a result, the convenience of the user can be improved.

[第3実施形態]
図15は、第3実施形態のMFP10および外部装置20の処理フローである。図13と図15とを比較すると、図13では、ステップS108およびステップS8等に示したように、MFP20は、複数の設定内容それぞれの音声データをまとめて送信する。一方、図15に示すように、本実施形態のMFP10は、1の設定内容の音声データを生成する毎に、該1の設定内容の音声データを外部装置20に対して送信する。
[Third Embodiment]
FIG. 15 is a processing flow of the MFP 10 and the external device 20 of the third embodiment. Comparing FIG. 13 and FIG. 15, in FIG. 13, as shown in steps S108 and S8, the MFP 20 collectively transmits audio data for each of the plurality of setting contents. On the other hand, as shown in FIG. 15, the MFP 10 of the present embodiment transmits the audio data of the setting content of 1 to the external device 20 every time the audio data of the setting content of 1 is generated.

ステップS104において、生成部104が、音声データを生成する。次に、ステップS150において、送信部106は、該生成された音声データを外部装置20に対して送信する。ステップS10において、外部装置20は、MFP10から送信された音声データを受信する。ステップS12において、MFP10は、ステップS10において送信された音声データを記憶領域に記憶させる。 In step S104, the generation unit 104 generates voice data. Next, in step S150, the transmission unit 106 transmits the generated voice data to the external device 20. In step S10, the external device 20 receives the audio data transmitted from the MFP 10. In step S12, the MFP 10 stores the voice data transmitted in step S10 in the storage area.

図15のステップS150、ステップS10、およびステップS12に示すように、MFP10は、取得部102が1の設定内容を取得する毎に、MFP10は、該1の設定内容に対応する音声データを外部装置20に送信する。外部装置20は、音声データを受信する毎に該音声データを記憶領域に記憶させる。また、外部装置20は、複数の音声データを記憶させる場合には、複数の音声データをそれぞれ異なる記憶領域に記憶させる。したがって、第3実施形態のMFP10および外部装置20は、第2実施形態で説明した効果と同様の効果を奏する。 As shown in step S150, step S10, and step S12 of FIG. 15, every time the acquisition unit 102 acquires the setting content of 1, the MFP 10 transmits the audio data corresponding to the setting content of 1 to an external device. Send to 20. The external device 20 stores the voice data in the storage area each time the voice data is received. Further, when the external device 20 stores a plurality of voice data, the external device 20 stores the plurality of voice data in different storage areas. Therefore, the MFP 10 and the external device 20 of the third embodiment have the same effects as those described in the second embodiment.

[第4実施形態]
図16は、第4実施形態のMFP10と外部装置20との機能構成例を示す図である。図11と、図16とを比較すると、図16に示すMFP10のコントローラー31は、第1促進部122を有する点、および音声受付部110が受付けた音声データが生成部104に出力される点で、図11と、図16とは異なる。第1促進部122は、ユーザーの音声のマイク16への入力をユーザーに促進する。また、本開示の「第1実行部」は、実行部116に対応する。
[Fourth Embodiment]
FIG. 16 is a diagram showing a functional configuration example of the MFP 10 and the external device 20 of the fourth embodiment. Comparing FIG. 11 and FIG. 16, the controller 31 of the MFP 10 shown in FIG. 16 has a first promotion unit 122, and the voice data received by the voice reception unit 110 is output to the generation unit 104. , FIG. 11 and FIG. 16 are different. The first promotion unit 122 encourages the user to input the user's voice into the microphone 16. Further, the "first execution unit" of the present disclosure corresponds to the execution unit 116.

図17および図18は、第4実施形態のMFP10および外部装置20の処理フローである。ステップS6において、生成部104が、音声データを生成した後に、ステップS202において、第1促進部122は、ユーザーの音声のマイク16への入力をユーザーに促進する。ステップS202での促進処理を、「第1促進処理」ともいう。 17 and 18 are processing flows of the MFP 10 and the external device 20 of the fourth embodiment. In step S6, after the generation unit 104 generates the voice data, in step S202, the first promotion unit 122 promotes the user to input the user's voice into the microphone 16. The accelerating process in step S202 is also referred to as "first accelerating process".

ここで、第1促進処理は、例えば、何らかの質問を音声でユーザーに対して問い合わせる処理である。例えば、第1促進処理は、「あなたの名前を言ってください」という質問を、スピーカー37からの音声で出力する処理である。 Here, the first promotion process is, for example, a process of asking the user for some question by voice. For example, the first promotion process is a process of outputting the question "Please say your name" by voice from the speaker 37.

ステップS202の第1促進処理の後のステップS204において、コントローラー31は、ユーザーの音声がマイク16に入力されたか否かを判断する。ステップS204において、コントローラー31は、ユーザーの音声がマイク16に入力されたと判断するまで、コントローラー31は、ステップS204の処理を繰り返す(ステップS204でNO)。ステップS204において、コントローラー31は、ユーザーの音声がマイク16に入力されたと判断した場合には(ステップS204でYES)、処理は、ステップS206に進む。 In step S204 after the first promotion process of step S202, the controller 31 determines whether or not the user's voice has been input to the microphone 16. In step S204, the controller 31 repeats the process of step S204 (NO in step S204) until the controller 31 determines that the user's voice has been input to the microphone 16. If the controller 31 determines in step S204 that the user's voice has been input to the microphone 16 (YES in step S204), the process proceeds to step S206.

ステップS206において、生成部104は、マイク16に入力されたユーザーの音声の音声データを、生成部104が生成した音声データに対して付与することにより新たな音声データを生成する。ユーザーの音声の音声データを、「ユーザー音声データ」ともいう。「マイク16に入力されたユーザーの音声」は、ステップS204においてYESと判断されたことに基づくユーザーの音声である。このように、新たな音声データは、ステップS6で生成された音声データと、ユーザーの音声の音声データとを含む。 In step S206, the generation unit 104 generates new voice data by adding the voice data of the user's voice input to the microphone 16 to the voice data generated by the generation unit 104. The voice data of the user's voice is also referred to as "user voice data". The “user's voice input to the microphone 16” is the user's voice based on the determination of YES in step S204. As described above, the new voice data includes the voice data generated in step S6 and the voice data of the user's voice.

次に、ステップS8において、送信部106は、外部装置20に対して新たな音声データを送信する。 Next, in step S8, the transmission unit 106 transmits new voice data to the external device 20.

次に、図18に示すステップS14において、ユーザーが音声出力操作を外部装置20に対して行った場合に(ステップS14でYES)、ステップS16において、新たな音声データに基づく音声を出力する。本実施形態のステップS16では、外部装置20のスピーカー47は、新たな音声データに基づく音声として、ジョブの設定内容を示す文言の音声(つまり、機械音声)と、ステップS204で説明したユーザーの音声とを出力する。外部装置20のスピーカー47は、機械音声を出力した後に、ユーザーの音声を出力するようにしてもよい。また、外部装置20のスピーカー47は、ユーザーの音声を出力した後に、機械音声を出力するようにしてもよい。 Next, in step S14 shown in FIG. 18, when the user performs a voice output operation on the external device 20 (YES in step S14), in step S16, the voice based on the new voice data is output. In step S16 of the present embodiment, the speaker 47 of the external device 20 uses the voice of the wording indicating the job setting contents (that is, the machine voice) and the voice of the user described in step S204 as the voice based on the new voice data. And output. The speaker 47 of the external device 20 may output the user's voice after outputting the machine voice. Further, the speaker 47 of the external device 20 may output the machine voice after outputting the user's voice.

ステップS18において、MFP10のコントローラー31は新たな音声データに基づく音声が外部装置20からマイク16に入力されたと判断する。新たな音声データに基づく音声は、機械音声、およびユーザーの音声である。ステップS18の後、ステップS210において、第1促進部122は、ユーザーの音声のマイク16への入力をユーザーに促進する。ステップS210での促進処理を、「第2促進処理」ともいう。 In step S18, the controller 31 of the MFP 10 determines that the voice based on the new voice data has been input from the external device 20 to the microphone 16. The voice based on the new voice data is the machine voice and the user's voice. After step S18, in step S210, the first promotion unit 122 prompts the user to input the user's voice into the microphone 16. The accelerating process in step S210 is also referred to as "second accelerating process".

ここで、MFP10は、ステップS210の処理のために、複数の問いかけと、該複数の問いかけにそれぞれに対応する回答とを有している。複数の問いかけは、例えば、「日本と言ってください」という問いかけ、「アメリカと言ってください」という問いかけ、および「ドイツと言ってください」という問いかけ等を含む。また、「日本と言ってください」という問いかけに対応する回答は、「日本」である。「アメリカと言ってください」という問いかけに対応する回答は、「アメリカ」である。「ドイツと言ってください」という問いかけに対応する回答は、「ドイツ」である。 Here, the MFP 10 has a plurality of questions and answers corresponding to the plurality of questions for the processing of step S210. Multiple questions include, for example, the question "Please say Japan", the question "Please say America", and the question "Please say Germany". The answer to the question "Please say Japan" is "Japan". The answer to the question "Please say America" is "America". The answer to the question "Please say Germany" is "Germany".

MFP10は、これらの複数の問いかけから、1の問いかけを選択し、該選択した1の問いかけに基づく音声を出力する第2促進処理を実行する。MFP10が、「日本と言ってください」という問いかけを選択した場合には、MFP10は、「日本と言ってください」という音声を出力する第2促進処理を実行する。 The MFP 10 selects one question from these plurality of questions, and executes a second promotion process that outputs a voice based on the selected one question. When the MFP10 selects the question "Please say Japan", the MFP10 executes the second promotion process for outputting the voice "Please say Japan".

ステップS210の第1促進処理の後のステップS212において、コントローラー31は、ユーザーの音声がマイク16に入力されたか否かを判断する。ステップS212において、コントローラー31は、ユーザーの音声がマイク16に入力されたと判断するまで、コントローラー31は、ステップS212の処理を繰り返す(ステップS212でNO)。ステップS212において、コントローラー31は、ユーザーの音声がマイク16に入力されたと判断した場合には(ステップS212でYES)、処理は、ステップS214に進む。 In step S212 after the first promotion process of step S210, the controller 31 determines whether or not the user's voice has been input to the microphone 16. In step S212, the controller 31 repeats the process of step S212 until it determines that the user's voice has been input to the microphone 16 (NO in step S212). If the controller 31 determines in step S212 that the user's voice has been input to the microphone 16 (YES in step S212), the process proceeds to step S214.

ステップS214において、コントローラー31は、ステップS212で入力されたと判断されたユーザーの音声の回答が正しいか否かを判断する。例えば、ステップS210において、MFP10が、「日本と言ってください」という音声を出力したとする。この場合には、回答は、「日本」である。ステップS214において、コントローラー31は、ステップS212で入力されたと判断されたユーザーの音声が「日本」である場合には、「回答が正しい」と判断する。また、ステップS214において、コントローラー31は、ステップS212で入力されたと判断されたユーザーの音声が「日本」以外の音声である場合には、「回答が間違い」と判断する。 In step S214, the controller 31 determines whether or not the voice response of the user determined to have been input in step S212 is correct. For example, in step S210, it is assumed that the MFP 10 outputs a voice saying "Please say Japan". In this case, the answer is "Japan". In step S214, the controller 31 determines that the answer is correct when the user's voice determined to have been input in step S212 is "Japan". Further, in step S214, when the voice of the user determined to have been input in step S212 is a voice other than "Japan", the controller 31 determines that the answer is incorrect.

ステップS214において、コントローラー31が、回答が間違いであると判断した場合(ステップS214でNO)、処理は終了する。また、ステップS214において、コントローラー31が、回答が正しいであると判断した場合(ステップS214でYES)、処理は、ステップS216に進む。 If the controller 31 determines in step S214 that the answer is incorrect (NO in step S214), the process ends. If the controller 31 determines in step S214 that the answer is correct (YES in step S214), the process proceeds to step S216.

ステップS216において、コントローラー31は、「第2促進処理の実行後にマイク16に入力されたユーザーの音声」の特徴情報と、「新たな音声データに基づく音声に含まれるユーザーの音声」の特徴情報とが一致しているか否かを判断する。 In step S216, the controller 31 includes the feature information of "the user's voice input to the microphone 16 after the execution of the second promotion process" and the feature information of "the user's voice included in the voice based on the new voice data". Determine if they match.

ここで、「第2促進処理の実行後にマイク16に入力されたユーザーの音声」は、ステップS212で入力されたと判断されたユーザーの音声である。「新たな音声データに基づく音声に含まれるユーザーの音声」は、ステップS16で出力された音声に含まれるユーザーの音声である。換言すれば、「新たな音声データに基づく音声に含まれるユーザーの音声」は、ステップS204で入力されたと判断されたユーザーの音声である。 Here, the "user's voice input to the microphone 16 after the execution of the second promotion process" is the user's voice determined to have been input in step S212. The “user's voice included in the voice based on the new voice data” is the user's voice included in the voice output in step S16. In other words, the "user's voice included in the voice based on the new voice data" is the voice of the user determined to have been input in step S204.

つまり、ステップS216の処理は、外部装置20からの音声(つまり、「新たな音声データに基づく音声に含まれるユーザーの音声」)の特徴情報と、回答の音声(つまり、「第2促進処理の実行後にマイク16に入力されたユーザーの音声」)の特徴情報とを比較する処理である。 That is, in the process of step S216, the feature information of the voice from the external device 20 (that is, the “user's voice included in the voice based on the new voice data”) and the response voice (that is, “the second promotion process”). This is a process of comparing with the feature information of "user's voice input to the microphone 16 after execution").

また、特徴情報は、音声の特徴を示す情報であれば、如何なる情報であってもよい。特徴情報は、音声の声紋、音声の周波数、音声の振幅等のうち少なくとも1つを含む。本実施形態の特徴情報は、「声紋」であるとする。 Further, the feature information may be any information as long as it is information indicating the characteristics of the voice. The feature information includes at least one of voiceprints, voice frequencies, voice amplitudes, and the like. The feature information of this embodiment is assumed to be "voiceprint".

また、コントローラー31は、外部装置20からの音声の特徴情報と、回答の音声の特徴情報とが同一である場合にのみ、両者の特徴情報は一致していると判断するようにしてもよい。また、コントローラー31は、外部装置20からの音声の特徴情報と、回答の音声の特徴情報とが同一または略同一である場合に両者の特徴情報は一致していると判断するようにしてもよい。また、外部装置20からの音声の特徴情報と、回答の音声の特徴情報との比較は、例えば、コントローラー31は、外部装置20からの音声の特徴情報と、回答の音声の特徴情報とにおける一致度合いを示すスコアを算出する。コントローラー31は、このスコアが予め定められた閾値以上である場合に、外部装置20からの音声の特徴情報と、回答の音声の特徴情報とが一致すると判断する。一方、コントローラー31は、このスコアが閾値未満である場合に、外部装置20からの音声の特徴情報と、回答の音声の特徴情報とが一致しないと判断する。 Further, the controller 31 may determine that the characteristic information of the voice from the external device 20 and the characteristic information of the voice of the answer are the same only when they are the same. Further, the controller 31 may determine that the characteristic information of the voice from the external device 20 and the characteristic information of the voice of the answer are the same or substantially the same. .. Further, in the comparison between the voice feature information from the external device 20 and the voice feature information of the answer, for example, the controller 31 matches the voice feature information from the external device 20 with the voice feature information of the answer. Calculate a score that indicates the degree. When this score is equal to or higher than a predetermined threshold value, the controller 31 determines that the characteristic information of the voice from the external device 20 and the characteristic information of the voice of the answer match. On the other hand, when this score is less than the threshold value, the controller 31 determines that the characteristic information of the voice from the external device 20 and the characteristic information of the voice of the answer do not match.

コントローラー31は、外部装置20からの音声の特徴情報と、回答の音声の特徴情報とが同一であると判断した場合には(ステップS216でYES)、処理はステップS20に進む。また、このステップS20では、コントローラー31は、ステップS18で入力された機械音声に対して音声認識処理を実行することにより、ジョブの設定内容を特定する。次に、ステップS22において、実行部116(つまり、第1実行部)は、音声認識結果に基づいたジョブを実行する。 When the controller 31 determines that the voice feature information from the external device 20 and the voice feature information of the answer are the same (YES in step S216), the process proceeds to step S20. Further, in this step S20, the controller 31 specifies the setting contents of the job by executing the voice recognition process for the machine voice input in step S18. Next, in step S22, the execution unit 116 (that is, the first execution unit) executes a job based on the voice recognition result.

一方、外部装置20からの音声の特徴情報と、回答の音声の特徴情報とが同一ではないと判断した場合には(ステップS216でNO)、ステップS20およびステップS22の処理を実行することなく、処理を終了する。 On the other hand, when it is determined that the voice feature information from the external device 20 and the voice feature information of the answer are not the same (NO in step S216), the processes of steps S20 and S22 are not executed. End the process.

本実施形態のMFP10の生成部104は、第1促進処理(つまり、図17のステップS202)の実行後にマイク16に入力されたユーザーの音声の音声データを、ステップS6で生成した音声データに対して付与することにより新たな音声データを生成する(図17のステップS206)。また、送信部106は、新たな音声データに基づく音声を外部装置20に出力させるように新たな音声データを外部装置20に送信する(図17のステップS8)。したがって、ユーザーは、外部装置20に、設定内容を示す文言の音声と、ユーザーの音声とを出力させることができる。 The generation unit 104 of the MFP 10 of the present embodiment transmits the voice data of the user's voice input to the microphone 16 after the execution of the first promotion process (that is, step S202 of FIG. 17) with respect to the voice data generated in step S6. A new voice data is generated by adding the data (step S206 in FIG. 17). Further, the transmission unit 106 transmits the new voice data to the external device 20 so as to output the voice based on the new voice data to the external device 20 (step S8 in FIG. 17). Therefore, the user can have the external device 20 output the voice of the wording indicating the setting content and the voice of the user.

また、MFP10のマイク16に、設定内容を示す文言の音声と、ユーザーの音声とが入力された場合に(つまり、図18のステップS18)、第1促進部122は、ユーザーの音声のマイク16への入力をユーザーに促進する第2促進処理を実行する(ステップS210)。さらに、コントローラー31は、第2促進処理の実行後にマイクに入力されたユーザーの音声の特徴情報と、新たな音声データに基づく音声に含まれるユーザーの音声の特徴情報とが一致しているか否かを判断する(ステップS216)。ステップS216において、YESと判断された場合には、実行部116は、新たな音声データに基づく音声に含まれる音声により示される設定内容に基づくジョブを実行する(ステップS22)。一方、ステップS216において、BOと判断された場合には、実行部116は、新たな音声データに基づく音声に含まれる音声により示される設定内容に基づくジョブを実行しない。 Further, when the voice of the wording indicating the setting content and the voice of the user are input to the microphone 16 of the MFP 10 (that is, step S18 in FIG. 18), the first promotion unit 122 uses the microphone 16 of the user's voice. The second promotion process for prompting the user to input to is executed (step S210). Further, the controller 31 determines whether or not the characteristic information of the user's voice input to the microphone after the execution of the second promotion process matches the characteristic information of the user's voice included in the voice based on the new voice data. Is determined (step S216). If YES is determined in step S216, the execution unit 116 executes a job based on the setting content indicated by the voice included in the voice based on the new voice data (step S22). On the other hand, if it is determined to be BO in step S216, the execution unit 116 does not execute the job based on the setting content indicated by the voice included in the voice based on the new voice data.

例えば、正規のユーザーが1回目のジョブ(図17のステップS4のジョブ)をMFP10に実行させた場合において、該正規のユーザーとは異なる悪意のあるユーザーが、外部装置20の音声を用いて2回目のジョブを実行しようとする場合がある。正規のユーザーは、MFP10に対して適切にユーザー認証されたユーザーである。また、悪意のあるユーザーは、例えば、MFP10に対して適切にユーザー認証されてないユーザーである。このような悪意のあるユーザーが、図18のステップS14以降の処理を実行した場合であっても、ステップS216において、NOと判断される。したがって、悪意のあるユーザーは、MFP10に対して、外部装置20の音声を用いた2回目のジョブを実行させることができない。したがって、MFP10は、悪意のあるユーザーによりMFP10に2回目のジョブが実行されることを適切に防止することができる。 For example, when a legitimate user causes the MFP 10 to execute the first job (the job in step S4 of FIG. 17), a malicious user different from the legitimate user uses the voice of the external device 20 to perform 2 You may try to run the second job. A legitimate user is a user who is properly authenticated to the MFP 10. Further, the malicious user is, for example, a user who has not been properly authenticated to the MFP 10. Even when such a malicious user executes the processes after step S14 in FIG. 18, it is determined as NO in step S216. Therefore, the malicious user cannot cause the MFP 10 to execute the second job using the voice of the external device 20. Therefore, the MFP 10 can appropriately prevent a malicious user from executing a second job on the MFP 10.

以下では、図17のステップS2、ステップS4、ステップS6、ステップS202、ステップS204、ステップS206、およびステップS8の処理をまとめて「第1の処理」という。また、図18のステップS8、ステップS210、ステップS212、ステップS214、ステップS216、ステップS20、およびステップS22の処理をまとめて「第2の処理」という。 Hereinafter, the processes of step S2, step S4, step S6, step S202, step S204, step S206, and step S8 in FIG. 17 are collectively referred to as "first process". Further, the processes of step S8, step S210, step S212, step S214, step S216, step S20, and step S22 in FIG. 18 are collectively referred to as "second process".

第3実施形態では、MFP10が、第1の処理と第2の処理との双方を実行するとして説明した。しかしながら、ユーザーは、第1の処理を第1のMFPに実行させることにより、設定内容を示す文言の音声と、ユーザーの音声との音声データを外部装置20に記憶させるようにしてもよい。また、ユーザーは、外部装置20からの音声に基づくジョブを、第1のMFPとは異なる第2のMFPに実行させるようにしてもよい。このような構成によれば、ユーザーは、第1の処理を実行させるMFPと、第2の処理を実行させるMFPとを選択することができることから、ユーザーの自由度を向上させることができる。 In the third embodiment, it has been described that the MFP 10 executes both the first process and the second process. However, the user may have the external device 20 store the voice of the wording indicating the setting content and the voice data of the user's voice by causing the first MFP to execute the first process. In addition, the user may cause a second MFP different from the first MFP to execute a job based on the voice from the external device 20. According to such a configuration, the user can select the MFP to execute the first process and the MFP to execute the second process, so that the degree of freedom of the user can be improved.

第2のMFPのコントローラーは、図16に示した設定部114と、音声認識部112と、音声受付部110と、実行部116と、第1促進部122との機能を有する。また、第2のMFPのコントローラーは、ステップS216において、「第1促進部122の促進前にマイク16に入力されたユーザーの音声」の特徴情報と、「第1促進部122の促進後にマイク16に入力されたユーザーの音声」の特徴量とが同一であるか否かを判断する。ここで、「第1促進部122の促進前にマイク16に入力されたユーザーの音声」は、ステップS18で入力したユーザーの音声である。また、「第1促進部122の促進後にマイク16に入力されたユーザーの音声」は、ステップS212でYESと判断されたユーザーの音声である。 The controller of the second MFP has the functions of the setting unit 114, the voice recognition unit 112, the voice reception unit 110, the execution unit 116, and the first promotion unit 122 shown in FIG. Further, in step S216, the controller of the second MFP includes the feature information of "the user's voice input to the microphone 16 before the promotion of the first promotion unit 122" and "the microphone 16 after the promotion of the first promotion unit 122". It is determined whether or not the feature amount of "user's voice input to" is the same. Here, the "user's voice input to the microphone 16 before the promotion of the first promotion unit 122" is the user's voice input in step S18. Further, "the voice of the user input to the microphone 16 after the promotion of the first promotion unit 122" is the voice of the user determined to be YES in step S212.

[第5実施形態]
上述の実施形態では、MFP10の生成部104は、取得部102が取得した設定内容を示す文言のそのままの音声の音声データを生成する。第5実施形態の生成部104は、取得部102が取得した設定内容を示す文言の文字数よりも少ない文字数の内容に基づく音声データを生成する。以下では、取得部102が取得した設定内容を示す文言の文字数よりも少ない文字数の内容を、「短縮内容」という場合がある。
[Fifth Embodiment]
In the above-described embodiment, the generation unit 104 of the MFP 10 generates voice data of the voice as it is in the wording indicating the setting content acquired by the acquisition unit 102. The generation unit 104 of the fifth embodiment generates voice data based on the content of the number of characters smaller than the number of characters of the wording indicating the setting content acquired by the acquisition unit 102. In the following, the content having a number of characters smaller than the number of characters in the wording indicating the setting content acquired by the acquisition unit 102 may be referred to as “shortened content”.

第5実施形態のMFP10および外部装置20は、図11に示した通りである。また、第5実施形態のMFP10および外部装置20の処理フローを図12を用いて説明する。ステップS6において、生成部104は、変換テーブルに基づいて、取得部102が取得した設定内容を、該設定内容を示す文言の文字数よりも少ない文字数の内容に変換する。図19は、変換テーブルの一例である。図19の変換テーブルは、MFP10の所定の記憶領域に記憶されている。 The MFP 10 and the external device 20 of the fifth embodiment are as shown in FIG. Further, the processing flow of the MFP 10 and the external device 20 of the fifth embodiment will be described with reference to FIG. In step S6, the generation unit 104 converts the setting content acquired by the acquisition unit 102 into a content having a number of characters smaller than the number of characters of the wording indicating the setting content, based on the conversion table. FIG. 19 is an example of a conversion table. The conversion table of FIG. 19 is stored in a predetermined storage area of the MFP 10.

図19の左欄には、変換前の設定内容が規定されており、図19の右欄には、変換度の設定内容(つまり、文字数が少ない設定内容)が規定されている。図19の例では、「解像度200×200dpi」が、「2d」に対応づけられている。「解像度300×300dpi」が、「3d」に対応づけられている。「解像度400×400dpi」が、「4d」に対応づけられている。「解像度600×600dpi」が、「6d」に対応づけられている。「ファイル形式コンパクトPDF」が、「cdpf」に対応づけられている。「ファイル形式コンパクトXPS」が、「cxps」に対応づけられている。「Email送信」が、「ms」に対応づけられている。 The left column of FIG. 19 defines the setting contents before conversion, and the right column of FIG. 19 defines the setting contents of the conversion degree (that is, the setting contents having a small number of characters). In the example of FIG. 19, "resolution 200 x 200 dpi" is associated with "2d". "Resolution 300 x 300 dpi" is associated with "3d". "Resolution 400 x 400 dpi" is associated with "4d". "Resolution 600 x 600 dpi" is associated with "6d". "File format compact PDF" is associated with "cdpf". "File format compact XPS" is associated with "cpps". "Email transmission" is associated with "ms".

例えば、ユーザーにより、「解像度400×400dpi」、「ファイル形式コンパクトPDF」、「user@test.jp」、「Email送信」が設定された場合を説明する。この場合には、取得部102は、ジョブの設定内容として、「解像度400×400dpi」、「ファイル形式コンパクトPDF」、「user@test.jp」、および「Email送信」を取得する。このうち、変換対象の設定内容は、「解像度400×400dpi」、「ファイル形式コンパクトPDF」、および「Email送信」である。生成部104は、図19の変換テーブルを参照して、「解像度400×400dpi」を「4d」に変換し、「ファイル形式コンパクトPDF」を「cdpf」に変換し、「Email送信」を「ms」に変換する。 For example, a case where "resolution 400 x 400 dpi", "file format compact PDF", "user@test.jp", and "email transmission" are set by the user will be described. In this case, the acquisition unit 102 acquires "resolution 400 x 400 dpi", "file format compact PDF", "user@test.jp", and "email transmission" as job setting contents. Of these, the setting contents of the conversion target are "resolution 400 x 400 dpi", "file format compact PDF", and "email transmission". With reference to the conversion table of FIG. 19, the generation unit 104 converts "resolution 400 x 400 dpi" to "4d", converts "file format compact PDF" to "cdpf", and changes "Email transmission" to "ms". To convert to.

ステップS6において、生成部104は変換後の内容に基づいた音声データを生成する。ここでは、生成部104は、「にでぃ、しーでぃーぴーえふ、あるふぁべっと、ゆーえすいーあーる、すうじ、いち、あっとまーく、あるふぁべっと、てぃーいーえすてぃーどっとじぇーぴー、えむえす」という機械音声の音声データを生成する。 In step S6, the generation unit 104 generates audio data based on the converted content. Here, the generation unit 104 is "Nidi, Sidy Peafu, Arufabetto, Yuesuiaru, Suuji, Ichi, Attomark, Arufabetto". , Teeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeee

ステップS8において、少ない文字数の内容(つまり、短縮内容)に基づく音声データを外部装置20に送信する。外部装置20は、この音声データを記憶する。ステップS14において、ユーザーが、外部装置20に対して音声出力操作を行った場合に、「にでぃ、しーでぃーぴーえふ、あるふぁべっと、ゆーえすいーあーる、すうじ、いち、あっとまーく、あるふぁべっと、てぃーいーえすてぃーどっとじぇーぴー、えむえす」という機械音声を出力する。マイク16にこの機械音声が入力された場合には、ステップS20において、音声認識部112は、この機械音声に対して音声認識処理を実行する。コントローラー31は、音声認識処理の結果により示される短縮内容を、図19の変換テーブルを参照して、変換前の設定内容に戻す。これにより、コントローラー31は、変換前の設定内容を特定することができる。設定部114は、変換前の設定内容に基づく設定を行う。ステップS22において、実行部116は、該設定に基づくジョブを実行する。 In step S8, audio data based on the content with a small number of characters (that is, the shortened content) is transmitted to the external device 20. The external device 20 stores this voice data. In step S14, when the user performs a voice output operation on the external device 20, "Nidi, Peripheral, Arufabetto, Yuesuiaru, Suji" , Ichi, Attomark, Arufabetto, Teeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeee When the machine voice is input to the microphone 16, in step S20, the voice recognition unit 112 executes the voice recognition process for the machine voice. The controller 31 returns the shortened content indicated by the result of the voice recognition process to the setting content before conversion with reference to the conversion table of FIG. As a result, the controller 31 can specify the setting contents before conversion. The setting unit 114 makes settings based on the setting contents before conversion. In step S22, the execution unit 116 executes a job based on the setting.

本実施形態のMFPによれば、生成部104は、短縮内容の音声データを生成し、送信部106は、この短縮内容の音声データを外部装置20に送信する。したがって、本実施形態のMFPは、「取得部が取得した設定内容を示す文言のそのままの音声の音声データを外部装置に送信するMFP」と比較して、音声データの容量を削減することができる。 According to the MFP of the present embodiment, the generation unit 104 generates the audio data of the shortened content, and the transmission unit 106 transmits the audio data of the shortened content to the external device 20. Therefore, the MFP of the present embodiment can reduce the capacity of the voice data as compared with the "MFP that transmits the voice data of the voice as it is in the wording indicating the setting content acquired by the acquisition unit to the external device". ..

[第6実施形態]
第6実施形態のMFPは、外部装置20から出力された機械音声に基づくジョブの設定内容に、ユーザーが変更可能である可変内容が含まれている場合に、ユーザーがこの可変内容を変更することができる。
[Sixth Embodiment]
In the MFP of the sixth embodiment, when the setting contents of the job based on the machine voice output from the external device 20 include variable contents that can be changed by the user, the user changes the variable contents. Can be done.

第6実施形態のMFP10および外部装置20は、図11に示した通りである。図11の実行部116は、本開示の「第2実行部」に対応する。また、図20は、第6実施形態のMFP10および外部装置20の処理フローを示す図である。ステップS20において、音声認識部112が入力された機械音声に対して音声認識を実行する。次に、ステップS302において、コントローラー31は、音声認識結果に示される設定内容に可変内容が含まれているか否かを判断する。ここで、可変内容は、ユーザーにより自由に変更できれば、ユーザーの利便性が向上する内容である。可変内容は、各ジョブ毎に予め定められている。例えば、メール送信ジョブの可変内容は、「メールの送信先」である。メールの送信先は、送信宛先と、送信フォルダとの少なくとも一方を含む。また、コピージョブおよびプリンタジョブの可変内容は、「印刷枚数」である。 The MFP 10 and the external device 20 of the sixth embodiment are as shown in FIG. The execution unit 116 of FIG. 11 corresponds to the “second execution unit” of the present disclosure. Further, FIG. 20 is a diagram showing a processing flow of the MFP 10 and the external device 20 of the sixth embodiment. In step S20, the voice recognition unit 112 executes voice recognition for the input machine voice. Next, in step S302, the controller 31 determines whether or not the setting content shown in the voice recognition result includes variable content. Here, the variable content is a content that improves the convenience of the user if it can be freely changed by the user. The variable contents are predetermined for each job. For example, the variable content of the mail sending job is "mail destination". The destination of the mail includes at least one of the destination and the destination folder. The variable content of the copy job and the printer job is "the number of prints".

コントローラー31は、音声認識結果に示される設定内容に可変内容が含まれていると判断すると(ステップS302でYES)、処理はステップS304に進む。ステップS304において、コントローラー31は、設定内容の変更を入力させるための画面を、操作パネル34に表示する。取得部102は、この画面から、設定内容の変更が入力された場合には、取得部102は、設定内容の変更を取得する。 When the controller 31 determines that the setting content shown in the voice recognition result includes variable content (YES in step S302), the process proceeds to step S304. In step S304, the controller 31 displays a screen for inputting a change in the setting contents on the operation panel 34. When the change of the setting content is input from this screen, the acquisition unit 102 acquires the change of the setting content.

図21は、設定内容の変更を入力させるための画面の一例である。図21の画面には、表示領域516と、第3ボタン552と、第4ボタン554とが表示される。表示領域516は、メール送信ジョブの宛先が表示される。第3ボタン552の領域内には「宛先入力完了」という文字が表示されている。第4ボタン554の領域内には「音声データの宛先を使用」という文字が表示されている。 FIG. 21 is an example of a screen for inputting a change in the setting contents. On the screen of FIG. 21, the display area 516, the third button 552, and the fourth button 554 are displayed. In the display area 516, the destination of the mail transmission job is displayed. The characters "destination input completed" are displayed in the area of the third button 552. In the area of the fourth button 554, the characters "use voice data destination" are displayed.

ユーザーが、外部装置20から出力された機械音声の宛先を設定する場合には、第4ボタン554を操作する。また、ユーザーが、外部装置20から出力された機械音声の宛先を変更する場合には、第3ボタン552を操作する。 When the user sets the destination of the machine voice output from the external device 20, the user operates the fourth button 554. Further, when the user changes the destination of the machine voice output from the external device 20, the user operates the third button 552.

図21の画面が表示されたときにおいて、第3ボタン552および第4ボタン554のいずれも操作されていない状態では、ユーザーは、表示領域516に新たな宛先を入力可能となる。ユーザーは、表示領域516に宛先を入力して、第3ボタン552を操作すると、設定部114は、外部装置20から出力された機械音声の宛先を削除して表示領域516に入力された宛先を新たに設定する。また、ユーザーが、第4ボタン554を操作すると、設定部114は、外部装置20から出力された機械音声の宛先を設定する。 When the screen of FIG. 21 is displayed, if neither the third button 552 nor the fourth button 554 is operated, the user can input a new destination in the display area 516. When the user inputs a destination to the display area 516 and operates the third button 552, the setting unit 114 deletes the destination of the machine voice output from the external device 20 and sets the destination input to the display area 516. Set anew. Further, when the user operates the fourth button 554, the setting unit 114 sets the destination of the machine voice output from the external device 20.

その後、ステップS22において、実行部116は、設定内容が変更されなかった場合には、音声認識結果に基づいたジョブを実行する。また、ステップS22において、実行部116は、設定内容が変更された場合には、「音声認識結果からの設定内容」および「取得部102が取得した変更が反映された設定内容」に基づくジョブ変更された設定内容に基づいたジョブを実行する。 After that, in step S22, the execution unit 116 executes the job based on the voice recognition result when the setting contents are not changed. Further, in step S22, when the setting content is changed, the execution unit 116 changes the job based on the "setting content from the voice recognition result" and the "setting content reflecting the change acquired by the acquisition unit 102". Execute the job based on the settings made.

本実施形態のMFP10は、外部装置20から出力された音声の設定内容のうち可変内容については、ユーザーは変更することができる。したがって、ユーザーの利便性を向上させることができる。 In the MFP 10 of the present embodiment, the user can change the variable content of the audio setting content output from the external device 20. Therefore, the convenience of the user can be improved.

以下では、図20のステップS2、ステップS4、ステップS6、およびステップS8の処理をまとめて「第3の処理」という。また、図20のステップS18、ステップS20、ステップS302、ステップS304、およびステップS22の処理をまとめて「第4の処理」という。 Hereinafter, the processes of step S2, step S4, step S6, and step S8 of FIG. 20 are collectively referred to as a "third process". Further, the processes of step S18, step S20, step S302, step S304, and step S22 in FIG. 20 are collectively referred to as a "fourth process".

第6実施形態では、MFP10が、第3の処理と第4の処理との双方を実行するとして説明した。しかしながら、ユーザーは、第3の処理を第1のMFPに実行させることにより、設定内容を示す文言の音声と、ユーザーの音声との音声データを外部装置20に記憶させるようにしてもよい。また、ユーザーは、外部装置20からの音声に基づくジョブを、第1のMFPとは異なる第2のMFPに実行させるようにしてもよい。このような構成によれば、ユーザーは、第1の処理を実行させるMFPと、第2の処理を実行させるMFPとを選択することができることから、ユーザーの自由度を向上させることができる。 In the sixth embodiment, it has been described that the MFP 10 executes both the third process and the fourth process. However, the user may have the external device 20 store the voice of the wording indicating the setting content and the voice data of the user's voice by causing the first MFP to execute the third process. In addition, the user may cause a second MFP different from the first MFP to execute a job based on the voice from the external device 20. According to such a configuration, the user can select the MFP to execute the first process and the MFP to execute the second process, so that the degree of freedom of the user can be improved.

第2のMFPのコントローラーは、図11に示したマイク16と、取得部102と、設定部114と、音声認識部112と、音声受付部110と、実行部116との機能を有する。なお、取得部102は、設定内容の変更を取得する。また、第2のMFPのコントローラーは、図20のステップS20の処理を終了したときに、ステップS302、ステップS304,およびステップS22の処理を実行する。 The controller of the second MFP has the functions of the microphone 16 shown in FIG. 11, the acquisition unit 102, the setting unit 114, the voice recognition unit 112, the voice reception unit 110, and the execution unit 116. The acquisition unit 102 acquires the change of the setting content. Further, the controller of the second MFP executes the processes of steps S302, S304, and S22 when the process of step S20 of FIG. 20 is completed.

[第7実施形態]
第6実施形態のMFPは、ユーザーがこの可変内容を変更することができるとして説明した。第7実施形態のMFPは、この可変内容の変更を促進することができる。図22は、第7実施形態のMFP10と外部装置20との機能構成例を示す図である。図11と、図22とを比較すると、図16に示すMFP10のコントローラー31は、第2促進部130を有する点で、図22と、図16とは異なる。第2促進部130は、設定内容の変更の取得部102への入力をユーザーに促進する。
[7th Embodiment]
The MFP of the sixth embodiment has been described as allowing the user to change this variable content. The MFP of the seventh embodiment can facilitate the change of this variable content. FIG. 22 is a diagram showing a functional configuration example of the MFP 10 and the external device 20 according to the seventh embodiment. Comparing FIG. 11 and FIG. 22, the controller 31 of the MFP 10 shown in FIG. 16 is different from FIG. 22 and FIG. 16 in that it has a second promotion unit 130. The second promotion unit 130 prompts the user to input the change of the setting content to the acquisition unit 102.

図23は、第6実施形態のMFP10および外部装置20の処理フローを示す図である。図23と、図20とを比較すると、ステップS304が、ステップS310に代替されている点で、両図面は異なる。 FIG. 23 is a diagram showing a processing flow of the MFP 10 and the external device 20 of the sixth embodiment. Comparing FIG. 23 and FIG. 20, both drawings differ in that step S304 is replaced by step S310.

ステップS302でYESと判断されると、ステップS310において、第2促進部130は、設定内容の変更の入力を促進する。例えば、第2促進部130は、設定内容の変更の入力を、音声で促進する。例えば、第2促進部130は、ステップS20での音声認識結果により、メール送信ジョブの音声が含まれていると判断された場合には、「宛先を変更しますか」といった音声を出力する。 If YES is determined in step S302, in step S310, the second promotion unit 130 promotes the input of the change of the setting content. For example, the second promotion unit 130 promotes the input of the change of the setting content by voice. For example, the second promotion unit 130 outputs a voice such as "Do you want to change the destination?" When it is determined that the voice of the mail transmission job is included based on the voice recognition result in step S20.

この音声が出力された後に、ユーザーは、「宛先を変更します。宛先は「XXX@test.jp」です」といった音声をマイク16に入力させる。この場合には、設定部114は、該入力された音声に基づく設定を行う。また、第2促進部130は、音声による促進を実行するとともに、図21の画面を表示するようにしてもよい。この場合には、取得部102は、図21の画面からの設定内容の変更を取得する。 After this voice is output, the user causes the microphone 16 to input a voice such as "Change the destination. The destination is" XXX@test.jp "". In this case, the setting unit 114 makes a setting based on the input voice. In addition, the second promotion unit 130 may execute the promotion by voice and display the screen of FIG. 21. In this case, the acquisition unit 102 acquires the change of the setting content from the screen of FIG. 21.

本実施形態のMFP10は、外部装置20から出力された音声の設定内容のうちの可変内容の変更を、ユーザーに促進することができる。したがって、例えば、ユーザーがMFP10の扱いに慣れていない場合であっても、可変内容の変更をユーザーに認識させることができる。 The MFP 10 of the present embodiment can prompt the user to change the variable content of the audio setting content output from the external device 20. Therefore, for example, even if the user is not accustomed to handling the MFP 10, the user can be made aware of the change in the variable content.

[第8実施形態]
第1実施形態〜第7実施形態では、外部装置20は、MFP10からの音声データを記憶し、該記憶した音声データに基づく音声を出力するとして説明した。第8実施形態の外部装置20Aは、例えば、設定内容の音声を出力するアプリケーションをダウンロード可能とする。以下では、このアプリケーションを、「MFPアプリケーション」という。このMFPアプリケーションは、所定のサーバー装置(特に図示せず)が提供するアプリケーションである。外部装置20Aは、該MFPアプリケーションを起動させている状態で、ユーザーの操作に基づいて機械音声を出力する。
[8th Embodiment]
In the first to seventh embodiments, the external device 20 has been described as storing the voice data from the MFP 10 and outputting the voice based on the stored voice data. The external device 20A of the eighth embodiment makes it possible to download, for example, an application that outputs audio of the setting contents. Hereinafter, this application is referred to as an "MFP application". This MFP application is an application provided by a predetermined server device (not particularly shown). The external device 20A outputs the machine voice based on the user's operation while the MFP application is running.

図24は、外部装置20AがMFPアプリケーションを起動させた場合に外部装置20Aの操作パネル442の表示領域442Aに表示される画面である。図24は、ジョブの一覧が表示される画面である。図24の例では、ジョブの一覧として、メール送信ジョブ、コピージョブなどが表示される。ユーザーは、ジョブの一覧から、機械音声を出力させたいジョブ、つまり、MFP10に実行させたいジョブを選択できる。ユーザーによりジョブが選択された状態で、決定ボタン611を操作されると、外部装置20Aは、該選択されたジョブに対応する設定画面を表示する。この設定画面は、選択されたジョブに対応する1以上の設定項目が表示される画面である。ユーザーにより該設定項目が選択されて、該設定項目が決定されると、外部装置20Aは、該設定項目に対応する音声を出力する。 FIG. 24 is a screen displayed in the display area 442A of the operation panel 442 of the external device 20A when the external device 20A activates the MFP application. FIG. 24 is a screen on which a list of jobs is displayed. In the example of FIG. 24, a mail sending job, a copy job, and the like are displayed as a list of jobs. From the list of jobs, the user can select a job for which machine voice is to be output, that is, a job for which the MFP 10 is to be executed. When the enter button 611 is operated while the job is selected by the user, the external device 20A displays the setting screen corresponding to the selected job. This setting screen is a screen on which one or more setting items corresponding to the selected job are displayed. When the setting item is selected by the user and the setting item is determined, the external device 20A outputs the sound corresponding to the setting item.

図25は、メール送信ジョブに対応する音声画面の一例である。図25の例では、設定項目の一覧610と、実行ボタン612と、保存ボタン614とが表示される。図25の設定項目の一覧610は、「解像度200×200dpi」、「解像度300×300dpi」、「解像度400×400dpi」、「解像度600×600dpi」、「ファイル形式:コンパクトPDF」、「ファイル形式:TIFF」、「ファイル形式:XPS」、「ファイル形式:PPTX」、「ファイル形式:コンパクトPDF」、「ファイル形式:JPEG」、および「ファイル形式:コンパクトXPS」からなる。 FIG. 25 is an example of an audio screen corresponding to an email transmission job. In the example of FIG. 25, a list of setting items 610, an execute button 612, and a save button 614 are displayed. The list of setting items 610 in FIG. 25 includes "resolution 200 x 200 dpi", "resolution 300 x 300 dpi", "resolution 400 x 400 dpi", "resolution 600 x 600 dpi", "file format: compact PDF", and "file format:". It consists of "TIFF", "File format: XPS", "File format: PPTX", "File format: Compact PDF", "File format: JPEG", and "File format: Compact XPS".

図25の例では、設定項目が表示されている状態で、ユーザーにより指定(例えば、タッチ)されることにより、表示されている設定項目が選択される。図25の例では、「解像度:300×300dpi」と、「ファイル形式:コンパクトPDF」と、がユーザーにより選択されている状態である。なお、属性が同一の設定項目については、2以上の設定項目が選択不可能となっている。本実施形態では、属性とは、「解像度」、「ファイル形式」等である。したがって、例えば、属性が「解像度」である設定項目については、1つの設定項目が選択できるようになっており、2以上の設定項目が選択できないようになっている。例えば、「解像度:300×300dpi」が選択されている状態において、「解像度:400×400dpi」が選択された場合には、「解像度:300×300dpi」の選択は解除される。 In the example of FIG. 25, the displayed setting item is selected by being specified (for example, touched) by the user while the setting item is displayed. In the example of FIG. 25, "resolution: 300 x 300 dpi" and "file format: compact PDF" are selected by the user. For setting items with the same attributes, two or more setting items cannot be selected. In the present embodiment, the attributes are "resolution", "file format", and the like. Therefore, for example, for a setting item whose attribute is "resolution", one setting item can be selected, and two or more setting items cannot be selected. For example, if "resolution: 400 x 400 dpi" is selected while "resolution: 300 x 300 dpi" is selected, the selection of "resolution: 300 x 300 dpi" is canceled.

ユーザーにより設定項目が選択されている状態で、実行ボタン612が操作されると、外部装置20Aは、該選択されている選択項目を示す文言の音声(例えば、機械音声)を出力する。「解像度300×300dpi」と、「ファイル形式:コンパクトPDF」と、がユーザーにより選択されている状態で、実行ボタン612が操作された場合には、外部装置20Aは、要求信号をサーバー装置に対して送信する。要求信号は、選択されている設定項目を示す文言の音声の音声データをサーバー装置に対して要求するための信号である。サーバー装置は、要求信号を受信すると、該要求信号で要求されている音声データを要求元の外部装置20Aに送信する。外部装置20Aは、該音声データを受信すると、該音声データに基づく機械音声を出力する。図25の例では、外部装置20Aは、「かいぞうど、さんびゃくでぃぴーあい、ふぁいるけいしき、こんぱくとぴーでぃーえふ」という機械音声を出力する。 When the execution button 612 is operated while the setting item is selected by the user, the external device 20A outputs a voice (for example, machine voice) of the wording indicating the selected selection item. When the execute button 612 is operated while "resolution 300 x 300 dpi" and "file format: compact PDF" are selected by the user, the external device 20A sends a request signal to the server device. And send. The request signal is a signal for requesting the server device for voice data of the voice of the wording indicating the selected setting item. When the server device receives the request signal, it transmits the voice data requested by the request signal to the request source external device 20A. When the external device 20A receives the voice data, it outputs a machine voice based on the voice data. In the example of FIG. 25, the external device 20A outputs a mechanical sound such as "kaizoudo, sanbyakudipeeai, file keishiki, konpakutopideiefu".

また、ユーザーにより設定項目が選択されている状態で、保存ボタン614が操作されると、外部装置20Aは、要求信号をサーバー装置に送信する。サーバー装置は、要求信号を受信すると、該要求信号で要求されている音声データを要求元の外部装置20Aに送信する。外部装置20Aは、該音声データを受信すると、外部装置20Aの所定の記憶領域に該音声データを記憶する。これにより、ユーザーは、MFPアプリケーションを起動させなくても、音声を出力するアプリケーションを該記憶されている音声データの音声を出力させることができる。 Further, when the save button 614 is operated while the setting item is selected by the user, the external device 20A transmits the request signal to the server device. When the server device receives the request signal, it transmits the voice data requested by the request signal to the request source external device 20A. When the external device 20A receives the voice data, the external device 20A stores the voice data in a predetermined storage area of the external device 20A. As a result, the user can make the application that outputs the voice output the voice of the stored voice data without starting the MFP application.

このように、本実施形態の外部装置20Aは、MFPアプリケーションをダウンロードした場合には、音声データを記憶せずに、保存ボタン614が操作された場合に、選択された設定項目の音声データを記憶する。したがって、本実施形態の外部装置20Aは、「MFPアプリケーションをダウンロードした場合は、全ての設定項目の音声データを記憶する外部装置」と比較して、記憶容量の削減を図ることができる。 As described above, the external device 20A of the present embodiment stores the voice data of the selected setting item when the save button 614 is operated without storing the voice data when the MFP application is downloaded. To do. Therefore, the external device 20A of the present embodiment can reduce the storage capacity as compared with the "external device that stores the audio data of all the setting items when the MFP application is downloaded".

ところで、機能が異なる複数のMFPが存在する場合がある。図26は、3台のMFP10X、10Y、10Zの機能を示す図である。図26の例では、MFP10Aは、カラー印刷およびモノクロ印刷を実行可能である。また、MFP10Bは、カラー印刷およびモノクロ印刷を実行可能である。また、MFP10Cは、カラー印刷を実行できずモノクロ印刷を実行可能である。図26の情報は、MFPアプリケーションに含まれる情報である。外部装置20Aは、MFPアプリケーションをダウンロードしたときに、図26の情報を、外部装置20Aの所定領域に記憶する。 By the way, there may be a plurality of MFPs having different functions. FIG. 26 is a diagram showing the functions of the three MFPs 10X, 10Y, and 10Z. In the example of FIG. 26, the MFP 10A is capable of performing color printing and monochrome printing. Further, the MFP 10B can execute color printing and monochrome printing. Further, the MFP10C cannot execute color printing and can execute monochrome printing. The information in FIG. 26 is information included in the MFP application. When the MFP application is downloaded, the external device 20A stores the information of FIG. 26 in a predetermined area of the external device 20A.

図27は、コピー送信ジョブに対応する音声画面の一例である。図27の例では、設定項目の一覧650と、MFP10X実行ボタン652と、MFP10Y実行ボタン654と、MFP10Z実行ボタン656と、保存ボタン614とが表示される。図25の設定項目の一覧650は、「部数:3」、「部数:4」、「部数:5」、「部数:6」、「部数:7」、「部数:8」、「部数:9」、「部数:10」、「部数:設定する」、「カラーコピー」、「モノクロコピー」からなる。部数は、コピージョブによるコピー枚数である。 FIG. 27 is an example of an audio screen corresponding to a copy transmission job. In the example of FIG. 27, a list of setting items 650, an MFP10X execution button 652, an MFP10Y execution button 654, an MFP10Z execution button 656, and a save button 614 are displayed. The list of setting items 650 in FIG. 25 includes "number of copies: 3", "number of copies: 4", "number of copies: 5", "number of copies: 6", "number of copies: 7", "number of copies: 8", and "number of copies: 9". , "Number of copies: 10", "Number of copies: set", "Color copy", "Monochrome copy". The number of copies is the number of copies made by the copy job.

図27の例では、「部数:5」、および「カラーコピー」が選択されている。ここで、例えば、MFP10X実行ボタン652またはMFP10Y実行ボタン654が操作された場合には、外部装置20Aは、選択されている設定内容を決定するとともに、該決定された設定内容を示す文言の音声を出力する。したがって、外部装置20Aは、「ぶすうごまい、からーこぴー」という機械音声を出力する。 In the example of FIG. 27, "number of copies: 5" and "color copy" are selected. Here, for example, when the MFP10X execution button 652 or the MFP10Y execution button 654 is operated, the external device 20A determines the selected setting content and emits a voice of a word indicating the determined setting content. Output. Therefore, the external device 20A outputs the machine voice "Busuugomai, Karakopee".

次に、「部数:5」、および「カラーコピー」が選択された状態でMFP10Z実行ボタン656が操作された場合を説明する。図26でも説明したように、MFP10Zは、カラーコピーを実行することができない。したがって、外部装置20Aが、「からーこぴー」という機械音声を出力したとしても、MFP10Zは、カラーコピーを実行することができない。よって、ユーザーは、設定内容をカラーコピーからモノクロコピーに変更しなければならず、ユーザーの負担が増大することになる。 Next, a case where the MFP10Z execution button 656 is operated with "number of copies: 5" and "color copy" selected will be described. As also described in FIG. 26, the MFP10Z cannot perform color copying. Therefore, even if the external device 20A outputs the machine voice "Karakopee", the MFP10Z cannot execute the color copy. Therefore, the user has to change the setting content from the color copy to the monochrome copy, which increases the burden on the user.

そこで、本実施形態では、外部装置20Aは、ユーザーにより選択された設定内容から、MFPが実行可能なジョブに応じた設定内容に変更する。図26および図27の例では、外部装置20Aは、ユーザーにより選択された設定内容(ここでは、カラーコピー)から、MFP10Zが実行可能なジョブに応じた設定内容(ここでは、モノクロコピー)に変更する。例えば、外部装置20Aは、「MFP10Zは、カラーコピーを実行不可能であることから、モノクロコピーに変更してもよろしいですか」という画像と、YESボタンと、NOボタンとをポップアップ表示する。ユーザーによりNOボタンが操作されると、コピー送信ジョブに対応する音声画面の初期状態に戻す。 Therefore, in the present embodiment, the external device 20A changes the setting content selected by the user to the setting content according to the job that can be executed by the MFP. In the examples of FIGS. 26 and 27, the external device 20A changes the setting contents selected by the user (here, color copy) to the setting contents (here, monochrome copy) according to the job that the MFP10Z can execute. To do. For example, the external device 20A pops up an image "May I change to a monochrome copy because the MFP10Z cannot perform color copying?", A YES button, and a NO button. When the NO button is operated by the user, the initial state of the audio screen corresponding to the copy transmission job is returned.

一方、ユーザーによりYESボタンが操作されると、外部装置20Aは、カラーコピーが選択されている状態からモノクロコピーが選択されている状態に変更する。例えば、カラーコピーの枠線が太線となっている状態から、モノクロコピーの枠線が太線となっている状態に切換える。その後、外部装置20Aは、「ぶすうごまい、ものくろこぴー」という機械音声を出力する。 On the other hand, when the YES button is operated by the user, the external device 20A changes from the state in which the color copy is selected to the state in which the monochrome copy is selected. For example, the state in which the border of the color copy is a thick line is switched to the state in which the border of the monochrome copy is a thick line. After that, the external device 20A outputs a mechanical voice saying "Busuugomai, Monokurokopee".

図28は、画像形成システム1000Aの構成例を示す図である。図28の例では、サーバー装置70と、MFP10と、MFPアプリケーションをダウンロードした外部装置20A(コンピューター)とを有する。 FIG. 28 is a diagram showing a configuration example of the image forming system 1000A. In the example of FIG. 28, the server device 70, the MFP 10, and the external device 20A (computer) to which the MFP application is downloaded are provided.

外部装置20Aのコントローラー41Aは、記憶部204と、操作受付部206と、出力制御部208と、表示制御部210と、要求部212とを有する。 The controller 41A of the external device 20A has a storage unit 204, an operation reception unit 206, an output control unit 208, a display control unit 210, and a request unit 212.

記憶部204は、MFPアプリケーションのプログラムを記憶する。操作受付部206は、ユーザーによる操作パネル44の操作を受け付ける。本実施形態では、操作受付部206は、MFP10に実行させるジョブの設定内容の選択を受付ける。「設定内容の選択」は、例えば、図25で説明した設定項目の一覧610からのユーザーの選択である。また、「設定内容の選択」は、例えば、図27で説明した設定項目の一覧650からのユーザーの選択である。 The storage unit 204 stores the program of the MFP application. The operation reception unit 206 receives an operation of the operation panel 44 by the user. In the present embodiment, the operation reception unit 206 accepts the selection of the setting contents of the job to be executed by the MFP 10. The "selection of setting contents" is, for example, a user's selection from the list 610 of the setting items described with reference to FIG. 25. Further, the "selection of setting contents" is, for example, a user's selection from the list of setting items 650 described with reference to FIG. 27.

また、操作受付部206は、選択された設定内容の決定を受付ける。「選択内容の決定」は、例えば、図25で説明した実行ボタン612への操作である。また、「選択内容の決定」は、例えば、図27で説明したMFP10X実行ボタン652と、MFP10Y実行ボタン654と、MFP10Z実行ボタン656とのうちのいずれかのボタンへの操作である。 Further, the operation reception unit 206 accepts the determination of the selected setting content. “Determining the selected content” is, for example, an operation on the execution button 612 described with reference to FIG. 25. Further, the "determination of the selected content" is, for example, an operation on any one of the MFP10X execution button 652, the MFP10Y execution button 654, and the MFP10Z execution button 656 described with reference to FIG. 27.

また、表示制御部210は、図25および図27で説明した画面を操作パネル44の表示装置442の表示領域442Aに表示させる。また、要求部212は、出力制御部208は、ユーザーにより決定された設定内容に基づく音声データをサーバー装置70に要求する。出力制御部208は、要求部212の要求によりサーバー装置70から受信した音声データに基づく機械音声をスピーカー47から出力させる。MFP10は、該機械音声に基づくジョブを実行する。 Further, the display control unit 210 displays the screens described with reference to FIGS. 25 and 27 in the display area 442A of the display device 442 of the operation panel 44. Further, the request unit 212 requests the server device 70 for voice data based on the setting contents determined by the user by the output control unit 208. The output control unit 208 outputs the machine voice based on the voice data received from the server device 70 at the request of the request unit 212 from the speaker 47. The MFP 10 executes a job based on the machine voice.

また、保存ボタン614が操作されたときには、コントローラー41Aは、要求部212の要求によりサーバー装置70から受信した音声データを記憶部204に記憶させる。 Further, when the save button 614 is operated, the controller 41A stores the voice data received from the server device 70 in the storage unit 204 at the request of the request unit 212.

図29は、本実施形態の外部装置20Aの処理フローである。外部装置20Aに対してユーザーによりMFPアプリケーションを起動させる処理が実行された場合に、外部装置20Aは、図29の処理を開始する。 FIG. 29 is a processing flow of the external device 20A of the present embodiment. When the process of initiating the MFP application by the user is executed for the external device 20A, the external device 20A starts the process of FIG. 29.

ステップS402において、表示制御部210は、操作パネルに図24の一覧画面を表示する。また、表示制御部210は、選択されたジョブに対応する設定画面(例えば、図25または図27の画面)を表示する。 In step S402, the display control unit 210 displays the list screen of FIG. 24 on the operation panel. Further, the display control unit 210 displays a setting screen (for example, the screen of FIG. 25 or FIG. 27) corresponding to the selected job.

コントローラー41Aは、ステップS404において、操作受付部206が設定内容の選択を受付けたか否かを判断する。コントローラー41Aは、操作受付部206が設定内容の変更を受付けたと判断するまで、ステップS404の処理を繰返す(ステップS404でNO)。コントローラー41Aは、操作受付部206が設定内容の変更を受付けたと判断した場合には(ステップS404でYES)、処理は、ステップS406に進む。 In step S404, the controller 41A determines whether or not the operation reception unit 206 has accepted the selection of the set contents. The controller 41A repeats the process of step S404 until it is determined that the operation receiving unit 206 has accepted the change of the set contents (NO in step S404). When the controller 41A determines that the operation receiving unit 206 has accepted the change of the set contents (YES in step S404), the process proceeds to step S406.

コントローラー41Aは、ステップS406において、操作受付部206が保存ボタン614の操作を受付けたか否かを判断する。コントローラー41Aは、ステップS406において、操作受付部206が保存ボタン614の操作を受付けたと判断すると(ステップS406でYES)、処理は、ステップS416に進む。ステップS416において、要求部212は、決定された設定内容に基づく音声データをサーバー装置70に要求する。ステップS416において、要求部212は、要求した音声データを受信すると、該音声データを記憶部204に記憶させる。 In step S406, the controller 41A determines whether or not the operation reception unit 206 has accepted the operation of the save button 614. When the controller 41A determines in step S406 that the operation receiving unit 206 has accepted the operation of the save button 614 (YES in step S406), the process proceeds to step S416. In step S416, the requesting unit 212 requests the server device 70 for voice data based on the determined setting contents. In step S416, when the requesting unit 212 receives the requested voice data, the requesting unit 212 stores the requested voice data in the storage unit 204.

コントローラー41Aは、ステップS406において、操作受付部206が保存ボタン614の操作を受付けていないと判断すると(ステップS406でNO)、処理は、ステップS408に進む。 When the controller 41A determines in step S406 that the operation receiving unit 206 has not received the operation of the save button 614 (NO in step S406), the process proceeds to step S408.

コントローラー41Aは、ステップS408において、操作受付部206が実行ボタンの操作を受付けたか否かを判断する。ここで、実行ボタンは、図25で説明した実行ボタン612、MFP10X実行ボタン652、MFP10Y実行ボタン654、およびMFP10Z実行ボタン656である。コントローラー41Aは、ステップS406において、操作受付部206が実行ボタンの操作を受付けたと判断すると(ステップS408でYES)、処理は、ステップS410に進む。 In step S408, the controller 41A determines whether or not the operation reception unit 206 has accepted the operation of the execution button. Here, the execution buttons are the execution button 612, the MFP10X execution button 652, the MFP10Y execution button 654, and the MFP10Z execution button 656 described with reference to FIG. 25. When the controller 41A determines in step S406 that the operation reception unit 206 has accepted the operation of the execution button (YES in step S408), the process proceeds to step S410.

ステップS410において、コントローラー41Aは、「ステップS404で選択されたと判断された設定内容」は、「実行ボタンにより指定されているMFPが実行可能なジョブに応じた設定内容」であるか否かを判断する。例えば、図27の画面において、カラーコピーが選択されている状態において、MFP10X実行ボタン652が操作されたときには、カラーコピーは、MFP10X実行ボタン652により指定されているMFP10Xが実行可能なジョブに応じた設定内容である。この場合には、ステップS410ではYESと判断され、処理は、ステップS412に進む。 In step S410, the controller 41A determines whether or not the "setting content determined to be selected in step S404" is the "setting content corresponding to the job that can be executed by the MFP specified by the execute button". To do. For example, on the screen of FIG. 27, when the MFP10X execution button 652 is operated while the color copy is selected, the color copy corresponds to the job that the MFP10X specified by the MFP10X execution button 652 can execute. This is the setting content. In this case, YES is determined in step S410, and the process proceeds to step S412.

また、図27の画面において、カラーコピーが選択されている状態において、MFP10Z実行ボタン656が操作されたときには、カラーコピーは、MFP10Z実行ボタン652により指定されているMFP10Zが実行可能なジョブに応じた設定内容ではない。この場合には、ステップS410ではNOと判断され、処理は、ステップS414に進む。 Further, when the MFP10Z execution button 656 is operated in the state where the color copy is selected on the screen of FIG. 27, the color copy corresponds to the job that the MFP10Z specified by the MFP10Z execution button 652 can execute. It is not the setting content. In this case, NO is determined in step S410, and the process proceeds to step S414.

ステップS412において、要求部212は、選択されている設定内容に基づく音声データをサーバー装置70に要求する。ステップS412において、出力制御部208は、要求した音声データを受信すると、該音声データに基づく音声をスピーカー47から出力させる。 In step S412, the requesting unit 212 requests the server device 70 for voice data based on the selected setting contents. In step S412, when the output control unit 208 receives the requested voice data, the output control unit 208 outputs the voice based on the voice data from the speaker 47.

また、ステップS414においては、コントローラー41Aは、設定内容を変更する。この変更は、「ステップS404で選択されたと判断された設定内容」から、「ステップS408で操作されたと判断された実行ボタンにより指定されたMFPが実行可能なジョブに応じた設定内容」への変更である。次のステップS412では、要求部212は、選択されている設定内容および変更された設定内容に基づく音声データをサーバー装置70に要求する。ステップS412において、出力制御部208は、要求した音声データを受信すると、該音声データに基づく音声をスピーカー47から出力させる。 Further, in step S414, the controller 41A changes the setting contents. This change is a change from "setting contents determined to be selected in step S404" to "setting contents according to a job that can be executed by the MFP specified by the execute button determined to have been operated in step S408". Is. In the next step S412, the requesting unit 212 requests the server device 70 for voice data based on the selected setting content and the changed setting content. In step S412, when the output control unit 208 receives the requested voice data, the output control unit 208 outputs the voice based on the voice data from the speaker 47.

上述のように第2ユーザーは、設定画面を視認した場合には、該設定画面に表示される設定内容の文言の音声を発することができる一方、設定画面を視認しなければ、該設定画面に表示される設定内容の文言の音声を発することができない。そこで、本実施形態の外部装置20Aは、MFPアプリケーションをダウンロードすることにより、ジョブの設定内容(つまり、ジョブの設定項目およびジョブの種別)の選択および決定を受付ける(図24、図25、図27、および図20のステップS404およびステップS408参照)。さらに、外部装置20Aの出力制御部208は、決定された設定内容を示す文言の音声をスピーカー47から出力する(ステップS412)。したがって、第2ユーザーは、適切に、音声に基づくジョブをMFP10に実行させることができる。 As described above, when the second user visually recognizes the setting screen, he / she can emit a voice of the wording of the setting content displayed on the setting screen, but if he / she does not visually recognize the setting screen, the setting screen is displayed. The voice of the displayed setting contents cannot be emitted. Therefore, the external device 20A of the present embodiment accepts the selection and determination of the job setting contents (that is, the job setting items and the job type) by downloading the MFP application (FIGS. 24, 25, 27). , And step S404 and step S408 of FIG. 20). Further, the output control unit 208 of the external device 20A outputs the voice of the wording indicating the determined setting content from the speaker 47 (step S412). Therefore, the second user can appropriately cause the MFP 10 to execute a voice-based job.

また、外部装置20Aで表示された設定内容が決定されたときに、外部装置20Aは、設定内容をMFP10に送信する構成が考えられる。しかしながら、このような構成であれば、外部装置20AとMFP10の間の通信手段を設ける必要があり、コストが増大する。本実施形態の外部装置20Aであれば、このような通信手段を設ける必要がない。したがって、外部装置20A、および画像形成システム1000は、コストの増大を抑えることができる。 Further, when the setting content displayed by the external device 20A is determined, the external device 20A may be configured to transmit the setting content to the MFP 10. However, with such a configuration, it is necessary to provide a communication means between the external device 20A and the MFP 10, which increases the cost. With the external device 20A of the present embodiment, it is not necessary to provide such a communication means. Therefore, the external device 20A and the image forming system 1000 can suppress the increase in cost.

また、外部装置20Aは、表示領域442Aに表示された設定内容がユーザーにより指定されることにより、設定内容の選択を受付ける(ステップS404参照)。したがって、ユーザーは手軽に設定内容を選択できる。 Further, the external device 20A accepts the selection of the setting contents when the setting contents displayed in the display area 442A are specified by the user (see step S404). Therefore, the user can easily select the setting contents.

また、ユーザーにより設定内容が決定されると、要求部212は、選択されている設定内容に基づく音声データをサーバー装置70に要求する。さらに、出力制御部208は、要求した音声データを受信すると、該音声データに基づく音声をスピーカー47から出力させる。また、ユーザーにより保存ボタン614が操作されると、要求部212は、選択されている設定内容に基づく音声データをサーバー装置70に要求する。さらに、出力制御部208は、要求した音声データを受信すると、該音声データを記憶させる(図29のステップS416)。該音声データが記憶された後においては、外部装置20Aは、MFPアプリケーションを起動させなくても(つまり、ユーザーによりMFPアプリケーションを起動させる操作が行われなくても)、外部装置20は、該記憶された音声データに基づく音声を出力することができる。例えば、ユーザーが頻繁に使用する設定内容(つまり、音声を頻繁に出力させる設定内容)については、ユーザーは該設定内容の音声データを外部装置20Aに記憶させることが好ましい。これにより、ユーザーは、MFPアプリケーションを起動させる操作を行わなくても、設定内容の音声データに基づく音声を外部装置20Aから出力させることができる。よって、ユーザーの操作負担を軽減できる。 Further, when the setting content is determined by the user, the requesting unit 212 requests the server device 70 for voice data based on the selected setting content. Further, when the output control unit 208 receives the requested voice data, the output control unit 208 outputs the voice based on the voice data from the speaker 47. Further, when the save button 614 is operated by the user, the request unit 212 requests the server device 70 for voice data based on the selected setting content. Further, when the output control unit 208 receives the requested voice data, the output control unit 208 stores the voice data (step S416 in FIG. 29). After the audio data is stored, the external device 20A does not start the MFP application (that is, even if the user does not perform an operation to start the MFP application), the external device 20 stores the storage. It is possible to output a voice based on the voice data. For example, with respect to the setting contents frequently used by the user (that is, the setting contents for frequently outputting the voice), the user preferably stores the voice data of the setting contents in the external device 20A. As a result, the user can output the voice based on the voice data of the setting contents from the external device 20A without performing the operation of starting the MFP application. Therefore, the operation load on the user can be reduced.

また、コントローラー41Aは、ユーザーにより選択された設定内容から、ユーザーにより操作された実行ボタンにより指定されているMFPが実行可能なジョブに応じた設定内容に変更する(ステップS414)。したがって、外部装置20Aは、ユーザー自身が変更する負担をユーザーにかけさせないようにすることができる。 Further, the controller 41A changes the setting contents selected by the user to the setting contents according to the job that can be executed by the MFP designated by the execution button operated by the user (step S414). Therefore, the external device 20A can prevent the user from burdening the user with the change.

また、第8実施形態の外部装置20Aは、MFPアプリケーションをダウンロードすることにより、全ての設定内容の音声データを記憶するようにしてもよい。 Further, the external device 20A of the eighth embodiment may store the audio data of all the setting contents by downloading the MFP application.

外部装置20Aにおける処理は、各ハードウェアおよびCPU411により実行されるソフトウェアによって実現される。このようなソフトウェアは、所定の記憶装置(例えば、ROM412、または図示しないフラッシュメモリ)に予め記憶されている場合がある。また、ソフトウェアは、メモリカードその他の記憶媒体に格納されて、プログラムプロダクトとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラムプロダクトとして提供される場合もある。このようなソフトウェアは、ICカードリーダライタその他の読取装置によりその記憶媒体から読み取られて、あるいは、通信IFを介してダウンロードされた後、ROM412に一旦格納される。そのソフトウェアは、CPU411によってROM412から読み出され、CPU101は、そのプログラムを実行する。 The processing in the external device 20A is realized by the software executed by each hardware and the CPU 411. Such software may be pre-stored in a predetermined storage device (eg, ROM412, or flash memory (not shown)). In addition, the software may be stored in a memory card or other storage medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet. Such software is read from the storage medium by an IC card reader / writer or other reading device, or downloaded via a communication IF, and then temporarily stored in the ROM 412. The software is read from ROM 412 by CPU 411, and CPU 101 executes the program.

また、記録媒体としては、DVD-ROM、CD−ROM、FD(Flexible Disk)、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、光カード、マスクROM、EPROM(Electronically Programmable Read-Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。また、記録媒体は、当該プログラム等をコンピュータが読取可能な一時的でない媒体である。 The recording medium is not limited to DVD-ROM, CD-ROM, FD (Flexible Disk), and hard disk, but also magnetic tape, cassette tape, optical disc (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital). A medium such as a Versatile Disc)), an optical card, a mask ROM, an EPROM (Electronically Programmable Read-Only Memory), an EEPROM (Electronically Erasable Programmable Read-Only Memory), or a semiconductor memory such as a flash ROM may be used. .. Further, the recording medium is a non-temporary medium in which the program or the like can be read by a computer.

また、プログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。 The program includes not only a program that can be directly executed by the CPU, but also a source program format program, a compressed program, an encrypted program, and the like.

また、今回開示された各実施形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。また、実施形態および各変形例において説明された発明は、可能な限り、単独でも、組合わせても、実施することが意図される。 In addition, each embodiment disclosed this time should be considered to be exemplary in all respects and not restrictive. The scope of the present invention is shown by the scope of claims rather than the above description, and it is intended to include all modifications within the meaning and scope equivalent to the scope of claims. In addition, the inventions described in the embodiments and the modifications are intended to be implemented, either alone or in combination, wherever possible.

100 情報処理装置、102 取得部、104 生成部、106 送信部、110 音声受付部、112 音声認識部、114 設定部、116 実行部、120 ジョブユニット、122 第1促進部、202 受信部、204 記憶部、206 操作受付部、208 出力制御部。 100 Information processing device, 102 Acquisition unit, 104 Generation unit, 106 Transmission unit, 110 Voice reception unit, 112 Voice recognition unit, 114 Setting unit, 116 Execution unit, 120 Job unit, 122 First promotion unit, 202 Reception unit, 204 Storage unit, 206 operation reception unit, 208 output control unit.

Claims (16)

ジョブの設定内容を取得する取得部と、
前記取得部が取得した設定内容を示す文言の音声の音声データを生成する生成部と、
前記音声データに基づく音声を出力する外部装置に前記音声データを送信する送信部とを備える情報処理装置。
The acquisition unit that acquires the job settings and
A generation unit that generates voice data of voice of words indicating the setting contents acquired by the acquisition unit, and a generation unit.
An information processing device including an external device that outputs voice based on the voice data and a transmission unit that transmits the voice data.
前記取得部は、複数の設定内容を取得し、
前記生成部は、前記複数の設定内容毎の前記音声データを生成し、
前記送信部は、前記複数の設定内容毎の前記音声データそれぞれに基づく音声を出力する前記外部装置に前記複数の設定内容毎の前記音声データを送信する、請求項1に記載の情報処理装置。
The acquisition unit acquires a plurality of setting contents and obtains them.
The generation unit generates the voice data for each of the plurality of setting contents, and generates the voice data.
The information processing device according to claim 1, wherein the transmission unit transmits the voice data for each of the plurality of setting contents to the external device that outputs voice based on the voice data for each of the plurality of setting contents.
前記情報処理装置は、さらに、
音声が入力されるマイクと、
ユーザーの音声の前記マイクへの入力をユーザーに促進する第1促進処理を実行する第1促進部とを備え、
前記生成部は、前記第1促進処理の実行後に前記マイクに入力されたユーザーの音声の音声データを、前記生成部が生成した前記音声データに対して付与することにより新たな音声データを生成し、
前記送信部は、前記新たな音声データに基づく音声を出力する前記外部装置に前記新たな音声データを送信する、請求項1または請求項2に記載の情報処理装置。
The information processing device further
A microphone to which voice is input and
It is provided with a first promotion unit that executes a first promotion process that promotes the input of the user's voice to the microphone to the user.
The generation unit generates new voice data by adding the voice data of the user's voice input to the microphone after the execution of the first promotion process to the voice data generated by the generation unit. ,
The information processing device according to claim 1 or 2, wherein the transmission unit transmits the new voice data to the external device that outputs voice based on the new voice data.
前記第1促進部は、前記新たな音声データに基づく音声が前記外部装置から前記マイクに入力された場合に、ユーザーの音声の前記マイクへの入力をユーザーに促進する第2促進処理を実行し、
前記情報処理装置は、さらに、
前記第2促進処理の実行後に前記マイクに入力されたユーザーの音声の特徴情報と、前記新たな音声データに基づく音声に含まれるユーザーの音声の特徴情報とが同一である場合に、前記新たな音声データに基づく音声により示される設定内容に基づくジョブを実行する第1実行部を備える、請求項3に記載の情報処理装置。
The first promotion unit executes a second promotion process for encouraging the user to input the user's voice into the microphone when the voice based on the new voice data is input to the microphone from the external device. ,
The information processing device further
When the characteristic information of the user's voice input to the microphone after the execution of the second promotion process and the characteristic information of the user's voice included in the voice based on the new voice data are the same, the new The information processing apparatus according to claim 3, further comprising a first execution unit that executes a job based on a setting content indicated by voice based on voice data.
音声が入力されるマイクと、
ジョブの設定内容を示す文言の音声およびユーザーの音声が前記マイクに入力された場合に、ユーザーの音声の前記マイクへの入力をユーザーに促進する第1促進部と、
前記第1促進部の促進前に前記マイクに入力されたユーザーの音声の特徴情報と、前記第1促進部の促進後に前記マイクに入力されたユーザーの音声の特徴量とが同一である場合に、前記第1促進部の促進前に前記マイクに入力された音声により示されるジョブの設定内容に基づくジョブを実行する第1実行部とを備える、情報処理装置。
A microphone to which voice is input and
When the voice of the wording indicating the setting contents of the job and the voice of the user are input to the microphone, the first promotion unit that prompts the user to input the voice of the user into the microphone, and
When the feature information of the user's voice input to the microphone before the promotion of the first promotion unit and the feature amount of the user's voice input to the microphone after the promotion of the first promotion unit are the same. An information processing device including a first execution unit that executes a job based on a job setting content indicated by a voice input to the microphone before promotion of the first promotion unit.
音声の特徴情報は、声紋である、請求項3〜請求項5のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 3 to 5, wherein the voice feature information is a voiceprint. 前記生成部は、前記取得部が取得した設定内容を示す文言の文字数よりも少ない文字数の内容に基づく音声データを生成し、
前記送信部は、前記少ない文字数の内容に基づく音声データに基づく音声を外部装置に出力させるように前記音声データを前記外部装置に送信する、請求項1〜請求項4のいずれか1項に記載の情報処理装置。
The generation unit generates voice data based on the content of the number of characters smaller than the number of characters of the wording indicating the setting content acquired by the acquisition unit.
The method according to any one of claims 1 to 4, wherein the transmission unit transmits the voice data to the external device so as to output the voice based on the voice data based on the content of the small number of characters to the external device. Information processing equipment.
前記外部装置から出力された前記音声により示される設定内容に基づくジョブを実行する第2実行部を備え、
前記取得部は、ジョブの設定内容の変更を取得し、
前記第2実行部は、前記取得部が取得した変更が反映された設定内容に基づくジョブを実行する、請求項1〜請求項7のいずれか1項に記載の情報処理装置。
It is provided with a second execution unit that executes a job based on the setting contents indicated by the voice output from the external device.
The acquisition unit acquires changes in the job settings and obtains them.
The information processing device according to any one of claims 1 to 7, wherein the second execution unit executes a job based on the setting contents reflecting the changes acquired by the acquisition unit.
音声が入力されるマイクと、
ジョブの設定内容を示す文言の音声が前記マイクに入力された場合に、該音声により示される設定内容に基づくジョブを実行する実行部と、
ジョブの設定内容の変更を取得する取得部とを備え、
前記実行部は、前記取得部に入力された変更が反映された設定内容に基づくジョブを実行する、情報処理装置。
A microphone to which voice is input and
When the voice of the wording indicating the setting contents of the job is input to the microphone, the execution unit that executes the job based on the setting contents indicated by the voice, and the execution unit.
It is equipped with an acquisition unit that acquires changes in job settings.
The execution unit is an information processing device that executes a job based on the setting contents reflecting the changes input to the acquisition unit.
設定内容の変更の前記取得部への入力をユーザーに促進する第2促進部をさらに備える、請求項8または請求項9に記載の情報処理装置。 The information processing apparatus according to claim 8 or 9, further comprising a second promotion unit that prompts the user to input a change in the setting content to the acquisition unit. コンピューターに、
情報処理装置に実行させるジョブの設定内容の選択を受付ける選択受付手順と、
選択された設定内容の決定を受付ける決定受付手順と、
決定された設定内容を示す文言の音声を出力する出力手順とを実行させるためのプログラム。
On the computer
The selection acceptance procedure that accepts the selection of the setting contents of the job to be executed by the information processing device, and
The decision acceptance procedure to accept the decision of the selected setting contents, and
A program for executing the output procedure that outputs the voice of the wording indicating the determined setting contents.
前記選択受付手順は、表示領域に表示された設定内容がユーザーにより指定されることにより、設定内容の選択を受付ける手順である、請求項11に記載のプログラム。 The program according to claim 11, wherein the selection acceptance procedure is a procedure for accepting selection of setting contents by designating the setting contents displayed in the display area by the user. 前記プログラムは、前記コンピューターに、さらに、
決定された設定内容に基づく音声データをサーバー装置に要求する要求手順をさらに実行させ、
前記出力手順は、前記要求手順により前記サーバー装置から受信した前記音声データでの音声を出力する手順であり、
前記プログラムは、前記コンピューターに、さらに、
前記要求手順により前記サーバー装置から受信した前記音声データを所定領域に記憶させる記憶手順をさらに実行させる、請求項11または請求項12に記載のプログラム。
The program is applied to the computer and further
Further execute the request procedure for requesting the server device for voice data based on the determined setting contents.
The output procedure is a procedure for outputting the voice of the voice data received from the server device according to the request procedure.
The program is applied to the computer and further
The program according to claim 11 or 12, further executing a storage procedure for storing the voice data received from the server device in a predetermined area according to the request procedure.
前記プログラムは、前記コンピューターに、さらに、前記選択受付手順で選択された設定内容から、前記コンピューターが実行可能なジョブに応じた設定内容に変更する変更手順を実行させる、請求項11〜請求項13いずれか1項に記載のプログラム。 The program causes the computer to further execute a change procedure for changing the setting contents selected in the selection acceptance procedure to the setting contents according to a job that can be executed by the computer. The program described in any one of the items. 請求項1〜請求項10のいずれか1項に記載の情報処理装置を備える画像形成装置。 An image forming apparatus including the information processing apparatus according to any one of claims 1 to 10. ジョブの設定内容を取得する取得ステップと、
前記取得ステップで取得した設定内容を示す文言の音声の音声データを生成する生成ステップと、
前記音声データに基づく音声を外部装置に出力させるように前記音声データを前記外部装置に送信する送信ステップとを備える情報処理方法。
The acquisition step to acquire the job settings and
A generation step for generating voice data of the wording indicating the setting contents acquired in the acquisition step, and a generation step.
An information processing method including a transmission step of transmitting the voice data to the external device so as to output the voice based on the voice data to the external device.
JP2019179836A 2019-09-30 2019-09-30 Information processing device, image forming device, information processing method, and program Pending JP2021056810A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019179836A JP2021056810A (en) 2019-09-30 2019-09-30 Information processing device, image forming device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019179836A JP2021056810A (en) 2019-09-30 2019-09-30 Information processing device, image forming device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021056810A true JP2021056810A (en) 2021-04-08

Family

ID=75272617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019179836A Pending JP2021056810A (en) 2019-09-30 2019-09-30 Information processing device, image forming device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2021056810A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108182A (en) * 2001-09-28 2003-04-11 Brother Ind Ltd Information processor
JP2011107789A (en) * 2009-11-12 2011-06-02 Kyocera Corp Portable terminal and input control program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108182A (en) * 2001-09-28 2003-04-11 Brother Ind Ltd Information processor
JP2011107789A (en) * 2009-11-12 2011-06-02 Kyocera Corp Portable terminal and input control program

Similar Documents

Publication Publication Date Title
US11355106B2 (en) Information processing apparatus, method of processing information and storage medium comprising dot per inch resolution for scan or copy
US9648180B2 (en) Information processing system performing operation based on tag information, information processing device, portable terminal and non-transitory computer readable recording medium
US8339624B2 (en) Image processing apparatus, and method of displaying messages in plural languages
CN107102828B (en) Multifunction device, multifunction device control system, and multifunction device management method
US8713648B2 (en) Information processing apparatus capable of authentication processing with improved user convenience, control program for information processing apparatus, and recording medium having control program for information processing apparatus recorded thereon
US11140284B2 (en) Image forming system equipped with interactive agent function, method of controlling same, and storage medium
JP6601106B2 (en) Printer
JP2009194577A (en) Image processing apparatus, voice assistance method and voice assistance program
JP6428291B2 (en) Image processing apparatus, transmission destination setting method and transmission destination setting program in the same
JP6281310B2 (en) Information processing apparatus, information processing system, information processing program, and information processing method
JP2021056810A (en) Information processing device, image forming device, information processing method, and program
US20200312326A1 (en) Image forming apparatus and job execution method
US20210409561A1 (en) Image forming system equipped with interactive agent function, method of controlling same, and storage medium
JP2020187663A (en) Device
JP2003186810A (en) Image reading apparatus
JP7314499B2 (en) Information processing system, information processing device, job control method and job control program
JP7139937B2 (en) Speech processing system, job generation device, job generation method and job generation program
JP7205308B2 (en) Job generation device, image processing device, job generation method and job generation program
JP2005328182A (en) One-touch information registration apparatus and image transmission apparatus
JP2018028874A (en) System, electronic apparatus, authentication processing method, and program
JP2020155828A (en) Computer program for terminal device, and terminal device
US9584678B2 (en) Image data storing device, method of storing image data and non-transitory computer readable medium storing program
JP7490471B2 (en) Image processing device and method
JP7508781B2 (en) Information processing system, information processing device, information processing method, and program
JP7375369B2 (en) image forming system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231031