JP7205308B2 - Job generation device, image processing device, job generation method and job generation program - Google Patents

Job generation device, image processing device, job generation method and job generation program Download PDF

Info

Publication number
JP7205308B2
JP7205308B2 JP2019038009A JP2019038009A JP7205308B2 JP 7205308 B2 JP7205308 B2 JP 7205308B2 JP 2019038009 A JP2019038009 A JP 2019038009A JP 2019038009 A JP2019038009 A JP 2019038009A JP 7205308 B2 JP7205308 B2 JP 7205308B2
Authority
JP
Japan
Prior art keywords
information
job
user
voice
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019038009A
Other languages
Japanese (ja)
Other versions
JP2020141385A (en
Inventor
勝彦 穐田
智章 中島
一美 澤柳
俊和 川口
隆史 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019038009A priority Critical patent/JP7205308B2/en
Publication of JP2020141385A publication Critical patent/JP2020141385A/en
Application granted granted Critical
Publication of JP7205308B2 publication Critical patent/JP7205308B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、ジョブ生成装置、画像処理装置、ジョブ生成方法およびジョブ生成プログラムに関し、特に、音声からジョブを生成するジョブ生成装置、そのジョブ生成装置を備えた画像処理装置、そのジョブ生成装置で実行されるジョブ制御方法およびそのジョブ生成装置を制御するコンピューターにそのジョブ生成方法を実行させるジョブ生成プログラムに関する。 The present invention relates to a job generation device, an image processing device, a job generation method, and a job generation program, and more particularly to a job generation device that generates a job from voice, an image processing device that includes the job generation device, and a job generation device that executes the job generation device. The present invention relates to a job control method and a job generation program that causes a computer that controls the job generation device to execute the job generation method.

一般的に、オフィスに複合機(以下「MFP」という)が配置されている。ユーザーは、画像データの印刷、原稿の複写、原稿の読取、画像データの記憶、画像データの送信などの処理をMFPに実行させる。MFPに処理を実行させる作業として処理の内容をジョブとして設定することが通常行われる。ジョブの設定は従来、処理を要望するユーザー本人が直接MFPの操作パネル等で設定していたが、近年音声認識技術の発達から音声操作でジョブを設定することが考えられている。すなわち、ユーザーの音声での指示内容をMFPが音声解析して把握し、ジョブとして設定する。 2. Description of the Related Art Generally, a multifunction peripheral (hereinafter referred to as "MFP") is installed in an office. The user causes the MFP to execute processes such as printing image data, copying documents, reading documents, storing image data, and transmitting image data. It is common to set the contents of processing as a job as work for causing the MFP to execute processing. Conventionally, a user who requests processing directly sets a job using the operation panel of the MFP, etc. However, in recent years, with the development of voice recognition technology, it has been considered to set a job by voice operation. That is, the MFP analyzes the contents of the user's voice instruction, understands it, and sets it as a job.

ここで人間同士でも依頼者から別の受諾者に依頼される場合があり、この場合、受諾者がMFPを操作して作業することになる。受諾者は、依頼された作業をMFPに実行させるために、MFPに動作条件を設定しなければならない。受諾者が、依頼者から伝達された作業の内容を誤って理解した場合、または、MFPに設定する動作条件を誤って設定する場合などは、依頼者が依頼した作業がMFPにより実行されない場合がある。 Here, even between humans, there is a case where a client requests another acceptor, and in this case, the acceptor operates the MFP to perform the work. The acceptor must set operating conditions for the MFP in order to have the MFP execute the requested work. If the acceptor misunderstands the content of the work transmitted from the requester, or sets the operating conditions to be set in the MFP incorrectly, the work requested by the requester may not be executed by the MFP. be.

なお、特開2008-085956号公報には、データを外部装置である宛先に送信する送信部と、少なくとも所定期間内における送信の宛先履歴を、送信の依頼元と対応付けて記憶する記憶部と、或る依頼元からデータの送信が依頼された場合に、上記或る依頼元に対応する上記所定期間内での2件以上の上記宛先履歴のうちで、送信回数の最も多い宛先を、この送信における宛先のデフォルトとする宛先設定部と、を備えた通信装置が記載されている。特開2008-085956号公報に記載の技術は、送信元が同じ送信履歴のいずれかと同じ宛先を設定する場合に設定を誤る確率を低減することができるが、同音異義語などがあった場合(たとえば宛先で「多村」と「田村」など)、依頼者が過去に送信した宛先と異なる宛先への送信を依頼する場合もある。 Japanese Patent Application Laid-Open No. 2008-085956 discloses a transmission unit that transmits data to a destination that is an external device, and a storage unit that stores at least a history of transmission destinations within a predetermined period in association with transmission request sources. , when a request for data transmission is made by a certain requester, the destination with the highest number of transmissions among the two or more destination histories within the predetermined period corresponding to the certain requester is selected as this and a destination setting unit for defaulting destinations in transmissions. The technique described in Japanese Patent Application Laid-Open No. 2008-085956 can reduce the probability of setting errors when setting the same address as one of the transmission histories with the same source, but if there is a homonym ( For example, "Tamura" and "Tamura" as destinations), the requester may request transmission to destinations different from those to which the requester has sent in the past.

同様のことが音声操作でも生じ得る。このような問題は特開2008-085956号公報に記載のように過去の履歴情報のみでは解決できない。 The same thing can happen with voice manipulation. Such problems cannot be solved only by past history information as described in Japanese Patent Application Laid-Open No. 2008-085956.

特開2008-085956号公報JP 2008-085956 A

この発明の目的の一つは、ジョブを正確に生成することが可能なジョブ生成装置を提供することである。 One of the objects of the present invention is to provide a job generating apparatus capable of accurately generating jobs.

この発明の他の目的は、ジョブを正確に生成することが可能な画像処理装置を提供することである。 Another object of the present invention is to provide an image processing apparatus capable of accurately generating jobs.

この発明の他の目的は、ジョブを正確に生成することが可能なジョブ生成方法を提供することである。 Another object of the present invention is to provide a job generation method capable of accurately generating a job.

この発明の他の目的は、ジョブを正確に生成することが可能なジョブ生成プログラムを提供することである。 Another object of the present invention is to provide a job generating program capable of accurately generating jobs.

この発明のある局面によれば、ジョブ生成装置は、音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成手段と、記憶部に予め記憶された情報に基づき、音声情報がジョブを特定することのできないあいまい情報を含むか否か判断する判断手段と、判断手段により音声情報があいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認手段と、音声情報および記憶部に予め記憶された情報に基づいて画像処理装置に実行させる処理および処理を実行させる条件を定める設定情報を決定する決定手段と、を備え、判断手段は、音声情報に基づいて設定情報の候補として複数の候補情報が決定された場合に、音声情報があいまい情報を含むと判断し、確認手段は、複数の候補情報それぞれに関連する関連情報が互いに異なる場合、複数の候補情報それぞれに関連する関連情報を問い合わせ、設定情報が画像処理装置に実行させる処理の対象となるデータを特定する情報の場合、関連情報は、データの属性を含むAccording to one aspect of the present invention, a job generation device includes job generation means for generating a job that defines processing to be executed by an image processing device based on audio information obtained from audio, and information stored in advance in a storage unit. Determining means for determining whether or not the voice information includes ambiguous information that cannot specify a job, and confirming means for executing an inquiry to the user when the determining means determines that the voice information includes ambiguous information and determination means for determining processing to be executed by the image processing apparatus based on the audio information and information pre-stored in the storage unit, and setting information that defines conditions for executing the processing, wherein the determination means is based on the audio information. When a plurality of candidate information are determined as candidates for setting information based on the Related information related to each piece of candidate information is inquired, and when the setting information is information specifying data to be processed by the image processing apparatus, the related information includes data attributes .

この局面に従えば、音声から得られた音声情報があいまい情報を含む場合に問い合わせるので、音声から正確にジョブを生成することができる。その結果、ジョブを正確に生成することが可能なジョブ生成装置を提供することができる。 According to this aspect, since the inquiry is made when the voice information obtained from the voice includes ambiguous information, the job can be accurately generated from the voice. As a result, it is possible to provide a job generating apparatus capable of accurately generating jobs.

また、音声情報および記憶部に予め記憶された情報に基づいて設定情報の候補として複数の候補情報が決定される場合に、音声情報があいまい情報を含むと判断するので、音声情報があいまい情報か否かを容易に判断することができる。また、複数の候補情報それぞれに関連する関連情報が互いに異なる場合に関連情報を問い合わせるので、複数の候補情報のうちから1つを設定情報に決定することができる。また、設定情報がデータを特定する情報の場合、データの属性が問い合わされるので、複数の候補情報のうちから1つを設定情報に決定することができる。 Further , when a plurality of candidate information are determined as candidates for the setting information based on the voice information and the information stored in advance in the storage unit, it is determined that the voice information includes ambiguous information. It can be easily determined whether or not In addition, since the related information is inquired when the related information related to each of the plurality of candidate information is different from each other, one of the plurality of candidate information can be determined as the setting information. Also, when the setting information is information specifying data, since the attribute of the data is inquired, one of the plurality of candidate information can be determined as the setting information.

好ましくは、記憶部に予め記憶された情報は、設定情報に関連付けられたキーワードである。 Preferably, the information pre-stored in the storage unit is a keyword associated with the setting information.

好ましくは、確認手段は、あいまい情報の別の発音または意味を問い合わせる。 Preferably, the verification means queries alternative pronunciations or meanings of the ambiguous information.

この局面に従えば、関連情報間で発音が同一または類似する場合、別の発音または意味を問い合わせるので、複数の候補情報のうちから1つを設定情報に決定することができる。 According to this aspect, when the pronunciation is the same or similar between related information, another pronunciation or meaning is queried, so one of a plurality of candidate information can be determined as setting information.

この発明のさらに他の局面によれば、ジョブ生成装置は、音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成手段と、記憶部に予め記憶された情報に基づき、音声情報がジョブを特定することのできないあいまい情報を含むか否か判断する判断手段と、判断手段により音声情報があいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認手段と、発声したユーザーを特定するユーザー特定手段と、を備え、ジョブ生成手段は、ユーザー特定手段により第1ユーザーが特定される音声から得られた音声情報およびユーザー特定手段により第1ユーザーと異なる第2ユーザーが特定される音声から得られた音声情報に基づいて、第1ユーザーが第2ユーザーに実行を依頼した依頼ジョブをジョブとして生成する。 According to still another aspect of the present invention, a job generating apparatus includes job generating means for generating a job that defines processing to be executed by the image processing apparatus based on audio information obtained from audio, and Judgment means for judging whether or not the voice information includes ambiguous information that cannot specify a job based on the information obtained, and executing an inquiry to the user when the judgment means judges that the voice information contains ambiguous information. and a user identification means for identifying a user who has made the utterance, wherein the job generation means generates voice information obtained from the voice identifying the first user by the user identification means and the first user by the user identification means. A requested job that the first user has requested the second user to execute is generated as a job based on the voice information obtained from the voice specified by the different second user.

この局面に従えば、第1ユーザーおよび第2ユーザーがそれぞれ特定される音声から得られた音声情報に基づいて、依頼ジョブが生成される。このため、2以上のユーザーの会話から依頼ジョブが生成されるので、ジョブを生成するための操作を簡略化することができる。 According to this aspect, the requested job is generated based on the voice information obtained from the voices respectively specifying the first user and the second user. Therefore, since the requested job is generated from conversations of two or more users, the operation for generating the job can be simplified.

この発明のさらに他の局面によれば、ジョブ生成装置は、音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成手段と、記憶部に予め記憶された情報に基づき、音声情報がジョブを特定することのできないあいまい情報を含むか否か判断する判断手段と、判断手段により音声情報があいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認手段と、音声を収集し、収集された音声を発声したユーザーを特定する音声収集装置から音声情報と特定されたユーザーを識別するための識別情報とを取得する音声情報取得手段と、をさらに備え、ジョブ生成手段は、第1ユーザーおよび第1ユーザーと異なる第2ユーザーにそれぞれ関連付けられた音声から得られた音声情報に基づいて、第1ユーザーが第2ユーザーに実行を依頼した依頼ジョブをジョブとして生成する。 According to still another aspect of the present invention, a job generating apparatus includes job generating means for generating a job that defines processing to be executed by the image processing apparatus based on audio information obtained from audio, and Judgment means for judging whether or not the voice information includes ambiguous information that cannot specify a job based on the information obtained, and executing an inquiry to the user when the judgment means judges that the voice information contains ambiguous information. confirmation means; and voice information acquisition means for acquiring voice information and identification information for identifying the identified user from a voice collection device that collects voice and identifies the user who uttered the collected voice. The job generating means generates a requested job that the first user has requested the second user to execute, based on the voice information obtained from the voices respectively associated with the first user and the second user different from the first user. Generate as a job.

この局面に従えば、ジョブを生成するための操作を簡略化することができる。 According to this aspect, the operation for creating a job can be simplified.

好ましくは、音声情報のうちに依頼文字列を含む音声情報が存在する場合に依頼ジョブを生成する。 Preferably, the requested job is generated when voice information including the requested character string exists in the voice information.

この発明の他の局面によれば、画像処理装置は、上記のジョブ生成装置を備える。 According to another aspect of the present invention, an image processing device includes the job generation device described above.

この局面に従えば、ジョブを容易に生成することが可能な画像処理装置を提供することができる。 According to this aspect, it is possible to provide an image processing apparatus that can easily generate a job.

この発明のさらに他の局面によれば、ジョブ生成方法は、ジョブ生成装置で実行されるジョブ生成方法であって、音声から得られた音声情報に基づいて、画像処理装置に実行させる処理を定めたジョブを生成するジョブ生成ステップと、記憶部に予め記憶された情報に基づき、音声情報がジョブを特定することのできないあいまい情報を含むか否か判断する判断ステップと、判断ステップにおいて音声情報があいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認ステップと、音声情報および記憶部に予め記憶された情報に基づいて画像処理装置に実行させる処理および処理を実行させる条件を定める設定情報を決定する決定ステップと、を含み、判断ステップは、音声情報に基づいて設定情報の候補として複数の候補情報が決定された場合に、音声情報があいまい情報を含むと判断するステップを含み、確認ステップは、複数の候補情報それぞれに関連する関連情報が互いに異なる場合、複数の候補情報それぞれに関連する関連情報を問い合わせるステップを含み、設定情報が画像処理装置に実行させる処理の対象となるデータを特定する情報の場合、関連情報は、データの属性を含む。 According to still another aspect of the present invention, a job generation method is a job generation method executed by a job generation device, wherein processing to be executed by an image processing device is defined based on audio information obtained from audio. a determination step of determining whether or not the voice information includes ambiguous information that cannot specify the job based on information pre-stored in a storage unit; and a determination step in which the voice information is A confirmation step of executing an inquiry to the user when it is determined that ambiguous information is included, and a setting that defines processing and conditions for executing the processing to be executed by the image processing apparatus based on the voice information and information pre-stored in the storage unit. a determining step of determining the information, wherein the determining step includes determining that the voice information includes ambiguous information when a plurality of candidate information are determined as candidates for the setting information based on the voice information. , the confirming step includes a step of inquiring about the relevant information associated with each of the plurality of candidate information when the associated information associated with each of the plurality of candidate information is different from each other, and the setting information is subject to the processing executed by the image processing apparatus. In the case of information identifying data, related information includes attributes of the data .

この局面に従えば、ジョブを容易に生成することが可能なジョブ生成方法を提供することができる。
この発明のさらに他の局面によれば、ジョブ生成方法は、ジョブ生成装置で実行されるジョブ生成方法であって、音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成ステップと、記憶部に予め記憶された情報に基づき、音声情報がジョブを特定することのできないあいまい情報を含むか否か判断する判断ステップと、判断ステップにおいて音声情報があいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認ステップと、発声したユーザーを特定するユーザー特定ステップと、を含み、ジョブ生成ステップは、ユーザー特定ステップにおいて第1ユーザーが特定される音声から得られた音声情報およびユーザー特定ステップにおいて第1ユーザーと異なる第2ユーザーが特定される音声から得られた音声情報に基づいて、第1ユーザーが第2ユーザーに実行を依頼した依頼ジョブをジョブとして生成するステップを含む。
According to this aspect, it is possible to provide a job generation method capable of easily generating a job.
According to still another aspect of the present invention, a job generation method is a job generation method executed by a job generation device, wherein the job generation method defines a process to be executed by the image processing device based on audio information obtained from audio. a determination step of determining whether or not the voice information includes ambiguous information that cannot identify the job based on information pre-stored in the storage unit; and a determination step in which the voice information is ambiguous information. and a user identification step of identifying the user who made the utterance. Based on the obtained speech information and the speech information obtained from the speech identifying the second user different from the first user in the user identification step, the requested job requested by the first user to be executed by the second user is regarded as a job. including the step of generating.

この発明のさらに他の局面によれば、ジョブ生成方法は、ジョブ生成装置で実行されるジョブ生成方法であって、音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成ステップと、記憶部に予め記憶された情報に基づき、音声情報がジョブを特定することのできないあいまい情報を含むか否か判断する判断ステップと、判断ステップにより音声情報があいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認ステップと、音声を収集し、収集された音声を発声したユーザーを特定する音声収集装置から音声情報と特定されたユーザーを識別するための識別情報とを取得する音声情報取得ステップと、を備え、ジョブ生成ステップは、第1ユーザーおよび第1ユーザーと異なる第2ユーザーにそれぞれ関連付けられた音声から得られた音声情報に基づいて、第1ユーザーが第2ユーザーに実行を依頼した依頼ジョブをジョブとして生成するステップを含む According to still another aspect of the present invention, a job generation method is a job generation method executed by a job generation device, wherein the job generation method defines a process to be executed by the image processing device based on audio information obtained from audio. a step of determining whether or not the voice information includes ambiguous information by which the job cannot be specified based on the information pre-stored in the storage unit; and a step of determining whether the voice information is ambiguous information a confirmation step of querying the user if it is determined that the and a voice information obtaining step of obtaining identification information, wherein the job generating step obtains the first user based on the voice information obtained from voices respectively associated with the first user and a second user different from the first user. It includes a step of generating as a job the requested job that the user has requested the second user to execute .

この発明のさらに他の局面によれば、ジョブ生成プログラムは、ジョブ生成装置を制御するコンピューターで実行されるジョブ生成プログラムであって、音声から得られた音声情報に基づいて、画像処理装置に実行させる処理を定めたジョブを生成するジョブ生成ステップと、記憶部に予め記憶された情報に基づき、音声情報がジョブを特定することのできないあいまい情報を含むか否か判断する判断ステップと、判断ステップにおいて音声情報があいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認ステップと、音声情報および記憶部に予め記憶された情報に基づいて画像処理装置に実行させる処理および処理を実行させる条件を定める設定情報を決定する決定ステップと、をコンピューターに実行させ、判断ステップは、音声情報に基づいて設定情報の候補として複数の候補情報が決定された場合に、音声情報があいまい情報を含むと判断するステップを含み、確認ステップは、複数の候補情報それぞれに関連する関連情報が互いに異なる場合、複数の候補情報それぞれに関連する関連情報を問い合わせるステップを含み、設定情報が画像処理装置に実行させる処理の対象となるデータを特定する情報の場合、関連情報は、データの属性を含むAccording to still another aspect of the present invention, the job generation program is a job generation program executed by a computer that controls the job generation device, and is executed by the image processing device based on audio information obtained from audio. a job generation step of generating a job defining a process to be performed, a judgment step of judging whether or not the voice information includes ambiguous information that cannot specify the job based on information pre-stored in a storage unit, and a judgment step a confirmation step of querying the user if it is determined that the voice information includes ambiguous information; and causing the computer to execute a determination step of determining setting information that defines a condition, wherein the determining step includes, when a plurality of candidate information are determined as candidates for the setting information based on the voice information, the voice information including ambiguous information. and the confirming step includes the step of inquiring about the relevant information associated with each of the plurality of candidate information, if the relevant information associated with each of the plurality of candidate information is different from each other, and the setting information is executed by the image processing apparatus In the case of information that specifies data to be processed, the relevant information includes attributes of the data .

この局面に従えば、ジョブを容易に生成することが可能なジョブ生成プログラムを提供することができる。
この発明のさらに他の局面によれば、ジョブ生成プログラムは、ジョブ生成装置を制御するコンピューターで実行されるジョブ生成プログラムであって、音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成ステップと、記憶部に予め記憶された情報に基づき、音声情報がジョブを特定することのできないあいまい情報を含むか否か判断する判断ステップと、判断ステップにより音声情報があいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認ステップと、発声したユーザーを特定するユーザー特定ステップと、をコンピューターに実行させ、ジョブ生成ステップは、ユーザー特定ステップにおいて第1ユーザーが特定される音声から得られた音声情報およびユーザー特定ステップにおいて第1ユーザーと異なる第2ユーザーが特定される音声から得られた音声情報に基づいて、第1ユーザーが第2ユーザーに実行を依頼した依頼ジョブをジョブとして生成するステップを含む。
According to this aspect, it is possible to provide a job generation program capable of easily generating a job.
According to still another aspect of the present invention, the job generation program is a job generation program that is executed by a computer that controls the job generation device, and causes the image processing device to execute the program based on audio information obtained from audio. a job generating step of generating a job that defines processing; a determining step of determining whether or not the voice information includes ambiguous information that cannot identify the job based on information pre-stored in a storage unit; causing the computer to execute a confirmation step of querying the user if the information is determined to include ambiguous information; and a user identification step of identifying the user who made the utterance. Based on the voice information obtained from the voice by which the user is specified and the voice information obtained from the voice by which the second user different from the first user is specified in the user specifying step, the first user instructs the second user to perform It includes a step of generating the requested job as a job.

この発明のさらに他の局面によれば、ジョブ生成プログラムは、ジョブ生成装置を制御するコンピューターで実行されるジョブ生成プログラムであって、音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成ステップと、記憶部に予め記憶された情報に基づき、音声情報がジョブを特定することのできないあいまい情報を含むか否か判断する判断ステップと、判断ステップにより音声情報があいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認ステップと、音声を収集し、収集された音声を発声したユーザーを特定する音声収集装置から音声情報と特定されたユーザーを識別するための識別情報とを取得する音声情報取得ステップと、をコンピューターに実行させ、ジョブ生成ステップは、第1ユーザーおよび第1ユーザーと異なる第2ユーザーにそれぞれ関連付けられた音声から得られた音声情報に基づいて、第1ユーザーが第2ユーザーに実行を依頼した依頼ジョブをジョブとして生成するステップを含む。According to still another aspect of the present invention, the job generation program is a job generation program that is executed by a computer that controls the job generation device, and causes the image processing device to execute the program based on audio information obtained from audio. a job generating step of generating a job that defines processing; a determining step of determining whether or not the voice information includes ambiguous information that cannot identify the job based on information pre-stored in a storage unit; a confirmation step of querying the user if the information is determined to contain ambiguous information; and a speech information acquisition step of acquiring identification information for identification, wherein the job generation step acquires speech obtained from speech respectively associated with the first user and a second user different from the first user. Based on the information, a step of generating as a job the requested job that the first user has requested the second user to execute is included.

本発明の第1の実施の形態の1つにおける情報処理システムの全体概要を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows the whole information processing system outline|summary in one of the 1st Embodiment of this invention. 第1の実施の形態におけるPCのハードウェア構成の概要の一例を示すブロック図である。2 is a block diagram showing an example of an overview of the hardware configuration of a PC according to the first embodiment; FIG. 第1の実施の形態におけるMFPのハードウェア構成の概要を示すブロック図である。2 is a block diagram showing an overview of the hardware configuration of the MFP according to the first embodiment; FIG. 第1の実施の形態におけるPCが備えるCPUが有する機能の一例を示すブロック図である。3 is a block diagram showing an example of functions of a CPU included in the PC according to the first embodiment; FIG. キーワードテーブルの一例を示す図である。It is a figure which shows an example of a keyword table. 第1の実施の形態におけるMFPが備えるCPUが有する機能の一例を示すブロック図である。3 is a block diagram showing an example of functions of a CPU included in the MFP according to the first embodiment; FIG. ログイン画面の一例を示す図である。It is a figure which shows an example of a login screen. 第1の実施の形態におけるジョブ生成の流れの一例を示すフローチャートである。4 is a flow chart showing an example of the flow of job generation in the first embodiment; ジョブ生成サブ処理の流れの一例を示すフローチャートである。9 is a flowchart showing an example of the flow of job generation sub-processing; 確認処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a confirmation process. ジョブ実行処理の流れの一例を示すフローチャートである。7 is a flowchart illustrating an example of the flow of job execution processing; 実行指示処理の流れの一例を示すフローチャートである。7 is a flowchart showing an example of the flow of execution instruction processing; 本発明の第2の実施の形態の1つにおける情報処理システムの全体概要を示す図である。It is a figure which shows the whole information processing system outline|summary in one of the 2nd Embodiment of this invention. 第2の実施の形態におけるMFPが備えるCPUの機能の一例を示すブロック図である。FIG. 10 is a block diagram showing an example of functions of a CPU included in the MFP according to the second embodiment; FIG.

以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。従ってそれらについての詳細な説明は繰返さない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. A detailed description thereof will therefore not be repeated.

<第1の実施の形態>
図1は、本発明の第1の実施の形態の1つにおける情報処理システムの全体概要を示す図である。図1を参照して、情報処理システム1は、MFP(Multi Function Peripheral)100と、パーソナルコンピューター(以下「PC」という)200と、を含む。
<First embodiment>
FIG. 1 is a diagram showing an overall overview of an information processing system according to one of the first embodiments of the present invention. Referring to FIG. 1 , information processing system 1 includes an MFP (Multi Function Peripheral) 100 and a personal computer (hereinafter referred to as “PC”) 200 .

MFP100は、画像処理装置の一例である。PC200は、ジョブ生成装置の一例であり、一般的なコンピューターである。MFP100およびPC200それぞれは、ネットワーク3と接続されている。ネットワーク3は、例えば、ローカルエリアネットワーク(LAN)である。このため、MFP100およびPC200は、ネットワーク3を介して互いに通信可能である。PC200は、MFP100に実行させる処理を定めたジョブを生成する。また、PC200は、MFP100を制御するためのプリンタードライバープログラムがインストールされており、プリンタードライバープログラムを実行することにより、MFP100を制御して、MFP100にジョブを実行させることが可能である。ネットワーク3において、その接続形態は有線または無線を問わない。また、ネットワーク3は、ワイドエリアネットワーク(WAN)、公衆交換電話網(PSTN)、インターネット等であってもよい。 MFP 100 is an example of an image processing apparatus. PC 200 is an example of a job generation device and is a general computer. MFP 100 and PC 200 are each connected to network 3 . Network 3 is, for example, a local area network (LAN). Therefore, MFP 100 and PC 200 can communicate with each other via network 3 . PC 200 generates a job defining a process to be executed by MFP 100 . A printer driver program for controlling MFP 100 is installed in PC 200, and by executing the printer driver program, PC 200 can control MFP 100 and cause MFP 100 to execute a job. In the network 3, the form of connection may be wired or wireless. Network 3 may also be a wide area network (WAN), a public switched telephone network (PSTN), the Internet, or the like.

図2は、第1の実施の形態におけるPCのハードウェア構成の概要の一例を示すブロック図である。図2を参照して、PC200は、PC200の全体を制御するための中央演算処理装置(CPU)201と、CPU201が実行するためのプログラムを不揮発的に記憶するROM(Read Only Memory)202と、CPU201の作業領域として使用されるRAM(Random Access Memory)203と、データを不揮発的に記憶するハードディスクドライブ(HDD)204と、CPU201をネットワーク3に接続する通信部205と、情報を表示する表示部206と、ユーザーの操作の入力を受け付ける操作部207と、マイクロフォン208と、スピーカー209と、外部記憶装置210と、を含む。 FIG. 2 is a block diagram showing an example of an overview of the hardware configuration of the PC according to the first embodiment. Referring to FIG. 2, PC 200 includes a central processing unit (CPU) 201 for controlling the entire PC 200; A RAM (Random Access Memory) 203 used as a work area for the CPU 201, a hard disk drive (HDD) 204 for storing data in a nonvolatile manner, a communication unit 205 for connecting the CPU 201 to the network 3, and a display unit for displaying information. 206, an operation unit 207 that receives user operation input, a microphone 208, a speaker 209, and an external storage device 210.

CPU201は、インターネットに接続されたコンピューターからプログラムをダウンロードしてHDD204に記憶する。また、ネットワークに接続されたコンピューターがプログラムをHDD204に書込みする場合に、HDD204にプログラムが記憶される。CPU201は、HDD204に記憶されたプログラムをRAM203にロードして実行する。 CPU 201 downloads a program from a computer connected to the Internet and stores it in HDD 204 . Also, when a computer connected to the network writes a program to HDD 204 , the program is stored in HDD 204 . The CPU 201 loads a program stored in the HDD 204 into the RAM 203 and executes it.

CPU201のソフトウェアアーキテクチャとして、CPU201には、オペレーティングシステム(OS)層が形成され、その上の階層に、アプリケーション層が形成される。OS層は、CPU201がオペレーティングシステム(OS)プログラムを実行するタスクが属する。OS層に属するタスクは、PC200のハードウェア資源を制御する処理を実行する。ハードウェア資源は、ここでは、ROM202、RAM203、HDD204、通信部205、表示部206、操作部207、マイクロフォン208および外部記憶装置210を含む。 As a software architecture of the CPU 201, an operating system (OS) layer is formed in the CPU 201, and an application layer is formed in the upper layer. Tasks in which the CPU 201 executes an operating system (OS) program belong to the OS layer. Tasks belonging to the OS layer execute processing for controlling hardware resources of the PC 200 . The hardware resources here include ROM 202, RAM 203, HDD 204, communication section 205, display section 206, operation section 207, microphone 208 and external storage device 210. FIG.

マイクロフォン208は、音声を収集し、収集した音声を電気信号に変換する。マイクロフォン208は、音声から電気信号に変換された音声データをCPU201に出力する。 Microphone 208 collects sound and converts the collected sound into electrical signals. Microphone 208 outputs to CPU 201 audio data converted from audio into electrical signals.

外部記憶装置210は、CD-ROM(Compact Disk Read Only Memory)211が装着される。本実施の形態においては、CPU201は、ROM202またはHDD204に記憶されたプログラムを実行する例を説明する。しかしながら、CPU201は、外部記憶装置210を制御して、CD-ROM211からCPU201が実行するためのプログラムを読出し、読み出したプログラムをRAM203に記憶して実行してもよい。 A CD-ROM (Compact Disk Read Only Memory) 211 is attached to the external storage device 210 . In this embodiment, an example in which CPU 201 executes a program stored in ROM 202 or HDD 204 will be described. However, CPU 201 may control external storage device 210 to read a program for CPU 201 to execute from CD-ROM 211, store the read program in RAM 203, and execute it.

なお、CPU201が実行するためのプログラムを記憶する記録媒体としては、CD-ROM211に限られず、フレキシブルディスク、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programmable ROM)等の半導体メモリ等の媒体でもよい。ここでいうプログラムは、CPU201により直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。 The recording medium for storing programs to be executed by the CPU 201 is not limited to the CD-ROM 211, but may be a flexible disk, a cassette tape, an optical disk (MO (Magnetic Optical Disc)/MD (Mini Disc)/DVD (Digital Versatile Disc). )), an IC card, an optical card, a mask ROM, a semiconductor memory such as an EPROM (Erasable Programmable ROM), or the like. The programs here include not only programs that can be directly executed by the CPU 201, but also source programs, compressed programs, encrypted programs, and the like.

図3は、第1の実施の形態におけるMFPのハードウェア構成の概要を示すブロック図である。図3を参照して、MFP100は、メイン回路110と、原稿を読み取るための原稿読取部130と、原稿を原稿読取部130に搬送するための自動原稿搬送装置120と、原稿読取部130が原稿を読み取って出力する画像データに基づいて用紙等に画像を形成するための画像形成部140と、画像形成部140に用紙を供給するための給紙部150と、画像が形成された用紙を処理する後処理部155と、ユーザーインターフェースとしての操作パネル160とを含む。 FIG. 3 is a block diagram outlining the hardware configuration of the MFP according to the first embodiment. Referring to FIG. 3, MFP 100 includes main circuit 110, document reading unit 130 for reading a document, automatic document feeder 120 for conveying a document to document reading unit 130, and document reading unit 130. image forming unit 140 for forming an image on paper or the like based on image data read and output, a paper feeding unit 150 for supplying paper to the image forming unit 140, and processing the paper on which the image is formed. and an operation panel 160 as a user interface.

後処理部155は、画像形成部140により画像が形成された1以上の用紙を並び替えて排紙するソート処理、パンチ穴加工するパンチ処理、ステープル針を打ち込むステープル処理を実行する。 The post-processing unit 155 executes sorting processing for rearranging and discharging one or more sheets on which images have been formed by the image forming unit 140, punching processing for punching holes, and stapling processing for driving staples.

メイン回路110は、CPU111と、通信インターフェース(I/F)部112と、ROM113と、RAM114と、大容量記憶装置としてのハードディスクドライブ(HDD)115と、ファクシミリ部116と、CD-ROM118が装着される外部記憶装置117と、を含む。CPU111は、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150、後処理部155および操作パネル160と接続され、MFP100の全体を制御する。 The main circuit 110 includes a CPU 111, a communication interface (I/F) section 112, a ROM 113, a RAM 114, a hard disk drive (HDD) 115 as a mass storage device, a facsimile section 116, and a CD-ROM 118. and an external storage device 117 . CPU 111 is connected to automatic document feeder 120 , document reading portion 130 , image forming portion 140 , paper feeding portion 150 , post-processing portion 155 and operation panel 160 , and controls MFP 100 as a whole.

ROM113は、CPU111が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。RAM114は、CPU111がプログラムを実行する際の作業領域として用いられる。さらに、RAM114は、原稿読取部130から連続的に送られてくる画像データを一時的に記憶する。 ROM 113 stores a program executed by CPU 111 or data necessary for executing the program. The RAM 114 is used as a work area when the CPU 111 executes programs. Further, RAM 114 temporarily stores image data continuously sent from document reading unit 130 .

通信I/F部112は、MFP100をネットワーク3に接続するためのインターフェースである。CPU111は、通信I/F部112を介して、PC200との間で通信し、データを送受信する。また、通信I/F部112は、ネットワーク3を介してインターネット5に接続されたコンピューターと通信が可能である。 Communication I/F unit 112 is an interface for connecting MFP 100 to network 3 . CPU 111 communicates with PC 200 via communication I/F section 112 to transmit and receive data. Also, the communication I/F unit 112 can communicate with a computer connected to the Internet 5 via the network 3 .

ファクシミリ部116は、公衆交換電話網(PSTN)に接続され、PSTNにファクシミリデータを送信する、またはPSTNからファクシミリデータを受信する。ファクシミリ部116は、受信したファクシミリデータを、HDD115に記憶する、または画像形成部140に出力する。画像形成部140は、ファクシミリ部116により受信されたファクシミリデータを用紙にプリントする。また、ファクシミリ部116は、HDD115に記憶されたデータをファクシミリデータに変換して、PSTNに接続されたファクシミリ装置に送信する。 Facsimile unit 116 is connected to the public switched telephone network (PSTN) and transmits facsimile data to or receives facsimile data from the PSTN. Facsimile unit 116 stores the received facsimile data in HDD 115 or outputs it to image forming unit 140 . Image forming unit 140 prints the facsimile data received by facsimile unit 116 on paper. Further, facsimile section 116 converts data stored in HDD 115 into facsimile data and transmits the facsimile data to a facsimile machine connected to the PSTN.

外部記憶装置117は、CD-ROM118が装着される。CPU111は、外部記憶装置117を介してCD-ROM118にアクセス可能である。CPU111は、外部記憶装置117に装着されたCD-ROM118に記録されたプログラムをRAM114にロードして実行する。なお、CPU111が実行するプログラムを記憶する媒体としては、CD-ROM118に限られず、光ディスク、ICカード、光カード、マスクROM、EPROMなどの半導体メモリであってもよい。 A CD-ROM 118 is attached to the external storage device 117 . CPU 111 can access CD-ROM 118 via external storage device 117 . CPU 111 loads a program recorded on CD-ROM 118 attached to external storage device 117 into RAM 114 and executes the program. The medium for storing the program executed by the CPU 111 is not limited to the CD-ROM 118, and may be semiconductor memory such as an optical disk, an IC card, an optical card, a mask ROM, or an EPROM.

また、CPU111が実行するプログラムは、CD-ROM118に記録されたプログラムに限られず、HDD115に記憶されたプログラムをRAM114にロードして実行するようにしてもよい。この場合、ネットワーク3に接続された他のコンピューターが、MFP100のHDD115に記憶されたプログラムを書き換える、または、新たなプログラムを追加して書き込むようにしてもよい。さらに、MFP100が、ネットワーク3に接続された他のコンピューターからプログラムをダウンロードして、そのプログラムをHDD115に記憶するようにしてもよい。ここでいうプログラムは、CPU111が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。 Further, the program executed by CPU 111 is not limited to the program recorded on CD-ROM 118, and a program stored in HDD 115 may be loaded into RAM 114 and executed. In this case, another computer connected to network 3 may rewrite the program stored in HDD 115 of MFP 100 or add and write a new program. Furthermore, MFP 100 may download a program from another computer connected to network 3 and store the program in HDD 115 . The programs here include not only programs directly executable by the CPU 111, but also source programs, compressed programs, encrypted programs, and the like.

操作パネル160は、MFP100の上面に設けられ、表示部161と操作部163とを含む。表示部161は、例えば、液晶表示装置(LCD)または有機LE(electroluminescence)ディスプレイであり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。操作部163は、タッチパネル165と、ハードキー部167とを含む。タッチパネル165は、表示部161の上面または下面に表示部161に重畳して設けられる。ハードキー部167は、複数のハードキーを含む。ハードキーは、例えば接点スイッチである。タッチパネル165は、表示部161の表示面中でユーザーにより指示された位置を検出する。 Operation panel 160 is provided on the upper surface of MFP 100 and includes display portion 161 and operation portion 163 . The display unit 161 is, for example, a liquid crystal display (LCD) or an organic LE (electroluminescence) display, and displays an instruction menu for the user, information about acquired image data, and the like. Operation portion 163 includes a touch panel 165 and a hard key portion 167 . Touch panel 165 is provided on the upper surface or the lower surface of display unit 161 so as to overlap display unit 161 . Hard key portion 167 includes a plurality of hard keys. A hard key is, for example, a contact switch. Touch panel 165 detects a position designated by the user on the display surface of display unit 161 .

図4は、第1の実施の形態におけるPC200が備えるCPU201が有する機能の一例を示すブロック図である。図4に示す機能は、ハードウェアで実現してもよいし、PC200が備えるCPU201に、ROM202、HDD204またはCD-ROM211に記憶されたプログラムを実行させることにより、CPU201で実現してもよい。ここで、PC200が備えるCPU201にジョブ生成プログラムを実行させる場合を例に説明する。 FIG. 4 is a block diagram showing an example of functions of the CPU 201 included in the PC 200 according to the first embodiment. The functions shown in FIG. 4 may be implemented by hardware, or may be implemented by CPU 201 of PC 200 by causing CPU 201 to execute a program stored in ROM 202, HDD 204, or CD-ROM 211. FIG. Here, a case where the CPU 201 provided in the PC 200 is caused to execute the job generation program will be described as an example.

図4を参照して、PC200が備えるCPU201は、音声受付部251と、音声認識部253と、ユーザー特定部255と、ジョブ生成部257と、ジョブ送信部259と、を含む。音声受付部251は、マイクロフォン208が出力する音声データを受け付ける。音声受付部251は、マイクロフォン208から入力される音声データと、その音声データが入力された時刻を示す時刻情報とを音声認識部253およびユーザー特定部255に出力する。 Referring to FIG. 4 , CPU 201 of PC 200 includes voice accepting portion 251 , voice recognizing portion 253 , user identifying portion 255 , job generating portion 257 , and job transmitting portion 259 . Audio reception unit 251 receives audio data output from microphone 208 . Voice accepting portion 251 outputs voice data input from microphone 208 and time information indicating the time when the voice data was input to voice recognition portion 253 and user specifying portion 255 .

音声データは、ユーザーが発声している間だけマイクロフォン208から入力される。複数のユーザーが会話する場合、一のユーザーと別のユーザーとが発声した音声の音声データとが音声受付部251に入力される。一のユーザーの発声する期間と別のユーザーが発声する期間とが異なる場合、一のユーザーが発声した音声の音声データと別のユーザーが発声する音声の音声データとが異なる期間に音声受付部251に入力される。また、一人のユーザーが断続的に発声する場合、先の音声の音声データと次の音声データとが異なる期間に音声受付部251に入力される。 Voice data is input from the microphone 208 only while the user is speaking. When a plurality of users converse, voice data of voices uttered by one user and another user are input to voice reception unit 251 . When the period during which one user utters and the period during which another user utters are different, the voice data of the voice uttered by the one user and the voice data of the voice uttered by the other user is entered in Also, when one user intermittently utters, the voice data of the previous voice and the next voice data are input to the voice reception unit 251 in different periods.

音声認識部253は、音声受付部251から音声データと時刻情報とが入力されるごとに、音声データで特定される音声を認識する。具体的には、音声認識部253は、音声データを文字で構成される音声情報に変換する。音声を認識する技術は公知なので、ここでは説明を繰り返さない。音声認識部253は、音声データを変換した音声情報と時刻情報との組をジョブ生成部257に出力する。音声認識部253は、音声データに複数のユーザーの音声が含まれる場合、音声データを複数のユーザーごとの音声データに分割し、複数の音声データごとに音声認識する。この場合、音声認識部253は、複数の音声データごとに、音声情報と時刻情報との組をジョブ生成部257に出力する。 Voice recognition unit 253 recognizes the voice specified by the voice data each time voice data and time information are input from voice reception unit 251 . Specifically, the voice recognition unit 253 converts voice data into voice information composed of characters. Techniques for recognizing speech are well known and will not be described again here. Voice recognition portion 253 outputs a set of voice information obtained by converting voice data and time information to job generating portion 257 . When the voice data includes voices of a plurality of users, the voice recognition unit 253 divides the voice data into voice data for each of the plurality of users, and performs voice recognition for each of the plurality of voice data. In this case, speech recognition section 253 outputs a set of speech information and time information to job generation section 257 for each of a plurality of pieces of speech data.

ユーザー特定部255は、音声受付部251から音声データと時刻情報とが入力されるごとに、音声データで特定される音声を発声したユーザーを特定する。具体的には、予め登録された複数のユーザーそれぞれの声紋を示す声紋情報がHDD204に記憶されている。ユーザー特定部255は、音声受付部251から入力される音声データで特定される音声を複数のユーザーの声紋それぞれと比較することによって、ユーザーを特定する。なお、音声を発声したユーザーを特定する技術は公知なので、ここでは説明を繰り返さない。ユーザー特定部255は、特定されたユーザーを識別するためのユーザー識別情報と時刻情報との組をジョブ生成部257に出力する。 User specifying unit 255 specifies the user who has uttered the voice specified by the voice data each time voice data and time information are input from voice accepting unit 251 . Specifically, HDD 204 stores voiceprint information indicating the voiceprints of each of a plurality of users registered in advance. User identification unit 255 identifies a user by comparing the voice specified by the voice data input from voice reception unit 251 with each of the voiceprints of a plurality of users. Note that the technology for specifying the user who has uttered the voice is well known, so the description will not be repeated here. User identifying portion 255 outputs a set of user identification information for identifying the identified user and time information to job generating portion 257 .

ジョブ生成部257は、音声認識部253から音声情報と時刻情報との組が入力され、ユーザー特定部255からユーザー識別情報と時刻情報との組が入力される。ジョブ生成部257は、音声情報と時刻情報との組の複数とユーザー識別情報と時刻情報との組の複数とが入力される場合がある。ジョブ生成部257は、複数の音声情報を区別するために時刻情報を用いる。 Job generation portion 257 receives a set of voice information and time information from voice recognition portion 253 and receives a set of user identification information and time information from user identification portion 255 . Job generation unit 257 may receive a plurality of sets of voice information and time information and a plurality of sets of user identification information and time information. Job generator 257 uses time information to distinguish between multiple pieces of audio information.

ジョブ生成部257は、それぞれと組になる時刻情報が同じユーザー識別情報と音声情報とを関連付ける。換言すれば、ジョブ生成部257は、音声とその音声を発声したユーザーとを関連付ける。具体的には、ジョブ生成部257は、音声から変換された音声情報と、その音声を発声したユーザーのユーザー識別情報と、音声が発生された時刻を示す時刻情報と、を含む音声レコードを生成し、音声レコードをHDD204に記憶された音声テーブルに追加する。 Job generation unit 257 associates the user identification information and the voice information that are paired with the same time information. In other words, job generation unit 257 associates the voice with the user who uttered the voice. Specifically, the job generation unit 257 generates a voice record including voice information converted from voice, user identification information of the user who uttered the voice, and time information indicating the time when the voice was generated. and adds the voice record to the voice table stored in the HDD 204 .

ジョブ生成部257は、音声認識部253から入力される音声情報に基づいてMFP100に実行させる処理とその処理を実行するための条件と定めたジョブを生成する。ジョブ生成部257は、決定部261と、通常ジョブ生成部263と、依頼ジョブ生成部265と、確認部267と、を含む。 Job generation portion 257 generates a job that defines a process to be executed by MFP 100 and conditions for executing the process based on the voice information input from voice recognition portion 253 . Job generation portion 257 includes determination portion 261 , normal job generation portion 263 , requested job generation portion 265 , and confirmation portion 267 .

決定部261は、音声情報に基づいて設定情報を決定する。設定情報は、MFP100に実行させる処理とその処理を実行するための条件とを示す情報である。決定部261は、音声情報がデータを識別するためのファイル名を含む場合、音声情報に含まれるファイル名で特定されるデータを処理の対象となるデータを示す設定情報に決定する。また、決定部261は、HDD204に予め記憶されたキーワードテーブルを用いて、音声情報に基づいて設定情報を決定する。キーワードテーブルは、設定情報にその設定情報に関連するキーワードを関連付ける。キーワードは、設定情報に関連する関連情報の1つである。 The determination unit 261 determines setting information based on the audio information. The setting information is information indicating processing to be executed by MFP 100 and conditions for executing the processing. When the audio information includes a file name for identifying data, the determination unit 261 determines the data specified by the file name included in the audio information as the setting information indicating the data to be processed. Further, determination unit 261 determines setting information based on voice information using a keyword table stored in advance in HDD 204 . The keyword table associates configuration information with keywords associated with the configuration information. A keyword is one of related information related to setting information.

図5は、キーワードテーブルの一例を示す図である。キーワードテーブルは、キーワードと設定情報とを関連付ける複数のキーワードレコードを含む。設定情報は、MFP100に実行させる処理またはMFP100が処理を実行する条件を定める。キーワードレコードは、キーワードの項目と設定情報の項目とを含む。キーワードレコードにおいて、キーワードの項目にはキーワードが設定され、設定情報の項目には処理の名称または/および処理を実行する条件が設定される。キーワードテーブルが、キーワードとMFP100に実行させる処理とを関連付ける一例としては、キーワード「スキャン」を含むキーワードレコードは、キーワード「スキャン」に対してMFP100に原稿を読み取らせるスキャン処理を関連付ける。キーワードテーブルは、1つのキーワードに対して処理と、その処理を実行するための条件とを関連付ける場合がある。例えば、キーワード「2in1」を含むキーワードレコードは、キーワード「2in1」に対して複数の画像を合成する合成処理と、合成処理を実行する条件として合成の元になる画像の数が2つであることを関連付ける。キーワードテーブルは、1つのキーワードに対して複数の処理を関連付ける場合がある。例えば、キーワード「コピー」を含むキーワードレコードは、キーワード「コピー」に対してコピー処理を関連付ける。コピー処理は、MFP100に原稿を読み取らせるスキャン処理と用紙に画像を形成するプリント処理とを含む。 FIG. 5 is a diagram showing an example of a keyword table. The keyword table includes multiple keyword records that associate keywords with setting information. The setting information defines the process to be executed by MFP 100 or the conditions under which MFP 100 executes the process. The keyword record includes keyword items and setting information items. In the keyword record, a keyword is set in the keyword field, and a process name and/or conditions for executing the process are set in the setting information field. As an example of how the keyword table associates a keyword with a process to be executed by MFP 100, a keyword record including the keyword "scan" associates the keyword "scan" with a scan process that causes MFP 100 to read a document. The keyword table may associate one keyword with a process and conditions for executing the process. For example, for a keyword record containing the keyword "2in1", the number of images to be used as the basis for synthesis must be two as a condition for performing synthesis processing for synthesizing a plurality of images for the keyword "2in1". associate. The keyword table may associate multiple processes with one keyword. For example, a keyword record containing the keyword "copy" associates a copy action with the keyword "copy". Copy processing includes scan processing for causing MFP 100 to read a document and print processing for forming an image on paper.

キーワードテーブルが、キーワードとMFP100が処理を実行する条件を関連付ける一例としては、キーワード「カラー」に対してMFP100が実行するプリント処理の条件としてフルカラーを関連付ける。また、別の一例として、キーワード「太郎」に対して、MFP100がデータを送信する送信処理を実行する条件としてユーザーに対して割り当てられた宛先情報である電子メールアドレス「taro@aaa.com」を関連付ける。宛先情報は、電子メールアドレスの他に、ファクシミリ番号、IPアドレスが用いられる。なお、キーワード「太郎」は予め登録されたユーザーの名称を示す。 As an example of how the keyword table associates a keyword with a condition for the MFP 100 to execute processing, the keyword "color" is associated with full color as a condition for print processing to be executed by the MFP 100 . As another example, for the keyword "Taro", the e-mail address "taro@aaa.com", which is the destination information assigned to the user as a condition for the MFP 100 to execute the transmission process of transmitting the data, is used. Associate. As the destination information, facsimile numbers and IP addresses are used in addition to e-mail addresses. Note that the keyword "Taro" indicates the name of a pre-registered user.

図4に戻って、決定部261は、判断部262を含む。判断部262は、キーワードテーブルに設定されている複数のキーワードに基づいて、音声情報がジョブを決定することのできないあいまい情報を含むか否かを判断する。決定部261は、音声情報とキーワードテーブルに設定されている複数のキーワードとを比較し、音声情報の少なくとも一部と同一または類似する部分を含むキーワードが存在すれば、そのキーワードが設定されたキーワードレコードを抽出する。決定部261は、抽出されたキーワードレコードに設定された設定情報を決定する。決定部261は、決定された設定情報に基づいて、MFP100に実行させる処理を定めたジョブを生成する。具体的には、決定部261は、設定情報で定まる処理を設定情報で定まる条件でMFP100に実行させるジョブを生成する。 Returning to FIG. 4 , determination unit 261 includes determination unit 262 . The determination unit 262 determines whether or not the voice information includes ambiguous information that cannot determine the job, based on a plurality of keywords set in the keyword table. Determination unit 261 compares the voice information with a plurality of keywords set in the keyword table, and if there is a keyword that includes at least part of the voice information that is the same as or similar to the keyword, the keyword for which the keyword is set is found. Extract records. The determination unit 261 determines setting information set in the extracted keyword record. Determining portion 261 generates a job defining a process to be executed by MFP 100 based on the determined setting information. Specifically, determination unit 261 generates a job that causes MFP 100 to execute a process determined by the setting information under conditions determined by the setting information.

例えば、決定部261は、音声情報が「コピー」および「フルカラー」のキーワードを含む場合、キーワードテーブルによりキーワード「コピー」に関連付けられたスキャン処理およびプリント処理を定める設定情報を決定し、キーワード「フルカラー」に関連付けられたフルカラーでスキャン処理およびプリント処理を実行する条件を定める設定情報を決定する。この場合、判断部262は、音声情報から1つの設定情報が決定されるので音声情報がジョブを決定することのできないあいまい情報を含まないと判断し、決定部261は、原稿をフルカラーで読み取るスキャン処理と、スキャン処理が実行されて出力されるフルカラーの画像データの画像をフルカラーで用紙に形成するプリント処理とをMFP100に実行させるジョブを決定する。 For example, when the audio information includes keywords “copy” and “full color”, the determination unit 261 determines setting information that defines scan processing and print processing associated with the keyword “copy” from the keyword table, , which determines the conditions for executing full-color scan processing and print processing associated with . In this case, the determination unit 262 determines that one set of setting information is determined from the voice information, and thus determines that the voice information does not include ambiguous information that cannot determine the job. A job that causes MFP 100 to execute a process and a print process of forming an image of full-color image data output by executing scan process on paper in full color is determined.

また、決定部261は、音声情報が「送る」および「太郎」のキーワードを含む場合、キーワードテーブルによりキーワード「送る」に関連付けられたスキャン処理およびデータ送信処理が特定され、キーワードテーブルによりキーワード「太郎」に関連付けられた宛先を示す設定情報が特定される。この場合、判断部262は、音声情報から1つの設定情報が決定されるので音声情報がジョブを決定することのできないあいまい情報を含まないと判断し、決定部261は、原稿をモノクロで読み取るスキャン処理と、スキャン処理が実行されて出力されるモノクロの画像データを、名称が「太郎」のユーザーに対して登録された電子メールアドレス宛ての電子メールに添付して送信するデータ送信処理と、をMFP100に実行させるジョブを生成する。 Further, when the voice information includes the keywords "send" and "Taro", the determining unit 261 specifies the scanning process and the data transmission process associated with the keyword "send" from the keyword table, and the keyword "Taro" from the keyword table. ” is identified that indicates the destination associated with the “. In this case, the determining unit 262 determines that one setting information is determined from the voice information, and thus determines that the voice information does not include ambiguous information that cannot determine the job. and a data transmission process of attaching the monochrome image data output by the scanning process to an e-mail addressed to the e-mail address registered for the user whose name is "Taro" and sending it. A job to be executed by MFP 100 is generated.

決定部261は、1つの音声情報から複数の設定情報を決定し、1つの設定情報を決定できない場合がある。判断部262は、音声情報から1つの設定情報を決定できない場合、その音声情報がジョブを決定することのできないあいまい情報を含むと判断する。決定部261は、判断部262により音声情報があいまい情報を含むと判断される場合、確認部267に確認指示を出力する。確認指示は、決定部261により音声情報から決定される複数の設定情報を含む。以下、決定部261により音声情報から決定される複数の設定情報それぞれを候補情報という。 The determination unit 261 may determine a plurality of pieces of setting information from one piece of audio information, and may not be able to determine one piece of setting information. If a piece of setting information cannot be determined from the voice information, the determination unit 262 determines that the voice information includes ambiguous information that cannot determine the job. If determination unit 262 determines that the voice information includes ambiguous information, determination unit 261 outputs a confirmation instruction to confirmation unit 267 . The confirmation instruction includes a plurality of pieces of setting information determined from the voice information by determination unit 261 . Hereinafter, each of the plurality of setting information determined from the audio information by the determination unit 261 will be referred to as candidate information.

なお、決定部261は、キーワードテーブルを用いて音声情報から設定情報を決定する例を説明したが、ニューラルネットワークなどを用いたディープラーニング技術を採用して、音声情報と設定情報との関係を学習したモデルを生成しておき、そのモデルを用いて音声情報から設定情報を決定してもよい。このモデルを用いる場合においても、1つの音声情報から複数の設定情報が決定される場合がある。 Although an example in which the determining unit 261 determines setting information from voice information using a keyword table has been described, deep learning technology using a neural network or the like is employed to learn the relationship between voice information and setting information. A model may be generated in advance, and the setting information may be determined from the voice information using the model. Even when this model is used, a plurality of pieces of setting information may be determined from one piece of audio information.

決定部261が音声情報から複数の候補情報を決定する場合は、音声情報が設定情報を含む場合がある。例えば、ファイル名が同じ2つのデータが異なる記憶領域に記憶されている場合であって、音声情報がそのファイル名を含む場合、決定部261は、2つのデータをそれぞれ示す2つの設定情報を候補情報に決定する。 When the determination unit 261 determines a plurality of pieces of candidate information from voice information, the voice information may include setting information. For example, when two pieces of data with the same file name are stored in different storage areas, and the audio information includes the file name, the determination unit 261 selects two pieces of setting information respectively indicating the two pieces of data as candidates. Make an informed decision.

また、決定部261が音声情報から複数の候補情報を決定する場合は、音声情報から複数のキーワードレコードを抽出する場合がある。例えば、音声の一部にノイズが重畳する等して、音声認識の精度が低下する場合には、音声情報がキーワードの一部のみを含む場合がある。この場合、決定部261が音声情報の少なくとも一部から複数のキーワードレコードを抽出する場合がある。具体的には、音声情報が「in1」を含み、その前の部分が音声情報に含まれない場合である。この場合には、決定部261は、キーワードの項目に「2in1」が設定されたキーワードレコードと、キーワードの項目に「4in1」が設定されたキーワードレコードとを抽出する。決定部261は、「2in1」が設定されたキーワードレコードに含まれる設定情報と、キーワードの項目に「4in1」が設定されたキーワードレコードに含まれる設定情報とを、候補情報に決定する。 Moreover, when the determination unit 261 determines a plurality of candidate information from the voice information, there are cases where a plurality of keyword records are extracted from the voice information. For example, when noise is superimposed on part of the speech, and the accuracy of speech recognition is lowered, the speech information may include only part of the keyword. In this case, the determination unit 261 may extract multiple keyword records from at least part of the audio information. Specifically, this is the case where the voice information includes "in1" and the part before it is not included in the voice information. In this case, the determining unit 261 extracts a keyword record in which "2in1" is set in the keyword item and a keyword record in which "4in1" is set in the keyword item. The determination unit 261 determines the setting information included in the keyword record in which "2in1" is set and the setting information included in the keyword record in which "4in1" is set in the keyword item as candidate information.

また、音声情報から複数の設定情報を決定する場合の他の一例は、音声認識は正常に実行されたが、音声情報の一部と同一または類似のキーワードが設定されたキーワードレコードが複数存在する場合である。より具体的には、発音は同じだが意味の異なる文字列を含む複数のキーワードがそれぞれ設定された複数のキーワードレコードがキーワードテーブルに登録されている場合である。この場合、複数のキーワードは同音異義語を含む。具体的には、音声情報が「たむら」を含む場合である。この場合、決定部261は、キーワードの項目に「田村」が設定されたキーワードレコードと、キーワードの項目に「多村」が設定されたキーワードレコードとを抽出する。決定部261は、「田村」が設定されたキーワードレコードに含まれる設定情報と、キーワードの項目に「多村」が設定されたキーワードレコードに含まれる設定情報とを、候補情報に決定する。また、音声情報が「houl」を含む場合である。この場合、決定部261は、キーワードの項目に「hole」が設定されたキーワードレコードと、キーワードの項目に「whole」が設定されたキーワードレコードとを抽出する。決定部261は、「hole」が設定されたキーワードレコードに含まれる設定情報と、キーワードの項目に「whole」が設定されたキーワードレコードに含まれる設定情報とを、候補情報に決定する。 Another example of determining a plurality of setting information from voice information is that voice recognition is normally executed, but there are multiple keyword records in which keywords that are the same as or similar to part of the voice information are set. is the case. More specifically, this is the case where a plurality of keyword records are registered in the keyword table, each of which is set with a plurality of keywords including character strings with the same pronunciation but different meanings. In this case, the multiple keywords include homonyms. Specifically, this is the case where the voice information includes "tamura". In this case, the determination unit 261 extracts keyword records in which “Tamura” is set in the keyword item and keyword records in which “Tamura” is set in the keyword item. The determining unit 261 determines the setting information included in the keyword record in which "Tamura" is set and the setting information included in the keyword record in which "Tamura" is set in the keyword item as candidate information. Also, it is a case where the voice information includes "houl". In this case, the determination unit 261 extracts keyword records in which “hole” is set in the keyword item and keyword records in which “whole” is set in the keyword item. The determination unit 261 determines the setting information included in the keyword record in which "hole" is set and the setting information included in the keyword record in which "whole" is set in the keyword item as candidate information.

確認部267は、確認指示に含まれる複数の候補情報のうちから1つを特定するために、ユーザーに問い合わせる。確認部267は、関連情報問合せ部271と、異義問合せ部273と、を含む。関連情報問合せ部271は、確認指示に含まれる複数の候補情報それぞれに関連する関連情報が互いに異なる場合、複数の候補情報それぞれに関連する関連情報を問い合わせる。具体的には、関連情報問合せ部271は、スピーカー209から関連情報を問い合わせるメッセージを再生する。関連情報問合せ部271は、関連情報を問い合わせるメッセージを再生した後に、音声認識部253から入力される音声情報に基づいて1つの関連情報を決定し、複数の候補情報のうちから決定された関連情報と関連付けられた1つの設定情報を決定する。 Confirmation unit 267 inquires of the user in order to specify one of a plurality of pieces of candidate information included in the confirmation instruction. Confirmation portion 267 includes a related information inquiry portion 271 and a different meaning inquiry portion 273 . The related information inquiry unit 271 inquires the related information related to each of the plurality of candidate information when the related information related to each of the plurality of candidate information included in the confirmation instruction is different from each other. Specifically, related information inquiry unit 271 reproduces a message for inquiring related information from speaker 209 . Related information inquiry unit 271 reproduces a message inquiring about related information, then determines one related information based on the voice information input from voice recognition unit 253, and determines the related information determined from among a plurality of candidate information. Determines a piece of configuration information associated with .

複数の候補情報それぞれがMFP100に実行させる処理の対象となるデータを特定する情報の場合、関連情報はデータの属性である。データの属性は、データの記憶領域名、データが作成された作成日、データが更新された更新日またはデータの内容を含む。関連情報問合せ部271は、関連情報である属性を問い合わせるメッセージを再生する。キーワードの属性を問い合わせるメッセージを聞くユーザーはその属性が正しければ、問い合わせに対して肯定的な言葉を発声することにより応答する。関連情報問合せ部271は、肯定的な応答を受け付けると、問合せた属性のデータを示す設定情報を決定する。キーワードの属性を問い合わせるメッセージで示される属性が正しくなければ、ユーザーは問い合わせに対して否定的な言葉を発声するので、関連情報問合せ部271は、別の属性を問い合わせるメッセージを再生する。 When each of the plurality of pieces of candidate information is information specifying data to be processed by MFP 100, the related information is the attribute of the data. The data attributes include the name of the data storage area, the creation date when the data was created, the update date when the data was updated, or the contents of the data. The related information inquiry unit 271 reproduces a message to inquire about the attribute, which is related information. A user listening to a message asking for a keyword attribute responds by uttering affirmative words to the query if the attribute is correct. When related information inquiry unit 271 receives a positive response, it determines setting information indicating data of the inquired attribute. If the attribute indicated by the message inquiring about the attribute of the keyword is not correct, the user utters a negative word in response to the inquiry, so the related information inquiry unit 271 reproduces a message inquiring about another attribute.

例えば、HDD204の2つの記憶領域「フォルダA」および「フォルダB」それぞれに同一のファイル名「AA」のデータが記憶されている状態で、音声情報がファイル名「AA」を含む場合である。この場合、2つの候補情報は、MFP100に実行させる処理の対象となるデータとしてHDD204の「フォルダA」に記憶されたファイル名「AA」と、HDD204の「フォルダB」に記憶されたファイル名「AA」とをそれぞれ特定する。この場合、関連情報問合せ部271は、「フォルダA」に記憶されたファイル名「AA」と、「フォルダB」に記憶されたファイル名「AA」とで属性が異なる場合に属性を問い合わせる。具体的には、関連情報問合せ部271は、「フォルダA」に記憶されたファイル名「AA」と「フォルダB」に記憶されたファイル名「AA」との少なくとも一方の記憶領域名、作成日または更新日を含むメッセージを再生する。具体的には、関連情報問合せ部271は、「フォルダAに保存されたファイルですか?」、「作成日はXX年XX月XX日のファイルですか?」または「更新日はXX年XX月XX日のファイルですか?」のメッセージを再生する。 For example, when data with the same file name "AA" are stored in two storage areas "folder A" and "folder B" of the HDD 204, the audio information includes the file name "AA". In this case, the two pieces of candidate information are the file name "AA" stored in "folder A" of HDD 204 and the file name "AA" stored in "folder B" of HDD 204 as data to be processed by MFP 100. AA”, respectively. In this case, the related information inquiry unit 271 inquires about the attributes when the file name "AA" stored in "folder A" and the file name "AA" stored in "folder B" have different attributes. Specifically, the related information inquiry unit 271 asks at least one of the file name "AA" stored in the "folder A" and the file name "AA" stored in the "folder B", the storage area name, the creation date, and so on. Or play a message with modified date. Specifically, the related information inquiry unit 271 asks, "Is the file saved in folder A?", "Is the file created on XX, XX, XX?" Is the file dated XX?" is played.

また、複数の候補情報にそれぞれ対応する複数のキーワード間で一部が同一の場合、関連情報はキーワードである。関連情報問合せ部271は、関連情報であるキーワードそのものを問い合わせるメッセージを再生する。キーワードそのものを問い合わせるメッセージを聞くユーザーはそのキーワードが正しければ、問い合わせに対して肯定的な言葉を発声することにより応答する。関連情報問合せ部271は、肯定的な応答を受け付けると、問合せたキーワードに関連する設定情報を決定する。キーワードそのものを問い合わせるメッセージで示されるキーワードが正しくなければ、ユーザーは問い合わせに対して否定的な言葉を発声するので、関連情報問合せ部271は、別のキーワードそのものを問い合わせるメッセージを再生する。 Further, when a plurality of keywords respectively corresponding to a plurality of pieces of candidate information are partially the same, the related information is the keyword. Related information inquiry unit 271 reproduces a message inquiring about the keyword itself, which is related information. A user who hears a message asking for the keyword itself responds by uttering affirmative words to the inquiry if the keyword is correct. When related information inquiry unit 271 receives a positive response, related information inquiry unit 271 determines setting information related to the inquired keyword. If the keyword indicated by the message inquiring about the keyword itself is not correct, the user utters negative words in response to the inquiry, so the related information inquiry unit 271 reproduces another message inquiring about the keyword itself.

例えば、上述した例のように、キーワードの項目に「2in1」が設定されたキーワードレコードと、キーワードの項目に「4in1」が設定されたキーワードレコードとが抽出される場合、関連情報問合せ部271は、「ツーインワンですか」のメッセージ、または、「フォーインワンですか」のメッセージを再生する。 For example, as in the above example, when a keyword record in which "2in1" is set in the keyword item and a keyword record in which "4in1" is set in the keyword item are extracted, the related information inquiry unit 271 , play a "two-in-one?" message, or play a "four-in-one?" message.

複数の候補情報にそれぞれ対応する複数のキーワード間で一部の発音が同一または類似する場合、関連情報はキーワードである。異義問合せ部273は、複数のキーワードの少なくとも1つについて、キーワードを別の読みで発音するメッセージを再生する。キーワードを別の読みで発音したメッセージを聞くユーザーはそのキーワードが正しければ、問い合わせに対して肯定的な言葉を発声することにより応答する。異義問合せ部273は、肯定的な応答を受け付けると、問合せたキーワードに関連する設定情報を決定する。メッセージで示される発音が正しくなければ、ユーザーは問い合わせに対して否定的な言葉を発声するので、異義問合せ部273は、別のキーワードについて、別の発音を問い合わせる。 Related information is a keyword when some of the pronunciations are the same or similar among a plurality of keywords respectively corresponding to a plurality of pieces of candidate information. For at least one of the plurality of keywords, the different meaning inquiry unit 273 reproduces a message in which the keyword is pronounced in different readings. A user who listens to a message with alternate pronunciations of a keyword responds by uttering affirmative words to the query if the keyword is correct. Upon receiving a positive response, different meaning inquiry portion 273 determines setting information related to the inquired keyword. If the pronunciation indicated by the message is not correct, the user utters a negative word in response to the inquiry, so the different meaning inquiry section 273 inquires of another pronunciation for another keyword.

例えば、異義問合せ部273は、2つのキーワードのいずれか一方を構成する少なくとも1つの文字について、音読みならば訓読みで問い合わせ、訓読みならば音読みで問い合わせる。例えば、ユーザー名をそれぞれ示す「多村」および「田村」がキーワードの項目に設定された2つのキーワードレコードがキーワードテーブルに登録されている場合に、音声情報が「たむら」を含む場合は、キーワード「多村」および「田村」がキーワードの項目に設定された2つのキーワードレコードが抽出される。この場合、異義問合せ部273は、2つのキーワード「多村」および「田村」で異なる部分である「多」および「田」それぞれについて読み方を異ならせて問い合わせる。例えば、異義問合せ部273は、「おおいと読む多村ですか」または「でんと読む田村ですか」のメッセージを再生する。 For example, the different meaning inquiry unit 273 inquires with the kun reading if at least one character that constitutes one of the two keywords is the on-reading, or with the on-reading if the kun reading. For example, if two keyword records are registered in the keyword table with the user names "Tamura" and "Tamura" set in the keyword field, and the voice information includes "Tamura", the keyword Two keyword records in which "Tamura" and "Tamura" are set in the keyword items are extracted. In this case, the different meaning inquiry unit 273 inquires about the two keywords "tamura" and "tamura" with different readings for "ta" and "ta", which are different parts. For example, the different meaning inquiry unit 273 reproduces the message "Is this Tamura reading Oi?" or "Is this Tamura reading Dento?".

また、異義問合せ部273は、2つのキーワードのいずれか一方を構成する少なくとも1つの文字を別の文字と組み合わせた単語で問い合わせる。例えば、異義問合せ部273は、「多少の多ですか?」または「田畑の田ですか?」のメッセージを再生する。 In addition, the different meaning inquiry unit 273 inquires with a word in which at least one character constituting either one of the two keywords is combined with another character. For example, the different meaning inquiry unit 273 reproduces a message such as "Is it a little more?" or "Is it a field in the field?".

また、異義問合せ部273は、2つのキーワードのいずれか一方を構成する少なくとも1つの文字の意味を問い合わせる。例えば、異義問合せ部273は、「意味が多いを示す多村ですか?」のメッセージを再生する。 Also, the different meaning inquiry unit 273 inquires about the meaning of at least one character that constitutes one of the two keywords. For example, the different meaning inquiry unit 273 reproduces the message "Is Tamura showing a lot of meaning?"

また、例えば、ユーザー名を示す「hole」および「whole」がキーワードの項目に設定された2つのキーワードレコードがキーワードテーブルに登録されている場合に、音声情報が「houl」を含む場合は、キーワード「hole」および「whole」がキーワードの項目に設定された2つのキーワードレコードが抽出される。この場合、関連情報問合せ部271は、2つのキーワード「hole」および「whole」それぞれについて読み方を異ならせて問い合わせる。具体的には、関連情報問合せ部271は、2つのキーワード「hole」および「whole」それぞれのスペルを読み上げる。 Also, for example, when two keyword records are registered in the keyword table with the user names "hole" and "whole" set in the keyword field, if the voice information includes "houl", the keyword Two keyword records in which "hole" and "whole" are set in the keyword item are extracted. In this case, the related information inquiry unit 271 inquires about the two keywords "hole" and "whole" with different readings. Specifically, related information inquiry unit 271 reads out the spellings of the two keywords “hole” and “whole”.

また、異義問合せ部273は、2つのキーワードのいずれか一方を構成する少なくとも1つの単語を別の単語と組み合わせて問い合わせる。例えば、異義問合せ部273は、キーワード「hole」に対して「dig a hole?」、またはキーワード「whole」に対して「the whole world?」のメッセージを再生する。 Also, the different meaning inquiry section 273 makes an inquiry by combining at least one word that constitutes one of the two keywords with another word. For example, the different meaning inquiry unit 273 reproduces the message "dig a hole?" for the keyword "hole" or "the whole world?" for the keyword "whole".

また、異義問合せ部273は、2つのキーワードのいずれか一方を構成する少なくとも1つの文字の意味を問い合わせる。例えば、異義問合せ部273は、キーワード「hole」に対して「a hollow place in a solid body?」のメッセージを再生する。また、異義問合せ部273は、キーワード「whole」に対して「entire?」のメッセージを再生する。 Also, the different meaning inquiry unit 273 inquires about the meaning of at least one character that constitutes one of the two keywords. For example, the different meaning inquiry unit 273 reproduces the message "a hollow place in a solid body?" for the keyword "hole". Further, the different meaning inquiry section 273 reproduces the message "entire?" for the keyword "whole".

決定部261は、ジョブを生成する場合、そのジョブを生成するために用いた1以上の音声情報とそれぞれ組になる1以上のユーザー識別情報を決定する。例えば、第1ユーザーのユーザー識別情報と組になる1以上の音声情報に基づいてジョブが生成される場合、第1ユーザーのユーザー識別情報を決定する。第1ユーザーのユーザー識別情報と組になる1以上の音声情報と第2ユーザーのユーザー識別情報と組になる1以上の音声情報とに基づいてジョブが生成される場合、第1ユーザーのユーザー識別情報と第2ユーザーのユーザー識別情報とを決定する。決定部261は、ジョブと、決定された1以上のユーザー識別情報との組を依頼ジョブ生成部265および通常ジョブ生成部263に出力する。 When generating a job, determination unit 261 determines one or more pieces of user identification information paired with one or more pieces of audio information used to generate the job. For example, if the job is generated based on one or more voice information paired with the user identification of the first user, then the user identification of the first user is determined. If the job is generated based on the one or more voice information paired with the user identification information of the first user and the one or more voice information paired with the user identification information of the second user, the user identification of the first user determining the information and the user identification of the second user; Determining portion 261 outputs a set of a job and one or more pieces of determined user identification information to requested job generating portion 265 and normal job generating portion 263 .

依頼ジョブ生成部265は、決定部261からジョブと、1以上のユーザー識別情報との組が入力され、依頼ジョブを生成する。依頼ジョブは、依頼者である第1ユーザーが受諾者である第2ユーザーに依頼した作業を第2ユーザーが実行するために、第2ユーザーがMFP100に実行させるジョブである。換言すれば、依頼ジョブは、第2ユーザーによってMFP100に実行が指示されるジョブである。このため、依頼ジョブは、決定部261から入力されるジョブに、MFP100がジョブにより定められた処理を実行するための開始条件として第2ユーザーによる指示が設定されたジョブである。 Requested job generation portion 265 receives a set of a job and one or more pieces of user identification information from determination portion 261 and generates a requested job. A requested job is a job that the second user causes MFP 100 to execute in order for the second user, who is the requester, to perform the work requested by the first user, who is the requester, to the second user who is the acceptor. In other words, the requested job is a job whose execution is instructed to MFP 100 by the second user. Therefore, the requested job is a job input from determination unit 261 in which an instruction by the second user is set as a start condition for MFP 100 to execute the process determined by the job.

依頼ジョブ生成部265は、1以上の音声情報にそれぞれ含まれるユーザー識別情報が複数の場合であって、音声認識部253から入力される1以上の音声情報のうちに依頼文字列を含む音声情報が存在する場合に依頼ジョブを生成する。依頼文字列は、他人に作業を依頼する場合に用いる語を含む。例えば、依頼文字列は、「お願いします」、「して下さい」、「しろ」等を含む。依頼文字列は予め定めておけばよい。また、CPU201にMFP100を使用する複数のユーザー間の会話を学習させてCPU201が依頼文字列を決定してもよい。 Requested job generation unit 265 generates voice information including a requested character string among the one or more voice information input from voice recognition unit 253 when there is a plurality of pieces of user identification information included in each of the one or more voice information. Create a request job if exists. The request character string includes words used when requesting work to others. For example, the request character string includes "please", "please", "shiro", and the like. A request character string may be determined in advance. Alternatively, the CPU 201 may determine the request character string by having the CPU 201 learn conversations between a plurality of users using the MFP 100 .

ただし、依頼ジョブ生成部265は、音声認識部253から入力される1以上の音声情報のうちに許諾文字列を含む音声情報が存在しない場合は依頼ジョブを生成しない。許諾文字列は、他人からの依頼を受ける場合に用いる語を含む。許諾文字列は、「了解しました」、「わかりました」、「引き受けます」等を含む。許諾文字列は予め定めておけばよい。また、許諾文字列は、MFP100を使用する複数のユーザー間の会話を学習することにより決定されてもよい。 However, requested job generation unit 265 does not generate a requested job if there is no voice information containing a permitted character string among the one or more pieces of voice information input from voice recognition unit 253 . The authorization character string includes words used when receiving a request from another person. The permission string includes "understood", "understood", "accept", and the like. The permission character string may be determined in advance. Also, the permission string may be determined by learning conversations between multiple users of MFP 100 .

依頼ジョブ生成部265は、依頼文字列を含む音声情報が存在する場合、その音声情報と組になるユーザー識別情報を第1ユーザーのユーザー識別情報に特定する。また、依頼ジョブ生成部265は、許諾文字列を含む音声情報が存在する場合、その音声情報と組になるユーザー識別情報を第2ユーザーのユーザー識別情報に特定する。依頼ジョブ生成部265は、決定部261から入力されるジョブに、MFP100がそのジョブにより定められた処理を実行するための開始条件として第2ユーザーによる指示を受け付けることを設定することにより、依頼ジョブを生成する。依頼ジョブ生成部265は、第1ユーザーのユーザー識別情報と依頼ジョブとの組をジョブ送信部259に出力する。 When voice information including the requested character string exists, requested job generation unit 265 specifies user identification information paired with the voice information as user identification information of the first user. Further, when there is voice information including the permission character string, requested job generation unit 265 identifies the user identification information paired with the voice information as the user identification information of the second user. Requested job generating portion 265 sets, in the job input from determining portion 261, acceptance of an instruction from the second user as a start condition for MFP 100 to execute a process defined by the job. to generate Requested job generating portion 265 outputs a set of the user identification information of the first user and the requested job to job transmitting portion 259 .

依頼ジョブ生成部265は、許諾文字列を含む音声情報が存在する場合に、その音声情報と組になる時刻情報で示される時刻よりも前の時刻を示す時刻情報と組になる音声情報を決定する。そして、依頼ジョブ生成部265は、決定された音声情報から依頼文字列を含む音声情報を抽出する。これにより、許諾文字列を含む音声情報が存在する場合に、依頼ジョブを生成すればよいので、音声情報のすべてからキーワードを抽出する必要がなく、負荷をできるだけ小さくすることができる。この場合は、許諾文字列を含む音声情報が存在することが確認された後にキーワードの抽出およびジョブの生成を開始するのが好ましい。 When there is voice information including the permission character string, the requested job generation unit 265 determines voice information paired with the time information indicating a time earlier than the time indicated by the time information paired with the voice information. do. Then, requested job generating section 265 extracts voice information including the requested character string from the determined voice information. As a result, when there is voice information containing a permission character string, it is sufficient to generate a requested job, so there is no need to extract keywords from all of the voice information, and the load can be reduced as much as possible. In this case, it is preferable to start extracting keywords and generating jobs after confirming the presence of voice information containing the permitted character string.

依頼ジョブ生成部265は、決定部261からジョブが入力されかつ依頼ジョブを生成しない場合、通常ジョブ生成部263に通常生成指示を出力する。通常ジョブ生成部263は、決定部261からジョブと1以上のユーザー識別情報との組が入力される。通常ジョブ生成部263は、依頼ジョブ生成部265から通常生成指示が入力される場合、決定部261から入力されるジョブと1以上のユーザー識別情報とに基づいて通常ジョブを生成する。通常ジョブは、依頼ジョブ以外のジョブである。 When a job is input from determining portion 261 and the requested job is not to be generated, requested job generating portion 265 outputs a normal generation instruction to normal job generating portion 263 . Normal job generating portion 263 receives a set of a job and one or more pieces of user identification information from determining portion 261 . When a normal generation instruction is input from requested job generation portion 265, normal job generation portion 263 generates a normal job based on the job input from determination portion 261 and one or more pieces of user identification information. A normal job is a job other than a requested job.

通常ジョブ生成部263は、決定部261から入力される1以上のユーザー識別情報のうち指示文字列を含む音声情報により関連付けられたユーザー識別情報のユーザーを、指示ユーザーに決定する。指示文字列は、処理の内容を指示する語であり、例えば、「したい。」、「する。」等である。また、通常ジョブ生成部263は、決定部261から入力される1以上のユーザー識別情報のうち、キーワードの数が最大となるユーザー識別情報で特定されるユーザーを指示ユーザーに決定してもよい。この場合、決定部261がジョブを生成する際に用いた複数のキーワードをそれぞれ含む複数の音声情報を用いて、ユーザー識別情報ごとにそれに対応するキーワードを集計し、ユーザー識別情報に対するキーワードの数を求めるようにすればよい。通常ジョブ生成部263は、決定部261から入力されるジョブに、MFP100がジョブにより定められた処理を実行するための開始条件として指示ユーザーによる指示を設定することにより、通常ジョブを生成する。通常ジョブ生成部263は、通常ジョブをジョブ送信部259に出力する。これにより、ジョブ送信部259により通常ジョブがMFP100に送信される。MFP100においては、PC200から通常ジョブを受信すると通常ジョブをHDD115に記憶し、指示ユーザーが操作部163を操作すると通常ジョブを実行可能な状態に設定する。 Normal job generation portion 263 determines, as an instruction user, a user whose user identification information is associated by voice information including an instruction character string among the one or more pieces of user identification information input from determination portion 261 . The instruction string is a word that indicates the content of the process, such as "want to do", "do", and the like. Further, normal job generating portion 263 may determine, as the instructed user, the user identified by the user identification information having the largest number of keywords among the one or more pieces of user identification information input from determination portion 261 . In this case, using a plurality of pieces of voice information each containing a plurality of keywords used when the determining unit 261 generates a job, the keywords corresponding to each user identification information are aggregated, and the number of keywords corresponding to the user identification information is calculated. You can ask for it. Normal job generation portion 263 generates a normal job by setting, in the job input from determination portion 261, an instruction by the instruction user as a start condition for MFP 100 to execute a process determined by the job. Normal job generating portion 263 outputs the normal job to job transmitting portion 259 . As a result, job transmitting portion 259 transmits the normal job to MFP 100 . In MFP 100 , when a normal job is received from PC 200 , the normal job is stored in HDD 115 , and when the instructing user operates operation unit 163 , the normal job is set to an executable state.

ジョブ送信部259は、MFP100にジョブを送信する。ジョブ送信部259は、依頼ジョブ生成部265から依頼ジョブと第1ユーザーのユーザー識別情報との組が入力される場合、依頼ジョブと第1ユーザーのユーザー識別情報との組をMFP100に送信する。また、ジョブ送信部259は、通常ジョブ生成部263から通常ジョブが入力される場合、通常ジョブをMFP100に送信する。 Job transmission portion 259 transmits a job to MFP 100 . When a set of the requested job and the first user's user identification information is input from requested job generating portion 265 , job transmitting portion 259 transmits the set of the requested job and the first user's user identification information to MFP 100 . Further, when a normal job is input from normal job generating portion 263 , job transmitting portion 259 transmits the normal job to MFP 100 .

ジョブ送信部259は、操作者通知部281を含む。操作者通知部281は、依頼ジョブと第1ユーザーのユーザー識別情報との組がMFP100に送信される場合、第2ユーザーに依頼ジョブがMFP100で実行可能なことを通知する。第2ユーザーは、依頼ジョブで開始条件として設定されている第2ユーザーのユーザー識別情報によって特定される。例えば、操作者通知部281は、通信部205を制御して、MFP100に実行可能な依頼ジョブが存在することを示すメッセージを含む電子メールを、第2ユーザーに送信する。第2ユーザーの電子メールアドレスは予め記憶されている。なお、通知方法は、電子メールに限らず、メッセージ送信であってもよい。これにより、第2ユーザーに、MFP100に依頼ジョブを実行させるための操作を入力すればよいことを通知することができる。 Job transmission portion 259 includes an operator notification portion 281 . When a set of the requested job and the user identification information of the first user is transmitted to MFP 100 , operator notification portion 281 notifies the second user that the requested job can be executed by MFP 100 . The second user is specified by the user identification information of the second user set as the start condition in the requested job. For example, operator notification unit 281 controls communication unit 205 to send an e-mail including a message indicating that MFP 100 has an executable requested job to the second user. The e-mail address of the second user is pre-stored. Note that the notification method is not limited to e-mail and may be message transmission. Thus, the second user can be notified that he or she should input an operation for causing MFP 100 to execute the requested job.

図6は、第1の実施の形態におけるMFP100が備えるCPU111が有する機能の一例を示すブロック図である。図6に示す機能は、ハードウェアで実現してもよいし、MFP100が備えるCPU111が、ROM113、HDD115、CD-ROM118に記憶されたジョブ制御プログラムを実行することにより、CPU111により実現される機能である。ジョブ制御プログラムは、ジョブ生成プログラムの一部である。図6を参照して、CPU111は、操作ユーザー特定部51と、設定部53と、ジョブ制御部55と、依頼者通知部57と、を含む。 FIG. 6 is a block diagram showing an example of functions of CPU 111 of MFP 100 according to the first embodiment. The functions shown in FIG. 6 may be realized by hardware, or are functions realized by CPU 111 provided in MFP 100 by executing a job control program stored in ROM 113, HDD 115, and CD-ROM 118. be. The Job Control Program is part of the Job Generator Program. Referring to FIG. 6 , CPU 111 includes an operating user specifying portion 51 , a setting portion 53 , a job control portion 55 and a client notifying portion 57 .

ジョブ制御部55は、ジョブ受信部81と、関連付部83と、ジョブ実行部85と、を含む。ジョブ受信部81は、通信I/F部112を制御し、PC200が送信するジョブを受信する。ジョブ受信部81は、PC200から依頼ジョブと第1ユーザーのユーザー識別情報との組を受信する場合、依頼ジョブをHDD115に記憶する。また、ジョブ受信部81は、PC200から通常ジョブを受信する場合、通常ジョブをHDD115に記憶する。 Job control portion 55 includes a job reception portion 81 , an association portion 83 , and a job execution portion 85 . Job receiving portion 81 controls communication I/F portion 112 and receives a job transmitted from PC 200 . When receiving a set of a requested job and the user identification information of the first user from PC 200 , job receiving portion 81 stores the requested job in HDD 115 . When job receiving portion 81 receives a normal job from PC 200 , job receiving portion 81 stores the normal job in HDD 115 .

関連付部83は、通信I/F部112がPC200から依頼ジョブと第1ユーザーのユーザー識別情報との組を受信する場合、依頼ジョブと第1ユーザーとを関連付ける。具体的には、関連付部83は、HDD115に記憶された依頼ジョブを識別するためのジョブ識別情報と第1ユーザーのユーザー識別情報とを含むユーザーレコードを生成し、HDD115に記憶する。 Association portion 83 associates the requested job with the first user when communication I/F portion 112 receives a set of the requested job and the first user's user identification information from PC 200 . Specifically, association unit 83 generates a user record including job identification information for identifying the requested job stored in HDD 115 and user identification information of the first user, and stores the user record in HDD 115 .

ジョブ実行部85は、ハードウェア資源を制御してジョブを実行する。ハードウェア資源は、通信I/F部112、HDD115、ファクシミリ部116、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150、後処理部155および操作パネル160を含む。ジョブは、例えば、コピージョブ、プリントジョブ、スキャンジョブ、ファクシミリ送信ジョブ、データ送信ジョブを含む。なお、ジョブ実行部85が実行可能なジョブは、これらに限定されることなく、他のジョブを含んでもよい。コピージョブは、原稿読取部130に原稿を読み取らせるスキャン処理と、原稿読取部130が原稿を読み取って出力するデータの画像を画像形成部140に形成させるプリント処理とを含む。プリントジョブは、画像形成部140に、HDD115に記憶されたデータ、通信I/F部112が外部から受信するプリントデータの画像を用紙に形成させるプリント処理を含む。スキャンジョブは、原稿読取部130に原稿を読み取らせるスキャン処理と、原稿読取部130が原稿を読み取って出力する画像データを出力する出力処理を含む。出力処理は、データをHDD115に記憶させるデータ記憶処理と、データを通信I/F部112に外部に送信するデータ送信処理を含む。ファクシミリ送信ジョブは、原稿読取部130に原稿を読み取らせるスキャン処理と、原稿読取部130が原稿を読み取って出力するデータをファクシミリ部116に送信させるファクシミリ送信処理とを含む。データ送信ジョブは、HDD115に記憶されたデータまたは原稿読取部130が原稿を読み取って出力するデータを、通信I/F部112を制御して他のコンピューターに送信するデータ送信処理を含む。 The job execution unit 85 executes jobs by controlling hardware resources. The hardware resources include communication I/F section 112 , HDD 115 , facsimile section 116 , automatic document feeder 120 , document reading section 130 , image forming section 140 , paper feeding section 150 , post-processing section 155 and operation panel 160 . Jobs include, for example, copy jobs, print jobs, scan jobs, facsimile transmission jobs, and data transmission jobs. Jobs that can be executed by job execution unit 85 are not limited to these, and may include other jobs. The copy job includes scan processing for causing document reading unit 130 to read the document, and print processing for causing image forming unit 140 to form an image of data output by document reading unit 130 reading the document. The print job includes print processing for causing image forming portion 140 to form an image of data stored in HDD 115 and print data externally received by communication I/F portion 112 on paper. The scan job includes scan processing for causing document reading unit 130 to read the document, and output processing for outputting image data output by document reading unit 130 reading the document. The output processing includes data storage processing for storing data in HDD 115 and data transmission processing for transmitting data to communication I/F portion 112 to the outside. The facsimile transmission job includes scanning processing for causing document reading unit 130 to read a document, and facsimile transmission processing for causing document reading unit 130 to read and output data from the document and transmit the data to facsimile unit 116 . The data transmission job includes a data transmission process of controlling communication I/F unit 112 to transmit data stored in HDD 115 or data read and output by document reading unit 130 to another computer.

操作ユーザー特定部51は、MFP100を操作する操作ユーザーを特定する。例えば、ユーザーが操作パネル160を操作する場合、そのユーザーがユーザー識別情報を操作部163に入力する場合に操作部163に入力されたユーザー識別情報で識別されるユーザーを操作ユーザーとして特定する。また、MFP100がカードリーダーを備える場合、操作ユーザー特定部51は、カードリーダーがカードに記憶されたユーザー識別情報を読み取る場合、ユーザーがカードリーダーにカードに記憶されたユーザー識別情報を読み取らせる操作を受け付ける。操作ユーザー特定部51は、カードリーダーが読み取ったユーザー識別情報で識別されるユーザーを操作ユーザーとして特定する。カードリーダーは、磁気カードリーダーであってもよいし、NFC(Near field communication)規格で通信する無線通信装置であってもよい。操作ユーザー特定部51は、操作ユーザーを特定する場合、操作ユーザーのユーザー識別情報を設定部53に出力する。 Operating user identification unit 51 identifies an operating user who operates MFP 100 . For example, when a user operates operation panel 160 and the user inputs user identification information to operation unit 163, the user identified by the user identification information input to operation unit 163 is identified as the operating user. Further, when MFP 100 includes a card reader, operating user identification unit 51 allows the user to cause the card reader to read the user identification information stored in the card when the card reader reads the user identification information stored in the card. accept. The operating user identification unit 51 identifies the user identified by the user identification information read by the card reader as the operating user. The card reader may be a magnetic card reader, or may be a wireless communication device that communicates according to the NFC (Near field communication) standard. When specifying the operating user, operating user specifying portion 51 outputs the user identification information of the operating user to setting portion 53 .

設定部53は、操作ユーザー特定部51から操作ユーザーのユーザー識別情報が入力される場合、そのユーザー識別情報のユーザーによる指示が開始条件に設定されている依頼ジョブまたは通常ジョブがHDD115に記憶されているか否かを判断する。そのような依頼ジョブまたは通常ジョブがHDD115に記憶されている場合、設定部53は、その依頼ジョブまたは通常ジョブを実行可能な状態に設定する。特に、設定部53は、依頼ジョブを実行可能な状態に設定する場合、第2ユーザーによる指示を受け付けるための設定ボタンを表示部161に表示する。設定ボタンは、依頼ジョブを実行するコマンドが割り当てられる。 When the user identification information of the operating user is input from operating user specifying portion 51 , setting portion 53 stores in HDD 115 a requested job or a normal job whose start condition is set to an instruction by the user of the user identification information. determine whether there is If such a requested job or normal job is stored in HDD 115, setting unit 53 sets the requested job or normal job to an executable state. In particular, when setting the requested job to an executable state, setting portion 53 displays a setting button for accepting an instruction from the second user on display portion 161 . A setting button is assigned a command for executing a requested job.

図7は、ログイン画面の一例を示す図である。図7に示すログイン画面500は、第2ユーザーが操作部163を操作して、MFP100によりユーザーが特定される場合に表示部161に表示される。図7を参照して、ログイン画面500は、種々の処理を選択するための複数の選択ボタン503と設定ボタン501とを含む。設定ボタン501は、第2ユーザーが操作部163を操作してMFP100により第2ユーザーが特定される場合に表示される。したがって、HDD115に依頼ジョブが記憶されていない場合には、ログイン画面500に設定ボタン501は含まれない。設定ボタン501は、「作業依頼」の文字列と、「(××さん)」の文字列を含む。「(××さん)」の文字列は第1ユーザーのユーザー識別情報である第1ユーザー名を含む。したがって、設定ボタン501を見る第2ユーザーは、設定ボタン501が、第1ユーザーにより依頼された作業を遂行するための依頼ジョブを実行可能な状態にするためのボタンであることを知ることができる。 FIG. 7 is a diagram showing an example of a login screen. Login screen 500 shown in FIG. 7 is displayed on display portion 161 when the second user operates operation portion 163 and MFP 100 identifies the user. Referring to FIG. 7, login screen 500 includes a plurality of selection buttons 503 and a setting button 501 for selecting various processes. Setting button 501 is displayed when the second user operates operation unit 163 and MFP 100 identifies the second user. Accordingly, when no requested job is stored in HDD 115 , login screen 500 does not include setting button 501 . The setting button 501 includes a character string “work request” and a character string “(Mr. XX)”. The character string "(Mr. XX)" includes the first user name, which is the user identification information of the first user. Therefore, the second user who sees the setting button 501 can know that the setting button 501 is a button for enabling the requested job for performing the work requested by the first user. .

図6に戻って、設定部53は、設定ボタン501を表示部161に表示するのに代えて、HDD115に記憶されている1以上のジョブを識別するためのジョブ識別情報を選択可能に表示部161に表示してもよい。この場合、HDD115に依頼ジョブまたは通常ジョブが記憶されている場合、表示部161に依頼ジョブおよび通常ジョブのジョブ識別情報が選択可能に表示される。設定部53は、ユーザーが依頼ジョブのジョブ識別情報を選択する場合、設定ボタンが指示された場合と同様に、依頼ジョブまたは通常ジョブを実行可能な状態に設定する。 Returning to FIG. 6, instead of displaying setting button 501 on display portion 161, setting portion 53 displays job identification information for identifying one or more jobs stored in HDD 115 in a selectable manner. 161 may be displayed. In this case, when a requested job or a normal job is stored in HDD 115, display portion 161 displays job identification information of the requested job and the normal job in a selectable manner. When the user selects the job identification information of the requested job, the setting unit 53 sets the requested job or the normal job to an executable state in the same manner as when the set button is instructed.

設定部53は、実行可能に設定したジョブの設定値を変更する操作を受け付ける場合、ジョブの設定値を変更する。これにより、第2ユーザーは、依頼ジョブに誤って設定されている設定値を正しい値に変更することができ、また、設定されていない設定値を追加して設定することができる。 Setting unit 53 changes the setting values of the job when accepting an operation to change the setting values of the job set to be executable. Thereby, the second user can change the setting values erroneously set in the requested job to correct values, and can add and set setting values that have not been set.

また、第2ユーザーによる指示が開始条件に設定されている依頼ジョブが実行されることなくHDD115に記憶されてから所定の時間が経過する場合がある。この場合に設定部53は、操作ユーザー特定部51から第2ユーザーのユーザー識別情報が入力される場合であっても、依頼ジョブを実行可能な状態に設定しない。具体的には、設定部53は、依頼ジョブの実行のユーザーによる指示を受け付けるための設定ボタン501を表示部161に表示しない。所定時間を経過しても依頼ジョブが実行されていない場合は、依頼ジョブの実行が不要となった確率が高く、不要となった依頼ジョブがHDD115に記憶された状態が継続しないようにするためである。不要なデータを削除することにより記憶資源を有効に利用することができる。 Also, a predetermined time may elapse after a requested job whose start condition is set to an instruction by the second user is stored in HDD 115 without being executed. In this case, setting unit 53 does not set the requested job to an executable state even when the user identification information of the second user is input from operating user specifying unit 51 . Specifically, setting portion 53 does not display on display portion 161 setting button 501 for accepting the user's instruction to execute the requested job. If the requested job has not been executed after a predetermined period of time has elapsed, there is a high probability that the requested job has become unnecessary. is. Storage resources can be effectively used by deleting unnecessary data.

ジョブ制御部55に含まれるジョブ実行部85は、第2ユーザーが操作部163に入力する依頼ジョブの実行操作を受け付ける場合、依頼ジョブを実行する。また、ジョブ実行部85は、指示ユーザーが操作部163に入力する通常ジョブの実行操作を受け付ける場合、通常ジョブを実行する。指示ユーザーは、通常ジョブのジョブ識別情報と関連付部83により関連付けられたユーザー識別情報で特定される。 Job execution portion 85 included in job control portion 55 executes the requested job when accepting the execution operation of the requested job input by the second user to operation portion 163 . In addition, job executing portion 85 executes a normal job when receiving a normal job execution operation input to operation portion 163 by the instructing user. The designated user is identified by the user identification information associated by the association unit 83 with the job identification information of the normal job.

依頼者通知部57は、依頼ジョブが実行されることに応じて、依頼ジョブが実行されたことを第1ユーザーに通知する。第1ユーザーは、依頼ジョブのジョブ識別情報と関連付部83により関連付けられたユーザー識別情報で特定される。依頼者通知部57は、第1ユーザーに対して予め登録された方法で依頼ジョブが実行されたことを通知する。例えば、依頼者通知部57は、第2ユーザーにより依頼ジョブが実行されたことを示すメッセージを、第1ユーザーに対して予め登録された宛先に電子メールで送信する。 The requester notification unit 57 notifies the first user that the requested job has been executed in response to the execution of the requested job. The first user is identified by the user identification information associated by the association unit 83 with the job identification information of the requested job. The requester notification unit 57 notifies the first user that the requested job has been executed by a method registered in advance. For example, the requester notification unit 57 sends an e-mail message indicating that the requested job has been executed by the second user to a destination registered in advance for the first user.

図8は、第1の実施の形態におけるジョブ生成の流れの一例を示すフローチャートである。ジョブ生成は、PC200が備えるCPU201がROM202、HDD204またはCD-ROM211に記憶されたジョブ制御プログラムを実行することにより、CPU201により実行される処理である。ジョブ制御プログラムは、ジョブ生成プログラムの一部である。 FIG. 8 is a flow chart showing an example of the flow of job generation according to the first embodiment. Job generation is a process executed by CPU 201 of PC 200 when CPU 201 executes a job control program stored in ROM 202 , HDD 204 or CD-ROM 211 . The Job Control Program is part of the Job Generator Program.

図8を参照して、PC200が備えるCPU201は、音声を受け付けたか否かを判断する。具体的には、CPU201は、マイクロフォン208が出力する音声データを受け付ける場合、音声を受け付けたと判断する。CPU201は、マイクロフォン208から音声データを受け付けるまで待機状態となり(ステップS01でNO)、音声データを受け付けると(ステップS01でYES)、処理をステップS02に進める。 Referring to FIG. 8, CPU 201 provided in PC 200 determines whether or not voice has been received. Specifically, when the CPU 201 accepts audio data output from the microphone 208, it determines that the audio has been accepted. CPU 201 is in a standby state until voice data is received from microphone 208 (NO in step S01), and when voice data is received (YES in step S01), the process proceeds to step S02.

ステップS02においては、CPU201は、音声認識し、処理をステップS03に進める。具体的には、CPU201は、ステップS01において受け付けられた音声データで特定される音声を音声認識し、音声を文字で構成される音声情報に変換する。ステップS03においては、音声から変換された音声情報が決定され、処理はステップS04に進む。 In step S02, CPU 201 recognizes the voice and advances the process to step S03. Specifically, CPU 201 recognizes the voice specified by the voice data accepted in step S01, and converts the voice into voice information composed of characters. In step S03, voice information converted from voice is determined, and the process proceeds to step S04.

ステップS04においては、音声データで特定される音声を発声したユーザーが特定され、処理はステップS05に進む。CPU201は、HDD204に記憶された声紋情報を用いて、音声データで特定される音声を複数のユーザーの声紋それぞれと比較することによって、ユーザーを特定される。声紋情報は、予め登録された複数のユーザーそれぞれの声紋を示す情報である。ステップS05においては、CPU201は、音声レコードを生成し、処理をステップS06に進める。具体的には、CPU201は、ステップS03で決定された音声情報とステップS04において特定されたユーザー識別情報と、音声データが受け付けられた日時と、を含む音声レコードを生成する。音声レコードは、音声から変換された音声情報とその音声を発声したユーザーのユーザー識別情報と、その音声が発生された日時と、を関連付ける情報である。ステップS06においては、音声レコードがHDD115に記憶された音声テーブルに追加され、処理はステップS07に進む。 In step S04, the user who uttered the voice specified by the voice data is specified, and the process proceeds to step S05. CPU 201 uses the voiceprint information stored in HDD 204 to identify a user by comparing the voice specified by the voice data with the voiceprints of each of a plurality of users. Voiceprint information is information indicating the voiceprints of each of a plurality of users registered in advance. In step S05, CPU 201 generates a voice record and advances the process to step S06. Specifically, CPU 201 generates a voice record including the voice information determined in step S03, the user identification information specified in step S04, and the date and time when the voice data was accepted. A voice record is information that associates voice information converted from voice, user identification information of the user who uttered the voice, and the date and time when the voice was generated. In step S06, the voice record is added to the voice table stored in HDD 115, and the process proceeds to step S07.

ステップS07においては、音声情報が許諾文字列を含むか否かが判断される。許諾文字列は、他人からの依頼を受ける場合に用いる語を含む文字列であり、予め定められている。ステップS03において決定された音声情報が許諾文字列を含むならば処理はステップS08に進むが、そうでなければ処理はステップS13に進む。 In step S07, it is determined whether or not the voice information contains a permitted character string. The permission character string is a predetermined character string including a word used when receiving a request from another person. If the audio information determined in step S03 contains the permitted character string, the process proceeds to step S08; otherwise, the process proceeds to step S13.

ステップS08においては、ステップS04において特定されたユーザーが第2ユーザーに決定され、処理はステップS09に進む。第2ユーザーは、第1ユーザーからの作業の依頼を受諾するユーザーである。 In step S08, the user identified in step S04 is determined as the second user, and the process proceeds to step S09. A second user is a user who accepts a work request from the first user.

ステップS09においては、ジョブ生成サブ処理が実行され、処理はステップS10に進む。ジョブ生成サブ処理の詳細は後述するが、HDD204に記憶された音声テーブルに含まれる1以上の音声レコードに基づいてジョブを生成するとともに、第2ユーザーに作業を依頼した第1ユーザーを決定する処理である。ステップS10においては、依頼ジョブが生成され、処理はステップS11に進む。ジョブ生成サブ処理が実行されることにより生成されるジョブと、ステップS08において決定された第2ユーザーとに基づいて依頼ジョブが生成される。依頼ジョブは、MFP100に依頼ジョブで定められる処理を実行させる開始条件として、第2ユーザーによる操作を受け付けることが設定されたジョブである。具体的には、ステップS09において生成されたジョブに、開始条件としてステップS08において決定された第2ユーザーによる操作を受け付けることが設定されることにより、依頼ジョブが生成される。次のステップS11においては、CPU201は、通信部205を制御して、依頼ジョブと第1ユーザーのユーザー識別情報とをMFP100に送信し、処理をステップS12に進める。ステップS12においては、依頼ジョブの存在が第2ユーザーに通知され、処理は終了する。具体的には、MFP100に実行可能な依頼ジョブが蓄積されていることを示すメッセージを含み、宛先アドレスに第2ユーザーの電子メールアドレスを設定した電子メールは生成され、通信部205によりその電子メールが送信される。 In step S09, a job generation sub-process is executed, and the process proceeds to step S10. Although the details of the job generation sub-processing will be described later, it is a process of generating a job based on one or more voice records included in the voice table stored in the HDD 204 and determining the first user who requested the work from the second user. is. In step S10, a requested job is generated, and the process proceeds to step S11. A requested job is generated based on the job generated by executing the job generation sub-process and the second user determined in step S08. A requested job is a job for which acceptance of an operation by the second user is set as a condition for starting MFP 100 to execute processing defined by the requested job. Specifically, the requested job is generated by setting the job generated in step S09 to accept the operation by the second user determined in step S08 as a start condition. In the next step S11, CPU 201 controls communication unit 205 to transmit the requested job and the user identification information of the first user to MFP 100, and the process proceeds to step S12. In step S12, the existence of the requested job is notified to the second user, and the process ends. Specifically, an e-mail containing a message indicating that executable requested jobs are stored in MFP 100 and having the e-mail address of the second user set as the destination address is generated, and communication unit 205 generates the e-mail. is sent.

一方、ステップS13においては、音声情報が指示文字列を含むか否かが判断される。音声情報が指示文字列を含むならば処理はステップS14に進むが、そうでなければ処理はステップS01に戻る。ステップS14においては、指示文字列を発声したユーザーが指示ユーザーに決定され、処理はステップS15に進む。音声レコードにより音声情報に関連付けられたユーザー識別情報で特定されるユーザーが指示ユーザーに決定される。ステップS15においては、ジョブ生成サブ処理が実行され、処理はステップS16に進む。 On the other hand, in step S13, it is determined whether or not the voice information contains the designated character string. If the voice information contains the designated character string, the process proceeds to step S14; otherwise, the process returns to step S01. In step S14, the user who uttered the instruction character string is determined as the instruction user, and the process proceeds to step S15. A user identified by the user identification information associated with the voice information by the voice record is determined as the designated user. In step S15, a job generation sub-process is executed, and the process proceeds to step S16.

ステップS16においては、通常ジョブが生成され、処理はステップS17に進む。通常ジョブは、MFP100に通常ジョブで定められる処理を実行させる開始条件として、指示ユーザーによる操作を受け付けることが設定されたジョブである。具体的には、ステップS15において生成されたジョブを、開始条件としてステップS14において決定された指示ユーザーによる操作を受け付けることが設定されることにより、通常ジョブが生成される。次のステップS17においては、通信部205を制御して、通常ジョブがMFP100に送信され、処理はステップS18に進む。ステップS18においては、通常ジョブの存在が指示ユーザーに通知され、処理は終了する。具体的には、MFP100に実行可能な通常ジョブが蓄積されていることを示すメッセージを含み、宛先アドレスに指示ユーザーの電子メールアドレスが設定された電子メールが生成され、通信部205によりその電子メールが送信される。 In step S16, a normal job is generated, and the process proceeds to step S17. A normal job is a job for which acceptance of an operation by an instructing user is set as a condition for starting MFP 100 to execute processing defined by the normal job. Specifically, a normal job is generated by setting the job generated in step S15 as a start condition to accept an operation by the instruction user determined in step S14. In the next step S17, communication unit 205 is controlled to transmit the normal job to MFP 100, and the process proceeds to step S18. In step S18, the instruction user is notified of the existence of the normal job, and the process ends. Specifically, an e-mail containing a message indicating that executable normal jobs are stored in MFP 100 and having the e-mail address of the designated user set as the destination address is generated, and communication unit 205 generates the e-mail. is sent.

図9は、ジョブ生成サブ処理の流れの一例を示すフローチャートである。ジョブ生成サブ処理は、図8のステップS09およびステップS15で実行される処理である。ジョブ生成サブ処理が実行される前のステップS06において、許諾文字列を含む音声情報を含む音声レコードがHDD115に記憶される場合と指示文字列を含む音声情報を含む音声レコードがHDD115に記憶される場合とがある。以下、許諾文字列を含む音声情報を含む音声レコードまたは指示文字列を含む音声情報を含む音声レコードを処理対象レコードという。 FIG. 9 is a flowchart showing an example of the flow of job generation sub-processing. The job generation sub-process is a process executed in steps S09 and S15 of FIG. In step S06 before the job generation sub-process is executed, HDD 115 stores a voice record including voice information including a permission character string and a voice record including voice information including an instruction character string in HDD 115. There are cases. Hereinafter, an audio record including audio information including a permission character string or an audio record including audio information including an instruction character string is referred to as a record to be processed.

図9を参照して、CPU201は、1つ前の時刻の音声レコードを読出す(ステップS21)。具体的には、CPU201は、HDD204に記憶されている音声テーブルに含まれる複数の音声レコードのうちから処理対象レコードに含まれる時刻情報で示される時刻より前で最も近い時刻を示す時刻情報を含む音声レコードを読出す。次のステップS22においては、音声レコードに含まれる音声情報が特定される。 Referring to FIG. 9, CPU 201 reads the voice record of the previous time (step S21). Specifically, the CPU 201 includes time information indicating the nearest time earlier than the time indicated by the time information included in the record to be processed among the plurality of voice records included in the voice table stored in the HDD 204. Read voice record. In the next step S22, audio information contained in the audio record is specified.

そして、音声情報が依頼文字列を含むか否かが判断される(ステップS23)。依頼文字列は、他人に作業を依頼する場合に用いる語を含む。依頼文字列は予め定めておけばよい。音声情報が依頼文字列を含むならば処理はステップS24に進むが、そうでなければステップS24はステップS25に進む。ステップS24においては、依頼文字列を発声したユーザーが第1ユーザーに決定され、処理はステップS25に進む。ステップS21において読み出された音声レコードに含まれるユーザー識別情報で特定されるユーザーが第1ユーザーに決定される。 Then, it is determined whether or not the voice information includes the requested character string (step S23). The request character string includes words used when requesting work to others. A request character string may be determined in advance. If the voice information contains the requested character string, the process proceeds to step S24, otherwise step S24 proceeds to step S25. In step S24, the user who uttered the requested character string is determined as the first user, and the process proceeds to step S25. The user identified by the user identification information included in the voice record read in step S21 is determined as the first user.

ステップS25においては、音声情報から設定情報が決定されたか否かを判断する。音声情報が、処理の対象となるデータのファイル名を含む場合に、処理対象のデータを特定する設定情報が決定される。音声情報から設定情報が決定されたならば処理はステップS26に進むが、そうでなければ処理はステップS28に進む。ステップS26においては、設定情報が複数決定されたか否かを判断する。複数の設定情報が決定されたならば処理はステップS30に進むが、そうでなければ処理はステップS34に進む。例えば、同一ファイル名の複数のデータが異なるフォルダに記憶されている場合に、複数のデータをそれぞれ示す複数の設定情報が決定される。 In step S25, it is determined whether or not the setting information has been determined from the voice information. When the audio information includes the file name of data to be processed, setting information specifying the data to be processed is determined. If the setting information is determined from the audio information, the process proceeds to step S26; otherwise, the process proceeds to step S28. In step S26, it is determined whether or not a plurality of pieces of setting information have been determined. If a plurality of pieces of setting information have been determined, the process proceeds to step S30; otherwise, the process proceeds to step S34. For example, when a plurality of data with the same file name are stored in different folders, a plurality of pieces of setting information respectively indicating the plurality of data are determined.

ステップS28においては、音声情報がキーワードと比較され、処理はステップS29に進む。具体的には、音声情報の少なくとも一部の発音と、HDD204に記憶されているキーワードテーブルに登録されているキーワードの少なくとも一部の発音とが比較される。次のステップS29においては、比較の結果、音声情報の少なくとも一部と発音が同一または類似の文字列を含むキーワードが複数存在するか否かが判断される。複数のキーワードが存在するならば処理はステップS27に進む。比較の結果、音声情報の少なくとも一部と発音が同一または類似の文字列を含むキーワードが複数存在するならば処理はステップS30に進み、複数でなく1つならば処理はステップS31に進む。ステップS31においては、比較の結果、キーワードが存在するか否かが判断される。キーワードが存在するならば処理はステップS33に進むが、そうでなければ処理はステップS34に進む。 In step S28, the voice information is compared with the keyword, and the process proceeds to step S29. Specifically, the pronunciation of at least part of the voice information is compared with the pronunciation of at least part of the keywords registered in the keyword table stored in HDD 204 . In the next step S29, as a result of the comparison, it is determined whether or not there are a plurality of keywords including character strings having the same or similar pronunciation as at least part of the voice information. If multiple keywords exist, the process proceeds to step S27. As a result of the comparison, if there are a plurality of keywords including character strings that are pronounced the same as or similar to at least a part of the voice information, the process proceeds to step S30, and if there is only one, the process proceeds to step S31. In step S31, as a result of the comparison, it is determined whether or not the keyword exists. If the keyword exists, the process proceeds to step S33; otherwise, the process proceeds to step S34.

ステップS30においては、確認処理が実行され、処理はステップS28に進む。確認処理の詳細は後述するが、複数の設定情報のいずれであるかをユーザーに確認する処理であり、複数の設定情報のうちから1つが決定される。ステップS31においては、確認処理の結果が設定情報の決定されないことを示すエラーか否かを判断する。確認処理の結果がエラーならば処理はステップS34に進むが、エラーでなければ処理はステップS33に進む。ステップS33においては、設定情報が決定され、処理はステップS34に進む。ステップS30が実行される場合は、確認処理で決定された設定情報が決定され、処理がステップS31から進む場合は、キーワードに関連付けられた設定情報が設定される。 In step S30, confirmation processing is performed, and the processing proceeds to step S28. Details of the confirmation process will be described later, but this is a process of confirming with the user which one of the plurality of setting information is, and one of the plurality of setting information is determined. In step S31, it is determined whether or not the result of the confirmation process is an error indicating that the setting information has not been determined. If the result of the confirmation process is an error, the process proceeds to step S34, but if not, the process proceeds to step S33. In step S33, setting information is determined, and the process proceeds to step S34. When step S30 is executed, the setting information determined in the confirmation process is determined, and when the process proceeds from step S31, setting information associated with the keyword is set.

ステップS34においては、ステップS33において決定された設定情報に基づいて、処理が決定されるか否かが判断される。処理が決定されるならば処理はステップS35に進むが、そうでなければ処理はステップS21に戻る。 In step S34, it is determined whether or not the process is determined based on the setting information determined in step S33. If the process is determined, the process proceeds to step S35; otherwise, the process returns to step S21.

ステップS35においては、ステップS33において決定された設定情報で定まる条件で、ステップS33において決定された設定情報で定まる処理をMFP100に実行させるためのジョブが生成され、処理はステップS36に進む。ステップS36においては、ジョブが完成したか否かが判断する。ジョブが複数の処理を定める場合があり、複数の処理のすべてが定まる場合にジョブが完成されたと判断される。ジョブが完成したならば処理はジョブ生成処理に戻るが、そうでなければ処理はステップS21に戻る。 In step S35, a job is generated for causing MFP 100 to execute the process determined by the setting information determined in step S33 under the conditions determined by the setting information determined in step S33, and the process proceeds to step S36. In step S36, it is determined whether the job has been completed. A job may define multiple processes, and a job is considered complete when all of the multiple processes have been defined. If the job is completed, the process returns to the job generation process; otherwise, the process returns to step S21.

図10は、確認処理の流れの一例を示すフローチャートである。確認処理は、ジョブ生成サブ処理のステップS30において実行される処理である。確認処理が実行される前の段階で、複数の設定情報が決定されている。図10を参照して、複数の設定情報がデータを定めるか否かが判断される(ステップS41)。複数の設定情報が処理の対象となるデータを定めるならば処理はステップS42に進むが、そうでなければ処理はステップS46に進む。 FIG. 10 is a flowchart showing an example of the flow of confirmation processing. The confirmation process is a process executed in step S30 of the job generation sub-process. A plurality of pieces of setting information are determined before the confirmation process is executed. Referring to FIG. 10, it is determined whether or not a plurality of setting information define data (step S41). If the plurality of setting information define data to be processed, the process proceeds to step S42; otherwise, the process proceeds to step S46.

ステップS42においては、処理対象となる設定情報が選択され、処理はステップS43に進む。ステップS43においては、設定情報で特定されるデータの属性が問い合わされ、処理はステップS44に進む。データの属性は、記憶領域名、作成日または更新日を含む。そして、肯定的な応答を受け付けたか否かが判断される(ステップS44)。問い合わせの後にユーザーが発声する音声に対応する音声情報が、肯定的な応答を示す文字列を含むか否かを判断する。肯定的な応答を示す文字列は、例えば、「はい」、「正しいです」等である。肯定的な応答を受け付けたならば処理はステップS45に進むが、そうでなければ処理はステップS42に戻る。ステップS45においては、ステップS42において処理対象に選択された設定情報が決定され、処理はジョブ生成サブ処理に戻る。 In step S42, setting information to be processed is selected, and the process proceeds to step S43. In step S43, the attribute of the data specified by the setting information is inquired, and the process proceeds to step S44. Data attributes include storage area name, creation date or update date. Then, it is determined whether or not an affirmative response has been received (step S44). It is determined whether the voice information corresponding to the voice uttered by the user after the inquiry contains a character string indicating a positive response. A positive response string is, for example, "yes", "correct", and the like. If an affirmative response is received, the process proceeds to step S45; otherwise, the process returns to step S42. In step S45, the setting information selected to be processed in step S42 is determined, and the process returns to the job generation sub-process.

ステップS46においては、複数の設定情報にそれぞれ関連付けられた複数のキーワードの一部が同一か否かが判断される。複数のキーワードの一部が同一ならば処理はステップS47に進むが、そうでなければ処理はステップS50に進む。 In step S46, it is determined whether or not some of the multiple keywords associated with the multiple setting information are the same. If some of the keywords are the same, the process proceeds to step S47; otherwise, the process proceeds to step S50.

ステップS47においては、複数のキーワードのうちから処理対象となるキーワードが選択され、処理はステップS48に進む。ステップS48においては、キーワードが問い合わされ、処理はステップS49に進む。キーワードそのものを問い合わせるメッセージが再生される。そして、肯定的な応答を受け付けたか否かが判断される(ステップS49)。問い合わせの後にユーザーが発声する音声に対応する音声情報が、肯定的な応答を示す文字列を含むか否かが判断される(ステップS49)。肯定的な応答を受け付けたならば処理はステップS45に進むが、そうでなければ処理はステップS47に戻る。ステップS45おいては、ステップS47において処理対象に選択されたキーワードに関連付けられた設定情報が決定され、処理はジョブ生成サブ処理に戻る。 In step S47, a keyword to be processed is selected from a plurality of keywords, and the process proceeds to step S48. In step S48, a keyword is queried, and the process proceeds to step S49. A message asking for the keyword itself is played. Then, it is determined whether or not an affirmative response has been received (step S49). It is determined whether or not the voice information corresponding to the voice uttered by the user after the inquiry includes a character string indicating a positive response (step S49). If an affirmative response is received, the process proceeds to step S45; otherwise, the process returns to step S47. In step S45, the setting information associated with the keyword selected as the processing target in step S47 is determined, and the process returns to the job generation sub-process.

ステップS50においては、複数の設定情報にそれぞれ関連付けられた複数のキーワードの一部が同音異義語か否かが判断される。複数のキーワードの一部が同音異義語ならば処理はステップS51に進むが、そうでなければ処理はステップS54に進む。ステップS54においては、設定情報が確認できなかったことを示すエラーが設定され、処理はジョブ生成サブ処理に戻る。 In step S50, it is determined whether or not some of the multiple keywords associated with the multiple setting information are homonyms. If some of the keywords are homonyms, the process proceeds to step S51; otherwise, the process proceeds to step S54. In step S54, an error indicating that the setting information could not be confirmed is set, and the process returns to the job generation sub-process.

ステップS51においては、複数のキーワードのうちから処理対象となるキーワードが選択され、処理はステップS52に進む。ステップS52においては、キーワードが別の発音で問い合わされ、処理はステップS53に進む。キーワードを別の読みで発音するメッセージが再生されることにより、キーワードが正しいか否かが問い合わされる。また、キーワードを別の文字と組み合わせた単語が再生されることにより、キーワードが正しいか否かが問い合わされてもよい。また、キーワードを示す文字の意味を示すメッセージが再生されることにより、キーワードが正しいか否かが問い合わされてもよい。 In step S51, a keyword to be processed is selected from a plurality of keywords, and the process proceeds to step S52. In step S52, the keyword is queried with a different pronunciation and processing proceeds to step S53. The correctness of the keyword is queried by playing back a message that pronounces the keyword in different readings. It may also be queried whether the keyword is correct by playing back a word that combines the keyword with another letter. Further, an inquiry may be made as to whether or not the keyword is correct by reproducing a message indicating the meaning of the characters indicating the keyword.

そして、肯定的な応答が受け付けられたか否かが判断される(ステップS53)。問い合わせの後にユーザーが発声する音声に対応する音声情報が、肯定的な応答を示す文字列を含むか否かが判断される。肯定的な応答が受け付けられたならば処理はステップS45に進むが、そうでなければ処理はステップS51に戻る。ステップS45においては、ステップS51において処理対象に選択されたキーワードに関連付けられた設定情報が決定され、処理はジョブ生成サブ処理に戻る。 Then, it is determined whether or not a positive response has been received (step S53). It is determined whether the voice information corresponding to the voice uttered by the user after the inquiry includes a character string indicating a positive response. If an affirmative response is received, the process proceeds to step S45; otherwise, the process returns to step S51. In step S45, the setting information associated with the keyword selected as the processing target in step S51 is determined, and the process returns to the job generation sub-process.

図11は、ジョブ実行処理の流れの一例を示すフローチャートである。ジョブ実行処理は、MFP100が備えるCPU111が、ROM113、HDD115、CD-ROM118に記憶されたジョブ実行プログラムを実行することにより、CPU111により実現される機能である。ジョブ実行プログラムはジョブ生成プログラムの一部である。図11を参照して、MFP100が備えるCPU111は、依頼ジョブを受信したか否かを判断する(ステップS61)。CPU111は、通信I/F部112を制御して、PC200から依頼ジョブと第1ユーザーのユーザー識別情報とを受信したか否かを判断する。依頼ジョブを受信したならば処理はステップS62に進むが、そうでなければ処理はステップS63に進む。ステップS62においては、HDD115に、依頼ジョブと依頼ジョブとともに受信される第1ユーザーのユーザー識別情報とが記憶され、処理はステップS63に進む。 FIG. 11 is a flowchart illustrating an example of the flow of job execution processing. The job execution process is a function realized by CPU 111 of MFP 100 by executing a job execution program stored in ROM 113 , HDD 115 and CD-ROM 118 . The job executor is part of the job generator. Referring to FIG. 11, CPU 111 of MFP 100 determines whether or not a requested job has been received (step S61). CPU 111 controls communication I/F portion 112 to determine whether or not the requested job and the user identification information of the first user have been received from PC 200 . If the requested job has been received, the process proceeds to step S62; otherwise, the process proceeds to step S63. In step S62, the requested job and the user identification information of the first user received together with the requested job are stored in HDD 115, and the process proceeds to step S63.

ステップS63において、通常ジョブが受信されたか否かが判断される。CPU111は、通信I/F部112を制御して、PC200から通常ジョブを受信したか否かを判断する。通常ジョブを受信したならば処理はステップS64に進むが、そうでなければ処理はステップS65に進む。ステップS64においては、HDD115に、通常ジョブが記憶され、処理はステップS65に進む。 In step S63, it is determined whether or not a normal job has been received. CPU 111 controls communication I/F unit 112 to determine whether or not a normal job has been received from PC 200 . If the normal job is received, the process proceeds to step S64; otherwise, the process proceeds to step S65. In step S64, the normal job is stored in HDD 115, and the process proceeds to step S65.

ステップS65おいては、操作部163がユーザーにより入力される操作を受け付けたか否かが判断される。操作を受け付けたならば処理はステップS66に進むが、そうでなければ処理はステップS61に戻る。ステップS66においては、操作部163を操作するユーザーが特定され、処理はステップS67に進む。ユーザーが操作部163にユーザー識別情報を入力する場合に操作部163に入力されたユーザー識別情報で識別されるユーザーは操作ユーザーとして特定される。また、ユーザーがカードリーダーにカードに記憶されたユーザー識別情報を読み取らせる操作が受け付けられ、カードリーダーが読み取ったユーザー識別情報で識別されるユーザーは操作ユーザーとして特定される。 In step S65, it is determined whether operation unit 163 has received an operation input by the user. If the operation has been accepted, the process proceeds to step S66; otherwise, the process returns to step S61. In step S66, the user who operates operation unit 163 is specified, and the process proceeds to step S67. When the user inputs user identification information to operation unit 163, the user identified by the user identification information input to operation unit 163 is identified as the operating user. Further, an operation by the user to cause the card reader to read the user identification information stored in the card is accepted, and the user identified by the user identification information read by the card reader is specified as the operating user.

ステップS67においては、特定されたユーザーに対応する依頼ジョブが存在するか否かが判断される。特定されたユーザーの指示が開始条件に設定されている依頼ジョブがHDD115に記憶されているか否かが判断される。依頼ジョブが存在するならば処理はステップS68に進むが、そうでなければ処理はステップS71に進む。 In step S67, it is determined whether or not there is a requested job corresponding to the specified user. It is determined whether or not a requested job whose start condition is set to the specified user's instruction is stored in HDD 115 . If the requested job exists, the process proceeds to step S68; otherwise, the process proceeds to step S71.

ステップS68においては、依頼ジョブが受信されてからの経過時間が所定時間以内か否かは判断される。所定時間以内ならば処理はステップS69に進むが、所定時間を経過していれば処理は終了する。依頼ジョブが受信されてから所定時間が経過した場合には依頼ジョブが不要となった確率が高い。このため、不要となった依頼ジョブが実行されないようにできる。 In step S68, it is determined whether or not the elapsed time since the requested job was received is within a predetermined time. If it is within the predetermined time, the process proceeds to step S69, but if the predetermined time has passed, the process ends. If a predetermined time has passed since the requested job was received, there is a high probability that the requested job is no longer needed. Therefore, it is possible to prevent unnecessary requested jobs from being executed.

ステップS69においては実行指示処理を実行し、処理はステップS70に進む。実行指示処理の詳細は後述する。ステップS70においては、依頼ジョブが実行されたことが第1ユーザーに通知され、処理は終了する。ステップS67において特定された依頼ジョブとともにステップS62においてHDD115に記憶されたユーザー識別情報を用いて、第1ユーザーは特定される。例えば、第2ユーザーにより依頼ジョブが実行されたことを示すメッセージを含み、第1ユーザーの電子メールアドレスを宛先に含む電子メールが生成され、通信I/F部112を介して電子メールが送信される。 In step S69, an execution instruction process is executed, and the process proceeds to step S70. Details of the execution instruction process will be described later. In step S70, the first user is notified that the requested job has been executed, and the process ends. The first user is identified using the user identification information stored in HDD 115 in step S62 together with the requested job identified in step S67. For example, an e-mail containing a message indicating that the requested job has been executed by the second user and including the e-mail address of the first user as the destination is generated, and the e-mail is transmitted via communication I/F unit 112. be.

ステップS71においては、ステップS66において特定されたユーザーに対応する通常ジョブが存在するか否かが判断される。特定されたユーザーの指示が開始条件に設定されている通常ジョブがHDD115に記憶されているか否かを判断する。通常ジョブが存在するならば処理はステップS72に進むが、そうでなければ処理は終了する。ステップS72においては通常ジョブが受信されてからの経過時間が所定時間以内か否かを判断する。所定時間以内ならば処理はステップS73に進むが、そうでなければ処理は終了する。通常ジョブが受信されてから所定時間が経過した場合には通常ジョブが不要となった確率が高い。このため、不要となった通常ジョブが実行されないようにできる。ステップS73においては、実行指示処理を実行し、処理は終了する。実行指示処理が実行される場合に通常ジョブが処理対象にされ、通常ジョブが実行される。 In step S71, it is determined whether or not there is a normal job corresponding to the user identified in step S66. It is determined whether or not a normal job for which the specified user's instruction is set as a start condition is stored in HDD 115 . If the normal job exists, the process proceeds to step S72; otherwise, the process ends. In step S72, it is determined whether or not the elapsed time since the normal job was received is within a predetermined time. If it is within the predetermined time, the process proceeds to step S73; otherwise, the process ends. If a predetermined time has passed since the normal job was received, there is a high probability that the normal job is no longer needed. Therefore, unnecessary normal jobs can be prevented from being executed. In step S73, an execution instruction process is executed, and the process ends. When the execution instruction process is executed, the normal job is targeted for processing, and the normal job is executed.

図12は、実行指示処理の流れの一例を示すフローチャートである。実行指示処理は、図11のステップS69またはステップS73において実行される処理である。実行指示処理が実行される前の段階で依頼ジョブが決定されている。図12を参照して、CPU111は、依頼ジョブが存在するか否かを判断する。MFP100を操作するユーザーとして特定されたユーザーに対応する依頼ジョブが存在するか否かが判断される(ステップS81)。MFP100を操作するユーザーの指示が開始条件に設定されている依頼ジョブがHDD115に記憶されているか否かが判断される。依頼ジョブが存在するならば処理はステップS83に進むが、そうでなければ処理はステップS84に進む。 FIG. 12 is a flowchart illustrating an example of the flow of execution instruction processing. The execution instruction process is a process executed in step S69 or step S73 of FIG. The requested job is determined before the execution instruction process is executed. Referring to FIG. 12, CPU 111 determines whether or not there is a requested job. It is determined whether or not there is a requested job corresponding to the user identified as the user operating MFP 100 (step S81). It is determined whether HDD 115 stores a requested job whose start condition is an instruction from the user who operates MFP 100 . If the requested job exists, the process proceeds to step S83; otherwise, the process proceeds to step S84.

ステップS82においては、表示部161に設定ボタンが表示され、処理はステップS83に進む。設定ボタンは、依頼ジョブを実行可能な状態に設定する操作を受け付けるためのボタンであり、依頼ジョブを実行可能な状態に設定するコマンドが関連付けられている。ステップS83においては、設定ボタンが指示されたか否かが判断される。設定ボタンが指示されるまで待機状態となり(ステップS83でNO)、設定ボタンが指示されたならば(ステップS83でYES)、処理はステップS85に進む。なお、設定ボタンが表示されてから所定時間経過しても設定ボタンが指示されない場合には、処理を終了してもよい。 In step S82, a setting button is displayed on display unit 161, and the process proceeds to step S83. The setting button is a button for accepting an operation for setting the requested job to an executable state, and is associated with a command for setting the requested job to an executable state. In step S83, it is determined whether or not the setting button has been instructed. A standby state is established until the setting button is instructed (NO at step S83), and if the setting button is instructed (YES at step S83), the process proceeds to step S85. Note that if the setting button is not instructed even after a predetermined time has elapsed since the setting button was displayed, the process may be terminated.

一方、ステップS84においては、通常ジョブが選択されたか否かが判断される。MFP100を操作するユーザーに関連付けられたジョブの一覧が表示されるジョブ選択画面が表示された状態で、通常ジョブが選択されたか否かを判断する。通常ジョブが選択されるまで待機状態となり、通常ジョブが選択されたならば処理はステップS85に進む。なお、通常ジョブとは別のジョブが選択された場合に処理がステップS85に進むようにしてもよい。また、ジョブ選択画面が表示されてから所定時間経過しても通常ジョブが選択されない場合に処理を終了してもよい。 On the other hand, in step S84, it is determined whether or not the normal job has been selected. With the job selection screen displaying a list of jobs associated with the user operating MFP 100 displayed, it is determined whether or not a normal job has been selected. The process waits until the normal job is selected, and if the normal job is selected, the process proceeds to step S85. Note that the process may proceed to step S85 when a job different from the normal job is selected. Further, the process may be terminated when the normal job is not selected even after a predetermined time has elapsed since the job selection screen was displayed.

ステップS85においては、設定値を設定するための設定画面が表示され、処理はステップS86に進む。ステップS86においては、ユーザーにより入力される操作によって処理が分岐する。ユーザーにより入力される操作が実行操作ならば処理はステップS87に進み、設定操作ならば処理はステップS88に進む。実行操作は、ジョブの実行を指示するための操作である。設定操作は、ジョブの設定値を設定するための操作である。ステップS88においては、設定操作に従って設定値が設定され、処理はステップS86に戻る。ステップS87においては、依頼ジョブまたは通常ジョブが実行され、処理はジョブ実行処理に戻る。 In step S85, a setting screen for setting setting values is displayed, and the process proceeds to step S86. In step S86, the process branches depending on the operation input by the user. If the operation input by the user is the execution operation, the process proceeds to step S87, and if the operation is the setting operation, the process proceeds to step S88. An execution operation is an operation for instructing execution of a job. The setting operation is an operation for setting job setting values. In step S88, the setting value is set according to the setting operation, and the process returns to step S86. In step S87, the requested job or normal job is executed, and the process returns to the job execution process.

<第1の変形例>
依頼ジョブ生成部265は、許諾文字列を含む音声情報と組になる時刻情報で示される時刻よりも前の時刻を示す時刻情報と組になる音声情報を、依頼ジョブを生成するために用いる音声情報に決定する。この場合、依頼ジョブ生成部265は、第2ユーザーの名前を含む音声情報を、依頼ジョブを生成するために用いる音声情報のうち時刻情報で示される時刻が最も前の音声情報とするようにしてもよい。ユーザーそれぞれの呼び名を予め登録しておけばよい。第1ユーザーが第2ユーザーに作業を依頼する場合、第2ユーザーの名前を発声した後に作業を依頼する場合が多い。このため、依頼ジョブを生成するために用いる音声情報を時刻情報に基づいて絞り込むことができる。そのため、処理対象とする音声情報の数をできるだけ少なくすることができ、CPU201の負荷を低減することができる。
<First modification>
The requested job generating unit 265 converts the voice information paired with the time information indicating the time earlier than the time indicated by the time information paired with the voice information including the permission character string to the voice used to generate the requested job. Make an informed decision. In this case, the requested job generation unit 265 sets the voice information including the name of the second user to the voice information having the earliest time indicated by the time information among the voice information used for generating the requested job. good too. It suffices to register the nickname of each user in advance. When a first user requests a work from a second user, the work is often requested after uttering the name of the second user. Therefore, the audio information used for generating the requested job can be narrowed down based on the time information. Therefore, the number of pieces of audio information to be processed can be minimized, and the load on the CPU 201 can be reduced.

なお、依頼ジョブ生成部265は、第2ユーザーの名前を含む音声情報に対応する時刻から許諾文字列を含む音声情報に対応する時刻までの間の時刻に対応する複数の音声情報のみに基づいて依頼ジョブを生成することができない場合がある。この場合には、依頼ジョブ生成部265は、第2ユーザーの呼び名を含む音声情報と組になる時刻情報で示される時刻よりも前の時刻を示す時刻情報と組になる音声情報を用いて依頼ジョブを生成する。 Note that the requested job generation unit 265 performs the processing based only on a plurality of pieces of voice information corresponding to times between the time corresponding to the voice information including the name of the second user and the time corresponding to the voice information including the permission character string. It may not be possible to create a requested job. In this case, the requested job generation unit 265 uses the voice information paired with the time information indicating the time before the time indicated by the time information paired with the voice information including the nickname of the second user. Generate a job.

以上説明したように第1の実施の形態における情報処理システム1において、PC200は、ジョブ生成装置として機能し、音声から得られた音声情報に基づいてMFP100で実行する処理を定めたジョブを生成し、音声情報がジョブを決定することのできないあいまい情報を含む場合に問い合わせる。このため、ジョブを容易に生成することが可能なジョブ生成装置を提供することができる。 As described above, in information processing system 1 according to the first embodiment, PC 200 functions as a job generation device, and generates a job defining processing to be executed by MFP 100 based on voice information obtained from voice. , if the voice information contains ambiguous information that cannot determine the job. Therefore, it is possible to provide a job generating apparatus that can easily generate a job.

また、PC200は、音声情報に基づいてMFP100に実行させる処理およびその処理を実行させる条件を定める設定情報の候補として複数の候補情報を決定する場合に、音声情報があいまい情報を含むと判断する。このため、音声情報があいまい情報か否かを容易に判断することができる。 PC 200 determines that the voice information includes ambiguous information when determining a plurality of candidate information as setting information candidates for determining the processing to be executed by MFP 100 and the conditions for executing the processing based on the voice information. Therefore, it can be easily determined whether or not the voice information is ambiguous information.

また、PC200は、複数の候補情報それぞれに関連する関連情報が互いに異なる場合、複数の候補情報それぞれに関連する関連情報を問い合わせるので、複数の候補情報のうちから1つを設定情報に決定することができる。 In addition, when the related information related to each of the plurality of candidate information is different from each other, the PC 200 inquires the related information related to each of the plurality of candidate information. can be done.

また、PC200は、設定情報がMFP100に実行させる処理の対象となるデータを特定する場合、そのデータが記憶される記憶領域名、データが作成された作成日、データが更新された更新日またはデータの内容を関連情報として問い合わせる。このため、複数の候補情報のうちから1つを設定情報に決定することができる。 When the setting information specifies data to be processed by MFP 100, PC 200 stores the name of the storage area in which the data is stored, the creation date when the data is created, the update date when the data is updated, or the data Query the contents of as related information. Therefore, one of the plurality of candidate information can be determined as the setting information.

また、PC200は、複数の候補情報にそれぞれ関連する関連情報である複数のキーワード間で発音が同一または類似する場合、複数のキーワードそれぞれの別の発音または意味を問い合わせる。このため、複数の候補情報のうちから1つを設定情報に決定することができる。 In addition, when the pronunciation is the same or similar between a plurality of keywords that are related information related to a plurality of candidate information, the PC 200 inquires about different pronunciations or meanings of each of the plurality of keywords. Therefore, one of the plurality of candidate information can be determined as the setting information.

また、PC200は、第1ユーザーおよび第2ユーザーがそれぞれ特定される音声から得られた音声情報に基づいて、依頼ジョブを生成する。このため、2以上のユーザーの会話から依頼ジョブが生成されるので、依頼ジョブを生成するための操作を簡略にすることができる。 Also, PC 200 generates a requested job based on voice information obtained from voices specifying the first user and the second user. Therefore, since the requested job is generated from conversations of two or more users, the operation for generating the requested job can be simplified.

<第2の実施の形態>
図13は、本発明の第2の実施の形態の1つにおける情報処理システムの全体概要を示す図である。図13を参照して、第2の実施の形態における情報処理システム1は、MFP100と、PC200と、スマートスピーカー250と、を含む。第2の実施の形態におけるMFP100は、第1の実施の形態におけるMFP100と同様に画像処理装置として機能するとともに、ジョブ生成装置として機能する。
<Second Embodiment>
FIG. 13 is a diagram showing an overall outline of an information processing system in one of the second embodiments of the present invention. Referring to FIG. 13 , information processing system 1 in the second embodiment includes MFP 100 , PC 200 and smart speaker 250 . MFP 100 in the second embodiment functions as an image processing apparatus as well as a job generation apparatus as does MFP 100 in the first embodiment.

スマートスピーカー250は、マイクロフォンと、スピーカーと、無線LANインターフェースと、を備えている。スマートスピーカー250は、スピーカーから音を発生する出力デバイスとして機能するとともに、マイクロフォンで集音した音声を受け付ける入力デバイスとして機能する。アクセスポイント(AP)9は、無線通信機能を有する中継装置であり、ネットワーク3に接続される。スマートスピーカー250は、AP9と通信することによりネットワーク3に接続される。このため、スマートスピーカー250は、MFP100、PC200と通信可能である。 Smart speaker 250 includes a microphone, a speaker, and a wireless LAN interface. The smart speaker 250 functions as an output device that generates sound from the speaker, and also functions as an input device that receives sound collected by a microphone. An access point (AP) 9 is a relay device having a wireless communication function and is connected to the network 3 . Smart speaker 250 is connected to network 3 by communicating with AP9. Therefore, smart speaker 250 can communicate with MFP 100 and PC 200 .

ゲートウェイ(G/W)装置7は、ネットワーク3に接続されるとともに、インターネット5に接続される。ゲートウェイ装置7は、ネットワーク3とインターネット5とを中継する。クラウドサーバー300は、インターネット5に接続される。このため、MFP100、PC200およびスマートスピーカー250それぞれは、ゲートウェイ装置7を介して、クラウドサーバー300と通信可能である。 A gateway (G/W) device 7 is connected to the network 3 and the Internet 5 . Gateway device 7 relays network 3 and Internet 5 . A cloud server 300 is connected to the Internet 5 . Therefore, each of MFP 100 , PC 200 and smart speaker 250 can communicate with cloud server 300 via gateway device 7 .

クラウドサーバー300は、スマートスピーカー250のAI(Artificial Intelligence)アシスタントとして機能する。スマートスピーカー250には、クラウドサーバー300が備えるAIアシスタントが予め登録されている。スマートスピーカー250は、マイクロフォンで集音した音声を電子データである音声データに変換し、クラウドサーバー300に送信する。また、スマートスピーカー250は、クラウドサーバー300から送信される電子データを音声に変換し、音声をスピーカーから出力する。 Cloud server 300 functions as an AI (Artificial Intelligence) assistant for smart speaker 250 . An AI assistant provided in the cloud server 300 is registered in the smart speaker 250 in advance. The smart speaker 250 converts sound collected by the microphone into sound data, which is electronic data, and transmits the sound data to the cloud server 300 . In addition, the smart speaker 250 converts electronic data transmitted from the cloud server 300 into voice and outputs the voice from the speaker.

クラウドサーバー300は、スマートスピーカー250をユーザーインターフェースとして用い、スマートスピーカー250で集音されたユーザーの音声を音声認識し、音声情報に変換する。 The cloud server 300 uses the smart speaker 250 as a user interface, recognizes the user's voice collected by the smart speaker 250, and converts it into voice information.

また、クラウドサーバー300は、ユーザー識別機能を有する。クラウドサーバー300は、スマートスピーカー250と関連付けて、スマートスピーカー250を操作するユーザーの声紋が予め登録されている。クラウドサーバー300は、スマートスピーカー250で集音された音声を、登録されたユーザーの声紋と比較して、音声からユーザーを識別する。このように、クラウドサーバー300は、スマートスピーカー250で集音された音声に基づいて、その音声を発声したユーザーを識別する。 The cloud server 300 also has a user identification function. The cloud server 300 is associated with the smart speaker 250 and registered in advance with the voiceprint of the user who operates the smart speaker 250 . The cloud server 300 compares the voice collected by the smart speaker 250 with the voiceprint of the registered user to identify the user from the voice. Thus, cloud server 300 identifies the user who uttered the sound based on the sound collected by smart speaker 250 .

さらに、クラウドサーバー300には、MFP100を制御するアプリケーションプログラムがインストールされており、ユーザーの音声を変換した音声情報とその音声を発声したユーザーのユーザー識別情報とを、MFP100に送信する。 Furthermore, cloud server 300 is installed with an application program that controls MFP 100 , and transmits to MFP 100 voice information obtained by converting the user's voice and user identification information of the user who uttered the voice.

なお、クラウドサーバー300が有するAIアシスタントおよび、クラウドサーバー300に登録されるアプリケーションプログラムの動作は、上述した動作に限定されるものではなく、他の動作をするようにしてもよい。 It should be noted that the AI assistant possessed by cloud server 300 and the operations of application programs registered in cloud server 300 are not limited to the operations described above, and other operations may be performed.

図14は、第2の実施の形態におけるMFPが備えるCPUの機能の一例を示すブロック図である。図14に示す機能は、MFP100が備えるCPU111が、ROM113、HDD115、CD-ROM118に記憶されたジョブ生成プログラムを実行することにより、CPU111に実現される機能である。図14を参照して、図6に示した機能と異なる点は、音声情報取得部71、ジョブ生成部73および操作者通知部59が追加された点、ジョブ受信部81がジョブ受付部81Aに変更された点である。その他の機能は、図6に示した機能と同じなので、ここでは説明を繰り返さない。 FIG. 14 is a block diagram showing an example of functions of a CPU included in the MFP according to the second embodiment. The functions shown in FIG. 14 are realized by CPU 111 of MFP 100 by executing a job generation program stored in ROM 113 , HDD 115 and CD-ROM 118 . Referring to FIG. 14, the functions different from those shown in FIG. 6 are that voice information acquiring portion 71, job generating portion 73 and operator notifying portion 59 are added, and job receiving portion 81 is replaced with job receiving portion 81A. This is the point that has been changed. Since other functions are the same as those shown in FIG. 6, the description will not be repeated here.

音声情報取得部71は、クラウドサーバー300から音声情報とユーザー識別情報とを取得する。具体的には、音声情報取得部71は、通信I/F部112を制御して、通信I/F部112がクラウドサーバー300から受信する音声情報とユーザー識別情報とを取得する。音声情報取得部71は、音声情報とユーザー識別情報との組をジョブ生成部73に出力する。 Voice information acquisition unit 71 acquires voice information and user identification information from cloud server 300 . Specifically, voice information acquisition portion 71 controls communication I/F portion 112 to acquire voice information and user identification information that communication I/F portion 112 receives from cloud server 300 . Voice information acquiring portion 71 outputs a set of voice information and user identification information to job generating portion 73 .

ジョブ生成部73は、第1の実施の形態におけるPC200が備えるCPU201が有するジョブ生成部257と同様の機能を有する。すなわち、ジョブ生成部73は、クラウドサーバー300から受信される音声情報およびユーザー識別情報に基づいて、依頼ジョブを生成するとともに、第1ユーザーを決定する。ジョブ生成部73は、依頼ジョブと第1ユーザーのユーザー識別情報とを、ジョブ制御部55に出力する。また、ジョブ生成部73は、クラウドサーバー300から受信する音声情報とユーザー識別情報に基づいて通常ジョブを生成し、通常ジョブをジョブ制御部55に出力する。ジョブ制御部55のジョブ受付部81Aは、ジョブ生成部73が依頼ジョブを生成する場合に依頼ジョブと第1ユーザーのユーザー識別情報とを受け付け、ジョブ生成部73が通常ジョブを生成する場合に通常ジョブを受け付ける。 Job generator 73 has the same function as job generator 257 of CPU 201 of PC 200 in the first embodiment. That is, job generating portion 73 generates the requested job and determines the first user based on the voice information and user identification information received from cloud server 300 . Job generation portion 73 outputs the requested job and the user identification information of the first user to job control portion 55 . Job generation portion 73 also generates a normal job based on the voice information and user identification information received from cloud server 300 and outputs the normal job to job control portion 55 . Job accepting portion 81A of job control portion 55 accepts the requested job and the user identification information of the first user when job creating portion 73 creates the requested job, and accepts the normal job when job creating portion 73 creates the normal job. accept jobs.

操作者通知部59は、第1の実施の形態におけるPC200が備えるCPU201が有する操作者通知部281と同様の機能を有する。すなわち、操作者通知部59は、ジョブ生成部73により依頼ジョブが生成される場合、第2ユーザーに依頼ジョブがMFP100で実行可能なことを通知する。 Operator notification unit 59 has the same function as operator notification unit 281 of CPU 201 of PC 200 in the first embodiment. That is, when job generating portion 73 generates a requested job, operator notifying portion 59 notifies second user that the requested job can be executed by MFP 100 .

第2の実施の形態における情報処理システム1においては、第1の実施の形態における情報処理システム1のPC200の機能の一部をクラウドサーバー300が有し、PC200の機能の他の一部をMFP100が有する。このため、PC200を用いる必要がないので、システムを簡略にすることができる。 In information processing system 1 according to the second embodiment, cloud server 300 has part of the functions of PC 200 of information processing system 1 according to the first embodiment, and MFP 100 has the other part of the functions of PC 200 . has. Therefore, the system can be simplified because the PC 200 does not need to be used.

なお、クラウドサーバー300の機能を、スマートスピーカー250が有するようにしてもよい。すなわち、スマートスピーカー250が、音声認識および音声認証機能を有する場合には、MFP100は、スマートスピーカー250から音声情報とユーザー識別情報とを取得することができる。この場合には、クラウドサーバー300が不要なので、システム構成を簡略にすることができる。 Note that the smart speaker 250 may have the functions of the cloud server 300 . That is, if smart speaker 250 has voice recognition and voice authentication functions, MFP 100 can acquire voice information and user identification information from smart speaker 250 . In this case, the cloud server 300 is unnecessary, so the system configuration can be simplified.

<第2の変形例>
第2の実施の形態におけるMFP100がマイクロフォンを備えるようにしてもよい。この場合、MFP100が備えるCPU111は、図4に示した第1の実施の形態におけるPC200が備えるCPU201の機能のうち音声受付部251、音声認識部253、ユーザー特定部255を有する。これにより、スマートスピーカー250、クラウドサーバー300が不要となるので、システム構成を簡略にすることができる。
<Second modification>
MFP 100 in the second embodiment may be provided with a microphone. In this case, CPU 111 included in MFP 100 has voice reception unit 251, voice recognition unit 253, and user identification unit 255 among the functions of CPU 201 included in PC 200 in the first embodiment shown in FIG. This eliminates the need for the smart speaker 250 and the cloud server 300, thereby simplifying the system configuration.

<第3の変形例>
第2の実施の形態においては、クラウドサーバー300がMFP100に、ユーザーの音声を変換した音声情報とその音声を発声したユーザーのユーザー識別情報とを送信する。第3の変形例においては、スマートスピーカー250からユーザーの音声を示す音声データがMFP100に直接送信される。なお、スマートスピーカー250から音声データがクラウドサーバー300を経由してMFP100に送信されてもよい。この場合、MFP100が備えるCPU111は、図4に示した第1の実施の形態におけるPC200が備えるCPU201の機能のうち音声受付部251、音声認識部253およびユーザー特定部255を有する。
<Third Modification>
In the second embodiment, cloud server 300 transmits to MFP 100 voice information obtained by converting the user's voice and user identification information of the user who uttered the voice. In the third modification, voice data representing the user's voice is directly transmitted from smart speaker 250 to MFP 100 . Audio data may be transmitted from smart speaker 250 to MFP 100 via cloud server 300 . In this case, CPU 111 included in MFP 100 has voice reception unit 251, voice recognition unit 253, and user identification unit 255 among the functions of CPU 201 included in PC 200 in the first embodiment shown in FIG.

以上説明したように第2の実施の形態における情報処理システム1において、MFP100は、ジョブ生成装置として機能するとともに画像処理装置として機能する。また、MFP100は、音声から得られた音声情報に基づいてMFP100で実行する処理を定めたジョブを生成し、音声情報がジョブを決定することのできないあいまい情報を含む場合に問い合わせる。このため、ジョブを容易に生成することができる。第2の実施の形態におけるMFP100は、第1の実施の形態におけるPC200が奏する効果と同様の効果を奏することができる。 As described above, in the information processing system 1 according to the second embodiment, the MFP 100 functions as a job generation device and as an image processing device. Also, the MFP 100 generates a job defining a process to be executed by the MFP 100 based on the voice information obtained from the voice, and inquires when the voice information includes ambiguous information that cannot determine the job. Therefore, jobs can be easily generated. The MFP 100 according to the second embodiment can achieve the same effects as the PC 200 according to the first embodiment.

また、MFP100は、クラウドサーバー300からユーザーの音声を変換した音声情報とその音声を発声したユーザーのユーザー識別情報とを受信するので、システムの構成を簡略にできるとともに、MFP100の負荷を少なくすることができる。 In addition, since MFP 100 receives voice information obtained by converting the user's voice and user identification information of the user who uttered the voice from cloud server 300, the system configuration can be simplified and the load on MFP 100 can be reduced. can be done.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上述した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above description, and is intended to include all modifications within the meaning and range of equivalents of the scope of the claims.

<付記>
(1)好ましくは、前記データの属性は、前記データが記憶される記憶領域名、前記データが作成された作成日、前記データが更新された更新日または前記データの内容を含む。
(2)好ましくは、前記設定情報は、前記画像処理装置に実行させる処理がデータを送信するデータ送信処理の場合、データの送信先を示す宛先情報を含む。
(3)好ましくは、前記設定情報は、前記画像処理装置に実行させる処理が画像処理の場合、画像処理条件を含む。
<Appendix>
(1) Preferably, the attributes of the data include a storage area name in which the data is stored, a creation date when the data is created, an update date when the data is updated, or contents of the data.
(2) Preferably, the setting information includes destination information indicating a data transmission destination when the processing to be executed by the image processing apparatus is data transmission processing for transmitting data.
(3) Preferably, the setting information includes image processing conditions when the processing to be executed by the image processing apparatus is image processing.

1 情報処理システム、3 ネットワーク、5 インターネット、7 ゲートウェイ装置、300 クラウドサーバー、100 MFP、200 PC、250 スマートスピーカー、51 操作ユーザー特定部、53 設定部、55 ジョブ制御部、57 依頼者通知部、59 操作者通知部、71 音声情報取得部、73 ジョブ生成部、81 ジョブ受信部、81A ジョブ受付部、83 関連付部、85 ジョブ実行部、110 メイン回路、111 CPU、112 通信I/F部、113 ROM、114 RAM、115 HDD、116 ファクシミリ部、117 外部記憶装置、120 自動原稿搬送装置、130 原稿読取部、140 画像形成部、150 給紙部、155 後処理部、160 操作パネル、161 表示部、163 操作部、165 タッチパネル、167 ハードキー部、201 CPU、202 ROM、203 RAM、204 HDD、205 通信部、206 表示部、207 操作部、208 マイクロフォン、209 スピーカー、210 外部記憶装置、251 音声受付部、253 音声認識部、255 ユーザー特定部、257 ジョブ生成部、259 ジョブ送信部、261 決定部、262 判断部、263 通常ジョブ生成部、265 依頼ジョブ生成部、267 確認部、269 確認部、271 関連情報問合せ部、273 異義問合せ部、281 操作者通知部、500 ログイン画面。 1 information processing system, 3 network, 5 Internet, 7 gateway device, 300 cloud server, 100 MFP, 200 PC, 250 smart speaker, 51 operating user identification unit, 53 setting unit, 55 job control unit, 57 requester notification unit, 59 operator notification unit, 71 voice information acquisition unit, 73 job generation unit, 81 job reception unit, 81A job reception unit, 83 association unit, 85 job execution unit, 110 main circuit, 111 CPU, 112 communication I/F unit , 113 ROM, 114 RAM, 115 HDD, 116 facsimile section, 117 external storage device, 120 automatic document feeder, 130 document reading section, 140 image forming section, 150 paper feeding section, 155 post-processing section, 160 operation panel, 161 display unit, 163 operation unit, 165 touch panel, 167 hard key unit, 201 CPU, 202 ROM, 203 RAM, 204 HDD, 205 communication unit, 206 display unit, 207 operation unit, 208 microphone, 209 speaker, 210 external storage device, 251 voice reception unit, 253 voice recognition unit, 255 user identification unit, 257 job generation unit, 259 job transmission unit, 261 determination unit, 262 determination unit, 263 normal job generation unit, 265 requested job generation unit, 267 confirmation unit, 269 Confirmation unit 271 Related information inquiry unit 273 Difference inquiry unit 281 Operator notification unit 500 Login screen.

Claims (13)

音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成手段と、
記憶部に予め記憶された情報に基づき、前記音声情報が前記ジョブを特定することのできないあいまい情報を含むか否か判断する判断手段と、
前記判断手段により前記音声情報が前記あいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認手段と、
前記音声情報および前記記憶部に予め記憶された前記情報に基づいて前記画像処理装置に実行させる前記処理および前記処理を実行させる条件を定める設定情報を決定する決定手段とを、備え、
前記判断手段は、前記音声情報に基づいて前記設定情報の候補として複数の候補情報が決定された場合に、前記音声情報が前記あいまい情報を含むと判断し、
前記確認手段は、複数の前記候補情報それぞれに関連する関連情報が互いに異なる場合、複数の前記候補情報それぞれに関連する前記関連情報を問い合わせ、
前記設定情報が前記画像処理装置に実行させる前記処理の対象となるデータを特定する情報の場合、前記関連情報は、前記データの属性を含む、ジョブ生成装置。
a job generating means for generating a job that defines processing to be executed by the image processing apparatus based on audio information obtained from audio;
determination means for determining whether or not the voice information includes ambiguous information that cannot specify the job, based on information stored in advance in a storage unit;
confirmation means for executing an inquiry to a user when the determination means determines that the voice information includes the ambiguous information;
determining means for determining the processing to be executed by the image processing device and setting information that defines conditions for executing the processing based on the audio information and the information stored in advance in the storage unit;
the determining means determines that the voice information includes the ambiguous information when a plurality of candidate information are determined as candidates for the setting information based on the voice information;
said confirmation means inquires about said related information related to each of said plurality of candidate information when related information related to each of said plurality of candidate information is different from each other;
When the setting information is information specifying data to be processed by the image processing apparatus, the related information includes an attribute of the data .
前記記憶部に予め記憶された前記情報は、前記設定情報に関連付けられたキーワードである、請求項に記載のジョブ生成装置。 2. The job generating apparatus according to claim 1 , wherein said information pre-stored in said storage unit is a keyword associated with said setting information. 前記確認手段は、前記あいまい情報の別の発音または意味を問い合わせる、請求項1または2に記載のジョブ生成装置。 3. The job generation apparatus according to claim 1, wherein said confirmation means inquires for alternative pronunciations or meanings of said ambiguous information. 音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成手段と、
記憶部に予め記憶された情報に基づき、前記音声情報が前記ジョブを特定することのできないあいまい情報を含むか否か判断する判断手段と、
前記判断手段により前記音声情報が前記あいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認手段と、
発声したユーザーを特定するユーザー特定手段と、を備え、
前記ジョブ生成手段は、前記ユーザー特定手段により第1ユーザーが特定される音声から得られた前記音声情報および前記ユーザー特定手段により前記第1ユーザーと異なる第2ユーザーが特定される音声から得られた前記音声情報に基づいて、前記第1ユーザーが前記第2ユーザーに実行を依頼した依頼ジョブを前記ジョブとして生成する、ジョブ生成装置。
a job generating means for generating a job that defines processing to be executed by the image processing apparatus based on audio information obtained from audio;
determination means for determining whether or not the voice information includes ambiguous information that cannot specify the job, based on information stored in advance in a storage unit;
confirmation means for executing an inquiry to a user when the determination means determines that the voice information includes the ambiguous information;
and user identification means for identifying the user who made the utterance,
The job generating means obtains the voice information obtained from the voice specifying the first user by the user specifying means and the voice specifying the second user different from the first user by the user specifying means. A job generating device that generates, as the job, a requested job that the first user has requested the second user to execute based on the voice information.
音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成手段と、
記憶部に予め記憶された情報に基づき、前記音声情報が前記ジョブを特定することのできないあいまい情報を含むか否か判断する判断手段と、
前記判断手段により前記音声情報が前記あいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認手段と、
音声を収集し、収集された音声を発声したユーザーを特定する音声収集装置から前記音声情報と特定されたユーザーを識別するための識別情報とを取得する音声情報取得手段と、を備え、
前記ジョブ生成手段は、第1ユーザーおよび前記第1ユーザーと異なる第2ユーザーにそれぞれ関連付けられた音声から得られた前記音声情報に基づいて、前記第1ユーザーが前記第2ユーザーに実行を依頼した依頼ジョブを前記ジョブとして生成するジョブ生成装置。
a job generating means for generating a job that defines processing to be executed by the image processing apparatus based on audio information obtained from audio;
determination means for determining whether or not the voice information includes ambiguous information that cannot specify the job, based on information stored in advance in a storage unit;
confirmation means for executing an inquiry to a user when the determination means determines that the voice information includes the ambiguous information;
voice information acquisition means for acquiring the voice information and identification information for identifying the specified user from a voice collection device that collects voice and identifies the user who uttered the collected voice,
The job generating means, based on the voice information obtained from voices respectively associated with a first user and a second user different from the first user, the first user requests the second user to execute A job generation device that generates a requested job as the job.
前記音声情報のうちに依頼文字列を含む前記音声情報が存在する場合に前記依頼ジョブを生成する、請求項4または5に記載のジョブ生成装置。 6. The job generating apparatus according to claim 4 , wherein said requested job is generated when said voice information including a requested character string exists in said voice information. 前記画像処理装置は、請求項1~6のいずれかに記載のジョブ生成装置を備えた、画像処理装置。 An image processing apparatus comprising the job generation apparatus according to any one of claims 1 to 6 . ジョブ生成装置で実行されるジョブ生成方法であって、
音声から得られた音声情報に基づいて、画像処理装置に実行させる処理を定めたジョブを生成するジョブ生成ステップと、
記憶部に予め記憶された情報に基づき、前記音声情報が前記ジョブを特定することのできないあいまい情報を含むか否か判断する判断ステップと、
前記判断ステップにおいて前記音声情報が前記あいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認ステップと、
前記音声情報および前記記憶部に予め記憶された前記情報に基づいて前記画像処理装置に実行させる前記処理および前記処理を実行させる条件を定める設定情報を決定する決定ステップと、を含み、
前記判断ステップは、前記音声情報に基づいて前記設定情報の候補として複数の候補情報が決定された場合に、前記音声情報が前記あいまい情報を含むと判断するステップを含み、
前記確認ステップは、複数の前記候補情報それぞれに関連する関連情報が互いに異なる場合、複数の前記候補情報それぞれに関連する前記関連情報を問い合わせるステップを含み、
前記設定情報が前記画像処理装置に実行させる前記処理の対象となるデータを特定する情報の場合、前記関連情報は、前記データの属性を含むジョブ生成方法。
A job generation method executed by a job generation device,
a job generating step of generating a job defining a process to be executed by the image processing apparatus based on the audio information obtained from the audio;
a determination step of determining whether or not the voice information includes ambiguous information that cannot specify the job, based on information stored in advance in a storage unit;
a confirmation step of querying a user if the audio information is determined to include the ambiguous information in the determination step;
a determination step of determining the processing to be executed by the image processing device based on the audio information and the information stored in advance in the storage unit and setting information that defines conditions for executing the processing;
the determining step includes determining that the voice information includes the ambiguous information when a plurality of candidate information are determined as candidates for the setting information based on the voice information;
The confirming step includes inquiring the related information related to each of the plurality of candidate information when the related information related to each of the plurality of candidate information is different from each other;
When the setting information is information specifying data to be processed by the image processing apparatus, the related information includes an attribute of the data .
ジョブ生成装置で実行されるジョブ生成方法であって、A job generation method executed by a job generation device,
音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成ステップと、 a job generation step of generating a job that defines processing to be executed by the image processing apparatus based on audio information obtained from the audio;
記憶部に予め記憶された情報に基づき、前記音声情報が前記ジョブを特定することのできないあいまい情報を含むか否か判断する判断ステップと、 a determination step of determining whether or not the voice information includes ambiguous information that cannot specify the job, based on information stored in advance in a storage unit;
前記判断ステップにおいて前記音声情報が前記あいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認ステップと、 a confirmation step of querying a user if the audio information is determined to include the ambiguous information in the determination step;
発声したユーザーを特定するユーザー特定ステップと、を含み、 a user identification step of identifying the user who made the utterance;
前記ジョブ生成ステップは、前記ユーザー特定ステップにおいて第1ユーザーが特定される音声から得られた前記音声情報および前記ユーザー特定ステップにおいて前記第1ユーザーと異なる第2ユーザーが特定される音声から得られた前記音声情報に基づいて、前記第1ユーザーが前記第2ユーザーに実行を依頼した依頼ジョブを前記ジョブとして生成するステップを含む、ジョブ生成方法。 The job generating step includes the voice information obtained from the voice that identifies the first user in the user identifying step and the voice that identifies the second user different from the first user in the user identifying step. A job generating method, comprising: generating, as the job, a requested job requested by the first user to be executed by the second user based on the voice information.
ジョブ生成装置で実行されるジョブ生成方法であって、
音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成ステップと、
記憶部に予め記憶された情報に基づき、前記音声情報が前記ジョブを特定することのできないあいまい情報を含むか否か判断する判断ステップと、
前記判断ステップにより前記音声情報が前記あいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認ステップと、
音声を収集し、収集された音声を発声したユーザーを特定する音声収集装置から前記音声情報と特定されたユーザーを識別するための識別情報とを取得する音声情報取得ステップと、を備え、
前記ジョブ生成ステップは、第1ユーザーおよび前記第1ユーザーと異なる第2ユーザーにそれぞれ関連付けられた音声から得られた前記音声情報に基づいて、前記第1ユーザーが前記第2ユーザーに実行を依頼した依頼ジョブを前記ジョブとして生成するステップを含む、ジョブ生成方法
A job generation method executed by a job generation device,
a job generation step of generating a job that defines processing to be executed by the image processing apparatus based on audio information obtained from the audio;
a determination step of determining whether or not the voice information includes ambiguous information that cannot specify the job, based on information stored in advance in a storage unit;
a confirmation step of querying a user if the determination step determines that the voice information includes the ambiguous information;
a voice information acquisition step of acquiring the voice information and identification information for identifying the identified user from a voice collection device that collects voice and identifies the user who uttered the collected voice;
The job generating step is requested by the first user to be executed by the second user based on the voice information obtained from voices respectively associated with a first user and a second user different from the first user. A job generation method, comprising the step of generating a requested job as the job .
ジョブ生成装置を制御するコンピューターで実行されるジョブ生成プログラムであって、
音声から得られた音声情報に基づいて、画像処理装置に実行させる処理を定めたジョブを生成するジョブ生成ステップと、
記憶部に予め記憶された情報に基づき、前記音声情報が前記ジョブを特定することのできないあいまい情報を含むか否か判断する判断ステップと、
前記判断ステップにおいて前記音声情報が前記あいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認ステップと、
前記音声情報および前記記憶部に予め記憶された前記情報に基づいて前記画像処理装置に実行させる前記処理および前記処理を実行させる条件を定める設定情報を決定する決定ステップと、を前記コンピューターに実行させ
前記判断ステップは、前記音声情報に基づいて前記設定情報の候補として複数の候補情報が決定された場合に、前記音声情報が前記あいまい情報を含むと判断するステップを含み、
前記確認ステップは、複数の前記候補情報それぞれに関連する関連情報が互いに異なる場合、複数の前記候補情報それぞれに関連する前記関連情報を問い合わせるステップを含み、
前記設定情報が前記画像処理装置に実行させる前記処理の対象となるデータを特定する情報の場合、前記関連情報は、前記データの属性を含むジョブ生成プログラム。
A job generation program executed by a computer that controls a job generation device,
a job generating step of generating a job defining a process to be executed by the image processing apparatus based on the audio information obtained from the audio;
a determination step of determining whether or not the voice information includes ambiguous information that cannot specify the job, based on information stored in advance in a storage unit;
a confirmation step of querying a user if the audio information is determined to include the ambiguous information in the determination step;
and a determination step of determining the processing to be executed by the image processing device based on the audio information and the information stored in advance in the storage unit, and setting information that defines conditions for executing the processing. ,
the determining step includes determining that the voice information includes the ambiguous information when a plurality of candidate information are determined as candidates for the setting information based on the voice information;
The confirming step includes inquiring the related information related to each of the plurality of candidate information when the related information related to each of the plurality of candidate information is different from each other;
When the setting information is information specifying data to be processed by the image processing apparatus, the related information is a job generating program including attributes of the data .
ジョブ生成装置を制御するコンピューターで実行されるジョブ生成プログラムであって、A job generation program executed by a computer that controls a job generation device,
音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成ステップと、 a job generation step of generating a job that defines processing to be executed by the image processing apparatus based on audio information obtained from the audio;
記憶部に予め記憶された情報に基づき、前記音声情報が前記ジョブを特定することのできないあいまい情報を含むか否か判断する判断ステップと、 a determination step of determining whether or not the voice information includes ambiguous information that cannot specify the job, based on information stored in advance in a storage unit;
前記判断ステップにより前記音声情報が前記あいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認ステップと、 a confirmation step of querying a user if the determination step determines that the voice information includes the ambiguous information;
発声したユーザーを特定するユーザー特定ステップと、を前記コンピューターに実行させ、 causing the computer to perform a user identification step of identifying the user who made the utterance;
前記ジョブ生成ステップは、前記ユーザー特定ステップにおいて第1ユーザーが特定される音声から得られた前記音声情報および前記ユーザー特定ステップにおいて前記第1ユーザーと異なる第2ユーザーが特定される音声から得られた前記音声情報に基づいて、前記第1ユーザーが前記第2ユーザーに実行を依頼した依頼ジョブを前記ジョブとして生成するステップを含む、ジョブ生成プログラム。 The job generating step includes the voice information obtained from the voice that identifies the first user in the user identifying step and the voice that identifies the second user different from the first user in the user identifying step. A job generation program comprising the step of generating, as the job, a requested job that the first user requested the second user to execute based on the voice information.
ジョブ生成装置を制御するコンピューターで実行されるジョブ生成プログラムであって、A job generation program executed by a computer that controls a job generation device,
音声から得られた音声情報に基づいて画像処理装置に実行させる処理を定めるジョブを生成するジョブ生成ステップと、 a job generation step of generating a job that defines processing to be executed by the image processing apparatus based on audio information obtained from the audio;
記憶部に予め記憶された情報に基づき、前記音声情報が前記ジョブを特定することのできないあいまい情報を含むか否か判断する判断ステップと、 a determination step of determining whether or not the voice information includes ambiguous information that cannot specify the job, based on information stored in advance in a storage unit;
前記判断ステップにより前記音声情報が前記あいまい情報を含むと判断された場合にユーザーに対する問い合わせを実行する確認ステップと、 a confirmation step of querying a user if the determination step determines that the voice information includes the ambiguous information;
音声を収集し、収集された音声を発声したユーザーを特定する音声収集装置から前記音声情報と特定されたユーザーを識別するための識別情報とを取得する音声情報取得ステップと、を前記コンピューターに実行させ、 a voice information acquisition step of acquiring voice information and identification information for identifying the identified user from a voice collection device that collects voice and identifies a user who uttered the collected voice; let
前記ジョブ生成ステップは、第1ユーザーおよび前記第1ユーザーと異なる第2ユーザーにそれぞれ関連付けられた音声から得られた前記音声情報に基づいて、前記第1ユーザーが前記第2ユーザーに実行を依頼した依頼ジョブを前記ジョブとして生成するステップを含む、ジョブ生成プログラム。 The job generating step is requested by the first user to be executed by the second user based on the voice information obtained from voices respectively associated with a first user and a second user different from the first user. A job generation program comprising a step of generating a requested job as the job.
JP2019038009A 2019-03-01 2019-03-01 Job generation device, image processing device, job generation method and job generation program Active JP7205308B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019038009A JP7205308B2 (en) 2019-03-01 2019-03-01 Job generation device, image processing device, job generation method and job generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019038009A JP7205308B2 (en) 2019-03-01 2019-03-01 Job generation device, image processing device, job generation method and job generation program

Publications (2)

Publication Number Publication Date
JP2020141385A JP2020141385A (en) 2020-09-03
JP7205308B2 true JP7205308B2 (en) 2023-01-17

Family

ID=72280767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019038009A Active JP7205308B2 (en) 2019-03-01 2019-03-01 Job generation device, image processing device, job generation method and job generation program

Country Status (1)

Country Link
JP (1) JP7205308B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024024642A1 (en) * 2022-07-29 2024-02-01 京セラドキュメントソリューションズ株式会社 Image forming apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008180833A (en) 2007-01-24 2008-08-07 Kyocera Mita Corp Operation display device, operation display program and electronic equipment
JP2009116841A (en) 2007-11-02 2009-05-28 Sharp Corp Input device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1168920A (en) * 1997-08-26 1999-03-09 Fujitsu Ten Ltd Speech telephone number setting device
JPH11153998A (en) * 1997-11-19 1999-06-08 Canon Inc Audio response equipment and its method, and computer readable memory

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008180833A (en) 2007-01-24 2008-08-07 Kyocera Mita Corp Operation display device, operation display program and electronic equipment
JP2009116841A (en) 2007-11-02 2009-05-28 Sharp Corp Input device

Also Published As

Publication number Publication date
JP2020141385A (en) 2020-09-03

Similar Documents

Publication Publication Date Title
JP5146479B2 (en) Document management apparatus, document management method, and document management program
CN114089612B (en) Job history determining apparatus, job history determining method, image processing apparatus, server, and recording medium
US8615395B2 (en) Generating a display screen in response to detecting keywords in speech
JP4811507B2 (en) Image processing system, image processing apparatus, and information processing apparatus
JP7173761B2 (en) PRINTING SYSTEM, CONTROL METHOD, SERVER SYSTEM
JP7184386B2 (en) Dialogue device, control device, dialogue system, dialogue method, control method, and program
JP4438868B2 (en) Data communication system, data transmission device, transmission destination update method, and transmission destination update program
JP7205308B2 (en) Job generation device, image processing device, job generation method and job generation program
JP7263869B2 (en) Information processing device and program
JP2019215485A (en) Image forming apparatus, image forming system, control method, and control program
JP3943983B2 (en) Speech recognition apparatus and method, and program
EP3716040A1 (en) Image forming apparatus and job execution method
JP7314499B2 (en) Information processing system, information processing device, job control method and job control program
US11943402B2 (en) Image processing apparatus and method for displaying history information
JP7139937B2 (en) Speech processing system, job generation device, job generation method and job generation program
JP7175696B2 (en) IMAGE PROCESSING SYSTEM, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD THEREOF
JP4766135B2 (en) Information providing apparatus, information providing method, and information providing program
JP7361509B2 (en) Peripheral device management system, printing device control system, control method, printing control device and program
JP7375427B2 (en) Audio setting system, audio setting support program, and audio setting support device
JP2020181044A (en) Information processor, control method of the same and program
JP4562547B2 (en) Image forming apparatus, program, and recording medium
US20220076673A1 (en) Speech setting system, speech setting assistance device and non-transitory computer-readable recording medium encoded with speech setting assistance program
JP7383885B2 (en) Information processing device and program
JP2022007018A (en) Voice setting system, voice setting support device and voice setting support program
CN111708507B (en) Sound information processing device and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221212

R150 Certificate of patent or registration of utility model

Ref document number: 7205308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150