JP2020181016A - Information processing system, information processing device, terminal device, and program - Google Patents

Information processing system, information processing device, terminal device, and program Download PDF

Info

Publication number
JP2020181016A
JP2020181016A JP2019081960A JP2019081960A JP2020181016A JP 2020181016 A JP2020181016 A JP 2020181016A JP 2019081960 A JP2019081960 A JP 2019081960A JP 2019081960 A JP2019081960 A JP 2019081960A JP 2020181016 A JP2020181016 A JP 2020181016A
Authority
JP
Japan
Prior art keywords
user
information
voice
information processing
mfp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019081960A
Other languages
Japanese (ja)
Inventor
康孝 伊藤
Yasutaka Ito
康孝 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019081960A priority Critical patent/JP2020181016A/en
Publication of JP2020181016A publication Critical patent/JP2020181016A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technique to minimize influence given to voice operation of other devices, in voice operation of an information processing device.SOLUTION: In an information processing system 1000, a user 900 inputs voice into a remote panel 300. The remote panel 300 transmits operation information corresponding to the voice, to one (MFP 200A) among three MFPs 200A, 200B and 200C. When the remote panel 300 connects with the MFP 200A for transmitting the operation information, the MFP 200A transmits information for disabling (neglecting) the voice of the user 900 to the other two MFPs 200B and 200C. In response to this, each of the MFPs 200B and 200C disregards the voice, even if the voice of the user 900 is inputted. Specifically, each of the MFPs 200B and 200C does not execute operation according to the voice.SELECTED DRAWING: Figure 1

Description

本開示は、音声による情報処理装置の操作に関する。 The present disclosure relates to the operation of an information processing device by voice.

従来のMFP(Multi-Functional Peripheral)等の画像処理装置を含む情報処理装置の中には、ユーザーの肉声などの音声に従って動作するものがあった。複数の情報処理装置が隣接している場合、ある情報処理装置に対して入力されるべき音声が他の情報処理装置にも入力され、これにより、他の情報処理装置が意図せず動作する事態が想定される。このような事態への対応として、特開2006−023636号公報(特許文献1)は、ある装置の音声操作が開始された場合に、当該機器の近隣に設置されている機器に対して通知を送信し、当該通知に応じて、上記機器における音声操作を無効にする技術を開示している。 Some information processing devices including image processing devices such as conventional MFPs (Multi-Functional Peripheral) operate according to voice such as the user's voice. When multiple information processing devices are adjacent to each other, the voice that should be input to one information processing device is also input to another information processing device, which causes the other information processing device to operate unintentionally. Is assumed. As a response to such a situation, Japanese Patent Application Laid-Open No. 2006-023636 (Patent Document 1) notifies a device installed in the vicinity of the device when a voice operation of the device is started. It discloses a technique of transmitting and disabling voice operation in the above device in response to the notification.

特開2006−023636号公報Japanese Unexamined Patent Publication No. 2006-023636

しかしながら、特許文献1に記載の技術では、同時に複数の情報処理装置における音声操作ができなくなるため、複数の情報処理装置のそれぞれが音声による操作が可能であるのにも拘わらず、この状況の利点を十分に活かしきれないという事態が生じ得る。 However, in the technique described in Patent Document 1, since voice operation in a plurality of information processing devices cannot be performed at the same time, the advantage of this situation is despite the fact that each of the plurality of information processing devices can be operated by voice. Can not be fully utilized.

したがって、情報処理装置の音声操作に際して、他の装置の音声操作に与えられる影響を最小限に抑えるための技術が求められている。 Therefore, there is a need for a technique for minimizing the influence on the voice operation of other devices when operating the voice of the information processing device.

本開示のある局面に従うと、ユーザーの音声に基づいて情報処理装置に対する音声操作の内容を判別する判別部と、情報処理装置とは異なる機器に対して、ユーザーの音声を無視するための第1の情報を通知する通知部と、機器に、通知された第1の情報に基づき、ユーザーの音声のみを無視させる無効化部とを備える、情報処理システムが提供される。 According to a certain aspect of the present disclosure, a discriminator that determines the content of a voice operation on an information processing device based on the user's voice, and a first for ignoring the user's voice for a device different from the information processing device. An information processing system is provided that includes a notification unit that notifies the information of the above, and an invalidation unit that causes the device to ignore only the user's voice based on the notified first information.

情報処理システムは、ユーザーを識別するユーザー識別情報を取得する取得部をさらに備えていてもよい。第1の情報は、ユーザー識別情報に対応する情報であってもよい。 The information processing system may further include an acquisition unit that acquires user identification information that identifies the user. The first information may be information corresponding to the user identification information.

ユーザー識別情報は、ユーザーの声紋情報を含んでいてもよい。
ユーザーの声紋情報はユーザーを特定する情報と関連付けられていてもよい。取得部は、ユーザーの声紋情報の取得に応じてユーザーを識別してもよい。
The user identification information may include the voiceprint information of the user.
The user's voiceprint information may be associated with information that identifies the user. The acquisition unit may identify the user according to the acquisition of the user's voiceprint information.

第1の情報は、ユーザーの声紋情報を含んでいてもよい。
通知部は、ユーザーによる情報処理装置の音声による操作が終了したことに応じて、機器に対して、ユーザーの音声の無視を終了するための第2の情報を通知してもよい。無効化部は、第2の情報の通知に応じて、機器におけるユーザーの音声の無視を終了させてもよい。
The first information may include the user's voiceprint information.
The notification unit may notify the device of the second information for ending the ignoring of the user's voice in response to the end of the voice operation of the information processing device by the user. The invalidation unit may end ignoring the user's voice in the device in response to the notification of the second information.

情報処理システムは、情報処理装置と通信可能な端末装置を備えていてもよい。端末装置は取得部を含んでいてもよい。 The information processing system may include a terminal device capable of communicating with the information processing device. The terminal device may include an acquisition unit.

端末装置は通知部を含んでいてもよい。通知部は、端末装置と無線通信が可能な機器に第1の情報を通知してもよい。 The terminal device may include a notification unit. The notification unit may notify the first information to a device capable of wireless communication with the terminal device.

情報処理装置は、取得部および通知部を含んでいてもよい。
取得部は、ユーザーの音声を取得してもよい。通知部は、取得部が取得した音声の音量が、機器が取得したユーザーの音声の音量よりも大きいことを条件として、機器に対して第1の情報を通知してもよい。
The information processing device may include an acquisition unit and a notification unit.
The acquisition unit may acquire the user's voice. The notification unit may notify the device of the first information on condition that the volume of the voice acquired by the acquisition unit is higher than the volume of the user's voice acquired by the device.

無効化部は、通知された第1の情報に対応するユーザーの入力音声データのみを機器にキャンセルさせてもよい。 The invalidation unit may cause the device to cancel only the input voice data of the user corresponding to the notified first information.

無効化部は、ユーザーの声紋情報に対応する入力音声データのみを機器にキャンセルさせてもよい。 The invalidation unit may cause the device to cancel only the input voice data corresponding to the user's voiceprint information.

無効化部は、通知された第1の情報に対応するユーザーに関連付けられた音声操作の内容のみを機器にキャンセルさせてもよい。 The invalidation unit may cause the device to cancel only the content of the voice operation associated with the user corresponding to the notified first information.

本開示の他の局面に従うと、ユーザーの音声に基づいて操作の内容を判別する判別部と、外部の機器に対して、ユーザーの音声のみを無視するための第1の情報を通知する通知部と、を備える情報処理装置が提供される。 According to another aspect of the present disclosure, a discriminator that determines the content of the operation based on the user's voice and a notification unit that notifies an external device of the first information for ignoring only the user's voice. An information processing device including the above is provided.

第1の情報は、ユーザーの声紋情報を含んでいてもよい。
通知部は、ユーザーによる情報処理装置の音声による操作が終了したことに応じて、機器に対して、ユーザーの音声の無視を終了するための第2の情報を通知してもよい。
The first information may include the user's voiceprint information.
The notification unit may notify the device of the second information for ending the ignoring of the user's voice in response to the end of the voice operation of the information processing device by the user.

情報処理装置は、ユーザーを識別するユーザー識別情報を取得する取得部をさらに備えていてもよい。第1の情報は、ユーザー識別情報に対応する情報であってもよい。 The information processing device may further include an acquisition unit that acquires user identification information that identifies the user. The first information may be information corresponding to the user identification information.

ユーザー識別情報は、ユーザーの声紋情報を含んでいてもよい。
取得部は、ユーザーの音声を取得してもよい。通知部は、取得部が取得した音声の音量が、外部の機器が取得したユーザーの音声の音量よりも大きいことを条件として、外部の機器に対して第1の情報を通知してもよい。
The user identification information may include the voiceprint information of the user.
The acquisition unit may acquire the user's voice. The notification unit may notify the external device of the first information on condition that the volume of the voice acquired by the acquisition unit is higher than the volume of the user's voice acquired by the external device.

取得部は、ユーザーの音声および画像の少なくとも一方を取得し、当該音声および画像の少なくとも一方を用いてユーザーを特定することによりユーザーを識別する情報を取得してもよい。 The acquisition unit may acquire at least one of the user's voice and image, and may acquire information for identifying the user by identifying the user using at least one of the voice and image.

取得部は、外部の端末装置からユーザー識別情報を取得してもよい。
本開示のさらに他の局面に従うと、1以上のプロセッサーによって実行されることにより、1以上のプロセッサーに、情報処理装置の操作の内容を判別するために声を利用されるユーザーを識別する情報を取得するステップと、外部の機器に対して、ユーザーの音声のみを無視するための第1の情報を通知するステップと、を実行させるプログラムが提供される。
The acquisition unit may acquire user identification information from an external terminal device.
According to yet another aspect of the present disclosure, by being executed by one or more processors, one or more processors are provided with information that identifies the user whose voice is used to determine the content of the operation of the information processing unit. A program for executing the acquisition step and the step of notifying the external device of the first information for ignoring only the user's voice is provided.

本開示のさらに他の局面に従うと、音声の入力を受け付ける音声入力インターフェイスと、通信インターフェイスと、通信インターフェイスを制御する制御部とを備え、制御部は、通信インターフェイスを介して、情報処理装置に対して、音声入力インターフェイスに入力されたユーザーの音声に基づく操作情報を送信し、通信インターフェイスを介して、情報処理装置とは異なる機器に、ユーザーの音声のみを無視するための第1の情報を通知する、端末装置が提供される。 According to still another aspect of the present disclosure, a voice input interface for receiving voice input, a communication interface, and a control unit for controlling the communication interface are provided, and the control unit is used for the information processing device via the communication interface. Then, the operation information based on the user's voice input to the voice input interface is transmitted, and the first information for ignoring only the user's voice is notified to a device different from the information processing device via the communication interface. The terminal device is provided.

制御部は、通信インターフェイスが通信可能な装置のうち情報処理装置以外の装置を機器として特定してもよい。 The control unit may specify a device other than the information processing device among the devices capable of communicating with the communication interface as the device.

制御部は、情報処理装置に対する操作情報の送信の終了に応じて、機器に、ユーザーの音声の無視を終了するための第2の情報を通知してもよい。 The control unit may notify the device of the second information for ending the ignoring of the user's voice in response to the end of transmission of the operation information to the information processing device.

本開示のさらに他の局面に従うと、1以上のプロセッサーによって実行されることにより、1以上のプロセッサーに、ユーザーの音声の入力を受け付けるステップと、入力されたユーザーの音声に基づく操作情報を情報処理装置へ送信するステップと、情報処理装置とは異なる機器に、ユーザーの音声のみを無視するための第1の情報を通知するステップとを実行させる、プログラムが提供される。 According to yet another aspect of the present disclosure, by being executed by one or more processors, the step of accepting the input of the user's voice to one or more processors and the operation information based on the input user's voice are processed. A program is provided that causes a device different from the information processing device to execute a step of transmitting information to the device and a step of notifying a device different from the information processing device of first information for ignoring only the user's voice.

本開示によれば、ユーザーの音声に基づいて情報処理装置の操作の内容が判別される場合、当該情報処理装置とは異なる装置(機器)に対して、当該機器に当該ユーザーの音声のみを無視するための情報の通知が実施される。これにより、上記ユーザーの音声が上記機器の音声操作に影響を与えることが回避される。 According to the present disclosure, when the content of the operation of the information processing device is determined based on the voice of the user, only the voice of the user is ignored by the device for a device (device) different from the information processing device. Information to be notified will be implemented. As a result, it is possible to prevent the voice of the user from affecting the voice operation of the device.

情報処理システムの第1の実施の形態の構成を概略的に示す図である。It is a figure which shows roughly the structure of the 1st Embodiment of an information processing system. MFP200のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware configuration of the MFP 200. リモートパネル300のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the remote panel 300. 情報処理システム1000内の機能的構成の一例を示す図である。It is a figure which shows an example of the functional structure in an information processing system 1000. 情報処理システム1000の各装置において実行される処理の流れを概略的に表す図である。It is a figure which shows roughly the flow of the process executed in each apparatus of the information processing system 1000. MFP200に、入力された音声に対応する動作を実行させるための処理(音声操作処理)のフローチャートである。It is a flowchart of the process (voice operation process) for causing the MFP 200 to execute the operation corresponding to the input voice. 情報処理システムの第2の実施の形態の構成を概略的に示す図である。It is a figure which shows roughly the structure of the 2nd Embodiment of an information processing system. 情報処理システム1001内の機能的構成の一例を示す図である。It is a figure which shows an example of the functional structure in an information processing system 1001. 情報処理システム1001の各装置において実行される処理の流れを概略的に表す図である。It is a figure which shows roughly the flow of the process executed in each apparatus of the information processing system 1001. 情報処理システムの第3の実施の形態の構成を概略的に示す図である。It is a figure which shows roughly the structure of the 3rd Embodiment of an information processing system. PC300Xのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of PC300X. 情報処理システム1002内の機能的構成の一例を示す図である。It is a figure which shows an example of the functional structure in an information processing system 1002. 情報処理システム1002の各装置において実行される処理の流れを概略的に表す図である。It is a figure which shows roughly the flow of the process executed in each apparatus of the information processing system 1002. 情報処理システムの第4の実施の形態の構成を概略的に示す図である。It is a figure which shows roughly the structure of the 4th Embodiment of an information processing system. 情報処理システム1003内の機能的構成の一例を示す図である。It is a figure which shows an example of the functional structure in an information processing system 1003. 情報処理システム1003の各装置において実行される処理の流れを概略的に表す図である。It is a figure which shows roughly the flow of the process executed in each apparatus of the information processing system 1003. 第5の実施の形態情報処理システム1000内の機能的構成の一例を示す図である。Fifth Embodiment It is a figure which shows an example of the functional structure in the information processing system 1000.

以下に、図面を参照しつつ情報処理システムの一実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらの説明は繰り返さない。 An embodiment of the information processing system will be described below with reference to the drawings. In the following description, the same parts and components are designated by the same reference numerals. Their names and functions are the same. Therefore, these explanations will not be repeated.

<第1の実施の形態>
[1.情報処理システムの構成]
図1は、情報処理システムの第1の実施の形態の構成を概略的に示す図である。図1の情報処理システム1000は、3台のMFP200(200A,200B,200C)と、リモートパネル300とを含む。MFP200A,200B,200Cのそれぞれは入力された音声に従って操作可能である。本明細書では、3台のMFP200A,200B,200Cについて、個々に区別する場合には「MFP200A」「MFP200B」「MFP200C」という用語を採用し、これらに共通する性質を言及する場合には「MFP200」という用語を採用する。
<First Embodiment>
[1. Information processing system configuration]
FIG. 1 is a diagram schematically showing a configuration of a first embodiment of an information processing system. The information processing system 1000 of FIG. 1 includes three MFPs 200 (200A, 200B, 200C) and a remote panel 300. Each of the MFPs 200A, 200B, and 200C can be operated according to the input voice. In the present specification, the terms "MFP200A", "MFP200B", and "MFP200C" are used to distinguish the three MFPs 200A, 200B, and 200C individually, and "MFP200" is used to refer to the properties common to these. "Is adopted.

図1の情報処理システム1000では、ユーザー900は、リモートパネル300に音声を入力する。リモートパネル300は、3台のMFP200の中の1台(MFP200A)に、当該音声に対応する操作情報を送信する。操作情報は、音声そのものであってもよいし、音声から認識される操作の内容を特定する情報であってもよい。 In the information processing system 1000 of FIG. 1, the user 900 inputs voice to the remote panel 300. The remote panel 300 transmits the operation information corresponding to the voice to one of the three MFPs 200 (MFP200A). The operation information may be the voice itself or information that specifies the content of the operation recognized from the voice.

リモートパネル300がMFP200Aに操作情報の送信のために接続すると、MFP200Aは、他の2台のMFP200B,200Cにユーザー900の音声を無効化(無視)するための情報を送信する。これに応じて、MFP200B,200Cのそれぞれは、ユーザー900の音声を入力されても、当該音声を無視する。すなわち、MFP200B,200Cのそれぞれは、当該音声に従った動作を実行しない。したがって、ユーザー900が、MFP200B,200Cの近傍でリモートパネル300に音声を入力しても、当該音声がMFP200B,200Cの操作に影響を与える事態が回避される。 When the remote panel 300 connects to the MFP 200A for transmitting operation information, the MFP 200A transmits information for disabling (ignoring) the voice of the user 900 to the other two MFPs 200B and 200C. In response to this, each of the MFPs 200B and 200C ignores the voice of the user 900 even if the voice is input. That is, each of the MFPs 200B and 200C does not execute the operation according to the voice. Therefore, even if the user 900 inputs voice to the remote panel 300 in the vicinity of the MFPs 200B and 200C, the situation in which the voice affects the operation of the MFPs 200B and 200C is avoided.

MFP200B,200Cのそれぞれは、ユーザー900の音声は無視しても、他のユーザーの音声は無視しなくてもよい。したがって、MFP200B,200Cのそれぞれは、他のユーザーの音声に従った動作を実行し得る。 Each of the MFPs 200B and 200C may or may not ignore the voice of the user 900 or the voice of another user. Therefore, each of the MFPs 200B and 200C can perform an operation according to the voice of another user.

本開示において、MFP200はユーザーの音声で操作される装置(情報処理装置)の単なる一例である。情報処理装置は、ユーザーの音声で操作可能なものであれば、ロボット、テレビ、電子レンジ、などの他のいかなる装置であってもよい。 In the present disclosure, the MFP 200 is merely an example of a device (information processing device) operated by a user's voice. The information processing device may be any other device such as a robot, a television, a microwave oven, etc., as long as it can be operated by the user's voice.

[2.ハードウェア構成(MFP200)]
図2は、MFP200のハードウェア構成の一例を示す図である。なお、図2の構成はあくまで一例であって、MFP200は、必要に応じて図2に記載されていない要素をさらに含んでもよいし、図2に記載されている一部の要素を備えていなくても良い。
[2. Hardware configuration (MFP200)]
FIG. 2 is a diagram showing an example of the hardware configuration of the MFP 200. It should be noted that the configuration of FIG. 2 is merely an example, and the MFP 200 may further include elements not shown in FIG. 2 if necessary, and does not include some elements shown in FIG. You may.

図2に示されるように、MFP200は、主な構成要素として、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、NV−RAM(Non-Volatile RAM)204と、記憶装置205と、NIC206と、操作パネル207と、スキャナー部208と、プリンター部209と、ファクシミリ(FAX)部210とを備えている。MFP200内の各要素は、内部バスでCPU201に接続されている。 As shown in FIG. 2, the MFP 200 has a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, and an NV-RAM (Non-) as main components. It includes a Volatile RAM) 204, a storage device 205, a NIC 206, an operation panel 207, a scanner unit 208, a printer unit 209, and a facsimile (FAX) unit 210. Each element in the MFP 200 is connected to the CPU 201 by an internal bus.

CPU201は、MFP200の動作を統括的に制御するための処理を実行する電気回路要素(circuitry)の一例である。本明細書では、CPU201が所与のプログラムを実行することによって実現される制御の内容が、MFP200によって実行される制御として記述され得る。 The CPU 201 is an example of an electric circuit element (circuitry) that executes a process for comprehensively controlling the operation of the MFP 200. In the present specification, the content of the control realized by the CPU 201 executing a given program may be described as the control executed by the MFP 200.

ROM202は、CPU201が実行するプログラムを含む各種のデータを格納する。
RAM203およびNV−RAM204は、CPU201におけるプログラム実行時のワークエリアとして機能する。RAM203および/またはNV−RAM204は、スキャナー部208で読み取られた画像データ等を一時的に保存する場合もある。
The ROM 202 stores various data including a program executed by the CPU 201.
The RAM 203 and the NV-RAM 204 function as a work area during program execution in the CPU 201. The RAM 203 and / or the NV-RAM 204 may temporarily store image data or the like read by the scanner unit 208.

記憶装置205は、MFP200に登録されている宛先情報やドキュメントなどの各種のデータを保存する。ドキュメントのデータは、ネットワークを介してMFP200に入力される場合もあれば、スキャナー部208で画像が読み取られることによって生成される場合もある。 The storage device 205 stores various data such as destination information and documents registered in the MFP 200. The document data may be input to the MFP 200 via a network, or may be generated by scanning an image with the scanner unit 208.

NIC206は、MFP200の他の装置との情報通信における通信インターフェイスであり、たとえばネットワークカードによって実現される。 The NIC 206 is a communication interface in information communication with other devices of the MFP 200, and is realized by, for example, a network card.

操作パネル207は、情報の入力を受け付け、また、情報を出力する。より具体的には、操作パネル207は、ディスプレイ2071と、タッチセンサー2072と、(ハードウェア)ボタン2073と、マイクロフォン2074と、スピーカー2075と、カメラ2076とを含む。一例では、操作パネル207内の各要素の動作はCPU201によって制御される。操作パネル207は、CPU201とは別に設けられた制御機器を含んでいても良い。CPU201は、操作パネル207内の各要素を、当該制御機器を介して制御してもよい。 The operation panel 207 accepts input of information and outputs information. More specifically, the operation panel 207 includes a display 2071, a touch sensor 2072, a (hardware) button 2073, a microphone 2074, a speaker 2075, and a camera 2076. In one example, the operation of each element in the operation panel 207 is controlled by the CPU 201. The operation panel 207 may include a control device provided separately from the CPU 201. The CPU 201 may control each element in the operation panel 207 via the control device.

ディスプレイ2071は、たとえば、液晶ディスプレイまたは有機EL(organic electro-luminescence)ディスプレイなどの表示装置によって実現される。タッチセンサー2072は、ユーザーからのタッチ操作を受け付ける。ディスプレイ2071とタッチセンサー2072とが一体化されて、タッチパネルを構成してもよい。 The display 2071 is realized by a display device such as a liquid crystal display or an organic EL (organic electro-luminescence) display. The touch sensor 2072 receives a touch operation from the user. The display 2071 and the touch sensor 2072 may be integrated to form a touch panel.

ボタン2073は、たとえば、ユーザーが押圧するハードウェアボタンによって実現される。マイクロフォン2074は、外部からの音声の入力を受け付け、音声入力インターフェイスの一例である。スピーカー2075は、音声を出力する。カメラ2076は、ユーザーなどの画像を撮影し、画像入力インターフェイスの一例である。 Button 2073 is implemented, for example, by a hardware button pressed by the user. The microphone 2074 is an example of a voice input interface that accepts voice input from the outside. The speaker 2075 outputs audio. The camera 2076 is an example of an image input interface that captures an image of a user or the like.

スキャナー部208は、CCD(Charge Coupling Device)等のイメージセンサーを含み、MFP200の原稿台にセットされた原稿をスキャンし、原稿の画像データを生成する。スキャナー部208における画像データの生成方法には、公知の方法を含むあらゆる方法が採用され得る。 The scanner unit 208 includes an image sensor such as a CCD (Charge Coupling Device), scans a document set on the platen of the MFP 200, and generates image data of the document. As a method for generating image data in the scanner unit 208, any method including a known method can be adopted.

プリンター部209は、たとえば電子写真方式により、画像を印刷する。電子写真方式などの画像形成には、公知の技術を含むいかなる方法も採用され得る。一実現例では、プリンター部209は、感光体および転写ベルトなどの要素を含む。 The printer unit 209 prints an image by, for example, an electrophotographic method. Any method, including known techniques, can be employed for image formation, such as electrophotographic. In one embodiment, the printer unit 209 includes elements such as a photoconductor and a transfer belt.

FAX部210は、ファクシミリ通信により画像情報を送受信し、一実現例では、FAXモデムを含む。 The FAX unit 210 transmits and receives image information by facsimile communication, and in one implementation example, includes a FAX modem.

MFP200では、CPU201が所与のプログラムを実行することによって、本明細書に記載されたようなMFP200の動作が実現される。CPU201によって実行されるプログラムは、上記したようにROM202に格納されている代わりに、記憶装置205に格納されていてもよいし、MFP200に対して着脱可能な記憶媒体に格納されていてもよい。当該プログラムが格納される記憶媒体は、たとえば、CD−ROM、DVD−ROM、USBメモリー、メモリーカード、FD、ハードディスク、SSD、磁気テープ、カセットテープ、MO、MD、ICカード(メモリーカードを除く)、光カード、マスクROM、EPROM、EEPROMなどの、不揮発的にデータを格納する媒体が挙げられる。 In the MFP 200, the operation of the MFP 200 as described in the present specification is realized by the CPU 201 executing a given program. The program executed by the CPU 201 may be stored in the storage device 205 instead of being stored in the ROM 202 as described above, or may be stored in a storage medium that is removable from the MFP 200. The storage medium in which the program is stored is, for example, CD-ROM, DVD-ROM, USB memory, memory card, FD, hard disk, SSD, magnetic tape, cassette tape, MO, MD, IC card (excluding memory card). , Optical cards, mask ROMs, EPROMs, EEPROMs, and other media that store data non-volatilely.

[3.ハードウェア構成(リモートパネル)]
図3は、リモートパネル300のハードウェア構成の一例を示す図である。
[3. Hardware configuration (remote panel)]
FIG. 3 is a diagram showing an example of the hardware configuration of the remote panel 300.

リモートパネル300は、たとえばスマートフォンやタブレット端末である。図3に示されるように、リモートパネル300は、CPU301と、RAM302と、記憶装置303と、ディスプレイ304と、入力装置305と、NIC306と、マイクロフォン311と、スピーカー312と、カメラ313とを含む。リモートパネル300内の各要素は、内部バスでCPU301に接続されている。 The remote panel 300 is, for example, a smartphone or a tablet terminal. As shown in FIG. 3, the remote panel 300 includes a CPU 301, a RAM 302, a storage device 303, a display 304, an input device 305, a NIC 306, a microphone 311 and a speaker 312, and a camera 313. Each element in the remote panel 300 is connected to the CPU 301 by an internal bus.

CPU301は、リモートパネル300の動作を統括的に制御するための処理を実行する電気回路要素(circuitry)の一例である。本明細書では、CPU301が所与のプログラムを実行することによって実現される制御の内容が、リモートパネル300によって実行される制御として記述され得る。 The CPU 301 is an example of an electric circuit element (circuitry) that executes a process for comprehensively controlling the operation of the remote panel 300. In the present specification, the content of the control realized by the CPU 301 executing a given program may be described as the control executed by the remote panel 300.

RAM302は、CPU301におけるプログラム実行時のワークエリアとして機能する。記憶装置303は、リモートパネル300の内部ストレージであり、たとえばフラッシュメモリーによって実現される。 The RAM 302 functions as a work area when the program is executed in the CPU 301. The storage device 303 is an internal storage of the remote panel 300, and is realized by, for example, a flash memory.

ディスプレイ304は、たとえば有機ELディスプレイなどの表示装置である。入力装置305は、ハードウェアボタンおよび/またはタッチセンサーによって実現される。一実現例では、入力装置305のタッチセンサーとディスプレイ304とによってタッチパネルが構成される。 The display 304 is a display device such as an organic EL display. The input device 305 is implemented by a hardware button and / or touch sensor. In one implementation example, the touch panel of the input device 305 and the display 304 form a touch panel.

通信インターフェイス306は、たとえば通信用LSI(large-scale integration)によって実現され、リモートパネル300を他の装置と通信させる。マイクロフォン311は、音声の入力を受け付け、音声入力インターフェイスの一例である。スピーカー312は、音声を出力する。カメラ313は、画像の入力を受け付け、画像入力インターフェイスの一例である。 The communication interface 306 is realized by, for example, a communication LSI (large-scale integration), and causes the remote panel 300 to communicate with another device. The microphone 311 is an example of a voice input interface that accepts voice input. The speaker 312 outputs audio. The camera 313 accepts an image input and is an example of an image input interface.

[4.情報処理システム内の機能構成]
図4は、情報処理システム1000内の機能的構成の一例を示す図である。
[4. Functional configuration in the information processing system]
FIG. 4 is a diagram showing an example of a functional configuration in the information processing system 1000.

(リモートパネル300の機能)
図4に示されるように、リモートパネル300は、入力部501、判別部502、および、装置特定部503として機能する。
(Function of remote panel 300)
As shown in FIG. 4, the remote panel 300 functions as an input unit 501, a discrimination unit 502, and a device identification unit 503.

入力部501は、ユーザー900を特定するための情報の入力を受け付ける。ユーザー900を特定するための情報の一例は、ユーザー900の音声である。他の例は、ユーザー900に関連付けられたユーザーIDとパスワードである。ユーザーIDおよび/またはパスワードは、音声によって入力されてもよい。一実現例では、入力部501は、マイクロフォン311、入力装置305、またはこれらの組合せによって実現される。 The input unit 501 accepts the input of information for identifying the user 900. An example of information for identifying the user 900 is the voice of the user 900. Another example is the user ID and password associated with user 900. The user ID and / or password may be entered by voice. In one embodiment, the input unit 501 is implemented by a microphone 311, an input device 305, or a combination thereof.

判別部502は、ユーザー900から入力された音声に基づいて、MFP200Aの操作の内容を判別し、たとえば、マイクロフォン311と所与のプログラムを実行するCPU301とによって実現される。一例では、判別部502は、音声認識プログラムを実行するCPU301によって実現される。判別部502は、たとえば音声「原稿を2枚コピーして。」の入力を受け付けると、当該音声の認識結果として文字列「げんこうをにぶこぴーして」を取得し、当該文字列から「にぶ」および「こぴー」をキーワードとして抽出し、抽出されたキーワードに基づいて操作の内容「ジョブ:コピー、数量:2部」を出力する。 The determination unit 502 is realized by, for example, a microphone 311 and a CPU 301 that executes a given program by determining the content of the operation of the MFP 200A based on the voice input from the user 900. In one example, the discriminating unit 502 is realized by the CPU 301 that executes the voice recognition program. When the determination unit 502 receives, for example, an input of the voice "copy two originals." "Nibu" and "Kopee" are extracted as keywords, and the operation content "Job: Copy, Quantity: 2 copies" is output based on the extracted keywords.

判別部502は、翻訳機能を含んでいてもよい。一例では、ユーザー900から英語の音声「Print three copies of the original.」を入力されると、判別部502は、まず翻訳機能を利用して日本語翻訳文「原稿を2枚コピーしてください。」を導出し、当該日本語翻訳文から「二部」「コピー」をキーワードとして抽出し、抽出されたキーワードに基づいて操作の内容「ジョブ:コピー、数量:2部」を出力する。 The discrimination unit 502 may include a translation function. In one example, when the English voice "Print three copies of the original." Is input from the user 900, the discriminator 502 first uses the translation function to copy the Japanese translation "Print three copies of the original." Is derived, "two copies" and "copy" are extracted as keywords from the Japanese translation, and the operation content "job: copy, quantity: two copies" is output based on the extracted keywords.

装置特定部503は、情報処理システム1000内に含まれる2以上の装置のうち、ユーザー900の音声による操作の対象となる装置以外の装置を特定する。一例では、装置特定部503は、通信インターフェイス306と所与のプログラムを実行するCPU301とによって実現される。 The device identification unit 503 identifies devices other than the devices to be operated by the voice of the user 900 among the two or more devices included in the information processing system 1000. In one example, the device identification unit 503 is implemented by a communication interface 306 and a CPU 301 that executes a given program.

より具体的には、ユーザー900は、MFP200Aを音声で操作するために、リモートパネル300をMFP200Aと接続させる。このとき、通信インターフェイス306は、情報処理システム1000に少なくともその一部を含まれるコンピューターネットワーク内の他の装置(MFP200A,200B,200C)のIP(Internet Protocol)アドレスを取得し、各装置のIPアドレスのリストをディスプレイ304に表示する。ユーザー900は、表示されたIPアドレスのリストから、MFP200AのIPアドレスを選択する。これにより、リモートパネル300はMFP200Aと接続される。CPU301は、選択されたIPアドレス以外のIPアドレスに対応する装置を、音声による操作の対象となる装置以外の装置として特定する。 More specifically, the user 900 connects the remote panel 300 to the MFP 200A in order to operate the MFP 200A by voice. At this time, the communication interface 306 acquires the IP (Internet Protocol) address of another device (MFP200A, 200B, 200C) in the computer network including at least a part thereof in the information processing system 1000, and the IP address of each device. The list of is displayed on the display 304. The user 900 selects the IP address of the MFP 200A from the displayed list of IP addresses. As a result, the remote panel 300 is connected to the MFP 200A. The CPU 301 identifies a device corresponding to an IP address other than the selected IP address as a device other than the device to be operated by voice.

(MFP200Aの機能)
図4に示されるように、MFP200Aは、取得部511、指示部512、動作部513、および、通知部521として機能する。
(Function of MFP200A)
As shown in FIG. 4, the MFP 200A functions as an acquisition unit 511, an instruction unit 512, an operation unit 513, and a notification unit 521.

取得部511は、入力部501から、ユーザー900を識別する情報(ユーザー識別情報)を取得する。ユーザー900のユーザー識別情報の一例は、ユーザー900の声紋情報(たとえば、声紋の波形ファイル)であり、他の例は、ユーザー900のユーザーIDである。 The acquisition unit 511 acquires the information for identifying the user 900 (user identification information) from the input unit 501. One example of the user identification information of the user 900 is the voiceprint information of the user 900 (for example, a waveform file of the voiceprint), and another example is the user ID of the user 900.

指示部512は、判別部502の判別結果である操作の内容に従って、後述する動作部513を制御する。指示部512は、たとえば所与のプログラムを実行するCPU201によって実現される。 The instruction unit 512 controls the operation unit 513, which will be described later, according to the content of the operation which is the determination result of the determination unit 502. The indicator 512 is implemented, for example, by a CPU 201 that executes a given program.

動作部513は、MFP200Aにおいて音声操作によって動作する要素であり、たとえば、操作パネル207、スキャナー部208、プリンター部209、および、FAX部210の中の少なくとも一つによって実現される。 The operation unit 513 is an element that operates by voice operation in the MFP 200A, and is realized by, for example, at least one of an operation panel 207, a scanner unit 208, a printer unit 209, and a fax unit 210.

一例では、ユーザー900がリモートパネル300に対して音声「原稿を2部コピーして。」を入力すると、指示部512は、当該音声から導出された操作の内容「ジョブ:コピー、数量:2部」に従って、動作部513を制御する。より具体的には、CPU201は、スキャナー部208およびプリンター部209を利用して、スキャナー部208の原稿台にセットされた原稿のコピーを2部作成する。 In one example, when the user 900 inputs the voice "copy two copies of the original" to the remote panel 300, the instruction unit 512 displays the operation content "job: copy, quantity: two copies" derived from the voice. ”, The moving unit 513 is controlled. More specifically, the CPU 201 makes two copies of the original set on the platen of the scanner unit 208 by using the scanner unit 208 and the printer unit 209.

通知部521は、取得部511から、操作対象のユーザーを特定する情報を取得し、装置特定部503から、操作対象の装置以外の装置を特定する情報を取得する。そして、通知部521は、操作対象のユーザー(たとえば、ユーザー900)の音声を無視する通知(第1の情報)を、操作対象の装置以外の装置(たとえば、MFP200B,200C)へ送信する。 The notification unit 521 acquires information for identifying a user to be operated from the acquisition unit 511, and acquires information for identifying a device other than the device to be operated from the device identification unit 503. Then, the notification unit 521 transmits a notification (first information) ignoring the voice of the operation target user (for example, user 900) to a device other than the operation target device (for example, MFP200B, 200C).

装置特定部503は、操作対象の装置以外の装置を、自動的に(ユーザーからの操作無しに)特定してもよいし、ユーザーからの操作に従って特定してもよい。たとえば、MFP200AとMFP200Bがユーザー900の近傍に設置され、MFP200Cがユーザー900から離れた位置に設置されている場合を想定する。リモートパネル300が接続可能な装置のリスト(MFP200A,200B,200C)からMFP200Aが選択された後、リストにはMFP200BとMFP200Cとが残る。MFP200BとMFP200Cの中から、ユーザー900は、「『操作対象の装置以外』の装置」としてMFP200Bのみを選択する。この選択に従って、装置特定部503は、「『操作対象の装置』以外の装置」としてMFP200Bのみを特定する。 The device identification unit 503 may automatically identify a device other than the device to be operated (without any operation by the user), or may specify the device according to the operation from the user. For example, assume that the MFP 200A and the MFP 200B are installed near the user 900 and the MFP 200C is installed at a position away from the user 900. After the MFP200A is selected from the list of devices to which the remote panel 300 can be connected (MFP200A, 200B, 200C), the MFP200B and the MFP200C remain in the list. From the MFP 200B and the MFP 200C, the user 900 selects only the MFP 200B as the "device other than the device to be operated". According to this selection, the device identification unit 503 specifies only the MFP 200B as "a device other than the" device to be operated "".

(MFP200B,200Cの機能)
図4に示されるように、MFP200Bは、無効化部531と、入力部541と、判別部542と、指示部543と、動作部544とを含む。
(Functions of MFP200B and 200C)
As shown in FIG. 4, the MFP 200B includes an invalidation unit 531, an input unit 541, a discrimination unit 542, an instruction unit 543, and an operation unit 544.

判別部542は、リモートパネル300の判別部502と同様に、ユーザーから入力された音声に基づいて、MFP200Bの操作の内容を判別する。判別部542は、たとえば、マイクロフォン2074と所与のプログラムを実行するCPU201とによって実現される。 Similar to the determination unit 502 of the remote panel 300, the determination unit 542 determines the content of the operation of the MFP 200B based on the voice input from the user. The discriminant unit 542 is implemented, for example, by a microphone 2074 and a CPU 201 that executes a given program.

指示部543は、MFP200Aの指示部512と同様に、判別部542の判別結果である操作の内容に従って、後述する動作部544を制御する。指示部543は、たとえば所与のプログラムを実行するCPU301によって実現される。 Like the instruction unit 512 of the MFP 200A, the instruction unit 543 controls the operation unit 544, which will be described later, according to the content of the operation which is the determination result of the determination unit 542. The indicator 543 is implemented, for example, by a CPU 301 that executes a given program.

動作部544は、MFP200Aの動作部513と同様に、MFP200Bにおいて音声操作によって動作する要素である。MFP200Bにおいて、動作部544は、たとえば、操作パネル207、スキャナー部208、プリンター部209、および、FAX部210の中の少なくとも一つによって実現される。 The operation unit 544 is an element that operates by voice operation in the MFP 200B, similarly to the operation unit 513 of the MFP 200A. In the MFP 200B, the operation unit 544 is realized by, for example, at least one of the operation panel 207, the scanner unit 208, the printer unit 209, and the FAX unit 210.

無効化部531は、MFP200Aから上記通知(第1の情報)を受信すると、判別部542に、当該通知において特定されているユーザーについての音声を無視させる。一例では、通知部521は、MFP200Aを音声で操作するユーザー(ユーザー900)の声紋情報を無効化部531へ送信する。判別部542は、無効化部531が受信した声紋情報に対応するユーザー(ユーザー900)以外のユーザーの音声を取得した場合には、当該音声に基づく操作の内容の判別を行う。一方、判別部542は、無効化部531が受信した声紋情報に対応するユーザー(ユーザー900)の音声を取得した場合には、当該音声に基づく操作の内容の判別を行わない。これにより、判別部542は、MFP200Bに入力されたユーザー900の音声のみを、MFP200Bの操作においては無視する。 Upon receiving the above notification (first information) from the MFP 200A, the invalidation unit 531 causes the determination unit 542 to ignore the voice about the user specified in the notification. In one example, the notification unit 521 transmits the voiceprint information of the user (user 900) who operates the MFP 200A by voice to the invalidation unit 531. When the determination unit 542 acquires the voice of a user other than the user (user 900) corresponding to the voiceprint information received by the invalidation unit 531, the determination unit 542 determines the content of the operation based on the voice. On the other hand, when the determination unit 542 acquires the voice of the user (user 900) corresponding to the voiceprint information received by the invalidation unit 531, the determination unit 542 does not determine the content of the operation based on the voice. As a result, the discriminating unit 542 ignores only the voice of the user 900 input to the MFP 200B in the operation of the MFP 200B.

通知部521は、ユーザー900によるMFP200Aの音声操作が終了した場合、MFP200Bに第2の情報を送信してもよい。通知部521は、たとえば、MFP200Aとリモートパネル300との通信が解消されたこと、または、リモートパネル300から音声操作終了の通知を受けたことによって、音声操作の終了を認識する。ユーザー900は、音声操作を終了するときにリモートパネル300の入力装置305を操作し、当該操作に応じてリモートパネル300はMFP200Aに音声操作の終了を通知してもよい。 The notification unit 521 may transmit the second information to the MFP 200B when the voice operation of the MFP 200A by the user 900 is completed. The notification unit 521 recognizes the end of the voice operation when, for example, the communication between the MFP 200A and the remote panel 300 is canceled or the remote panel 300 notifies the end of the voice operation. The user 900 may operate the input device 305 of the remote panel 300 when ending the voice operation, and the remote panel 300 may notify the MFP 200A of the end of the voice operation in response to the operation.

通知部521から上記第2の情報を受信すると、無効化部531は、判別部542に、ユーザー900の音声の無視の終了を指示する。これにより、判別部542は、ユーザー900の音声を取得した場合に、当該音声に基づく操作の内容の判別を行う。 Upon receiving the second information from the notification unit 521, the invalidation unit 531 instructs the determination unit 542 to end ignoring the voice of the user 900. As a result, when the determination unit 542 acquires the voice of the user 900, the determination unit 542 determines the content of the operation based on the voice.

以上、図4を参照してMFP200Bの機能構成を説明した。MFP200Cの機能構成はMFP200Bと同様とすることができるため、重複する説明は行なわない。 The functional configuration of the MFP 200B has been described above with reference to FIG. Since the functional configuration of the MFP200C can be the same as that of the MFP200B, no duplicate description will be given.

[5.処理の流れ(他のMFPにユーザーの音声を無視させるための処理)]
図5は、情報処理システム1000の各装置において実行される処理の流れを概略的に表す図である。図5には、右から、リモートパネル300、MFP200A(処理対象のMFP)、MFP200B,200C(他のMFP:処理対象のMFP以外のMFP)のそれぞれにおいて実行される処理のフローチャートが示される。
[5. Process flow (process to make other MFPs ignore the user's voice)]
FIG. 5 is a diagram schematically showing a flow of processing executed in each device of the information processing system 1000. FIG. 5 shows a flowchart of processing executed in each of the remote panel 300, the MFP200A (the MFP to be processed), the MFP200B, and 200C (other MFPs: MFPs other than the MFP to be processed) from the right.

ステップSA10にて、リモートパネル300のCPU301は、MFP200Aに接続を要求する。一例では、当該要求は、リモートパネル300のユーザー(ユーザー900)のIDとパスワードを含む。CPU301は,所与のアプリケーション(たとえば、コニカミノルタ社のアプリケーション「PageScope Mobile for iPhone/iPad」)[iPhoneおよびiPadは、登録商標]を起動し、当該アプリケーションにおいてリモートパネルメニューを選択し、接続先としてMFP200Aを選択することにより、MFP200Aに接続を要求する。CPU301は、MFP200Aと接続するために、ユーザーに、IDおよびパスワードの入力を要求してもよい。 In step SA10, the CPU 301 of the remote panel 300 requests the MFP 200A to connect. In one example, the request includes the ID and password of the user (user 900) of the remote panel 300. The CPU 301 starts a given application (for example, Konica Minolta's application "PageScope Mobile for iPhone / iPad") [iPhone and iPad are registered trademarks], selects a remote panel menu in the application, and uses it as a connection destination. Request a connection to the MFP200A by selecting the MFP200A. The CPU 301 may require the user to enter an ID and password in order to connect to the MFP 200A.

ステップSB10にて、MFP200AのCPU201は、リモートパネル300からの要求に応じて、MFP200Aとリモートパネル300との間の接続を確立させる。一例では、CPU201は、リモートパネル300から受信したIDとパスワードを利用して、ユーザー900を認証し、認証に成功すると、MFP200Aとリモートパネル300との間の接続を確立させる。接続の確立に応じて、CPU201は、リモートパネル300にトークンを送信してもよい。 In step SB10, the CPU 201 of the MFP 200A establishes a connection between the MFP 200A and the remote panel 300 in response to a request from the remote panel 300. In one example, the CPU 201 authenticates the user 900 using the ID and password received from the remote panel 300, and if the authentication is successful, establishes a connection between the MFP 200A and the remote panel 300. Depending on the establishment of the connection, the CPU 201 may send a token to the remote panel 300.

ステップSA20にて、リモートパネル300のCPU301は、接続の確立を確認する。一例では、CPU301は、MFP200Aから送信されたトークンを受信する。 In step SA20, the CPU 301 of the remote panel 300 confirms the establishment of the connection. In one example, the CPU 301 receives the token transmitted from the MFP 200A.

ステップSB20にて、MFP200AのCPU201は、他のMFPに対して、上記第1の情報を送信する。第1の情報はユーザー情報を含む。第1の情報に含まれるユーザー情報は、音声を無視される対象となるユーザー(本実施の形態では、ユーザー900)を特定する情報である。ユーザー情報の一例は、ユーザーの声紋情報である。他の例は、ユーザーIDである。 In step SB20, the CPU 201 of the MFP 200A transmits the first information to the other MFP. The first information includes user information. The user information included in the first information is information that identifies a user (user 900 in the present embodiment) whose voice is ignored. An example of user information is user voiceprint information. Another example is a user ID.

一実現例において、CPU201は、ステップSB10にてリモートパネル300との間で接続を確立する際に、第1の情報に含まれるユーザー情報をリモートパネル300から取得する。 In one implementation example, the CPU 201 acquires user information included in the first information from the remote panel 300 when establishing a connection with the remote panel 300 in step SB10.

ステップSC10にて、他のMFP(MFP200B,200C)のCPU201は、上記ユーザー情報で特定されるユーザーの音声を無視する設定を行う。当該設定は、たとえば、無効化部531(図4)が判別部542にユーザー900の音声を音声操作という観点において無視させるための設定である。これにより、他のMFPでは、ステップSC20で再開設定がなされるまで、ユーザー900の音声は無視される。 In step SC10, the CPU 201 of another MFP (MFP200B, 200C) is set to ignore the voice of the user specified by the user information. The setting is, for example, a setting for the invalidation unit 531 (FIG. 4) to cause the determination unit 542 to ignore the voice of the user 900 from the viewpoint of voice operation. As a result, in other MFPs, the voice of the user 900 is ignored until the restart setting is made in step SC20.

一実現例では、「音声を無視する」ことは、特定の音声データ自体をキャンセルする(例えばノイズキャンセル技術に相当する技術による音声データのキャンセル)ことによって実現される。より具体的には、他のMFPのCPUは、無視される対象のユーザーの声紋情報を用いて音声データに対してマスクをかける。これにより、対象のユーザーの音声データが、操作の内容を特定するための音声認識の対象から除外される。この意味において、他のMFPの無効化部(無効化部531)は、通知された第1の情報に対応するユーザーの入力音声データのみを当該他のMFPにキャンセルさせる。または、他のMFPの無効化部(無効化部531)は、第1の情報に対応するユーザーの声紋情報に対応する入力音声データのみを当該他のMFPにキャンセルさせる。 In one implementation example, "ignoring voice" is realized by canceling the specific voice data itself (for example, canceling the voice data by a technique corresponding to the noise canceling technique). More specifically, the CPU of another MFP masks the voice data using the voiceprint information of the user to be ignored. As a result, the voice data of the target user is excluded from the target of voice recognition for specifying the content of the operation. In this sense, the invalidation unit (invalidation unit 531) of the other MFP causes the other MFP to cancel only the input voice data of the user corresponding to the notified first information. Alternatively, the invalidation unit (invalidation unit 531) of the other MFP causes the other MFP to cancel only the input voice data corresponding to the voiceprint information of the user corresponding to the first information.

他の実現例では、他のMFPのCPUは、無視される対象のユーザーの音声に対する音声認識を実行するが、当該音声認識の結果を操作の内容の特定には利用しない。たとえば、CPUは、音声認識の結果のそれぞれに、音声認識に利用された音声に対応するユーザIDを関連付ける。そして、CPUは、特定のユーザーIDに関連付けられた音声の音声認識の結果から導出された操作内容(ジョブ)を選択しない。または、CPUは、特定のユーザーIDに関連付けられた音声の音声認識の結果を操作内容の特定に利用しない。これにより、特定のユーザーの音声が、操作内容の特定において無視される。この意味において、他のMFPの無効化部(無効化部531)は、通知された第1の情報に対応するユーザーに関連付けられた音声操作の内容のみを当該他のMFPにキャンセルさせる。 In another embodiment, the CPUs of other MFPs perform voice recognition for the voice of the user to be ignored, but do not use the result of the voice recognition to identify the content of the operation. For example, the CPU associates each of the voice recognition results with a user ID corresponding to the voice used for voice recognition. Then, the CPU does not select the operation content (job) derived from the result of voice recognition of the voice associated with the specific user ID. Alternatively, the CPU does not use the result of voice recognition of the voice associated with the specific user ID to specify the operation content. As a result, the voice of a specific user is ignored in specifying the operation content. In this sense, the invalidation unit (invalidation unit 531) of the other MFP causes the other MFP to cancel only the content of the voice operation associated with the user corresponding to the notified first information.

第1の情報が声紋情報を含む場合、他のMFPのCPU201は、音声の無視に当該声紋情報を利用しても良い。一実現例では、CPU201は、入力された音声の声紋情報と第1の情報に含まれる声紋情報とを比較し、両者が予め定められた閾値以上の度合いで一致していれば、当該音声を音声操作の観点では無視する。 When the first information includes voiceprint information, the CPU 201 of another MFP may use the voiceprint information to ignore the voice. In one implementation example, the CPU 201 compares the voiceprint information of the input voice with the voiceprint information included in the first information, and if both match to a certain degree equal to or higher than a predetermined threshold value, the voice is transmitted. Ignore it from the viewpoint of voice operation.

第1の情報がユーザーIDを含む場合、他のMFPのCPU201は、音声の無視に当該ユーザーIDを利用してもよい。一実現例では、他のMFP内の記憶装置またはCPU201がアクセス可能な記憶装置に、ユーザーIDに関連付けられた声紋情報が格納されている。CPU201は、入力された音声の声紋情報と上記のように格納されている声紋情報とを比較し、両者が予め定められた閾値以上の度合いで一致していれば、当該音声を音声操作の観点では無視する。 When the first information includes a user ID, the CPU 201 of another MFP may use the user ID to ignore the voice. In one embodiment, the voiceprint information associated with the user ID is stored in a storage device in another MFP or a storage device accessible to the CPU 201. The CPU 201 compares the voiceprint information of the input voice with the voiceprint information stored as described above, and if both match to a degree equal to or higher than a predetermined threshold value, the voice is converted into the voice from the viewpoint of voice operation. Then ignore it.

一方、CPU301(リモートパネル300)およびCPU201(MFP200A)は、ステップSA30およびステップSB30にて、ユーザー900の音声によるMFP200Aの操作のために通信する。ユーザー900の音声によるMFP200Aの操作は、たとえば、判別部502、指示部512および動作部513の挙動(図4)として説明される。 On the other hand, the CPU 301 (remote panel 300) and the CPU 201 (MFP200A) communicate with each other in steps SA30 and SB30 for the voice operation of the MFP200A by the user 900. The operation of the MFP 200A by the voice of the user 900 is described, for example, as the behavior of the discriminating unit 502, the indicating unit 512, and the operating unit 513 (FIG. 4).

他のMFPは、第1の情報の受信に対するレスポンスとして、各MFP内でユーザー900の音声を無視する設定が完了したことを第1の情報を送信してもよい。MFP200Aにおけるユーザー900の音声によるMFP200Aの操作は、当該レスポンスの受信を待って開始されてもよい。 The other MFP may transmit the first information as a response to the reception of the first information that the setting for ignoring the voice of the user 900 is completed in each MFP. The operation of the MFP 200A by the voice of the user 900 in the MFP 200A may be started after receiving the response.

ステップSB40にて、MFP200AのCPU201は、リモートパネル300との接続が終了したか否かを判断する。一実現例では、CPU201は、ステップSB10にて送信されたトークンを利用する接続が終了した場合に、リモートパネル300との接続が終了したと判断する。CPU201は、上記接続が未だ終了していないと判断すると(ステップSB40にてNO)、ステップSB30で、ユーザー900の音声による制御を継続させながら、一定時間ごとにステップSB40の制御を実行する。上記接続が終了したと判断すると(ステップSB40にてYES)、CPU201はステップSB50へ制御を進める。 In step SB40, the CPU 201 of the MFP 200A determines whether or not the connection with the remote panel 300 has been completed. In one implementation example, the CPU 201 determines that the connection with the remote panel 300 is completed when the connection using the token transmitted in step SB10 is completed. When the CPU 201 determines that the connection has not been completed yet (NO in step SB40), the CPU 201 executes the control of step SB40 at regular time intervals while continuing the voice control of the user 900 in step SB30. When it is determined that the connection is completed (YES in step SB40), the CPU 201 advances the control to step SB50.

ステップSB50にて、CPU201は、他のMFPへ、上記第2の情報を送信する。
第2の情報を受信すると、ステップSC20にて、他のMFPのCPU201は、ユーザー900の音声の無視を終了させる。
In step SB50, the CPU 201 transmits the second information to another MFP.
Upon receiving the second information, in step SC20, the CPU 201 of the other MFP ends ignoring the voice of the user 900.

以上説明された第1の実施の形態では、ユーザー900の音声でMFP200Aが操作されるときに、他のMFP(MFP200B,200C)に対して、音声操作に関してユーザー900の音声が無視される。 In the first embodiment described above, when the MFP 200A is operated by the voice of the user 900, the voice of the user 900 is ignored with respect to the other MFPs (MFP200B, 200C).

なお、操作対象のMFP(MFP200A)自体が第1の情報の送信先の他のMFPを特定してもよい。一実現例では、MFP200AのCPU201は、MFP200Aと同一ネットワーク内のMFP200B,200Cを送信先として特定する。この場合、装置特定部503はMFP200Aによって実現される。 The MFP (MFP200A) itself to be operated may specify another MFP to which the first information is transmitted. In one implementation example, the CPU 201 of the MFP 200A specifies the MFPs 200B and 200C in the same network as the MFP 200A as transmission destinations. In this case, the device identification unit 503 is realized by the MFP 200A.

[6.処理の流れ(音声操作)]
図6は、MFP200に、入力された音声に対応する動作を実行させるための処理(音声操作処理)のフローチャートである。図6の処理は、たとえば、CPU201が所与のプログラムを実行することによって実現される。
[6. Process flow (voice operation)]
FIG. 6 is a flowchart of a process (voice operation process) for causing the MFP 200 to execute an operation corresponding to the input voice. The process of FIG. 6 is realized, for example, by the CPU 201 executing a given program.

図6を参照して、ステップS10にて、CPU201は、音声が入力されたか否かを判断する。音声は、マイクロフォン2074を介して入力されてもよいし、音声ファイルとして他の機器からNIC206を介して入力されてもよい。CPU201は、音声が入力されたと判断するまでステップS10の制御を繰り返し(ステップS10にてNO)、音声が入力されたと判断すると(ステップS10にてYES)、ステップS12へ制御を進める。 With reference to FIG. 6, in step S10, the CPU 201 determines whether or not voice has been input. The voice may be input via the microphone 2074, or may be input as a voice file from another device via NIC206. The CPU 201 repeats the control of step S10 until it determines that the voice has been input (NO in step S10), and when it determines that the voice has been input (YES in step S10), advances the control to step S12.

ステップS12にて、CPU201は、入力された音声に対応するユーザーを特定する。一実現例では、CPU201は、入力された音声を、声紋情報と比較し、一致度の高い声紋情報に関連付けられたユーザーを入力された音声に対応するユーザーとして特定する。他の実現例では、MFP200に入力された音声ファイルにユーザーIDが関連付けられており、CPU201は、入力された音声に関連付けられたユーザーIDを抽出し、抽出されたユーザーIDを有するユーザーを入力された音声に対応するユーザーとして特定する。 In step S12, the CPU 201 identifies the user corresponding to the input voice. In one implementation example, the CPU 201 compares the input voice with the voiceprint information and identifies a user associated with the voiceprint information having a high degree of matching as a user corresponding to the input voice. In another implementation example, the user ID is associated with the voice file input to the MFP 200, and the CPU 201 extracts the user ID associated with the input voice and inputs the user having the extracted user ID. Identify as the user who supports the voice.

ステップS14にて、CPU201は、ステップS12において特定されたユーザーが無視対象ユーザーであるか否かを判断する。一実現例では、無視対象ユーザーとは、第1の情報のユーザー情報によって特定されるユーザーの情報である。たとえば、図5のステップSC10において第1の情報を受信したMFP200Bでは、第2の情報を受信するまで、「ユーザー900」が無視対象ユーザーである。「ユーザー900」について第2の情報を受信すると、MFP200Bにおいて「ユーザー900」は無視対象ユーザーではなくなる。 In step S14, the CPU 201 determines whether or not the user specified in step S12 is a user to be ignored. In one implementation example, the ignore target user is the information of the user specified by the user information of the first information. For example, in the MFP 200B that received the first information in step SC10 of FIG. 5, "user 900" is the ignore target user until the second information is received. When the second information about the "user 900" is received, the "user 900" is no longer the ignore target user in the MFP 200B.

CPU201は、ステップS12において特定されたユーザーが無視対象ユーザーであると判断すると(ステップS14にてYES)、ステップS10へ制御を戻し、ステップS12において特定されたユーザーが無視対象ユーザーではないと判断すると(ステップS14にてNO)、ステップS16へ制御を進める。 When the CPU 201 determines that the user specified in step S12 is the user to be ignored (YES in step S14), the CPU 201 returns control to step S10 and determines that the user specified in step S12 is not the user to be ignored. (NO in step S14), the control proceeds to step S16.

ステップS16にて、CPU201は、入力された音声に対応する動作を実行する。一実現例では、CPU201は、入力された音声を認識することにより操作の内容を特定し、プリンター部209等に特定された内容の操作を実行させる。その後、CPU201はステップS10へ制御を戻す。 In step S16, the CPU 201 executes an operation corresponding to the input voice. In one implementation example, the CPU 201 identifies the content of the operation by recognizing the input voice, and causes the printer unit 209 or the like to execute the operation of the specified content. After that, the CPU 201 returns the control to step S10.

以上、図6を参照して説明された処理によれば、MFP200は、入力された音声に対応するユーザーが無視対象ユーザーでなければ、入力された音声に対応する動作を実施するが、入力された音声に対応するユーザーが無視対象ユーザーであれば、入力された音声に対応する動作を実施しない。図5の処理において、MFP200BおよびMFP200Cは、ステップSC10からステップSC20までの間は、ユーザー900の音声が入力されても当該音声に対応する動作を実施しない。一方、ステップSA30では、MFP200Aは、ユーザー900の音声を入力されると、当該音声に対応する動作を実施する。 According to the process described with reference to FIG. 6, the MFP 200 performs an operation corresponding to the input voice unless the user corresponding to the input voice is the user to be ignored, but the input voice is input. If the user corresponding to the voice is the user to be ignored, the operation corresponding to the input voice is not performed. In the process of FIG. 5, the MFP200B and the MFP200C do not perform the operation corresponding to the voice of the user 900 even if the voice of the user 900 is input during the steps SC10 to SC20. On the other hand, in step SA30, when the voice of the user 900 is input, the MFP 200A performs an operation corresponding to the voice.

<第2の実施の形態>
[1.情報処理システムの構成]
図7は、情報処理システムの第2の実施の形態の構成を概略的に示す図である。
<Second Embodiment>
[1. Information processing system configuration]
FIG. 7 is a diagram schematically showing the configuration of the second embodiment of the information processing system.

図7の情報処理システム1001は、図1の情報処理システム1000と同様に、MFP200A,200B,200Cとリモートパネル300とを含む。ユーザー900は、リモートパネル300に、MFP200Aを操作するための音声を入力する。 The information processing system 1001 of FIG. 7 includes the MFPs 200A, 200B, 200C and the remote panel 300, similarly to the information processing system 1000 of FIG. The user 900 inputs voice for operating the MFP 200A to the remote panel 300.

図7の情報処理システム1001では、リモートパネル300が、操作対象の装置以外の装置(MFP200B,200C)に第1の情報を通知する。 In the information processing system 1001 of FIG. 7, the remote panel 300 notifies devices (MFP200B, 200C) other than the operation target device of the first information.

[2.情報処理システム内の機能構成]
図8は、情報処理システム1001内の機能的構成の一例を示す図である。
[2. Functional configuration in the information processing system]
FIG. 8 is a diagram showing an example of a functional configuration in the information processing system 1001.

図8に示された構成では、図4と比較して、取得部511および通知部521は、操作対象のMFP(MFP200A)ではなく、リモートパネル300によって実現される。図8の他のMFP(MFP200B,200C)の構成は、図4に記載されたものと同様である。 In the configuration shown in FIG. 8, the acquisition unit 511 and the notification unit 521 are realized by the remote panel 300 instead of the operation target MFP (MFP200A) as compared with FIG. The configuration of the other MFPs (MFP200B, 200C) in FIG. 8 is the same as that shown in FIG.

[3.処理の流れ]
図9は、情報処理システム1001の各装置において実行される処理の流れを概略的に表す図である。図9には、右から、リモートパネル300、MFP200A(処理対象のMFP)、MFP200B,200C(他のMFP:処理対象のMFP以外のMFP)のそれぞれにおいて実行される処理のフローチャートが示される。
[3. Process flow]
FIG. 9 is a diagram schematically showing a flow of processing executed in each device of the information processing system 1001. FIG. 9 shows a flowchart of processing executed in each of the remote panel 300, the MFP200A (the MFP to be processed), the MFP200B, and 200C (other MFPs: MFPs other than the MFP to be processed) from the right.

図5と比較して、図9では、ステップSB10でMFP200Aとリモートパネル300との間の接続が確立された後、MFP200AのCPU201は、リモートパネル300に対して、ユーザー情報を送信する。 In comparison with FIG. 5, in FIG. 9, after the connection between the MFP 200A and the remote panel 300 is established in step SB10, the CPU 201 of the MFP 200A transmits user information to the remote panel 300.

当該ユーザー情報の一例は、ユーザー900の声紋情報である。この場合、ユーザー900がリモートパネル300にIDとパスワードを入力することによってMFP200Aとリモートパネル300との間の接続が確立されると、MFP200Aに格納された声紋情報がリモートパネル300に送信される。 An example of the user information is the voiceprint information of the user 900. In this case, when the connection between the MFP 200A and the remote panel 300 is established by the user 900 inputting the ID and password to the remote panel 300, the voiceprint information stored in the MFP 200A is transmitted to the remote panel 300.

ステップSA20にて、リモートパネル300のCPU301は、MFP200Aとの接続を確認する。図10の例では、CPU301は、MFP200Aから、トークンに加えて上記ユーザー情報を受信してもよい。 In step SA20, the CPU 301 of the remote panel 300 confirms the connection with the MFP 200A. In the example of FIG. 10, the CPU 301 may receive the user information from the MFP 200A in addition to the token.

ステップSA22にて、CPU301は、通信インターフェイス306が取得したIPアドレスのリストから、MFP200A以外にリモートパネル300の周囲に存在する装置(MFP200B,200C)を特定する。当該装置の特定は、一例では、装置特定部503の機能として実現される。 In step SA22, the CPU 301 identifies devices (MFP200B, 200C) existing around the remote panel 300 in addition to the MFP200A from the list of IP addresses acquired by the communication interface 306. The identification of the device is realized as a function of the device identification unit 503 in one example.

ステップSA24にて、CPU301は、図5のステップSB20と同様に、他のMFPに対して、上記第1の情報を送信する。 In step SA24, the CPU 301 transmits the first information to the other MFP, similarly to the step SB20 of FIG.

その後、他のMFP200のCPU201は、音声操作について、ステップSC10にて、ユーザー900の音声を無視する状態を開始する。ステップSA30,ステップSB30にて、MFP200Aとリモートパネル300とによってMFP200Aの音声操作が実施される。 After that, the CPU 201 of the other MFP 200 starts a state of ignoring the voice of the user 900 in step SC10 for the voice operation. In step SA30 and step SB30, the voice operation of the MFP 200A is performed by the MFP 200A and the remote panel 300.

CPU301は、ステップSA40にてMFP200Aとの接続が終了したか否かを判断し、終了したと判断すると(ステップSA40にてYES)、ステップSA50へ制御を進める。ステップS50にて、CPU301は、他のMFPに第2の情報を送信する。 The CPU 301 determines whether or not the connection with the MFP 200A is completed in step SA40, and if it is determined that the connection is completed (YES in step SA40), the CPU 301 proceeds to control to step SA50. In step S50, the CPU 301 transmits the second information to another MFP.

第2の情報を受信すると、他のMFPのCPU201は、ステップSC20にて、ユーザー900の音声を無視する状態を終了させる。 Upon receiving the second information, the CPU 201 of the other MFP ends the state of ignoring the voice of the user 900 in step SC20.

<第3の実施の形態>
[1.情報処理システムの構成]
図10は、情報処理システムの第3の実施の形態の構成を概略的に示す図である。図10の情報処理システム1002は、図1の情報処理システム1000と比較して、リモートパネル300の代わりにパーソナルコンピューター(PC)300Xを含む。ユーザー900は、PC300Xのマイクロフォン311に、MFP200Aを操作するための音声を入力する。
<Third embodiment>
[1. Information processing system configuration]
FIG. 10 is a diagram schematically showing the configuration of the third embodiment of the information processing system. The information processing system 1002 of FIG. 10 includes a personal computer (PC) 300X instead of the remote panel 300 as compared to the information processing system 1000 of FIG. The user 900 inputs the voice for operating the MFP 200A into the microphone 311 of the PC 300X.

[2.ハードウェア構成(PC300X)]
図11は、PC300Xのハードウェア構成の一例を示す図である。図3のリモートパネル300と比較して、PC300Xは、通信インターフェイスとしてNIC306Aを備える。他の要素は、リモートパネル300内の要素と同様の機能を有するため、説明を繰り返さない。
[2. Hardware configuration (PC300X)]
FIG. 11 is a diagram showing an example of the hardware configuration of the PC 300X. Compared to the remote panel 300 of FIG. 3, the PC300X includes NIC306A as a communication interface. Since the other elements have the same functions as the elements in the remote panel 300, the description will not be repeated.

[3.情報処理システム内の機能構成]
図12は、情報処理システム1002内の機能的構成の一例を示す図である。図4の情報処理システム1000と比較して、図12の情報処理システム1002では、PC300Xはリモートパネル300と共通する機能(入力部501と判別部502)を有する。情報処理システム1002では、装置特定部503は、操作対象のMFP(MFP200A)によって実現される。
[3. Functional configuration in the information processing system]
FIG. 12 is a diagram showing an example of a functional configuration in the information processing system 1002. Compared with the information processing system 1000 of FIG. 4, in the information processing system 1002 of FIG. 12, the PC 300X has a function common to the remote panel 300 (input unit 501 and discrimination unit 502). In the information processing system 1002, the device identification unit 503 is realized by the operation target MFP (MFP200A).

[4.処理の流れ]
図13は、情報処理システム1002の各装置において実行される処理の流れを概略的に表す図である。図13には、右から、PC300X、MFP200A(処理対象のMFP)、MFP200B,200C(他のMFP:処理対象のMFP以外のMFP)のそれぞれにおいて実行される処理のフローチャートが示される。
[4. Process flow]
FIG. 13 is a diagram schematically showing a flow of processing executed in each device of the information processing system 1002. FIG. 13 shows a flowchart of processing executed in each of the PC300X, the MFP200A (the MFP to be processed), the MFP200B, and 200C (other MFPs: MFPs other than the MFP to be processed) from the right.

ステップSD10にて、PC300XのCPU301は、たとえばユーザー900の操作に応じて、プリンタードライバーを起動する。当該ユーザー900の操作は、ネットワーク内の複数のプリンターからMFP200Aを選択することを含んでいても良い。プリンタードライバーの起動に応じて、CPU301は、MFP200Aに接続を要求する。当該要求のために、CPU301は、MFP200Aにユーザー900のIDとパスワードを送信しても良い。 In step SD10, the CPU 301 of the PC 300X activates the printer driver in response to an operation of, for example, the user 900. The operation of the user 900 may include selecting the MFP 200A from a plurality of printers in the network. Upon activation of the printer driver, the CPU 301 requests the MFP 200A to connect. The CPU 301 may send the ID and password of the user 900 to the MFP 200A for the request.

PC300Xからの接続要求に応じて、MFP200AのCPU201は、ステップSB10にて、MFP200AとPC300Xとの間の接続を確立させる。一例では、CPU201は、PC300Xから受信したIDとパスワードを利用して、ユーザー900を認証し、認証に成功すると、MFP200AとPC300Xとの間の接続を確立させる。接続の確立に応じて、CPU201は、PC300Xにトークンを送信してもよい。 In response to the connection request from the PC300X, the CPU 201 of the MFP200A establishes a connection between the MFP200A and the PC300X in step SB10. In one example, the CPU 201 authenticates the user 900 using the ID and password received from the PC 300X, and if the authentication is successful, establishes a connection between the MFP 200A and the PC 300X. Depending on the establishment of the connection, the CPU 201 may send a token to the PC 300X.

ステップSB20にて、MFP200AのCPU201は、他のMFPに第1の情報を送信する。一実現例では、CPU201は、MFP200Aと同一ネットワーク内の装置を第1の情報の送信先として設定する。第1の情報は、ユーザー900の情報(ユーザー情報)を含む。ユーザー情報は、ユーザー900のIDであってもよいし、ユーザー900の声紋情報であってもよい。一実現例では、PC300Xにインストールされたプリンタードライバーが、ステップSD10にて、ユーザー900の音声情報をMFP200Aに送信してもよい。 In step SB20, the CPU 201 of the MFP 200A transmits the first information to another MFP. In one implementation example, the CPU 201 sets a device in the same network as the MFP 200A as a transmission destination of the first information. The first information includes information (user information) of the user 900. The user information may be the ID of the user 900 or the voiceprint information of the user 900. In one implementation example, the printer driver installed on the PC 300X may transmit the voice information of the user 900 to the MFP 200A in step SD10.

その後、情報処理システム1002では、ステップSB30およびステップSD30において、PC300Xに入力された音声によってMFP200Aが操作される。他のMFP(MFP200B,200C)では、ステップSC10からステップSC20までの期間、ユーザー900の音声が音声操作において無視される。 After that, in the information processing system 1002, the MFP 200A is operated by the voice input to the PC 300X in the step SB30 and the step SD30. In other MFPs (MFP200B, 200C), the voice of the user 900 is ignored in the voice operation during the period from step SC10 to step SC20.

<第4の実施の形態>
[1.情報処理システムの構成]
図14は、情報処理システムの第4の実施の形態の構成を概略的に示す図である。図14の情報処理システム1003は、MFP200A,200B,200Cを含む。MFP200Aの音声操作用の音声は、MFP200Aに直接入力される。
<Fourth Embodiment>
[1. Information processing system configuration]
FIG. 14 is a diagram schematically showing the configuration of the fourth embodiment of the information processing system. The information processing system 1003 of FIG. 14 includes MFPs 200A, 200B, and 200C. The voice for voice operation of the MFP 200A is directly input to the MFP 200A.

[2.情報処理システム内の機能構成]
図15は、情報処理システム1003内の機能的構成の一例を示す図である。図4と比較して、第4の実施の形態のMFP200Aは、第1の実施の形態のMFP200Aが有する機能とリモートパネル300が有する機能とを備える。すなわち、情報処理システム1003内のMFP200Aは、入力部501、判別部502、装置特定部503、取得部511、指示部512、動作部513、および、通知部521を有する。
[2. Functional configuration in the information processing system]
FIG. 15 is a diagram showing an example of a functional configuration in the information processing system 1003. Compared with FIG. 4, the MFP 200A of the fourth embodiment includes the functions of the MFP 200A of the first embodiment and the functions of the remote panel 300. That is, the MFP 200A in the information processing system 1003 has an input unit 501, a discrimination unit 502, a device identification unit 503, an acquisition unit 511, an instruction unit 512, an operation unit 513, and a notification unit 521.

[3.処理の流れ]
図16は、情報処理システム1003の各装置において実行される処理の流れを概略的に表す図である。図16では、右側に操作対象のMFP(MFP200A)において実行される処理のフローチャートが示され、左側に他のMFP(MFP200B,200C)において実行される処理のフローチャートが示される。
[3. Process flow]
FIG. 16 is a diagram schematically showing a flow of processing executed in each device of the information processing system 1003. In FIG. 16, a flowchart of processing executed by the operation target MFP (MFP200A) is shown on the right side, and a flowchart of processing executed by another MFP (MFP200B, 200C) is shown on the left side.

図16を参照して、ステップSB12にて、MFP200AのCPU201は、操作パネル207で、ユーザー900のログインを受け付ける。一例では、ユーザー900は、ログインのために、操作パネル207にユーザーIDとパスワードを入力する。他の例では、ユーザー900は、ログインのために操作パネル207に音声を入力する。CPU201は、ユーザー900から入力されたIDとパスワードおよび/または音声を用いてユーザーを認証する。なお、ログインのための認証では、他の情報(生体情報、顔画像、等)が利用されてもよい。 With reference to FIG. 16, in step SB12, the CPU 201 of the MFP 200A accepts the login of the user 900 on the operation panel 207. In one example, user 900 enters a user ID and password on the operation panel 207 for login. In another example, the user 900 inputs voice to the control panel 207 for login. The CPU 201 authenticates the user using the ID and password and / or voice input from the user 900. In addition, other information (biological information, face image, etc.) may be used in the authentication for login.

ステップSB20にて、MFP200AのCPU201は、他のMFPに対して第1の情報を送信する。第1の情報に含まれるユーザー情報は、ステップSB12におけるログインの際にユーザー900から取得されてもよいし、ステップSB12におけるログインの際に特定されたユーザー900に関連付けられてMFP200Aまたは外部の記憶装置に予め格納されていてもよい。 In step SB20, the CPU 201 of the MFP 200A transmits the first information to the other MFP. The user information contained in the first information may be obtained from the user 900 at the time of login in step SB12, or may be associated with the user 900 identified at the time of login in step SB12 and is associated with the MFP200A or an external storage device. It may be stored in advance in.

その後、MFP200AのCPU201は、ステップSB32にて、マイクロフォン2074に入力された音声に従ってMFP200Aの動作を制御する。 After that, the CPU 201 of the MFP 200A controls the operation of the MFP 200A according to the voice input to the microphone 2074 in step SB32.

ステップSB40にて、MFP200AのCPU201は、ユーザー900がログアウトしたか否かを判断し、ログアウトするまでステップSB32の制御を続け(ステップSB42でNO)、ログアウトするとステップSB50へ制御を進める(ステップSB42でYES)。 In step SB40, the CPU 201 of the MFP 200A determines whether or not the user 900 has logged out, continues to control step SB32 until it logs out (NO in step SB42), and proceeds to control to step SB50 when it logs out (in step SB42). YES).

ステップSB50にて、MFP200AのCPU201は他のMFPへ第2の情報を送信する。 In step SB50, the CPU 201 of the MFP 200A transmits the second information to another MFP.

他のMFPのCPU201は、第1の情報を受信すると、ステップSC10にて、ユーザー900を無視する設定を実施し、第2の情報を受信すると、ステップSC20にて、ユーザー900を無視する設定を終了させる。 When the CPU 201 of another MFP receives the first information, the setting for ignoring the user 900 is set in step SC10, and when the second information is received, the setting for ignoring the user 900 is set in step SC20. To finish.

<第5の実施の形態>
第5の実施の形態の情報処理システムの構成は第4の実施の形態と同様とすることができる。第5の実施の形態では、MFP200Aは、ユーザー900の音声を入力されると、当該音声の音量と他のMFPに入力されたユーザー900の音声の音量とを比較する。一実現例では、MFP200Aは、他のMFPに入力された音声よりMFP200Aに入力された音声の方が大きいとき、MFP200Aが音声操作の対象であると判断する。MFP200Aは、MFP200Aが音声操作の対象であると判断すると、他のMFPに、音声操作について、ユーザー900を無視するための通知を送信する。
<Fifth Embodiment>
The configuration of the information processing system of the fifth embodiment can be the same as that of the fourth embodiment. In the fifth embodiment, when the voice of the user 900 is input, the MFP 200A compares the volume of the voice of the user 900 with the volume of the voice of the user 900 input to another MFP. In one implementation example, the MFP 200A determines that the MFP 200A is the target of voice operation when the voice input to the MFP 200A is louder than the voice input to the other MFP. When the MFP 200A determines that the MFP 200A is the target of the voice operation, the MFP 200A transmits a notification for ignoring the user 900 about the voice operation to the other MFP.

図17は、第5の実施の形態情報処理システム1000内の機能的構成の一例を示す図である。図16と比較して、図17では、操作対象のMFP200AのCPU201は、ステップSB14〜ステップSB18をさらに実施する。 FIG. 17 is a diagram showing an example of a functional configuration in the information processing system 1000 according to the fifth embodiment. Compared with FIG. 16, in FIG. 17, the CPU 201 of the MFP 200A to be operated further performs steps SB14 to SB18.

より具体的には、MFP200AのCPU201は、ステップSB12にてユーザー900のログインを受け付けた後、ステップSB14にて、ユーザー900から入力された音声の音量を検知する。すなわち、第5の実施の形態では、MFP200Aは、ログイン時またはログインの後に、ユーザー900の音声をマイクロフォン2074を介して取得し、当該音声の音量を検知する。 More specifically, the CPU 201 of the MFP 200A receives the login of the user 900 in step SB12, and then detects the volume of the voice input from the user 900 in step SB14. That is, in the fifth embodiment, the MFP 200A acquires the voice of the user 900 via the microphone 2074 at the time of login or after login, and detects the volume of the voice.

第5の実施の形態では、他のMFPのCPU201も、音声の入力を受け付けると、ステップS02にて、当該音声の音量を検知する。 In the fifth embodiment, when the CPU 201 of the other MFP also receives the input of the voice, the volume of the voice is detected in step S02.

MFP200AのCPU201は、ステップSB16にて、周囲のMFPに対して、各MFPにおいて検知されたユーザー900の音声の音量を問合せる。ステップSB16の問合せは、ユーザー900を特定する情報を含む。 In step SB16, the CPU 201 of the MFP 200A inquires the surrounding MFPs about the volume of the voice of the user 900 detected by each MFP. The query in step SB16 includes information that identifies the user 900.

ステップSB16の問い合わせに応答して、他のMFPのCPU201は、ステップSC04にて、MFP200Aへ、ユーザー900の音声として検知された音声の音量を送信する。 In response to the inquiry in step SB16, the CPU 201 of the other MFP transmits the volume of the voice detected as the voice of the user 900 to the MFP 200A in step SC04.

一実現例では、各MFPでは音声を入力されると、当該音声を予め格納された声紋情報と照合することにより当該音声に対応するユーザーを特定する。 In one implementation example, when a voice is input in each MFP, the user corresponding to the voice is specified by collating the voice with the voiceprint information stored in advance.

他の実現例では、各MFPでは、ログイン中に音声の入力を受け付けると、当該音声を、ログイン中のユーザーの音声として取り扱う。 In another implementation example, when each MFP accepts a voice input during login, the voice is treated as the voice of the logged-in user.

ステップSB18にて、MFP200AのCPU201は、MFP200Aで検知された音量と他のMFPで検知された音量とを比較し、MFP200Aで検知された音量が他のMFPで検知された音量よりも大きい場合、ステップSB20へ制御を進める。ステップSB20以降の制御は、図16を参照して説明されたものと同様である。 In step SB18, the CPU 201 of the MFP 200A compares the volume detected by the MFP 200A with the volume detected by the other MFP, and when the volume detected by the MFP 200A is larger than the volume detected by the other MFP, Control proceeds to step SB20. The control after step SB20 is the same as that described with reference to FIG.

以上説明された第5の実施の形態では、MFP200Aは、他のMFPよりも大きな音量でユーザー900の音声を入力されたことを条件として、他のMFPに、音声制御についてユーザー900を無視させる。MFP200Aよりも大きな音量でユーザー900の音声を入力されたMFPが存在した場合、MFP200Aは「他のMFP」として動作する。 In the fifth embodiment described above, the MFP 200A causes the other MFP to ignore the user 900 for voice control, provided that the voice of the user 900 is input at a louder volume than the other MFP. When there is an MFP in which the voice of the user 900 is input at a volume louder than that of the MFP 200A, the MFP 200A operates as "another MFP".

今回開示された各実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。また、実施の形態および各変形例において説明された発明は、可能な限り、単独でも、組合わせても、実施することが意図される。 It should be considered that each embodiment disclosed this time is exemplary in all respects and is not restrictive. The scope of the present invention is shown by the scope of claims rather than the above description, and it is intended to include all modifications within the meaning and scope equivalent to the scope of claims. In addition, the inventions described in the embodiments and the modifications are intended to be implemented, either alone or in combination, wherever possible.

200,200A,200B,200C MFP、201,301 CPU、207 操作パネル、208 スキャナー部、209 プリンター部、210 FAX部、300 リモートパネル、304,2071 ディスプレイ、305 入力装置、306 通信インターフェイス、311,2074 マイクロフォン、312,2075 スピーカー、313,2076 カメラ、501,541 入力部、502,542 判別部、503 装置特定部、511 取得部、512,543 指示部、513,544 動作部、521 通知部、531 無効化部、900 ユーザー、1000,1001,1002,1003 情報処理システム、2072 タッチセンサー、2073 ボタン。 200, 200A, 200B, 200C MFP, 201,301 CPU, 207 operation panel, 208 scanner unit, 209 printer unit, 210 FAX unit, 300 remote panel, 304,2071 display, 305 input device, 306 communication interface, 311, 2074 Microphone, 312, 2075 speaker, 313, 2076 camera, 501,541 input unit, 502,542 discrimination unit, 503 device identification unit, 511 acquisition unit, 512,543 indicator unit, 513,544 operation unit, 521 notification unit, 531 Invalidation unit, 900 users, 1000, 1001, 1002, 1003 information processing system, 2072 touch sensor, 2073 button.

Claims (26)

ユーザーの音声に基づいて情報処理装置に対する音声操作の内容を判別する判別部と、
前記情報処理装置とは異なる機器に対して、前記ユーザーの音声を無視するための第1の情報を通知する通知部と、
前記機器に、通知された前記第1の情報に基づき、前記ユーザーの音声のみを無視させる無効化部とを備える、情報処理システム。
A discriminator that discriminates the content of voice operations on the information processing device based on the user's voice,
A notification unit that notifies a device different from the information processing device of the first information for ignoring the user's voice, and a notification unit.
An information processing system including an invalidating unit that causes the device to ignore only the voice of the user based on the notified first information.
ユーザーを識別するユーザー識別情報を取得する取得部をさらに備え、
前記第1の情報は、前記ユーザー識別情報に対応する情報である、請求項1に記載の情報処理システム。
It also has an acquisition unit that acquires user identification information that identifies the user.
The information processing system according to claim 1, wherein the first information is information corresponding to the user identification information.
前記ユーザー識別情報は、前記ユーザーの声紋情報を含む、請求項2に記載の情報処理システム。 The information processing system according to claim 2, wherein the user identification information includes voiceprint information of the user. 前記ユーザーの声紋情報は前記ユーザーを特定する情報と関連付けられており、
前記取得部は、前記ユーザーの声紋情報の取得に応じて前記ユーザーを識別する、請求項3に記載の情報処理システム。
The user's voiceprint information is associated with the information that identifies the user.
The information processing system according to claim 3, wherein the acquisition unit identifies the user according to the acquisition of the voiceprint information of the user.
前記第1の情報は、前記ユーザーの声紋情報を含む、請求項3または請求項4に記載の情報処理システム。 The information processing system according to claim 3 or 4, wherein the first information includes voiceprint information of the user. 前記通知部は、前記ユーザーによる前記情報処理装置の音声による操作が終了したことに応じて、前記機器に対して、前記ユーザーの音声の無視を終了するための第2の情報を通知し、
前記無効化部は、前記第2の情報の通知に応じて、前記機器における前記ユーザーの音声の無視を終了させる、請求項1〜請求項5のいずれか1項に記載の情報処理システム。
The notification unit notifies the device of the second information for ending the ignoring of the user's voice in response to the end of the voice operation of the information processing device by the user.
The information processing system according to any one of claims 1 to 5, wherein the invalidation unit ends ignoring the user's voice in the device in response to the notification of the second information.
前記情報処理装置と通信可能な端末装置を備え、
前記端末装置は前記取得部を含む、請求項2〜請求項5のいずれか1項に記載の情報処理システム。
A terminal device capable of communicating with the information processing device is provided.
The information processing system according to any one of claims 2 to 5, wherein the terminal device includes the acquisition unit.
前記端末装置は前記通知部を含み、
前記通知部は、前記端末装置と無線通信が可能な前記機器に前記第1の情報を通知する、請求項7に記載の情報処理システム。
The terminal device includes the notification unit.
The information processing system according to claim 7, wherein the notification unit notifies the device capable of wireless communication with the terminal device of the first information.
前記情報処理装置は、前記取得部および前記通知部を含む、請求項2〜請求項5のいずれか1項に記載の情報処理システム。 The information processing system according to any one of claims 2 to 5, wherein the information processing device includes the acquisition unit and the notification unit. 前記取得部は、ユーザーの音声を取得し、
前記通知部は、前記取得部が取得した音声の音量が、前記機器が取得した前記ユーザーの音声の音量よりも大きいことを条件として、前記機器に対して前記第1の情報を通知する、請求項9に記載の情報処理システム。
The acquisition unit acquires the user's voice and
The notification unit notifies the device of the first information on condition that the volume of the voice acquired by the acquisition unit is higher than the volume of the voice of the user acquired by the device. Item 9. The information processing system according to item 9.
前記無効化部は、通知された前記第1の情報に対応する前記ユーザーの入力音声データのみを前記機器にキャンセルさせる、請求項1〜請求項10のいずれか1項に記載の情報処理システム。 The information processing system according to any one of claims 1 to 10, wherein the invalidation unit causes the device to cancel only the input voice data of the user corresponding to the notified first information. 前記無効化部は、前記ユーザーの声紋情報に対応する入力音声データのみを前記機器にキャンセルさせる、請求項1〜請求項10のいずれか1項に記載の情報処理システム。 The information processing system according to any one of claims 1 to 10, wherein the invalidation unit causes the device to cancel only the input voice data corresponding to the voiceprint information of the user. 前記無効化部は、通知された前記第1の情報に対応する前記ユーザーに関連付けられた音声操作の内容のみを前記機器にキャンセルさせる、請求項1〜請求項10のいずれか1項に記載の情報処理システム。 The invalidation unit according to any one of claims 1 to 10, wherein the invalidation unit causes the device to cancel only the content of the voice operation associated with the user corresponding to the notified first information. Information processing system. ユーザーの音声に基づいて操作の内容を判別する判別部と、
外部の機器に対して、前記ユーザーの音声のみを無視するための第1の情報を通知する通知部と、を備える情報処理装置。
A discriminator that discriminates the content of the operation based on the user's voice,
An information processing device including a notification unit that notifies an external device of first information for ignoring only the user's voice.
前記第1の情報は、前記ユーザーの声紋情報を含む、請求項14に記載の情報処理装置。 The information processing device according to claim 14, wherein the first information includes voiceprint information of the user. 前記通知部は、前記ユーザーによる前記情報処理装置の音声による操作が終了したことに応じて、前記機器に対して、前記ユーザーの音声の無視を終了するための第2の情報を通知する、請求項14または請求項15に記載の情報処理装置。 The notification unit notifies the device of the second information for ending the ignoring of the user's voice in response to the end of the voice operation of the information processing device by the user. The information processing apparatus according to claim 14 or 15. 前記ユーザーを識別するユーザー識別情報を取得する取得部をさらに備え、
前記第1の情報は、前記ユーザー識別情報に対応する情報である、請求項14〜請求項16のいずれか1項に記載の情報処理装置。
Further provided with an acquisition unit for acquiring user identification information for identifying the user.
The information processing device according to any one of claims 14 to 16, wherein the first information is information corresponding to the user identification information.
前記ユーザー識別情報は、前記ユーザーの声紋情報を含む、請求項17に記載の情報処理装置。 The information processing device according to claim 17, wherein the user identification information includes voiceprint information of the user. 前記取得部は、ユーザーの音声を取得し、
前記通知部は、前記取得部が取得した音声の音量が、前記外部の機器が取得した前記ユーザーの音声の音量よりも大きいことを条件として、前記外部の機器に対して前記第1の情報を通知する、請求項17または請求項18に記載の情報処理装置。
The acquisition unit acquires the user's voice and
The notification unit provides the first information to the external device on condition that the volume of the voice acquired by the acquisition unit is higher than the volume of the voice of the user acquired by the external device. The information processing device according to claim 17 or 18, which is notified.
前記取得部は、前記ユーザーの音声および画像の少なくとも一方を取得し、当該音声および画像の少なくとも一方を用いてユーザーを特定することにより前記ユーザーを識別する情報を取得する、請求項17または請求項18に記載の情報処理装置。 17 or claim that the acquisition unit acquires at least one of the user's voice and image and acquires information for identifying the user by identifying the user using at least one of the voice and image. The information processing apparatus according to 18. 前記取得部は、外部の端末装置から前記ユーザー識別情報を取得する、請求項17〜請求項20のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 17 to 20, wherein the acquisition unit acquires the user identification information from an external terminal device. 1以上のプロセッサーによって実行されることにより、前記1以上のプロセッサーに、
情報処理装置の操作の内容を判別するために声を利用されるユーザーを識別する情報を取得するステップと、
外部の機器に対して、前記ユーザーの音声のみを無視するための第1の情報を通知するステップと、を実行させるプログラム。
By being executed by one or more processors, the one or more processors
Steps to acquire information that identifies the user whose voice is used to determine the content of the operation of the information processing device, and
A program that causes an external device to execute a step of notifying a first information for ignoring only the user's voice.
音声の入力を受け付ける音声入力インターフェイスと、
通信インターフェイスと、
前記通信インターフェイスを制御する制御部とを備え、
前記制御部は、
前記通信インターフェイスを介して、情報処理装置に対して、前記音声入力インターフェイスに入力されたユーザーの音声に基づく操作情報を送信し、
前記通信インターフェイスを介して、前記情報処理装置とは異なる機器に、前記ユーザーの音声のみを無視するための第1の情報を通知する、端末装置。
A voice input interface that accepts voice input and
Communication interface and
A control unit that controls the communication interface is provided.
The control unit
Operation information based on the user's voice input to the voice input interface is transmitted to the information processing device via the communication interface.
A terminal device that notifies a device different from the information processing device of first information for ignoring only the voice of the user via the communication interface.
前記制御部は、前記通信インターフェイスが通信可能な装置のうち前記情報処理装置以外の装置を前記機器として特定する、請求項23に記載の端末装置。 The terminal device according to claim 23, wherein the control unit specifies a device other than the information processing device among devices capable of communicating with the communication interface as the device. 前記制御部は、前記情報処理装置に対する前記操作情報の送信の終了に応じて、前記機器に、前記ユーザーの音声の無視を終了するための第2の情報を通知する、請求項23または請求項24に記載の端末装置。 23. The control unit notifies the device of the second information for ending the ignoring of the user's voice in response to the end of transmission of the operation information to the information processing device, claim 23 or claim. 24. The terminal device. 1以上のプロセッサーによって実行されることにより、前記1以上のプロセッサーに、
ユーザーの音声の入力を受け付けるステップと、
入力された前記ユーザーの音声に基づく操作情報を情報処理装置へ送信するステップと、
前記情報処理装置とは異なる機器に、前記ユーザーの音声のみを無視するための第1の情報を通知するステップとを実行させる、プログラム。
By being executed by one or more processors, the one or more processors
Steps to accept user voice input and
A step of transmitting operation information based on the input user's voice to the information processing device, and
A program that causes a device different from the information processing device to execute a step of notifying a first information for ignoring only the voice of the user.
JP2019081960A 2019-04-23 2019-04-23 Information processing system, information processing device, terminal device, and program Pending JP2020181016A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019081960A JP2020181016A (en) 2019-04-23 2019-04-23 Information processing system, information processing device, terminal device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019081960A JP2020181016A (en) 2019-04-23 2019-04-23 Information processing system, information processing device, terminal device, and program

Publications (1)

Publication Number Publication Date
JP2020181016A true JP2020181016A (en) 2020-11-05

Family

ID=73023991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019081960A Pending JP2020181016A (en) 2019-04-23 2019-04-23 Information processing system, information processing device, terminal device, and program

Country Status (1)

Country Link
JP (1) JP2020181016A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003223188A (en) * 2002-01-29 2003-08-08 Toshiba Corp Voice input system, voice input method, and voice input program
JP2004004239A (en) * 2002-05-31 2004-01-08 Nec Corp Voice recognition interaction system and program
JP2006023636A (en) * 2004-07-09 2006-01-26 Canon Inc Image forming apparatus
JP2009146263A (en) * 2007-12-17 2009-07-02 Panasonic Corp Personal identification authenticating system
JP2009193480A (en) * 2008-02-18 2009-08-27 Hitachi High-Tech Control Systems Corp Voice management device, system management method, and program
JP2018092122A (en) * 2016-11-30 2018-06-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and apparatus for user authentication
US20180330728A1 (en) * 2017-05-11 2018-11-15 Google Inc. Detecting and suppressing voice queries

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003223188A (en) * 2002-01-29 2003-08-08 Toshiba Corp Voice input system, voice input method, and voice input program
JP2004004239A (en) * 2002-05-31 2004-01-08 Nec Corp Voice recognition interaction system and program
JP2006023636A (en) * 2004-07-09 2006-01-26 Canon Inc Image forming apparatus
JP2009146263A (en) * 2007-12-17 2009-07-02 Panasonic Corp Personal identification authenticating system
JP2009193480A (en) * 2008-02-18 2009-08-27 Hitachi High-Tech Control Systems Corp Voice management device, system management method, and program
JP2018092122A (en) * 2016-11-30 2018-06-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and apparatus for user authentication
US20180330728A1 (en) * 2017-05-11 2018-11-15 Google Inc. Detecting and suppressing voice queries

Similar Documents

Publication Publication Date Title
JP4618317B2 (en) Image forming apparatus
JP4626677B2 (en) Image forming apparatus, image forming method, and image forming program
US8139247B2 (en) Information processing apparatus, system, and method that provide job reservation with a time-out feature
JP2006203858A (en) Image processing apparatus and method for controlling the same
US20100091987A1 (en) Management system including display apparatus and data management apparatus for displaying data on the display apparatus, and data acquisition method
JP2017026661A (en) Command management device and image forming apparatus
JP2013187836A (en) Information processing system, information processing device, and information processing method
JP6439316B2 (en) Image processing apparatus, image processing system, and program
JP2009146101A (en) Image forming apparatus, image forming apparatus terminal and program
US20240045631A1 (en) Printing apparatus and printing system for preventing undesired cancellation of printing
JP3823995B2 (en) Image processing apparatus, control method therefor, and computer program
JP2019180053A (en) Information processing device, control method of information processing device, and program
JP7279603B2 (en) Image reader
JP5298650B2 (en) Image forming apparatus, image forming method, and image forming program
US11853626B2 (en) Printing apparatus, method, and printing system for preventing undesired cancellation of receipt of print job
JP2020181016A (en) Information processing system, information processing device, terminal device, and program
JP2012014292A (en) Information processing system, image forming device, authentication server, and processing method and program for same
JP6860060B2 (en) Program, information processing device, second information processing device, information processing method, information processing system
JP2018182552A (en) Information processing apparatus
JP2022128244A (en) Image forming apparatus, control method, and program
JP4559350B2 (en) Image recording system
US20230308560A1 (en) Image forming apparatus, computer-readable storage medium, and method for accepting input operations from mobile terminal
US11886763B2 (en) Image forming apparatus, computer-readable storage medium, and method for accepting input operations from mobile terminal
US11880624B2 (en) Image forming apparatus, computer-readable storage medium, and method for accepting input operations from mobile terminal
JP2013041554A (en) Print server, print data transmission method, and print data transmission program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230523