JP7131039B2 - Image processing device and image processing system - Google Patents

Image processing device and image processing system Download PDF

Info

Publication number
JP7131039B2
JP7131039B2 JP2018072493A JP2018072493A JP7131039B2 JP 7131039 B2 JP7131039 B2 JP 7131039B2 JP 2018072493 A JP2018072493 A JP 2018072493A JP 2018072493 A JP2018072493 A JP 2018072493A JP 7131039 B2 JP7131039 B2 JP 7131039B2
Authority
JP
Japan
Prior art keywords
information
processing
user
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018072493A
Other languages
Japanese (ja)
Other versions
JP2019186646A (en
Inventor
卓也 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2018072493A priority Critical patent/JP7131039B2/en
Publication of JP2019186646A publication Critical patent/JP2019186646A/en
Application granted granted Critical
Publication of JP7131039B2 publication Critical patent/JP7131039B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Facsimiles In General (AREA)

Description

本発明は、画像処理装置、および画像処理システムに関する。 The present invention relates to image processing apparatuses and image processing systems.

特許文献1には、携帯端末から印刷ジョブを受け付ける受付手段と、印刷ジョブを送信した携帯端末が画像形成装置に到着するまでに要する時間を算出する算出手段と、算出手段によって算出された時間に基づいて、受付手段によって受信された印刷ジョブに基づく印刷の開始タイミングを制御する制御手段と、を有することを特徴とする画像形成装置が開示されている。 Japanese Patent Application Laid-Open No. 2002-200000 describes a reception unit that receives a print job from a mobile terminal, a calculation unit that calculates the time required for the mobile terminal that has sent the print job to arrive at an image forming apparatus, and the time calculated by the calculation unit. and a control means for controlling the start timing of printing based on the print job received by the receiving means.

特許文献2には、ユーザが身に付けて使用する端末装置と、ユーザからの指示に従って画像を出力する出力処理を実行する画像出力装置と、を有する画像処理システムであって、端末装置にユーザから身体的な特徴を取得する取得手段が備えられ、端末装置または画像出力装置に、出力処理が実行される前に取得手段によって取得された身体的な特徴に基づいてユーザを認証する認証処理を実行する認証手段が備えられ、画像出力装置に、認証手段によってユーザが認証された場合に出力処理を実行する出力処理手段が備えられることを特徴とする画像処理システムが開示されている。 Patent Document 2 discloses an image processing system having a terminal device worn by a user and an image output device that executes output processing for outputting an image according to an instruction from the user. acquiring means for acquiring physical characteristics from the terminal device or the image output device, and performing authentication processing for authenticating the user based on the physical characteristics acquired by the acquiring means before the output processing is executed. An image processing system is disclosed in which authentication means for executing is provided, and an image output device is provided with output processing means for executing output processing when a user is authenticated by the authentication means.

特許文献3には、通信部と、印刷部と、通信部を通じて端末装置から受信した印刷データに対する印刷部による印刷が開始待ちとなり、該印刷が開始可能となるまでの時間が所定時間以上であると判断した場合に印刷データを通信部を通じて代替印刷装置に転送する制御部と、を備えることを特徴とする印刷装置が開示されている。 In Patent Document 3, a communication unit, a printing unit, and print data received from a terminal device through the communication unit are awaiting the start of printing by the printing unit. a control unit that transfers print data to an alternative printing device through a communication unit when determining that

特許第5943623号公報Japanese Patent No. 5943623 特許2017-108316号公報Japanese Patent No. 2017-108316 特許2010-125708号公報Japanese Patent No. 2010-125708

本発明は、画像処理装置で実行したい処理情報を指定する場合と比較して、所望の処理をより迅速に実行させることができる画像処理装置および画像処理システムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus and an image processing system capable of executing desired processing more quickly than when specifying processing information to be executed by the image processing apparatus.

上記目的を達成するために、請求項1に記載の画像処理装置は、ユーザからの指示に従って処理情報を生成するユーザ端末から距離が最も近いと判断され、かつ前記ユーザ端末から送信された、ユーザの携行する携帯端末の識別情報が関連付けられた前記処理情報である付加処理情報を保存する保存部と、前記携帯端末から前記識別情報を受信する第1の受信部と、前記第1の受信部で受信された前記識別情報と前記保存部に保存された付加処理情報の識別情報が一致した場合に付加処理情報に含まれる処理情報に対応する処理を実行する実行部と、を含み、前記距離は、前記ユーザの各々の座席の位置によって付与された位置情報を用いて判断されるものである。 In order to achieve the above object, the image processing apparatus according to claim 1 provides an image processing apparatus which is determined to be closest to a user terminal that generates processing information in accordance with an instruction from the user , and which is transmitted from the user terminal . a storage unit for storing additional processing information, which is the processing information associated with the identification information of the mobile terminal carried by the mobile terminal; a first reception unit for receiving the identification information from the mobile terminal; an execution unit that executes processing corresponding to processing information included in the additional processing information when the identification information received in the storage unit matches the identification information of the additional processing information stored in the storage unit ; The distance is determined using positional information given by the seat position of each of the users .

また、請求項2に記載の発明は、請求項1に記載の発明において、前記ユーザの接近を検知する検知部をさらに含み、前記第1の受信部は、前記検知部がユーザの接近を検知した場合に前記携帯端末から前記識別情報を受信するものである。 Further, the invention according to claim 2 is the invention according to claim 1, further comprising a detection unit that detects the approach of the user, and the first reception unit is configured such that the detection unit detects the approach of the user. In this case, the identification information is received from the portable terminal.

また、請求項3に記載の発明は、請求項2に記載の発明において、前記実行部は、前記検知部による前記ユーザの接近が予め定められた期間継続した場合、または前記ユーザから実行の指示があった場合に、前記付加処理情報に含まれる処理情報に対応する処理を実行するものである。 In the invention according to claim 3, in the invention according to claim 2, the execution unit detects when the user's approach by the detection unit continues for a predetermined period of time, or when the user gives an execution instruction. If there is, the processing corresponding to the processing information included in the additional processing information is executed.

また、請求項4に記載の発明は、請求項3に記載の発明において、前記実行部は、予め定められた期間が経過する以前に前記検知部が前記ユーザの離間を検知した場合、前記付加処理情報に含まれる処理を実行しないように制御するものである。 In the invention according to claim 4, in the invention according to claim 3, when the detection unit detects separation of the user before a predetermined period of time elapses, the execution unit detects the separation of the user. It controls not to execute the processing included in the processing information.

また、請求項5に記載の発明は、請求項1から請求項4のいずれか1項に記載の発明において、前記ユーザを認証する認証部をさらに含み、前記実行部は、前記認証部により前記ユーザが認証された場合に前記付加処理情報に含まれる処理情報に対応する処理を実行するものである。 The invention according to claim 5 is the invention according to any one of claims 1 to 4, further comprising an authentication unit for authenticating the user, wherein the execution unit causes the authentication unit to When the user is authenticated, the processing corresponding to the processing information included in the additional processing information is executed.

また、請求項6に記載の発明は、請求項5に記載の発明において、前記実行部は、前記第1の受信部が前記識別情報を受信した場合には前記認証部によるユーザの認証にかかわらず前記付加処理情報に含まれる処理情報に対応する処理を実行するものである。 The invention according to claim 6 is the invention according to claim 5, wherein when the first receiving unit receives the identification information, the execution unit is configured to First, the processing corresponding to the processing information included in the additional processing information is executed.

また、請求項7に記載の発明は、請求項6に記載の発明において、前記ユーザの認証時における前記ユーザと前記画像処理装置との距離よりも、前記識別情報を受信した際の前記ユーザと前記画像処理装置との距離の方が長いものである。 In the invention according to claim 7, in the invention according to claim 6, the distance between the user and the image processing apparatus when the identification information is received is higher than the distance between the user and the image processing apparatus when the user is authenticated. The distance to the image processing device is longer.

また、請求項8に記載の発明は、請求項5から請求項7のいずれか1項に記載の発明において、前記実行部は、前記第1の受信部が前記携帯端末から前記識別情報を受信した場合に、前記第1の受信部で受信された前記識別情報に一致する識別情報の関連付けられた付加処理情報を前記保存部から取得し、前記ユーザの認証が行われた場合に取得された前記付加処理情報に含まれる処理情報に対応する処理を実行するものである。 Further, the invention according to claim 8 is the invention according to any one of claims 5 to 7, wherein the execution unit is configured such that the first reception unit receives the identification information from the portable terminal. additional processing information associated with the identification information that matches the identification information received by the first receiving unit is obtained from the storage unit, and obtained when the user is authenticated. It executes a process corresponding to the process information included in the additional process information.

また、請求項9に記載の発明は、請求項5から請求項7のいずれか1項に記載の発明において、前記処理情報が画像情報に基づいて記録媒体に画像を形成する処理であり、前記実行部は、前記第1の受信部が前記携帯端末から前記識別情報を受信した場合に、前記第1の受信部で受信された前記識別情報に一致する識別情報の関連付けられた付加処理情報を前記保存部から取得するとともに前記画像情報から画像を形成するための前処理を実行して中間データを生成し、前記ユーザの認証が行われた場合に前中間データに基づいて画像形成処理を実行するものである。 The invention according to claim 9 is the invention according to any one of claims 5 to 7, wherein the processing information is processing for forming an image on a recording medium based on image information, and the The executing unit, when the first receiving unit receives the identification information from the mobile terminal, performs additional processing information associated with the identification information that matches the identification information received by the first receiving unit. performing preprocessing for forming an image from the image information obtained from the storage unit to generate intermediate data, and executing image forming processing based on the pre-intermediate data when the user is authenticated; It is something to do.

上記目的を達成するために、請求項10に記載の画像処理システムは、請求項1から請求項9のいずれか1項に記載の画像処理装置と、ユーザが携行するとともに自身の識別情報を送信する送信部を備えた携帯端末と、前記携帯端末からの識別情報を受信する第2の受信部、前記ユーザからの指示に従って処理情報を生成するとともに、前記携帯端末から前記識別情報を受け付けた場合に、前記処理情報に前記識別情報を関連付けて付加処理情報を生成する生成部、および前記付加処理情報を前記画像処理装置に送信する送信部を備えたユーザ端末と、を含むものである。 In order to achieve the above object, an image processing system according to claim 10 includes an image processing apparatus according to any one of claims 1 to 9, and an image processing apparatus according to any one of claims 1 to 9. and a second receiving unit for receiving identification information from the mobile terminal, generating processing information according to instructions from the user, and receiving the identification information from the mobile terminal (2) a user terminal including a generation unit that generates additional processing information by associating the identification information with the processing information, and a transmission unit that transmits the additional processing information to the image processing apparatus.

また、請求項11に記載の発明は、請求項10に記載の発明において、前記画像処理装置がネットワークを介して相互に接続された複数の画像処理装置であり、前記ユーザ端末は、前記ネットワーク上の予め定められた主処理装置に前記付加処理情報を送信するものである。 The invention according to claim 11 is the invention according to claim 10, wherein the image processing device is a plurality of image processing devices interconnected via a network, and the user terminal is connected to the network. The additional processing information is transmitted to a predetermined main processing unit.

また、請求項12に記載の発明は、請求項11に記載の発明において、前記主処理装置が前記複数の画像処理装置の1台であるものである。 According to a twelfth aspect of the invention, in the eleventh aspect of the invention, the main processing device is one of the plurality of image processing devices.

また、請求項13に記載の発明は、請求項11または請求項12に記載の発明において、前記複数の画像処理装置の各々には各々の位置を示す第1の位置情報が対応付けられており、前記ユーザの各々には前記ユーザの各々の位置を示す第2の位置情報が対応付けられており、前記ユーザ端末の送信部は、前記第2の位置情報から最も近い第1の位置情報の前記画像処理装置を前記主処理装置として前記付加処理情報を送信するものである。 According to a thirteenth aspect of the invention, in the eleventh or twelfth aspect of the invention, each of the plurality of image processing devices is associated with first position information indicating each position. , each of the users is associated with second position information indicating the position of each of the users, and the transmission unit of the user terminal transmits the first position information closest to the second position information. The additional processing information is transmitted with the image processing apparatus as the main processing apparatus.

また、請求項14に記載の発明は、請求項11から請求項13のいずれか1項に記載の発明において、前記複数の画像処理装置の各々の前記実行部は、前記保存部に前記第2の受信部で受信された識別情報と一致する識別情報が付加された付加処理情報が存在しない場合に、前記第2の受信部で受信した前記識別情報が付加された付加処理情報を前記主処理装置に送信要求し、受信した付加処理情報に含まれる処理情報に対応する処理を実行するものである。 The invention according to claim 14 is the invention according to any one of claims 11 to 13, wherein the execution unit of each of the plurality of image processing apparatuses stores the second If there is no additional processing information added with identification information that matches the identification information received by the second receiving unit, the additional processing information added with the identification information received by the second receiving unit is processed by the main processing A transmission request is sent to the device, and processing corresponding to the processing information included in the received additional processing information is executed.

また、請求項15に記載の発明は、請求項11から請求項14のいずれか1項に記載の発明において、前記複数の画像処理装置の各々の前記実行部は、前記付加処理情報に含まれる処理情報に対応する処理を実行した場合に前記付加処理情報を実行したことを前記主処理装置に通知し、 前記通知を受け取った他の前記主処理装置は、前記保存部に保存されている処理済みの前記付加処理情報を削除するものである。 The invention according to claim 15 is the invention according to any one of claims 11 to 14, wherein the executing unit of each of the plurality of image processing apparatuses is included in the additional processing information. When the processing corresponding to the processing information is executed, the main processing unit is notified that the additional processing information has been executed, and the other main processing unit receiving the notification executes the processing stored in the storage unit. This deletes the additional processing information that has been completed.

請求項1および請求項10に記載の発明によれば、画像処理装置で実行したいジョブを指定する場合と比較して、所望の処理をより迅速に実行させることができる画像処理装置および画像処理システムが提供される、という効果が得られる。 According to the inventions of claims 1 and 10, the image processing apparatus and image processing system are capable of executing desired processing more quickly than in the case of designating a job to be executed by the image processing apparatus. is provided.

請求項2に記載の発明によれば、検知部を含まない場合と比較して、適切なタイミングで携帯端末から識別情報が受信される、という効果が得られる。 According to the second aspect of the invention, it is possible to obtain the effect that the identification information is received from the mobile terminal at appropriate timing, compared to the case where the detection unit is not included.

請求項3に記載の発明によれば、ユーザの接近を検知してすぐに付加処理情報に含まれる処理情報に対応する処理を実行する場合と比較して、ユーザの通過による誤動作が抑制される、という効果が得られる。 According to the third aspect of the invention, as compared with the case where the processing corresponding to the processing information included in the additional processing information is executed immediately after detecting the approach of the user, malfunction due to the passage of the user is suppressed. , the effect is obtained.

請求項4に記載の発明によれば、ユーザの離間によって付加処理情報に含まれる処理が実行されないように制御する機能を有しない場合と比較して、無駄な待機時間が抑制される、という効果が得られる。 According to the fourth aspect of the present invention, compared to the case where there is no control function to prevent the processing included in the additional processing information from being executed due to the separation of the user, the effect is that wasteful waiting time is suppressed. is obtained.

請求項5に記載の発明によれば、認証部を含まない場合と比較して、セキュリティをより確実にしつつ所望の処理をより迅速に実行させることができる、という効果が得られる。 According to the fifth aspect of the present invention, it is possible to obtain the effect that desired processing can be executed more quickly while ensuring security, as compared with the case where the authentication unit is not included.

請求項6に記載の発明によれば、第1の受信部が識別情報を受信した場合にも認証部によるユーザの認証後に付加処理情報に含まれる処理情報に対応する処理を実行する場合と比較して、所望の処理がより迅速に実行される、という効果が得られる。 According to the sixth aspect of the invention, even when the first receiving unit receives the identification information, the processing corresponding to the processing information included in the additional processing information is executed after the user is authenticated by the authenticating unit. As a result, the desired processing can be executed more quickly.

請求項7に記載の発明によれば、ユーザの認証時におけるユーザと画像処理装置との距離と、識別情報を受信した際のユーザと画像処理装置との距離と、の関係を考慮しない場合と比較して、画像処理装置の通信機能が有効に活用される、という効果が得られる。 According to the seventh aspect of the invention, the relationship between the distance between the user and the image processing apparatus at the time of user authentication and the distance between the user and the image processing apparatus at the time of receiving the identification information is not considered. In comparison, an effect is obtained that the communication function of the image processing apparatus is effectively utilized.

請求項8に記載の発明によれば、ユーザの認証を待ってから付加処理情報の保存部からの取得を開始する場合と比較して、認証後の処理時間がより短縮される、という効果が得られる。 According to the eighth aspect of the invention, there is an effect that the processing time after authentication is further shortened compared to the case where acquisition from the storage unit of additional processing information is started after waiting for user authentication. can get.

請求項9に記載の発明によれば、ユーザの認証を待ってから中間データの生成を開始する場合と比較して、認証後の処理時間がさらに短縮される、という効果が得られる。 According to the ninth aspect of the invention, it is possible to obtain the effect of further shortening the processing time after authentication compared to the case where intermediate data generation is started after waiting for user authentication.

請求項11に記載の発明によれば、ユーザ端末が付加処理情報を送信する装置が予め集約されていない場合と比較して、複数のユーザによる付加処理情報の管理がより簡易に行える、という効果が得られる。 According to the eleventh aspect of the invention, it is possible to more easily manage additional processing information by a plurality of users as compared with the case where the devices to which user terminals transmit additional processing information are not aggregated in advance. is obtained.

請求項12に記載の発明によれば、主処理装置をサーバとする場合と比較して、新たな装置を追加せずに複数のユーザによる付加処理情報の管理が行える、という効果が得られる。 According to the twelfth aspect of the present invention, it is possible to manage additional processing information by a plurality of users without adding a new device, as compared with the case where the main processing device is a server.

請求項13に記載の発明によれば、主処理装置を複数の画像処理装置のうちの1台とする場合と比較して、付加処理情報の転送処理が省略される、という効果が得られる。 According to the thirteenth aspect of the present invention, compared with the case where one of the plurality of image processing apparatuses is used as the main processing apparatus, the effect of omitting the transfer processing of the additional processing information is obtained.

請求項14に記載の発明によれば、保存部に第2の受信部で受信された識別情報と一致する識別情報が付加された付加処理情報が存在しない場合に、主処理装置に送信要求する機能を有しない場合と比較して、ネットワークの機能がより有効に活用される、という効果が得られる。 According to the fourteenth aspect of the present invention, when there is no additional processing information added with identification information that matches the identification information received by the second receiving unit in the storage unit, a transmission request is made to the main processing unit. As compared with the case where the network does not have the function, the effect is obtained that the function of the network is utilized more effectively.

請求項15に記載の発明によれば、付加処理情報に含まれる処理情報に対応する処理を実行した場合に、主処理装置が、保存部に保存されている処理済みの付加処理情報を削除しない場合と比較して、保存部の記憶容量の増加が抑制される、という効果が得られる。 According to the fifteenth aspect of the present invention, when the processing corresponding to the processing information included in the additional processing information is executed, the main processing unit does not delete the processed additional processing information stored in the storage unit. As compared with the case, an effect of suppressing an increase in the storage capacity of the storage unit is obtained.

実施の形態に係る画像処理装置および画像処理システムの構成を示すブロック図である。1 is a block diagram showing configurations of an image processing apparatus and an image processing system according to an embodiment; FIG. 実施の形態に係るユーザ端末における付加処理情報生成処理の流れを示すフローチャートである。9 is a flow chart showing the flow of additional processing information generation processing in the user terminal according to the embodiment; 実施の形態に係る画像処理装置における付加処理情報実行処理の流れを示すフローチャートである。6 is a flow chart showing the flow of additional processing information execution processing in the image processing apparatus according to the embodiment;

以下、図面を参照して、本発明を実施するための形態について詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

[第1の実施の形態]
図1から図3を参照して、本実施の形態に係る画像処理装置、および画像処理システムについて説明する。
[First embodiment]
An image processing apparatus and an image processing system according to the present embodiment will be described with reference to FIGS. 1 to 3. FIG.

図1は、本実施の形態に係る画像処理システム1の構成の一例を示している。図1に示すように、画像処理システム1は、画像処理装置10、ユーザ端末30、および携帯端末50を含んで構成されている。画像処理装置10が本実施の形態に係る画像処理装置である。画像処理装置10およびユーザ端末30は、ネットワーク70を介して相互に接続されている。図1では、ネットワーク70に1台の画像処理装置10とユーザ端末30が接続された形態を示しているが、これに限られず画像処理装置10、ユーザ端末30の各々は複数台であってもよい。また、ネットワーク70の形態は特に限定されないが、本実施の形態では一例として、有線または無線によるLAN(Local Area Network)で構成されている。 FIG. 1 shows an example of the configuration of an image processing system 1 according to this embodiment. As shown in FIG. 1, the image processing system 1 includes an image processing device 10, a user terminal 30, and a portable terminal 50. As shown in FIG. The image processing apparatus 10 is an image processing apparatus according to this embodiment. The image processing device 10 and the user terminal 30 are interconnected via a network 70 . Although FIG. 1 shows a configuration in which one image processing apparatus 10 and user terminal 30 are connected to the network 70, the configuration is not limited to this. good. The form of the network 70 is not particularly limited, but in the present embodiment, as an example, it is configured by a wired or wireless LAN (Local Area Network).

本実施の形態に係る画像処理装置10は、画像形成装置(プリンタ)、プリンタにスキャナ機能、ファクシミリ機能、コピー機能等が集約された複合機等、画像処理機能を備えた装置である。本実施の形態では、画像形成装置を例示して説明する。 The image processing apparatus 10 according to the present embodiment is an apparatus having an image processing function, such as an image forming apparatus (printer) or a multi-function machine in which a scanner function, a facsimile function, a copy function, etc. are integrated into a printer. In this embodiment, an image forming apparatus will be described as an example.

携帯端末50は、ユーザが身に着けて(携行して)使用する端末装置である。携帯端末50の形態として特に限定されないが、例えばウェアラブル端末、スマートフォン、IDカード(IDentification Card)等が挙げられる。本実施の形態に係る携帯端末50は一例としてウェアラブル端末を用いている。携帯端末50は複数のユーザによって異なる携帯端末50を携行することを想定し、複数の携帯端末50の各々は自身を識別する識別情報を含む信号を、常時または間欠的に送信するアンテナ52を備えている。「識別情報」の詳細については後述する。 The mobile terminal 50 is a terminal device worn (carried) by a user. The form of the mobile terminal 50 is not particularly limited, but examples thereof include a wearable terminal, a smart phone, an ID card (IDentification Card), and the like. A wearable terminal is used as an example of mobile terminal 50 according to the present embodiment. It is assumed that a plurality of users carry different mobile terminals 50, and each of the plurality of mobile terminals 50 has an antenna 52 that constantly or intermittently transmits a signal containing identification information for identifying itself. ing. Details of the “identification information” will be described later.

図1に示すように、画像処理装置10は、ジョブ取得部12、ジョブ管理部14、ジョブ受信部16、ジョブ実行部18、携帯端末通信部20、および携帯端末接近検知部22を備えている。 As shown in FIG. 1, the image processing apparatus 10 includes a job acquisition section 12, a job management section 14, a job reception section 16, a job execution section 18, a mobile terminal communication section 20, and a mobile terminal proximity detection section 22. .

携帯端末通信部20は、アンテナ24を備え、主として携帯端末50から送信された上記識別情報を受信する。携帯端末50との通信は一例として近距離無線通信方式を用いて行われる。本実施の形態で用いる近距離無線通信方式としては、例えばNFC(Near Field Communication)、Bluetooth(登録商標)等が挙げられる。 The mobile terminal communication unit 20 has an antenna 24 and mainly receives the identification information transmitted from the mobile terminal 50 . Communication with the mobile terminal 50 is performed using a short-range wireless communication system, for example. Examples of short-range wireless communication systems used in this embodiment include NFC (Near Field Communication), Bluetooth (registered trademark), and the like.

携帯端末接近検知部22は、携帯端末50を携行するユーザの接近を、携帯端末通信部20における携帯端末50との通信によって検知する部位である。接近の検知は、例えば携帯端末通信部20で受信する携帯端末50からの受信電波の強度を用いて、あるいは携帯端末通信部20、携帯端末50の各々が搭載するGPS(Global Positining System)信号を用いて行われる。本実施の形態では、一例として携帯端末通信部20で受信する携帯端末50からの受信電波の強度を用いてユーザの接近を検知している。携帯端末接近検知部22は、ユーザの接近を検知した場合その旨ジョブ取得部12に通知する。 The mobile terminal proximity detection unit 22 is a part that detects the approach of the user carrying the mobile terminal 50 by communicating with the mobile terminal 50 in the mobile terminal communication unit 20 . Approach detection is performed, for example, by using the intensity of the radio wave received from the mobile terminal 50 and received by the mobile terminal communication unit 20, or by using a GPS (Global Positioning System) signal installed in each of the mobile terminal communication unit 20 and the mobile terminal 50. performed using In this embodiment, as an example, the strength of the radio wave received from the mobile terminal 50 received by the mobile terminal communication unit 20 is used to detect the approach of the user. When the mobile terminal proximity detection unit 22 detects that the user is approaching, the mobile terminal proximity detection unit 22 notifies the job acquisition unit 12 to that effect.

ジョブ受信部16は、ネットワーク70を介してユーザ端末30から送信された付加処理情報を受信する。本実施の形態に係る付加処理情報は、後述するように、画像処理装置10によって処理すべき情報に識別情報を関連付けた情報である。以下、該付加処理情報を「ジョブ」という場合がある。本実施の形態における「ジョブ」とは、画像処理装置10で実行される処理の単位をいう。本実施の形態では、画像処理装置10におけるジョブの一例として、画像形成処理(印刷、プリント)を例示して説明する。 The job receiving section 16 receives additional processing information transmitted from the user terminal 30 via the network 70 . The additional processing information according to the present embodiment is information in which identification information is associated with information to be processed by the image processing apparatus 10, as will be described later. Hereinafter, the additional processing information may be referred to as a "job". A “job” in the present embodiment refers to a unit of processing executed by the image processing apparatus 10 . In the present embodiment, as an example of a job in the image processing apparatus 10, an image forming process (printing) will be described.

ジョブ管理部14は、ユーザ端末30から送信されたジョブ等を記憶する記憶部であり、一例としてHDD(Hard Disk Drive)、RAM(Random Access Memory)等によって構成される。むろん、ジョブ管理部14はユーザ端末30から送信されたジョブ以外の画像処理情報、例えばスキャナで読み取られた画像情報を記憶する場合もある。なお、ジョブ管理部14が本発明に係る「保存部」に相当する。 The job management unit 14 is a storage unit that stores jobs and the like transmitted from the user terminal 30, and includes, for example, a HDD (Hard Disk Drive), a RAM (Random Access Memory), and the like. Of course, the job management unit 14 may also store image processing information other than jobs transmitted from the user terminal 30, such as image information read by a scanner. Note that the job management unit 14 corresponds to the "storage unit" according to the present invention.

ジョブ取得部12は、携帯端末接近検知部22からユーザの接近の通知を受け取ると、携帯端末50から受信した識別情報を用いて、接近したユーザがネットワーク70を介して画像処理装置10に送信したジョブをジョブ管理部14から抽出し、取得する。 When the job acquisition unit 12 receives the notification of the user's approach from the portable terminal proximity detection unit 22 , the job acquisition unit 12 uses the identification information received from the portable terminal 50 to transmit the identification information that the approaching user has sent to the image processing apparatus 10 via the network 70 . A job is extracted and acquired from the job management unit 14 .

ジョブ実行部18は、ジョブ取得部12によって取得されたジョブを実行する。ジョブ実行部18は、ユーザの接近後直ちにジョブを実行する場合以外に、予め定められた条件が充足された場合(例えば、後述のユーザの認証が行われた場合)に、ジョブ取得部12によって取得されたジョブを実行する場合もある。 The job executing section 18 executes the job acquired by the job acquiring section 12 . The job execution unit 18 executes the job immediately after the user approaches, and when a predetermined condition is satisfied (for example, when the user is authenticated, which will be described later), the job acquisition unit 12 It may also execute the acquired job.

ユーザ端末30は、ユーザが画像処理装置10において実行させるジョブを生成する。ユーザ端末30の形態は特に限定されないが、一例としてPC(Personal Computer)、PDA(Personal Digital Assistant)、タブレット端末等が挙げられる。本実施の形態では、ユーザ端末30を一例としてPCとしている。ユーザ端末30は、例えば複数のユーザの各々に対応して複数とされる場合もある。図1に示すように、ユーザ端末30は、ユーザ操作部32、ジョブ生成部34、ジョブ送信部36、およびアンテナ40が接続された携帯端末通信部38を備えている。 The user terminal 30 generates a job that the user causes the image processing apparatus 10 to execute. Although the form of the user terminal 30 is not particularly limited, examples thereof include a PC (Personal Computer), a PDA (Personal Digital Assistant), a tablet terminal, and the like. In this embodiment, the user terminal 30 is a PC as an example. For example, there may be a plurality of user terminals 30 corresponding to each of a plurality of users. As shown in FIG. 1, the user terminal 30 includes a user operation unit 32, a job generation unit 34, a job transmission unit 36, and a portable terminal communication unit 38 to which an antenna 40 is connected.

携帯端末通信部38はユーザの携行する携帯端末50と通信し、主として識別情報を受信する。携帯端末50との通信は一例として近距離無線通信方式を用いて行われる。本実施の形態で用いる近距離無線通信方式としては、例えばNFC、Bluetooth(登録商標)等が挙げられる。 The mobile terminal communication unit 38 communicates with the mobile terminal 50 carried by the user and mainly receives identification information. Communication with the mobile terminal 50 is performed using a short-range wireless communication system, for example. Examples of short-range wireless communication systems used in this embodiment include NFC, Bluetooth (registered trademark), and the like.

ユーザ操作部32は例えば液晶画面、キーボード等を含んで構成され、ユーザがジョブを生成する際のインタフェースとして用いられる。 The user operation unit 32 includes, for example, a liquid crystal screen, a keyboard, etc., and is used as an interface when a user creates a job.

ジョブ生成部34は、ユーザがユーザ操作部32を操作して入力した指示に基づいて処理情報を作成する。また、携帯端末通信部38から識別情報を取得する。ジョブ生成部34は処理情報の作成に際し、作成された処理情報に識別情報を関連付けて付加処理情報(ジョブ)を生成する。 The job generation unit 34 creates processing information based on instructions input by the user by operating the user operation unit 32 . Also, the identification information is acquired from the mobile terminal communication unit 38 . When creating the processing information, the job generation unit 34 associates the created processing information with the identification information to generate additional processing information (job).

ジョブ送信部36は、ジョブ生成部34で生成されたジョブを、ネットワーク70を介して画像処理装置10に送信する。 The job transmission section 36 transmits the job generated by the job generation section 34 to the image processing apparatus 10 via the network 70 .

ここで、従来、画像処理装置で処理を実行させる場合、特定の画像処理装置にジョブを送り、その画像処理装置のUI(User Interface)部等を介して指示を与え実行させるのが一般的であった。また、ジョブをサーバに送り、ユーザが該サーバに接続された特定の画像処理装置に出向いて認証を行った後、実行を指示する形態もあった。しかしながら、ユーザは所望の画像処理装置まで出向き、実行の指示あるいは認証を行った後実行の指示を行う必要があり、余計な時間がかかってユーザにとって不便であった。そこで、本実施の形態では、ユーザがジョブを実行させたい画像処理装置に接近するだけでジョブが実行されるように構成した。このことにより、認証後に実行対象のジョブを指定する場合と比較して、所望の処理をより迅速に実行させることができる画像処理装置および画像処理システムが提供される。 Here, conventionally, when an image processing apparatus executes a process, it is common to send a job to a specific image processing apparatus and give an instruction via a UI (User Interface) or the like of the image processing apparatus to execute the job. there were. In another mode, a job is sent to a server, and the user goes to a specific image processing apparatus connected to the server and authenticates the job, and then instructs the job to be executed. However, the user is required to go to the desired image processing apparatus and issue an instruction for execution or to issue an instruction for execution after performing authentication, which takes extra time and is inconvenient for the user. Therefore, in the present embodiment, the job is executed only by the user approaching the image processing apparatus that the user desires to execute the job. As a result, an image processing apparatus and an image processing system are provided that allow desired processing to be executed more quickly than when a job to be executed is designated after authentication.

図2を参照して、本実施の形態に係るユーザ端末30において実行される付加処理情報生成処理について説明する。図2は、本付加処理情報生成処理の流れを示すフローチャートである。本付加処理情報生成処理プログラムは、例えばユーザ端末30の図示しないROM(Read Only Memory)等の記憶部に記憶され、CPU(Central Processing Unit)がRAM等に展開して実行する。図2に示す付加処理情報生成処理では、ユーザがユーザ端末30を用いて画像処理装置10において実行されるプリントジョブの入力を開始したものとしている。 With reference to FIG. 2, additional processing information generation processing executed in user terminal 30 according to the present embodiment will be described. FIG. 2 is a flow chart showing the flow of this additional processing information generation processing. This additional processing information generation processing program is stored in a storage unit such as a ROM (Read Only Memory) (not shown) of the user terminal 30, and is expanded in a RAM or the like by a CPU (Central Processing Unit) and executed. In the additional processing information generating process shown in FIG. 2, it is assumed that the user has started inputting a print job to be executed in the image processing apparatus 10 using the user terminal 30 .

ステップS100では、携帯端末50(ユーザ)を識別する情報である「識別情報」を取得するように携帯端末通信部38を制御する。本実施の形態に係る識別情報は、携帯端末50を識別可能な情報であれば特に限定されないが、本実施の形態では携帯端末50のシリアル番号としている。シリアル番号とは、例えば当該携帯端末50の製造番号等である。識別情報を取得するタイミングは、例えばユーザ端末30の携帯端末通信部38と携帯端末50との通信が確立されたタイミングである。 In step S100, the mobile terminal communication unit 38 is controlled to acquire "identification information" that is information for identifying the mobile terminal 50 (user). The identification information according to the present embodiment is not particularly limited as long as it is information that can identify the mobile terminal 50 , but in the present embodiment, the serial number of the mobile terminal 50 is used. The serial number is, for example, the manufacturing number of the mobile terminal 50 . The timing of acquiring the identification information is, for example, the timing when communication between the mobile terminal communication unit 38 of the user terminal 30 and the mobile terminal 50 is established.

ステップS102では、ステップS100で取得した識別情報を画像処理装置10で実行させるプリント処理情報に付加して、付加処理情報(ジョブ)生成するようにジョブ生成部34を制御する。具体的には、プリント処理用に生成されるPDL(Page Description Language)データに識別情報を埋め込む。処理情報に識別情報を付加するタイミングは、例えばユーザが処理情報作成の入力を開始したタイミング、あるいは処理情報の作成が完了したタイミングとする。なお、本実施の形態では画像処理装置10で実行される処理情報に識別情報を直接付加する形態を例示して説明するが、これに限られず、処理情報と識別情報とを関連付けて図示しないユーザ端末30のHDD等の記憶部に記憶させてもよい。 In step S102, the job generation unit 34 is controlled to add the identification information acquired in step S100 to print processing information to be executed by the image processing apparatus 10 to generate additional processing information (job). Specifically, identification information is embedded in PDL (Page Description Language) data generated for print processing. The timing at which the identification information is added to the processing information is, for example, the timing at which the user starts inputting to create the processing information, or the timing at which the creation of the processing information is completed. In the present embodiment, a form in which identification information is directly added to processing information executed by the image processing apparatus 10 will be described as an example. However, the present invention is not limited to this. It may be stored in a storage unit such as an HDD of the terminal 30 .

ステップS104では、ステップS102で生成したジョブを画像処理装置10に送信するようにジョブ送信部36を制御する。当該送信は、ジョブの生成の完了とともにジョブ送信部36が自動的に行うようにしてもよいし、ユーザに対する待ち受け画面を図示しないUI等に表示させ、ユーザの指示によって行うようにしてもよい。 In step S<b>104 , the job transmission unit 36 is controlled to transmit the job generated in step S<b>102 to the image processing apparatus 10 . The transmission may be automatically performed by the job transmission unit 36 upon completion of job generation, or may be performed by displaying a standby screen for the user on a UI or the like (not shown) and instructing the user.

次に、図3を参照して、本実施の形態に係る画像処理装置10において実行される付加処理情報実行処理について説明する。図3は、本付加処理情報実行処理の流れを示すフローチャートである。本付加処理情報実行処理プログラムは、例えば画像処理装置10の図示しないROM等の記憶部に記憶され、CPUがRAM等に展開して実行する。図3に示す付加処理情報実行処理では、ユーザがすでにユーザ端末30からネットワーク70を介して画像処理装置10にジョブを送信しているものとする。 Next, with reference to FIG. 3, additional processing information execution processing executed in the image processing apparatus 10 according to the present embodiment will be described. FIG. 3 is a flow chart showing the flow of this additional processing information execution processing. This additional processing information execution processing program is stored in a storage unit such as a ROM (not shown) of the image processing apparatus 10, for example, and is expanded in a RAM or the like by the CPU and executed. In the additional processing information execution processing shown in FIG. 3, it is assumed that the user has already sent a job from the user terminal 30 to the image processing apparatus 10 via the network 70. FIG.

ステップS200では、携帯端末50(ユーザ)が接近するまで待機するように携帯端末接近検知部22を制御する。携帯端末50の接近が検知された場合はステップS202に移行する。 In step S200, the mobile terminal proximity detector 22 is controlled to wait until the mobile terminal 50 (user) approaches. When the approach of the portable terminal 50 is detected, the process proceeds to step S202.

ここで、ユーザの接近の検知は、上述したように、携帯端末通信部20における携帯端末50との通信に基づいて行われる。すなわち、一例として、携帯端末接近検知部22は携帯端末50から送信される送信信号の電波強度を携帯端末通信部20から受け取り、当該電波強度が予め定められた値以上となった場合に接近を検知する。なお、これに限られず、例えば携帯端末50および携帯端末通信部20の各々にGPS機能を備えさせ、携帯端末50のGPS信号と携帯端末通信部20のGPS信号との差分が予め定められた値以下となった場合にユーザの接近を検知するようにしてもよい。 Here, detection of the user's approach is performed based on communication with the mobile terminal 50 in the mobile terminal communication unit 20 as described above. That is, as an example, the mobile terminal proximity detection unit 22 receives from the mobile terminal communication unit 20 the radio wave intensity of the transmission signal transmitted from the mobile terminal 50, and detects the approach when the radio wave intensity exceeds a predetermined value. detect. For example, the mobile terminal 50 and the mobile terminal communication unit 20 are each provided with a GPS function, and the difference between the GPS signal of the mobile terminal 50 and the GPS signal of the mobile terminal communication unit 20 is a predetermined value. The approach of the user may be detected in the following cases.

ステップS202では、接近した携帯端末50から識別情報を取得するように携帯端末通信部20を制御する。 In step S202, the mobile terminal communication unit 20 is controlled so as to acquire identification information from the mobile terminal 50 that has approached.

ステップS204では、ステップS202で取得した識別情報と一致する識別情報が付加されたジョブ(付加処理情報)がジョブ管理部14に存在するか否か判定するようにジョブ取得部12を制御する。当該判定が否定判定となった場合にはステップS200に戻って携帯端末の接近の検知を継続し、肯定判定となった場合にはステップS206に移行する。 In step S204, the job acquisition unit 12 is controlled to determine whether or not the job management unit 14 has a job (additional processing information) to which identification information matching the identification information acquired in step S202 is added. If the determination is negative, the process returns to step S200 to continue detection of the proximity of the portable terminal, and if the determination is positive, the process proceeds to step S206.

ステップS206では、ステップS202で取得した識別情報と一致する識別情報が付加されたジョブ(付加処理情報)をジョブ管理部14から取得するようにジョブ取得部12を制御する。 In step S206, the job acquisition unit 12 is controlled to acquire from the job management unit 14 a job (additional processing information) to which identification information matching the identification information acquired in step S202 is added.

ステップS208では、ユーザの接近状態が予め定められた期間(時間)だけ維持(継続)されたか否か判定する。予め定められた期間が経過する前にユーザの接近が検知されなくなって(解除されて)当該判定が否定判定となった場合には、ステップS200に戻って携帯端末50の接近の検知を継続する。一方、予め定められた期間ユーザの接近の検知が継続して当該判定が肯定判定となった場合には、ステップS210に移行する。 In step S208, it is determined whether or not the user's approach state has been maintained (continued) for a predetermined period (time). If the user's approach is no longer detected (released) before the predetermined period elapses and the determination is negative, the process returns to step S200 to continue detecting the approach of the mobile terminal 50. . On the other hand, when detection of the user's approach continues for a predetermined period and the determination is affirmative, the process proceeds to step S210.

ステップS210では、ジョブ(付加処理情報)に含まれる処理情報に対応する処理であるプリント処理を実行する。その際、画像処理装置10の図示しないUI部等に当該ジョブが実行可能であることを表示し、ユーザからの実行開始の指示を待機するようにしてもよい。 In step S210, print processing, which is processing corresponding to processing information included in the job (additional processing information), is executed. At that time, the fact that the job can be executed may be displayed on the UI unit (not shown) of the image processing apparatus 10, and the execution start instruction from the user may be waited.

ステップS212では、終了指示があったか否か判定し、当該判定が否定判定となった場合にはステップS200に戻って携帯端末の接近の検知を継続する一方、肯定判定となった場合には本付加処理情報実行処理プログラムを終了する。ステップS212における終了指示とは、例えば画像処理装置10の電源がオフにされた場合である。 In step S212, it is determined whether or not there is an instruction to end. End the processing information execution processing program. The end instruction in step S212 is, for example, when the power of the image processing apparatus 10 is turned off.

[第2の実施の形態]
本実施の形態は、ネットワーク70上に複数の画像処理装置10が接続された形態である。同一のネットワーク70上に複数の画像処理装置10が存在する場合、ユーザ端末30は、ジョブ(付加処理情報)をいずれかの画像処理装置10に送信する必要がある。本実施の形態では、このユーザ端末30が最初に送信する画像処理装置10を「主処理装置」という。当然ながら、該主処理装置は、ユーザがユーザ端末30から送信したジョブの実行を意図した画像処理装置10とは必ずしも一致しない。
[Second embodiment]
This embodiment is a form in which a plurality of image processing apparatuses 10 are connected on a network 70 . If a plurality of image processing apparatuses 10 exist on the same network 70 , the user terminal 30 needs to send a job (additional processing information) to any one of the image processing apparatuses 10 . In this embodiment, the image processing device 10 to which the user terminal 30 first transmits is called a "main processing device". Of course, the main processing device does not necessarily match the image processing device 10 intended to execute the job sent from the user terminal 30 by the user.

本実施の形態では、主処理装置を複数の画像処理装置10から選択された1台としている。各ユーザ端末30は、ジョブ(付加処理情報)をまず主処理装置に送信する。従って、主処理装置は各ユーザ端末30からのジョブを記憶するだけの容量を有する記憶部を備えていてもよい。そして、ある画像処理装置10でユーザの接近を検知し、識別情報を取得した場合(図3のステップS200からS202に相当)には、当該画像処理装置10は、まず取得した識別情報と一致する識別情報が関連付けられたジョブが自身のジョブ管理部14に存在するか否か判定する(図3のステップS204に相当)。当該ジョブが存在した場合には、図3のステップS206以降の処理を実行する。 In this embodiment, the main processing device is one selected from the plurality of image processing devices 10 . Each user terminal 30 first transmits a job (additional processing information) to the main processing unit. Therefore, the main processing unit may have a storage unit having a capacity for storing jobs from each user terminal 30 . When a certain image processing apparatus 10 detects the user's approach and acquires identification information (corresponding to steps S200 to S202 in FIG. 3), the image processing apparatus 10 first matches the acquired identification information. It is determined whether or not the job associated with the identification information exists in its own job management section 14 (corresponding to step S204 in FIG. 3). If the job exists, the processes after step S206 in FIG. 3 are executed.

一方、取得した識別情報と一致する識別情報が関連付けられたジョブが自身のジョブ管理部14に存在しない場合には、当該画像処理装置10が取得した識別情報と一致する識別情報が関連付けられたジョブ(付加処理情報)が存在するか否か主処理装置に問い合わせる(図3のステップS204に相当)。主処理装置は、該当するジョブが存在する場合には当該ジョブを画像処理装置10に送信する(図3のステップS206に相当)。ジョブを受信した画像処理装置10は、ユーザの接近が予め定められた期間継続した場合に受信したジョブを実行する(図3のステップS208からS210)。ここで、当該ジョブを実行した画像処理装置10は主処理装置にその旨通知し、当該通知を受け取った主処理装置は、当該ジョブが記憶された記憶部から当該ジョブを削除するようにしてもよい。あるいは、主処理装置は、画像処理装置10に当該ジョブを送信したら直ちに当該ジョブを削除するようにしてもよい。 On the other hand, if a job associated with identification information that matches the acquired identification information does not exist in its own job management unit 14, the job associated with the identification information that matches the identification information acquired by the image processing apparatus 10 Inquires of the main processing unit whether (additional processing information) exists (corresponding to step S204 in FIG. 3). If there is such a job, the main processing apparatus transmits the job to the image processing apparatus 10 (corresponding to step S206 in FIG. 3). The image processing apparatus 10 that has received the job executes the received job when the user's approach continues for a predetermined period (steps S208 to S210 in FIG. 3). Here, the image processing apparatus 10 that has executed the job may notify the main processing apparatus to that effect, and the main processing apparatus that has received the notification may delete the job from the storage section in which the job is stored. good. Alternatively, the main processing device may delete the job immediately after transmitting the job to the image processing device 10 .

なお、本実施の形態では、主処理装置として複数の画像処理装置10のうちの予め定められた1台とする形態を例示して説明したが、これに限られない。例えば主処理装置として専用のサーバをネットワーク70上に配置してもよい。さらに、主処理装置の機能をクラウド上に配置してもよい。 In the present embodiment, a mode in which a predetermined one of the plurality of image processing apparatuses 10 is used as the main processing apparatus has been exemplified and described, but the present invention is not limited to this. For example, a dedicated server may be arranged on the network 70 as a main processing device. Furthermore, the functions of the main processing unit may be arranged on the cloud.

<第2の実施の形態の変形例>
本実施の形態は、主処理装置とする画像処理装置10を予め定めず、ユーザ(携帯端末50)との距離によって主処理装置とする画像処理装置10を決定する形態である。すなわち、複数のユーザの各々にとっての主処理装置はユーザごとに異なる場合がある。また、本実施の形態では、識別情報として位置情報を用いる。
<Modification of Second Embodiment>
In this embodiment, the image processing device 10 to be the main processing device is not determined in advance, but the image processing device 10 to be the main processing device is determined according to the distance from the user (portable terminal 50). That is, the main processing unit for each of a plurality of users may differ from user to user. Also, in the present embodiment, position information is used as identification information.

本実施の形態では、複数のユーザの各々に位置情報が付与されている。ユーザの位置情報とは例えば当該ユーザの座席の位置によって一義的に付与される(本発明に係る「第2の位置情報」に相当)。該第2の位置情報は識別情報の一形態であり、ユーザの携行する携帯端末50に記憶されている。該第2の位置情報は、例えば地図上の座標で示される。そして、ユーザがユーザ端末30を操作してジョブ(付加処理情報)を生成する際にユーザ端末30に読み込まれる(図2ステップS100に相当)。 In this embodiment, location information is assigned to each of a plurality of users. The positional information of the user is uniquely given by, for example, the position of the user's seat (corresponding to "second positional information" according to the present invention). The second location information is a form of identification information, and is stored in the mobile terminal 50 carried by the user. The second position information is indicated by coordinates on a map, for example. Then, it is read into the user terminal 30 when the user operates the user terminal 30 to generate a job (additional processing information) (corresponding to step S100 in FIG. 2).

一方、画像処理装置10にも各々の設置位置に応じて位置情報が一義的に付与されている(本発明に係る「第1の位置情報」に相当)。該第1の位置情報は、例えば地図上の座標で示される。そして、ユーザ端末30はユーザによって生成された第2の位置情報と関連付けられた処理情報であるジョブ(付加処理情報)を複数の画像処理装置10のうちの最も近い画像処理装置10に送信する(図2のステップS104に相当)。最も近い画像処理装置10の判断は、一例として第2の位置情報と第1の位置情報の差分を比較することによって判断する。ジョブを受信した画像処理装置10による処理は図2のフローチャートと同様であり、図2の識別情報を第2の位置情報と読み替えればよい。 On the other hand, the image processing apparatus 10 is also uniquely given position information according to each installation position (corresponding to "first position information" according to the present invention). The first position information is indicated by coordinates on a map, for example. Then, the user terminal 30 transmits a job (additional processing information), which is processing information associated with the second position information generated by the user, to the closest image processing apparatus 10 among the plurality of image processing apparatuses 10 ( (corresponding to step S104 in FIG. 2). Judgment of the closest image processing device 10 is made, for example, by comparing the difference between the second position information and the first position information. The processing by the image processing apparatus 10 that has received the job is the same as the flowchart in FIG. 2, and the identification information in FIG. 2 can be read as the second position information.

[第3の実施の形態]
本実施の形態は、上記実施の形態における識別情報に加えて認証処理を用いる形態である。すなわち、本実施の形態に係る画像処理装置10は図示しないユーザの認証部を備えている。本実施の形態において、該認証部の種別については特に限定されず、指紋、虹彩、IDカード等による従来知られた認証方法を用いている。
[Third embodiment]
This embodiment uses authentication processing in addition to the identification information in the above embodiments. That is, the image processing apparatus 10 according to the present embodiment has a user authentication unit (not shown). In this embodiment, the type of the authentication unit is not particularly limited, and conventionally known authentication methods such as fingerprint, iris, and ID card are used.

本実施の形態に係る画像処理装置10は、上記認証部を用いて以下の態様のいずれかの処理を行う。
<第1の態様>
携帯端末通信部20によって識別情報が取得され、認証部によってユーザが認証された場合にジョブを実行する。この場合は、例えば図3に示すフローチャートのステップS210よりも前に認証処理が行われ、認証された場合にステップS210を処理する、すなわちジョブを実行する。この際、ジョブ実行部18は、携帯端末通信部20が識別情報を受信した場合には、認証部によるユーザの認証にかかわらずジョブを実行するようにしてもよい。また、ユーザの認証時におけるユーザと画像処理装置10との距離よりも、識別情報を受信した場合のユーザと画像処理装置10との距離の方が長くするように構成してもよい。
<第2の態様>
携帯端末通信部20による識別情報の受信と、認証部による認証処理とによって処理を分ける形態である。例えば、識別情報が受信された場合にジョブ管理部14からジョブ(付加処理情報)を取得し、ユーザの認証が行われた場合にジョブを実行するようにしてもよい。この場合は、例えば図3に示すフローチャートのステップS208とS210の間にユーザの認証処理が付加される。また、他の形態として、識別情報が受信された場合にジョブ管理部14からジョブ(付加処理情報)を取得するとともに、ジョブに含まれるプリント処理の対象である画像データを、プリント処理用の中間データまで変換し、ユーザの認証が行われた場合に記録媒体(用紙)に画像を形成するようにしてもよい。なお、本実施の形態に係る「中間データ」とは、ラスタイズ等の画像形成の前処理をいう。
The image processing apparatus 10 according to the present embodiment uses the authentication section to perform any one of the following processes.
<First Aspect>
The job is executed when the identification information is acquired by the mobile terminal communication unit 20 and the user is authenticated by the authentication unit. In this case, for example, authentication processing is performed before step S210 in the flowchart shown in FIG. At this time, when the mobile terminal communication unit 20 receives the identification information, the job execution unit 18 may execute the job regardless of the user authentication by the authentication unit. Further, the distance between the user and the image processing apparatus 10 when receiving the identification information may be set longer than the distance between the user and the image processing apparatus 10 when the user is authenticated.
<Second Aspect>
In this embodiment, processing is divided between reception of identification information by the mobile terminal communication unit 20 and authentication processing by the authentication unit. For example, the job (additional processing information) may be acquired from the job management unit 14 when the identification information is received, and the job may be executed when the user is authenticated. In this case, for example, user authentication processing is added between steps S208 and S210 in the flowchart shown in FIG. As another form, when the identification information is received, the job (additional processing information) is acquired from the job management unit 14, and the image data to be printed included in the job is transferred to the intermediate for print processing. Data may be converted, and an image may be formed on a recording medium (paper) when user authentication is performed. Note that "intermediate data" according to the present embodiment refers to preprocessing such as rasterization before image formation.

なお、上記実施の形態では、ユーザ端末30あるいは主処理装置から、画像処理装置10に送信(転送)されるジョブ(付加処理情報)を、処理情報に識別情報あるいは位置情報を関連付けた情報とする形態を例示して説明したが、これに限られず、ユーザ端末30で処理情報を中間データまで変換し、該中間データに識別情報あるいは位置情報を関連付けた情報をジョブとする形態としてもよい。 In the above embodiment, the job (additional processing information) transmitted (transferred) from the user terminal 30 or the main processing device to the image processing device 10 is information in which identification information or position information is associated with the processing information. Although the form has been exemplified and explained, it is not limited to this, and the user terminal 30 may convert the processing information to intermediate data, and the intermediate data may be associated with the identification information or the position information as a job.

また、画像処理装置10間で中間データの互換性が無い場合、画像処理装置10間で、変換処理のどの段階であれば互換性が保たれているかの情報をやり取りして、現在の処理過程から一番近い処理過程でデータの互換性のある過程を選択して、そこまで処理を進めるあるいは戻してから転送するようにしてもよい。 Further, when there is no compatibility of intermediate data between the image processing apparatuses 10, information is exchanged between the image processing apparatuses 10 at which stage of the conversion process compatibility is maintained, and the current processing process is performed. It is also possible to select a process having data compatibility in the nearest processing process from , advance or return the process to that point, and then transfer the data.

また、画像処理装置10間で中間データの互換性が無い場合、画像処理装置10間で、共通に処理可能なデータフォーマットの情報をやり取りして、その形式に変換してから転送してもよい。 If the intermediate data is not compatible between the image processing apparatuses 10, information on a data format that can be processed in common may be exchanged between the image processing apparatuses 10, converted into that format, and then transferred. .

また、上記実施の形態では、ユーザ端末30あるいは主処理装置から、画像処理装置10に送信(転送)されるジョブ(付加処理情報)を記憶部に記憶させる形態を例示して説明したが、これに限られず一定期間携帯端末50の接近が検出されない場合、画像処理装置10が保持しているジョブ(付加処理情報、中間データの場合も含む)を削除するようにしてもよい。つまり、検出された携帯端末50の識別情報をもつジョブは保持タイマーをリセットして保持し続ける。 In the above embodiment, the job (additional processing information) transmitted (transferred) from the user terminal 30 or the main processing device to the image processing device 10 is stored in the storage unit. However, if the proximity of the mobile terminal 50 is not detected for a certain period of time, jobs (including additional processing information and intermediate data) held by the image processing apparatus 10 may be deleted. In other words, the job having the identification information of the detected portable terminal 50 is kept by resetting the retention timer.

また、携帯端末50(ユーザ)が、ジョブが実行される画像処理装置10のないエリアに一定時間滞留した場合に、ジョブが実行できなくなることをユーザへ通知する機能を画像処理システム1に備えさせてもよい。さらに、ジョブが実行される画像処理装置10のないエリアに一定時間滞留した後に、ジョブが実行される画像処理装置10のあるエリアに移動した場合で、実行すべきジョブがある場合に、実行されるべきジョブがあることをユーザへ通知する機能を画像処理システム1に備えさえてもよい。 Further, the image processing system 1 is provided with a function of notifying the user that the job cannot be executed when the portable terminal 50 (user) stays in an area where the image processing apparatus 10 where the job is executed is absent for a certain period of time. may Further, when the image processing apparatus 10 is moved to an area where the image processing apparatus 10 where the job is to be executed after staying in an area where the image processing apparatus 10 where the job is executed is not located for a certain period of time, if there is a job to be executed, the job is executed. The image processing system 1 may have a function of notifying the user that there is a job to be processed.

また、画像処理装置10が節電状態にあるときに、携帯端末50の接近が検出され始めた場合、まず画像処理システム1内の画像処理装置10との通信手段を節電解除して、携帯端末50の識別情報を付加された処理情報を保持している画像処理システム1内の画像処理装置10があるかを通信結果から判断し、もしあると判断した場合で、さらに携帯端末50の接近が一定時間以上検知された場合、ジョブ(付加処理情報)に含まれる処理情報に対応する処理の内容に合わせて画像処理装置10の各機能のうち利用する部分を節電解除するようにしてもよい。 Also, when the image processing apparatus 10 is in the power saving state and the proximity of the mobile terminal 50 is detected, the communication means with the image processing apparatus 10 in the image processing system 1 is first released from power saving, and the mobile terminal 50 is switched off. is judged from the communication result whether or not there is an image processing apparatus 10 in the image processing system 1 holding processing information to which the identification information of is added. When it is detected for more than the time, power saving may be canceled for the functions of the image processing apparatus 10 that are used according to the content of the processing corresponding to the processing information included in the job (additional processing information).

また、上記の各実施形態に係るユーザ端末30、画像処理装置10によって行われる各処理は、コンピュータに実行させるためのプログラムとして記憶手段に記録して流通させるようにしてもよい。 Further, each process performed by the user terminal 30 and the image processing apparatus 10 according to each of the above embodiments may be recorded in storage means and distributed as a program to be executed by a computer.

1 画像処理システム
10 画像処理装置
12 ジョブ取得部
14 ジョブ管理部
16 ジョブ受信部
18 ジョブ実行部
20 携帯端末通信部
22 携帯端末接近検知部
24 アンテナ
30 ユーザ端末
32 ユーザ操作部
34 ジョブ生成部
36 ジョブ送信部
38 携帯端末通信部
40 アンテナ
50 携帯端末
52 アンテナ
70 ネットワーク
1 image processing system 10 image processing device 12 job acquisition unit 14 job management unit 16 job reception unit 18 job execution unit 20 mobile terminal communication unit 22 mobile terminal proximity detection unit 24 antenna 30 user terminal 32 user operation unit 34 job generation unit 36 job Transmission unit 38 Mobile terminal communication unit 40 Antenna 50 Mobile terminal 52 Antenna 70 Network

Claims (15)

ユーザからの指示に従って処理情報を生成するユーザ端末から距離が最も近いと判断され、かつ前記ユーザ端末から送信された、ユーザの携行する携帯端末の識別情報が関連付けられた前記処理情報である付加処理情報を保存する保存部と、
前記携帯端末から前記識別情報を受信する第1の受信部と、
前記第1の受信部で受信された前記識別情報と前記保存部に保存された付加処理情報の識別情報が一致した場合に付加処理情報に含まれる処理情報に対応する処理を実行する実行部と、を含み、
前記距離は、前記ユーザの各々の座席の位置によって付与された位置情報を用いて判断される
画像処理装置。
Additional processing that is the processing information associated with the identification information of a portable terminal carried by the user, which is determined to be the closest to the user terminal that generates the processing information according to an instruction from the user , and that is transmitted from the user terminal . a storage unit for storing information;
a first receiving unit that receives the identification information from the mobile terminal;
an execution unit that executes processing corresponding to processing information included in additional processing information when the identification information received by the first receiving unit matches the identification information of additional processing information stored in the storage unit; , including
The distance is determined using positional information imparted by the seat position of each of the users.
Image processing device.
前記ユーザの接近を検知する検知部をさらに含み、
前記第1の受信部は、前記検知部がユーザの接近を検知した場合に前記携帯端末から前記識別情報を受信する
請求項1に記載の画像処理装置。
Further comprising a detection unit that detects the approach of the user,
The image processing apparatus according to claim 1, wherein the first receiving section receives the identification information from the portable terminal when the detecting section detects the approach of the user.
前記実行部は、前記検知部による前記ユーザの接近が予め定められた期間継続した場合、または前記ユーザから実行の指示があった場合に、前記付加処理情報に含まれる処理情報に対応する処理を実行する
請求項2に記載の画像処理装置。
The execution unit executes a process corresponding to the processing information included in the additional processing information when the user's approach by the detection unit continues for a predetermined period or when the user instructs execution. The image processing apparatus according to claim 2, wherein:
前記実行部は、予め定められた期間が経過する以前に前記検知部が前記ユーザの離間を検知した場合、前記付加処理情報に含まれる処理を実行しないように制御する
請求項3に記載の画像処理装置。
4. The image according to claim 3, wherein the execution unit controls not to execute the processing included in the additional processing information when the detection unit detects separation of the user before a predetermined period elapses. processing equipment.
前記ユーザを認証する認証部をさらに含み、
前記実行部は、前記認証部により前記ユーザが認証された場合に前記付加処理情報に含まれる処理情報に対応する処理を実行する
請求項1から請求項4のいずれか1項に記載の画像処理装置。
further comprising an authentication unit that authenticates the user;
The image processing according to any one of claims 1 to 4, wherein the execution unit executes processing corresponding to processing information included in the additional processing information when the user is authenticated by the authentication unit. Device.
前記実行部は、前記第1の受信部が前記識別情報を受信した場合には前記認証部によるユーザの認証にかかわらず前記付加処理情報に含まれる処理情報に対応する処理を実行する
請求項5に記載の画像処理装置。
6. When the first receiving unit receives the identification information, the execution unit executes processing corresponding to the processing information included in the additional processing information regardless of user authentication by the authentication unit. The image processing device according to .
前記ユーザの認証時における前記ユーザと前記画像処理装置との距離よりも、前記識別情報を受信した際の前記ユーザと前記画像処理装置との距離の方が長い
請求項6に記載の画像処理装置。
The image processing apparatus according to claim 6, wherein the distance between the user and the image processing apparatus when the identification information is received is longer than the distance between the user and the image processing apparatus when the user is authenticated. .
前記実行部は、前記第1の受信部が前記携帯端末から前記識別情報を受信した場合に、前記第1の受信部で受信された前記識別情報に一致する識別情報の関連付けられた付加処理情報を前記保存部から取得し、前記ユーザの認証が行われた場合に取得された前記付加処理情報に含まれる処理情報に対応する処理を実行する
請求項5から請求項7のいずれか1項に記載の画像処理装置。
The execution unit, when the first reception unit receives the identification information from the mobile terminal, provides additional processing information associated with identification information that matches the identification information received by the first reception unit. from the storage unit, and executes processing corresponding to the processing information included in the additional processing information acquired when the user is authenticated. The described image processing device.
前記処理情報が画像情報に基づいて記録媒体に画像を形成する処理であり、
前記実行部は、前記第1の受信部が前記携帯端末から前記識別情報を受信した場合に、前記第1の受信部で受信された前記識別情報に一致する識別情報の関連付けられた付加処理情報を前記保存部から取得するとともに前記画像情報から画像を形成するための前処理を実行して中間データを生成し、前記ユーザの認証が行われた場合に前中間データに基づいて画像形成処理を実行する
請求項5から請求項7のいずれか1項に記載の画像処理装置。
wherein the processing information is processing for forming an image on a recording medium based on image information;
The execution unit, when the first reception unit receives the identification information from the mobile terminal, provides additional processing information associated with identification information that matches the identification information received by the first reception unit. from the storage unit, performs preprocessing for forming an image from the image information to generate intermediate data, and performs image forming processing based on the pre-intermediate data when the user is authenticated. The image processing apparatus according to any one of claims 5 to 7, wherein:
請求項1から請求項9のいずれか1項に記載の画像処理装置と、
ユーザが携行するとともに自身の識別情報を送信する送信部を備えた携帯端末と、
前記携帯端末からの識別情報を受信する第2の受信部、前記ユーザからの指示に従って処理情報を生成するとともに、前記携帯端末から前記識別情報を受け付けた場合に、前記処理情報に前記識別情報を関連付けて付加処理情報を生成する生成部、および前記付加処理情報を前記画像処理装置に送信する送信部を備えたユーザ端末と、
を含む画像処理システム。
an image processing device according to any one of claims 1 to 9;
a mobile terminal carried by a user and equipped with a transmission unit for transmitting its own identification information;
a second receiving unit that receives the identification information from the mobile terminal, generates processing information according to an instruction from the user, and adds the identification information to the processing information when the identification information is received from the mobile terminal; a user terminal comprising a generating unit that generates additional processing information in association with the image processing apparatus, and a transmitting unit that transmits the additional processing information to the image processing apparatus;
image processing system including
前記画像処理装置がネットワークを介して相互に接続された複数の画像処理装置であり、
前記ユーザ端末は、前記ネットワーク上の予め定められた主処理装置に前記付加処理情報を送信する
請求項10に記載の画像処理システム。
wherein the image processing device is a plurality of image processing devices interconnected via a network;
11. The image processing system according to claim 10, wherein said user terminal transmits said additional processing information to a predetermined main processing device on said network.
前記主処理装置が前記複数の画像処理装置の1台である
請求項11に記載の画像処理システム。
12. The image processing system according to claim 11, wherein said main processing device is one of said plurality of image processing devices.
前記複数の画像処理装置の各々には各々の位置を示す第1の位置情報が対応付けられており、
前記ユーザの各々には前記ユーザの各々の位置を示す第2の位置情報が対応付けられており、
前記ユーザ端末の送信部は、前記第2の位置情報から最も近い第1の位置情報の前記画像処理装置を前記主処理装置として前記付加処理情報を送信する
請求項11または請求項12に記載の画像処理システム。
each of the plurality of image processing devices is associated with first position information indicating each position;
Each of the users is associated with second position information indicating the position of each of the users,
13. The transmitting unit of the user terminal according to claim 11 or 12, wherein the image processing device of the first positional information closest to the second positional information is used as the main processing device to transmit the additional processing information. image processing system.
前記複数の画像処理装置の各々の前記実行部は、前記保存部に前記第2の受信部で受信された識別情報と一致する識別情報が付加された付加処理情報が存在しない場合に、前記第2の受信部で受信した前記識別情報が付加された付加処理情報を前記主処理装置に送信要求し、受信した付加処理情報に含まれる処理情報に対応する処理を実行する
請求項11ら請求項13のいずれか1項に記載の画像処理システム。
The execution unit of each of the plurality of image processing apparatuses, when the storage unit does not contain the additional processing information to which the identification information that matches the identification information received by the second reception unit is added, (11) to (11) to claim (11), requesting transmission of the additional processing information to which the identification information received by the receiving unit (2) is added to the main processing unit, and executing processing corresponding to the processing information included in the received additional processing information. 14. The image processing system according to any one of 13.
前記複数の画像処理装置の各々の前記実行部は、前記付加処理情報に含まれる処理情報に対応する処理を実行した場合に前記付加処理情報を実行したことを前記主処理装置に通知し、
前記通知を受け取った他の前記主処理装置は、前記保存部に保存されている処理済みの前記付加処理情報を削除する
請求項11から請求項14のいずれか1項に記載の画像処理システム。
the execution unit of each of the plurality of image processing devices notifies the main processing device that the additional processing information has been executed when processing corresponding to processing information included in the additional processing information is executed;
15. The image processing system according to any one of claims 11 to 14, wherein the other main processing device that has received the notification deletes the processed additional processing information stored in the storage unit.
JP2018072493A 2018-04-04 2018-04-04 Image processing device and image processing system Active JP7131039B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018072493A JP7131039B2 (en) 2018-04-04 2018-04-04 Image processing device and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018072493A JP7131039B2 (en) 2018-04-04 2018-04-04 Image processing device and image processing system

Publications (2)

Publication Number Publication Date
JP2019186646A JP2019186646A (en) 2019-10-24
JP7131039B2 true JP7131039B2 (en) 2022-09-06

Family

ID=68341576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018072493A Active JP7131039B2 (en) 2018-04-04 2018-04-04 Image processing device and image processing system

Country Status (1)

Country Link
JP (1) JP7131039B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163094A (en) 2000-11-29 2002-06-07 Minolta Co Ltd Printing processing system, printing job transmitter, portable terminal, printer, printing processing method and computer-readable recording medium recording printing processing program
JP2003341190A (en) 2002-05-30 2003-12-03 Fuji Xerox Co Ltd Method and system for controlling imaging operation, imaging operation controller, imaging method, imaging apparatus, program
JP2009217306A (en) 2008-03-07 2009-09-24 Seiko Epson Corp Printing system, printer, server, computer program, and print method
JP2014146203A (en) 2013-01-29 2014-08-14 Brother Ind Ltd Terminal device and computer program
JP2017010525A (en) 2015-06-22 2017-01-12 株式会社リコー Information processing system, information processing apparatus, information processing method, and program
JP2017120654A (en) 2017-03-03 2017-07-06 ブラザー工業株式会社 Terminal device and computer program
JP2017144684A (en) 2016-02-19 2017-08-24 キヤノン株式会社 Printing system, image formation apparatus, control method of printing system, control method and program of image formation apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163094A (en) 2000-11-29 2002-06-07 Minolta Co Ltd Printing processing system, printing job transmitter, portable terminal, printer, printing processing method and computer-readable recording medium recording printing processing program
JP2003341190A (en) 2002-05-30 2003-12-03 Fuji Xerox Co Ltd Method and system for controlling imaging operation, imaging operation controller, imaging method, imaging apparatus, program
JP2009217306A (en) 2008-03-07 2009-09-24 Seiko Epson Corp Printing system, printer, server, computer program, and print method
JP2014146203A (en) 2013-01-29 2014-08-14 Brother Ind Ltd Terminal device and computer program
JP2017010525A (en) 2015-06-22 2017-01-12 株式会社リコー Information processing system, information processing apparatus, information processing method, and program
JP2017144684A (en) 2016-02-19 2017-08-24 キヤノン株式会社 Printing system, image formation apparatus, control method of printing system, control method and program of image formation apparatus
JP2017120654A (en) 2017-03-03 2017-07-06 ブラザー工業株式会社 Terminal device and computer program

Also Published As

Publication number Publication date
JP2019186646A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
JP6650004B2 (en) Communication system, program, and communication method
KR101526151B1 (en) Secure printing system of cloud based and method for processing thereof
JP5991733B2 (en) Network system, information processing apparatus, and communication method
US8958100B2 (en) Image processing apparatus, information processing apparatus, and image processing method for processing a print job transmitted from the information processing apparatus to the image forming apparatus via communication protocol
US8593677B2 (en) Mobile printing system using a device management server
US9542138B2 (en) Printing control apparatus, image forming apparatus, image forming system, and image forming method for performing printing in a direct wireless manner
US9218148B2 (en) Information processing apparatus, storage medium, and control method
CN110321086B (en) Non-transitory computer-readable recording medium and method of controlling information processing apparatus
JP6218456B2 (en) Printing apparatus, communication method, and program
JP5943623B2 (en) Image forming apparatus, control method thereof, and program
JP6256040B2 (en) Information processing program and printer
JP6451053B2 (en) Information processing program, information processing apparatus, and information processing apparatus control method
JP5453371B2 (en) Mobile printing system and portable terminal device program
JP2012038099A (en) Information processor, output method and program
US10162583B2 (en) System and method for printing
JP2017016373A (en) Information processing apparatus, control method, and program
JP6013310B2 (en) Peripheral equipment and data processing program
JP6433141B2 (en) Image forming system and information processing method
JP5337857B2 (en) Mobile printing system, server device, and portable terminal device program
JP6672927B2 (en) Control device, image processing device, information processing control system and program
JP2010000651A (en) Image forming device
JP7131039B2 (en) Image processing device and image processing system
KR20190113577A (en) Printing system, printing method, image forming apparatus and method for controlling the same, and computer program
JP6935666B2 (en) Printing system
JP2016081336A (en) Printing system and printing control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7131039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150