JP2020177278A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2020177278A
JP2020177278A JP2019077121A JP2019077121A JP2020177278A JP 2020177278 A JP2020177278 A JP 2020177278A JP 2019077121 A JP2019077121 A JP 2019077121A JP 2019077121 A JP2019077121 A JP 2019077121A JP 2020177278 A JP2020177278 A JP 2020177278A
Authority
JP
Japan
Prior art keywords
destination
time
image processing
information
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019077121A
Other languages
Japanese (ja)
Other versions
JP7272079B2 (en
Inventor
謙太 中尾
Kenta Nakao
謙太 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019077121A priority Critical patent/JP7272079B2/en
Publication of JP2020177278A publication Critical patent/JP2020177278A/en
Application granted granted Critical
Publication of JP7272079B2 publication Critical patent/JP7272079B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimiles In General (AREA)

Abstract

To provide an image processing device which causes no print waiting time.SOLUTION: An image processing device according to one aspect of a technology of the present disclosure comprises: a print job acquisition unit which acquires a print job instructing print processing based on image data; an execution time output unit which outputs a predicted value of an execution time of the print processing predicted on the basis of the print job; a target time acquisition unit which acquires a target time; a terminal position acquisition unit which acquires position information on an information terminal; a destination position acquisition unit which acquires position information on a destination; an estimated destination arrival time acquisition unit which acquires an estimated destination arrival time when a user of the information terminal arrives at the destination on the basis of the position information on the information terminal and the position information on the destination; and an image processing unit which executes image processing determined on the basis of the target time and the estimated destination arrival time for the image data.SELECTED DRAWING: Figure 5

Description

本願は、画像処理装置、画像処理方法、及びプログラムに関する。 The present application relates to an image processing apparatus, an image processing method, and a program.

画像ファイルを蓄積するクラウドストレージサーバと印刷装置を連携させ、スマートフォン等の情報端末で指定された画像ファイルを印刷装置に印刷させる技術が知られている。 A technique is known in which a cloud storage server that stores image files and a printing device are linked to print an image file specified by an information terminal such as a smartphone on the printing device.

また、情報端末のユーザの移動経路及び移動時間と、印刷装置による印刷時間に基づいて、所望のタイミングで印刷物を出力できる場所に設置された印刷装置を印刷物の出力先として決定し、ユーザが印刷装置の位置に到着後、印刷が完了するまでの印刷待ち時間を短縮する技術が開示されている(例えば、特許文献1参照)。 Further, based on the movement path and movement time of the user of the information terminal and the printing time by the printing device, a printing device installed at a place where the printed matter can be output at a desired timing is determined as the output destination of the printed matter, and the user prints. A technique for shortening the printing waiting time until printing is completed after arriving at the position of the device is disclosed (see, for example, Patent Document 1).

しかしながら、特許文献1の技術では、印刷処理の実行前に、印刷処理の対象となる画像データに対して、解像度変換やファイル圧縮、PostScript変換等の画像処理が実行される場合に、これらの画像処理の実行時間によって、印刷待ち時間が生じる場合があった。 However, in the technique of Patent Document 1, when image processing such as resolution conversion, file compression, and PostScript conversion is executed on the image data to be printed before the printing process is executed, these images Depending on the processing execution time, a printing waiting time may occur.

本発明は、上記の点に鑑みてなされたものであって、印刷待ち時間を生じさせない画像処理装置を提供することを課題とする。 The present invention has been made in view of the above points, and an object of the present invention is to provide an image processing apparatus that does not cause a printing waiting time.

開示の技術の一態様に係る画像処理装置は、画像データに基づく印刷処理を指示する印刷ジョブを取得する印刷ジョブ取得部と、前記印刷ジョブに基づき予測した前記印刷処理の実行時間の予測値を出力する実行時間出力部と、目的時刻を取得する目的時刻取得部と、情報端末の位置情報を取得する端末位置取得部と、目的地の位置情報を取得する目的地位置取得部と、前記情報端末の位置情報と、前記目的地の位置情報と、に基づき、前記情報端末のユーザが前記目的地に到着する目的地到着予定時刻を取得する目的地到着予定時刻取得部と、前記目的時刻と、前記目的地到着予定時刻と、に基づき決定した画像処理を、前記画像データに対して実行する画像処理部と、を有する。 The image processing apparatus according to one aspect of the disclosed technology has a print job acquisition unit that acquires a print job instructing a print process based on image data, and a predicted value of the execution time of the print process predicted based on the print job. The execution time output unit to be output, the target time acquisition unit to acquire the target time, the terminal position acquisition unit to acquire the position information of the information terminal, the destination position acquisition unit to acquire the position information of the destination, and the above information. Based on the location information of the terminal and the location information of the destination, the destination arrival scheduled time acquisition unit for acquiring the destination arrival scheduled time when the user of the information terminal arrives at the destination, and the destination time It has an image processing unit that executes image processing determined based on the estimated arrival time at the destination on the image data.

本発明によれば、印刷待ち時間を生じさせない画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus that does not cause a printing waiting time.

第1の実施形態に係る画像処理装置を備える画像形成システムの構成の一例を説明する図である。It is a figure explaining an example of the structure of the image formation system including the image processing apparatus which concerns on 1st Embodiment. 実施形態に係る画像処理装置のハードウェア構成の一例を説明するブロック図である。It is a block diagram explaining an example of the hardware configuration of the image processing apparatus which concerns on embodiment. スマートフォンのハードウェア構成の一例を説明するブロック図である。It is a block diagram explaining an example of the hardware configuration of a smartphone. 印刷装置のハードウェア構成の一例を説明するブロック図である。It is a block diagram explaining an example of the hardware configuration of a printing apparatus. 第1の実施形態に係る画像処理装置の機能構成の一例を説明するブロック図である。It is a block diagram explaining an example of the functional structure of the image processing apparatus which concerns on 1st Embodiment. 第1の実施形態に係る画像処理装置による処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing by the image processing apparatus which concerns on 1st Embodiment. 第2の実施形態に係る画像処理装置を備える画像形成システムの構成の一例を説明する図である。It is a figure explaining an example of the structure of the image formation system including the image processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る画像処理装置の機能構成の一例を説明するブロック図である。It is a block diagram explaining an example of the functional structure of the image processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る画像処理装置による処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing by the image processing apparatus which concerns on 2nd Embodiment. 第3の実施形態に係る画像処理装置の機能構成の一例を説明するブロック図である。It is a block diagram explaining an example of the functional structure of the image processing apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る画像処理装置による処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing by the image processing apparatus which concerns on 3rd Embodiment. 第4の実施形態に係る画像処理装置の機能構成の一例を説明するブロック図である。It is a block diagram explaining an example of the functional structure of the image processing apparatus which concerns on 4th Embodiment. 第4の実施形態に係る画像処理装置による処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing by the image processing apparatus which concerns on 4th Embodiment. 第5の実施形態に係る画像処理装置の機能構成の一例を説明するブロック図である。It is a block diagram explaining an example of the functional structure of the image processing apparatus which concerns on 5th Embodiment. 第5の実施形態に係る画像処理装置による処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing by the image processing apparatus which concerns on 5th Embodiment.

以下、図面を参照して発明を実施するための形態について説明する。各図面において、同一の構成部分には同一符号を付し、重複した説明を省略する場合がある。 Hereinafter, modes for carrying out the invention will be described with reference to the drawings. In each drawing, the same components may be designated by the same reference numerals and duplicate description may be omitted.

以下では、実施形態に係る画像処理装置を備える画像形成システムを例に説明する。 In the following, an image forming system including the image processing apparatus according to the embodiment will be described as an example.

[第1の実施形態]
<第1の実施形態に係る画像処理装置を備える画像形成システムの構成>
図1は、本実施形態に係る画像処理装置5を備える画像形成システム100の構成の一例を説明する図である。図1に示すように、画像形成システム100は、クラウドストレージサーバ2と、屋内測位システム3と、スマートフォン4と、画像処理装置5と、印刷装置9とを備え、これらは、インターネット等のネットワーク1を介して、相互に通信可能に接続されている。また、無線による通信の手段又は有線による通信の手段をそれぞれが備えている。
[First Embodiment]
<Structure of an image forming system including the image processing apparatus according to the first embodiment>
FIG. 1 is a diagram illustrating an example of a configuration of an image forming system 100 including an image processing device 5 according to the present embodiment. As shown in FIG. 1, the image forming system 100 includes a cloud storage server 2, an indoor positioning system 3, a smartphone 4, an image processing device 5, and a printing device 9, and these include a network 1 such as the Internet. They are connected to each other so that they can communicate with each other. In addition, each has a means of wireless communication or a means of wired communication.

クラウドストレージサーバ2は、画像ファイルを蓄積するクラウドサーバである。クラウドストレージサーバ2は、一般的なOS(Operating System)等が搭載されたコンピュータ等により実現することができる。また、クラウドストレージサーバ2は、送信要求に応じて、蓄積した画像ファイルのうちの所定の画像ファイルを、画像処理装置5に送信する。 The cloud storage server 2 is a cloud server that stores image files. The cloud storage server 2 can be realized by a computer or the like equipped with a general OS (Operating System) or the like. Further, the cloud storage server 2 transmits a predetermined image file among the accumulated image files to the image processing device 5 in response to a transmission request.

屋内測位システム3は、オフィス等の屋内に配置されたビーコン等の専用装置がGPS(Global Positioning System)と互換性のある信号を送受信することで、屋内における計測対象の位置を計測(測位)可能とするIMES(Indoor MEssaging System)である。なお、IMESについては、特開2014−075783号公報や特開2014−057273号公報等に開示された技術を適用できるため、ここでは、詳細な説明を省略する。 The indoor positioning system 3 can measure (position) the position of a measurement target indoors by transmitting and receiving signals compatible with GPS (Global Positioning System) by a dedicated device such as a beacon placed indoors such as an office. IEMS (Indoor MEssaging System). As for IMES, since the techniques disclosed in JP-A-2014-075783 and JP-A-2014-057273 can be applied, detailed description thereof will be omitted here.

情報端末の一例としてのスマートフォン4は、プリンタドライバがインストールされ、スマートフォン4のユーザの指示に応じて、クラウドストレージサーバ2に蓄積された画像ファイルの印刷処理を指示する印刷ジョブを、ネットワーク1を介して画像処理装置5に送信する。 In the smartphone 4 as an example of the information terminal, a printer driver is installed, and a print job instructing the printing process of the image file stored in the cloud storage server 2 according to the instruction of the user of the smartphone 4 is performed via the network 1. Is transmitted to the image processing device 5.

また、スマートフォン4は、スマートフォン4の備えるBluetooth(登録商標)又はマイクを活用して、屋内測位システム3が備えるビーコン等の専用装置が発信する信号を受信し、スマートフォン4の現在位置の座標情報を取得する。そして、取得した座標情報を、ネットワーク1を介して画像処理装置5に送信する。なお、情報端末はスマートフォン4に限定されるものではない。プリンタドライバがインストールされ、また、ビーコン等の専用装置が発信する信号に基づいて現在位置の座標情報を取得する機能を備えるものであれば、携帯電話やノートPC(Personal Computer)等であっても良い。 Further, the smartphone 4 utilizes Bluetooth (registered trademark) or a microphone provided in the smartphone 4 to receive a signal transmitted by a dedicated device such as a beacon provided in the indoor positioning system 3 and obtains coordinate information of the current position of the smartphone 4. get. Then, the acquired coordinate information is transmitted to the image processing device 5 via the network 1. The information terminal is not limited to the smartphone 4. Even if it is a mobile phone, a notebook PC (Personal Computer), etc., as long as the printer driver is installed and it has a function to acquire the coordinate information of the current position based on the signal transmitted by a dedicated device such as a beacon. good.

画像処理装置5は、一般的なOS等が搭載されたコンピュータ等により実現することができる。画像処理装置5は、スマートフォン4から印刷ジョブを取得し、印刷ジョブが指定する画像ファイルの送信をクラウドストレージサーバ2に要求する。そして、クラウドストレージサーバ2から取得した画像ファイルに含まれる画像データに対し、所定の画像処理を実行して、画像処理後の画像データを含む画像ファイルを、印刷装置9に送信する。 The image processing device 5 can be realized by a computer or the like equipped with a general OS or the like. The image processing device 5 acquires a print job from the smartphone 4 and requests the cloud storage server 2 to transmit an image file specified by the print job. Then, a predetermined image process is executed on the image data included in the image file acquired from the cloud storage server 2, and the image file including the image data after the image process is transmitted to the printing device 9.

ここで、画像処理装置5が実行する画像処理機能には、画像データの解像度変換処理、変倍処理、画像ファイルの圧縮処理、又はPostScript変換処理の少なくとも何れか1つが含まれる。 Here, the image processing function executed by the image processing apparatus 5 includes at least one of a resolution conversion process of image data, a scaling process, a compression process of an image file, and a PostScript conversion process.

印刷装置9は、MFP(Multifunction Peripheral/Product/Printer)等の印刷機能を有する装置である。印刷装置9は、画像処理装置5から受信した画像ファイルに含まれる画像処理後の画像データに基づいて、用紙等の記録媒体に画像形成を行う。なお、図1の例では、一例として印刷装置9が一台である例を示しているが、画像形成システム100は、複数台の印刷装置を備えていても良い。 The printing device 9 is a device having a printing function such as an MFP (Multifunction Peripheral / Product / Printer). The printing device 9 forms an image on a recording medium such as paper based on the image data after image processing included in the image file received from the image processing device 5. In the example of FIG. 1, an example in which one printing device 9 is used is shown as an example, but the image forming system 100 may include a plurality of printing devices.

また、印刷装置9は、通信機能を備えた装置であれば、PJ(Projector:プロジェクタ)、IWB(Interactive White Board:相互通信が可能な電子式の黒板機能を有する白板)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、自動車(Connected Car)、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、デジタルカメラ、ウェアラブルPCまたはデスクトップPC等であっても良い。 Further, if the printing device 9 is a device having a communication function, it outputs PJ (Projector: projector), IWB (Interactive White Board: white board having an electronic whiteboard function capable of mutual communication), digital signage, or the like. Devices, HUD (Head Up Display) devices, industrial machines, imaging devices, sound collectors, medical devices, network home appliances, automobiles (Connected Cars), notebook PCs (Personal Computers), mobile phones, smartphones, tablet terminals, game machines, It may be a PDA (Personal Digital Assistant), a digital camera, a wearable PC, a desktop PC, or the like.

さらに、図1に示す画像形成システム100の構成は、一例であって他の構成であっても良い。 Further, the configuration of the image forming system 100 shown in FIG. 1 is an example and may be another configuration.

<実施形態に係る画像処理装置のハードウェア構成>
次に、画像処理装置5のハードウェア構成を説明する。図2は、実施形態に係る画像処理装置5のハードウェア構成の一例を説明するブロック図である。
<Hardware configuration of the image processing device according to the embodiment>
Next, the hardware configuration of the image processing device 5 will be described. FIG. 2 is a block diagram illustrating an example of the hardware configuration of the image processing device 5 according to the embodiment.

画像処理装置5は、コンピュータによって構築されている。図2に示すように、画像処理装置5は、CPU(Central Processing Unit)501と、ROM(Read Only Memory)502と、RAM(Random Access Memory)503と、HD(Hard Disk)504と、HDD(Hard Disk Drive)コントローラ505とを備えている。また、画像処理装置5は、ディスプレイ506と、外部機器接続I/F(Interface)508と、ネットワークI/F509と、データバス510と、キーボード511と、ポインティングデバイス512と、DVD−RW(Digital Versatile Disk Rewritable)ドライブ514と、メディアI/F516と、タイマー517とを備えている。 The image processing device 5 is constructed by a computer. As shown in FIG. 2, the image processing device 5 includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, an HD (Hard Disk) 504, and an HDD ( Hard Disk Drive) Controller 505 and. Further, the image processing device 5 includes a display 506, an external device connection I / F (Interface) 508, a network I / F 509, a data bus 510, a keyboard 511, a pointing device 512, and a DVD-RW (Digital Versatile). It includes a Disk Rewritable) drive 514, a media I / F 516, and a timer 517.

これらのうち、CPU501は、画像処理装置5全体の動作を制御する。ROM502は、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。 Of these, the CPU 501 controls the operation of the entire image processing device 5. The ROM 502 stores a program used for driving the CPU 501 such as an IPL (Initial Program Loader). The RAM 503 is used as a work area of the CPU 501.

HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像等の各種情報を表示する。 The HD504 stores various data such as programs. The HDD controller 505 controls reading or writing of various data to the HD 504 according to the control of the CPU 501. The display 506 displays various information such as a cursor, a menu, a window, characters, or an image.

外部機器接続I/F508は、各種の外部機器を接続するためのインタフェースである。この場合の外部機器は、例えば、印刷装置9やUSB(Universal Serial Bus)メモリ等である。ネットワークI/F509は、ネットワーク1を利用してデータ通信をするためのインタフェースである。データバス510は、図2に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The external device connection I / F 508 is an interface for connecting various external devices. The external device in this case is, for example, a printing device 9 or a USB (Universal Serial Bus) memory. The network I / F 509 is an interface for performing data communication using the network 1. The data bus 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501 shown in FIG.

また、キーボード511は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動等を行う入力手段の一種である。 Further, the keyboard 511 is a kind of input means including a plurality of keys for inputting characters, numerical values, various instructions and the like. The pointing device 512 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like.

DVD−RWドライブ514は、着脱可能な記録媒体の一例としてのDVD−RW513に対する各種データの読み出し又は書き込みを制御する。なお、DVD−RWに限らず、DVD−R等であっても良い。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。 The DVD-RW drive 514 controls reading or writing of various data to the DVD-RW 513 as an example of the removable recording medium. In addition, it is not limited to DVD-RW, and may be DVD-R or the like. The media I / F 516 controls reading or writing (storage) of data to a recording medium 515 such as a flash memory.

タイマー517は、現在時刻の取得や、時間の計測を行うことができる。 The timer 517 can acquire the current time and measure the time.

実施形態に係る画像処理装置5は、図2に示したハードウェア構成、及びCPU501による所定のプログラムの実行により、後述する各種機能を実現することができる。 The image processing device 5 according to the embodiment can realize various functions described later by the hardware configuration shown in FIG. 2 and the execution of a predetermined program by the CPU 501.

また、クラウドストレージサーバ2も同様にコンピュータにより構築される。クラウドストレージサーバ2のハードウェア構成も、図2を参照して説明したものと同様であるため、重複した説明を省略する。 Further, the cloud storage server 2 is also constructed by a computer in the same manner. Since the hardware configuration of the cloud storage server 2 is the same as that described with reference to FIG. 2, duplicate description will be omitted.

<スマートフォンのハードウェア構成>
次に、スマートフォン4のハードウェア構成を説明する。図3は、スマートフォン4のハードウェア構成の一例を説明するブロック図である。
<Smartphone hardware configuration>
Next, the hardware configuration of the smartphone 4 will be described. FIG. 3 is a block diagram illustrating an example of the hardware configuration of the smartphone 4.

図3に示すように、スマートフォン4は、CPU401と、ROM402と、RAM403と、EEPROM404と、CMOSセンサ405と、撮像素子I/F406と、加速度・方位センサ407と、メディアI/F409と、GPS受信部411とを備えている。 As shown in FIG. 3, the smartphone 4 has a CPU 401, a ROM 402, a RAM 403, an EEPROM 404, a CMOS sensor 405, an image sensor I / F 406, an acceleration / orientation sensor 407, a media I / F 409, and GPS reception. It is provided with a unit 411.

これらのうち、CPU401は、スマートフォン4全体の動作を制御する。ROM402は、CPU401やIPL等のCPU401の駆動に用いられるプログラムを記憶する。RAM403は、CPU401のワークエリアとして使用される。 Of these, the CPU 401 controls the operation of the entire smartphone 4. The ROM 402 stores a program used to drive the CPU 401 such as the CPU 401 and IPL. The RAM 403 is used as a work area for the CPU 401.

EEPROM404は、CPU401の制御に従って、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。CMOS(Complementary Metal Oxide Semiconductor)センサ405は、CPU401の制御に従って被写体(主に自画像)を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、CMOSセンサではなく、CCD(Charge Coupled Device)センサ等の撮像手段であってもよい。 The EEPROM 404 reads or writes various data such as a smartphone program under the control of the CPU 401. The CMOS (Complementary Metal Oxide Semiconductor) sensor 405 is a kind of built-in imaging means for acquiring image data by imaging a subject (mainly a self-portrait) under the control of the CPU 401. Instead of a CMOS sensor, an imaging means such as a CCD (Charge Coupled Device) sensor may be used.

撮像素子I/F406は、CMOSセンサ405の駆動を制御する回路である。加速度・方位センサ407は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F409は、フラッシュメモリ等の記録メディア408に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部411は、GPS衛星からGPS信号を受信する。 The image sensor I / F 406 is a circuit that controls the drive of the CMOS sensor 405. The acceleration / orientation sensor 407 is a variety of sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor that detect the geomagnetism. The media I / F 409 controls reading or writing (storage) of data to a recording medium 408 such as a flash memory. The GPS receiving unit 411 receives GPS signals from GPS satellites.

また、スマートフォン4は、遠距離通信回路412と、CMOSセンサ413と、撮像素子I/F414と、マイク415と、スピーカ416と、音入出力I/F417と、ディスプレイ418と、外部機器接続I/F(Interface)419と、近距離通信回路420と、近距離通信回路420のアンテナ420aと、タッチパネル421とを備えている。 Further, the smartphone 4 includes a long-distance communication circuit 412, a CMOS sensor 413, an image sensor I / F 414, a microphone 415, a speaker 416, a sound input / output I / F 417, a display 418, and an external device connection I /. It includes an F (Interface) 419, a short-range communication circuit 420, an antenna 420a of the short-range communication circuit 420, and a touch panel 421.

これらのうち、遠距離通信回路412は、ネットワーク1を介して、他の機器と通信する回路である。CMOSセンサ413は、CPU401の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F414は、CMOSセンサ413の駆動を制御する回路である。 Of these, the telecommunications circuit 412 is a circuit that communicates with other devices via the network 1. The CMOS sensor 413 is a kind of built-in imaging means that images a subject and obtains image data under the control of the CPU 401. The image sensor I / F 414 is a circuit that controls the drive of the CMOS sensor 413.

マイク415は、音を電気信号に変える内蔵型の回路である。スピーカ416は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F417は、CPU401の制御に従ってマイク415及びスピーカ416との間で音信号の入出力を処理する回路である。ディスプレイ418は、被写体の画像や各種アイコン等を表示する液晶や有機EL(Electro Luminescence)などの表示手段の一種である。 The microphone 415 is a built-in circuit that converts sound into an electric signal. The speaker 416 is a built-in circuit that converts an electric signal into physical vibration to produce sounds such as music and voice. The sound input / output I / F 417 is a circuit that processes sound signal input / output between the microphone 415 and the speaker 416 under the control of the CPU 401. The display 418 is a kind of display means such as a liquid crystal or an organic EL (Electro Luminescence) for displaying an image of a subject, various icons, and the like.

外部機器接続I/F419は、各種の外部機器を接続するためのインタフェースである。近距離通信回路420は、NFC(Near Field Communication)やBluetooth等の通信回路である。タッチパネル421は、利用者がディスプレイ418を押下することで、スマートフォン4を操作する入力手段の一種である。 The external device connection I / F419 is an interface for connecting various external devices. The short-range communication circuit 420 is a communication circuit such as NFC (Near Field Communication) or Bluetooth. The touch panel 421 is a kind of input means for operating the smartphone 4 by the user pressing the display 418.

また、スマートフォン4は、バスライン410を備えている。バスライン410は、図3に示されているCPU401等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the smartphone 4 is provided with a bus line 410. The bus line 410 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 401 shown in FIG.

<印刷装置のハードウェア構成>
次に、印刷装置9のハードウェア構成を説明する。図4は、印刷装置9のハードウェア構成の一例を説明するブロック図である。
<Hardware configuration of printing device>
Next, the hardware configuration of the printing apparatus 9 will be described. FIG. 4 is a block diagram illustrating an example of the hardware configuration of the printing apparatus 9.

図4に示すように、印刷装置9は、コントローラ910と、近距離通信回路920と、エンジン制御部930と、操作パネル940と、ネットワークI/F950とを備えている。 As shown in FIG. 4, the printing device 9 includes a controller 910, a short-range communication circuit 920, an engine control unit 930, an operation panel 940, and a network I / F 950.

これらのうち、コントローラ910は、コンピュータの主要部であるCPU901と、システムメモリ(MEM−P)902と、ノースブリッジ(NB)903と、サウスブリッジ(SB)904と、ASIC(Application Specific Integrated Circuit)906と、記憶部であるローカルメモリ(MEM−C)907と、HDDコントローラ908と、記憶部であるHD909とを備え、NB903とASIC906との間をAGP(Accelerated Graphics Port)バス921で接続した構成となっている。 Of these, the controller 910 includes a CPU 901, which is a main part of a computer, a system memory (MEM-P) 902, a north bridge (NB) 903, a south bridge (SB) 904, and an ASIC (Application Specific Integrated Circuit). A configuration including a 906, a local memory (MEM-C) 907 as a storage unit, an HDD controller 908, and an HD 909 as a storage unit, and connecting the NB 903 and the ASIC 906 with an AGP (Accelerated Graphics Port) bus 921. It has become.

これらのうち、CPU901は、印刷装置9の全体制御を行う制御部である。NB903は、CPU901と、MEM−P902、SB904、及びAGPバス921とを接続するためのブリッジであり、MEM−P902に対する読み書きなどを制御するメモリコントローラと、PCI(Peripheral Component Interconnect)マスタ及びAGPターゲットとを備える。 Of these, the CPU 901 is a control unit that controls the entire printing apparatus 9. The NB903 is a bridge for connecting the CPU 901, the MEM-P902, the SB904, and the AGP bus 921, and includes a memory controller that controls reading and writing to the MEM-P902, a PCI (Peripheral Component Interconnect) master, and an AGP target. To be equipped.

MEM−P902は、コントローラ910の各機能を実現させるプログラムやデータの格納用メモリであるROM902aと、プログラムやデータの展開、及びメモリ印刷時の描画用メモリ等として用いるRAM902bとを備える。なお、RAM902bに記憶されているプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 The MEM-P902 includes a ROM 902a that is a memory for storing programs and data that realizes each function of the controller 910, and a RAM 902b that is used as a memory for drawing programs and data and for drawing in memory printing. The program stored in the RAM 902b is configured to be provided by recording a file in an installable format or an executable format on a computer-readable recording medium such as a CD-ROM, CD-R, or DVD. You may.

SB904は、NB903とPCIデバイス、周辺デバイスとを接続するためのブリッジである。ASIC906は、画像処理用のハードウェア要素を有する画像処理用途向けのIC(Integrated Circuit)であり、AGPバス921、PCIバス922、HDD908およびMEM−C907をそれぞれ接続するブリッジの役割を有する。 The SB904 is a bridge for connecting the NB903 to a PCI device and peripheral devices. The ASIC 906 is an IC (Integrated Circuit) for image processing applications having hardware elements for image processing, and has a role of a bridge connecting the AGP bus 921, the PCI bus 922, the HDD 908, and the MEM-C907, respectively.

このASIC906は、PCIターゲットおよびAGPマスタと、ASIC906の中核をなすアービタ(ARB)と、MEM−C907を制御するメモリコントローラと、ハードウェアロジック等により画像データの回転などを行う複数のDMAC(Direct Memory Access Controller)と、スキャナ部931及びプリンタ部932との間でPCIバス922を介したデータ転送を行うPCIユニットとを備える。なお、ASIC906には、USB(Universal Serial Bus)のインタフェースや、IEEE1394(Institute of Electrical and Electronics Engineers 1394)のインタフェースを接続するようにしても良い。 This ASIC906 includes a PCI target and an AGP master, an arbiter (ARB) that forms the core of the ASIC906, a memory controller that controls MEM-C907, and a plurality of DMACs (Direct Memory) that rotate image data by hardware logic or the like. An Access Controller) and a PCI unit that transfers data between the scanner unit 931 and the printer unit 932 via the PCI bus 922. A USB (Universal Serial Bus) interface or an IEEE 1394 (Institute of Electrical and Electronics Engineers 1394) interface may be connected to the ASIC 906.

MEM−C907は、コピー用画像バッファ及び符号バッファとして用いるローカルメモリである。HD909は、画像データの蓄積、印刷時に用いるフォントデータの蓄積、フォームの蓄積を行うためのストレージである。 The MEM-C907 is a local memory used as a copy image buffer and a code buffer. The HD909 is a storage for accumulating image data, accumulating font data used at the time of printing, and accumulating forms.

HD909は、CPU901の制御に従ってHD909に対するデータの読出又は書込を制御する。AGPバス921は、グラフィック処理を高速化するために提案されたグラフィックスアクセラレータカード用のバスインタフェースであり、MEM−P902に高スループットで直接アクセスすることにより、グラフィックスアクセラレータカードを高速にすることができる。 The HD909 controls reading or writing of data to the HD909 according to the control of the CPU 901. The AGP bus 921 is a bus interface for a graphics accelerator card proposed to speed up graphics processing, and the graphics accelerator card can be speeded up by directly accessing the MEM-P902 with high throughput. ..

また、近距離通信回路920には、近距離通信回路920aが備わっている。近距離通信回路920は、NFC、Bluetooth等の通信回路である。 Further, the short-range communication circuit 920 includes a short-range communication circuit 920a. The short-range communication circuit 920 is a communication circuit such as NFC or Bluetooth.

更に、エンジン制御部930は、スキャナ部931及びプリンタ部932によって構成されている。また、操作パネル940は、現在の設定値や選択画面等を表示させ、操作者からの入力を受け付けるタッチパネル等のパネル表示部940a、並びに、濃度の設定条件などの画像形成に関する条件の設定値を受け付けるテンキー及びコピー開始指示を受け付けるスタートキー等からなる操作パネル940bを備えている。コントローラ910は、印刷装置9全体の制御を行い、例えば、描画、通信、操作パネル940からの入力等を制御する。スキャナ部931又はプリンタ部932には、誤差拡散やガンマ変換などの画像処理部分が含まれている。 Further, the engine control unit 930 is composed of a scanner unit 931 and a printer unit 932. Further, the operation panel 940 displays the current setting value, the selection screen, and the like, and displays the panel display unit 940a such as a touch panel that receives the input from the operator, and the setting value of the image formation condition such as the density setting condition. It is provided with an operation panel 940b including a numeric keypad for receiving and a start key for receiving a copy start instruction. The controller 910 controls the entire printing device 9, for example, drawing, communication, input from the operation panel 940, and the like. The scanner unit 931 or the printer unit 932 includes an image processing portion such as error diffusion and gamma conversion.

なお、印刷装置9は、操作パネル940のアプリケーション切り替えキーにより、ドキュメントボックス機能、コピー機能、プリンタ機能、およびファクシミリ機能を順次に切り替えて選択することが可能となる。ドキュメントボックス機能の選択時にはドキュメントボックスモードとなり、コピー機能の選択時にはコピーモードとなり、プリンタ機能の選択時にはプリンタモードとなり、ファクシミリモードの選択時にはファクシミリモードとなる。 The printing device 9 can sequentially switch and select the document box function, the copy function, the printer function, and the facsimile function by the application switching key on the operation panel 940. When the document box function is selected, the document box mode is set, when the copy function is selected, the copy mode is set, when the printer function is selected, the printer mode is set, and when the facsimile mode is selected, the facsimile mode is set.

また、ネットワークI/F950は、ネットワーク1を利用してデータ通信をするためのインタフェースである。近距離通信回路920及びネットワークI/F950は、PCIバス922を介して、ASIC906に電気的に接続されている。 Further, the network I / F950 is an interface for performing data communication using the network 1. The short-range communication circuit 920 and the network I / F 950 are electrically connected to the ASIC 906 via the PCI bus 922.

<第1の実施形態に係る画像処理装置の機能構成>
次に、第1の実施形態に係る画像処理装置5の機能構成を説明する。図5は、画像処理装置5の機能構成の一例を説明するブロック図である。図5に示すように、画像処理装置5は、送受信部201と、印刷ジョブ取得部202と、画像データ取得部203と、実行時間出力部204と、目的時刻取得部205と、端末位置取得部206と、目的地位置取得部207とを備える。また、画像処理装置5は、印刷装置位置格納部208と、目的地到着予定時刻取得部209と、画像処理部210と、画像ファイル送信部211とを備える。
<Functional configuration of the image processing device according to the first embodiment>
Next, the functional configuration of the image processing device 5 according to the first embodiment will be described. FIG. 5 is a block diagram illustrating an example of the functional configuration of the image processing device 5. As shown in FIG. 5, the image processing device 5 includes a transmission / reception unit 201, a print job acquisition unit 202, an image data acquisition unit 203, an execution time output unit 204, a target time acquisition unit 205, and a terminal position acquisition unit. It includes 206 and a destination position acquisition unit 207. Further, the image processing device 5 includes a printing device position storage unit 208, a destination estimated arrival time acquisition unit 209, an image processing unit 210, and an image file transmission unit 211.

これらのうち、印刷ジョブ取得部202、画像データ取得部203、実行時間出力部204、目的時刻取得部205、端末位置取得部206、目的地位置取得部207、画像処理装置5、目的地到着予定時刻取得部209、及び画像処理部210は、図2のCPU501が所定のプログラムを実行すること等により実現される。 Of these, the print job acquisition unit 202, the image data acquisition unit 203, the execution time output unit 204, the target time acquisition unit 205, the terminal position acquisition unit 206, the destination position acquisition unit 207, the image processing device 5, and the destination arrival schedule. The time acquisition unit 209 and the image processing unit 210 are realized by the CPU 501 of FIG. 2 executing a predetermined program or the like.

送受信部201は、図2のネットワークI/F509等により実現され、各種データの送受信を行う。 The transmission / reception unit 201 is realized by the network I / F509 or the like shown in FIG. 2 and transmits / receives various data.

印刷ジョブ取得部202は、画像データに基づく印刷処理を指示する印刷ジョブを、送受信部201を介してスマートフォン4から取得し、印刷ジョブ情報を画像データ取得部203及び実行時間出力部204に出力する。ここで、印刷ジョブは、印刷処理を実行する印刷装置9を特定する識別情報を含んでいる。 The print job acquisition unit 202 acquires a print job instructing print processing based on image data from the smartphone 4 via the transmission / reception unit 201, and outputs print job information to the image data acquisition unit 203 and the execution time output unit 204. .. Here, the print job includes identification information that identifies the printing device 9 that executes the printing process.

画像データ取得部203は、印刷ジョブ取得部202から印刷ジョブ情報を入力し、印刷処理を行う画像データが含まれる画像ファイルの送信要求を、送受信部201を介してクラウドストレージサーバ2に送信する。また、画像データ取得部203は、送信要求に応じた画像ファイルを、送受信部201を介してクラウドストレージサーバ2から受信する。そして、受信した画像ファイルを画像処理部210に出力する。 The image data acquisition unit 203 inputs print job information from the print job acquisition unit 202, and transmits a transmission request of an image file including image data to be printed to the cloud storage server 2 via the transmission / reception unit 201. Further, the image data acquisition unit 203 receives the image file in response to the transmission request from the cloud storage server 2 via the transmission / reception unit 201. Then, the received image file is output to the image processing unit 210.

実行時間出力部204は、印刷ジョブ取得部202から入力した印刷ジョブ情報に基づき、印刷装置9による印刷処理の実行時間tを予測して、目的時刻取得部205に出力する。より具体的には、実行時間出力部204は、印刷ジョブが指示する印刷処理の印刷色や、印刷部数、後処理の有無等と、印刷装置9による用紙等の記録媒体1枚当たりの標準的な印刷処理時間等から、印刷ジョブが指示する印刷処理の実行時間tを予測する。印刷装置9による用紙等の記録媒体1枚当たりの標準的な印刷処理時間は、予め定められ、図2のHD504等に格納されている。実行時間出力部204は、印刷装置9の識別情報に基づき、HD504等を参照して、記録媒体1枚当たりの標準的な印刷処理時間を取得することができる。 Execution time output unit 204, based on the print job information input from the print job obtaining unit 202 predicts the execution time t 1 of the printing process by the printing device 9, and outputs the target time obtaining unit 205. More specifically, the execution time output unit 204 determines the print color of the print process instructed by the print job, the number of copies to be printed, the presence or absence of post-processing, etc., and the standard per recording medium such as paper by the printing device 9. from Do print processing time and the like, the print job is to predict the execution time t 1 of a printing process directs. The standard printing processing time per recording medium such as paper by the printing apparatus 9 is predetermined and stored in HD504 or the like in FIG. The execution time output unit 204 can acquire a standard print processing time per recording medium by referring to HD504 or the like based on the identification information of the printing device 9.

また、印刷ジョブを送信するスマートフォン4のユーザが、印刷装置9の位置に到着した後、IDカード等を用いてユーザの認証動作を行う標準的な時間と、印刷装置9における操作パネル940の印刷開始ボタンを押して印刷を開始させる動作の標準的な時間を予め定めておき、これらの時間を印刷処理の実行時間tに追加しても良い。 In addition, the standard time for the user of the smartphone 4 to send the print job to perform the user authentication operation using the ID card or the like after arriving at the position of the printing device 9 and the printing of the operation panel 940 on the printing device 9 The standard time of the operation of pressing the start button to start printing may be set in advance, and these times may be added to the execution time t 1 of the printing process.

目的時刻取得部205は、目的時刻として、印刷ジョブが指示する印刷処理を印刷装置9が実行した場合における印刷処理の終了予定時刻(印刷終了予定時刻)を取得する。目的時刻取得部205は、図2のタイマー517が取得した現在時刻Tに、実行時間出力部204から入力した印刷処理の実行時間tを加算して、印刷終了予定時刻T+tを取得する。目的時刻取得部205は、取得した印刷終了予定時刻T+tの情報を画像処理部210に出力する。 The target time acquisition unit 205 acquires the scheduled end time (scheduled print end time) of the print process when the printing device 9 executes the print process instructed by the print job as the target time. The target time acquisition unit 205 adds the execution time t 1 of the print process input from the execution time output unit 204 to the current time T 0 acquired by the timer 517 in FIG. 2 to obtain the scheduled print end time T 0 + t 1 . get. The target time acquisition unit 205 outputs the acquired information of the scheduled print end time T 0 + t 1 to the image processing unit 210.

なお、目的時刻取得部205は、タイマー517が取得した現在時刻に代えて、スマートフォン4が印刷ジョブとともに送信した印刷ジョブの送信時刻情報を、送受信部201を介して受信し、これを現在時刻として取得しても良い。また、以下において、タイマー517が取得した現在時刻を用いる場合が他にもあるが、これらの場合でも同様に、タイマー517が取得した現在時刻に代えて、スマートフォン4が印刷ジョブとともに送信した印刷ジョブの送信時刻が現在時刻として取得されても良い。 In addition, the target time acquisition unit 205 receives the transmission time information of the print job transmitted by the smartphone 4 together with the print job via the transmission / reception unit 201 instead of the current time acquired by the timer 517, and uses this as the current time. You may get it. Further, in the following, there are other cases where the current time acquired by the timer 517 is used. Similarly, in these cases, the print job transmitted by the smartphone 4 together with the print job instead of the current time acquired by the timer 517. The transmission time of may be acquired as the current time.

端末位置取得部206は、スマートフォン4が送信したスマートフォン4の現在位置の座標情報を、送受信部201を介して取得し、これを目的地位置取得部207及び目的地到着予定時刻取得部209に出力する。 The terminal position acquisition unit 206 acquires the coordinate information of the current position of the smartphone 4 transmitted by the smartphone 4 via the transmission / reception unit 201, and outputs this to the destination position acquisition unit 207 and the destination arrival estimated time acquisition unit 209. To do.

目的地位置取得部207は、目的地の位置情報として、印刷ジョブが指示する印刷処理を実行する印刷装置9の設置位置の情報を取得する。目的地位置取得部207は、印刷装置9の識別情報に基づき、印刷装置位置格納部208を参照して印刷装置9の設置位置の情報を取得することができる。印刷装置位置格納部208は、図2のHD504等により実現され、印刷装置9が含まれる複数の印刷装置のそれぞれの設置位置情報を格納している。目的地位置取得部207は、取得した印刷装置9の設置位置情報を目的地到着予定時刻取得部209に出力する。 The destination position acquisition unit 207 acquires information on the installation position of the printing device 9 that executes the printing process instructed by the print job as the destination position information. The destination position acquisition unit 207 can acquire information on the installation position of the printing device 9 by referring to the printing device position storage unit 208 based on the identification information of the printing device 9. The printing device position storage unit 208 is realized by the HD504 or the like shown in FIG. 2, and stores the installation position information of each of the plurality of printing devices including the printing device 9. The destination position acquisition unit 207 outputs the acquired installation position information of the printing device 9 to the destination arrival estimated time acquisition unit 209.

目的地到着予定時刻取得部209は、端末位置取得部206から取得したスマートフォン4の位置情報と、目的地位置取得部207から取得した印刷装置9の設置位置情報とに基づき、スマートフォン4のユーザが、目的地である印刷装置9の設置位置に到着する目的地到着予定時刻を取得する。 The destination arrival scheduled time acquisition unit 209 is used by the user of the smartphone 4 based on the position information of the smartphone 4 acquired from the terminal position acquisition unit 206 and the installation position information of the printing device 9 acquired from the destination position acquisition unit 207. , Acquire the estimated arrival time of the destination to arrive at the installation position of the printing device 9 which is the destination.

より詳しくは、目的地到着予定時刻取得部209は、端末位置取得部206から取得したスマートフォン4の位置情報と、目的地位置取得部207から取得した印刷装置9の設置位置情報とから、印刷ジョブ送信時のスマートフォン4の位置から印刷装置9の設置位置までの距離を取得する。そして、この距離を予め定められた標準的な歩行速度で除算して、印刷ジョブ送信時のスマートフォン4の位置から印刷装置9の設置位置までのユーザの移動時間(スマートフォン4の移動時間)tを取得する。目的地到着予定時刻取得部209は、図2のタイマー517が取得した現在時刻Tに、この移動時間tを加算して、目的地到着予定時刻T+tを取得することができる。 More specifically, the destination arrival estimated time acquisition unit 209 uses the position information of the smartphone 4 acquired from the terminal position acquisition unit 206 and the installation position information of the printing device 9 acquired from the destination position acquisition unit 207 to perform a printing job. The distance from the position of the smartphone 4 at the time of transmission to the installation position of the printing device 9 is acquired. Then, this distance is divided by a predetermined standard walking speed, and the user's travel time from the position of the smartphone 4 at the time of transmitting the print job to the installation position of the printing device 9 (smartphone 4 travel time) t 2 To get. The destination arrival estimated time acquisition unit 209 can acquire the destination arrival estimated time T 0 + t 2 by adding the travel time t 2 to the current time T 0 acquired by the timer 517 of FIG.

但し、目的地到着予定時刻取得部209による目的地到着予定時刻T+tの取得方法は、これに限定されるものではない。例えば、他の例として、位置に応じた標準的な移動経路を予め定め、HD504等に予め格納しておく。目的地到着予定時刻取得部209は、HD504等を参照して、印刷ジョブ送信時のスマートフォン4の位置から印刷装置9の設置位置までの標準的な移動経路を取得し、標準的な移動経路に沿った距離を標準的な歩行速度で除算することで、移動時間tを取得しても良い。 However, the method of acquiring the estimated destination arrival time T 0 + t 2 by the destination arrival estimated time acquisition unit 209 is not limited to this. For example, as another example, a standard movement route according to the position is predetermined and stored in HD504 or the like in advance. The destination arrival estimated time acquisition unit 209 acquires a standard movement route from the position of the smartphone 4 at the time of transmitting the print job to the installation position of the printing device 9 by referring to the HD504 or the like, and sets the standard movement route. The travel time t 2 may be obtained by dividing the distance along the line by the standard walking speed.

目的地到着予定時刻取得部209は、取得した目的地到着予定時刻T+tの情報を画像処理部210に出力する。 The destination arrival estimated time acquisition unit 209 outputs the acquired information of the destination arrival estimated time T 0 + t 2 to the image processing unit 210.

画像処理部210は、目的時刻取得部205から入力した印刷終了予定時刻T+tの情報と、目的地到着予定時刻取得部209から入力した目的地到着予定時刻T+tの情報とに基づき、実行する画像処理を決定する。そして、決定した画像処理を、画像データ取得部203から入力した画像ファイルに含まれる画像データに対して実行する。なお、この画像処理には、上述したように、画像データの解像度変換処理、変倍処理、画像ファイルの圧縮処理、又はPostScript変換処理の少なくとも何れか1つが含まれている。 The image processing unit 210 uses the information of the estimated printing end time T 0 + t 1 input from the target time acquisition unit 205 and the information of the estimated destination arrival time T 0 + t 2 input from the destination arrival estimated time acquisition unit 209. Based on this, the image processing to be performed is determined. Then, the determined image processing is executed on the image data included in the image file input from the image data acquisition unit 203. As described above, this image processing includes at least one of a resolution conversion process of image data, a scaling process, a compression process of an image file, and a PostScript conversion process.

より詳しく説明すると、画像処理部210は、判定部220を備える。判定部220は、印刷終了予定時刻T+tと、目的地到着予定時刻T+tを比較して、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻であるか否かを判定する。そして、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻であると判定された場合には、画像処理部210は、印刷ジョブの指示に応じた画質優先の画像処理を実行する。 More specifically, the image processing unit 210 includes a determination unit 220. The determination unit 220 compares the estimated printing end time T 0 + t 1 with the estimated destination arrival time T 0 + t 2, and the estimated printing end time T 0 + t 1 is earlier than the estimated destination arrival time T 0 + t 2. It is determined whether or not it is. When it is determined that the scheduled print end time T 0 + t 1 is earlier than the scheduled destination arrival time T 0 + t 2 , the image processing unit 210 determines that the image quality is prioritized according to the instruction of the print job. Execute the process.

画質優先の画像処理は、一例として、画像ファイルに含まれる画像データの解像度を600dpi(dots per inch)から1200dpiに変換して解像度を上げる解像度変換処理や、JPEG画像の圧縮率を低下させる圧縮処理、或いは非圧縮のTIFF画像にする処理等である。これらの処理により、画質を向上させたり(画像ファイルのサイズを大きくする)、ユーザの好みに応じて文字を大きく印刷されるように記録媒体のサイズを変えたりすることができ、印刷装置9のユーザビリティを向上させることができる。 Image processing that prioritizes image quality is, for example, resolution conversion processing that converts the resolution of image data contained in an image file from 600 dpi (dots per inch) to 1200 dpi to increase the resolution, and compression processing that reduces the compression rate of JPEG images. Or, a process of producing an uncompressed TIFF image. By these processes, the image quality can be improved (the size of the image file is increased), and the size of the recording medium can be changed so that the characters can be printed in a larger size according to the user's preference. Usability can be improved.

一方、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻でないと判定された場合には、画像処理部210は、印刷速度優先の画像処理を実行する。印刷速度優先の画像処理は、一例として、画像ファイルに含まれる画像データの解像度を1200dpiから600dpiに変換して解像度を下げる解像度変換処理や、画像ファイルのサイズを小さくする圧縮処理等である。これらの処理により、印刷装置9が画像処理装置5から画像ファイルを受信(ダウンロード)する時間や印刷処理を実行する時間を短縮し、印刷終了予定時刻T+tを目的地到達予定時刻T+tより早くすることができる。 On the other hand, when it is determined that the scheduled print end time T 0 + t 1 is not earlier than the scheduled destination arrival time T 0 + t 2 , the image processing unit 210 executes image processing giving priority to printing speed. The image processing that gives priority to printing speed is, for example, a resolution conversion process that converts the resolution of the image data included in the image file from 1200 dpi to 600 dpi to reduce the resolution, a compression process that reduces the size of the image file, and the like. By these processes, the time for the printing device 9 to receive (download) the image file from the image processing device 5 and the time for executing the printing process are shortened, and the estimated printing end time T 0 + t 1 is set to the estimated destination arrival time T 0. It can be faster than + t 2 .

画像処理部210は、上述した画像処理後の画像データを含む画像ファイルを、画像ファイル送信部211に出力する。 The image processing unit 210 outputs an image file including the above-mentioned image data after image processing to the image file transmission unit 211.

画像ファイル送信部211は、図2のネットワークI/F509等により実現され、画像処理部210から入力した画像ファイルを印刷装置9に送信する。 The image file transmission unit 211 is realized by the network I / F 509 or the like shown in FIG. 2, and transmits the image file input from the image processing unit 210 to the printing device 9.

なお、上述した例では、印刷ジョブは、印刷処理を実行する印刷装置9を特定する識別情報を含み、目的地位置取得部207は、識別情報に応じた印刷装置9の位置情報を取得する場合を説明したが、これに限定されるものではない。 In the above example, the print job includes identification information that identifies the printing device 9 that executes the printing process, and the destination position acquisition unit 207 acquires the position information of the printing device 9 according to the identification information. However, it is not limited to this.

他の例として、画像形成システム100は、異なる場所に設置された複数の印刷装置を備える。目的地位置取得部207は、端末位置取得部206から入力したスマートフォン4の現在位置の座標情報に基づき、印刷装置位置格納部208を参照して、スマートフォン4の現在位置から最も近い位置にある印刷装置を特定し、その位置情報を目的地到着予定時刻取得部209に出力しても良い。このようにすることで、ユーザは、現在位置から最も近い位置にある印刷装置に、印刷ジョブの指示する印刷処理を実行させることができる。 As another example, the image forming system 100 includes a plurality of printing devices installed at different locations. The destination position acquisition unit 207 refers to the printing device position storage unit 208 based on the coordinate information of the current position of the smartphone 4 input from the terminal position acquisition unit 206, and prints at the position closest to the current position of the smartphone 4. The device may be specified and its position information may be output to the destination arrival scheduled time acquisition unit 209. By doing so, the user can make the printing device closest to the current position execute the printing process instructed by the printing job.

<第1の実施形態に係る画像処理装置による処理>
次に、本実施形態に係る画像処理装置5による処理を説明する。図6は、本実施形態に係る画像処理装置5による処理の一例を示すフローチャートである。
<Processing by the image processing apparatus according to the first embodiment>
Next, the processing by the image processing apparatus 5 according to the present embodiment will be described. FIG. 6 is a flowchart showing an example of processing by the image processing apparatus 5 according to the present embodiment.

先ず、ステップS61において、印刷ジョブ取得部202は、画像データに基づく印刷処理を指示する印刷ジョブを、送受信部201を介してスマートフォン4から取得し、印刷ジョブ情報を画像データ取得部203及び実行時間出力部204に出力する。 First, in step S61, the print job acquisition unit 202 acquires a print job instructing the print process based on the image data from the smartphone 4 via the transmission / reception unit 201, and acquires the print job information from the image data acquisition unit 203 and the execution time. Output to output unit 204.

続いて、ステップS62において、画像データ取得部203は、印刷処理を行う画像データが含まれる画像ファイルの送信要求を、送受信部201を介してクラウドストレージサーバ2に送信する。また、画像データ取得部203は、送信要求に応じた画像ファイルを、送受信部201を介してクラウドストレージサーバ2から受信する。そして、受信した画像ファイルを画像処理部210に出力する。 Subsequently, in step S62, the image data acquisition unit 203 transmits a transmission request for an image file containing the image data to be printed to the cloud storage server 2 via the transmission / reception unit 201. Further, the image data acquisition unit 203 receives the image file in response to the transmission request from the cloud storage server 2 via the transmission / reception unit 201. Then, the received image file is output to the image processing unit 210.

続いて、ステップS63において、実行時間出力部204は、印刷ジョブ情報に基づき、印刷装置9による印刷処理の実行時間tを予測し、目的時刻取得部205に出力する。 Subsequently, in step S63, the execution time output unit 204, based on the print job information to predict the execution time t 1 of the printing process by the printing device 9, and it outputs the target time obtaining unit 205.

続いて、ステップS64において、目的時刻取得部205は、図2のタイマー517が取得した現在時刻に、実行時間出力部204から入力した印刷処理の実行時間tを加算して、印刷終了予定時刻T+tを取得する。目的時刻取得部205は、取得した印刷終了予定時刻T+tの情報を画像処理部210に出力する。 Subsequently, in step S64, the target time acquisition unit 205 adds the execution time t 1 of the print process input from the execution time output unit 204 to the current time acquired by the timer 517 of FIG. 2, and the scheduled print end time. Acquire T 0 + t 1 . The target time acquisition unit 205 outputs the acquired information of the scheduled print end time T 0 + t 1 to the image processing unit 210.

続いて、ステップS65において、端末位置取得部206は、スマートフォン4が送信したスマートフォン4の現在位置の座標情報を、送受信部201を介して取得し、これを目的地位置取得部207及び目的地到着予定時刻取得部209に出力する。 Subsequently, in step S65, the terminal position acquisition unit 206 acquires the coordinate information of the current position of the smartphone 4 transmitted by the smartphone 4 via the transmission / reception unit 201, and obtains this to the destination position acquisition unit 207 and the destination arrival. Output to the scheduled time acquisition unit 209.

続いて、ステップS66において、目的地位置取得部207は、印刷ジョブが指示する印刷処理を実行する印刷装置9の識別情報に基づき、印刷装置位置格納部208を参照して印刷装置9の設置位置の情報を、目的地の位置情報として取得する。そして、目的地位置取得部207は、取得した印刷装置9の設置位置の情報を、目的地到着予定時刻取得部209に出力する。 Subsequently, in step S66, the destination position acquisition unit 207 refers to the printing device position storage unit 208 based on the identification information of the printing device 9 that executes the printing process instructed by the print job, and refers to the installation position of the printing device 9. Information is acquired as the location information of the destination. Then, the destination position acquisition unit 207 outputs the acquired information on the installation position of the printing device 9 to the destination arrival estimated time acquisition unit 209.

続いて、ステップS67において、目的地到着予定時刻取得部209は、端末位置取得部206から取得したスマートフォン4の位置情報と、目的地位置取得部207から取得した印刷装置9の設置位置情報とに基づき、スマートフォン4のユーザが、目的地である印刷装置9の設置位置に到着する目的地到着予定時刻T+tを取得する。目的地到着予定時刻取得部209は、取得した目的地到着予定時刻T+tの情報を画像処理部210に出力する。 Subsequently, in step S67, the destination arrival estimated time acquisition unit 209 obtains the position information of the smartphone 4 acquired from the terminal position acquisition unit 206 and the installation position information of the printing device 9 acquired from the destination position acquisition unit 207. Based on this, the user of the smartphone 4 acquires the estimated time of arrival T 0 + t 2 of the destination arriving at the installation position of the printing device 9 which is the destination. The destination arrival estimated time acquisition unit 209 outputs the acquired information of the destination arrival estimated time T 0 + t 2 to the image processing unit 210.

続いて、ステップS68において、画像処理部210に含まれる判定部220は、目的時刻取得部205から入力した印刷終了予定時刻T+tの情報と、目的地到着予定時刻取得部209から入力した目的地到着予定時刻T+tの情報とを比較して、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻であるか否かを判定する。 Subsequently, in step S68, the determination unit 220 included in the image processing unit 210 input the information of the estimated printing end time T 0 + t 1 input from the target time acquisition unit 205 and the information of the estimated destination arrival time acquisition unit 209. by comparing the destination arrival time T 0 + t 2 information, print the scheduled end time T 0 + t 1 determines whether or not it is earlier than the destination scheduled arrival time T 0 + t 2.

ステップS68で、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻であると判定された場合(ステップS68、Yes)、ステップS69に移行し、画像処理部210は、画質優先の画像処理を実行する。そして、画像処理部210は、画像処理後の画像データを含む画像ファイルを、画像ファイル送信部211に出力する。 If it is determined in step S68 that the scheduled print end time T 0 + t 1 is earlier than the scheduled destination arrival time T 0 + t 2 (step S68, Yes), the process proceeds to step S69, and the image processing unit 210 moves to step S69. , Perform image processing with priority on image quality. Then, the image processing unit 210 outputs an image file including the image data after the image processing to the image file transmission unit 211.

一方、ステップS68で、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻でないと判定された場合(ステップS68、No)、ステップS70に移行し、画像処理部210は、印刷速度優先の画像処理を実行する。そして、画像処理部210は、画像処理後の画像データを含む画像ファイルを、画像ファイル送信部211に出力する。 On the other hand, if it is determined in step S68 that the scheduled print end time T 0 + t 1 is not earlier than the scheduled destination arrival time T 0 + t 2 (step S68, No), the process proceeds to step S70, and the image processing unit 210 Executes image processing that gives priority to printing speed. Then, the image processing unit 210 outputs an image file including the image data after the image processing to the image file transmission unit 211.

続いて、画像ファイル送信部211は、画像処理部210から入力した画像ファイルを、ネットワーク1を介して印刷装置9に送信する。 Subsequently, the image file transmission unit 211 transmits the image file input from the image processing unit 210 to the printing device 9 via the network 1.

このようにして、画像処理装置5は、印刷ジョブに応じ、クラウドストレージサーバ2に蓄積された画像ファイルに含まれる画像データに所定の画像処理を実行し、印刷装置9は、画像処理後の画像データに基づく印刷処理を実行することができる。 In this way, the image processing device 5 executes predetermined image processing on the image data included in the image file stored in the cloud storage server 2 in response to the print job, and the printing device 9 executes the predetermined image processing on the image after the image processing. Printing processing based on data can be executed.

<第1の実施形態に係る画像処理装置の作用効果>
次に、本実施形態に係る画像処理装置5の作用効果について説明する。
<Operational effect of the image processing apparatus according to the first embodiment>
Next, the operation and effect of the image processing device 5 according to the present embodiment will be described.

画像ファイルを蓄積するクラウドストレージサーバと印刷装置を連携させ、スマートフォン等の情報端末で指定された画像ファイルを印刷装置に印刷させる技術が知られている。 A technique is known in which a cloud storage server that stores image files and a printing device are linked to print an image file specified by an information terminal such as a smartphone on the printing device.

また、情報端末のユーザの移動経路及び移動時間と、印刷装置による印刷時間に基づいて、所望のタイミングで印刷物を出力できる場所に設置された印刷装置を印刷物の出力先として決定し、ユーザが印刷装置の位置に到着後、印刷が完了するまでの印刷待ち時間を短縮する技術が開示されている。 Further, based on the movement path and movement time of the user of the information terminal and the printing time by the printing device, a printing device installed at a place where the printed matter can be output at a desired timing is determined as the output destination of the printed matter, and the user prints. A technique for reducing the printing waiting time from the arrival at the position of the device to the completion of printing is disclosed.

しかしながら、これらの従来の技術では、印刷処理の実行前に、印刷処理の対象となる画像データに対して、解像度変換やファイル圧縮、PostScript変換等の画像処理が実行される場合に、これらの画像処理の実行時間によって、印刷待ち時間が生じる場合があった。 However, in these conventional techniques, when image processing such as resolution conversion, file compression, and PostScript conversion is executed on the image data to be printed before the printing process is executed, these images are used. Depending on the processing execution time, a printing waiting time may occur.

本実施形態では、目的地到着予定時刻取得部209は、スマートフォン4の位置情報と、印刷装置9の位置情報とに基づき、スマートフォン4のユーザが印刷装置9の位置に到着する目的地到着予定時刻T+tを取得する。また、目的時刻取得部205は、目的時刻として、印刷ジョブが指示する印刷処理を印刷装置9が実行した場合における印刷終了予定時刻T+tを取得する。 In the present embodiment, the destination arrival estimated time acquisition unit 209 arrives at the destination arrival time when the user of the smartphone 4 arrives at the position of the printing device 9 based on the position information of the smartphone 4 and the position information of the printing device 9. Acquire T 0 + t 2 . Further, the target time acquisition unit 205 acquires the scheduled print end time T 0 + t 1 when the printing device 9 executes the printing process instructed by the print job as the target time.

そして、目的地到着予定時刻T+tと印刷終了予定時刻T+tとを比較する。印刷終了予定時刻T+tが目的地到着予定時刻T+tより早い時刻である場合は、スマートフォン4のユーザが印刷を指示後、印刷装置9の設置位置に到着した時には、指示した印刷は終了しているため、印刷待ち時間が生じることはない。そのため、画像処理部210は、画質優先の画像処理を実行し、これにより、印刷装置9のユーザビリティを向上させることができる。 Then, the estimated time of arrival at the destination T 0 + t 2 and the estimated time of printing end T 0 + t 1 are compared. If the scheduled print end time T 0 + t 1 is earlier than the scheduled arrival time T 0 + t 2 , the user of the smartphone 4 instructs printing, and then when the user arrives at the installation position of the printing device 9, the instructed printing is performed. Is finished, so there is no printing waiting time. Therefore, the image processing unit 210 executes image processing that gives priority to image quality, which can improve the usability of the printing device 9.

一方、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻でない場合、ユーザが印刷装置9の設置位置に到着した時に、指示した印刷はまだ終了しないため、このままでは印刷待ち時間が生じる。そのため、画像処理部210は、印刷終了時刻T+tを早めるために、印刷速度優先の画像処理を実行する。これにより、印刷終了予定時刻T+tを目的地到着予定時刻T+tより早くすることができ、ユーザが印刷装置9の設置位置に到着するまでに印刷処理を終了させることができる。その結果、印刷の待ち時間が生じないようにすることができる。このようにして、印刷待ち時間を生じさせない画像処理装置を提供することができる。 On the other hand, if the scheduled printing end time T 0 + t 1 is not earlier than the scheduled destination arrival time T 0 + t 2 , when the user arrives at the installation position of the printing device 9, the instructed printing is not finished yet, so the printing is not finished as it is. There is a printing wait time. Therefore, the image processing unit 210 executes image processing that gives priority to printing speed in order to advance the printing end time T 0 + t 1 . As a result, the estimated printing end time T 0 + t 1 can be made earlier than the estimated destination arrival time T 0 + t 2 , and the printing process can be completed by the time the user arrives at the installation position of the printing device 9. As a result, it is possible to prevent the waiting time for printing from occurring. In this way, it is possible to provide an image processing apparatus that does not cause a printing waiting time.

[第2の実施形態]
次に、第2の実施形態に係る画像処理装置について説明する。なお、既に説明した実施形態と同一の構成部についての説明を省略する。
[Second Embodiment]
Next, the image processing apparatus according to the second embodiment will be described. The description of the same components as those in the embodiment described above will be omitted.

<第2の実施形態に係る画像処理装置を備える画像形成システムの構成>
図7は、本実施形態に係る画像処理装置5aを備える画像形成システム100aの構成の一例を説明する図である。図7に示すように、画像形成システム100aは、画像処理装置5aと、スケジュール管理サーバ6とを備えている。
<Structure of an image forming system including the image processing device according to the second embodiment>
FIG. 7 is a diagram illustrating an example of the configuration of an image forming system 100a including the image processing device 5a according to the present embodiment. As shown in FIG. 7, the image forming system 100a includes an image processing device 5a and a schedule management server 6.

スケジュール管理サーバ6は、スマートフォン4のユーザのスケジュール情報を管理するクラウドサーバである。スケジュール管理サーバ6は、一般的なOS等が搭載されたコンピュータ等により実現することができ、無線による通信の手段又は有線による通信の手段を備えている。また、スケジュール管理サーバ6は、送信要求に応じ、管理するスケジュール情報のうちの所定のスケジュール情報を、画像処理装置5aに送信する。なお、スケジュール管理サーバ6は、スマートフォン4のユーザ以外のスケジュール情報を管理することもできる。 The schedule management server 6 is a cloud server that manages the schedule information of the user of the smartphone 4. The schedule management server 6 can be realized by a computer or the like equipped with a general OS or the like, and includes a means of wireless communication or a means of wired communication. Further, the schedule management server 6 transmits predetermined schedule information among the schedule information to be managed to the image processing device 5a in response to the transmission request. The schedule management server 6 can also manage schedule information other than the users of the smartphone 4.

スケジュール管理サーバ6は、第1の実施形態で説明した画像処理装置5と同様にコンピュータにより構築されている。スケジュール管理サーバ6のハードウェア構成も、図2を参照して説明したものと同様であるため、ここでは重複した説明を省略する。 The schedule management server 6 is constructed by a computer in the same manner as the image processing device 5 described in the first embodiment. Since the hardware configuration of the schedule management server 6 is the same as that described with reference to FIG. 2, duplicate description will be omitted here.

<第2の実施形態に係る画像処理装置の機能構成>
次に、本実施形態に係る画像処理装置5aの機能構成を説明する。図8は、画像処理装置5aの機能構成の一例を説明するブロック図である。図8に示すように、画像処理装置5aは、実行時間出力部204aと、印刷装置位置取得部212と、目的時刻取得部205aと、目的地位置取得部207aと、目的地到着予定時刻取得部209aと、画像処理部210aとを備える。
<Functional configuration of the image processing device according to the second embodiment>
Next, the functional configuration of the image processing device 5a according to the present embodiment will be described. FIG. 8 is a block diagram illustrating an example of the functional configuration of the image processing device 5a. As shown in FIG. 8, the image processing device 5a includes an execution time output unit 204a, a printing device position acquisition unit 212, a target time acquisition unit 205a, a destination position acquisition unit 207a, and a destination arrival estimated time acquisition unit. It includes 209a and an image processing unit 210a.

実行時間出力部204aは、印刷ジョブ取得部202から入力した印刷ジョブ情報に基づき、印刷装置9による印刷処理の実行時間tを予測し、予測した実行時間tを目的地到着予定時刻取得部209aに出力する。 Execution time output unit 204a, based on the print job information input from the print job obtaining unit 202, the printing apparatus 9 according to predict the execution time t 1 of the printing process, the destination estimated arrival time acquisition unit the execution time t 1 predicted Output to 209a.

目的時刻取得部205aは、目的時刻として、スマートフォン4のユーザが参加する会議の開始時刻Tを取得して画像処理部210aに出力する。目的時刻取得部205aは、スマートフォン4のユーザの識別番号に基づき、送受信部201及びネットワーク1を介してスケジュール管理サーバ6を参照し、スマートフォン4のユーザが出席する会議の開始時刻Tを取得することができる。ここで、スマートフォン4のユーザが参加する会議の開始時刻Tは、「イベントの開始時刻」の一例である。 Target time obtaining unit 205a, a target time, and outputs the acquired start time T 1 of the conference user participates smartphone 4 to the image processing unit 210a. Target time obtaining unit 205a, based on the identification number of the user of the smartphone 4, with reference to the schedule management server 6 via the transceiver 201 and the network 1, the user of the smartphone 4 acquires the start time T 1 of the attending meetings be able to. Here, the start time T 1 of the conference for the user to participate in the smartphone 4 is an example of the "start time of the event."

印刷装置位置取得部212は、印刷ジョブが指示する印刷処理を実行する印刷装置9の設置位置の情報を取得する。印刷装置位置取得部212は、印刷装置9の識別情報に基づき、印刷装置位置格納部208を参照して印刷装置9の設置位置の情報を取得することができる。印刷装置位置取得部212は、取得した印刷装置9の設置位置情報を目的地到着予定時刻取得部209aに出力する。 The printing device position acquisition unit 212 acquires information on the installation position of the printing device 9 that executes the printing process instructed by the print job. The printing device position acquisition unit 212 can acquire information on the installation position of the printing device 9 by referring to the printing device position storage unit 208 based on the identification information of the printing device 9. The printing device position acquisition unit 212 outputs the acquired installation position information of the printing device 9 to the destination arrival estimated time acquisition unit 209a.

目的地位置取得部207aは、目的地の位置情報として、スマートフォン4のユーザが参加する会議の開催場所の情報を取得する。目的地位置取得部207aは、スマートフォン4のユーザの識別番号に基づき、送受信部201及びネットワーク1を介してスケジュール管理サーバ6を参照し、スマートフォン4のユーザが参加する会議の開催場所の情報を取得することができる。ここで、スマートフォン4のユーザが参加する会議の開催場所は、「イベントの開催場所」の一例である。目的地位置取得部207aは、会議の開催場所の情報を目的地到着予定時刻取得部209aに出力する。 The destination position acquisition unit 207a acquires information on the venue of the conference in which the user of the smartphone 4 participates as the location information of the destination. The destination position acquisition unit 207a refers to the schedule management server 6 via the transmission / reception unit 201 and the network 1 based on the identification number of the user of the smartphone 4, and acquires information on the venue of the meeting in which the user of the smartphone 4 participates. can do. Here, the venue of the conference in which the user of the smartphone 4 participates is an example of the “event venue”. The destination position acquisition unit 207a outputs information on the venue of the conference to the destination arrival estimated time acquisition unit 209a.

目的地到着予定時刻取得部209aは、端末位置取得部206から入力したスマートフォン4の位置情報と、目的地位置取得部207aから入力した会議の開催場所情報と、実行時間出力部204aから入力した実行時間tと、印刷装置位置取得部212から入力した印刷装置9の設置位置情報と、に基づき、目的地である会議の開催場所に、ユーザが到着する目的地到着予定時刻を取得する。 The destination arrival estimated time acquisition unit 209a includes the position information of the smartphone 4 input from the terminal position acquisition unit 206, the conference venue information input from the destination position acquisition unit 207a, and the execution time input from the execution time output unit 204a. and the time t 1, and the installation position information of the printing apparatus 9 which is input from the printing device position acquisition unit 212, based on, the venue of the conference is the destination, to get the destination arrival time at which the user arrives.

より詳しくは、目的地到着予定時刻取得部209aは、端末位置取得部206から入力したスマートフォン4の位置情報と、印刷装置位置取得部212から入力した印刷装置9の設置位置情報とから、印刷ジョブ送信時のスマートフォン4の位置から印刷装置9の設置位置までの距離を取得する。そして、この距離を予め定められた標準的な歩行速度で除算して、印刷ジョブ送信時のスマートフォン4の位置から印刷装置9の設置位置までのユーザの移動時間(スマートフォン4の移動時間)tを取得する。 More specifically, the destination arrival scheduled time acquisition unit 209a is a print job based on the position information of the smartphone 4 input from the terminal position acquisition unit 206 and the installation position information of the printing device 9 input from the printing device position acquisition unit 212. The distance from the position of the smartphone 4 at the time of transmission to the installation position of the printing device 9 is acquired. Then, this distance is divided by a predetermined standard walking speed, and the user's travel time from the position of the smartphone 4 at the time of transmitting the print job to the installation position of the printing device 9 (smartphone 4 travel time) t 2 To get.

また、目的地到着予定時刻取得部209aは、印刷装置位置取得部212から入力した印刷装置9の設置位置情報と、目的地位置取得部207aから入力した会議の開催場所情報とから、印刷装置9の設置位置から会議の開催場所までの距離を取得する。そして、この距離を予め定められた標準的な歩行速度で除算して、印刷装置9の設置位置から会議の開催場所までのユーザの移動時間(スマートフォン4の移動時間)tを取得する。 Further, the destination arrival scheduled time acquisition unit 209a is based on the installation position information of the printing device 9 input from the printing device position acquisition unit 212 and the conference holding location information input from the destination position acquisition unit 207a. Get the distance from the location of the meeting to the meeting place. Then, this distance is divided by a predetermined standard walking speed to obtain the user's travel time (smartphone 4's travel time) t 3 from the installation position of the printing device 9 to the meeting place.

換言すると、目的地到着予定時刻取得部209aは、ユーザがスマートフォン4で印刷ジョブを送信した位置から印刷装置9の設置位置まで移動し、印刷装置9が出力した印刷物を入手し、印刷物を持って会議の開催場所まで移動する時間を取得することができる。 In other words, the destination arrival estimated time acquisition unit 209a moves from the position where the user sends the print job on the smartphone 4 to the installation position of the printing device 9, obtains the printed matter output by the printing device 9, and holds the printed matter. You can get time to travel to the meeting place.

目的地到着予定時刻取得部209aは、図2のタイマー517が取得した現在時刻Tにこの移動時間t及びtと、実行時間tとを加算して、目的地到着予定時刻T+t+t+tを取得することができる。 The estimated destination arrival time acquisition unit 209a adds the travel times t 2 and t 3 and the execution time t 1 to the current time T 0 acquired by the timer 517 in FIG. 2, and adds the estimated destination arrival time T 0. + T 1 + t 2 + t 3 can be obtained.

但し、目的地到着予定時刻取得部209aによる目的地到着予定時刻T+t+t+tの取得方法は、これに限定されるものではない。例えば、他の例として、位置に応じた標準的な移動経路を予め定め、HD504等に予め格納しておく。目的地到着予定時刻取得部209aは、HD504等を参照して、印刷ジョブ送信時のスマートフォン4の位置から印刷装置9の設置位置までの標準的な移動経路、及び印刷装置9の設置位置から会議の開催場所までの標準的な移動経路を取得し、標準的な移動経路に沿った距離を予め定められた標準的な歩行速度で除算することで、移動時間t及びtを取得しても良い。 However, the method of acquiring the estimated destination arrival time T 0 + t 1 + t 2 + t 3 by the destination arrival estimated time acquisition unit 209a is not limited to this. For example, as another example, a standard movement route according to the position is predetermined and stored in HD504 or the like in advance. The destination arrival estimated time acquisition unit 209a refers to the HD504 and the like, and refers to the standard movement route from the position of the smartphone 4 to the installation position of the printing device 9 at the time of transmitting the print job, and the meeting from the installation position of the printing device 9. By acquiring the standard travel route to the venue of the event and dividing the distance along the standard travel route by the predetermined standard walking speed, the travel times t 2 and t 3 are acquired. Is also good.

目的地到着予定時刻取得部209aは、取得した目的地到着予定時刻T+t+t+tの情報を画像処理部210aに出力する。 The destination arrival estimated time acquisition unit 209a outputs the acquired information of the destination arrival estimated time T 0 + t 1 + t 2 + t 3 to the image processing unit 210 a.

画像処理部210aは、目的時刻取得部205aから入力した会議の開始時刻Tの情報と、目的地到着予定時刻取得部209aから入力した目的地到着予定時刻T+t+t+tの情報とに基づき、実行する画像処理を決定する。そして、決定した画像処理を、画像データ取得部203から入力した画像ファイルに含まれる画像データに対して実行する。 Image processing unit 210a is, start time and T 1 of the information, information of the destination arrival was input from the destination estimated arrival time acquisition unit 209a time T 0 + t 1 + t 2 + t 3 of the conference, which was input from the target time obtaining unit 205a Based on the above, the image processing to be executed is determined. Then, the determined image processing is executed on the image data included in the image file input from the image data acquisition unit 203.

より詳しく説明すると、画像処理部210aは、判定部220aを備える。判定部220aは、会議の開始時刻Tと、目的地到着予定時刻T+t+t+tを比較して、目的地到達予定時刻T+t+t+tが会議の開始時刻Tより早い時刻であるか否かを判定する。そして、目的地到達予定時刻T+t+t+tが会議の開始時刻Tより早い時刻であると判定された場合には、画像処理部210aは、画質優先の画像処理を実行する。 More specifically, the image processing unit 210a includes a determination unit 220a. The determination unit 220a compares the scheduled start time T 1 of the conference with the estimated destination arrival time T 0 + t 1 + t 2 + t 3, and the estimated destination arrival time T 0 + t 1 + t 2 + t 3 is the scheduled start time T of the conference. It is determined whether or not the time is earlier than 1 . Then, when it is determined that the scheduled arrival time T 0 + t 1 + t 2 + t 3 is earlier than the start time T 1 of the conference, the image processing unit 210a executes image processing giving priority to image quality.

一方、目的地到達予定時刻T+t+t+tが会議の開始時刻Tより早い時刻でないと判定された場合には、画像処理部210aは、印刷速度優先の画像処理を実行する。これにより、印刷装置9が画像処理装置5から画像ファイルを受信(ダウンロード)する時間や印刷する時間を短縮し、目的地到達予定時刻T+t+t+tを会議の開始時刻Tより早くすることができる。 On the other hand, when it is determined that the estimated time of arrival at the destination T 0 + t 1 + t 2 + t 3 is not earlier than the start time T 1 of the conference, the image processing unit 210a executes image processing giving priority to printing speed. As a result, the time for the printing device 9 to receive (download) the image file from the image processing device 5 and the time for printing are shortened, and the estimated time of arrival at the destination T 0 + t 1 + t 2 + t 3 is set from the start time T 1 of the conference. Can be done faster.

画像処理部210aは、上述した画像処理後の画像データを含む画像ファイルを、画像ファイル送信部211に出力する。 The image processing unit 210a outputs an image file including the above-mentioned image data after image processing to the image file transmission unit 211.

<第2の実施形態に係る画像処理装置による処理>
次に、本実施形態に係る画像処理装置5aによる処理を説明する。図9は、本実施形態に係る画像処理装置5aによる処理の一例を示すフローチャートである。なお、図9におけるステップS91〜S92の処理は、図6におけるステップS61〜S62の処理と同様であり、図9におけるステップS100〜S102の処理は、図6におけるステップS69〜S71の処理と同様であるため、それぞれ重複した説明は省略する。
<Processing by the image processing apparatus according to the second embodiment>
Next, the processing by the image processing apparatus 5a according to the present embodiment will be described. FIG. 9 is a flowchart showing an example of processing by the image processing apparatus 5a according to the present embodiment. The processing of steps S91 to S92 in FIG. 9 is the same as the processing of steps S61 to S62 in FIG. 6, and the processing of steps S100 to S102 in FIG. 9 is the same as the processing of steps S69 to S71 in FIG. Therefore, duplicate explanations will be omitted.

ステップS93において、実行時間出力部204aは、印刷ジョブ取得部202から入力した印刷ジョブ情報に基づき、印刷装置9による印刷処理の実行時間tを予測し、目的地到着予定時刻取得部209aに出力する。 In step S93, the execution time output unit 204a, based on the print job information input from the print job obtaining unit 202 predicts the execution time t 1 of the printing process by the printing device 9, the output destination arrival time acquisition unit 209a To do.

続いて、ステップS94において、目的時刻取得部205aは、目的時刻として、スマートフォン4のユーザが参加する会議の開始時刻Tを取得し、画像処理部210aに出力する。 Subsequently, in step S94, target time obtaining unit 205a, a target time to obtain the starting time T 1 of the conference user participates smartphone 4, and outputs to the image processing unit 210a.

続いて、ステップS95において、端末位置取得部206は、スマートフォン4が送信したスマートフォン4の現在位置の座標情報を、送受信部201を介して取得し、これを目的地位置取得部207a及び目的地到着予定時刻取得部209aに出力する。 Subsequently, in step S95, the terminal position acquisition unit 206 acquires the coordinate information of the current position of the smartphone 4 transmitted by the smartphone 4 via the transmission / reception unit 201, and obtains the destination position acquisition unit 207a and the destination arrival. Output to the scheduled time acquisition unit 209a.

続いて、ステップS96において、印刷装置位置取得部212は、印刷装置9の位置情報を取得し、目的地到着予定時刻取得部209aに出力する。 Subsequently, in step S96, the printing device position acquisition unit 212 acquires the position information of the printing device 9 and outputs the position information to the destination arrival estimated time acquisition unit 209a.

続いて、ステップS97において、目的地位置取得部207aは、会議の開催場所の情報を取得し、目的地到着予定時刻取得部209aに出力する。 Subsequently, in step S97, the destination position acquisition unit 207a acquires information on the venue of the conference and outputs the information to the destination arrival estimated time acquisition unit 209a.

続いて、ステップS98において、目的地到着予定時刻取得部209aは、端末位置取得部206から入力したスマートフォン4の位置情報と、印刷装置位置取得部212から入力した印刷装置9の設置位置情報と、目的地位置取得部207aから入力した会議の開催場所情報と、実行時間出力部204aから入力した実行時間tとに基づき、ユーザが、目的地である会議の開催場所に到着する目的地到着予定時刻T+t+t+tを取得する。目的地到着予定時刻取得部209aは、取得した目的地到着予定時刻T+t+t+tの情報を画像処理部210aに出力する。 Subsequently, in step S98, the destination arrival estimated time acquisition unit 209a receives the position information of the smartphone 4 input from the terminal position acquisition unit 206, the installation position information of the printing device 9 input from the printing device position acquisition unit 212, and the installation position information of the printing device 9. based on the meeting location information of the input from the destination position acquisition unit 207a, and the execution time t 1 input from the execution time output section 204a, the user, destination arrival scheduled to arrive at the venue of the conference is the destination Get the time T 0 + t 1 + t 2 + t 3 . The destination arrival estimated time acquisition unit 209a outputs the acquired information of the destination arrival estimated time T 0 + t 1 + t 2 + t 3 to the image processing unit 210 a.

続いて、ステップS99において、画像処理部210aに含まれる判定部220aは、目的時刻取得部205aから入力した会議の開始時刻Tの情報と、目的地到着予定時刻取得部209aから入力した目的地到着予定時刻T+t+t+tの情報とを比較して、目的地到達予定時刻T+t+t+tが会議の開始時刻Tより早い時刻であるか否かを判定する。 Subsequently, in step S99, the determination unit 220a included in the image processing unit 210a includes a start time T 1 meeting information input from the target time obtaining unit 205a, a destination input from the destination estimated arrival time acquisition unit 209a Estimated arrival time T 0 + t 1 + t 2 + t 3 is compared with the information to determine whether the estimated arrival time T 0 + t 1 + t 2 + t 3 is earlier than the start time T 1 of the conference. ..

ステップS99で、目的地到達予定時刻T+t+t+tは会議の開始時刻Tより早い時刻であると判定された場合(ステップS99、Yes)は、ステップS100に移行し、目的地到達予定時刻T+t+t+tは会議の開始時刻Tより早い時刻でないと判定された場合(ステップS99、No)は、ステップS101に移行する。 If it is determined in step S99 that the scheduled arrival time T 0 + t 1 + t 2 + t 3 is earlier than the start time T 1 of the conference (step S99, Yes), the process proceeds to step S100 and the destination If it is determined that the scheduled arrival time T 0 + t 1 + t 2 + t 3 is not earlier than the start time T 1 of the conference (steps S99, No), the process proceeds to step S101.

このようにして、画像処理装置5aは、印刷ジョブに応じ、クラウドストレージサーバ2に蓄積された画像ファイルに含まれる画像データに所定の画像処理を実行し、印刷装置9は、画像処理後の画像データに基づく印刷処理を実行することができる。 In this way, the image processing device 5a executes predetermined image processing on the image data included in the image file stored in the cloud storage server 2 in response to the printing job, and the printing device 9 executes the predetermined image processing on the image after the image processing. Printing processing based on data can be executed.

<第2の実施形態に係る画像処理装置の作用効果>
次に、本実施形態に係る画像処理装置5aの作用効果について説明する。
<Operational effect of the image processing apparatus according to the second embodiment>
Next, the operation and effect of the image processing device 5a according to the present embodiment will be described.

会議で使用する説明資料を印刷する場合、スケジュール管理サーバ6に登録されている会議の開始時刻までに説明資料の等の印刷物の印刷を終了させ、印刷物を必要な部数だけ持って会議開催場所に到着したい場合がある。 When printing the explanatory materials used in the meeting, finish printing the printed matter such as the explanatory materials by the start time of the meeting registered in the schedule management server 6, and bring the required number of printed materials to the meeting place. You may want to arrive.

この場合に、解像度変換やファイル圧縮、PostScript変換等の画像処理が実行されると、これらの画像処理の実行時間に応じて生じる印刷待ち時間により、印刷された説明資料を持って、会議の開始時刻までに会議開催場所に到着できなくなる場合があった。 In this case, when image processing such as resolution conversion, file compression, PostScript conversion, etc. is executed, the conference starts with the printed explanatory material due to the print waiting time generated according to the execution time of these image processes. In some cases, it was not possible to arrive at the meeting place by the time.

本実施形態では、目的地到着予定時刻取得部209aは、スマートフォン4の位置情報と、印刷装置9の位置情報と、会議の開催場所の情報と、印刷処理の実行時間tとに基づき、スマートフォン4のユーザが印刷装置9の位置に到着する目的地到着予定時刻T+t+t+tを取得する。また、目的時刻取得部205aは、目的時刻として、会議の開始時刻Tを取得する。 In the present embodiment, the destination estimated arrival time acquisition unit 209a, based on the position information of the smartphone 4, and the position information of the printing apparatus 9, and the information of the venue of the meeting, and the execution time t 1 of the printing process, smartphone The user of 4 acquires the estimated time of arrival at the destination T 0 + t 1 + t 2 + t 3 when the user arrives at the position of the printing device 9. Further, target time obtaining unit 205a, a target time, to acquire the start time T 1 of the conference.

そして、目的地到着予定時刻T+t+t+tと会議の開始時刻Tとを比較し、目的地到着予定時刻T+t+t+tが会議の開始時刻Tより早い時刻である場合は、印刷された説明資料を持って、会議の開始時刻までに会議開催場所に到着することができる。そのため、画像処理部210aは、画質優先の画像処理を実行し、これにより、印刷装置9のユーザビリティを向上させることができる。 Then, the estimated destination arrival time T 0 + t 1 + t 2 + t 3 is compared with the conference start time T 1, and the destination arrival time T 0 + t 1 + t 2 + t 3 is earlier than the conference start time T 1. If so, you can arrive at the meeting place by the start time of the meeting with the printed explanatory material. Therefore, the image processing unit 210a executes image processing that gives priority to image quality, which can improve the usability of the printing device 9.

一方、目的地到着予定時刻T+t+t+tが会議の開始時刻Tより早い時刻でない場合は、このままでは印刷された説明資料を持って、会議の開始時刻までに会議開催場所に到着することができない。そのため、画像処理部210aは、印刷速度優先の画像処理を実行する。これにより、目的地到着予定時刻T+t+t+tを会議の開始時刻Tより早くすることができ、ユーザは、印刷された説明資料を持って、会議の開始時刻までに会議開催場所に到着することができる。 On the other hand, if the estimated time of arrival at the destination T 0 + t 1 + t 2 + t 3 is not earlier than the start time T 1 of the meeting, bring the printed explanatory material to the meeting place by the start time of the meeting. I can't arrive. Therefore, the image processing unit 210a executes image processing that gives priority to printing speed. As a result, the estimated time of arrival at the destination T 0 + t 1 + t 2 + t 3 can be set earlier than the start time T 1 of the meeting, and the user can hold the meeting by the start time of the meeting with the printed explanatory material. You can reach the place.

なお、これ以外の効果は、第1の実施形態で説明したものと同様であるため、重複した説明を省略する。 Since the other effects are the same as those described in the first embodiment, duplicate explanations will be omitted.

[第3の実施形態]
次に、第3の実施形態に係る画像処理装置5bについて説明する。図10は、本実施形態に係る画像処理装置5bの機能構成の一例を説明するブロック図である。図10に示すように、画像処理装置5bは、ユーザ選択情報取得部213と、画像処理部210bとを備える。
[Third Embodiment]
Next, the image processing apparatus 5b according to the third embodiment will be described. FIG. 10 is a block diagram illustrating an example of the functional configuration of the image processing device 5b according to the present embodiment. As shown in FIG. 10, the image processing device 5b includes a user selection information acquisition unit 213 and an image processing unit 210b.

ユーザ選択情報取得部213は、図2のCPU501が所定のプログラムを実行することで実現される。ユーザ選択情報取得部213は、画像処理を変更した場合の特徴情報を、送受信部201を介して、スマートフォン4等に送信し、図3のディスプレイ418等に表示させる。この特徴情報は、画質優先の画像処理、印刷速度優先の画像処理、印刷完了予定時刻、又は目的地到着予定時刻等に関する情報である。 The user selection information acquisition unit 213 is realized by the CPU 501 of FIG. 2 executing a predetermined program. The user selection information acquisition unit 213 transmits the feature information when the image processing is changed to the smartphone 4 or the like via the transmission / reception unit 201, and displays the feature information on the display 418 or the like in FIG. This feature information is information related to image processing that prioritizes image quality, image processing that prioritizes printing speed, scheduled printing completion time, estimated time of arrival at a destination, and the like.

ユーザ選択情報取得部213は、ディスプレイ418等に表示させた特徴情報に応じてユーザが選択した画像処理に対する指示を、送受信部201を介して取得し、これを画像処理部210bに出力する。 The user selection information acquisition unit 213 acquires an instruction for image processing selected by the user according to the feature information displayed on the display 418 or the like via the transmission / reception unit 201, and outputs this to the image processing unit 210b.

画像処理部210bは、ユーザ選択情報取得部213から入力したユーザが選択した画像処理に対する指示に応じて、画像処理を実行する。 The image processing unit 210b executes image processing in response to an instruction for image processing selected by the user input from the user selection information acquisition unit 213.

図11は、本実施形態に係る画像処理装置5bによる処理の一例を示すフローチャートである。なお、図11におけるステップS111〜S119の処理は、図9におけるステップS91〜S99の処理と同様である。また、図11におけるステップS123〜S125の処理は、図9におけるステップS100〜S102の処理と同様である。そのため、ここでは重複した説明を省略する。 FIG. 11 is a flowchart showing an example of processing by the image processing apparatus 5b according to the present embodiment. The processing of steps S111 to S119 in FIG. 11 is the same as the processing of steps S91 to S99 in FIG. Further, the processing of steps S123 to S125 in FIG. 11 is the same as the processing of steps S100 to S102 in FIG. Therefore, a duplicate description will be omitted here.

ステップS120において、ユーザ選択情報取得部213は、画像処理部210bによる画像処理を変更した場合の特徴情報を、送受信部201を介して、スマートフォン4等に送信し、図3のディスプレイ418等に表示させる。 In step S120, the user selection information acquisition unit 213 transmits the feature information when the image processing by the image processing unit 210b is changed to the smartphone 4 or the like via the transmission / reception unit 201 and displays it on the display 418 or the like in FIG. Let me.

続いて、ステップS121において、ユーザ選択情報取得部213は、ユーザが選択した画像処理に対する指示を取得したか否かを判定する。 Subsequently, in step S121, the user selection information acquisition unit 213 determines whether or not the instruction for the image processing selected by the user has been acquired.

ステップS121で、ユーザが選択した画像処理に対する指示を取得していない場合(ステップS121、No)は、ステップS121に戻り、ユーザが選択した画像処理に対する指示を取得するまでステップS121の処理が繰り返される。 If the user has not acquired the instruction for the image processing selected in step S121 (steps S121, No), the process returns to step S121 and the process of step S121 is repeated until the instruction for the image processing selected by the user is acquired. ..

ステップS121で、ユーザが選択した画像処理に対する指示を取得した場合(ステップS121、Yes)は、ステップS122に移行する。 When the instruction for the image processing selected by the user is acquired in step S121 (step S121, Yes), the process proceeds to step S122.

ステップS122において、ユーザ選択情報取得部213は、ユーザが選択した画像処理に対する指示が、画質を優先する指示であるか否かを判定する。 In step S122, the user selection information acquisition unit 213 determines whether or not the instruction for the image processing selected by the user is an instruction that prioritizes image quality.

ステップS122で、ユーザが選択した画像処理に対する指示が画質を優先する指示である場合(ステップS122、Yes)は、ステップS123に移行し、ユーザが選択した画像処理に対する指示が画質を優先する指示でない場合(ステップS122、No)は、ステップS124に移行する。 When the instruction for the image processing selected by the user in step S122 is an instruction for giving priority to image quality (step S122, Yes), the process proceeds to step S123, and the instruction for the image processing selected by the user is not an instruction for giving priority to image quality. In the case (step S122, No), the process proceeds to step S124.

このようにして、本実施形態では、ユーザが選択した画像処理に対する指示を、画像処理部210bによる画像処理に反映させることができる。 In this way, in the present embodiment, the instruction for the image processing selected by the user can be reflected in the image processing by the image processing unit 210b.

なお、これ以外の効果は、第1及び第2の実施形態で説明したものと同様であるため、重複した説明を省略する。 Since the other effects are the same as those described in the first and second embodiments, duplicate description will be omitted.

[第4の実施形態]
次に、第4の実施形態に係る画像処理装置5cについて説明する。図12は、本実施形態に係る画像処理装置5cの機能構成の一例を説明するブロック図である。図12に示すように、画像処理装置5cは、参加者情報取得部214と、設定情報格納部215と、画像処理部210cとを備える。
[Fourth Embodiment]
Next, the image processing apparatus 5c according to the fourth embodiment will be described. FIG. 12 is a block diagram illustrating an example of the functional configuration of the image processing device 5c according to the present embodiment. As shown in FIG. 12, the image processing device 5c includes a participant information acquisition unit 214, a setting information storage unit 215, and an image processing unit 210c.

参加者情報取得部214は、図2のCPU501が所定のプログラムを実行することで実現される。参加者情報取得部214は、スマートフォン4のユーザの識別番号に基づき、送受信部201及びネットワーク1を介してスケジュール管理サーバ6を参照し、スマートフォン4のユーザが参加する会議の他の参加者の識別情報を取得する。ここで、スマートフォン4のユーザが参加する会議の他の参加者は、「イベントの参加者」の一例である。 The participant information acquisition unit 214 is realized by the CPU 501 of FIG. 2 executing a predetermined program. The participant information acquisition unit 214 refers to the schedule management server 6 via the transmission / reception unit 201 and the network 1 based on the identification number of the user of the smartphone 4, and identifies other participants of the conference in which the user of the smartphone 4 participates. Get information. Here, the other participants of the conference in which the user of the smartphone 4 participates is an example of "event participants".

また、参加者情報取得部214は、会議の参加者の識別情報に基づき、設定情報格納部215を参照して、設定情報を取得する。ここで、設定情報格納部215は、図2のHD504等により実現され、参加者に対応付けられた設定情報を格納している。 In addition, the participant information acquisition unit 214 acquires the setting information by referring to the setting information storage unit 215 based on the identification information of the participants of the conference. Here, the setting information storage unit 215 is realized by the HD504 or the like shown in FIG. 2 and stores the setting information associated with the participants.

この設定情報は、印刷装置9による印刷処理に関する設定情報であり、具体的には、画像データに含まれる文字を大きくして見やすくする設定や、紙サイズを大きくする設定等の情報である。設定情報は、参加者のそれぞれの好みに応じて変化するため、設定情報格納部215は、参加者に対応付けられた設定情報が参加者により変更された場合には、設定情報をその都度更新し、最新の設定情報を格納することが好適である。これにより、参加者の直近の好みを印刷処理に反映させることができる。参加者情報取得部214は、取得した設定情報を画像処理部210cに出力する。 This setting information is setting information related to the printing process by the printing apparatus 9, and specifically, it is information such as a setting for enlarging the characters included in the image data to make it easier to see, and a setting for enlarging the paper size. Since the setting information changes according to each participant's preference, the setting information storage unit 215 updates the setting information each time the setting information associated with the participant is changed by the participant. However, it is preferable to store the latest setting information. As a result, the latest preference of the participant can be reflected in the printing process. The participant information acquisition unit 214 outputs the acquired setting information to the image processing unit 210c.

画像処理部210cは、参加者情報取得部214から入力した設定情報に応じて、画像処理を実行する。 The image processing unit 210c executes image processing according to the setting information input from the participant information acquisition unit 214.

図13は、本実施形態に係る画像処理装置5cによる処理の一例を示すフローチャートである。なお、図13におけるステップS131〜S141の処理は、図11におけるステップS111〜S121の処理と同様である。また、図13におけるステップS145〜S147の処理は、図11におけるステップS123〜S125の処理と同様である。そのため、ここでは重複した説明を省略する。 FIG. 13 is a flowchart showing an example of processing by the image processing apparatus 5c according to the present embodiment. The processing of steps S131 to S141 in FIG. 13 is the same as the processing of steps S111 to S121 in FIG. Further, the processing of steps S145 to S147 in FIG. 13 is the same as the processing of steps S123 to S125 in FIG. Therefore, a duplicate description will be omitted here.

ステップS142において、ユーザ選択情報取得部213は、ユーザが選択した画像処理に対する指示が、画質を優先する指示であるか否かを判定する。 In step S142, the user selection information acquisition unit 213 determines whether or not the instruction for the image processing selected by the user is an instruction that prioritizes image quality.

ステップS142で、ユーザが選択した画像処理に対する指示が画質を優先する指示である場合(ステップS142、Yes)は、ステップS145に移行し、ユーザが選択した画像処理に対する指示が画質を優先する指示でない場合(ステップS142、No)は、ステップS143に移行する。 When the instruction for the image processing selected by the user in step S142 is an instruction for giving priority to image quality (step S142, Yes), the process proceeds to step S145, and the instruction for the image processing selected by the user is not an instruction for giving priority to image quality. In the case (step S142, No), the process proceeds to step S143.

ステップS143において、参加者情報取得部214は、スマートフォン4のユーザの識別番号に基づき、スケジュール管理サーバ6を参照して、スマートフォン4のユーザが参加する会議の他の参加者の識別情報を取得する。そして、参加者の識別情報に基づき、設定情報格納部215を参照して、参加者の設定情報があるか否かを判定する。 In step S143, the participant information acquisition unit 214 refers to the schedule management server 6 based on the identification number of the user of the smartphone 4 and acquires the identification information of other participants of the conference in which the user of the smartphone 4 participates. .. Then, based on the participant's identification information, the setting information storage unit 215 is referred to to determine whether or not there is the participant's setting information.

ステップS143で、参加者の設定情報があると判定された場合(ステップS143、Yes)は、参加者情報取得部214は、設定情報を画像処理部210cに出力する。そして、画像処理部210cは、設定情報に応じた画像処理を実行する。一方、参加者の設定情報がないと判定された場合(ステップS143、No)は、ステップS146に移行する。 If it is determined in step S143 that there is participant setting information (step S143, Yes), the participant information acquisition unit 214 outputs the setting information to the image processing unit 210c. Then, the image processing unit 210c executes image processing according to the setting information. On the other hand, when it is determined that there is no participant setting information (step S143, No), the process proceeds to step S146.

このようにして、会議の参加者の設定情報を、画像処理部210cによる画像処理に反映させることができる。 In this way, the setting information of the participants of the conference can be reflected in the image processing by the image processing unit 210c.

会議の参加者には、小さい字が読めない人等が含まれる場合がある。この場合に、印刷速度を優先して画像ファイルのサイズを小さくすると、会議の参加者は印刷物を適切に利用することができなくなる。本実施形態では、参加者情報取得部214が会議の参加者の設定情報の有無を確認し、ある場合は設定情報を取得して画像処理に反映させる。これにより、会議の参加者は印刷物を適切に利用することが可能となる。 Participants in the conference may include people who cannot read small letters. In this case, if the print speed is prioritized and the size of the image file is reduced, the participants of the conference cannot use the printed matter properly. In the present embodiment, the participant information acquisition unit 214 confirms the presence / absence of the setting information of the participants of the conference, and if there is, acquires the setting information and reflects it in the image processing. This allows conference participants to use the printed matter appropriately.

なお、これ以外の効果は、第1〜3の実施形態で説明したものと同様であるため、重複した説明を省略する。 Since the effects other than this are the same as those described in the first to third embodiments, duplicate explanations will be omitted.

[第5の実施形態]
次に、第5の実施形態に係る画像処理装置5dについて説明する。図14は、本実施形態に係る画像処理装置5dの機能構成の一例を説明するブロック図である。図14に示すように、画像処理装置5dは、参加者リスト作成部216と、画像処理部210dとを備える。
[Fifth Embodiment]
Next, the image processing apparatus 5d according to the fifth embodiment will be described. FIG. 14 is a block diagram illustrating an example of the functional configuration of the image processing device 5d according to the present embodiment. As shown in FIG. 14, the image processing device 5d includes a participant list creation unit 216 and an image processing unit 210d.

参加者リスト作成部216は、図2のCPU501が所定のプログラムを実行することで実現される。参加者リスト作成部216は、スマートフォン4のユーザの識別番号に基づき、スケジュール管理サーバ6を参照して、スマートフォン4のユーザが参加する会議の他の参加者の氏名を取得し、参加者名のテキストファイルを作成する。そして、参加者リスト作成部216は、参加者の氏名のテキストファイルを画像処理部210dに出力する。 The participant list creation unit 216 is realized by the CPU 501 of FIG. 2 executing a predetermined program. The participant list creation unit 216 refers to the schedule management server 6 based on the identification number of the user of the smartphone 4, acquires the names of other participants in the conference in which the user of the smartphone 4 participates, and obtains the names of the participants. Create a text file. Then, the participant list creation unit 216 outputs a text file of the participant's name to the image processing unit 210d.

画像処理部210dは、ファイル合成部221を備える。ファイル合成部221は、参加者リスト作成部216から入力した参加者名のテキストファイルと、画像データ取得部203から入力した画像ファイルとを論理和で合成する。そして、合成後の画像ファイルを、画像ファイル送信部211を介して、印刷装置9に送信する。 The image processing unit 210d includes a file composition unit 221. The file composition unit 221 synthesizes the text file of the participant name input from the participant list creation unit 216 and the image file input from the image data acquisition unit 203 by logical sum. Then, the combined image file is transmitted to the printing device 9 via the image file transmission unit 211.

図15は、本実施形態に係る画像処理装置5dによる処理の一例を示すフローチャートである。なお、図15におけるステップS151〜S161の処理は、図11におけるステップS111〜S121の処理と同様である。また、図15におけるステップS163〜S166の処理は、図11におけるステップS122〜S125の処理と同様である。そのため、ここでは重複した説明を省略する。 FIG. 15 is a flowchart showing an example of processing by the image processing apparatus 5d according to the present embodiment. The processing of steps S151 to S161 in FIG. 15 is the same as the processing of steps S111 to S121 in FIG. Further, the processing of steps S163 to S166 in FIG. 15 is the same as the processing of steps S122 to S125 in FIG. Therefore, a duplicate description will be omitted here.

ステップS162において、参加者リスト作成部216は、スマートフォン4のユーザの識別番号に基づき、スケジュール管理サーバ6を参照して、スマートフォン4のユーザが参加する会議の他の参加者の氏名情報を取得し、参加者の氏名のテキストファイルを作成する。そして、参加者リスト作成部216は、参加者の氏名のテキストファイルを画像処理部210dに出力する。 In step S162, the participant list creation unit 216 refers to the schedule management server 6 based on the identification number of the user of the smartphone 4 and acquires the name information of other participants of the conference in which the user of the smartphone 4 participates. , Create a text file of participants' names. Then, the participant list creation unit 216 outputs a text file of the participant's name to the image processing unit 210d.

画像処理部210dに含まれるファイル合成部221は、参加者リスト作成部216から入力した参加者の氏名のテキストファイルと、画像データ取得部203から入力した画像ファイルとを論理和で合成する。そして、合成後の画像ファイルを、画像ファイル送信部211を介して、印刷装置9に送信する。 The file composition unit 221 included in the image processing unit 210d synthesizes the text file of the participant's name input from the participant list creation unit 216 and the image file input from the image data acquisition unit 203 by logical sum. Then, the combined image file is transmitted to the printing device 9 via the image file transmission unit 211.

本実施形態では、このようにすることで、参加者毎の印刷設定に応じて画像処理を変えることができ、参加者の誰向けの印刷物なのかが分かるように印刷することができる。 In the present embodiment, by doing so, the image processing can be changed according to the print settings for each participant, and the printed matter can be printed so that the participant can know who the printed matter is for.

なお、これ以外の効果は、第1〜第3の実施形態で説明したものと同様であるため、重複した説明を省略する。 Since the other effects are the same as those described in the first to third embodiments, duplicate description will be omitted.

以上、実施形態について説明してきたが、本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。 Although the embodiments have been described above, the present invention is not limited to the above-described embodiments specifically disclosed, and various modifications and changes can be made without departing from the scope of claims. is there.

また、実施形態は、画像処理方法も含む。例えば、画像処理方法は、画像データに基づく印刷処理を指示する印刷ジョブを取得する印刷ジョブ取得工程と、前記印刷ジョブに基づき予測した前記印刷処理の実行時間の予測値を出力する実行時間出力工程と、目的時刻を取得する目的時刻取得工程と、情報端末の位置情報を取得する端末位置取得工程と、目的地の位置情報を取得する目的地位置取得工程と、前記情報端末の位置情報と、前記目的地の位置情報と、に基づき、前記情報端末のユーザが前記目的地に到着する目的地到着予定時刻を取得する目的地到着予定時刻取得工程と、前記目的時刻と、前記目的地到着予定時刻と、に基づき決定した画像処理を、前記画像データに対して実行する画像処理工程と、を含む。このような画像処理方法により、上述した画像処理装置と同様の効果を得ることができる。 The embodiment also includes an image processing method. For example, the image processing method includes a print job acquisition step of acquiring a print job instructing print processing based on image data, and an execution time output step of outputting a predicted value of the execution time of the print process predicted based on the print job. The target time acquisition process for acquiring the target time, the terminal position acquisition process for acquiring the position information of the information terminal, the destination position acquisition process for acquiring the position information of the destination, and the position information of the information terminal. Based on the location information of the destination, the destination arrival scheduled time acquisition process for acquiring the destination arrival scheduled time at which the user of the information terminal arrives at the destination, the destination time, and the destination arrival schedule The image processing step of executing the image processing determined based on the time and the image data on the image data is included. By such an image processing method, the same effect as that of the above-mentioned image processing apparatus can be obtained.

さらに、実施形態は、プログラムも含む。例えば、プログラムは、コンピュータを、
画像データに基づく印刷処理を指示する印刷ジョブを取得する印刷ジョブ取得部、前記印刷ジョブに基づき予測した前記印刷処理の実行時間の予測値を出力する実行時間出力部、目的時刻を取得する目的時刻取得部、情報端末の位置情報を取得する端末位置取得部、目的地の位置情報を取得する目的地位置取得部、前記情報端末の位置情報と、前記目的地の位置情報と、に基づき、前記情報端末のユーザが前記目的地に到着する目的地到着予定時刻を取得する目的地到着予定時刻取得部、及び前記目的時刻と、前記目的地到着予定時刻と、に基づき決定した画像処理を、前記画像データに対して実行する画像処理部として機能させる。このようなプログラムにより、上述した画像処理装置と同様の効果を得ることができる。
In addition, embodiments also include programs. For example, the program is a computer,
A print job acquisition unit that acquires a print job that instructs print processing based on image data, an execution time output unit that outputs a predicted value of the execution time of the print process predicted based on the print job, and a target time that acquires a target time. Based on the acquisition unit, the terminal position acquisition unit that acquires the position information of the information terminal, the destination position acquisition unit that acquires the position information of the destination, the position information of the information terminal, and the position information of the destination. The destination arrival scheduled time acquisition unit for acquiring the destination arrival scheduled time when the user of the information terminal arrives at the destination, and the image processing determined based on the destination time and the destination arrival scheduled time are performed. It functions as an image processing unit to be executed for image data. With such a program, the same effect as that of the image processing apparatus described above can be obtained.

また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Further, each function of the embodiment described above can be realized by one or a plurality of processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

1 ネットワーク
2 クラウドストレージサーバ
3 屋内測位システム
4 スマートフォン
5 画像処理装置
6 スケジュール管理サーバ
9 印刷装置
100 画像形成システム
201 送受信部
202 印刷ジョブ取得部
203 画像データ取得部
204 実行時間出力部
205 目的時刻取得部
206 端末位置取得部
207 目的地位置取得部
208 印刷装置位置格納部
209 目的地到着予定時刻取得部
210 画像処理部
211 画像ファイル送信部
212 印刷装置位置取得部
213 ユーザ選択情報取得部
214 参加者情報取得部
215 設定情報格納部
216 参加者リスト作成部
220 判定部
221 ファイル合成部
1 Network 2 Cloud storage server 3 Indoor positioning system 4 Smartphone 5 Image processing device 6 Schedule management server 9 Printing device 100 Image formation system 201 Transmission / reception unit 202 Print job acquisition unit 203 Image data acquisition unit 204 Execution time output unit 205 Target time acquisition unit 206 Terminal position acquisition unit 207 Destination position acquisition unit 208 Printing device position storage unit 209 Estimated destination arrival time acquisition unit 210 Image processing unit 211 Image file transmission unit 212 Printing device position acquisition unit 213 User selection information acquisition unit 214 Participant information Acquisition unit 215 Setting information storage unit 216 Participant list creation unit 220 Judgment unit 221 File composition unit

特開2004−094777号公報Japanese Unexamined Patent Publication No. 2004-09477

Claims (9)

画像データに基づく印刷処理を指示する印刷ジョブを取得する印刷ジョブ取得部と、
前記印刷ジョブに基づき予測した前記印刷処理の実行時間の予測値を出力する実行時間出力部と、
目的時刻を取得する目的時刻取得部と、
情報端末の位置情報を取得する端末位置取得部と、
目的地の位置情報を取得する目的地位置取得部と、
前記情報端末の位置情報と、前記目的地の位置情報と、に基づき、前記情報端末のユーザが前記目的地に到着する目的地到着予定時刻を取得する目的地到着予定時刻取得部と、
前記目的時刻と、前記目的地到着予定時刻と、に基づき決定した画像処理を、前記画像データに対して実行する画像処理部と、を有する
画像処理装置。
A print job acquisition unit that acquires a print job that instructs print processing based on image data,
An execution time output unit that outputs a predicted value of the execution time of the print process predicted based on the print job, and an execution time output unit.
The target time acquisition unit that acquires the target time, and
The terminal position acquisition unit that acquires the position information of the information terminal,
The destination position acquisition unit that acquires the location information of the destination,
Based on the location information of the information terminal and the location information of the destination, the destination arrival estimated time acquisition unit for acquiring the destination arrival estimated time when the user of the information terminal arrives at the destination
An image processing device including an image processing unit that executes image processing determined based on the target time and the scheduled arrival time at the destination on the image data.
前記目的時刻取得部は、
前記目的時刻として、前記実行時間の予測値に基づき、前記印刷処理の終了予定時刻を取得し、
前記目的地位置取得部は、
前記目的地の位置情報として、前記印刷処理を実行する印刷装置の位置情報を取得する
請求項1に記載の画像処理装置。
The target time acquisition unit
As the target time, the scheduled end time of the printing process is acquired based on the predicted value of the execution time.
The destination position acquisition unit
The image processing device according to claim 1, wherein the position information of the printing device that executes the printing process is acquired as the position information of the destination.
前記印刷処理を実行する印刷装置の位置情報を取得する印刷装置位置取得部を有し、
前記目的時刻取得部は、
前記目的時刻として、前記ユーザが参加するイベントの開始時刻を取得し、
前記目的地位置取得部は、
前記目的地の位置情報として、前記ユーザが参加するイベントの開催場所情報を取得し、
前記目的地到着予定時刻取得部は、
前記情報端末の位置情報と、前記目的地の位置情報と、前記実行時間の予測値と、前記印刷装置の位置情報と、に基づき、前記目的地到着予定時刻を取得する
請求項1に記載の画像処理装置。
It has a printing device position acquisition unit that acquires position information of the printing device that executes the printing process.
The target time acquisition unit
As the target time, the start time of the event in which the user participates is acquired.
The destination position acquisition unit
As the location information of the destination, the venue information of the event in which the user participates is acquired, and the information is obtained.
The destination arrival time acquisition unit
The first aspect of claim 1, wherein the estimated time of arrival at the destination is acquired based on the position information of the information terminal, the position information of the destination, the predicted value of the execution time, and the position information of the printing device. Image processing device.
前記画像処理部は、
前記目的地到着予定時刻が前記目的時刻より早い時刻である場合、前記画像データが含まれる画像ファイルのサイズを小さくする処理を実行する
請求項1乃至3の何れか1項に記載の画像処理装置。
The image processing unit
The image processing apparatus according to any one of claims 1 to 3, wherein when the estimated time of arrival at the destination is earlier than the destination time, the process of reducing the size of the image file containing the image data is executed. ..
前記画像処理部は、
前記目的地到着予定時刻が前記目的時刻より早い時刻でない場合、前記画像データが含まれる画像ファイルのサイズを大きくする処理を実行する
請求項1乃至3の何れか1項に記載の画像処理装置。
The image processing unit
The image processing apparatus according to any one of claims 1 to 3, wherein when the estimated time of arrival at the destination is not earlier than the destination time, the process of increasing the size of the image file containing the image data is executed.
前記イベントの参加者の情報を取得する参加者情報取得部と、
前記参加者に対応付けられた前記印刷装置の設定情報を格納する設定情報格納部と、を有し、
前記画像処理部は、
前記目的時刻と、前記目的地到着予定時刻と、前記参加者に基づき前記設定情報格納部を参照して取得した前記設定情報と、に基づき決定した画像処理を、前記画像データに対して実行する
請求項3乃至5の何れか1項に記載の画像処理装置。
Participant information acquisition department that acquires information on participants of the event,
It has a setting information storage unit for storing the setting information of the printing device associated with the participant.
The image processing unit
Image processing determined based on the target time, the scheduled arrival time at the destination, and the setting information acquired by referring to the setting information storage unit based on the participant is executed on the image data. The image processing apparatus according to any one of claims 3 to 5.
前記設定情報は、前記参加者の氏名の情報を含む
請求項6に記載の画像処理装置。
The image processing device according to claim 6, wherein the setting information includes information on the names of the participants.
画像データに基づく印刷処理を指示する印刷ジョブを取得する印刷ジョブ取得工程と、
前記印刷ジョブに基づき予測した前記印刷処理の実行時間の予測値を出力する実行時間出力工程と、
目的時刻を取得する目的時刻取得工程と、
情報端末の位置情報を取得する端末位置取得工程と、
目的地の位置情報を取得する目的地位置取得工程と、
前記情報端末の位置情報と、前記目的地の位置情報と、に基づき、前記情報端末のユーザが前記目的地に到着する目的地到着予定時刻を取得する目的地到着予定時刻取得工程と、
前記目的時刻と、前記目的地到着予定時刻と、に基づき決定した画像処理を、前記画像データに対して実行する画像処理工程と、を含む
画像処理方法。
A print job acquisition process that acquires a print job that instructs print processing based on image data,
An execution time output process that outputs a predicted value of the execution time of the print process predicted based on the print job, and an execution time output process.
The target time acquisition process to acquire the target time and
The terminal position acquisition process for acquiring the position information of the information terminal,
The destination position acquisition process for acquiring the destination position information,
Based on the location information of the information terminal and the location information of the destination, the destination arrival estimated time acquisition step of acquiring the destination arrival estimated time when the user of the information terminal arrives at the destination
An image processing method including an image processing step of executing image processing determined based on the target time and the estimated destination arrival time on the image data.
コンピュータを、
画像データに基づく印刷処理を指示する印刷ジョブを取得する印刷ジョブ取得部、
前記印刷ジョブに基づき予測した前記印刷処理の実行時間の予測値を出力する実行時間出力部、
目的時刻を取得する目的時刻取得部、
情報端末の位置情報を取得する端末位置取得部、
目的地の位置情報を取得する目的地位置取得部、
前記情報端末の位置情報と、前記目的地の位置情報と、に基づき、前記情報端末のユーザが前記目的地に到着する目的地到着予定時刻を取得する目的地到着予定時刻取得部、及び
前記目的時刻と、前記目的地到着予定時刻と、に基づき決定した画像処理を、前記画像データに対して実行する画像処理部
として機能させるプログラム。
Computer,
Print job acquisition unit that acquires print jobs that instruct print processing based on image data,
An execution time output unit that outputs a predicted value of the execution time of the print process predicted based on the print job.
Target time acquisition unit, which acquires the target time
Terminal position acquisition unit that acquires the position information of the information terminal,
Destination position acquisition unit, which acquires the location information of the destination,
Based on the position information of the information terminal and the position information of the destination, the destination arrival estimated time acquisition unit for acquiring the destination arrival time when the user of the information terminal arrives at the destination, and the purpose A program that functions as an image processing unit that executes image processing determined based on the time and the estimated time of arrival at the destination on the image data.
JP2019077121A 2019-04-15 2019-04-15 Image processing device, image processing method, and program Active JP7272079B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019077121A JP7272079B2 (en) 2019-04-15 2019-04-15 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019077121A JP7272079B2 (en) 2019-04-15 2019-04-15 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2020177278A true JP2020177278A (en) 2020-10-29
JP7272079B2 JP7272079B2 (en) 2023-05-12

Family

ID=72937195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019077121A Active JP7272079B2 (en) 2019-04-15 2019-04-15 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7272079B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240459A (en) * 1997-02-26 1998-09-11 Fuji Xerox Co Ltd Print controller
JP2006256269A (en) * 2005-03-18 2006-09-28 Konica Minolta Business Technologies Inc Image forming apparatus
JP2007213254A (en) * 2006-02-08 2007-08-23 Seiko Epson Corp Print control device, print control method and program
JP2011103068A (en) * 2009-11-11 2011-05-26 Konica Minolta Business Technologies Inc System and method for event document distribution, and image processing device
JP2011248070A (en) * 2010-05-26 2011-12-08 Konica Minolta Business Technologies Inc Printing system and printer
JP2017001282A (en) * 2015-06-10 2017-01-05 株式会社リコー Image formation apparatus, image formation method and program
JP2018190202A (en) * 2017-05-08 2018-11-29 コニカミノルタ株式会社 Printing system, printing control device and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240459A (en) * 1997-02-26 1998-09-11 Fuji Xerox Co Ltd Print controller
JP2006256269A (en) * 2005-03-18 2006-09-28 Konica Minolta Business Technologies Inc Image forming apparatus
JP2007213254A (en) * 2006-02-08 2007-08-23 Seiko Epson Corp Print control device, print control method and program
JP2011103068A (en) * 2009-11-11 2011-05-26 Konica Minolta Business Technologies Inc System and method for event document distribution, and image processing device
JP2011248070A (en) * 2010-05-26 2011-12-08 Konica Minolta Business Technologies Inc Printing system and printer
JP2017001282A (en) * 2015-06-10 2017-01-05 株式会社リコー Image formation apparatus, image formation method and program
JP2018190202A (en) * 2017-05-08 2018-11-29 コニカミノルタ株式会社 Printing system, printing control device and program

Also Published As

Publication number Publication date
JP7272079B2 (en) 2023-05-12

Similar Documents

Publication Publication Date Title
JP2013198011A (en) Information processing device, image forming device, transmission system and program
US10831435B2 (en) Shared terminal, communication system, image transmission method, and recording medium
US10915289B2 (en) Shared terminal and image transmission method
US20180309742A1 (en) Shared terminal, communication method, and non-transitory computer-readable medium
US20160163013A1 (en) Data processing system and data processing method
US11762612B2 (en) Information processing apparatus, information processing system, and information processing method for managing authentication information across multiple information processing devices, information processing apparatuses, and information processing systems
JP2021060974A (en) Program, information processing system, information processing method, and information processing apparatus
CN108712590B (en) Shared terminal, communication system, communication method, and recording medium
JP7272079B2 (en) Image processing device, image processing method, and program
JP2008171359A (en) Data communication program, output instruction program, image forming device, server device, output data communication method, data transmitting-receiving method, output data communication program and data transmitting-receiving program
US11249708B2 (en) Image forming apparatus, image forming method and recording medium
JP6369457B2 (en) Information processing apparatus, data processing method thereof, and program
US10416939B2 (en) Communication terminal, communication system, communication control method, and non-transitory computer-readable medium
JP7459659B2 (en) Information processing device, communication system and information processing method
JP7427936B2 (en) User support systems, user support methods and programs
JP7371442B2 (en) Information processing equipment, programs, and electronic device registration methods
JP7283147B2 (en) Information processing device, program, electronic device registration method
EP4270168A1 (en) Output apparatus, information processing system, output method, and carrier means
US11871231B2 (en) Apparatus management system, management target apparatus, and management method
US20220070316A1 (en) Device, information processing system, and information processing apparatus
JP7354793B2 (en) Information processing device, control method, and program
US20210165553A1 (en) Information processing system, information processing apparatus, and method of processing information
JP2023162118A (en) Output device, output method, program, and information processing system
JP2023031004A (en) Facsimile transmitting/receiving server, facsimile transmitting/receiving system, and facsimile transmitting/receiving method
JP2024078147A (en) Information processing system, information processing device, communication device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230410

R151 Written notification of patent or utility model registration

Ref document number: 7272079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151