JP7272079B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP7272079B2
JP7272079B2 JP2019077121A JP2019077121A JP7272079B2 JP 7272079 B2 JP7272079 B2 JP 7272079B2 JP 2019077121 A JP2019077121 A JP 2019077121A JP 2019077121 A JP2019077121 A JP 2019077121A JP 7272079 B2 JP7272079 B2 JP 7272079B2
Authority
JP
Japan
Prior art keywords
destination
time
image processing
information
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019077121A
Other languages
Japanese (ja)
Other versions
JP2020177278A (en
Inventor
謙太 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019077121A priority Critical patent/JP7272079B2/en
Publication of JP2020177278A publication Critical patent/JP2020177278A/en
Application granted granted Critical
Publication of JP7272079B2 publication Critical patent/JP7272079B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimiles In General (AREA)

Description

本願は、画像処理装置、画像処理方法、及びプログラムに関する。 The present application relates to an image processing device, an image processing method, and a program.

画像ファイルを蓄積するクラウドストレージサーバと印刷装置を連携させ、スマートフォン等の情報端末で指定された画像ファイルを印刷装置に印刷させる技術が知られている。 2. Description of the Related Art A technology is known in which a cloud storage server storing image files and a printing device are linked and an image file specified by an information terminal such as a smartphone is printed by the printing device.

また、情報端末のユーザの移動経路及び移動時間と、印刷装置による印刷時間に基づいて、所望のタイミングで印刷物を出力できる場所に設置された印刷装置を印刷物の出力先として決定し、ユーザが印刷装置の位置に到着後、印刷が完了するまでの印刷待ち時間を短縮する技術が開示されている(例えば、特許文献1参照)。 In addition, based on the travel route and travel time of the user of the information terminal and the printing time of the printing device, a printing device installed in a place where the printed matter can be output at the desired timing is determined as the output destination of the printed matter, and the user can print. A technique for shortening the print waiting time from arrival at the position of the apparatus until printing is completed has been disclosed (see, for example, Japanese Unexamined Patent Application Publication No. 2002-200011).

しかしながら、特許文献1の技術では、印刷処理の実行前に、印刷処理の対象となる画像データに対して、解像度変換やファイル圧縮、PostScript変換等の画像処理が実行される場合に、これらの画像処理の実行時間によって、印刷待ち時間が生じる場合があった。 However, according to the technique disclosed in Patent Document 1, when image processing such as resolution conversion, file compression, and PostScript conversion is performed on image data to be printed before execution of print processing, these images Depending on the execution time of the process, print waiting time may occur.

本発明は、上記の点に鑑みてなされたものであって、印刷待ち時間を生じさせない画像処理装置を提供することを課題とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus that does not cause printing waiting time.

開示の技術の一態様に係る画像処理装置は、画像データに基づく印刷処理を指示する印刷ジョブを取得する印刷ジョブ取得部と、前記印刷ジョブに基づき予測した前記印刷処理の実行時間の予測値を出力する実行時間出力部と、目的時刻を取得する目的時刻取得部と、情報端末の位置情報を取得する端末位置取得部と、目的地の位置情報を取得する目的地位置取得部と、前記情報端末の位置情報と、前記目的地の位置情報と、に基づき、前記情報端末のユーザが前記目的地に到着する目的地到着予定時刻を取得する目的地到着予定時刻取得部と、前記目的時刻と、前記目的地到着予定時刻と、に基づき決定した画像処理を、前記画像データに対して実行する画像処理部と、前記印刷処理を実行する印刷装置の位置情報を取得する印刷装置位置取得部と、を有し、前記目的時刻取得部は、前記目的時刻として、前記ユーザが参加するイベントの開始時刻を取得し、前記目的地位置取得部は、前記目的地の位置情報として、前記ユーザが参加するイベントの開催場所情報を取得し、前記目的地到着予定時刻取得部は、前記情報端末の位置情報と、前記目的地の位置情報と、前記実行時間の予測値と、前記印刷装置の位置情報と、に基づき、前記目的地到着予定時刻を取得する。 An image processing apparatus according to an aspect of the disclosed technology includes a print job acquisition unit that acquires a print job that instructs print processing based on image data, and a predicted execution time value of the print processing that is predicted based on the print job. a target time acquisition unit for acquiring a target time; a terminal position acquisition unit for acquiring position information of an information terminal; a destination position acquisition unit for acquiring position information of a destination; a destination estimated arrival time acquiring unit for acquiring an estimated destination arrival time at which a user of the information terminal arrives at the destination based on the location information of the terminal and the location information of the destination; , and the estimated time of arrival at the destination, an image processing unit for executing image processing on the image data, and a printing device position acquisition unit for acquiring position information of a printing device that executes the printing processing. wherein the target time acquisition unit acquires the start time of an event in which the user participates as the target time, and the destination position acquisition unit acquires the position information of the destination where the user participates and the destination estimated time of arrival acquisition unit acquires the location information of the information terminal, the location information of the destination, the predicted value of the execution time, and the location information of the printing device. and the estimated time of arrival at the destination is acquired.

本発明によれば、印刷待ち時間を生じさせない画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus that does not cause printing waiting time.

第1の実施形態に係る画像処理装置を備える画像形成システムの構成の一例を説明する図である。1 is a diagram illustrating an example configuration of an image forming system including an image processing apparatus according to a first embodiment; FIG. 実施形態に係る画像処理装置のハードウェア構成の一例を説明するブロック図である。It is a block diagram explaining an example of the hardware constitutions of the image processing device concerning an embodiment. スマートフォンのハードウェア構成の一例を説明するブロック図である。It is a block diagram explaining an example of the hardware constitutions of a smart phone. 印刷装置のハードウェア構成の一例を説明するブロック図である。2 is a block diagram illustrating an example of the hardware configuration of a printing device; FIG. 第1の実施形態に係る画像処理装置の機能構成の一例を説明するブロック図である。1 is a block diagram illustrating an example of a functional configuration of an image processing apparatus according to a first embodiment; FIG. 第1の実施形態に係る画像処理装置による処理の一例を示すフローチャートである。4 is a flow chart showing an example of processing by the image processing apparatus according to the first embodiment; 第2の実施形態に係る画像処理装置を備える画像形成システムの構成の一例を説明する図である。FIG. 10 is a diagram illustrating an example of a configuration of an image forming system including an image processing apparatus according to a second embodiment; FIG. 第2の実施形態に係る画像処理装置の機能構成の一例を説明するブロック図である。FIG. 11 is a block diagram illustrating an example of a functional configuration of an image processing apparatus according to a second embodiment; FIG. 第2の実施形態に係る画像処理装置による処理の一例を示すフローチャートである。9 is a flow chart showing an example of processing by an image processing apparatus according to the second embodiment; 第3の実施形態に係る画像処理装置の機能構成の一例を説明するブロック図である。FIG. 11 is a block diagram illustrating an example of the functional configuration of an image processing apparatus according to a third embodiment; FIG. 第3の実施形態に係る画像処理装置による処理の一例を示すフローチャートである。10 is a flow chart showing an example of processing by an image processing apparatus according to the third embodiment; 第4の実施形態に係る画像処理装置の機能構成の一例を説明するブロック図である。FIG. 12 is a block diagram illustrating an example of a functional configuration of an image processing apparatus according to a fourth embodiment; FIG. 第4の実施形態に係る画像処理装置による処理の一例を示すフローチャートである。FIG. 14 is a flowchart showing an example of processing by an image processing apparatus according to the fourth embodiment; FIG. 第5の実施形態に係る画像処理装置の機能構成の一例を説明するブロック図である。FIG. 14 is a block diagram illustrating an example of a functional configuration of an image processing apparatus according to a fifth embodiment; FIG. 第5の実施形態に係る画像処理装置による処理の一例を示すフローチャートである。FIG. 14 is a flow chart showing an example of processing by an image processing apparatus according to the fifth embodiment; FIG.

以下、図面を参照して発明を実施するための形態について説明する。各図面において、同一の構成部分には同一符号を付し、重複した説明を省略する場合がある。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In each drawing, the same components are denoted by the same reference numerals, and redundant description may be omitted.

以下では、実施形態に係る画像処理装置を備える画像形成システムを例に説明する。 An image forming system including the image processing apparatus according to the embodiment will be described below as an example.

[第1の実施形態]
<第1の実施形態に係る画像処理装置を備える画像形成システムの構成>
図1は、本実施形態に係る画像処理装置5を備える画像形成システム100の構成の一例を説明する図である。図1に示すように、画像形成システム100は、クラウドストレージサーバ2と、屋内測位システム3と、スマートフォン4と、画像処理装置5と、印刷装置9とを備え、これらは、インターネット等のネットワーク1を介して、相互に通信可能に接続されている。また、無線による通信の手段又は有線による通信の手段をそれぞれが備えている。
[First embodiment]
<Configuration of Image Forming System Equipped with Image Processing Apparatus According to First Embodiment>
FIG. 1 is a diagram illustrating an example of the configuration of an image forming system 100 including an image processing apparatus 5 according to this embodiment. As shown in FIG. 1, the image forming system 100 includes a cloud storage server 2, an indoor positioning system 3, a smartphone 4, an image processing device 5, and a printing device 9, which are connected to a network 1 such as the Internet. are connected so as to be able to communicate with each other. Also, each has a means of wireless communication or a means of wired communication.

クラウドストレージサーバ2は、画像ファイルを蓄積するクラウドサーバである。クラウドストレージサーバ2は、一般的なOS(Operating System)等が搭載されたコンピュータ等により実現することができる。また、クラウドストレージサーバ2は、送信要求に応じて、蓄積した画像ファイルのうちの所定の画像ファイルを、画像処理装置5に送信する。 The cloud storage server 2 is a cloud server that stores image files. The cloud storage server 2 can be realized by a computer or the like on which a general OS (Operating System) or the like is installed. Further, the cloud storage server 2 transmits predetermined image files among the accumulated image files to the image processing device 5 in response to the transmission request.

屋内測位システム3は、オフィス等の屋内に配置されたビーコン等の専用装置がGPS(Global Positioning System)と互換性のある信号を送受信することで、屋内における計測対象の位置を計測(測位)可能とするIMES(Indoor MEssaging System)である。なお、IMESについては、特開2014-075783号公報や特開2014-057273号公報等に開示された技術を適用できるため、ここでは、詳細な説明を省略する。 The indoor positioning system 3 can measure (position) the position of the measurement target indoors by transmitting and receiving signals compatible with GPS (Global Positioning System) by dedicated devices such as beacons installed indoors such as offices. IMES (Indoor MEssaging System). For IMES, the technology disclosed in JP-A-2014-075783, JP-A-2014-057273, etc. can be applied, so detailed description is omitted here.

情報端末の一例としてのスマートフォン4は、プリンタドライバがインストールされ、スマートフォン4のユーザの指示に応じて、クラウドストレージサーバ2に蓄積された画像ファイルの印刷処理を指示する印刷ジョブを、ネットワーク1を介して画像処理装置5に送信する。 A smartphone 4, which is an example of an information terminal, has a printer driver installed therein, and transmits print jobs via the network 1 to instruct printing of image files stored in the cloud storage server 2 according to instructions from the user of the smartphone 4. is sent to the image processing device 5.

また、スマートフォン4は、スマートフォン4の備えるBluetooth(登録商標)又はマイクを活用して、屋内測位システム3が備えるビーコン等の専用装置が発信する信号を受信し、スマートフォン4の現在位置の座標情報を取得する。そして、取得した座標情報を、ネットワーク1を介して画像処理装置5に送信する。なお、情報端末はスマートフォン4に限定されるものではない。プリンタドライバがインストールされ、また、ビーコン等の専用装置が発信する信号に基づいて現在位置の座標情報を取得する機能を備えるものであれば、携帯電話やノートPC(Personal Computer)等であっても良い。 In addition, the smartphone 4 utilizes Bluetooth (registered trademark) or a microphone provided in the smartphone 4 to receive signals transmitted by a dedicated device such as a beacon provided in the indoor positioning system 3, and obtains coordinate information of the current position of the smartphone 4. get. Then, the acquired coordinate information is transmitted to the image processing device 5 via the network 1 . Note that the information terminal is not limited to the smart phone 4 . A mobile phone, a notebook PC (Personal Computer), or the like can be used as long as it has a printer driver installed and has a function of acquiring the coordinate information of the current position based on a signal transmitted by a dedicated device such as a beacon. good.

画像処理装置5は、一般的なOS等が搭載されたコンピュータ等により実現することができる。画像処理装置5は、スマートフォン4から印刷ジョブを取得し、印刷ジョブが指定する画像ファイルの送信をクラウドストレージサーバ2に要求する。そして、クラウドストレージサーバ2から取得した画像ファイルに含まれる画像データに対し、所定の画像処理を実行して、画像処理後の画像データを含む画像ファイルを、印刷装置9に送信する。 The image processing device 5 can be realized by a computer or the like on which a general OS or the like is installed. The image processing device 5 acquires the print job from the smartphone 4 and requests the cloud storage server 2 to transmit the image file specified by the print job. Then, the image data included in the image file obtained from the cloud storage server 2 is subjected to predetermined image processing, and the image file including the image data after the image processing is transmitted to the printing device 9 .

ここで、画像処理装置5が実行する画像処理機能には、画像データの解像度変換処理、変倍処理、画像ファイルの圧縮処理、又はPostScript変換処理の少なくとも何れか1つが含まれる。 Here, the image processing function executed by the image processing device 5 includes at least one of image data resolution conversion processing, scaling processing, image file compression processing, and PostScript conversion processing.

印刷装置9は、MFP(Multifunction Peripheral/Product/Printer)等の印刷機能を有する装置である。印刷装置9は、画像処理装置5から受信した画像ファイルに含まれる画像処理後の画像データに基づいて、用紙等の記録媒体に画像形成を行う。なお、図1の例では、一例として印刷装置9が一台である例を示しているが、画像形成システム100は、複数台の印刷装置を備えていても良い。 The printing device 9 is a device having a printing function such as an MFP (Multifunction Peripheral/Product/Printer). The printing device 9 forms an image on a recording medium such as paper based on the image data after image processing included in the image file received from the image processing device 5 . In addition, in the example of FIG. 1, as an example, there is one printer 9, but the image forming system 100 may be provided with a plurality of printers.

また、印刷装置9は、通信機能を備えた装置であれば、PJ(Projector:プロジェクタ)、IWB(Interactive White Board:相互通信が可能な電子式の黒板機能を有する白板)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、自動車(Connected Car)、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、デジタルカメラ、ウェアラブルPCまたはデスクトップPC等であっても良い。 In addition, if the printing device 9 is a device having a communication function, it can be output from a PJ (Projector), an IWB (Interactive White Board: a whiteboard having an electronic blackboard function capable of mutual communication), a digital signage, or the like. equipment, HUD (Head Up Display) equipment, industrial machinery, imaging equipment, sound collecting equipment, medical equipment, network home appliances, automobiles (connected cars), notebook PCs (personal computers), mobile phones, smartphones, tablet terminals, game machines, It may be a PDA (Personal Digital Assistant), a digital camera, a wearable PC, a desktop PC, or the like.

さらに、図1に示す画像形成システム100の構成は、一例であって他の構成であっても良い。 Furthermore, the configuration of the image forming system 100 shown in FIG. 1 is an example, and other configurations may be used.

<実施形態に係る画像処理装置のハードウェア構成>
次に、画像処理装置5のハードウェア構成を説明する。図2は、実施形態に係る画像処理装置5のハードウェア構成の一例を説明するブロック図である。
<Hardware Configuration of Image Processing Apparatus According to Embodiment>
Next, the hardware configuration of the image processing device 5 will be described. FIG. 2 is a block diagram illustrating an example of the hardware configuration of the image processing device 5 according to the embodiment.

画像処理装置5は、コンピュータによって構築されている。図2に示すように、画像処理装置5は、CPU(Central Processing Unit)501と、ROM(Read Only Memory)502と、RAM(Random Access Memory)503と、HD(Hard Disk)504と、HDD(Hard Disk Drive)コントローラ505とを備えている。また、画像処理装置5は、ディスプレイ506と、外部機器接続I/F(Interface)508と、ネットワークI/F509と、データバス510と、キーボード511と、ポインティングデバイス512と、DVD-RW(Digital Versatile Disk Rewritable)ドライブ514と、メディアI/F516と、タイマー517とを備えている。 The image processing device 5 is constructed by a computer. As shown in FIG. 2, the image processing apparatus 5 includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, an HD (Hard Disk) 504, and an HDD ( Hard Disk Drive) controller 505 . The image processing apparatus 5 also includes a display 506, an external device connection I/F (Interface) 508, a network I/F 509, a data bus 510, a keyboard 511, a pointing device 512, a DVD-RW (Digital Versatile Disk Rewritable) drive 514 , media I/F 516 and timer 517 .

これらのうち、CPU501は、画像処理装置5全体の動作を制御する。ROM502は、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。 Among these, the CPU 501 controls the operation of the image processing apparatus 5 as a whole. The ROM 502 stores programs used to drive the CPU 501, such as an IPL (Initial Program Loader). A RAM 503 is used as a work area for the CPU 501 .

HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像等の各種情報を表示する。 The HD 504 stores various data such as programs. The HDD controller 505 controls reading or writing of various data to/from the HD 504 under the control of the CPU 501 . A display 506 displays various information such as cursors, menus, windows, characters, and images.

外部機器接続I/F508は、各種の外部機器を接続するためのインタフェースである。この場合の外部機器は、例えば、印刷装置9やUSB(Universal Serial Bus)メモリ等である。ネットワークI/F509は、ネットワーク1を利用してデータ通信をするためのインタフェースである。データバス510は、図2に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 An external device connection I/F 508 is an interface for connecting various external devices. The external device in this case is, for example, the printer 9 or a USB (Universal Serial Bus) memory. A network I/F 509 is an interface for data communication using the network 1 . A data bus 510 is an address bus, a data bus, or the like for electrically connecting components such as the CPU 501 shown in FIG.

また、キーボード511は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動等を行う入力手段の一種である。 Also, the keyboard 511 is a kind of input means having a plurality of keys for inputting characters, numerical values, various instructions, and the like. A pointing device 512 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like.

DVD-RWドライブ514は、着脱可能な記録媒体の一例としてのDVD-RW513に対する各種データの読み出し又は書き込みを制御する。なお、DVD-RWに限らず、DVD-R等であっても良い。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。 A DVD-RW drive 514 controls reading or writing of various data to a DVD-RW 513 as an example of a removable recording medium. Note that DVD-R or the like may be used instead of DVD-RW. A media I/F 516 controls reading or writing (storage) of data to a recording medium 515 such as a flash memory.

タイマー517は、現在時刻の取得や、時間の計測を行うことができる。 A timer 517 can acquire the current time and measure time.

実施形態に係る画像処理装置5は、図2に示したハードウェア構成、及びCPU501による所定のプログラムの実行により、後述する各種機能を実現することができる。 The image processing apparatus 5 according to the embodiment can realize various functions described later by the hardware configuration shown in FIG. 2 and execution of a predetermined program by the CPU 501 .

また、クラウドストレージサーバ2も同様にコンピュータにより構築される。クラウドストレージサーバ2のハードウェア構成も、図2を参照して説明したものと同様であるため、重複した説明を省略する。 Also, the cloud storage server 2 is similarly constructed by a computer. The hardware configuration of the cloud storage server 2 is also the same as that described with reference to FIG. 2, so redundant description will be omitted.

<スマートフォンのハードウェア構成>
次に、スマートフォン4のハードウェア構成を説明する。図3は、スマートフォン4のハードウェア構成の一例を説明するブロック図である。
<Hardware configuration of smartphone>
Next, the hardware configuration of the smart phone 4 will be described. FIG. 3 is a block diagram illustrating an example of the hardware configuration of the smart phone 4. As illustrated in FIG.

図3に示すように、スマートフォン4は、CPU401と、ROM402と、RAM403と、EEPROM404と、CMOSセンサ405と、撮像素子I/F406と、加速度・方位センサ407と、メディアI/F409と、GPS受信部411とを備えている。 As shown in FIG. 3, the smartphone 4 includes a CPU 401, a ROM 402, a RAM 403, an EEPROM 404, a CMOS sensor 405, an image sensor I/F 406, an acceleration/direction sensor 407, a media I/F 409, and a GPS receiver. A part 411 is provided.

これらのうち、CPU401は、スマートフォン4全体の動作を制御する。ROM402は、CPU401やIPL等のCPU401の駆動に用いられるプログラムを記憶する。RAM403は、CPU401のワークエリアとして使用される。 Among these, the CPU 401 controls the operation of the smartphone 4 as a whole. The ROM 402 stores programs used to drive the CPU 401 such as the CPU 401 and IPL. A RAM 403 is used as a work area for the CPU 401 .

EEPROM404は、CPU401の制御に従って、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。CMOS(Complementary Metal Oxide Semiconductor)センサ405は、CPU401の制御に従って被写体(主に自画像)を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、CMOSセンサではなく、CCD(Charge Coupled Device)センサ等の撮像手段であってもよい。 The EEPROM 404 reads or writes various data such as smartphone programs under the control of the CPU 401 . A CMOS (Complementary Metal Oxide Semiconductor) sensor 405 is a type of built-in imaging means for capturing an object (mainly a self-portrait) and obtaining image data under the control of the CPU 401 . Note that imaging means such as a CCD (Charge Coupled Device) sensor may be used instead of the CMOS sensor.

撮像素子I/F406は、CMOSセンサ405の駆動を制御する回路である。加速度・方位センサ407は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F409は、フラッシュメモリ等の記録メディア408に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部411は、GPS衛星からGPS信号を受信する。 An imaging device I/F 406 is a circuit that controls driving of the CMOS sensor 405 . The acceleration/direction sensor 407 is various sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor for detecting geomagnetism. A media I/F 409 controls reading or writing (storage) of data to a recording medium 408 such as a flash memory. The GPS receiver 411 receives GPS signals from GPS satellites.

また、スマートフォン4は、遠距離通信回路412と、CMOSセンサ413と、撮像素子I/F414と、マイク415と、スピーカ416と、音入出力I/F417と、ディスプレイ418と、外部機器接続I/F(Interface)419と、近距離通信回路420と、近距離通信回路420のアンテナ420aと、タッチパネル421とを備えている。 The smartphone 4 also includes a long-distance communication circuit 412, a CMOS sensor 413, an image sensor I/F 414, a microphone 415, a speaker 416, a sound input/output I/F 417, a display 418, and an external device connection I/F. It has an F (Interface) 419 , a short-range communication circuit 420 , an antenna 420 a of the short-range communication circuit 420 , and a touch panel 421 .

これらのうち、遠距離通信回路412は、ネットワーク1を介して、他の機器と通信する回路である。CMOSセンサ413は、CPU401の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F414は、CMOSセンサ413の駆動を制御する回路である。 Among these, the telecommunications circuit 412 is a circuit that communicates with other devices via the network 1 . The CMOS sensor 413 is a type of built-in imaging means that images a subject and obtains image data under the control of the CPU 401 . An imaging device I/F 414 is a circuit that controls driving of the CMOS sensor 413 .

マイク415は、音を電気信号に変える内蔵型の回路である。スピーカ416は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F417は、CPU401の制御に従ってマイク415及びスピーカ416との間で音信号の入出力を処理する回路である。ディスプレイ418は、被写体の画像や各種アイコン等を表示する液晶や有機EL(Electro Luminescence)などの表示手段の一種である。 Microphone 415 is a built-in circuit that converts sound into an electrical signal. The speaker 416 is a built-in circuit that converts electrical signals into physical vibrations to produce sounds such as music and voice. A sound input/output I/F 417 is a circuit for processing input/output of sound signals between the microphone 415 and the speaker 416 under the control of the CPU 401 . A display 418 is a kind of display means such as liquid crystal or organic EL (Electro Luminescence) that displays an image of a subject, various icons, and the like.

外部機器接続I/F419は、各種の外部機器を接続するためのインタフェースである。近距離通信回路420は、NFC(Near Field Communication)やBluetooth等の通信回路である。タッチパネル421は、利用者がディスプレイ418を押下することで、スマートフォン4を操作する入力手段の一種である。 The external device connection I/F 419 is an interface for connecting various external devices. The short-range communication circuit 420 is a communication circuit such as NFC (Near Field Communication) or Bluetooth. The touch panel 421 is a type of input means for operating the smartphone 4 by the user pressing the display 418 .

また、スマートフォン4は、バスライン410を備えている。バスライン410は、図3に示されているCPU401等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The smartphone 4 also includes a bus line 410 . A bus line 410 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 401 shown in FIG.

<印刷装置のハードウェア構成>
次に、印刷装置9のハードウェア構成を説明する。図4は、印刷装置9のハードウェア構成の一例を説明するブロック図である。
<Hardware Configuration of Printer>
Next, the hardware configuration of the printing device 9 will be described. FIG. 4 is a block diagram illustrating an example of the hardware configuration of the printing device 9. As shown in FIG.

図4に示すように、印刷装置9は、コントローラ910と、近距離通信回路920と、エンジン制御部930と、操作パネル940と、ネットワークI/F950とを備えている。 As shown in FIG. 4, the printing device 9 includes a controller 910, a short-range communication circuit 920, an engine control section 930, an operation panel 940, and a network I/F 950.

これらのうち、コントローラ910は、コンピュータの主要部であるCPU901と、システムメモリ(MEM-P)902と、ノースブリッジ(NB)903と、サウスブリッジ(SB)904と、ASIC(Application Specific Integrated Circuit)906と、記憶部であるローカルメモリ(MEM-C)907と、HDDコントローラ908と、記憶部であるHD909とを備え、NB903とASIC906との間をAGP(Accelerated Graphics Port)バス921で接続した構成となっている。 Among these, the controller 910 includes a CPU 901, which is the main part of the computer, a system memory (MEM-P) 902, a north bridge (NB) 903, a south bridge (SB) 904, and an ASIC (Application Specific Integrated Circuit). 906, a local memory (MEM-C) 907 as a storage unit, an HDD controller 908, and an HD 909 as a storage unit. It has become.

これらのうち、CPU901は、印刷装置9の全体制御を行う制御部である。NB903は、CPU901と、MEM-P902、SB904、及びAGPバス921とを接続するためのブリッジであり、MEM-P902に対する読み書きなどを制御するメモリコントローラと、PCI(Peripheral Component Interconnect)マスタ及びAGPターゲットとを備える。 Among these, the CPU 901 is a control unit that performs overall control of the printing apparatus 9 . The NB 903 is a bridge for connecting the CPU 901, the MEM-P 902, the SB 904, and the AGP bus 921, and is a memory controller that controls reading and writing with respect to the MEM-P 902, a PCI (Peripheral Component Interconnect) master, and an AGP target. Prepare.

MEM-P902は、コントローラ910の各機能を実現させるプログラムやデータの格納用メモリであるROM902aと、プログラムやデータの展開、及びメモリ印刷時の描画用メモリ等として用いるRAM902bとを備える。なお、RAM902bに記憶されているプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 The MEM-P 902 includes a ROM 902a, which is a memory for storing programs and data for realizing each function of the controller 910, and a RAM 902b, which is used as a memory for drawing during expansion of programs and data and memory printing. The program stored in the RAM 902b is configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM, CD-R, DVD, etc. as a file in an installable format or an executable format. You may

SB904は、NB903とPCIデバイス、周辺デバイスとを接続するためのブリッジである。ASIC906は、画像処理用のハードウェア要素を有する画像処理用途向けのIC(Integrated Circuit)であり、AGPバス921、PCIバス922、HDD908およびMEM-C907をそれぞれ接続するブリッジの役割を有する。 SB 904 is a bridge for connecting NB 903 with PCI devices and peripheral devices. The ASIC 906 is an image processing IC (Integrated Circuit) having hardware elements for image processing, and serves as a bridge that connects the AGP bus 921, PCI bus 922, HDD 908 and MEM-C 907, respectively.

このASIC906は、PCIターゲットおよびAGPマスタと、ASIC906の中核をなすアービタ(ARB)と、MEM-C907を制御するメモリコントローラと、ハードウェアロジック等により画像データの回転などを行う複数のDMAC(Direct Memory Access Controller)と、スキャナ部931及びプリンタ部932との間でPCIバス922を介したデータ転送を行うPCIユニットとを備える。なお、ASIC906には、USB(Universal Serial Bus)のインタフェースや、IEEE1394(Institute of Electrical and Electronics Engineers 1394)のインタフェースを接続するようにしても良い。 This ASIC 906 includes a PCI target and AGP master, an arbiter (ARB) that forms the core of the ASIC 906, a memory controller that controls the MEM-C 907, and multiple DMACs (Direct Memory) that rotate image data by hardware logic. and a PCI unit that transfers data between the scanner unit 931 and the printer unit 932 via the PCI bus 922 . The ASIC 906 may be connected to a USB (Universal Serial Bus) interface or an IEEE 1394 (Institute of Electrical and Electronics Engineers 1394) interface.

MEM-C907は、コピー用画像バッファ及び符号バッファとして用いるローカルメモリである。HD909は、画像データの蓄積、印刷時に用いるフォントデータの蓄積、フォームの蓄積を行うためのストレージである。 MEM-C 907 is a local memory used as an image buffer for copying and an encoding buffer. The HD 909 is a storage for accumulating image data, accumulating font data used for printing, and accumulating forms.

HD909は、CPU901の制御に従ってHD909に対するデータの読出又は書込を制御する。AGPバス921は、グラフィック処理を高速化するために提案されたグラフィックスアクセラレータカード用のバスインタフェースであり、MEM-P902に高スループットで直接アクセスすることにより、グラフィックスアクセラレータカードを高速にすることができる。 The HD 909 controls reading or writing data to or from the HD 909 under the control of the CPU 901 . The AGP bus 921 is a bus interface for graphics accelerator cards proposed to speed up graphics processing, and can speed up the graphics accelerator card by directly accessing the MEM-P 902 with high throughput. .

また、近距離通信回路920には、近距離通信回路920aが備わっている。近距離通信回路920は、NFC、Bluetooth等の通信回路である。 The near field communication circuit 920 also includes a near field communication circuit 920a. The short-range communication circuit 920 is a communication circuit for NFC, Bluetooth, or the like.

更に、エンジン制御部930は、スキャナ部931及びプリンタ部932によって構成されている。また、操作パネル940は、現在の設定値や選択画面等を表示させ、操作者からの入力を受け付けるタッチパネル等のパネル表示部940a、並びに、濃度の設定条件などの画像形成に関する条件の設定値を受け付けるテンキー及びコピー開始指示を受け付けるスタートキー等からなる操作パネル940bを備えている。コントローラ910は、印刷装置9全体の制御を行い、例えば、描画、通信、操作パネル940からの入力等を制御する。スキャナ部931又はプリンタ部932には、誤差拡散やガンマ変換などの画像処理部分が含まれている。 Furthermore, the engine control section 930 is configured by a scanner section 931 and a printer section 932 . The operation panel 940 displays a current setting value, a selection screen, and the like, and a panel display unit 940a such as a touch panel for receiving input from an operator, and setting values for image forming conditions such as density setting conditions. An operation panel 940b is provided which includes a numeric keypad for accepting a copy start instruction, a start key for accepting a copy start instruction, and the like. The controller 910 controls the entire printing apparatus 9, for example, controls drawing, communication, input from the operation panel 940, and the like. The scanner unit 931 or printer unit 932 includes an image processing part such as error diffusion and gamma conversion.

なお、印刷装置9は、操作パネル940のアプリケーション切り替えキーにより、ドキュメントボックス機能、コピー機能、プリンタ機能、およびファクシミリ機能を順次に切り替えて選択することが可能となる。ドキュメントボックス機能の選択時にはドキュメントボックスモードとなり、コピー機能の選択時にはコピーモードとなり、プリンタ機能の選択時にはプリンタモードとなり、ファクシミリモードの選択時にはファクシミリモードとなる。 Note that the printing apparatus 9 can switch and select the document box function, the copy function, the printer function, and the facsimile function in sequence using the application switching key of the operation panel 940 . The document box mode is set when the document box function is selected, the copy mode is set when the copy function is selected, the printer mode is set when the printer function is selected, and the facsimile mode is set when the facsimile mode is selected.

また、ネットワークI/F950は、ネットワーク1を利用してデータ通信をするためのインタフェースである。近距離通信回路920及びネットワークI/F950は、PCIバス922を介して、ASIC906に電気的に接続されている。 A network I/F 950 is an interface for data communication using the network 1 . A short-range communication circuit 920 and a network I/F 950 are electrically connected to the ASIC 906 via a PCI bus 922 .

<第1の実施形態に係る画像処理装置の機能構成>
次に、第1の実施形態に係る画像処理装置5の機能構成を説明する。図5は、画像処理装置5の機能構成の一例を説明するブロック図である。図5に示すように、画像処理装置5は、送受信部201と、印刷ジョブ取得部202と、画像データ取得部203と、実行時間出力部204と、目的時刻取得部205と、端末位置取得部206と、目的地位置取得部207とを備える。また、画像処理装置5は、印刷装置位置格納部208と、目的地到着予定時刻取得部209と、画像処理部210と、画像ファイル送信部211とを備える。
<Functional Configuration of Image Processing Apparatus According to First Embodiment>
Next, the functional configuration of the image processing device 5 according to the first embodiment will be described. FIG. 5 is a block diagram illustrating an example of the functional configuration of the image processing device 5. As shown in FIG. As shown in FIG. 5, the image processing apparatus 5 includes a transmission/reception unit 201, a print job acquisition unit 202, an image data acquisition unit 203, an execution time output unit 204, a target time acquisition unit 205, and a terminal position acquisition unit. 206 and a destination position acquisition unit 207 . The image processing device 5 also includes a printer position storage unit 208 , an estimated destination arrival time acquisition unit 209 , an image processing unit 210 , and an image file transmission unit 211 .

これらのうち、印刷ジョブ取得部202、画像データ取得部203、実行時間出力部204、目的時刻取得部205、端末位置取得部206、目的地位置取得部207、画像処理装置5、目的地到着予定時刻取得部209、及び画像処理部210は、図2のCPU501が所定のプログラムを実行すること等により実現される。 Of these, the print job acquisition unit 202, the image data acquisition unit 203, the execution time output unit 204, the target time acquisition unit 205, the terminal location acquisition unit 206, the destination location acquisition unit 207, the image processing device 5, the destination arrival schedule The time acquisition unit 209 and the image processing unit 210 are implemented by the CPU 501 in FIG. 2 executing a predetermined program.

送受信部201は、図2のネットワークI/F509等により実現され、各種データの送受信を行う。 A transmitting/receiving unit 201 is realized by the network I/F 509 or the like in FIG. 2, and transmits/receives various data.

印刷ジョブ取得部202は、画像データに基づく印刷処理を指示する印刷ジョブを、送受信部201を介してスマートフォン4から取得し、印刷ジョブ情報を画像データ取得部203及び実行時間出力部204に出力する。ここで、印刷ジョブは、印刷処理を実行する印刷装置9を特定する識別情報を含んでいる。 The print job acquisition unit 202 acquires a print job that instructs print processing based on image data from the smartphone 4 via the transmission/reception unit 201, and outputs print job information to the image data acquisition unit 203 and the execution time output unit 204. . Here, the print job includes identification information that specifies the printing device 9 that executes the printing process.

画像データ取得部203は、印刷ジョブ取得部202から印刷ジョブ情報を入力し、印刷処理を行う画像データが含まれる画像ファイルの送信要求を、送受信部201を介してクラウドストレージサーバ2に送信する。また、画像データ取得部203は、送信要求に応じた画像ファイルを、送受信部201を介してクラウドストレージサーバ2から受信する。そして、受信した画像ファイルを画像処理部210に出力する。 The image data acquisition unit 203 receives print job information from the print job acquisition unit 202 and transmits a transmission request for an image file containing image data to be printed to the cloud storage server 2 via the transmission/reception unit 201 . The image data acquisition unit 203 also receives the image file corresponding to the transmission request from the cloud storage server 2 via the transmission/reception unit 201 . Then, it outputs the received image file to the image processing unit 210 .

実行時間出力部204は、印刷ジョブ取得部202から入力した印刷ジョブ情報に基づき、印刷装置9による印刷処理の実行時間tを予測して、目的時刻取得部205に出力する。より具体的には、実行時間出力部204は、印刷ジョブが指示する印刷処理の印刷色や、印刷部数、後処理の有無等と、印刷装置9による用紙等の記録媒体1枚当たりの標準的な印刷処理時間等から、印刷ジョブが指示する印刷処理の実行時間tを予測する。印刷装置9による用紙等の記録媒体1枚当たりの標準的な印刷処理時間は、予め定められ、図2のHD504等に格納されている。実行時間出力部204は、印刷装置9の識別情報に基づき、HD504等を参照して、記録媒体1枚当たりの標準的な印刷処理時間を取得することができる。 Based on the print job information input from the print job acquisition unit 202 , the execution time output unit 204 predicts the execution time t 1 of the print processing by the printing device 9 and outputs it to the target time acquisition unit 205 . More specifically, the execution time output unit 204 outputs the print color, the number of copies, presence/absence of post-processing, etc. of the print processing instructed by the print job, and the standard output per sheet of recording medium such as paper by the printing device 9. Execution time t1 of print processing instructed by the print job is predicted from the print processing time and the like. A standard print processing time per sheet of recording medium such as paper by the printing device 9 is determined in advance and stored in the HD 504 or the like in FIG. Based on the identification information of the printing apparatus 9, the execution time output unit 204 can refer to the HD 504 or the like to acquire the standard print processing time per sheet of recording medium.

また、印刷ジョブを送信するスマートフォン4のユーザが、印刷装置9の位置に到着した後、IDカード等を用いてユーザの認証動作を行う標準的な時間と、印刷装置9における操作パネル940の印刷開始ボタンを押して印刷を開始させる動作の標準的な時間を予め定めておき、これらの時間を印刷処理の実行時間tに追加しても良い。 In addition, after the user of the smartphone 4 who transmits the print job arrives at the position of the printing device 9, the standard time for performing the user authentication operation using an ID card or the like, and the printing time of the operation panel 940 in the printing device 9 A standard time for the operation of pressing the start button to start printing may be determined in advance, and these times may be added to the print processing execution time t1 .

目的時刻取得部205は、目的時刻として、印刷ジョブが指示する印刷処理を印刷装置9が実行した場合における印刷処理の終了予定時刻(印刷終了予定時刻)を取得する。目的時刻取得部205は、図2のタイマー517が取得した現在時刻Tに、実行時間出力部204から入力した印刷処理の実行時間tを加算して、印刷終了予定時刻T+tを取得する。目的時刻取得部205は、取得した印刷終了予定時刻T+tの情報を画像処理部210に出力する。 The target time acquisition unit 205 acquires, as the target time, the scheduled end time of the print processing (scheduled print end time) when the printing apparatus 9 executes the print processing instructed by the print job. The target time acquisition unit 205 adds the print processing execution time t1 input from the execution time output unit 204 to the current time T0 acquired by the timer 517 in FIG. get. The target time acquisition unit 205 outputs the acquired information on the scheduled print end time T 0 +t 1 to the image processing unit 210 .

なお、目的時刻取得部205は、タイマー517が取得した現在時刻に代えて、スマートフォン4が印刷ジョブとともに送信した印刷ジョブの送信時刻情報を、送受信部201を介して受信し、これを現在時刻として取得しても良い。また、以下において、タイマー517が取得した現在時刻を用いる場合が他にもあるが、これらの場合でも同様に、タイマー517が取得した現在時刻に代えて、スマートフォン4が印刷ジョブとともに送信した印刷ジョブの送信時刻が現在時刻として取得されても良い。 Note that instead of the current time acquired by the timer 517, the target time acquisition unit 205 receives the transmission time information of the print job transmitted by the smartphone 4 together with the print job via the transmission/reception unit 201, and uses this as the current time. You can get it. In the following, there are other cases where the current time acquired by the timer 517 is used. may be acquired as the current time.

端末位置取得部206は、スマートフォン4が送信したスマートフォン4の現在位置の座標情報を、送受信部201を介して取得し、これを目的地位置取得部207及び目的地到着予定時刻取得部209に出力する。 The terminal location acquisition unit 206 acquires the coordinate information of the current location of the smartphone 4 transmitted by the smartphone 4 via the transmission/reception unit 201, and outputs this to the destination location acquisition unit 207 and the destination estimated arrival time acquisition unit 209. do.

目的地位置取得部207は、目的地の位置情報として、印刷ジョブが指示する印刷処理を実行する印刷装置9の設置位置の情報を取得する。目的地位置取得部207は、印刷装置9の識別情報に基づき、印刷装置位置格納部208を参照して印刷装置9の設置位置の情報を取得することができる。印刷装置位置格納部208は、図2のHD504等により実現され、印刷装置9が含まれる複数の印刷装置のそれぞれの設置位置情報を格納している。目的地位置取得部207は、取得した印刷装置9の設置位置情報を目的地到着予定時刻取得部209に出力する。 The destination position acquisition unit 207 acquires, as the position information of the destination, the information of the installation position of the printing device 9 that executes the print processing instructed by the print job. The destination position acquisition unit 207 can acquire information on the installation position of the printing device 9 by referring to the printing device position storage unit 208 based on the identification information of the printing device 9 . The printing device position storage unit 208 is implemented by the HD 504 or the like in FIG. 2, and stores installation position information for each of a plurality of printing devices including the printing device 9 . The destination position acquisition unit 207 outputs the acquired installation position information of the printing device 9 to the destination scheduled arrival time acquisition unit 209 .

目的地到着予定時刻取得部209は、端末位置取得部206から取得したスマートフォン4の位置情報と、目的地位置取得部207から取得した印刷装置9の設置位置情報とに基づき、スマートフォン4のユーザが、目的地である印刷装置9の設置位置に到着する目的地到着予定時刻を取得する。 The destination estimated arrival time acquisition unit 209 determines whether the user of the smartphone 4 has , an estimated time of arrival at the destination, or the installation position of the printing device 9, is obtained.

より詳しくは、目的地到着予定時刻取得部209は、端末位置取得部206から取得したスマートフォン4の位置情報と、目的地位置取得部207から取得した印刷装置9の設置位置情報とから、印刷ジョブ送信時のスマートフォン4の位置から印刷装置9の設置位置までの距離を取得する。そして、この距離を予め定められた標準的な歩行速度で除算して、印刷ジョブ送信時のスマートフォン4の位置から印刷装置9の設置位置までのユーザの移動時間(スマートフォン4の移動時間)tを取得する。目的地到着予定時刻取得部209は、図2のタイマー517が取得した現在時刻Tに、この移動時間tを加算して、目的地到着予定時刻T+tを取得することができる。 More specifically, the destination estimated arrival time acquisition unit 209 acquires the print job based on the location information of the smartphone 4 acquired from the terminal location acquisition unit 206 and the installation location information of the printing device 9 acquired from the destination location acquisition unit 207. The distance from the position of the smartphone 4 at the time of transmission to the installation position of the printing device 9 is acquired. Then, this distance is divided by a predetermined standard walking speed, and the travel time (travel time of smartphone 4) t 2 of the user from the position of smartphone 4 at the time of print job transmission to the installation position of printing device 9 is calculated. to get The destination estimated arrival time acquiring unit 209 can acquire the destination estimated arrival time T 0 +t 2 by adding the travel time t 2 to the current time T 0 acquired by the timer 517 in FIG.

但し、目的地到着予定時刻取得部209による目的地到着予定時刻T+tの取得方法は、これに限定されるものではない。例えば、他の例として、位置に応じた標準的な移動経路を予め定め、HD504等に予め格納しておく。目的地到着予定時刻取得部209は、HD504等を参照して、印刷ジョブ送信時のスマートフォン4の位置から印刷装置9の設置位置までの標準的な移動経路を取得し、標準的な移動経路に沿った距離を標準的な歩行速度で除算することで、移動時間tを取得しても良い。 However, the method of acquiring the destination estimated arrival time T 0 +t 2 by the destination estimated arrival time acquiring unit 209 is not limited to this. For example, as another example, a standard moving route corresponding to a position is determined in advance and stored in advance in the HD 504 or the like. The destination estimated arrival time acquisition unit 209 refers to the HD 504 or the like to acquire a standard travel route from the position of the smartphone 4 at the time of print job transmission to the installation position of the printing apparatus 9, and obtains the standard travel route. The travel time t2 may be obtained by dividing the distance along by the normal walking speed.

目的地到着予定時刻取得部209は、取得した目的地到着予定時刻T+tの情報を画像処理部210に出力する。 The destination estimated arrival time acquisition unit 209 outputs information on the acquired estimated destination arrival time T 0 +t 2 to the image processing unit 210 .

画像処理部210は、目的時刻取得部205から入力した印刷終了予定時刻T+tの情報と、目的地到着予定時刻取得部209から入力した目的地到着予定時刻T+tの情報とに基づき、実行する画像処理を決定する。そして、決定した画像処理を、画像データ取得部203から入力した画像ファイルに含まれる画像データに対して実行する。なお、この画像処理には、上述したように、画像データの解像度変換処理、変倍処理、画像ファイルの圧縮処理、又はPostScript変換処理の少なくとも何れか1つが含まれている。 The image processing unit 210 combines the information of the estimated print end time T 0 +t 1 input from the target time acquisition unit 205 and the information of the estimated destination arrival time T 0 +t 2 input from the destination estimated arrival time acquisition unit 209 into Based on this, the image processing to be executed is determined. Then, the determined image processing is executed on the image data included in the image file input from the image data acquisition unit 203 . As described above, this image processing includes at least one of image data resolution conversion processing, scaling processing, image file compression processing, and PostScript conversion processing.

より詳しく説明すると、画像処理部210は、判定部220を備える。判定部220は、印刷終了予定時刻T+tと、目的地到着予定時刻T+tを比較して、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻であるか否かを判定する。そして、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻であると判定された場合には、画像処理部210は、印刷ジョブの指示に応じた画質優先の画像処理を実行する。 More specifically, the image processing section 210 has a determination section 220 . The determination unit 220 compares the estimated print end time T 0 +t 1 with the destination arrival time T 0 +t 2 and determines that the print end time T 0 +t 1 is earlier than the destination arrival time T 0 +t 2 . It is determined whether or not. Then, when it is determined that the scheduled print end time T 0 +t 1 is earlier than the scheduled destination arrival time T 0 +t 2 , the image processing unit 210 performs image quality priority image processing according to the instruction of the print job. Execute the process.

画質優先の画像処理は、一例として、画像ファイルに含まれる画像データの解像度を600dpi(dots per inch)から1200dpiに変換して解像度を上げる解像度変換処理や、JPEG画像の圧縮率を低下させる圧縮処理、或いは非圧縮のTIFF画像にする処理等である。これらの処理により、画質を向上させたり(画像ファイルのサイズを大きくする)、ユーザの好みに応じて文字を大きく印刷されるように記録媒体のサイズを変えたりすることができ、印刷装置9のユーザビリティを向上させることができる。 Image quality-priority image processing includes, for example, resolution conversion processing to increase the resolution of image data contained in an image file by converting the resolution from 600 dpi (dots per inch) to 1200 dpi, and compression processing to reduce the compression ratio of JPEG images. , or processing to convert to an uncompressed TIFF image. By these processes, it is possible to improve the image quality (increase the size of the image file) and change the size of the recording medium so that the characters are printed larger according to the user's preference. Usability can be improved.

一方、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻でないと判定された場合には、画像処理部210は、印刷速度優先の画像処理を実行する。印刷速度優先の画像処理は、一例として、画像ファイルに含まれる画像データの解像度を1200dpiから600dpiに変換して解像度を下げる解像度変換処理や、画像ファイルのサイズを小さくする圧縮処理等である。これらの処理により、印刷装置9が画像処理装置5から画像ファイルを受信(ダウンロード)する時間や印刷処理を実行する時間を短縮し、印刷終了予定時刻T+tを目的地到達予定時刻T+tより早くすることができる。 On the other hand, when it is determined that the scheduled print end time T 0 +t 1 is not earlier than the destination arrival scheduled time T 0 +t 2 , the image processing unit 210 executes image processing with priority given to printing speed. Examples of image processing prioritizing printing speed include resolution conversion processing for converting the resolution of image data included in an image file from 1200 dpi to 600 dpi to reduce the resolution, compression processing for reducing the size of the image file, and the like. By these processes, the time for the printing device 9 to receive (download) an image file from the image processing device 5 and the time for executing print processing are shortened, and the estimated print end time T 0 +t 1 is reduced to the destination arrival time T 0 . +t can be earlier than 2 .

画像処理部210は、上述した画像処理後の画像データを含む画像ファイルを、画像ファイル送信部211に出力する。 The image processing unit 210 outputs the image file containing the image data after the image processing described above to the image file transmission unit 211 .

画像ファイル送信部211は、図2のネットワークI/F509等により実現され、画像処理部210から入力した画像ファイルを印刷装置9に送信する。 The image file transmission unit 211 is implemented by the network I/F 509 or the like in FIG.

なお、上述した例では、印刷ジョブは、印刷処理を実行する印刷装置9を特定する識別情報を含み、目的地位置取得部207は、識別情報に応じた印刷装置9の位置情報を取得する場合を説明したが、これに限定されるものではない。 In the above example, the print job includes identification information for specifying the printing device 9 that executes the printing process, and the destination position acquisition unit 207 acquires the position information of the printing device 9 according to the identification information. has been described, but it is not limited to this.

他の例として、画像形成システム100は、異なる場所に設置された複数の印刷装置を備える。目的地位置取得部207は、端末位置取得部206から入力したスマートフォン4の現在位置の座標情報に基づき、印刷装置位置格納部208を参照して、スマートフォン4の現在位置から最も近い位置にある印刷装置を特定し、その位置情報を目的地到着予定時刻取得部209に出力しても良い。このようにすることで、ユーザは、現在位置から最も近い位置にある印刷装置に、印刷ジョブの指示する印刷処理を実行させることができる。 As another example, image forming system 100 includes multiple printing devices installed at different locations. The destination position acquisition unit 207 refers to the printing device position storage unit 208 based on the coordinate information of the current position of the smartphone 4 input from the terminal position acquisition unit 206, and selects the printing device at the closest position from the current position of the smartphone 4. A device may be specified and its position information may be output to the destination estimated arrival time acquisition unit 209 . By doing so, the user can cause the printing apparatus located closest to the current position to execute the print process instructed by the print job.

<第1の実施形態に係る画像処理装置による処理>
次に、本実施形態に係る画像処理装置5による処理を説明する。図6は、本実施形態に係る画像処理装置5による処理の一例を示すフローチャートである。
<Processing by Image Processing Apparatus According to First Embodiment>
Next, processing by the image processing apparatus 5 according to this embodiment will be described. FIG. 6 is a flowchart showing an example of processing by the image processing device 5 according to this embodiment.

先ず、ステップS61において、印刷ジョブ取得部202は、画像データに基づく印刷処理を指示する印刷ジョブを、送受信部201を介してスマートフォン4から取得し、印刷ジョブ情報を画像データ取得部203及び実行時間出力部204に出力する。 First, in step S61, the print job acquisition unit 202 acquires a print job that instructs print processing based on image data from the smartphone 4 via the transmission/reception unit 201, and sends print job information to the image data acquisition unit 203 and the execution time. Output to the output unit 204 .

続いて、ステップS62において、画像データ取得部203は、印刷処理を行う画像データが含まれる画像ファイルの送信要求を、送受信部201を介してクラウドストレージサーバ2に送信する。また、画像データ取得部203は、送信要求に応じた画像ファイルを、送受信部201を介してクラウドストレージサーバ2から受信する。そして、受信した画像ファイルを画像処理部210に出力する。 Subsequently, in step S<b>62 , the image data acquisition unit 203 transmits to the cloud storage server 2 via the transmission/reception unit 201 a transmission request for an image file containing image data to be printed. The image data acquisition unit 203 also receives the image file corresponding to the transmission request from the cloud storage server 2 via the transmission/reception unit 201 . Then, it outputs the received image file to the image processing unit 210 .

続いて、ステップS63において、実行時間出力部204は、印刷ジョブ情報に基づき、印刷装置9による印刷処理の実行時間tを予測し、目的時刻取得部205に出力する。 Subsequently, in step S<b>63 , the execution time output unit 204 predicts the execution time t 1 of print processing by the printing device 9 based on the print job information, and outputs it to the target time acquisition unit 205 .

続いて、ステップS64において、目的時刻取得部205は、図2のタイマー517が取得した現在時刻に、実行時間出力部204から入力した印刷処理の実行時間tを加算して、印刷終了予定時刻T+tを取得する。目的時刻取得部205は、取得した印刷終了予定時刻T+tの情報を画像処理部210に出力する。 Subsequently, in step S64, the target time acquisition unit 205 adds the print processing execution time t1 input from the execution time output unit 204 to the current time acquired by the timer 517 in FIG. Get T 0 +t 1 . The target time acquisition unit 205 outputs the acquired information on the scheduled print end time T 0 +t 1 to the image processing unit 210 .

続いて、ステップS65において、端末位置取得部206は、スマートフォン4が送信したスマートフォン4の現在位置の座標情報を、送受信部201を介して取得し、これを目的地位置取得部207及び目的地到着予定時刻取得部209に出力する。 Subsequently, in step S65, the terminal position acquiring unit 206 acquires the coordinate information of the current position of the smartphone 4 transmitted by the smartphone 4 via the transmitting/receiving unit 201, and transmits it to the destination position acquiring unit 207. Output to the scheduled time acquisition unit 209 .

続いて、ステップS66において、目的地位置取得部207は、印刷ジョブが指示する印刷処理を実行する印刷装置9の識別情報に基づき、印刷装置位置格納部208を参照して印刷装置9の設置位置の情報を、目的地の位置情報として取得する。そして、目的地位置取得部207は、取得した印刷装置9の設置位置の情報を、目的地到着予定時刻取得部209に出力する。 Subsequently, in step S66, the destination position acquisition unit 207 refers to the printing device position storage unit 208 based on the identification information of the printing device 9 that executes the printing process instructed by the print job, and obtains the installation position of the printing device 9. information as the location information of the destination. Then, the destination position acquisition unit 207 outputs the acquired installation position information of the printing device 9 to the destination estimated arrival time acquisition unit 209 .

続いて、ステップS67において、目的地到着予定時刻取得部209は、端末位置取得部206から取得したスマートフォン4の位置情報と、目的地位置取得部207から取得した印刷装置9の設置位置情報とに基づき、スマートフォン4のユーザが、目的地である印刷装置9の設置位置に到着する目的地到着予定時刻T+tを取得する。目的地到着予定時刻取得部209は、取得した目的地到着予定時刻T+tの情報を画像処理部210に出力する。 Subsequently, in step S<b>67 , the destination estimated arrival time acquisition unit 209 combines the location information of the smartphone 4 acquired from the terminal location acquisition unit 206 with the installation location information of the printing device 9 acquired from the destination location acquisition unit 207 . Based on this, the user of the smartphone 4 acquires the destination arrival scheduled time T 0 +t 2 at which the printing device 9 is installed at the destination. The destination estimated arrival time acquisition unit 209 outputs information on the acquired estimated destination arrival time T 0 +t 2 to the image processing unit 210 .

続いて、ステップS68において、画像処理部210に含まれる判定部220は、目的時刻取得部205から入力した印刷終了予定時刻T+tの情報と、目的地到着予定時刻取得部209から入力した目的地到着予定時刻T+tの情報とを比較して、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻であるか否かを判定する。 Subsequently, in step S68, the determination unit 220 included in the image processing unit 210 receives the information on the estimated print end time T 0 +t 1 input from the target time acquisition unit 205 and the estimated arrival time at the destination acquisition unit 209. By comparing with the information of the estimated destination arrival time T 0 +t 2 , it is determined whether or not the estimated print end time T 0 +t 1 is earlier than the estimated destination arrival time T 0 +t 2 .

ステップS68で、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻であると判定された場合(ステップS68、Yes)、ステップS69に移行し、画像処理部210は、画質優先の画像処理を実行する。そして、画像処理部210は、画像処理後の画像データを含む画像ファイルを、画像ファイル送信部211に出力する。 If it is determined in step S68 that the scheduled print end time T 0 +t 1 is earlier than the destination arrival scheduled time T 0 +t 2 (step S68, Yes), the process proceeds to step S69, and the image processing unit 210 , performs image processing with priority on image quality. Then, the image processing section 210 outputs the image file containing the image data after the image processing to the image file transmitting section 211 .

一方、ステップS68で、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻でないと判定された場合(ステップS68、No)、ステップS70に移行し、画像処理部210は、印刷速度優先の画像処理を実行する。そして、画像処理部210は、画像処理後の画像データを含む画像ファイルを、画像ファイル送信部211に出力する。 On the other hand, if it is determined in step S68 that the scheduled print end time T 0 +t 1 is not earlier than the destination arrival scheduled time T 0 +t 2 (step S68, No), the process proceeds to step S70, and the image processing unit 210 executes image processing with print speed priority. Then, the image processing section 210 outputs the image file containing the image data after the image processing to the image file transmitting section 211 .

続いて、画像ファイル送信部211は、画像処理部210から入力した画像ファイルを、ネットワーク1を介して印刷装置9に送信する。 Subsequently, the image file transmission section 211 transmits the image file input from the image processing section 210 to the printing device 9 via the network 1 .

このようにして、画像処理装置5は、印刷ジョブに応じ、クラウドストレージサーバ2に蓄積された画像ファイルに含まれる画像データに所定の画像処理を実行し、印刷装置9は、画像処理後の画像データに基づく印刷処理を実行することができる。 In this manner, the image processing device 5 performs predetermined image processing on the image data included in the image files stored in the cloud storage server 2 according to the print job, and the printing device 9 processes the image after the image processing. A data-based print process can be performed.

<第1の実施形態に係る画像処理装置の作用効果>
次に、本実施形態に係る画像処理装置5の作用効果について説明する。
<Effects of the image processing apparatus according to the first embodiment>
Next, functions and effects of the image processing apparatus 5 according to this embodiment will be described.

画像ファイルを蓄積するクラウドストレージサーバと印刷装置を連携させ、スマートフォン等の情報端末で指定された画像ファイルを印刷装置に印刷させる技術が知られている。 2. Description of the Related Art A technology is known in which a cloud storage server storing image files and a printing device are linked and an image file specified by an information terminal such as a smartphone is printed by the printing device.

また、情報端末のユーザの移動経路及び移動時間と、印刷装置による印刷時間に基づいて、所望のタイミングで印刷物を出力できる場所に設置された印刷装置を印刷物の出力先として決定し、ユーザが印刷装置の位置に到着後、印刷が完了するまでの印刷待ち時間を短縮する技術が開示されている。 In addition, based on the travel route and travel time of the user of the information terminal and the printing time of the printing device, a printing device installed in a place where the printed matter can be output at the desired timing is determined as the output destination of the printed matter, and the user can print. Techniques have been disclosed for shortening the print waiting time from arrival at the position of the device until printing is completed.

しかしながら、これらの従来の技術では、印刷処理の実行前に、印刷処理の対象となる画像データに対して、解像度変換やファイル圧縮、PostScript変換等の画像処理が実行される場合に、これらの画像処理の実行時間によって、印刷待ち時間が生じる場合があった。 However, in these conventional techniques, when image processing such as resolution conversion, file compression, and PostScript conversion is performed on image data to be printed before execution of print processing, these images Depending on the execution time of the process, print waiting time may occur.

本実施形態では、目的地到着予定時刻取得部209は、スマートフォン4の位置情報と、印刷装置9の位置情報とに基づき、スマートフォン4のユーザが印刷装置9の位置に到着する目的地到着予定時刻T+tを取得する。また、目的時刻取得部205は、目的時刻として、印刷ジョブが指示する印刷処理を印刷装置9が実行した場合における印刷終了予定時刻T+tを取得する。 In this embodiment, the destination estimated arrival time acquisition unit 209 calculates the destination estimated arrival time at which the user of the smartphone 4 arrives at the printing device 9 based on the location information of the smartphone 4 and the location information of the printing device 9 . Get T 0 +t 2 . Further, the target time acquisition unit 205 acquires, as the target time, the scheduled print end time T 0 +t 1 when the printing apparatus 9 executes the print processing instructed by the print job.

そして、目的地到着予定時刻T+tと印刷終了予定時刻T+tとを比較する。印刷終了予定時刻T+tが目的地到着予定時刻T+tより早い時刻である場合は、スマートフォン4のユーザが印刷を指示後、印刷装置9の設置位置に到着した時には、指示した印刷は終了しているため、印刷待ち時間が生じることはない。そのため、画像処理部210は、画質優先の画像処理を実行し、これにより、印刷装置9のユーザビリティを向上させることができる。 Then, the estimated destination arrival time T 0 +t 2 and the estimated print end time T 0 +t 1 are compared. If the scheduled print end time T 0 +t 1 is earlier than the scheduled destination arrival time T 0 +t 2 , when the user of the smartphone 4 arrives at the installation position of the printing device 9 after instructing printing, the instructed printing is completed, there is no waiting time for printing. Therefore, the image processing unit 210 executes image processing with priority given to image quality, thereby improving the usability of the printing apparatus 9 .

一方、印刷終了予定時刻T+tが目的地到達予定時刻T+tより早い時刻でない場合、ユーザが印刷装置9の設置位置に到着した時に、指示した印刷はまだ終了しないため、このままでは印刷待ち時間が生じる。そのため、画像処理部210は、印刷終了時刻T+tを早めるために、印刷速度優先の画像処理を実行する。これにより、印刷終了予定時刻T+tを目的地到着予定時刻T+tより早くすることができ、ユーザが印刷装置9の設置位置に到着するまでに印刷処理を終了させることができる。その結果、印刷の待ち時間が生じないようにすることができる。このようにして、印刷待ち時間を生じさせない画像処理装置を提供することができる。 On the other hand, if the scheduled print end time T 0 +t 1 is not earlier than the destination arrival scheduled time T 0 +t 2 , the instructed printing will not end when the user arrives at the installation position of the printing device 9 . Print waiting time occurs. Therefore, the image processing unit 210 executes image processing giving priority to printing speed in order to advance the print end time T 0 +t 1 . As a result, the scheduled printing end time T 0 +t 1 can be made earlier than the scheduled destination arrival time T 0 +t 2 , and the printing process can be completed before the user arrives at the installation position of the printing device 9 . As a result, waiting time for printing can be avoided. In this way, it is possible to provide an image processing apparatus that does not cause printing waiting time.

[第2の実施形態]
次に、第2の実施形態に係る画像処理装置について説明する。なお、既に説明した実施形態と同一の構成部についての説明を省略する。
[Second embodiment]
Next, an image processing apparatus according to the second embodiment will be described. Note that the description of the same components as those of the already described embodiment will be omitted.

<第2の実施形態に係る画像処理装置を備える画像形成システムの構成>
図7は、本実施形態に係る画像処理装置5aを備える画像形成システム100aの構成の一例を説明する図である。図7に示すように、画像形成システム100aは、画像処理装置5aと、スケジュール管理サーバ6とを備えている。
<Configuration of Image Forming System Equipped with Image Processing Apparatus According to Second Embodiment>
FIG. 7 is a diagram illustrating an example of the configuration of an image forming system 100a including the image processing apparatus 5a according to this embodiment. As shown in FIG. 7, the image forming system 100a includes an image processing device 5a and a schedule management server 6. As shown in FIG.

スケジュール管理サーバ6は、スマートフォン4のユーザのスケジュール情報を管理するクラウドサーバである。スケジュール管理サーバ6は、一般的なOS等が搭載されたコンピュータ等により実現することができ、無線による通信の手段又は有線による通信の手段を備えている。また、スケジュール管理サーバ6は、送信要求に応じ、管理するスケジュール情報のうちの所定のスケジュール情報を、画像処理装置5aに送信する。なお、スケジュール管理サーバ6は、スマートフォン4のユーザ以外のスケジュール情報を管理することもできる。 The schedule management server 6 is a cloud server that manages the schedule information of the smartphone 4 user. The schedule management server 6 can be realized by a computer or the like on which a general OS or the like is installed, and is equipped with wireless communication means or wired communication means. In response to the transmission request, the schedule management server 6 transmits predetermined schedule information among the schedule information managed by the schedule management server 6 to the image processing device 5a. Note that the schedule management server 6 can also manage schedule information for users other than the smartphone 4 user.

スケジュール管理サーバ6は、第1の実施形態で説明した画像処理装置5と同様にコンピュータにより構築されている。スケジュール管理サーバ6のハードウェア構成も、図2を参照して説明したものと同様であるため、ここでは重複した説明を省略する。 The schedule management server 6 is constructed by a computer like the image processing apparatus 5 described in the first embodiment. The hardware configuration of the schedule management server 6 is also the same as that described with reference to FIG. 2, so redundant description will be omitted here.

<第2の実施形態に係る画像処理装置の機能構成>
次に、本実施形態に係る画像処理装置5aの機能構成を説明する。図8は、画像処理装置5aの機能構成の一例を説明するブロック図である。図8に示すように、画像処理装置5aは、実行時間出力部204aと、印刷装置位置取得部212と、目的時刻取得部205aと、目的地位置取得部207aと、目的地到着予定時刻取得部209aと、画像処理部210aとを備える。
<Functional Configuration of Image Processing Apparatus According to Second Embodiment>
Next, the functional configuration of the image processing apparatus 5a according to this embodiment will be described. FIG. 8 is a block diagram illustrating an example of the functional configuration of the image processing device 5a. As shown in FIG. 8, the image processing device 5a includes an execution time output unit 204a, a printer position acquisition unit 212, a destination time acquisition unit 205a, a destination position acquisition unit 207a, and an estimated destination arrival time acquisition unit. 209a and an image processing unit 210a.

実行時間出力部204aは、印刷ジョブ取得部202から入力した印刷ジョブ情報に基づき、印刷装置9による印刷処理の実行時間tを予測し、予測した実行時間tを目的地到着予定時刻取得部209aに出力する。 The execution time output unit 204a predicts the execution time t1 of print processing by the printing device 9 based on the print job information input from the print job acquisition unit 202, and outputs the predicted execution time t1 to the destination estimated arrival time acquisition unit. 209a.

目的時刻取得部205aは、目的時刻として、スマートフォン4のユーザが参加する会議の開始時刻Tを取得して画像処理部210aに出力する。目的時刻取得部205aは、スマートフォン4のユーザの識別番号に基づき、送受信部201及びネットワーク1を介してスケジュール管理サーバ6を参照し、スマートフォン4のユーザが出席する会議の開始時刻Tを取得することができる。ここで、スマートフォン4のユーザが参加する会議の開始時刻Tは、「イベントの開始時刻」の一例である。 The target time acquisition unit 205a acquires the start time T1 of the conference in which the user of the smartphone 4 participates as the target time, and outputs it to the image processing unit 210a. The target time acquisition unit 205a refers to the schedule management server 6 via the transmission/reception unit 201 and the network 1 based on the identification number of the user of the smartphone 4, and acquires the start time T1 of the meeting attended by the user of the smartphone 4. be able to. Here, the start time T1 of the conference in which the user of the smartphone 4 participates is an example of the "event start time."

印刷装置位置取得部212は、印刷ジョブが指示する印刷処理を実行する印刷装置9の設置位置の情報を取得する。印刷装置位置取得部212は、印刷装置9の識別情報に基づき、印刷装置位置格納部208を参照して印刷装置9の設置位置の情報を取得することができる。印刷装置位置取得部212は、取得した印刷装置9の設置位置情報を目的地到着予定時刻取得部209aに出力する。 The printing device position acquisition unit 212 acquires information on the installation position of the printing device 9 that executes the printing process instructed by the print job. The printing device position acquisition unit 212 can acquire information on the installation position of the printing device 9 by referring to the printing device position storage unit 208 based on the identification information of the printing device 9 . The printing device position obtaining unit 212 outputs the obtained installation position information of the printing device 9 to the destination scheduled arrival time obtaining unit 209a.

目的地位置取得部207aは、目的地の位置情報として、スマートフォン4のユーザが参加する会議の開催場所の情報を取得する。目的地位置取得部207aは、スマートフォン4のユーザの識別番号に基づき、送受信部201及びネットワーク1を介してスケジュール管理サーバ6を参照し、スマートフォン4のユーザが参加する会議の開催場所の情報を取得することができる。ここで、スマートフォン4のユーザが参加する会議の開催場所は、「イベントの開催場所」の一例である。目的地位置取得部207aは、会議の開催場所の情報を目的地到着予定時刻取得部209aに出力する。 The destination position acquisition unit 207a acquires, as the position information of the destination, information on the location of the conference in which the user of the smartphone 4 participates. The destination position acquiring unit 207a refers to the schedule management server 6 via the transmitting/receiving unit 201 and the network 1 based on the identification number of the user of the smartphone 4, and acquires information on the venue of the conference in which the user of the smartphone 4 will participate. can do. Here, the venue of the conference in which the user of the smart phone 4 participates is an example of the “event venue”. The destination position acquisition unit 207a outputs the information on the venue of the conference to the destination scheduled arrival time acquisition unit 209a.

目的地到着予定時刻取得部209aは、端末位置取得部206から入力したスマートフォン4の位置情報と、目的地位置取得部207aから入力した会議の開催場所情報と、実行時間出力部204aから入力した実行時間tと、印刷装置位置取得部212から入力した印刷装置9の設置位置情報と、に基づき、目的地である会議の開催場所に、ユーザが到着する目的地到着予定時刻を取得する。 The destination estimated arrival time acquisition unit 209a acquires the location information of the smartphone 4 input from the terminal location acquisition unit 206, the meeting place information input from the destination location acquisition unit 207a, and the execution time input from the execution time output unit 204a. Based on the time t1 and the installation position information of the printing device 9 input from the printing device position acquisition unit 212, the destination scheduled arrival time at which the user arrives at the meeting venue, which is the destination, is acquired.

より詳しくは、目的地到着予定時刻取得部209aは、端末位置取得部206から入力したスマートフォン4の位置情報と、印刷装置位置取得部212から入力した印刷装置9の設置位置情報とから、印刷ジョブ送信時のスマートフォン4の位置から印刷装置9の設置位置までの距離を取得する。そして、この距離を予め定められた標準的な歩行速度で除算して、印刷ジョブ送信時のスマートフォン4の位置から印刷装置9の設置位置までのユーザの移動時間(スマートフォン4の移動時間)tを取得する。 More specifically, the destination estimated arrival time acquisition unit 209a acquires the print job based on the location information of the smartphone 4 input from the terminal location acquisition unit 206 and the installation location information of the printing device 9 input from the printing device location acquisition unit 212. The distance from the position of the smartphone 4 at the time of transmission to the installation position of the printing device 9 is acquired. Then, this distance is divided by a predetermined standard walking speed, and the travel time (travel time of smartphone 4) t 2 of the user from the position of smartphone 4 at the time of print job transmission to the installation position of printing device 9 is calculated. to get

また、目的地到着予定時刻取得部209aは、印刷装置位置取得部212から入力した印刷装置9の設置位置情報と、目的地位置取得部207aから入力した会議の開催場所情報とから、印刷装置9の設置位置から会議の開催場所までの距離を取得する。そして、この距離を予め定められた標準的な歩行速度で除算して、印刷装置9の設置位置から会議の開催場所までのユーザの移動時間(スマートフォン4の移動時間)tを取得する。 Further, the destination estimated arrival time acquisition unit 209a acquires the printing device 9 based on the installation position information of the printing device 9 input from the printing device position acquisition unit 212 and the conference venue information input from the destination position acquisition unit 207a. Get the distance from the installation location of the to the meeting location. Then, by dividing this distance by a predetermined standard walking speed, the user's travel time (smartphone 4 travel time) t3 from the installation position of the printing device 9 to the meeting place is obtained.

換言すると、目的地到着予定時刻取得部209aは、ユーザがスマートフォン4で印刷ジョブを送信した位置から印刷装置9の設置位置まで移動し、印刷装置9が出力した印刷物を入手し、印刷物を持って会議の開催場所まで移動する時間を取得することができる。 In other words, the destination estimated arrival time acquisition unit 209a moves from the position where the user sent the print job with the smartphone 4 to the installation position of the printing device 9, obtains the printed matter output by the printing device 9, and carries the printed matter. It is possible to acquire the time to travel to the venue of the conference.

目的地到着予定時刻取得部209aは、図2のタイマー517が取得した現在時刻Tにこの移動時間t及びtと、実行時間tとを加算して、目的地到着予定時刻T+t+t+tを取得することができる。 The destination estimated arrival time acquisition unit 209a adds the travel times t2 and t3 and the execution time t1 to the current time T0 acquired by the timer 517 in FIG. 2 to obtain the destination estimated arrival time T0. +t 1 +t 2 +t 3 can be obtained.

但し、目的地到着予定時刻取得部209aによる目的地到着予定時刻T+t+t+tの取得方法は、これに限定されるものではない。例えば、他の例として、位置に応じた標準的な移動経路を予め定め、HD504等に予め格納しておく。目的地到着予定時刻取得部209aは、HD504等を参照して、印刷ジョブ送信時のスマートフォン4の位置から印刷装置9の設置位置までの標準的な移動経路、及び印刷装置9の設置位置から会議の開催場所までの標準的な移動経路を取得し、標準的な移動経路に沿った距離を予め定められた標準的な歩行速度で除算することで、移動時間t及びtを取得しても良い。 However, the method of acquiring the estimated destination arrival time T 0 +t 1 +t 2 +t 3 by the destination estimated arrival time acquiring unit 209a is not limited to this. For example, as another example, a standard moving route corresponding to a position is determined in advance and stored in advance in the HD 504 or the like. The destination estimated arrival time acquisition unit 209a refers to the HD 504 or the like to obtain a standard movement route from the position of the smartphone 4 at the time of print job transmission to the installation position of the printing device 9, and a meeting route from the installation position of the printing device 9. obtain the travel times t2 and t3 by dividing the distance along the standard travel route by the predetermined standard walking speed, Also good.

目的地到着予定時刻取得部209aは、取得した目的地到着予定時刻T+t+t+tの情報を画像処理部210aに出力する。 The destination estimated arrival time acquiring unit 209a outputs information on the acquired estimated destination arrival time T0 + t1 + t2 + t3 to the image processing unit 210a.

画像処理部210aは、目的時刻取得部205aから入力した会議の開始時刻Tの情報と、目的地到着予定時刻取得部209aから入力した目的地到着予定時刻T+t+t+tの情報とに基づき、実行する画像処理を決定する。そして、決定した画像処理を、画像データ取得部203から入力した画像ファイルに含まれる画像データに対して実行する。 The image processing unit 210a obtains the information of the meeting start time T1 input from the target time acquisition unit 205a and the information of the estimated destination arrival time T0 + t1 + t2 + t3 input from the destination estimated arrival time acquisition unit 209a. and determines the image processing to be executed. Then, the determined image processing is executed on the image data included in the image file input from the image data acquisition unit 203 .

より詳しく説明すると、画像処理部210aは、判定部220aを備える。判定部220aは、会議の開始時刻Tと、目的地到着予定時刻T+t+t+tを比較して、目的地到達予定時刻T+t+t+tが会議の開始時刻Tより早い時刻であるか否かを判定する。そして、目的地到達予定時刻T+t+t+tが会議の開始時刻Tより早い時刻であると判定された場合には、画像処理部210aは、画質優先の画像処理を実行する。 More specifically, the image processing section 210a includes a determination section 220a. The determination unit 220a compares the conference start time T1 with the destination estimated arrival time T0 + t1 +t2+ t3 , and determines that the destination estimated arrival time T0 + t1 + t2 + t3 is the conference start time T It is determined whether or not the time is earlier than 1 . Then, when it is determined that the scheduled destination arrival time T 0 +t 1 +t 2 +t 3 is earlier than the conference start time T 1 , the image processing unit 210a performs image processing prioritizing image quality.

一方、目的地到達予定時刻T+t+t+tが会議の開始時刻Tより早い時刻でないと判定された場合には、画像処理部210aは、印刷速度優先の画像処理を実行する。これにより、印刷装置9が画像処理装置5から画像ファイルを受信(ダウンロード)する時間や印刷する時間を短縮し、目的地到達予定時刻T+t+t+tを会議の開始時刻Tより早くすることができる。 On the other hand, when it is determined that the scheduled destination arrival time T 0 +t 1 +t 2 +t 3 is not earlier than the conference start time T 1 , the image processing unit 210a executes image processing with priority given to printing speed. As a result, the time for the printing device 9 to receive (download) an image file from the image processing device 5 and the time for printing it are shortened, and the estimated destination arrival time T 0 +t 1 +t 2 +t 3 is calculated from the conference start time T 1 . can be faster.

画像処理部210aは、上述した画像処理後の画像データを含む画像ファイルを、画像ファイル送信部211に出力する。 The image processing unit 210 a outputs the image file including the image data after the above image processing to the image file transmission unit 211 .

<第2の実施形態に係る画像処理装置による処理>
次に、本実施形態に係る画像処理装置5aによる処理を説明する。図9は、本実施形態に係る画像処理装置5aによる処理の一例を示すフローチャートである。なお、図9におけるステップS91~S92の処理は、図6におけるステップS61~S62の処理と同様であり、図9におけるステップS100~S102の処理は、図6におけるステップS69~S71の処理と同様であるため、それぞれ重複した説明は省略する。
<Processing by Image Processing Apparatus According to Second Embodiment>
Next, processing by the image processing device 5a according to this embodiment will be described. FIG. 9 is a flowchart showing an example of processing by the image processing device 5a according to this embodiment. The processing of steps S91 to S92 in FIG. 9 is the same as the processing of steps S61 to S62 in FIG. 6, and the processing of steps S100 to S102 in FIG. 9 is the same as the processing of steps S69 to S71 in FIG. Therefore, overlapping descriptions are omitted.

ステップS93において、実行時間出力部204aは、印刷ジョブ取得部202から入力した印刷ジョブ情報に基づき、印刷装置9による印刷処理の実行時間tを予測し、目的地到着予定時刻取得部209aに出力する。 In step S93, the execution time output unit 204a predicts the execution time t1 of the print processing by the printing device 9 based on the print job information input from the print job acquisition unit 202, and outputs it to the destination estimated arrival time acquisition unit 209a. do.

続いて、ステップS94において、目的時刻取得部205aは、目的時刻として、スマートフォン4のユーザが参加する会議の開始時刻Tを取得し、画像処理部210aに出力する。 Subsequently, in step S94, the target time acquisition unit 205a acquires the start time T1 of the conference in which the user of the smartphone 4 participates as the target time, and outputs it to the image processing unit 210a.

続いて、ステップS95において、端末位置取得部206は、スマートフォン4が送信したスマートフォン4の現在位置の座標情報を、送受信部201を介して取得し、これを目的地位置取得部207a及び目的地到着予定時刻取得部209aに出力する。 Subsequently, in step S95, the terminal position acquiring unit 206 acquires the coordinate information of the current position of the smartphone 4 transmitted by the smartphone 4 via the transmitting/receiving unit 201, and transmits it to the destination position acquiring unit 207a. Output to the scheduled time acquisition unit 209a.

続いて、ステップS96において、印刷装置位置取得部212は、印刷装置9の位置情報を取得し、目的地到着予定時刻取得部209aに出力する。 Subsequently, in step S96, the printer position acquisition unit 212 acquires the position information of the printer 9 and outputs it to the destination estimated arrival time acquisition unit 209a.

続いて、ステップS97において、目的地位置取得部207aは、会議の開催場所の情報を取得し、目的地到着予定時刻取得部209aに出力する。 Subsequently, in step S97, the destination position acquisition unit 207a acquires information on the venue of the conference, and outputs the information to the destination estimated arrival time acquisition unit 209a.

続いて、ステップS98において、目的地到着予定時刻取得部209aは、端末位置取得部206から入力したスマートフォン4の位置情報と、印刷装置位置取得部212から入力した印刷装置9の設置位置情報と、目的地位置取得部207aから入力した会議の開催場所情報と、実行時間出力部204aから入力した実行時間tとに基づき、ユーザが、目的地である会議の開催場所に到着する目的地到着予定時刻T+t+t+tを取得する。目的地到着予定時刻取得部209aは、取得した目的地到着予定時刻T+t+t+tの情報を画像処理部210aに出力する。 Subsequently, in step S98, the destination estimated arrival time acquisition unit 209a acquires the location information of the smartphone 4 input from the terminal location acquisition unit 206, the installation location information of the printing device 9 input from the printing device location acquisition unit 212, Based on the meeting location information input from the destination position acquisition unit 207a and the execution time t1 input from the execution time output unit 204a, the user is expected to arrive at the destination meeting location. Get the time T 0 +t 1 +t 2 +t 3 . The destination estimated arrival time acquiring unit 209a outputs information on the acquired estimated destination arrival time T0 + t1 + t2 + t3 to the image processing unit 210a.

続いて、ステップS99において、画像処理部210aに含まれる判定部220aは、目的時刻取得部205aから入力した会議の開始時刻Tの情報と、目的地到着予定時刻取得部209aから入力した目的地到着予定時刻T+t+t+tの情報とを比較して、目的地到達予定時刻T+t+t+tが会議の開始時刻Tより早い時刻であるか否かを判定する。 Subsequently, in step S99, the determination unit 220a included in the image processing unit 210a obtains information on the meeting start time T1 input from the target time acquisition unit 205a and the destination information input from the destination estimated arrival time acquisition unit 209a. By comparing the information of the estimated arrival time T 0 +t 1 +t 2 +t 3 , it is determined whether the estimated destination arrival time T 0 +t 1 +t 2 +t 3 is earlier than the conference start time T 1 . .

ステップS99で、目的地到達予定時刻T+t+t+tは会議の開始時刻Tより早い時刻であると判定された場合(ステップS99、Yes)は、ステップS100に移行し、目的地到達予定時刻T+t+t+tは会議の開始時刻Tより早い時刻でないと判定された場合(ステップS99、No)は、ステップS101に移行する。 If it is determined in step S99 that the scheduled destination arrival time T0 + t1 + t2 + t3 is earlier than the meeting start time T1 (step S99, Yes), the process proceeds to step S100, If it is determined that the estimated arrival time T 0 +t 1 +t 2 +t 3 is not earlier than the conference start time T 1 (step S99, No), the process proceeds to step S101.

このようにして、画像処理装置5aは、印刷ジョブに応じ、クラウドストレージサーバ2に蓄積された画像ファイルに含まれる画像データに所定の画像処理を実行し、印刷装置9は、画像処理後の画像データに基づく印刷処理を実行することができる。 In this manner, the image processing device 5a executes predetermined image processing on the image data contained in the image files stored in the cloud storage server 2 according to the print job, and the printing device 9 processes the image after the image processing. A data-based print process can be performed.

<第2の実施形態に係る画像処理装置の作用効果>
次に、本実施形態に係る画像処理装置5aの作用効果について説明する。
<Effects of the image processing apparatus according to the second embodiment>
Next, the effects of the image processing device 5a according to this embodiment will be described.

会議で使用する説明資料を印刷する場合、スケジュール管理サーバ6に登録されている会議の開始時刻までに説明資料の等の印刷物の印刷を終了させ、印刷物を必要な部数だけ持って会議開催場所に到着したい場合がある。 When printing explanatory materials to be used at a conference, the printing of the printed materials such as the explanatory materials is finished by the start time of the conference registered in the schedule management server 6, and the required number of copies of the printed materials is brought to the meeting place. You may want to arrive

この場合に、解像度変換やファイル圧縮、PostScript変換等の画像処理が実行されると、これらの画像処理の実行時間に応じて生じる印刷待ち時間により、印刷された説明資料を持って、会議の開始時刻までに会議開催場所に到着できなくなる場合があった。 In this case, when image processing such as resolution conversion, file compression, PostScript conversion, etc. is executed, the waiting time for printing that occurs according to the execution time of these image processing causes the meeting to start with the printed explanation materials. In some cases, it was not possible to arrive at the conference venue by the scheduled time.

本実施形態では、目的地到着予定時刻取得部209aは、スマートフォン4の位置情報と、印刷装置9の位置情報と、会議の開催場所の情報と、印刷処理の実行時間tとに基づき、スマートフォン4のユーザが印刷装置9の位置に到着する目的地到着予定時刻T+t+t+tを取得する。また、目的時刻取得部205aは、目的時刻として、会議の開始時刻Tを取得する。 In the present embodiment, the destination estimated arrival time acquisition unit 209a acquires the smartphone 4 based on the location information of the smartphone 4, the location information of the printing device 9, the information of the meeting place, and the print processing execution time t1 . 4 acquires the destination estimated arrival time T 0 +t 1 +t 2 +t 3 at which the user 4 arrives at the position of the printing device 9 . The target time acquisition unit 205a also acquires the start time T1 of the conference as the target time.

そして、目的地到着予定時刻T+t+t+tと会議の開始時刻Tとを比較し、目的地到着予定時刻T+t+t+tが会議の開始時刻Tより早い時刻である場合は、印刷された説明資料を持って、会議の開始時刻までに会議開催場所に到着することができる。そのため、画像処理部210aは、画質優先の画像処理を実行し、これにより、印刷装置9のユーザビリティを向上させることができる。 Then, the estimated destination arrival time T 0 +t 1 +t 2 +t 3 is compared with the conference start time T 1 , and the estimated destination arrival time T 0 +t 1 +t 2 +t 3 is earlier than the conference start time T 1 . If so, you can arrive at the meeting location by the start time of the meeting with the printed instructional materials. Therefore, the image processing unit 210a performs image processing with priority on image quality, thereby improving the usability of the printing apparatus 9. FIG.

一方、目的地到着予定時刻T+t+t+tが会議の開始時刻Tより早い時刻でない場合は、このままでは印刷された説明資料を持って、会議の開始時刻までに会議開催場所に到着することができない。そのため、画像処理部210aは、印刷速度優先の画像処理を実行する。これにより、目的地到着予定時刻T+t+t+tを会議の開始時刻Tより早くすることができ、ユーザは、印刷された説明資料を持って、会議の開始時刻までに会議開催場所に到着することができる。 On the other hand, if the estimated time of arrival at the destination T 0 +t 1 +t 2 +t 3 is not earlier than the start time T 1 of the conference, I will bring the printed explanation materials and arrive at the conference venue by the start time of the conference. unable to arrive. Therefore, the image processing unit 210a executes image processing that prioritizes printing speed. As a result, the estimated destination arrival time T 0 +t 1 +t 2 +t 3 can be made earlier than the conference start time T 1 , and the user can hold the printed explanatory material and hold the conference by the start time of the conference. can reach the place.

なお、これ以外の効果は、第1の実施形態で説明したものと同様であるため、重複した説明を省略する。 Note that other effects are the same as those described in the first embodiment, so redundant description will be omitted.

[第3の実施形態]
次に、第3の実施形態に係る画像処理装置5bについて説明する。図10は、本実施形態に係る画像処理装置5bの機能構成の一例を説明するブロック図である。図10に示すように、画像処理装置5bは、ユーザ選択情報取得部213と、画像処理部210bとを備える。
[Third embodiment]
Next, an image processing device 5b according to the third embodiment will be described. FIG. 10 is a block diagram illustrating an example of the functional configuration of the image processing device 5b according to this embodiment. As shown in FIG. 10, the image processing device 5b includes a user selection information acquisition section 213 and an image processing section 210b.

ユーザ選択情報取得部213は、図2のCPU501が所定のプログラムを実行することで実現される。ユーザ選択情報取得部213は、画像処理を変更した場合の特徴情報を、送受信部201を介して、スマートフォン4等に送信し、図3のディスプレイ418等に表示させる。この特徴情報は、画質優先の画像処理、印刷速度優先の画像処理、印刷完了予定時刻、又は目的地到着予定時刻等に関する情報である。 The user selection information acquisition unit 213 is implemented by the CPU 501 in FIG. 2 executing a predetermined program. The user selection information acquisition unit 213 transmits the feature information when the image processing is changed to the smartphone 4 or the like via the transmission/reception unit 201, and displays it on the display 418 or the like in FIG. This feature information is information relating to image processing prioritizing image quality, image processing prioritizing printing speed, scheduled print completion time, scheduled destination arrival time, and the like.

ユーザ選択情報取得部213は、ディスプレイ418等に表示させた特徴情報に応じてユーザが選択した画像処理に対する指示を、送受信部201を介して取得し、これを画像処理部210bに出力する。 The user selection information acquisition unit 213 acquires an instruction for image processing selected by the user according to the feature information displayed on the display 418 or the like via the transmission/reception unit 201, and outputs the instruction to the image processing unit 210b.

画像処理部210bは、ユーザ選択情報取得部213から入力したユーザが選択した画像処理に対する指示に応じて、画像処理を実行する。 The image processing unit 210 b executes image processing according to an instruction for image processing selected by the user input from the user selection information acquisition unit 213 .

図11は、本実施形態に係る画像処理装置5bによる処理の一例を示すフローチャートである。なお、図11におけるステップS111~S119の処理は、図9におけるステップS91~S99の処理と同様である。また、図11におけるステップS123~S125の処理は、図9におけるステップS100~S102の処理と同様である。そのため、ここでは重複した説明を省略する。 FIG. 11 is a flowchart showing an example of processing by the image processing device 5b according to this embodiment. The processing of steps S111 to S119 in FIG. 11 is the same as the processing of steps S91 to S99 in FIG. 11 are the same as steps S100 to S102 in FIG. Therefore, redundant description is omitted here.

ステップS120において、ユーザ選択情報取得部213は、画像処理部210bによる画像処理を変更した場合の特徴情報を、送受信部201を介して、スマートフォン4等に送信し、図3のディスプレイ418等に表示させる。 In step S120, the user selection information acquiring unit 213 transmits the characteristic information when the image processing by the image processing unit 210b is changed to the smartphone 4 or the like via the transmitting/receiving unit 201, and displays it on the display 418 or the like in FIG. Let

続いて、ステップS121において、ユーザ選択情報取得部213は、ユーザが選択した画像処理に対する指示を取得したか否かを判定する。 Subsequently, in step S121, the user selection information acquisition unit 213 determines whether or not an instruction for image processing selected by the user has been acquired.

ステップS121で、ユーザが選択した画像処理に対する指示を取得していない場合(ステップS121、No)は、ステップS121に戻り、ユーザが選択した画像処理に対する指示を取得するまでステップS121の処理が繰り返される。 In step S121, if an instruction for the image processing selected by the user has not been acquired (step S121, No), the process returns to step S121, and the processing of step S121 is repeated until an instruction for the image processing selected by the user is acquired. .

ステップS121で、ユーザが選択した画像処理に対する指示を取得した場合(ステップS121、Yes)は、ステップS122に移行する。 In step S121, when an instruction for the image processing selected by the user is acquired (step S121, Yes), the process proceeds to step S122.

ステップS122において、ユーザ選択情報取得部213は、ユーザが選択した画像処理に対する指示が、画質を優先する指示であるか否かを判定する。 In step S122, the user selection information acquisition unit 213 determines whether or not the instruction for image processing selected by the user is an instruction to prioritize image quality.

ステップS122で、ユーザが選択した画像処理に対する指示が画質を優先する指示である場合(ステップS122、Yes)は、ステップS123に移行し、ユーザが選択した画像処理に対する指示が画質を優先する指示でない場合(ステップS122、No)は、ステップS124に移行する。 In step S122, if the instruction for image processing selected by the user is an instruction to prioritize image quality (step S122, Yes), the process proceeds to step S123, and the instruction for image processing selected by the user is not an instruction to prioritize image quality. If so (step S122, No), the process proceeds to step S124.

このようにして、本実施形態では、ユーザが選択した画像処理に対する指示を、画像処理部210bによる画像処理に反映させることができる。 In this way, in the present embodiment, it is possible to reflect the instruction for the image processing selected by the user in the image processing by the image processing unit 210b.

なお、これ以外の効果は、第1及び第2の実施形態で説明したものと同様であるため、重複した説明を省略する。 Note that effects other than this are the same as those described in the first and second embodiments, and redundant description will be omitted.

[第4の実施形態]
次に、第4の実施形態に係る画像処理装置5cについて説明する。図12は、本実施形態に係る画像処理装置5cの機能構成の一例を説明するブロック図である。図12に示すように、画像処理装置5cは、参加者情報取得部214と、設定情報格納部215と、画像処理部210cとを備える。
[Fourth embodiment]
Next, an image processing device 5c according to the fourth embodiment will be described. FIG. 12 is a block diagram illustrating an example of the functional configuration of the image processing device 5c according to this embodiment. As shown in FIG. 12, the image processing device 5c includes a participant information acquisition section 214, a setting information storage section 215, and an image processing section 210c.

参加者情報取得部214は、図2のCPU501が所定のプログラムを実行することで実現される。参加者情報取得部214は、スマートフォン4のユーザの識別番号に基づき、送受信部201及びネットワーク1を介してスケジュール管理サーバ6を参照し、スマートフォン4のユーザが参加する会議の他の参加者の識別情報を取得する。ここで、スマートフォン4のユーザが参加する会議の他の参加者は、「イベントの参加者」の一例である。 Participant information acquisition unit 214 is implemented by CPU 501 in FIG. 2 executing a predetermined program. The participant information acquisition unit 214 refers to the schedule management server 6 via the transmission/reception unit 201 and the network 1 based on the identification number of the user of the smartphone 4, and identifies other participants of the conference in which the user of the smartphone 4 participates. Get information. Here, the other participants of the conference in which the user of the smartphone 4 participates are an example of "participants of the event".

また、参加者情報取得部214は、会議の参加者の識別情報に基づき、設定情報格納部215を参照して、設定情報を取得する。ここで、設定情報格納部215は、図2のHD504等により実現され、参加者に対応付けられた設定情報を格納している。 Also, the participant information acquisition unit 214 acquires setting information by referring to the setting information storage unit 215 based on the identification information of the conference participants. Here, the setting information storage unit 215 is realized by the HD 504 or the like in FIG. 2, and stores setting information associated with the participants.

この設定情報は、印刷装置9による印刷処理に関する設定情報であり、具体的には、画像データに含まれる文字を大きくして見やすくする設定や、紙サイズを大きくする設定等の情報である。設定情報は、参加者のそれぞれの好みに応じて変化するため、設定情報格納部215は、参加者に対応付けられた設定情報が参加者により変更された場合には、設定情報をその都度更新し、最新の設定情報を格納することが好適である。これにより、参加者の直近の好みを印刷処理に反映させることができる。参加者情報取得部214は、取得した設定情報を画像処理部210cに出力する。 This setting information is setting information related to printing processing by the printing device 9. Specifically, it is information such as a setting for enlarging the characters included in the image data for easier viewing, a setting for enlarging the paper size, and the like. Since the setting information changes according to each participant's preference, the setting information storage unit 215 updates the setting information each time when the setting information associated with the participant is changed by the participant. and preferably stores the latest setting information. As a result, the recent preferences of the participants can be reflected in the printing process. The participant information acquisition unit 214 outputs the acquired setting information to the image processing unit 210c.

画像処理部210cは、参加者情報取得部214から入力した設定情報に応じて、画像処理を実行する。 The image processing unit 210c executes image processing according to the setting information input from the participant information acquisition unit 214. FIG.

図13は、本実施形態に係る画像処理装置5cによる処理の一例を示すフローチャートである。なお、図13におけるステップS131~S141の処理は、図11におけるステップS111~S121の処理と同様である。また、図13におけるステップS145~S147の処理は、図11におけるステップS123~S125の処理と同様である。そのため、ここでは重複した説明を省略する。 FIG. 13 is a flowchart showing an example of processing by the image processing device 5c according to this embodiment. The processing of steps S131 to S141 in FIG. 13 is the same as the processing of steps S111 to S121 in FIG. 13 are the same as steps S123 to S125 in FIG. Therefore, redundant description is omitted here.

ステップS142において、ユーザ選択情報取得部213は、ユーザが選択した画像処理に対する指示が、画質を優先する指示であるか否かを判定する。 In step S142, the user selection information acquisition unit 213 determines whether or not the instruction for image processing selected by the user is an instruction to prioritize image quality.

ステップS142で、ユーザが選択した画像処理に対する指示が画質を優先する指示である場合(ステップS142、Yes)は、ステップS145に移行し、ユーザが選択した画像処理に対する指示が画質を優先する指示でない場合(ステップS142、No)は、ステップS143に移行する。 In step S142, if the instruction for image processing selected by the user is an instruction to prioritize image quality (step S142, Yes), the process proceeds to step S145, and the instruction for image processing selected by the user is not an instruction to prioritize image quality. If so (step S142, No), the process proceeds to step S143.

ステップS143において、参加者情報取得部214は、スマートフォン4のユーザの識別番号に基づき、スケジュール管理サーバ6を参照して、スマートフォン4のユーザが参加する会議の他の参加者の識別情報を取得する。そして、参加者の識別情報に基づき、設定情報格納部215を参照して、参加者の設定情報があるか否かを判定する。 In step S<b>143 , the participant information acquisition unit 214 refers to the schedule management server 6 based on the identification number of the user of the smartphone 4 and acquires the identification information of other participants of the conference in which the user of the smartphone 4 participates. . Based on the identification information of the participant, the setting information storage unit 215 is referenced to determine whether or not there is the setting information of the participant.

ステップS143で、参加者の設定情報があると判定された場合(ステップS143、Yes)は、参加者情報取得部214は、設定情報を画像処理部210cに出力する。そして、画像処理部210cは、設定情報に応じた画像処理を実行する。一方、参加者の設定情報がないと判定された場合(ステップS143、No)は、ステップS146に移行する。 If it is determined in step S143 that there is participant setting information (step S143, Yes), the participant information acquisition unit 214 outputs the setting information to the image processing unit 210c. Then, the image processing unit 210c executes image processing according to the setting information. On the other hand, if it is determined that there is no participant setting information (step S143, No), the process proceeds to step S146.

このようにして、会議の参加者の設定情報を、画像処理部210cによる画像処理に反映させることができる。 In this way, the setting information of the conference participants can be reflected in the image processing by the image processing unit 210c.

会議の参加者には、小さい字が読めない人等が含まれる場合がある。この場合に、印刷速度を優先して画像ファイルのサイズを小さくすると、会議の参加者は印刷物を適切に利用することができなくなる。本実施形態では、参加者情報取得部214が会議の参加者の設定情報の有無を確認し、ある場合は設定情報を取得して画像処理に反映させる。これにより、会議の参加者は印刷物を適切に利用することが可能となる。 Conference participants may include people who cannot read small characters. In this case, if the print speed is prioritized and the size of the image file is reduced, the conference participants will not be able to use the printed material appropriately. In the present embodiment, the participant information acquisition unit 214 checks the presence or absence of setting information on the participants of the conference, and if there is setting information, acquires the setting information and reflects it in image processing. This allows conference participants to appropriately use the printed material.

なお、これ以外の効果は、第1~3の実施形態で説明したものと同様であるため、重複した説明を省略する。 Since effects other than this are the same as those described in the first to third embodiments, redundant description will be omitted.

[第5の実施形態]
次に、第5の実施形態に係る画像処理装置5dについて説明する。図14は、本実施形態に係る画像処理装置5dの機能構成の一例を説明するブロック図である。図14に示すように、画像処理装置5dは、参加者リスト作成部216と、画像処理部210dとを備える。
[Fifth embodiment]
Next, an image processing device 5d according to the fifth embodiment will be described. FIG. 14 is a block diagram illustrating an example of the functional configuration of the image processing device 5d according to this embodiment. As shown in FIG. 14, the image processing device 5d includes a participant list creating section 216 and an image processing section 210d.

参加者リスト作成部216は、図2のCPU501が所定のプログラムを実行することで実現される。参加者リスト作成部216は、スマートフォン4のユーザの識別番号に基づき、スケジュール管理サーバ6を参照して、スマートフォン4のユーザが参加する会議の他の参加者の氏名を取得し、参加者名のテキストファイルを作成する。そして、参加者リスト作成部216は、参加者の氏名のテキストファイルを画像処理部210dに出力する。 Participant list creation unit 216 is implemented by CPU 501 in FIG. 2 executing a predetermined program. The participant list creation unit 216 refers to the schedule management server 6 based on the identification number of the user of the smartphone 4, acquires the names of other participants of the conference in which the user of the smartphone 4 participates, and extracts the names of the participants. Create a text file. Then, the participant list creation unit 216 outputs the text file of the names of the participants to the image processing unit 210d.

画像処理部210dは、ファイル合成部221を備える。ファイル合成部221は、参加者リスト作成部216から入力した参加者名のテキストファイルと、画像データ取得部203から入力した画像ファイルとを論理和で合成する。そして、合成後の画像ファイルを、画像ファイル送信部211を介して、印刷装置9に送信する。 The image processing section 210 d includes a file synthesizing section 221 . The file synthesizing unit 221 synthesizes the text file of the participant names input from the participant list creating unit 216 and the image file input from the image data acquiring unit 203 by logical OR. Then, the combined image file is transmitted to the printing device 9 via the image file transmission unit 211 .

図15は、本実施形態に係る画像処理装置5dによる処理の一例を示すフローチャートである。なお、図15におけるステップS151~S161の処理は、図11におけるステップS111~S121の処理と同様である。また、図15におけるステップS163~S166の処理は、図11におけるステップS122~S125の処理と同様である。そのため、ここでは重複した説明を省略する。 FIG. 15 is a flowchart showing an example of processing by the image processing device 5d according to this embodiment. The processing of steps S151 to S161 in FIG. 15 is the same as the processing of steps S111 to S121 in FIG. 15 are the same as steps S122 to S125 in FIG. Therefore, redundant description is omitted here.

ステップS162において、参加者リスト作成部216は、スマートフォン4のユーザの識別番号に基づき、スケジュール管理サーバ6を参照して、スマートフォン4のユーザが参加する会議の他の参加者の氏名情報を取得し、参加者の氏名のテキストファイルを作成する。そして、参加者リスト作成部216は、参加者の氏名のテキストファイルを画像処理部210dに出力する。 In step S162, the participant list creating unit 216 refers to the schedule management server 6 based on the identification number of the user of the smartphone 4, and obtains name information of other participants of the conference in which the user of the smartphone 4 participates. , create a text file of the names of the participants. Then, the participant list creation unit 216 outputs the text file of the names of the participants to the image processing unit 210d.

画像処理部210dに含まれるファイル合成部221は、参加者リスト作成部216から入力した参加者の氏名のテキストファイルと、画像データ取得部203から入力した画像ファイルとを論理和で合成する。そして、合成後の画像ファイルを、画像ファイル送信部211を介して、印刷装置9に送信する。 A file synthesizing unit 221 included in the image processing unit 210d synthesizes the text file of the name of the participant input from the participant list creating unit 216 and the image file input from the image data acquiring unit 203 by logical sum. Then, the combined image file is transmitted to the printing device 9 via the image file transmission unit 211 .

本実施形態では、このようにすることで、参加者毎の印刷設定に応じて画像処理を変えることができ、参加者の誰向けの印刷物なのかが分かるように印刷することができる。 In this embodiment, by doing so, it is possible to change the image processing according to the print settings of each participant, and it is possible to print so as to know for whom the printed matter is intended.

なお、これ以外の効果は、第1~第3の実施形態で説明したものと同様であるため、重複した説明を省略する。 Note that effects other than this are the same as those described in the first to third embodiments, so redundant description will be omitted.

以上、実施形態について説明してきたが、本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。 Although the embodiments have been described above, the present invention is not limited to the specifically disclosed embodiments described above, and various modifications and changes are possible without departing from the scope of the claims. be.

また、実施形態は、画像処理方法も含む。例えば、画像処理方法は、画像データに基づく印刷処理を指示する印刷ジョブを取得する印刷ジョブ取得工程と、前記印刷ジョブに基づき予測した前記印刷処理の実行時間の予測値を出力する実行時間出力工程と、目的時刻を取得する目的時刻取得工程と、情報端末の位置情報を取得する端末位置取得工程と、目的地の位置情報を取得する目的地位置取得工程と、前記情報端末の位置情報と、前記目的地の位置情報と、に基づき、前記情報端末のユーザが前記目的地に到着する目的地到着予定時刻を取得する目的地到着予定時刻取得工程と、前記目的時刻と、前記目的地到着予定時刻と、に基づき決定した画像処理を、前記画像データに対して実行する画像処理工程と、を含む。このような画像処理方法により、上述した画像処理装置と同様の効果を得ることができる。 Embodiments also include image processing methods. For example, the image processing method includes a print job acquisition step of acquiring a print job that instructs print processing based on image data, and an execution time output step of outputting a predicted value of the execution time of the print processing predicted based on the print job. a target time acquisition step of acquiring a target time; a terminal location acquisition step of acquiring location information of an information terminal; a destination location acquisition step of acquiring location information of a destination; and location information of the information terminal; a destination estimated arrival time acquiring step of acquiring an estimated destination arrival time at which the user of the information terminal arrives at the destination based on the location information of the destination; and the destination time and the destination estimated arrival time. and an image processing step of performing the image processing determined based on the time on the image data. With such an image processing method, the same effects as those of the image processing apparatus described above can be obtained.

さらに、実施形態は、プログラムも含む。例えば、プログラムは、コンピュータを、
画像データに基づく印刷処理を指示する印刷ジョブを取得する印刷ジョブ取得部、前記印刷ジョブに基づき予測した前記印刷処理の実行時間の予測値を出力する実行時間出力部、目的時刻を取得する目的時刻取得部、情報端末の位置情報を取得する端末位置取得部、目的地の位置情報を取得する目的地位置取得部、前記情報端末の位置情報と、前記目的地の位置情報と、に基づき、前記情報端末のユーザが前記目的地に到着する目的地到着予定時刻を取得する目的地到着予定時刻取得部、及び前記目的時刻と、前記目的地到着予定時刻と、に基づき決定した画像処理を、前記画像データに対して実行する画像処理部として機能させる。このようなプログラムにより、上述した画像処理装置と同様の効果を得ることができる。
Further, embodiments also include programs. For example, a program may cause a computer to
A print job acquisition unit that acquires a print job that instructs print processing based on image data, an execution time output unit that outputs a predicted value of the execution time of the print processing predicted based on the print job, and a target time that acquires a target time. Based on an acquisition unit, a terminal location acquisition unit that acquires location information of an information terminal, a destination location acquisition unit that acquires location information of a destination, the location information of the information terminal, and the location information of the destination, a destination estimated time of arrival acquiring unit for acquiring an estimated time of arrival at a destination at which the user of the information terminal arrives at the destination; It functions as an image processing unit that is executed on image data. With such a program, the same effects as those of the image processing apparatus described above can be obtained.

また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Also, each function of the embodiments described above can be implemented by one or more processing circuits. Here, the "processing circuit" in this specification means a processor programmed by software to perform each function, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. devices such as ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), FPGAs (field programmable gate arrays) and conventional circuit modules.

1 ネットワーク
2 クラウドストレージサーバ
3 屋内測位システム
4 スマートフォン
5 画像処理装置
6 スケジュール管理サーバ
9 印刷装置
100 画像形成システム
201 送受信部
202 印刷ジョブ取得部
203 画像データ取得部
204 実行時間出力部
205 目的時刻取得部
206 端末位置取得部
207 目的地位置取得部
208 印刷装置位置格納部
209 目的地到着予定時刻取得部
210 画像処理部
211 画像ファイル送信部
212 印刷装置位置取得部
213 ユーザ選択情報取得部
214 参加者情報取得部
215 設定情報格納部
216 参加者リスト作成部
220 判定部
221 ファイル合成部
1 network 2 cloud storage server 3 indoor positioning system 4 smartphone 5 image processing device 6 schedule management server 9 printing device 100 image forming system 201 transmission/reception unit 202 print job acquisition unit 203 image data acquisition unit 204 execution time output unit 205 target time acquisition unit 206 Terminal location acquisition unit 207 Destination location acquisition unit 208 Printer location storage unit 209 Destination estimated arrival time acquisition unit 210 Image processing unit 211 Image file transmission unit 212 Printer location acquisition unit 213 User selection information acquisition unit 214 Participant information Acquisition unit 215 Setting information storage unit 216 Participant list creation unit 220 Judgment unit 221 File synthesis unit

特開2004-094777号公報JP 2004-094777 A

Claims (7)

画像データに基づく印刷処理を指示する印刷ジョブを取得する印刷ジョブ取得部と、
前記印刷ジョブに基づき予測した前記印刷処理の実行時間の予測値を出力する実行時間出力部と、
目的時刻を取得する目的時刻取得部と、
情報端末の位置情報を取得する端末位置取得部と、
目的地の位置情報を取得する目的地位置取得部と、
前記情報端末の位置情報と、前記目的地の位置情報と、に基づき、前記情報端末のユーザが前記目的地に到着する目的地到着予定時刻を取得する目的地到着予定時刻取得部と、
前記目的時刻と、前記目的地到着予定時刻と、に基づき決定した画像処理を、前記画像データに対して実行する画像処理部と、
前記印刷処理を実行する印刷装置の位置情報を取得する印刷装置位置取得部と、を有し、
前記目的時刻取得部は、
前記目的時刻として、前記ユーザが参加するイベントの開始時刻を取得し、
前記目的地位置取得部は、
前記目的地の位置情報として、前記ユーザが参加するイベントの開催場所情報を取得し、
前記目的地到着予定時刻取得部は、
前記情報端末の位置情報と、前記目的地の位置情報と、前記実行時間の予測値と、前記印刷装置の位置情報と、に基づき、前記目的地到着予定時刻を取得する
画像処理装置。
a print job acquisition unit that acquires a print job that instructs print processing based on image data;
an execution time output unit that outputs a predicted value of the execution time of the print processing predicted based on the print job;
a target time acquisition unit that acquires a target time;
a terminal location acquisition unit that acquires location information of an information terminal;
a destination position acquisition unit that acquires position information of a destination;
a destination estimated arrival time acquisition unit that acquires an estimated destination arrival time at which the user of the information terminal arrives at the destination based on the location information of the information terminal and the location information of the destination;
an image processing unit that performs image processing on the image data determined based on the target time and the estimated time of arrival at the destination;
a printing device position acquisition unit that acquires position information of the printing device that executes the printing process;
The target time acquisition unit
Acquiring the start time of an event in which the user participates as the target time,
The destination position acquisition unit,
Acquiring location information of an event in which the user participates as location information of the destination;
The destination estimated arrival time acquisition unit,
An image processing device that acquires the estimated arrival time at the destination based on the position information of the information terminal, the position information of the destination, the predicted value of the execution time, and the position information of the printing device.
前記イベントの参加者の情報を取得する参加者情報取得部と、
前記参加者に対応付けられた前記印刷装置の設定情報を格納する設定情報格納部と、を有し、
前記画像処理部は、
前記目的時刻と、前記目的地到着予定時刻と、前記参加者に基づき前記設定情報格納部を参照して取得した前記設定情報と、に基づき決定した画像処理を、前記画像データに対して実行する
請求項に記載の画像処理装置。
a participant information acquisition unit that acquires information on participants of the event;
a setting information storage unit that stores setting information of the printing device associated with the participant;
The image processing unit
executing image processing on the image data determined based on the target time, the estimated time of arrival at the destination, and the setting information obtained by referring to the setting information storage unit based on the participant; The image processing apparatus according to claim 1 .
前記設定情報は、前記画像データに含まれる文字サイズの設定情報、または紙サイズの設定情報である
請求項に記載の画像処理装置。
3. The image processing apparatus according to claim 2 , wherein the setting information is character size setting information or paper size setting information included in the image data.
前記画像処理部は、
前記目的地到着予定時刻が前記目的時刻より早い時刻である場合、前記画像データが含まれる画像ファイルのサイズを大きくする処理を実行する
請求項1乃至の何れか1項に記載の画像処理装置。
The image processing unit
4. The image processing apparatus according to any one of claims 1 to 3 , wherein when the estimated arrival time at the destination is earlier than the target time, a process of increasing the size of an image file containing the image data is executed. .
前記画像処理部は、
前記目的地到着予定時刻が前記目的時刻より早い時刻でない場合、前記画像データが含まれる画像ファイルのサイズを小さくする処理を実行する
請求項1乃至の何れか1項に記載の画像処理装置。
The image processing unit
5. The image processing apparatus according to any one of claims 1 to 4 , wherein, if the scheduled arrival time at the destination is not earlier than the target time, processing for reducing the size of an image file containing the image data is executed.
画像データに基づく印刷処理を指示する印刷ジョブを取得する印刷ジョブ取得工程と、
前記印刷ジョブに基づき予測した前記印刷処理の実行時間の予測値を出力する実行時間出力工程と、
目的時刻を取得する目的時刻取得工程と、
情報端末の位置情報を取得する端末位置取得工程と、
目的地の位置情報を取得する目的地位置取得工程と、
前記情報端末の位置情報と、前記目的地の位置情報と、に基づき、前記情報端末のユーザが前記目的地に到着する目的地到着予定時刻を取得する目的地到着予定時刻取得工程と、
前記目的時刻と、前記目的地到着予定時刻と、に基づき決定した画像処理を、前記画像データに対して実行する画像処理工程と、
前記印刷処理を実行する印刷装置の位置情報を取得する印刷装置位置取得工程と、を含み、
前記目的時刻取得工程は、
前記目的時刻として、前記ユーザが参加するイベントの開始時刻を取得し、
前記目的地位置取得工程は、
前記目的地の位置情報として、前記ユーザが参加するイベントの開催場所情報を取得し、
前記目的地到着予定時刻取得工程は、
前記情報端末の位置情報と、前記目的地の位置情報と、前記実行時間の予測値と、前記印刷装置の位置情報と、に基づき、前記目的地到着予定時刻を取得する
画像処理方法。
a print job acquisition step of acquiring a print job that instructs print processing based on image data;
an execution time output step of outputting a predicted value of the execution time of the printing process predicted based on the print job;
a target time acquisition step of acquiring a target time;
a terminal location acquisition step of acquiring location information of the information terminal;
a destination position acquisition step of acquiring position information of the destination;
a destination estimated arrival time acquiring step of acquiring an estimated destination arrival time at which the user of the information terminal arrives at the destination based on the location information of the information terminal and the location information of the destination;
an image processing step of performing image processing on the image data determined based on the target time and the estimated time of arrival at the destination;
a printing device position acquisition step of acquiring position information of a printing device that executes the printing process;
The target time acquisition step includes:
Acquiring the start time of an event in which the user participates as the target time,
The destination position acquisition step includes:
Acquiring location information of an event in which the user participates as location information of the destination;
The destination estimated arrival time acquisition step includes:
An image processing method for obtaining the estimated arrival time at the destination based on the position information of the information terminal, the position information of the destination, the predicted value of the execution time, and the position information of the printing device.
コンピュータを、
画像データに基づく印刷処理を指示する印刷ジョブを取得する印刷ジョブ取得部、
前記印刷ジョブに基づき予測した前記印刷処理の実行時間の予測値を出力する実行時間出力部、
目的時刻を取得する目的時刻取得部、
情報端末の位置情報を取得する端末位置取得部、
目的地の位置情報を取得する目的地位置取得部、
前記情報端末の位置情報と、前記目的地の位置情報と、に基づき、前記情報端末のユーザが前記目的地に到着する目的地到着予定時刻を取得する目的地到着予定時刻取得部、
前記目的時刻と、前記目的地到着予定時刻と、に基づき決定した画像処理を、前記画像データに対して実行する画像処理部、及び
前記印刷処理を実行する印刷装置の位置情報を取得する印刷装置位置取得部
として機能させ、
前記目的時刻取得部は、
前記目的時刻として、前記ユーザが参加するイベントの開始時刻を取得し、
前記目的地位置取得部は、
前記目的地の位置情報として、前記ユーザが参加するイベントの開催場所情報を取得し、
前記目的地到着予定時刻取得部は、
前記情報端末の位置情報と、前記目的地の位置情報と、前記実行時間の予測値と、前記印刷装置の位置情報と、に基づき、前記目的地到着予定時刻を取得する
プログラム。
the computer,
a print job acquisition unit that acquires a print job that instructs print processing based on image data;
an execution time output unit that outputs a predicted value of the execution time of the printing process predicted based on the print job;
a target time acquisition unit that acquires a target time;
a terminal location acquisition unit that acquires location information of an information terminal;
a destination position acquisition unit that acquires position information of a destination;
a destination estimated arrival time acquisition unit for acquiring an estimated destination arrival time at which the user of the information terminal arrives at the destination based on the location information of the information terminal and the location information of the destination;
An image processing unit that performs image processing on the image data determined based on the destination time and the estimated time of arrival at the destination, and a printing device that acquires position information of a printing device that performs the printing process. function as a position acquisition unit,
The target time acquisition unit
Acquiring the start time of an event in which the user participates as the target time,
The destination position acquisition unit,
Acquiring location information of an event in which the user participates as location information of the destination;
The destination estimated arrival time acquisition unit,
A program for obtaining the estimated arrival time at the destination based on the position information of the information terminal, the position information of the destination, the predicted value of the execution time, and the position information of the printing device.
JP2019077121A 2019-04-15 2019-04-15 Image processing device, image processing method, and program Active JP7272079B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019077121A JP7272079B2 (en) 2019-04-15 2019-04-15 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019077121A JP7272079B2 (en) 2019-04-15 2019-04-15 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2020177278A JP2020177278A (en) 2020-10-29
JP7272079B2 true JP7272079B2 (en) 2023-05-12

Family

ID=72937195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019077121A Active JP7272079B2 (en) 2019-04-15 2019-04-15 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7272079B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006256269A (en) 2005-03-18 2006-09-28 Konica Minolta Business Technologies Inc Image forming apparatus
JP2007213254A (en) 2006-02-08 2007-08-23 Seiko Epson Corp Print control device, print control method and program
JP2011103068A (en) 2009-11-11 2011-05-26 Konica Minolta Business Technologies Inc System and method for event document distribution, and image processing device
JP2011248070A (en) 2010-05-26 2011-12-08 Konica Minolta Business Technologies Inc Printing system and printer
JP2017001282A (en) 2015-06-10 2017-01-05 株式会社リコー Image formation apparatus, image formation method and program
JP2018190202A (en) 2017-05-08 2018-11-29 コニカミノルタ株式会社 Printing system, printing control device and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240459A (en) * 1997-02-26 1998-09-11 Fuji Xerox Co Ltd Print controller

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006256269A (en) 2005-03-18 2006-09-28 Konica Minolta Business Technologies Inc Image forming apparatus
JP2007213254A (en) 2006-02-08 2007-08-23 Seiko Epson Corp Print control device, print control method and program
JP2011103068A (en) 2009-11-11 2011-05-26 Konica Minolta Business Technologies Inc System and method for event document distribution, and image processing device
JP2011248070A (en) 2010-05-26 2011-12-08 Konica Minolta Business Technologies Inc Printing system and printer
JP2017001282A (en) 2015-06-10 2017-01-05 株式会社リコー Image formation apparatus, image formation method and program
JP2018190202A (en) 2017-05-08 2018-11-29 コニカミノルタ株式会社 Printing system, printing control device and program

Also Published As

Publication number Publication date
JP2020177278A (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP2009037566A (en) Information processing system, information processor, portable terminal device, information processing method, and information processing program
US10528648B2 (en) Computer readable recording medium, information processing terminal device, and control method of information processing terminal device
JP5696489B2 (en) Server apparatus, printing system, and printing method
US10831435B2 (en) Shared terminal, communication system, image transmission method, and recording medium
US20200267268A1 (en) Image forming apparatus, display control method, and recording medium
US10331388B2 (en) Image processing system, image processing method, and non-transitory storage medium storing image processing program
JP2014072670A (en) Printer and computer program
US20180309742A1 (en) Shared terminal, communication method, and non-transitory computer-readable medium
JP2019095933A (en) Voice control system, control method, and program
JP7272079B2 (en) Image processing device, image processing method, and program
CN108712590B (en) Shared terminal, communication system, communication method, and recording medium
US20230148080A1 (en) Printing system, terminal apparatus, and non-transitory computer-executable medium
US11249708B2 (en) Image forming apparatus, image forming method and recording medium
JP5673121B2 (en) Server apparatus, printing system, and printing method
JP6369457B2 (en) Information processing apparatus, data processing method thereof, and program
JP2008257689A (en) Display processing system
JP7371442B2 (en) Information processing equipment, programs, and electronic device registration methods
JP7283147B2 (en) Information processing device, program, electronic device registration method
US20210165553A1 (en) Information processing system, information processing apparatus, and method of processing information
JP2021087074A (en) Image forming apparatus, control method, and program
US20220070316A1 (en) Device, information processing system, and information processing apparatus
JP2021096763A (en) Information processing system, apparatus, method, and program
JP2021149508A (en) Image forming system, image forming method, and image forming program
JP2022185183A (en) Electronic apparatus, network system, control method, and program
JP2021117579A (en) Information processor, information processing system, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230410

R151 Written notification of patent or utility model registration

Ref document number: 7272079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151