JP6171764B2 - Image processing system, portable terminal, server device, and program - Google Patents

Image processing system, portable terminal, server device, and program Download PDF

Info

Publication number
JP6171764B2
JP6171764B2 JP2013188455A JP2013188455A JP6171764B2 JP 6171764 B2 JP6171764 B2 JP 6171764B2 JP 2013188455 A JP2013188455 A JP 2013188455A JP 2013188455 A JP2013188455 A JP 2013188455A JP 6171764 B2 JP6171764 B2 JP 6171764B2
Authority
JP
Japan
Prior art keywords
image processing
information
image
composite
server device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013188455A
Other languages
Japanese (ja)
Other versions
JP2015055987A (en
Inventor
純 真野
純 真野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2013188455A priority Critical patent/JP6171764B2/en
Publication of JP2015055987A publication Critical patent/JP2015055987A/en
Application granted granted Critical
Publication of JP6171764B2 publication Critical patent/JP6171764B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Facsimiles In General (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像処理システム、携帯端末、サーバー装置およびプログラムに関し、特に携帯端末を用いて複数の画像処理装置を連携させるための技術に関する。   The present invention relates to an image processing system, a portable terminal, a server device, and a program, and more particularly to a technique for linking a plurality of image processing apparatuses using a portable terminal.

従来、複合機などの画像処理装置を管理又は操作する一手法として、例えばAR(Augmented Reality:拡張現実)技術を利用し、携帯端末で画像処理装置を撮影して得られる撮影画像に対し、その撮影した画像処理装置のステータスや操作パネルなどの画像を合成して表示することにより、直感的に画像処理装置の状態を確認できるようにしたり、画像処理装置を操作できるようにした技術が公知である(例えば特許文献1)。この従来技術によれば、携帯端末で画像処理装置を撮影することにより、その画像処理装置が待機中であるか否かを把握できると共に、携帯端末に表示された操作パネルに対する操作を行うことにより画像処理装置にプリントジョブなどを実行させることができる。   Conventionally, as a technique for managing or operating an image processing apparatus such as a multifunction peripheral, for example, using AR (Augmented Reality) technology, a captured image obtained by photographing the image processing apparatus with a portable terminal is used. A technique is known in which the status of the captured image processing device and the operation panel are combined and displayed so that the state of the image processing device can be checked intuitively and the image processing device can be operated. There is (for example, Patent Document 1). According to this prior art, by photographing an image processing apparatus with a portable terminal, it is possible to grasp whether or not the image processing apparatus is on standby, and by performing an operation on an operation panel displayed on the portable terminal. The image processing apparatus can execute a print job or the like.

特開2012−29164号公報JP 2012-29164 A

しかしながら、上記従来技術では、携帯端末を使用しても、それぞれ異なる場所に設置されている複数の画像処理装置を相互に連携させることができない。そのため、例えば、一の画像処理装置に保存されている文書ファイルを別の画像処理装置で印刷出力させるようなことができないという点で利便性に欠けるという問題がある。   However, in the above prior art, even if a mobile terminal is used, a plurality of image processing apparatuses installed at different places cannot be linked with each other. Therefore, for example, there is a problem in that it is not convenient in that a document file stored in one image processing apparatus cannot be printed out by another image processing apparatus.

そこで本発明は、上記従来の問題点を解決すべくなされたものであり、複数の画像処理装置を連携させることができる画像処理システム、携帯端末、サーバー装置およびプログラムを提供することを目的とするものである。   Therefore, the present invention has been made to solve the above-described conventional problems, and an object thereof is to provide an image processing system, a portable terminal, a server device, and a program capable of linking a plurality of image processing devices. Is.

上記目的を達成するため、請求項1に係る発明は、サーバー装置と、携帯端末と、複数の画像処理装置とを備えて構成される画像処理システムであって、前記サーバー装置は、前記複数の画像処理装置のそれぞれを特定するための特定情報が予め登録された登録情報を記憶する記憶手段と、前記複数の画像処理装置のそれぞれからデバイス情報を取得する情報取得手段と、を備え、前記携帯端末は、画像を撮影する撮像手段と、画像を表示する表示手段と、前記表示手段に対する操作を検知する操作検知手段と、前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第1の画像処理装置に対応する第1のデバイス情報を取得し、前記第1の画像処理装置を撮影した撮影画像と前記第1のデバイス情報に対応する画像とを合成した第1合成画像を生成する第1制御手段と、前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第2の画像処理装置に対応する第2のデバイス情報を取得し、前記第2の画像処理装置を撮影した撮影画像と前記第2のデバイス情報に対応する画像とを合成した第2合成画像を生成し、前記第2合成画像を前記第1合成画像と共に前記表示手段に表示する第2制御手段と、を備え、前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示しているとき、前記操作検知手段によって前記第1合成画像及び前記第2合成画像のそれぞれに対する操作が検知されることに伴い、当該操作に基づく操作情報を前記サーバー装置に送信し、前記サーバー装置は、前記操作情報に基づいて、前記第1及び第2の画像処理装置を連携動作させることを特徴とする構成である。   To achieve the above object, an invention according to claim 1 is an image processing system including a server device, a portable terminal, and a plurality of image processing devices, wherein the server device includes the plurality of image processing devices. Storage means for storing registration information in which specific information for specifying each of the image processing apparatuses is registered in advance, and information acquisition means for acquiring device information from each of the plurality of image processing apparatuses, The terminal includes: an imaging unit that captures an image; a display unit that displays an image; an operation detection unit that detects an operation on the display unit; and the plurality of image processing devices based on an operation detected by the operation detection unit When the first image processing apparatus included in the image is captured by the imaging unit, the information for specifying the first image processing apparatus is transmitted to the server apparatus before First device information corresponding to the first image processing device is acquired from a server device, and a captured image obtained by photographing the first image processing device and an image corresponding to the first device information are combined. A first control unit that generates one composite image; and a second image processing device included in the plurality of image processing devices based on an operation detected by the operation detection unit. Specific information for specifying the second image processing apparatus is transmitted to the server apparatus, second device information corresponding to the second image processing apparatus is acquired from the server apparatus, and the second image processing apparatus is acquired. A second synthesized image obtained by synthesizing the photographed image obtained by photographing the image corresponding to the second device information, and displaying the second synthesized image together with the first synthesized image on the display means. Control means, wherein the second control means displays the first composite image and the second composite image by the operation detection means when the first composite image and the second composite image are displayed on the display means. As an operation on each of the two composite images is detected, operation information based on the operation is transmitted to the server device, and the server device performs the first and second image processing based on the operation information. In this configuration, the devices are operated in a coordinated manner.

請求項2に係る発明は、請求項1に記載の画像処理システムにおいて、前記登録情報には、前記特定情報として、前記複数の画像処理装置のそれぞれの設置位置に関する位置情報が登録されており、前記携帯端末は、現在位置を検出する位置検出手段を更に備え、前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を前記サーバー装置に送信することにより前記サーバー装置から前記第1のデバイス情報を取得し、前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を前記サーバー装置に送信することにより前記サーバー装置から前記第2のデバイス情報を取得することを特徴とする構成である。   According to a second aspect of the present invention, in the image processing system according to the first aspect, in the registration information, position information regarding each installation position of the plurality of image processing apparatuses is registered as the specific information. The portable terminal further includes position detection means for detecting a current position, and the first control means detects the current position detected by the position detection means when the first image processing device is photographed by the imaging means. The first device information is acquired from the server device by transmitting to the server device, and when the second control unit photographs the second image processing device by the imaging unit, the position detection unit The second device information is acquired from the server device by transmitting the current position detected by the server device to the server device. It is.

請求項3に係る発明は、請求項1に記載の画像処理システムにおいて、前記第1制御手段は、前記撮像手段により前記第1の画像処理装置が撮影された撮影画像を解析することにより、前記第1の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信し、前記第2制御手段は、前記撮像手段により前記第2の画像処理装置が撮影された撮影画像を解析することにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする構成である。   According to a third aspect of the present invention, in the image processing system according to the first aspect, the first control unit analyzes the photographed image obtained by photographing the first image processing apparatus by the imaging unit. Specific information for specifying the first image processing apparatus is acquired and transmitted to the server apparatus, and the second control unit analyzes a captured image captured by the second image processing apparatus by the imaging unit. Thus, the specific information for specifying the second image processing apparatus is acquired and transmitted to the server apparatus.

請求項4に係る発明は、請求項1に記載の画像処理システムにおいて、前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置と通信を行うことにより、前記第1の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信し、前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置と通信を行うことにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする構成である。   According to a fourth aspect of the present invention, in the image processing system according to the first aspect, when the first control unit captures the first image processing apparatus with the first image processing apparatus, By performing communication, specific information for specifying the first image processing apparatus is acquired and transmitted to the server apparatus, and the second control means uses the imaging means to transmit the second image processing apparatus. When photographing, the second image processing apparatus communicates with the second image processing apparatus to acquire specific information for specifying the second image processing apparatus and transmit the specific information to the server apparatus. .

請求項5に係る発明は、請求項1乃至4のいずれかに記載の画像処理システムにおいて、前記情報取得手段は、前記複数の画像処理装置のそれぞれに保存されているファイル情報を前記デバイス情報として取得し、前記第1制御手段は、前記第1の画像処理装置を撮影した撮影画像に対し、前記第1の画像処理装置に保存されているファイル情報に対応する画像を合成して前記第1合成画像を生成し、前記第2制御手段は、前記第2の画像処理装置を撮影した撮影画像に対し、前記第2の画像処理装置に保存されているファイル情報に対応する画像を合成して前記第2合成画像を生成することを特徴とする構成である。   According to a fifth aspect of the present invention, in the image processing system according to any one of the first to fourth aspects, the information acquisition unit uses file information stored in each of the plurality of image processing apparatuses as the device information. The first control means obtains the first image by synthesizing an image corresponding to the file information stored in the first image processing device with the captured image obtained by photographing the first image processing device. The second control means generates a composite image, and synthesizes an image corresponding to the file information stored in the second image processing device with the photographed image obtained by photographing the second image processing device. The second synthesized image is generated.

請求項6に係る発明は、請求項5に記載の画像処理システムにおいて、前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示している状態で、前記操作検知手段によって検知された操作が前記第1合成画像及び前記第2合成画像のいずれか一方に含まれるファイル情報に対応する画像を他方へ移動させる操作であるとき、当該ファイル情報に対応するファイルを前記第1及び第2の画像処理装置の間で移動又はコピーさせることを指示する操作情報を生成して前記サーバー装置に送信することを特徴とする構成である。   The invention according to claim 6 is the image processing system according to claim 5, wherein the second control means displays the first composite image and the second composite image on the display means. When the operation detected by the operation detection means is an operation of moving an image corresponding to file information included in one of the first composite image and the second composite image to the other, it corresponds to the file information Operation information for instructing to move or copy a file between the first and second image processing apparatuses is generated and transmitted to the server apparatus.

請求項7に係る発明は、請求項1乃至6のいずれかに記載の画像処理システムにおいて、前記情報取得手段は、前記複数の画像処理装置のそれぞれで実行可能な機能に関する機能情報を前記デバイス情報として取得し、前記第1制御手段は、前記第1の画像処理装置を撮影した撮影画像に対し、前記第1の画像処理装置で実行可能な機能情報に対応する画像を合成して前記第1合成画像を生成し、前記第2制御手段は、前記第2の画像処理装置を撮影した撮影画像に対し、前記第2の画像処理装置で実行可能な機能情報に対応する画像を合成して前記第2合成画像を生成することを特徴とする構成である。   According to a seventh aspect of the present invention, in the image processing system according to any one of the first to sixth aspects, the information acquisition unit obtains functional information related to a function executable by each of the plurality of image processing apparatuses. The first control means synthesizes an image corresponding to function information executable by the first image processing device with a captured image obtained by photographing the first image processing device, and The composite image is generated, and the second control unit synthesizes an image corresponding to the function information executable by the second image processing device with respect to the captured image obtained by capturing the second image processing device. A configuration is characterized in that a second composite image is generated.

請求項8に係る発明は、請求項1乃至7のいずれかに記載の画像処理システムにおいて、前記サーバー装置は、前記携帯端末に対して前記第1又は第2のデバイス情報を送信するとき、当該デバイス情報に対応する合成用画像を送信し、前記第1又は第2制御手段は、前記合成用画像を、前記撮像手段によって得られた撮影画像に合成することにより前記第1合成画像又は第2合成画像を生成することを特徴とする構成である。   The invention according to claim 8 is the image processing system according to any one of claims 1 to 7, wherein the server device transmits the first or second device information to the mobile terminal. The composite image corresponding to the device information is transmitted, and the first or second control unit combines the first composite image or the second image by combining the composite image with the captured image obtained by the imaging unit. In this configuration, a composite image is generated.

請求項9に係る発明は、請求項8に記載の画像処理システムにおいて、前記合成用画像には、前記デバイス情報に対応するテキストが含まれることを特徴とする構成である。   The invention according to claim 9 is the image processing system according to claim 8, wherein the composition image includes text corresponding to the device information.

請求項10に係る発明は、請求項1乃至9のいずれかに記載の画像処理システムにおいて、前記第1制御手段は、前記第1合成画像を前記サーバー装置に送信して保存しておき、前記第2制御手段は、前記第2合成画像を前記表示手段に表示するとき、前記サーバー装置から前記第1合成画像を取得し、前記第1合成画像と共に前記第2合成画像を表示することを特徴とする構成である。   According to a tenth aspect of the present invention, in the image processing system according to any one of the first to ninth aspects, the first control unit transmits the first composite image to the server device and stores the first composite image. The second control means acquires the first composite image from the server device when displaying the second composite image on the display means, and displays the second composite image together with the first composite image. The configuration is as follows.

請求項11に係る発明は、請求項10に記載の画像処理システムにおいて、前記第1制御手段は、前記第1合成画像を前記サーバー装置に送信するとき、前記第1合成画像に合成した前記第1のデバイス情報に対応する画像の合成位置に関する情報を前記サーバー装置に送信することを特徴とする構成である。   According to an eleventh aspect of the present invention, in the image processing system according to the tenth aspect, when the first control unit transmits the first composite image to the server device, the first composite image is combined with the first composite image. In this configuration, information related to a composite position of an image corresponding to one device information is transmitted to the server device.

請求項12に係る発明は、請求項1乃至11のいずれかに記載の画像処理システムにおいて、前記サーバー装置は、前記携帯端末から受信する第1の特定情報に基づき、前記登録情報を参照して前記第1の画像処理装置を特定し、前記第1の画像処理装置に対応する前記第1のデバイス情報を前記携帯端末に送信する第1情報処理手段と、前記携帯端末から受信する第2の特定情報に基づき、前記登録情報を参照して前記第2の画像処理装置を特定し、前記第2の画像処理装置に対応する前記第2のデバイス情報を前記携帯端末に送信する第2情報処理手段と、を更に備え、前記第1制御手段は、前記第1合成画像を前記サーバー装置に送信し、前記第2情報処理手段は、前記携帯端末から受信する第2の特定情報に基づいて前記第2の画像処理装置を特定することに伴い、前記携帯端末から受信する前記第1合成画像を前記第2の画像処理装置に関連付け、前記第2の画像処理装置に対応する前記第2のデバイス情報を前記携帯端末に送信するときに、前記第2の画像処理装置に関連付けた前記第1合成画像を前記携帯端末に送信することを特徴とする構成である。   The invention according to claim 12 is the image processing system according to any one of claims 1 to 11, wherein the server device refers to the registration information based on the first specific information received from the portable terminal. A first information processing means for identifying the first image processing apparatus and transmitting the first device information corresponding to the first image processing apparatus to the portable terminal; and a second information receiving means for receiving from the portable terminal Second information processing for identifying the second image processing apparatus with reference to the registration information based on identification information and transmitting the second device information corresponding to the second image processing apparatus to the portable terminal Means, wherein the first control means transmits the first composite image to the server device, and the second information processing means is based on the second specific information received from the portable terminal. Second image In association with the identification of the physical device, the first composite image received from the portable terminal is associated with the second image processing device, and the second device information corresponding to the second image processing device is associated with the portable device. When transmitting to the terminal, the first composite image associated with the second image processing apparatus is transmitted to the portable terminal.

請求項13に係る発明は、複数の画像処理装置を制御するサーバー装置と通信可能な携帯端末であって、画像を撮影する撮像手段と、画像を表示する表示手段と、前記表示手段に対する操作を検知する操作検知手段と、前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第1の画像処理装置に対応する第1のデバイス情報を取得し、前記第1の画像処理装置を撮影した撮影画像と前記第1のデバイス情報に対応する画像とを合成した第1合成画像を生成する第1制御手段と、前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第2の画像処理装置に対応する第2のデバイス情報を取得し、前記第2の画像処理装置を撮影した撮影画像と前記第2のデバイス情報に対応する画像とを合成した第2合成画像を生成し、前記第2合成画像を前記第1合成画像と共に前記表示手段に表示する第2制御手段と、を備え、前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示しているとき、前記操作検知手段によって前記第1合成画像及び前記第2合成画像のそれぞれに対する操作が検知されることに伴い、当該操作に基づく操作情報を前記サーバー装置に送信し、前記第1及び第2の画像処理装置を連携動作させることを特徴とする構成である。   According to a thirteenth aspect of the present invention, there is provided a portable terminal capable of communicating with a server device that controls a plurality of image processing apparatuses, an imaging unit that captures an image, a display unit that displays an image, and an operation on the display unit. When the first image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detection unit to be detected and an operation detected by the operation detection unit, the first image processing device Specific information for identifying the first image processing apparatus is transmitted to the server apparatus, first device information corresponding to the first image processing apparatus is acquired from the server apparatus, and a captured image obtained by capturing the first image processing apparatus And a plurality of images based on an operation detected by the operation detection unit, and a first control unit that generates a first combined image by combining the image corresponding to the first device information with the first device information. When the second image processing device included in the processing device is photographed by the imaging unit, the server device transmits specification information for specifying the second image processing device, and the server device transmits the second information processing device. Obtaining second device information corresponding to the image processing apparatus, generating a second synthesized image obtained by synthesizing a captured image obtained by photographing the second image processing apparatus and an image corresponding to the second device information; Second display means for displaying the second composite image together with the first composite image on the display means, wherein the second control means displays the first composite image and the second composite image as the display means. When the operation detection unit detects an operation on each of the first composite image and the second composite image, the operation information based on the operation is sent to the server device. And a construction for causing the cooperative operation of the first and second image processing apparatus.

請求項14に係る発明は、請求項13に記載の携帯端末において、現在位置を検出する位置検出手段を更に備え、前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を、前記第1の画像処理装置を特定するための特定情報として前記サーバー装置に送信し、前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を、前記第2の画像処理装置を特定するための特定情報として前記サーバー装置に送信することを特徴とする構成である。   The invention according to claim 14 is the portable terminal according to claim 13, further comprising position detection means for detecting a current position, wherein the first control means captures the first image processing device by the imaging means. The current position detected by the position detecting means is transmitted to the server apparatus as identification information for identifying the first image processing apparatus, and the second control means is configured to transmit the second image processing. When the apparatus is photographed by the imaging means, the current position detected by the position detecting means is transmitted to the server apparatus as identification information for identifying the second image processing apparatus. is there.

請求項15に係る発明は、請求項13に記載の携帯端末において、前記第1制御手段は、前記撮像手段により前記第1の画像処理装置が撮影された撮影画像を解析することにより、前記第1の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信し、前記第2制御手段は、前記撮像手段により前記第2の画像処理装置が撮影された撮影画像を解析することにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする構成である。   According to a fifteenth aspect of the present invention, in the portable terminal according to the thirteenth aspect, the first control unit analyzes the captured image captured by the first image processing device by the imaging unit, thereby the first control unit. Specific information for specifying one image processing apparatus is acquired and transmitted to the server apparatus, and the second control unit analyzes a captured image captured by the second image processing apparatus by the imaging unit. Thus, the specific information for specifying the second image processing apparatus is acquired and transmitted to the server apparatus.

請求項16に係る発明は、請求項13に記載の携帯端末において、前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置と通信を行うことにより、前記第1の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信し、前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置と通信を行うことにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする構成である。   According to a sixteenth aspect of the present invention, in the portable terminal according to the thirteenth aspect, the first control means communicates with the first image processing apparatus when the first image processing apparatus is photographed by the imaging means. To acquire specific information for specifying the first image processing apparatus and transmit the specific information to the server apparatus, and the second control means captures the second image processing apparatus by the imaging means. Then, by communicating with the second image processing device, specific information for specifying the second image processing device is acquired and transmitted to the server device.

請求項17に係る発明は、携帯端末と通信を行うことにより複数の画像処理装置を制御するサーバー装置であって、前記複数の画像処理装置のそれぞれを特定するための特定情報が予め登録された登録情報を記憶する記憶手段と、前記複数の画像処理装置のそれぞれからデバイス情報を取得する情報取得手段と、前記携帯端末から受信する第1の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第1の画像処理装置を特定し、当該第1の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第1情報処理手段と、前記携帯端末から受信する第2の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第2の画像処理装置を特定し、当該第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第2情報処理手段と、前記第2情報処理手段により前記第2の画像処理装置に対応するデバイス情報が前記携帯端末に送信された後、前記携帯端末から操作情報を受信することに伴い、当該操作情報に基づいて前記第1及び第2の画像処理装置を連携動作させる制御手段と、を備え、前記第2情報処理手段は、前記第1の画像処理装置が撮影された撮影画像に対して前記第1の画像処理装置に対応するデバイス情報の画像が合成された第1合成画像を前記携帯端末から受信して保持しておき、前記携帯端末から前記第2の特定情報を受信することによって前記第2の画像処理装置を特定することに伴い、前記第1合成画像を前記第2の画像処理装置に関連付け、前記第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信するときに、前記第2の画像処理装置に関連付けた前記第1合成画像を前記携帯端末に送信することを特徴とする構成である。 The invention according to claim 17 is a server device that controls a plurality of image processing apparatuses by communicating with a mobile terminal, and specific information for specifying each of the plurality of image processing apparatuses is registered in advance. Based on first storage information received from the portable terminal, storage means for storing registration information, information acquisition means for acquiring device information from each of the plurality of image processing apparatuses, and the registration information First information processing means for identifying a first image processing apparatus included in a plurality of image processing apparatuses and transmitting device information corresponding to the first image processing apparatus to the portable terminal, and receiving from the portable terminal Based on the second identification information, the registration information is referred to identify a second image processing device included in the plurality of image processing devices, and a device corresponding to the second image processing device is identified. Second information processing means for transmitting information to the portable terminal; and device information corresponding to the second image processing apparatus is transmitted to the portable terminal by the second information processing means, and then operation information is transmitted from the portable terminal. And a control unit that causes the first and second image processing apparatuses to perform a cooperative operation based on the operation information. The second information processing unit includes the first image processing apparatus. A first synthesized image obtained by synthesizing an image of device information corresponding to the first image processing apparatus with respect to the photographed photographed image is received from the portable terminal and held, and the second synthesized information is received from the portable terminal. In association with specifying the second image processing device by receiving the specifying information, the first composite image is associated with the second image processing device, and device information corresponding to the second image processing device is obtained. The when transmitting to the mobile terminal, it is the first composite image associated with the second image processing apparatus configured characterized that you send to the mobile terminal.

請求項18に係る発明は、複数の画像処理装置のそれぞれを特定するための特定情報が予め登録された登録情報を記憶する記憶手段を備え、携帯端末と通信を行うことにより前記複数の画像処理装置を制御するサーバー装置において実行されるプログラムであって、前記サーバー装置を、前記複数の画像処理装置のそれぞれからデバイス情報を取得する情報取得手段、前記携帯端末から受信する第1の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第1の画像処理装置を特定し、当該第1の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第1情報処理手段、前記携帯端末から受信する第2の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第2の画像処理装置を特定し、当該第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第2情報処理手段、及び、前記第2情報処理手段により前記第2の画像処理装置に対応するデバイス情報が前記携帯端末に送信された後、前記携帯端末から操作情報を受信することに伴い、当該操作情報に基づいて前記第1及び第2の画像処理装置を連携動作させる制御手段、として機能させ、前記第2情報処理手段は、前記第1の画像処理装置が撮影された撮影画像に対して前記第1の画像処理装置に対応するデバイス情報の画像が合成された第1合成画像を前記携帯端末から受信して保持しておき、前記携帯端末から前記第2の特定情報を受信することによって前記第2の画像処理装置を特定することに伴い、前記第1合成画像を前記第2の画像処理装置に関連付け、前記第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信するときに、前記第2の画像処理装置に関連付けた前記第1合成画像を前記携帯端末に送信することを特徴とする構成である。
According to an eighteenth aspect of the present invention, there is provided storage means for storing registration information in which specific information for specifying each of a plurality of image processing apparatuses is registered in advance, and the plurality of image processing by communicating with a portable terminal. A program executed in a server device that controls the device, wherein the server device is information acquisition means for acquiring device information from each of the plurality of image processing devices, and first specific information received from the portable terminal First information for identifying a first image processing device included in the plurality of image processing devices with reference to the registration information and transmitting device information corresponding to the first image processing device to the mobile terminal; A second image processing device included in the plurality of image processing devices with reference to the registration information based on second specific information received from the processing means and the portable terminal; A second information processing unit that identifies and transmits device information corresponding to the second image processing apparatus to the portable terminal, and device information corresponding to the second image processing apparatus is transmitted by the second information processing unit. In response to receiving operation information from the portable terminal after being transmitted to the portable terminal, the first and second image processing apparatuses are caused to function as a cooperative operation based on the operation information, and A second information processing unit configured to generate, from the portable terminal, a first synthesized image obtained by synthesizing an image of device information corresponding to the first image processing apparatus with a photographed image obtained by photographing the first image processing apparatus; As the second image processing device is specified by receiving and holding the second specifying information from the portable terminal, the first composite image is converted into the second image processing. Transmitting the first composite image associated with the second image processing device to the portable terminal when transmitting device information corresponding to the second image processing device to the portable terminal. This is a characteristic configuration.

請求項19に係る発明は、複数の画像処理装置を制御するサーバー装置と通信可能であり、画像を撮影する撮像手段と、画像を表示する表示手段と、前記表示手段に対する操作を検知する操作検知手段と、を備える携帯端末において実行されるプログラムであって、前記携帯端末を、前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第1の画像処理装置に対応する第1のデバイス情報を取得し、前記第1の画像処理装置を撮影した撮影画像と前記第1のデバイス情報に対応する画像とを合成した第1合成画像を生成する第1制御手段、及び、前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第2の画像処理装置に対応する第2のデバイス情報を取得し、前記第2の画像処理装置を撮影した撮影画像と前記第2のデバイス情報に対応する画像とを合成した第2合成画像を生成し、前記第2合成画像を前記第1合成画像と共に前記表示手段に表示する第2制御手段、として機能させ、前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示しているとき、前記操作検知手段によって前記第1合成画像及び前記第2合成画像のそれぞれに対する操作が検知されることに伴い、当該操作に基づく操作情報を前記サーバー装置に送信し、前記第1及び第2の画像処理装置を連携動作させることを特徴とする構成である。   The invention according to claim 19 is communicable with a server device that controls a plurality of image processing devices, and has an imaging means for capturing an image, a display means for displaying an image, and an operation detection for detecting an operation on the display means. A first image processing device included in the plurality of image processing devices based on an operation detected by the operation detection unit. When shooting by the imaging unit, the first device information corresponding to the first image processing apparatus is acquired from the server apparatus by transmitting specific information for specifying the first image processing apparatus to the server apparatus. First control means for generating a first synthesized image obtained by synthesizing a photographed image obtained by photographing the first image processing apparatus and an image corresponding to the first device information; and And specifying for identifying the second image processing device when the second image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. Information is transmitted to the server device, second device information corresponding to the second image processing device is acquired from the server device, and a captured image obtained by photographing the second image processing device and the second device A second synthesized image obtained by synthesizing the image corresponding to the information is generated, and the second synthesized image is displayed on the display unit together with the first synthesized image. When the first synthesized image and the second synthesized image are displayed on the display means, the operation detecting means performs an operation on each of the first synthesized image and the second synthesized image. Along with being known, and transmits the operation information based on the operation to the server apparatus, a structure, characterized in that to work together with the first and second image processing apparatus.

本発明によれば、携帯端末を用いて複数の画像処理装置を連携させることができるようになり、利便性が向上する。   According to the present invention, a plurality of image processing apparatuses can be linked using a mobile terminal, and convenience is improved.

画像処理システムの構成概念を示す図である。1 is a diagram illustrating a configuration concept of an image processing system. サーバー装置のハードウェア構成及び機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions and functional constitution of a server apparatus. デバイス登録情報の一例を示す図である。It is a figure which shows an example of device registration information. 携帯端末のハードウェア構成及び機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions and functional structure of a portable terminal. ユーザーが第1拠点から第2拠点へ移動する前に行われる処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence performed before a user moves from a 1st base to a 2nd base. 携帯端末において生成される第1合成画像の一例を示す図である。It is a figure which shows an example of the 1st synthesized image produced | generated in a portable terminal. 第1合成画像に関連付けられる第1付属情報の一例を示す図である。It is a figure which shows an example of the 1st attached information linked | related with a 1st synthesized image. ユーザーが第1拠点から第2拠点へ移動した後に行われる処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence performed after a user moves from a 1st base to a 2nd base. 携帯端末において生成される第2合成画像の一例を示す図である。It is a figure which shows an example of the 2nd synthesized image produced | generated in a portable terminal. 第2合成画像に関連付けられる第2付属情報の一例を示す図である。It is a figure which shows an example of the 2nd attached information linked | related with a 2nd synthesized image. 第2の画像処理装置を撮影した後の携帯端末における表示画面例を示す図である。It is a figure which shows the example of a display screen in a portable terminal after image | photographing the 2nd image processing apparatus. 携帯端末が第1及び第2の画像処理装置を撮影することによって特定情報を取得する態様を示す図である。It is a figure which shows the aspect which acquires specific information by a portable terminal image | photographing the 1st and 2nd image processing apparatus. 携帯端末が第1及び第2の画像処理装置と通信を行うことによって特定情報を取得する態様を示す図である。It is a figure which shows the aspect which acquires specific information by a portable terminal communicating with the 1st and 2nd image processing apparatus. 第2実施形態においてユーザーが第1拠点から第2拠点へ移動する前に行われる処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence performed before a user moves from a 1st base to a 2nd base in 2nd Embodiment. 第2実施形態においてユーザーが第1拠点から第2拠点へ移動した後に行われる処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence performed after a user moves from a 1st base to a 2nd base in 2nd Embodiment. 第3実施形態においてユーザーが第1拠点から第2拠点へ移動した後に行われる処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence performed after a user moves from a 1st base to a 2nd base in 3rd Embodiment. 第4実施形態においてユーザーが第1拠点から第2拠点へ移動した後に行われる処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence performed after a user moves from a 1st base to a 2nd base in 4th Embodiment. 第5実施形態における携帯端末の表示画面例を示す図である。It is a figure which shows the example of a display screen of the portable terminal in 5th Embodiment. 第5実施形態において生成される第2付属情報の一例を示す図である。It is a figure which shows an example of the 2nd attached information produced | generated in 5th Embodiment.

以下、本発明に関する好ましい実施形態について図面を参照しつつ詳細に説明する。尚、以下に説明する実施形態において互いに共通する部材には同一符号を付しており、それらについての重複する説明は省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the embodiments described below, members that are common to each other are denoted by the same reference numerals, and redundant descriptions thereof are omitted.

(第1実施形態)
図1は、第1実施形態における画像処理システムの概念的構成を示す図である。この画像処理システムは、複数の画像処理装置1,2と、サーバー装置3と、携帯端末4とを備えて構成される。画像処理装置1,2は、例えば複合機などによって構成され、文書などの画像データを記憶したり、印刷出力を行ったりすることができる装置である。本実施形態では、これら複数の画像処理装置1,2が互いに離れた拠点に設置されている場合を例示する。例えば、第1の画像処理装置1が第1拠点に設置されており、第2の画像処理装置2が第2拠点に設置されている。尚、図1では、画像処理システムに2つの画像処理装置1,2が設けられる場合を例示しているが、画像処理装置の数は2つに限られるものではなく、3つ以上であっても構わない。
(First embodiment)
FIG. 1 is a diagram illustrating a conceptual configuration of an image processing system according to the first embodiment. This image processing system includes a plurality of image processing devices 1 and 2, a server device 3, and a mobile terminal 4. The image processing apparatuses 1 and 2 are configured by, for example, a multi-function peripheral or the like, and can store image data such as a document or perform print output. In the present embodiment, a case where the plurality of image processing apparatuses 1 and 2 are installed at locations apart from each other is illustrated. For example, the first image processing apparatus 1 is installed at a first site, and the second image processing apparatus 2 is installed at a second site. FIG. 1 illustrates the case where two image processing apparatuses 1 and 2 are provided in the image processing system, but the number of image processing apparatuses is not limited to two, and three or more. It doesn't matter.

サーバー装置3は、それら複数の画像処理装置1,2を管理すると共に、それら複数の画像処理装置1,2を制御する装置である。このサーバー装置3は、各画像処理装置1,2の設置位置を示す位置情報と関連付けて各画像処理装置1,2を管理している。また、このサーバー装置3は、複数の画像処理装置1,2のそれぞれとLAN(Local Area Network)やインターネットなどのネットワーク5を介して通信可能である。サーバー装置3は、ネットワーク5を介して各画像処理装置1,2から必要な情報を取得したり、或いは、各画像処理装置1,2に対して必要な動作を行わせたりする。尚、各画像処理装置1,2は、サーバー装置3を介することなく、それぞれが相互にネットワーク5を介して通信することも可能である。   The server device 3 is a device that manages the plurality of image processing devices 1 and 2 and controls the plurality of image processing devices 1 and 2. The server apparatus 3 manages the image processing apparatuses 1 and 2 in association with position information indicating the installation positions of the image processing apparatuses 1 and 2. The server device 3 can communicate with each of the plurality of image processing devices 1 and 2 via a network 5 such as a LAN (Local Area Network) or the Internet. The server apparatus 3 acquires necessary information from the image processing apparatuses 1 and 2 via the network 5 or causes the image processing apparatuses 1 and 2 to perform necessary operations. The image processing apparatuses 1 and 2 can communicate with each other via the network 5 without using the server apparatus 3.

またサーバー装置3は、携帯端末4とインターネットなどのネットワーク6を介して通信可能である。そしてサーバー装置3は、携帯端末4から受信する情報に基づき、携帯端末4に対して各画像処理装置1,2に関する情報や表示用の画像などを送信したり、各画像処理装置1,2の動作を制御したりする。   The server device 3 can communicate with the mobile terminal 4 via a network 6 such as the Internet. Then, based on the information received from the mobile terminal 4, the server device 3 transmits information regarding the image processing devices 1 and 2, display images, and the like to the mobile terminal 4, Control the operation.

携帯端末4は、例えばスマートフォンやタブレット端末などによって構成される可搬型の情報処理端末である。この携帯端末4は、例えば1人のユーザーによって専有されるものであり、該ユーザーによって持ち運びされることにより第1拠点と第2拠点のいずれの拠点においても使用される。また携帯端末4は、画像を撮影するカメラ機能と、インターネットなどのネットワーク6を介して通信を行う通信機能とを備えている。   The portable terminal 4 is a portable information processing terminal configured by, for example, a smartphone or a tablet terminal. The portable terminal 4 is exclusively used by one user, for example, and is used at any of the first base and the second base by being carried by the user. The portable terminal 4 also has a camera function for taking an image and a communication function for performing communication via a network 6 such as the Internet.

本実施形態の画像処理システムは、上記構成において、ユーザーが携帯する携帯端末4を用いて、離れた地点に設置されている第1の画像処理装置1と第2の画像処理装置2とを互いに連携動作させることを可能にするものである。   In the image processing system of the present embodiment, in the above configuration, the first image processing apparatus 1 and the second image processing apparatus 2 installed at distant points are mutually connected using the portable terminal 4 carried by the user. It is possible to make it work together.

その概要について説明すると、まず始めに、ユーザーが携帯端末4を用いて第1拠点に設置されている第1の画像処理装置1を撮影するとき、携帯端末4は、サーバー装置3と通信を行う。この通信により、携帯端末4は、サーバー装置3から第1の画像処理装置1に関するデバイス情報と、そのデバイス情報に対応するタグ画像(合成用画像)TG1とを取得し、第1の画像処理装置1を撮影した撮影画像SG1にタグ画像(合成用画像)TG1を合成した第1合成画像DG1を生成して表示する。例えば携帯端末4は、ARによる表示処理技術を利用して第1合成画像DG1を生成して表示する。このようにして得られる第1合成画像DG1は、携帯端末4又はサーバー装置3に保存される。   The outline will be described. First, when the user uses the mobile terminal 4 to photograph the first image processing apparatus 1 installed at the first base, the mobile terminal 4 communicates with the server apparatus 3. . Through this communication, the mobile terminal 4 acquires device information related to the first image processing apparatus 1 and a tag image (composition image) TG1 corresponding to the device information from the server apparatus 3, and the first image processing apparatus A first synthesized image DG1 obtained by synthesizing the tag image (composition image) TG1 with the photographed image SG1 obtained by photographing 1 is generated and displayed. For example, the mobile terminal 4 generates and displays the first composite image DG1 using a display processing technique based on AR. The first composite image DG1 obtained in this way is stored in the mobile terminal 4 or the server device 3.

ここで撮影画像SG1に合成されるタグ画像TG1は、第1の画像処理装置1に設けられているBOX(ファイル記憶領域)やそのBOXに保存されているファイル、或いは、第1の画像処理装置1において実行可能な機能のそれぞれに対応するアイコンのような画像であり、例えばサーバー装置3において予め生成される画像である。また携帯端末4が、サーバー装置3から受信するデバイス情報に基づいて、その都度、タグ画像TG1を生成するようにしても良い。本実施形態では、主として、サーバー装置3において予めデバイス情報に対応するタグ画像が生成される場合を例示する。   Here, the tag image TG1 combined with the photographed image SG1 is a BOX (file storage area) provided in the first image processing apparatus 1, a file stored in the BOX, or the first image processing apparatus. 1 is an image like an icon corresponding to each of the functions executable in 1, for example, an image generated in advance in the server device 3. The mobile terminal 4 may generate the tag image TG1 each time based on the device information received from the server device 3. In the present embodiment, a case where a tag image corresponding to device information is generated in advance in the server apparatus 3 is exemplified.

上記のように第1拠点において第1合成画像DG1が生成された後、図1の矢印Fで示すように、ユーザーが第2拠点に移動し、携帯端末4を用いて第2拠点に設置されている第2の画像処理装置2を撮影するとき、携帯端末4は、再びサーバー装置3と通信を行う。この通信により、携帯端末4は、サーバー装置3から第2の画像処理装置2に関するデバイス情報と、そのデバイス情報に対応するタグ画像(合成用画像)TG2とを取得し、第2の画像処理装置2を撮影した撮影画像SG2にタグ画像(合成用画像)TG2を合成した第2合成画像DG2を生成して表示する。このとき、携帯端末4は、第1拠点において予め生成しておいた第1合成画像DG1と共に、第2合成画像DG2を表示する。つまり、第2拠点でユーザーが第2の画像処理装置2を撮影すると、携帯端末4には、第1拠点で予め生成された第1合成画像DG1と、第2拠点で生成された第2合成画像DG2との双方が表示されるようになる。   After the first composite image DG1 is generated at the first site as described above, the user moves to the second site and is installed at the second site using the mobile terminal 4 as indicated by the arrow F in FIG. When the second image processing apparatus 2 is photographed, the portable terminal 4 communicates with the server apparatus 3 again. Through this communication, the mobile terminal 4 acquires device information related to the second image processing device 2 from the server device 3 and a tag image (composition image) TG2 corresponding to the device information, and the second image processing device. A second synthesized image DG2 obtained by synthesizing the tag image (composition image) TG2 with the photographed image SG2 obtained by photographing 2 is generated and displayed. At this time, the mobile terminal 4 displays the second composite image DG2 together with the first composite image DG1 generated in advance at the first base. That is, when the user captures the second image processing apparatus 2 at the second base, the mobile terminal 4 includes the first composite image DG1 generated in advance at the first base and the second composite generated at the second base. Both the image DG2 and the image DG2 are displayed.

そして本実施形態の画像処理システムは、携帯端末4において第1合成画像DG1と第2合成画像DG2との双方が表示されているときに、例えばユーザーが第1合成画像DG1に含まれる一のファイルに対応するタグ画像を第2合成画像DG2に含まれる一のBOXに対応するタグ画像上にドラッグアンドドロップ操作すると、その操作に基づく操作情報が携帯端末4からサーバー装置3に送信され、サーバー装置3が操作情報に基づいて第1の画像処理装置1と第2の画像処理装置2とを相互に連携動作させる。例えば、上記のようなファイル操作の場合には、サーバー装置3は、第1の画像処理装置1に保存されているファイルを、第2の画像処理装置2の指定されたBOXにコピー又は移動させるように、第1の画像処理装置1と第2の画像処理装置2とを相互に連携させる。   The image processing system according to the present embodiment is configured so that, for example, when the first composite image DG1 and the second composite image DG2 are both displayed on the mobile terminal 4, the user includes one file included in the first composite image DG1. When the tag image corresponding to is dragged and dropped onto the tag image corresponding to one BOX included in the second composite image DG2, operation information based on the operation is transmitted from the portable terminal 4 to the server device 3, and the server device 3 causes the first image processing apparatus 1 and the second image processing apparatus 2 to cooperate with each other based on the operation information. For example, in the case of the file operation as described above, the server device 3 copies or moves the file stored in the first image processing device 1 to the designated BOX of the second image processing device 2. As described above, the first image processing apparatus 1 and the second image processing apparatus 2 are linked to each other.

以下、このような画像処理システムについて更に詳しく説明する。図2は、サーバー装置3のハードウェア構成及び機能構成の一例を示すブロック図である。図2に示すように、サーバー装置3は、CPU10と、メモリ11と、通信インタフェース12と、記憶部13とを備えている。CPU10は、所定のプログラムを実行することにより、各部の動作を制御するものである。特に本実施形態におけるCPU10は、所定のプログラムを実行することにより、情報取得部14、第1情報処理部15、第2情報処理部16及び制御部17として機能する。メモリ11は、CPU10が各種演算処理を行う際に発生する一時的なデータなどを記憶するものである。通信インタフェース12は、ネットワーク5を介して第1及び第2の画像処理装置1,2のそれぞれと通信を行ったり、ネットワーク6を介して携帯端末4と通信を行ったりするためのものである。記憶部13は、例えばハードディスクドライブ(HDD)などで構成される不揮発性記憶手段であり、上述したプログラムなどが記憶される。また本実施形態では、図2に示すように、デバイス登録情報18が記憶部13に予め記憶されている。また記憶部13には、デバイス登録情報18に登録される各画像処理装置1,2のデバイス情報に対応するタグ画像を記憶するためのタグ画像記憶領域19が設けられている。   Hereinafter, such an image processing system will be described in more detail. FIG. 2 is a block diagram illustrating an example of a hardware configuration and a functional configuration of the server device 3. As shown in FIG. 2, the server device 3 includes a CPU 10, a memory 11, a communication interface 12, and a storage unit 13. The CPU 10 controls the operation of each unit by executing a predetermined program. In particular, the CPU 10 in this embodiment functions as the information acquisition unit 14, the first information processing unit 15, the second information processing unit 16, and the control unit 17 by executing a predetermined program. The memory 11 stores temporary data generated when the CPU 10 performs various arithmetic processes. The communication interface 12 is for communicating with each of the first and second image processing apparatuses 1 and 2 through the network 5 and with the portable terminal 4 through the network 6. The storage unit 13 is a non-volatile storage unit configured by, for example, a hard disk drive (HDD), and stores the above-described program and the like. In the present embodiment, as shown in FIG. 2, device registration information 18 is stored in the storage unit 13 in advance. The storage unit 13 is provided with a tag image storage area 19 for storing tag images corresponding to the device information of the image processing apparatuses 1 and 2 registered in the device registration information 18.

情報取得部14は、通信インタフェース12を介してデバイス登録情報18に予め登録されている第1及び第2の画像処理装置1,2のそれぞれと通信を行い、それら画像処理装置1,2からデバイス情報を取得してデバイス登録情報18に記録する。図3は、デバイス登録情報18の一例を示す図である。このデバイス登録情報18には、第1及び第2の画像処理装置1,2に関する情報が登録される。例えば、デバイス登録情報18には、各画像処理装置1,2に対してユニークに付与された装置ID18aと、各画像処理装置1,2の設置位置に関する位置情報18bと、各画像処理装置1,2と通信を行うためのIPアドレス18cとが予め登録されている。尚、装置ID18a、位置情報18b及びIPアドレス18cは、いずれも各画像処理装置1,2を特定することができる特定情報である。   The information acquisition unit 14 communicates with each of the first and second image processing apparatuses 1 and 2 registered in advance in the device registration information 18 via the communication interface 12, and the image processing apparatuses 1 and 2 communicate with the device. Information is acquired and recorded in the device registration information 18. FIG. 3 is a diagram illustrating an example of the device registration information 18. Information relating to the first and second image processing apparatuses 1 and 2 is registered in the device registration information 18. For example, the device registration information 18 includes a device ID 18 a uniquely assigned to each image processing device 1, 2, position information 18 b regarding the installation position of each image processing device 1, 2, and each image processing device 1, 1. 2 is registered in advance with an IP address 18c for communicating with the terminal 2. The device ID 18a, the position information 18b, and the IP address 18c are all specific information that can identify the image processing devices 1 and 2.

情報取得部14は、デバイス登録情報18に予め登録されている情報に基づき、定期的に第1及び第2の画像処理装置1,2と通信を行い、画像処理装置1,2からデバイス情報18dを取得してデバイス登録情報18に記録する。デバイス登録情報18に記録されるデバイス情報18dは、例えばファイル情報及び機能情報である。ファイル情報は、第1及び第2の画像処理装置1,2のそれぞれに保存されているファイルに関する情報であり、各ファイルが保存されているBOXに関する情報や、そのBOXにアクセス可能なユーザーに関する情報が含まれる。尚、BOXにファイルが保存されていない場合であっても、そのBOXに関する情報や、そのBOXにアクセス可能なユーザーに関する情報が、ファイル情報として記録される。一方、機能情報は、第1及び第2の画像処理装置1,2のそれぞれで実行可能な機能(例えばプリントやスキャンなど)に関する情報である。情報取得部14は、第1及び第2の画像処理装置1,2のそれぞれから上記のようなファイル情報及び機能情報をデバイス情報18dとして取得し、デバイス登録情報18に記録する。このとき、情報取得部14は、各BOXに対してユニークなBOXIDを付与すると共に、各ファイルに対してユニークなファイルIDを付与する。さらに各機能に対してはユニークな機能IDを付与する。そして情報取得部14は、それらのBOXID、ファイルID及び機能IDのそれぞれを、第1及び第2の画像処理装置1,2のそれぞれの装置ID18aと相互に関連付けてデバイス登録情報18に記録する。   The information acquisition unit 14 periodically communicates with the first and second image processing apparatuses 1 and 2 based on information registered in advance in the device registration information 18, and device information 18 d is transmitted from the image processing apparatuses 1 and 2. Is recorded in the device registration information 18. The device information 18d recorded in the device registration information 18 is, for example, file information and function information. The file information is information related to files stored in the first and second image processing apparatuses 1 and 2, and information related to the BOX in which each file is stored and information related to a user who can access the BOX. Is included. Even when a file is not stored in the BOX, information about the BOX and information about a user who can access the BOX are recorded as file information. On the other hand, the function information is information regarding functions (for example, printing, scanning, etc.) that can be executed by each of the first and second image processing apparatuses 1 and 2. The information acquisition unit 14 acquires the file information and function information as described above from each of the first and second image processing apparatuses 1 and 2 as device information 18 d and records it in the device registration information 18. At this time, the information acquisition unit 14 assigns a unique BOX ID to each BOX and assigns a unique file ID to each file. Furthermore, a unique function ID is assigned to each function. Then, the information acquisition unit 14 records the BOX ID, file ID, and function ID in the device registration information 18 in association with the device IDs 18a of the first and second image processing devices 1 and 2, respectively.

また情報取得部14は、デバイス登録情報18に対して各画像処理装置1,2のデバイス情報18dを登録又は更新することに伴い、そのデバイス情報18dに対応するタグ画像TG1,TG2を予め生成してタグ画像記憶領域19に保存しておく。また情報取得部14は、タグ画像TG1,TG2をタグ画像記憶領域19に保存するとき、各タグ画像TG1,TG2を各画像処理装置1,2に関連付けた状態で保存する。例えば、図1に示すタグ画像TG1は、第1の画像処理装置1のタグ画像としてタグ画像記憶領域19に保存され、タグ画像TG2は、第2の画像処理装置2のタグ画像としてタグ画像記憶領域19に保存される。   The information acquisition unit 14 generates tag images TG1 and TG2 corresponding to the device information 18d in advance in association with registration or update of the device information 18d of the image processing apparatuses 1 and 2 with respect to the device registration information 18. And stored in the tag image storage area 19. Further, the information acquisition unit 14 stores the tag images TG1 and TG2 in a state associated with the image processing devices 1 and 2 when storing the tag images TG1 and TG2 in the tag image storage area 19. For example, the tag image TG1 shown in FIG. 1 is stored in the tag image storage area 19 as a tag image of the first image processing apparatus 1, and the tag image TG2 is stored as a tag image of the second image processing apparatus 2. Stored in area 19.

図2に戻り、第1情報処理部15は、携帯端末4から第1の画像処理装置1を特定するための特定情報を受信することに伴って機能し、その受信した特定情報に基づいてデバイス登録情報18を参照することにより、携帯端末4が撮影しようとしている第1の画像処理装置1を特定する。そして第1情報処理部15は、その第1の画像処理装置1に対応するデバイス情報をデバイス登録情報18から抽出すると共に、その抽出したデバイス情報に対応するタグ画像をタグ画像記憶領域19から読み出し、第1の画像処理装置1に関する情報としてデバイス情報とタグ画像とを携帯端末4に送信する。また第2情報処理部16は、携帯端末4から第2の画像処理装置2を特定するための特定情報を受信することに伴って機能し、その受信した特定情報に基づいてデバイス登録情報18を参照することにより、携帯端末4が撮影しようとしている第2の画像処理装置2を特定する。そして第2情報処理部16は、その第2の画像処理装置2に対応するデバイス情報デバイス登録情報18から抽出すると共に、その抽出したデバイス情報に対応するタグ画像をタグ画像記憶領域19から読み出し、第2の画像処理装置2に関する情報としてデバイス情報とタグ画像とを携帯端末4に送信する。尚、本実施形態では、第1情報処理部15と第2情報処理部16とを互いに区別して説明するが、これら各処理部15,16で行われる処理には共通性があるため、ひとつの処理部として実現しても構わない。   Returning to FIG. 2, the first information processing unit 15 functions in conjunction with receiving specific information for specifying the first image processing apparatus 1 from the mobile terminal 4, and the device is based on the received specific information. By referring to the registration information 18, the first image processing apparatus 1 that the mobile terminal 4 is about to shoot is specified. Then, the first information processing unit 15 extracts device information corresponding to the first image processing apparatus 1 from the device registration information 18 and reads a tag image corresponding to the extracted device information from the tag image storage area 19. The device information and the tag image are transmitted to the portable terminal 4 as information relating to the first image processing apparatus 1. The second information processing unit 16 functions in conjunction with receiving specific information for specifying the second image processing apparatus 2 from the portable terminal 4, and device registration information 18 is obtained based on the received specific information. By referencing, the second image processing device 2 that the mobile terminal 4 is about to shoot is specified. Then, the second information processing unit 16 extracts from the device information device registration information 18 corresponding to the second image processing apparatus 2 and reads out the tag image corresponding to the extracted device information from the tag image storage area 19. Device information and a tag image are transmitted to the portable terminal 4 as information relating to the second image processing apparatus 2. In the present embodiment, the first information processing unit 15 and the second information processing unit 16 will be described separately from each other. However, since the processing performed by each of the processing units 15 and 16 has commonality, You may implement | achieve as a process part.

また制御部17は、第2情報処理部16により第2の画像処理装置2に関する情報が携帯端末4に送信された後、携帯端末4から操作情報を受信することに伴い、その操作情報に基づいて第1及び第2の画像処理装置1,2を連携動作させる。つまり、制御部17は、互いに離れた拠点に設置されている2つの画像処理装置1,2を相互に連携させることにより、ユーザーによって指定された処理の実行を制御する。   Further, the control unit 17 receives the operation information from the portable terminal 4 after the information related to the second image processing device 2 is transmitted to the portable terminal 4 by the second information processing unit 16, and based on the operation information. Thus, the first and second image processing apparatuses 1 and 2 are operated in cooperation. In other words, the control unit 17 controls the execution of the process designated by the user by linking the two image processing apparatuses 1 and 2 installed at locations apart from each other.

図4は、携帯端末4のハードウェア構成及び機能構成の一例を示すブロック図である。図4に示すように、携帯端末4は、CPU20と、メモリ21と、カメラ22と、表示部23と、操作検知部24と、位置検出センサ25と、通信インタフェース26と、記憶部27とを備えている。CPU20は、各種プログラムを実行することにより、各部の動作を制御するものである。メモリ21は、CPU20が各種演算処理を行う際に発生する一時的なデータなどを記憶するものである。カメラ22は、画像を撮影するための撮像手段であり、例えば携帯端末4の背面側に設けられている。表示部23は、例えば携帯端末4の表面側に設けられたカラー液晶ディスプレイなどで構成され、各種画像を表示するものである。この表示部23は表示画面上にタッチパネルセンサを備えている。操作検知部24は、表示部23の表示画面に対して行われるユーザーの操作を検知するものであり、例えば表示画面に対してタッチ操作が行われたときのタッチ位置や、そのタッチ位置の移動、タッチ操作がリリースされたときのリリース位置などを検知することができる。位置検出センサ25は、携帯端末4の現在位置を検知するセンサであり、例えばGPS(Global Positioning System)受信センサなどにより構成される。通信インタフェース12は、ネットワーク6を介してサーバー装置3との通信を行うものである。記憶部27は、例えばソリッドステートドライブ(SSD)などで構成される不揮発性記憶手段である。この記憶部27には、携帯端末4にサーバー装置3との通信を行わせ、第1及び第2の画像処理装置1,2を連携動作させるためのプログラム28が予めインストールされている。   FIG. 4 is a block diagram illustrating an example of a hardware configuration and a functional configuration of the mobile terminal 4. As illustrated in FIG. 4, the mobile terminal 4 includes a CPU 20, a memory 21, a camera 22, a display unit 23, an operation detection unit 24, a position detection sensor 25, a communication interface 26, and a storage unit 27. I have. The CPU 20 controls the operation of each unit by executing various programs. The memory 21 stores temporary data generated when the CPU 20 performs various arithmetic processes. The camera 22 is an imaging means for taking an image, and is provided on the back side of the mobile terminal 4, for example. The display unit 23 is composed of, for example, a color liquid crystal display provided on the front side of the mobile terminal 4 and displays various images. The display unit 23 includes a touch panel sensor on the display screen. The operation detection unit 24 detects a user operation performed on the display screen of the display unit 23. For example, a touch position when a touch operation is performed on the display screen and a movement of the touch position. The release position when the touch operation is released can be detected. The position detection sensor 25 is a sensor that detects the current position of the mobile terminal 4 and is configured by, for example, a GPS (Global Positioning System) reception sensor. The communication interface 12 communicates with the server device 3 via the network 6. The storage unit 27 is a non-volatile storage unit configured by, for example, a solid state drive (SSD). The storage unit 27 is preinstalled with a program 28 for causing the mobile terminal 4 to communicate with the server apparatus 3 and causing the first and second image processing apparatuses 1 and 2 to operate in a coordinated manner.

CPU20は、ユーザーによる指示操作に基づいて記憶部27から上記プログラム28を読み出して実行することにより、連携アプリケーション30を起動させる。この連携アプリケーション30は、第1制御部31と、第2制御部32とを備えている。これら第1制御部31及び第2制御部32は、ユーザーによる選択操作に基づいて択一的に機能するものである。例えば、ユーザーが第1拠点から第2拠点へ移動する前に、第1拠点において連携アプリケーション30を起動させて第1の画像処理装置1を撮影することを選択すると、連携アプリケーション30は、第1制御部31を機能させる。またユーザーが第1拠点から第2拠点へ移動した後に、第2拠点において連携アプリケーション30を起動させて第2の画像処理装置2を撮影することを選択すると、連携アプリケーション30は、第2制御部32を機能させる。   The CPU 20 activates the cooperative application 30 by reading and executing the program 28 from the storage unit 27 based on an instruction operation by the user. The cooperative application 30 includes a first control unit 31 and a second control unit 32. The first control unit 31 and the second control unit 32 function alternatively based on a selection operation by the user. For example, before the user moves from the first base to the second base, if the user selects to start the cooperative application 30 at the first base and shoots the first image processing apparatus 1, the cooperative application 30 The control unit 31 is caused to function. When the user moves from the first base to the second base and then selects to shoot the second image processing apparatus 2 by starting the cooperative application 30 at the second base, the cooperative application 30 32 is made to function.

第1制御部31は、操作検知部24により検知される操作に基づいてカメラ22を起動し、第1の画像処理装置1を撮影できる状態とする。また第1制御部31は、位置検出センサ25によって検出される現在位置を取得し、その現在位置を、カメラ22の撮影対象となっている第1の画像処理装置1を特定するための特定情報としてサーバー装置3に送信する。これにより、第1制御部31は、サーバー装置3から第1の画像処理装置1に対応するデバイス情報と、そのデバイス情報に対応するタグ画像とを取得することができる。そして第1制御部31は、サーバー装置3から受信するタグ画像TG1を、第1の画像処理装置1を撮影した撮影画像SG1に合成することにより第1合成画像DG1を生成して保存する。   The first control unit 31 activates the camera 22 based on the operation detected by the operation detection unit 24 and sets the first image processing apparatus 1 in a state in which the first image processing apparatus 1 can be photographed. Further, the first control unit 31 acquires the current position detected by the position detection sensor 25, and the specific information for specifying the first image processing apparatus 1 that is the shooting target of the camera 22 based on the current position. To the server device 3 as follows. Thereby, the first control unit 31 can acquire the device information corresponding to the first image processing apparatus 1 and the tag image corresponding to the device information from the server apparatus 3. And the 1st control part 31 produces | generates and preserve | saves the 1st synthesized image DG1 by synthesize | combining tag image TG1 received from the server apparatus 3 with picked-up image SG1 which image | photographed the 1st image processing apparatus 1. FIG.

一方、第2制御部32は、操作検知部24により検知される操作に基づいてカメラ22を起動し、第2の画像処理装置2を撮影できる状態とする。また第2制御部32は、位置検出センサ25によって検出される現在位置を取得し、その現在位置を、カメラ22の撮影対象となっている第2の画像処理装置2を特定するための特定情報としてサーバー装置3に送信する。これにより、第2制御部32は、サーバー装置3から第2の画像処理装置2に対応するデバイス情報と、そのデバイス情報に対応するタグ画像とを取得することができる。そして第2制御部32は、サーバー装置3から受信するタグ画像TG2を、第2の画像処理装置2を撮影した撮影画像SG2に合成することにより第2合成画像DG2を生成する。また第2制御部32は、予め生成されている第1合成画像DG1と、今回生成した第2合成画像DG2とを合わせて表示部23に表示する。   On the other hand, the second control unit 32 activates the camera 22 based on the operation detected by the operation detection unit 24 and sets the second image processing apparatus 2 in a state where it can be photographed. In addition, the second control unit 32 acquires the current position detected by the position detection sensor 25, and the current position is specified information for specifying the second image processing apparatus 2 that is a subject to be captured by the camera 22. To the server device 3 as follows. Thereby, the second control unit 32 can acquire the device information corresponding to the second image processing apparatus 2 and the tag image corresponding to the device information from the server apparatus 3. Then, the second control unit 32 generates the second combined image DG2 by combining the tag image TG2 received from the server device 3 with the captured image SG2 obtained by capturing the second image processing device 2. In addition, the second control unit 32 displays the first synthesized image DG1 generated in advance and the second synthesized image DG2 generated this time on the display unit 23 together.

さらに第2制御部32は、第1合成画像DG1と第2合成画像DG2とを表示部23に表示しているとき、操作検知部24によって第1合成画像DG1及び第2合成画像DG2のそれぞれに対する操作が検知されることに伴い、その操作に基づく操作情報をサーバー装置3に送信し、第1及び第2の画像処理装置1,2を互いに連携させて動作させる。尚、本実施形態では、第1制御部31と第2制御部32とを互いに区別して説明しているが、これら各制御部31,32で行われる処理には共通性があるため、ひとつの制御部として実現しても構わない。   Furthermore, when the second control unit 32 displays the first composite image DG1 and the second composite image DG2 on the display unit 23, the operation detection unit 24 controls each of the first composite image DG1 and the second composite image DG2. As the operation is detected, operation information based on the operation is transmitted to the server apparatus 3, and the first and second image processing apparatuses 1 and 2 are operated in cooperation with each other. In the present embodiment, the first control unit 31 and the second control unit 32 are described separately from each other. However, since the processes performed by these control units 31 and 32 have commonality, You may implement | achieve as a control part.

次に上記構成を有する携帯端末4及びサーバー装置3における具体的な動作の一例について説明する。まず、図5は、ユーザーが第1拠点から第2拠点へ移動する前の第1拠点で行われる処理手順であって、携帯端末4における第1制御部31と、サーバー装置3における第1情報処理部15とによって行われる処理手順の一例を示すフローチャートである。図5に示すように、まずユーザーは、携帯端末4を操作して連携アプリケーション30を第1のモードで起動することにより、連携アプリケーション30の第1制御部31を機能させる(ステップS10)。第1制御部31は、カメラ22を起動すると共に(ステップS11)、位置検出センサ25から携帯端末4の現在位置を取得する(ステップS12)。そして第1制御部31は、サーバー装置3に対して各種情報を送信する(ステップS13)。このとき、サーバー装置3に送信される情報には、現在位置を示す情報と、ユーザーを特定するためのユーザーIDなどのユーザー情報とが含まれる。   Next, an example of specific operations in the portable terminal 4 and the server device 3 having the above-described configuration will be described. First, FIG. 5 is a processing procedure performed at the first site before the user moves from the first site to the second site, and includes the first control unit 31 in the portable terminal 4 and the first information in the server device 3. 4 is a flowchart illustrating an example of a processing procedure performed by the processing unit 15. As shown in FIG. 5, first, the user operates the mobile terminal 4 to start the cooperative application 30 in the first mode, thereby causing the first control unit 31 of the cooperative application 30 to function (step S10). The first control unit 31 activates the camera 22 (step S11) and acquires the current position of the mobile terminal 4 from the position detection sensor 25 (step S12). And the 1st control part 31 transmits various information to server apparatus 3 (Step S13). At this time, the information transmitted to the server device 3 includes information indicating the current position and user information such as a user ID for specifying the user.

サーバー装置3は、携帯端末4から送信される情報を受信すると、まずユーザー情報に基づいてユーザー認証を行う(ステップS14)。このユーザー認証に成功することを条件として、これ以降の処理が行われる。ユーザー認証に成功した場合、サーバー装置3において上述した第1情報処理部15が機能し、現在位置を示す情報に基づいて携帯端末4が撮影しようとしている第1の画像処理装置1を特定する(ステップS15)。すなわち、第1情報処理部15は、デバイス登録情報18に登録されている位置情報18bを参照し、携帯端末4の現在位置に最も近い位置に設置されている画像処理装置を、第1の画像処理装置1として特定する。尚、携帯端末4に設けられている位置検出センサ25が携帯端末4の姿勢を検知可能な地磁気センサを更に備えたものであれば、携帯端末4の撮影方向に設置されている画像処理装置を、第1の画像処理装置1として特定することもできる。   When the server device 3 receives the information transmitted from the mobile terminal 4, the server device 3 first performs user authentication based on the user information (step S14). Subsequent processing is performed on the condition that the user authentication is successful. When the user authentication is successful, the first information processing unit 15 described above functions in the server device 3 and specifies the first image processing device 1 that the mobile terminal 4 is to shoot based on the information indicating the current position ( Step S15). That is, the first information processing unit 15 refers to the position information 18 b registered in the device registration information 18, and displays the image processing apparatus installed at the position closest to the current position of the mobile terminal 4 as the first image. The processing device 1 is specified. If the position detection sensor 25 provided in the mobile terminal 4 further includes a geomagnetic sensor capable of detecting the attitude of the mobile terminal 4, an image processing device installed in the shooting direction of the mobile terminal 4 is used. The first image processing apparatus 1 can also be specified.

そして第1情報処理部15は、特定した第1の画像処理装置1に対応するデバイス情報18dを抽出する。このとき、第1情報処理部15は、ユーザー認証で認証されたユーザーが利用可能なBOXやファイル、機能に関する情報だけを抽出し、認証されたユーザーが利用できないBOXやファイル、機能に関する情報は抽出しない。そして第1情報処理部15は、デバイス登録情報18から抽出したデバイス情報18dを携帯端末4に送信する(ステップS16)。また第1情報処理部15は、ステップS16で抽出したデバイス情報18dに対応するタグ画像(合成用画像)TG1をタグ画像記憶領域19から読み出し、そのタグ画像TG1を携帯端末4に送信する(ステップS17)。   The first information processing unit 15 extracts device information 18d corresponding to the identified first image processing apparatus 1. At this time, the first information processing unit 15 extracts only information on the BOX, file, and function that can be used by the user authenticated by the user authentication, and extracts information on the BOX, file, and function that cannot be used by the authenticated user. do not do. Then, the first information processing unit 15 transmits the device information 18d extracted from the device registration information 18 to the mobile terminal 4 (step S16). The first information processing unit 15 reads the tag image (composition image) TG1 corresponding to the device information 18d extracted in step S16 from the tag image storage area 19, and transmits the tag image TG1 to the mobile terminal 4 (step). S17).

携帯端末4の第1制御部31は、サーバー装置3からデバイス情報18dとタグ画像TG1とを受信すると、第1の画像処理装置1を撮影した撮影画像SG1と、デバイス情報18dに対応するタグ画像TG1とを合成して第1合成画像を生成する(ステップS18)。   When the first control unit 31 of the portable terminal 4 receives the device information 18d and the tag image TG1 from the server device 3, the captured image SG1 obtained by capturing the first image processing device 1 and the tag image corresponding to the device information 18d. A first combined image is generated by combining with TG1 (step S18).

図6は、携帯端末4において生成される第1合成画像DG1の一例を示す図である。この第1合成画像DG1は、第1の画像処理装置1の撮影画像SG1に対し、第1の画像処理装置1のデバイス情報18dに基づくタグ画像TG1が合成されたものである。尚、図6の例では、第1の画像処理装置1に対応するファイル情報だけをタグ画像TG1として合成した場合を例示している。このタグ画像TG1は、第1の画像処理装置1に設けられているBOX1に対応するタグ画像TG11と、そのBOX1に保存されているFile1に対応するタグ画像TG12とを含んでおり、タグ画像TG11とTG12との関係をツリー構造で示す画像となっている。   FIG. 6 is a diagram illustrating an example of the first composite image DG <b> 1 generated in the mobile terminal 4. The first composite image DG1 is obtained by combining the captured image SG1 of the first image processing apparatus 1 with the tag image TG1 based on the device information 18d of the first image processing apparatus 1. In the example of FIG. 6, the case where only the file information corresponding to the first image processing apparatus 1 is combined as the tag image TG1 is illustrated. The tag image TG1 includes a tag image TG11 corresponding to BOX1 provided in the first image processing apparatus 1, and a tag image TG12 corresponding to File1 stored in the BOX1, and the tag image TG11. The image shows the relationship between TG12 and TG12 in a tree structure.

第1制御部31は、上記のような第1合成画像DG1を生成すると、その第1合成画像DG1に関する第1付属情報を生成する(ステップS19)。図7は、第1付属情報33の一例を示す図である。この第1付属情報33は、第1合成画像DG1と一体的に管理される情報であり、サーバー装置3から受信するデバイス情報18dと、タグ画像TG1の合成結果とに基づいて生成される。第1付属情報33は、例えば、第1合成画像DG1を特定するための画像ID33aと、第1の画像処理装置1を特定するための装置ID33bと、第1の画像処理装置1のIPアドレス33cと、ユーザーID33dと、合成情報33eとが相互に関連付けられた情報である。そして合成情報33eには、撮影画像SG1に合成された個々のタグ画像TG11,TG12を特定することができる情報が記録され、例えば、各タグ画像を特定するための合成画像ID、各タグ画像の合成位置を特定するための座標情報、各タグ画像の種類を示す情報、BOXIDやファイルIDなどの情報が記録される。このような第1付属情報33を参照すれば、第1合成画像DG1に対するタッチ操作などが行われたときに、制御対象となる画像処理装置を特定することができると共に、各タグ画像に対する操作を検知することができるようになる。そして第1制御部31は、上記のようにして生成した第1合成画像DG1と第1付属情報33とを相互に関連付けて記憶部27などに保存しておく(ステップS20)。以上で、ユーザーが第1拠点から第2拠点へ移動する前に行っておくべき処理が終了する。   When the first control unit 31 generates the first composite image DG1 as described above, the first control unit 31 generates first attached information related to the first composite image DG1 (step S19). FIG. 7 is a diagram illustrating an example of the first attached information 33. The first attached information 33 is information that is managed integrally with the first composite image DG1, and is generated based on the device information 18d received from the server device 3 and the composite result of the tag image TG1. The first attached information 33 includes, for example, an image ID 33a for specifying the first composite image DG1, a device ID 33b for specifying the first image processing device 1, and an IP address 33c of the first image processing device 1. And the user ID 33d and the combined information 33e are information associated with each other. Information that can identify individual tag images TG11 and TG12 combined with the photographed image SG1 is recorded in the combination information 33e. For example, a combination image ID for specifying each tag image, a tag image of each tag image, and the like. Coordinate information for specifying the synthesis position, information indicating the type of each tag image, and information such as BOX ID and file ID are recorded. With reference to such first attached information 33, when a touch operation or the like is performed on the first composite image DG1, an image processing apparatus to be controlled can be specified, and an operation on each tag image can be performed. It can be detected. Then, the first control unit 31 associates the first composite image DG1 generated as described above and the first auxiliary information 33 with each other and stores them in the storage unit 27 or the like (step S20). This completes the processing that should be performed before the user moves from the first base to the second base.

次に図8は、ユーザーが第1拠点から第2拠点へ移動した後に第2拠点で行われる処理手順であって、携帯端末4における第2制御部32と、サーバー装置3における第2情報処理部16及び制御部17によって行われる処理手順の一例を示すフローチャートである。図8に示すように、まずユーザーは、携帯端末4を操作して連携アプリケーション30を第2のモードで起動することにより、連携アプリケーション30の第2制御部32を機能させる(ステップS30)。第2制御部32は、位置検出センサ25から携帯端末4の現在位置を取得し(ステップS31)、第1拠点での処理で予め保存しておいた第1合成画像DG1を読み出す(ステップS32)。そして第2制御部32は、サーバー3に対して現在位置を示す情報と第1合成画像DG1とを送信する(ステップS33)。このとき、第2制御部32は、第1合成画像DG1と一体的に管理される第1付属情報33やユーザー情報などもサーバー装置3へ送信する。   Next, FIG. 8 is a processing procedure performed at the second site after the user moves from the first site to the second site, and the second control unit 32 in the mobile terminal 4 and the second information process in the server device 3. 4 is a flowchart illustrating an example of a processing procedure performed by a unit 16 and a control unit 17. As illustrated in FIG. 8, first, the user operates the mobile terminal 4 to start the cooperative application 30 in the second mode, thereby causing the second control unit 32 of the cooperative application 30 to function (step S30). The second control unit 32 acquires the current position of the mobile terminal 4 from the position detection sensor 25 (step S31), and reads the first composite image DG1 stored in advance by the processing at the first base (step S32). . Then, the second control unit 32 transmits information indicating the current position and the first composite image DG1 to the server 3 (step S33). At this time, the second control unit 32 also transmits the first attached information 33, user information, and the like managed integrally with the first composite image DG1 to the server device 3.

サーバー装置3は、携帯端末4から送信される情報を受信すると、ユーザー情報に基づいてユーザー認証を行い(ステップS34)、そのユーザー認証に成功すると、サーバー装置3において上述した第2情報処理部16が機能する。第2情報処理部16は、現在位置を示す情報に基づいて携帯端末4が撮影しようとしている第2の画像処理装置2を特定する(ステップS35)。すなわち、第2情報処理部16は、デバイス登録情報18に登録されている位置情報18bを参照し、携帯端末4の現在位置に最も近い位置に設置されている画像処理装置を、第2の画像処理装置2として特定する。第2情報処理部16は、第2の画像処理装置2を特定することができると、携帯端末4から受信する第1合成画像DG1及び第1付属情報33を、その特定した第2の画像処理装置2に関連付けて記憶する(ステップS36)。尚、このとき、第1合成画像DG1及び第1付属情報33を、第2の画像処理装置2に関連付けるのではなく、第2拠点の情報として関連付けるようにしても良い。   When the server device 3 receives the information transmitted from the mobile terminal 4, the server device 3 performs user authentication based on the user information (step S 34), and when the user authentication is successful, the second information processing unit 16 described above in the server device 3. Works. The second information processing unit 16 specifies the second image processing device 2 that the mobile terminal 4 is to shoot based on the information indicating the current position (step S35). That is, the second information processing unit 16 refers to the position information 18b registered in the device registration information 18, and displays the image processing apparatus installed at the position closest to the current position of the mobile terminal 4 as the second image. The processing device 2 is specified. When the second information processing unit 16 can identify the second image processing device 2, the second composite image DG <b> 1 and the first auxiliary information 33 received from the mobile terminal 4 are identified by the identified second image processing. The information is stored in association with the device 2 (step S36). At this time, the first composite image DG1 and the first auxiliary information 33 may be associated as information on the second base instead of associating with the second image processing apparatus 2.

そして携帯端末4において第2制御部32がカメラ22を起動する(ステップS37)。これに伴い、第2制御部32は、サーバー装置3に対して再度現在位置を示す情報を送信するようにしても良い。   And in the portable terminal 4, the 2nd control part 32 starts the camera 22 (step S37). Accordingly, the second control unit 32 may transmit information indicating the current position to the server device 3 again.

そして第2情報処理部16は、携帯端末4で撮影しようとしている第2の画像処理装置2に対応するデバイス情報18dを抽出する。このとき、第2情報処理部16は、ユーザー認証で認証されたユーザーが利用可能なBOXやファイル、機能に関する情報だけを抽出し、認証されたユーザーが利用できないBOXやファイル、機能に関する情報は抽出しない。そして第2情報処理部16は、デバイス登録情報18から抽出した第2の画像処理装置2のデバイス情報18dを携帯端末4に送信する(ステップS38)。また第2情報処理部16は、ステップS38で抽出したデバイス情報18dに対応するタグ画像(合成用画像)TG2をタグ画像記憶領域19から読み出し、そのタグ画像TG2を携帯端末4に送信する(ステップS39)。さらに第2情報処理部16は、ステップS36で第2の画像処理装置2又は第2拠点に関連付けた第1合成画像DG1及び第1付属情報33を読み出し、それらを携帯端末4に送信する(ステップS40)。   Then, the second information processing unit 16 extracts device information 18 d corresponding to the second image processing apparatus 2 that is about to be photographed by the mobile terminal 4. At this time, the second information processing unit 16 extracts only information on the BOX, file, and function that can be used by the user authenticated by the user authentication, and extracts information on the BOX, file, and function that cannot be used by the authenticated user. do not do. Then, the second information processing unit 16 transmits the device information 18d of the second image processing apparatus 2 extracted from the device registration information 18 to the portable terminal 4 (Step S38). Further, the second information processing section 16 reads the tag image (composition image) TG2 corresponding to the device information 18d extracted in step S38 from the tag image storage area 19, and transmits the tag image TG2 to the mobile terminal 4 (step). S39). Further, the second information processing unit 16 reads out the first composite image DG1 and the first auxiliary information 33 associated with the second image processing apparatus 2 or the second base in step S36, and transmits them to the portable terminal 4 (step S36). S40).

携帯端末4の第2制御部32は、サーバー装置3からデバイス情報18dとタグ画像TG2とを受信すると、第2の画像処理装置2を撮影した撮影画像SG2と、タグ画像(合成用画像)TG2とを合成して第2合成画像を生成する(ステップS41)。   When the second control unit 32 of the mobile terminal 4 receives the device information 18d and the tag image TG2 from the server device 3, the captured image SG2 obtained by photographing the second image processing device 2 and the tag image (composition image) TG2 Are combined to generate a second composite image (step S41).

図9は、携帯端末4において生成される第2合成画像DG2の一例を示す図である。この第2合成画像DG2は、第2の画像処理装置2の撮影画像SG2に対し、第2の画像処理装置2のデバイス情報18dに基づくタグ画像TG2が合成されたものである。尚、図9の例においても、第2の画像処理装置2に対応するファイル情報だけをタグ画像TG2として合成した場合を例示している。このタグ画像TG2は、第2の画像処理装置2に設けられているBOX2に対応するタグ画像TG21と、BOX3に対応するタグ画像TG22と、BOX2に保存されているFile2に対応するタグ画像TG23と、BOX2に保存されているFile3に対応するタグ画像TG24とを含んでおり、タグ画像TG21〜TG24の関係をツリー構造で示す画像となっている。   FIG. 9 is a diagram illustrating an example of the second composite image DG <b> 2 generated in the mobile terminal 4. The second composite image DG2 is obtained by synthesizing the tag image TG2 based on the device information 18d of the second image processing device 2 with the captured image SG2 of the second image processing device 2. In the example of FIG. 9, the case where only the file information corresponding to the second image processing apparatus 2 is combined as the tag image TG2 is illustrated. This tag image TG2 includes a tag image TG21 corresponding to BOX2 provided in the second image processing apparatus 2, a tag image TG22 corresponding to BOX3, and a tag image TG23 corresponding to File2 stored in BOX2. , And a tag image TG24 corresponding to File3 stored in BOX2, and an image showing the relationship between tag images TG21 to TG24 in a tree structure.

第2制御部32は、上記のような第2合成画像DG2を生成すると、次にその第2合成画像DG2に関する第2付属情報を生成する(ステップS42)。図10は、第2付属情報34の一例を示す図である。この第2付属情報34は、第2合成画像DG2と一体的に管理される情報であり、サーバー装置3から受信するデバイス情報18dと、タグ画像TG2の合成結果とに基づいて生成される。第2付属情報34は、例えば、第2合成画像DG2を特定するための画像ID34aと、第2の画像処理装置2を特定するための装置ID34bと、第2の画像処理装置2のIPアドレス34cと、ユーザーID34dと、合成情報34eとが相互に関連付けられた情報である。合成情報34eには、撮影画像SG2に合成された個々のタグ画像TG21〜TG24を特定することができる情報が記録され、例えば、各タグ画像を特定するための合成画像ID、各タグ画像の合成位置を特定するための座標情報、各タグ画像の種類を示す情報、BOXIDやファイルIDなどの情報が記録される。このような第2付属情報34を参照すれば、第2合成画像DG2に対するタッチ操作などが行われたときに、制御対象となる画像処理装置を特定することができると共に、各タグ画像に対する操作を検知することができるようになる。そして第2制御部32は、上記のようにして第2合成画像DG2と第2付属情報34とを生成すると、サーバー装置3から受信する第1合成画像DG1と第2合成画像DG2とを並べて表示部23に表示する(ステップS43)。   When the second control unit 32 generates the second composite image DG2 as described above, the second control unit 32 then generates second attached information related to the second composite image DG2 (step S42). FIG. 10 is a diagram illustrating an example of the second attached information 34. The second attached information 34 is information managed integrally with the second composite image DG2, and is generated based on the device information 18d received from the server device 3 and the composite result of the tag image TG2. The second attached information 34 includes, for example, an image ID 34a for specifying the second composite image DG2, a device ID 34b for specifying the second image processing device 2, and an IP address 34c of the second image processing device 2. And the user ID 34d and the combined information 34e are information associated with each other. Information that can specify individual tag images TG21 to TG24 combined with the photographed image SG2 is recorded in the combination information 34e. For example, a combination image ID for specifying each tag image and a combination of the tag images are recorded. Coordinate information for specifying the position, information indicating the type of each tag image, and information such as BOX ID and file ID are recorded. With reference to such second attached information 34, when a touch operation or the like is performed on the second composite image DG2, an image processing apparatus to be controlled can be specified, and an operation on each tag image can be performed. It can be detected. Then, when the second control unit 32 generates the second composite image DG2 and the second auxiliary information 34 as described above, the first composite image DG1 and the second composite image DG2 received from the server device 3 are displayed side by side. The information is displayed on the unit 23 (step S43).

図11は、第2拠点において第2の画像処理装置2を撮影した後に携帯端末4に表示される表示画面例を示す図である。図11(a)は、ファイル情報に基づくタグ画像だけを表示した場合を例示しており、図11(b)はファイル情報だけでなく、機能情報に基づくタグ画像も同時に表示した場合を例示している。これらの表示画面例では、第1合成画像DG1と第2合成画像DG2とが並んだ状態に表示され、しかも各タグ画像TG1,TG2にはBOX名やファイル名などのテキストが含まれる。そのため、ユーザーは、第1及び第2の画像処理装置1,2のそれぞれにどのようなBOXが設けられており、各BOXにどのようなファイルが保存されているかなどを一見して把握することができる。   FIG. 11 is a diagram illustrating an example of a display screen displayed on the mobile terminal 4 after shooting the second image processing apparatus 2 at the second site. FIG. 11A illustrates the case where only the tag image based on the file information is displayed, and FIG. 11B illustrates the case where not only the file information but also the tag image based on the function information is displayed at the same time. ing. In these display screen examples, the first composite image DG1 and the second composite image DG2 are displayed side by side, and each tag image TG1, TG2 includes text such as a BOX name and a file name. Therefore, the user must grasp at a glance what BOX is provided in each of the first and second image processing apparatuses 1 and 2 and what file is stored in each BOX. Can do.

そしてユーザーは、第1合成画像DG1と第2合成画像DG2とが表示部23に表示されている状態で、例えばファイルのタグ画像をドラッグアンドドロップ操作することにより、第1の画像処理装置1と第2の画像処理装置2との間でファイルを相互に移動させたり、コピーさせたりすることができる。またユーザーは、複数のファイルのタグ画像を重ね合わせるようなドラッグアンドドロップ操作すると、第1又は第2の画像処理装置1,2において、それら複数のファイルの結合処理や差分抽出処理を行わせることができる。さらに図11(b)に示すような表示画面の場合には、第1の画像処理装置1の「File1」に対応するタグ画像を第2の画像処理装置2の「プリント」に対応するタグ画像上へドラッグアンドドロップ操作を行うことにより、第1の画像処理装置1に保存されているファイルを第2の画像処理装置2で印刷出力させることができる。   Then, in a state where the first composite image DG1 and the second composite image DG2 are displayed on the display unit 23, the user performs a drag-and-drop operation on the tag image of the file, for example. Files can be moved or copied with respect to the second image processing apparatus 2. In addition, when the user performs a drag-and-drop operation to superimpose tag images of a plurality of files, the first or second image processing apparatus 1 or 2 can cause the plurality of files to be combined or difference-extracted. Can do. Further, in the case of the display screen as shown in FIG. 11B, the tag image corresponding to “File 1” of the first image processing apparatus 1 is changed to the tag image corresponding to “print” of the second image processing apparatus 2. By performing a drag-and-drop operation upward, the file stored in the first image processing apparatus 1 can be printed out by the second image processing apparatus 2.

第2制御部32は、操作検知部24によって上記のような操作が検知されると(ステップS44)、その操作に基づく操作情報を生成する。このとき、第2制御部32は、第1合成画像DG1及び第2合成画像DG2の表示位置及び表示サイズ、並びに、第1付属情報33及び第2付属情報34に基づき、第1合成画像DG1及び第2合成画像DG2のそれぞれに合成されている各タグ画像の表示位置を特定する。そして操作検知部24によって検出される表示部23の画面内におけるドラッグアンドドロップ操作の始点及び終点の座標位置に基づき、移動対象となるタグ画像や移動先のタグ画像などを検知し、ユーザーによって行われた操作が第1及び第2の画像処理装置1,2のそれぞれにどのような動作を行わせるものであるかを特定する。   When the operation detection unit 24 detects the above operation (step S44), the second control unit 32 generates operation information based on the operation. At this time, the second control unit 32 determines the first composite image DG1 and the second composite information DG1 based on the display positions and display sizes of the first composite image DG1 and the second composite image DG2 and the first attached information 33 and the second attached information 34. The display position of each tag image synthesized with each of the second synthesized images DG2 is specified. Then, based on the coordinate positions of the start and end points of the drag-and-drop operation in the screen of the display unit 23 detected by the operation detection unit 24, the tag image to be moved, the tag image to be moved, and the like are detected and performed by the user. It is specified what kind of operation the received operation is to cause each of the first and second image processing apparatuses 1 and 2 to perform.

例えば、上記のようにして検知されるユーザー操作がファイルのタグ画像をBOXのタグ画像にドラッグアンドドロップする操作である場合、第2制御部32は、ファイルの移動又はコピーが第1及び第2の画像処理装置1,2のそれぞれに行わせる動作であることを特定する。またユーザー操作が複数のファイルのタグ画像を互いに重ね合わせるようにドラッグアンドドロップする操作である場合、第2制御部32は、第1及び第2の画像処理装置1,2のいずれか一方に行わせる動作として、それら複数のファイルの結合処理や差分抽出処理を特定する。さらにユーザー操作が、ファイルのタグ画像をプリントのタグ画像へドラッグアンドドロップする操作である場合、第2制御部32は、指定されたファイルを指定された画像処理装置で印刷出力させる動作を特定する。そして第2制御部32は、そのようにして特定した動作に基づいて操作情報を生成し、サーバー装置3に送信する(ステップS45)。   For example, when the user operation detected as described above is an operation of dragging and dropping the tag image of the file onto the tag image of the BOX, the second control unit 32 moves the first or second file. It is specified that the operation is to be performed by each of the image processing apparatuses 1 and 2. When the user operation is an operation of dragging and dropping the tag images of a plurality of files so as to overlap each other, the second control unit 32 performs the operation on one of the first and second image processing apparatuses 1 and 2. As the operation to be performed, the combination processing and difference extraction processing of the plurality of files are specified. Further, when the user operation is an operation of dragging and dropping the tag image of the file onto the tag image of the print, the second control unit 32 specifies an operation for printing out the designated file by the designated image processing apparatus. . And the 2nd control part 32 produces | generates operation information based on the operation | movement identified in that way, and transmits to the server apparatus 3 (step S45).

サーバー装置3は、携帯端末4から操作情報を受信すると、制御部17を機能させる。制御部17は、操作情報で指定されている第1及び第2の画像処理装置1,2を制御対象として特定し(ステップS46)、更に操作情報に基づいてそれら第1及び第2の画像処理装置1,2を連携動作させ、ユーザーによって指定された処理を行われるように制御する(ステップS47)。これにより、第1及び第2の画像処理装置1,2は、相互にファイル交換を行うようになる。したがって、ユーザーは、第2拠点へ移動した後、第1拠点に設置されている第1の画像処理装置1に保存されているファイルを第2の画像処理装置2で印刷出力することなどができるようになり、利便性が向上する。   When the server device 3 receives the operation information from the mobile terminal 4, the server device 3 causes the control unit 17 to function. The control unit 17 specifies the first and second image processing apparatuses 1 and 2 designated by the operation information as a control target (step S46), and further performs the first and second image processing based on the operation information. The devices 1 and 2 are operated in a coordinated manner so as to perform processing designated by the user (step S47). As a result, the first and second image processing apparatuses 1 and 2 exchange files with each other. Therefore, after moving to the second site, the user can print out the file stored in the first image processing device 1 installed at the first site using the second image processing device 2. As a result, convenience is improved.

ここで、上記においては携帯端末4に位置検出センサ25が設けられており、第1及び第2の画像処理装置1,2を撮影するときに携帯端末4が位置検出センサ25によって検出される現在位置をサーバー装置3へ送信することにより、サーバー装置3において、携帯端末4が撮影しようとしている画像処理装置を特定できるようにした例について説明したが、これに限られるものではない。すなわち、携帯端末4は、位置検出センサ25を具備しないものであっても良い。その場合は、次のような態様を採用することにより、携帯端末4は、第1及び第2の画像処理装置1,2を特定するための特定情報を取得することができる。   Here, the position detection sensor 25 is provided in the portable terminal 4 in the above, and the portable terminal 4 is detected by the position detection sensor 25 when the first and second image processing apparatuses 1 and 2 are photographed. Although an example has been described in which the server apparatus 3 can identify the image processing apparatus that the mobile terminal 4 is to shoot by transmitting the position to the server apparatus 3, the present invention is not limited to this. That is, the mobile terminal 4 may not include the position detection sensor 25. In that case, the portable terminal 4 can acquire specific information for specifying the first and second image processing apparatuses 1 and 2 by adopting the following mode.

図12は、携帯端末4が第1及び第2の画像処理装置1,2を撮影することにより装置ID18aやIPアドレス18cなどの特定情報を取得する態様を示す図である。画像処理装置1,2は、その装置筐体表面の所定箇所に、自身の装置ID18aやIPアドレス18cなどが予め埋め込まれた二次元バーコードなどの識別情報9が貼付されたものである。ユーザーは、携帯端末4を用いて第1及び第2の画像処理装置1,2のそれぞれを撮影するとき、図12に示すように、各画像処理装置1,2に貼付された識別情報9が撮影画像SG1,SG2に含まれるようにして撮影する。携帯端末4は、その撮影画像SG1,SG2を解析することにより、識別情報9を抽出し、その識別情報9に埋め込まれた装置ID18aやIPアドレス18cなどを取得する。そして携帯端末4は、装置ID18aやIPアドレス18cなどを特定情報としてサーバー装置3へ送信する。つまり、第1制御部31は、カメラ22により第1の画像処理装置1が撮影された撮影画像SG1を解析することにより、第1の画像処理装置1を特定するための特定情報を取得してサーバー装置3に送信する。また第2制御部32は、カメラ22により第2の画像処理装置2が撮影された撮影画像SG2を解析することにより、第2の画像処理装置2を特定するための特定情報を取得してサーバー装置3に送信する。サーバー装置3のデバイス登録情報18には、上述したように装置ID18aやIPアドレス18cが予め登録されているため、それらを参照することにより、携帯端末4が撮影しようとしている画像処理装置を特定することができる。   FIG. 12 is a diagram illustrating a mode in which the mobile terminal 4 acquires specific information such as the device ID 18a and the IP address 18c when the first and second image processing devices 1 and 2 are photographed. The image processing apparatuses 1 and 2 have identification information 9 such as a two-dimensional barcode in which their own apparatus ID 18a and IP address 18c are embedded in advance at predetermined locations on the surface of the apparatus casing. When the user photographs each of the first and second image processing apparatuses 1 and 2 using the portable terminal 4, as shown in FIG. 12, the identification information 9 affixed to each image processing apparatus 1 and 2 is displayed. Photographing is performed so as to be included in the photographed images SG1 and SG2. The mobile terminal 4 extracts the identification information 9 by analyzing the captured images SG1 and SG2, and acquires the device ID 18a and the IP address 18c embedded in the identification information 9. Then, the mobile terminal 4 transmits the device ID 18a, the IP address 18c, and the like as specific information to the server device 3. That is, the first control unit 31 acquires specific information for specifying the first image processing device 1 by analyzing the captured image SG1 captured by the first image processing device 1 by the camera 22. It transmits to the server device 3. In addition, the second control unit 32 analyzes the captured image SG2 captured by the second image processing apparatus 2 with the camera 22, thereby acquiring specific information for specifying the second image processing apparatus 2 to obtain a server. Transmit to device 3. Since the device ID 18a and the IP address 18c are registered in advance in the device registration information 18 of the server device 3 as described above, the image processing device that the portable terminal 4 is to shoot is specified by referring to them. be able to.

図13は、携帯端末4が第1及び第2の画像処理装置1,2と通信を行うことにより第1及び第2の画像処理装置1,2から装置ID18aやIPアドレス18cなどの特定情報を取得する態様を示す図である。第1及び第2の画像処理装置1,2は、その内部メモリに、自身の装置ID18aやIPアドレス18cなどの特定情報を予め記憶している。そしてユーザーが携帯端末4の連携アプリケーション30を起動して第1及び第2の画像処理装置1,2のそれぞれを撮影しようとするとき、携帯端末4は、図13に示すように、近距離無線通信などにより撮影対象となっている画像処理装置1,2との通信を行い、画像処理装置1,2から特定情報を取得する。そして携帯端末4は、画像処理装置1,2から取得した特定情報をサーバー装置3へ送信する。つまり、第1制御部31は、第1の画像処理装置1をカメラ22により撮影するとき、その第1の画像処理装置1と通信を行うことによって第1の画像処理装置1を特定するための特定情報を取得してサーバー装置3に送信する。また第2制御部32は、第2の画像処理装置2をカメラ22により撮影するとき、第2の画像処理装置2と通信を行うことにより、第2の画像処理装置2を特定するための特定情報を取得してサーバー装置3に送信する。これにより、サーバー装置3は、携帯端末4が撮影しようとしている画像処理装置を特定することができる。   FIG. 13 shows that the mobile terminal 4 communicates with the first and second image processing apparatuses 1 and 2 to obtain specific information such as an apparatus ID 18a and an IP address 18c from the first and second image processing apparatuses 1 and 2. It is a figure which shows the aspect acquired. The first and second image processing apparatuses 1 and 2 store in advance specific information such as their own apparatus ID 18a and IP address 18c in their internal memories. Then, when the user activates the cooperative application 30 of the mobile terminal 4 and tries to photograph each of the first and second image processing apparatuses 1 and 2, the mobile terminal 4, as shown in FIG. Communication is performed with the image processing apparatuses 1 and 2 to be imaged by communication or the like, and specific information is acquired from the image processing apparatuses 1 and 2. Then, the portable terminal 4 transmits the specific information acquired from the image processing apparatuses 1 and 2 to the server apparatus 3. That is, the first control unit 31 specifies the first image processing device 1 by communicating with the first image processing device 1 when the first image processing device 1 is photographed by the camera 22. The specific information is acquired and transmitted to the server device 3. The second control unit 32 communicates with the second image processing device 2 to identify the second image processing device 2 when the second image processing device 2 is photographed by the camera 22. Information is acquired and transmitted to the server device 3. Thereby, the server apparatus 3 can specify the image processing apparatus that the mobile terminal 4 is about to shoot.

以上のように本実施形態の画像処理システムは、携帯端末4を用いて互いに離れた拠点に設置されている複数の画像処理装置1,2を連携動作させることができるため、利便性に優れている。また、ユーザーにとっては、携帯端末4の表示部23に並べて表示される第1合成画像DG1及び第2合成画像DG2に対して直感的な操作を行うことにより、複数の画像処理装置1,2を連携させることができるため、操作性にも優れている。   As described above, the image processing system of the present embodiment is excellent in convenience because the plurality of image processing apparatuses 1 and 2 installed at bases separated from each other can be operated in cooperation using the mobile terminal 4. Yes. In addition, for the user, by performing an intuitive operation on the first composite image DG1 and the second composite image DG2 displayed side by side on the display unit 23 of the mobile terminal 4, the plurality of image processing apparatuses 1 and 2 can be controlled. Because it can be linked, it has excellent operability.

尚、上記においては、第1の画像処理装置1と第2の画像処理装置2のそれぞれについて第1合成画像DG1と第2合成画像DG2とを1枚ずつ生成する場合を例示したが、それぞれ異なる複数の画像処理装置について複数の第1合成画像DG1を予め生成しておくようにしても良い。この場合、ユーザーは、第2拠点に移動して第2の画像処理装置2を撮影しようとするとき、複数の第1合成画像DG1から一の第1合成画像DG1を選択することにより、その第2の画像処理装置2と連携させるべき一の画像処理装置を選択することができるという利点がある。   In the above, the case where the first composite image DG1 and the second composite image DG2 are generated one by one for each of the first image processing apparatus 1 and the second image processing apparatus 2 has been illustrated, but each is different. A plurality of first composite images DG1 may be generated in advance for a plurality of image processing apparatuses. In this case, when the user moves to the second base and attempts to photograph the second image processing apparatus 2, the user selects the first composite image DG1 from the plurality of first composite images DG1 to select the first composite image DG1. There is an advantage that one image processing apparatus to be linked with the second image processing apparatus 2 can be selected.

(第2実施形態)
次に第2実施形態について説明する。上記第1実施形態では、主として、ユーザーが第1拠点で第1の画像処理装置1を撮影することによって生成される第1合成画像DG1が、携帯端末4に保存される場合を例示した。しかし、携帯端末4において第1合成画像DG1が保持されると、携帯端末4のメモリ資源などが圧迫されることになる。そこで本実施形態では、第1拠点で生成される第1合成画像DG1をサーバー装置3に保存しておく形態について説明する。尚、本実施形態においてもサーバー装置3及び携帯端末4のハードウェア構成及び機能構成は第1実施形態で説明したものと同様である。
(Second Embodiment)
Next, a second embodiment will be described. In the first embodiment, the case where the first composite image DG1 generated by the user photographing the first image processing apparatus 1 at the first base is stored in the mobile terminal 4 is mainly exemplified. However, if the first composite image DG1 is held in the mobile terminal 4, the memory resources of the mobile terminal 4 and the like are pressed. Therefore, in the present embodiment, a mode in which the first composite image DG1 generated at the first base is stored in the server device 3 will be described. In this embodiment, the hardware configuration and functional configuration of the server device 3 and the mobile terminal 4 are the same as those described in the first embodiment.

図14は、第2実施形態においてユーザーが第1拠点から第2拠点へ移動する前の第1拠点で行われる処理手順であって、携帯端末4における第1制御部31と、サーバー装置3における第1情報処理部15とによって行われる処理手順の一例を示すフローチャートである。この図14のフローチャートにおいて、ステップS50〜S59の処理は図5に示したステップS10〜S19の処理と同様であるため、説明を省略する。携帯端末4の第1制御部31は、第1の画像処理装置1に関する第1合成画像DG1と、その第1合成画像DG1に対応する第1付属情報33とを生成すると、それら第1合成画像DG1及び第1付属情報33をサーバー装置3に送信する(ステップS60)。サーバー装置3は、携帯端末4から第1合成画像DG1及び第1付属情報33を受信すると、それらを相互に関連付けて記憶部13に保存する(ステップS61)。またサーバー装置3は、第1合成画像DG1及び第1付属情報33のそれぞれをユーザーに関連付けて保存する。   FIG. 14 is a processing procedure performed at the first site before the user moves from the first site to the second site in the second embodiment, and the first control unit 31 in the mobile terminal 4 and the server device 3 4 is a flowchart illustrating an example of a processing procedure performed by the first information processing unit 15. In the flowchart of FIG. 14, steps S50 to S59 are the same as steps S10 to S19 shown in FIG. When the first control unit 31 of the mobile terminal 4 generates the first composite image DG1 related to the first image processing apparatus 1 and the first attached information 33 corresponding to the first composite image DG1, the first composite image DG1 and the first attached information 33 are transmitted to the server device 3 (step S60). Upon receiving the first composite image DG1 and the first auxiliary information 33 from the mobile terminal 4, the server device 3 associates them with each other and stores them in the storage unit 13 (step S61). The server device 3 stores each of the first composite image DG1 and the first auxiliary information 33 in association with the user.

図15は、第2実施形態においてユーザーが第1拠点から第2拠点へ移動した後に第2拠点で行われる処理手順であって、携帯端末4における第2制御部32と、サーバー装置3における第2情報処理部16及び制御部17によって行われる処理手順の一例を示すフローチャートである。図15に示すように、まずユーザーは、携帯端末4を操作して連携アプリケーション30を第2のモードで起動することにより、連携アプリケーション30の第2制御部32を機能させる(ステップS70)。第2制御部32は、位置検出センサ25から携帯端末4の現在位置を取得し(ステップS71)、その現在位置を示す情報をサーバー装置3へ送信する(ステップS72)。このとき第2制御部32は、ユーザー情報もサーバー装置3へ送信する。   FIG. 15 is a processing procedure performed at the second site after the user has moved from the first site to the second site in the second embodiment, and the second control unit 32 in the portable terminal 4 and the first in the server device 3. 2 is a flowchart illustrating an example of a processing procedure performed by the information processing unit 16 and the control unit 17. As shown in FIG. 15, first, the user operates the mobile terminal 4 to activate the cooperative application 30 in the second mode, thereby causing the second control unit 32 of the cooperative application 30 to function (step S70). The second control unit 32 acquires the current position of the mobile terminal 4 from the position detection sensor 25 (step S71), and transmits information indicating the current position to the server device 3 (step S72). At this time, the second control unit 32 also transmits user information to the server device 3.

サーバー装置3は、携帯端末4からユーザー情報を受信するとユーザー認証を行い(ステップS73)、そのユーザー認証に成功すると、サーバー装置3において上述した第2情報処理部16が機能する。第2情報処理部16は、ユーザー認証によって特定されたユーザーに関連付けられている第1合成画像DG1及び第1付属情報33が保存されているか否かを検索し、該ユーザーが予め第1拠点で第1の画像処理装置1を撮影することによって生成された第1合成画像DG1及び第1付属情報33を特定する(ステップS74)。また第2情報処理部16は、携帯端末4から受信する現在位置を示す情報に基づいて携帯端末4が撮影しようとしている第2の画像処理装置2を特定する(ステップS75)。第2の画像処理装置2を特定することができると、第2情報処理部16は、予め保存されていた第1合成画像DG1及び第1付属情報33を、その特定した第2の画像処理装置2に関連付けて記憶する(ステップS76)。尚、このとき、第1合成画像DG1及び第1付属情報33を、第2の画像処理装置2に関連付けるのではなく、第2拠点の情報として関連付けるようにしても良い。   When the server apparatus 3 receives the user information from the portable terminal 4, the server apparatus 3 performs user authentication (step S 73). When the user authentication is successful, the second information processing unit 16 described above functions in the server apparatus 3. The second information processing unit 16 searches whether or not the first composite image DG1 and the first auxiliary information 33 associated with the user specified by the user authentication are stored, and the user has previously stored at the first base. The first composite image DG1 and the first auxiliary information 33 generated by photographing the first image processing device 1 are specified (step S74). In addition, the second information processing unit 16 specifies the second image processing device 2 that the mobile terminal 4 is about to capture based on the information indicating the current position received from the mobile terminal 4 (step S75). When the second image processing device 2 can be identified, the second information processing unit 16 uses the identified second image processing device to store the first composite image DG1 and the first auxiliary information 33 stored in advance. Is stored in association with 2 (step S76). At this time, the first composite image DG1 and the first auxiliary information 33 may be associated as information on the second base instead of associating with the second image processing apparatus 2.

その後は、第1実施形態と同様の処理が行われる。すなわち、図15のステップS77〜S87で行われる処理は、図8のステップS37〜S47で行われる処理と同様である。つまり、携帯端末4でカメラ22を起動して第2の画像処理装置2を撮影しようとすると、それに伴い、サーバー装置3から第2の画像処理装置2のデバイス情報18d及びタグ画像TG2が送信されると共に、先のステップS76で第2の画像処理装置2に関連付けられた第1合成画像DG1及び第1付属情報33が送信される。そして携帯端末4は、第2合成DG2を生成し、その第2合成画像DG2と、サーバー装置3から受信する第1合成画像DG1とを並べて表示部23に表示する。その後、携帯端末4は、ユーザーによる操作を検知すると、その操作に基づく操作情報をサーバー装置3へ送信することにより、第1の画像処理装置1と、第2の画像処理装置2とを互いに連携動作させる。   Thereafter, the same processing as in the first embodiment is performed. That is, the processing performed in steps S77 to S87 in FIG. 15 is the same as the processing performed in steps S37 to S47 in FIG. That is, when the camera 22 is activated on the portable terminal 4 and the second image processing apparatus 2 is photographed, the device information 18d of the second image processing apparatus 2 and the tag image TG2 are transmitted from the server apparatus 3 accordingly. At the same time, the first composite image DG1 and the first auxiliary information 33 associated with the second image processing apparatus 2 are transmitted in the previous step S76. Then, the mobile terminal 4 generates the second composite DG2, and displays the second composite image DG2 and the first composite image DG1 received from the server device 3 side by side on the display unit 23. Thereafter, when the mobile terminal 4 detects an operation by the user, the mobile terminal 4 transmits operation information based on the operation to the server device 3 to link the first image processing device 1 and the second image processing device 2 with each other. Make it work.

このように本実施形態では、第1合成画像DG1を予めサーバー装置3に保存しておくので、携帯端末4のメモリ資源などが圧迫されることを防止することができる。特に、ユーザーがそれぞれ異なる複数の画像処理装置について複数の第1合成画像DG1を予め生成したような場合には、その効果は大きくなる。   As described above, in the present embodiment, since the first composite image DG1 is stored in the server device 3 in advance, it is possible to prevent the memory resource of the mobile terminal 4 from being compressed. In particular, when a plurality of first composite images DG1 are generated in advance for a plurality of different image processing apparatuses, the effect is increased.

また本実施形態では、第1合成画像DG1だけでなく、第1合成画像DG1に対応する第1付属情報33もサーバー装置3に保存する。そのため、例えば図7に示した第1付属情報33のユーザーID33dに対し、ユーザーが他のユーザーのIDを追加登録することにより、サーバー装置3に保存されている第1合成画像DG1及び第1付属情報33を当該他のユーザーが使用できるようになる。そのため、第1拠点へ行ったことのないユーザーが第1拠点に設置されている第1の画像処理装置1を連携させることができるようになり、利便性が更に向上する。   In the present embodiment, not only the first composite image DG1 but also the first attached information 33 corresponding to the first composite image DG1 is stored in the server device 3. Therefore, for example, when the user additionally registers another user's ID with respect to the user ID 33d of the first attached information 33 shown in FIG. 7, the first composite image DG1 and the first attached image stored in the server device 3 are stored. The information 33 can be used by the other user. Therefore, a user who has never been to the first site can link the first image processing apparatus 1 installed at the first site, further improving convenience.

(第3実施形態)
次に第3実施形態について説明する。上記第1及び第2実施形態では、ユーザーが第1拠点から第2拠点へ移動する前に第1合成画像DG1及び第1付属情報33を生成するため、第1拠点から第2拠点への移動中などに、第1の画像処理装置1に保存されているファイルなどが変更されると、その変更されたファイルなどを連携利用できなくなる可能性がある。そこで本実施形態では、第2拠点で第1及び第2の画像処理装置1,2を連携動作させるときに、第1合成画像DG1を最新の状態にアップデートするようにした形態を説明する。
(Third embodiment)
Next, a third embodiment will be described. In the first and second embodiments, since the first composite image DG1 and the first auxiliary information 33 are generated before the user moves from the first base to the second base, the movement from the first base to the second base. If, for example, a file stored in the first image processing apparatus 1 is changed, the changed file may not be used in cooperation. Therefore, in the present embodiment, a mode in which the first composite image DG1 is updated to the latest state when the first and second image processing apparatuses 1 and 2 are cooperatively operated at the second site will be described.

本実施形態においてもサーバー装置3及び携帯端末4のハードウェア構成及び機能構成は第1実施形態で説明したものと同様である。また本実施形態では、ユーザーが第1拠点にいるときに携帯端末4及びサーバー装置3が行っておく処理は上記第2実施形態と同様である。つまり、本実施形態では、第1拠点で生成される第1合成画像DG1及び第1付属情報33を予めサーバー装置3に保存しておく例について説明する。   Also in the present embodiment, the hardware configuration and functional configuration of the server device 3 and the mobile terminal 4 are the same as those described in the first embodiment. In the present embodiment, the processing performed by the mobile terminal 4 and the server device 3 when the user is at the first site is the same as that in the second embodiment. That is, in the present embodiment, an example in which the first composite image DG1 and the first attached information 33 generated at the first base are stored in the server device 3 in advance will be described.

図16は、第3実施形態においてユーザーが第1拠点から第2拠点へ移動した後に第2拠点で行われる処理手順であって、携帯端末4における第2制御部32と、サーバー装置3における第2情報処理部16及び制御部17によって行われる処理手順の一例を示すフローチャートである。図16に示すように、まずユーザーは、携帯端末4を操作して連携アプリケーション30を第2のモードで起動することにより、連携アプリケーション30の第2制御部32を機能させる(ステップS100)。第2制御部32は、位置検出センサ25から携帯端末4の現在位置を取得し(ステップS101)、その現在位置を示す情報をサーバー装置3へ送信する(ステップS102)。このとき第2制御部32は、ユーザー情報もサーバー装置3へ送信する。   FIG. 16 is a processing procedure performed at the second site after the user has moved from the first site to the second site in the third embodiment, and the second control unit 32 in the mobile terminal 4 and the first in the server device 3. 2 is a flowchart illustrating an example of a processing procedure performed by the information processing unit 16 and the control unit 17. As illustrated in FIG. 16, first, the user operates the mobile terminal 4 to start the cooperative application 30 in the second mode, thereby causing the second control unit 32 of the cooperative application 30 to function (step S100). The second control unit 32 acquires the current position of the mobile terminal 4 from the position detection sensor 25 (step S101), and transmits information indicating the current position to the server device 3 (step S102). At this time, the second control unit 32 also transmits user information to the server device 3.

サーバー装置3は、携帯端末4からユーザー情報を受信するとユーザー認証を行い(ステップS103)、そのユーザー認証に成功すると、サーバー装置3において上述した第2情報処理部16が機能する。第2情報処理部16は、ユーザー認証によって特定されたユーザーに関連付けられている第1合成画像DG1及び第1付属情報33を読み出し(ステップS104)、第1付属情報33に基づいて第1の画像処理装置1を特定する(ステップS105)。そしてサーバー装置3は情報取得部14を機能させ、第1の画像処理装置1のデバイス情報18dが更新されているか否かを確認する(ステップS106)。その結果、例えば第1の画像処理装置1に保存されているファイルの削除、追加、変更などがある場合、情報取得部14は、第1の画像処理装置1から最新のデバイス情報を取得し、デバイス登録情報18のデバイス情報18dを更新する(ステップS107)。このとき、情報取得部14は、更新後のデバイス情報18dに対応するタグ画像TG1を生成してタグ画像記憶領域19に保存しておく。例えば第1の画像処理装置1に新たなファイルが追加されているときには、その新たなファイルに対応するタグ画像TG1を追加保存しておく。尚、第1の画像処理装置1のファイルなどが更新されていないときには、デバイス登録情報18のデバイス情報18dは更新しない。その場合は、これ以降、第2実施形態(図15)と同様の処理となる。   When the server apparatus 3 receives the user information from the portable terminal 4, the server apparatus 3 performs user authentication (step S103). When the user authentication is successful, the second information processing unit 16 described above functions in the server apparatus 3. The second information processing unit 16 reads the first composite image DG1 and the first auxiliary information 33 associated with the user specified by the user authentication (step S104), and the first image based on the first auxiliary information 33 The processing device 1 is specified (step S105). Then, the server apparatus 3 causes the information acquisition unit 14 to function and checks whether or not the device information 18d of the first image processing apparatus 1 has been updated (step S106). As a result, for example, when there is a deletion, addition, or change of a file stored in the first image processing device 1, the information acquisition unit 14 acquires the latest device information from the first image processing device 1, The device information 18d of the device registration information 18 is updated (step S107). At this time, the information acquisition unit 14 generates a tag image TG1 corresponding to the updated device information 18d and stores it in the tag image storage area 19. For example, when a new file is added to the first image processing apparatus 1, a tag image TG1 corresponding to the new file is additionally stored. When the file of the first image processing apparatus 1 is not updated, the device information 18d of the device registration information 18 is not updated. In that case, the processing is the same as that of the second embodiment (FIG. 15) thereafter.

その後、サーバー装置3において第2情報処理部16が再び機能し、携帯端末4から受信する現在位置を示す情報に基づいて携帯端末4が撮影しようとしている第2の画像処理装置2を特定する(ステップS108)。第2の画像処理装置2を特定することができると、第2情報処理部16は、予め保存されていた第1合成画像DG1及び第1付属情報33を、その特定した第2の画像処理装置2に関連付けて記憶する(ステップS109)。このとき、第1合成画像DG1及び第1付属情報33を、第2の画像処理装置2に関連付けるのではなく、第2拠点の情報として関連付けるようにしても良い。   After that, the second information processing unit 16 functions again in the server device 3 and specifies the second image processing device 2 that the mobile terminal 4 is to shoot based on information indicating the current position received from the mobile terminal 4 ( Step S108). When the second image processing device 2 can be identified, the second information processing unit 16 uses the identified second image processing device to store the first composite image DG1 and the first auxiliary information 33 stored in advance. Is stored in association with 2 (step S109). At this time, the first composite image DG1 and the first auxiliary information 33 may be associated as information on the second base instead of associating with the second image processing apparatus 2.

そして携帯端末4において第2制御部32がカメラ22を起動する(ステップS110)。これに伴い、第2制御部32は、サーバー装置3に対して再度現在位置を示す情報を送信するようにしても良い。   And in the portable terminal 4, the 2nd control part 32 starts the camera 22 (step S110). Accordingly, the second control unit 32 may transmit information indicating the current position to the server device 3 again.

そして第2情報処理部16は、携帯端末4で撮影しようとしている第2の画像処理装置2に対応するデバイス情報18dを抽出して携帯端末4に送信する(ステップS111)。また第2情報処理部16は、第2の画像処理装置2のデバイス情報18dに対応するタグ画像TG2をタグ画像記憶領域19から読み出し、そのタグ画像TG2を携帯端末4に送信する(ステップS112)。さらに第2情報処理部16は、ステップS109で第2の画像処理装置2又は第2拠点に関連付けた第1合成画像DG1及び第1付属情報33を読み出し、それらを携帯端末4に送信すると共に、第1の画像処理装置1に関する更新されたデバイス情報18d及びそのデバイス情報18に対応するタグ画像TG1を携帯端末4に送信する(ステップS113)。   Then, the second information processing unit 16 extracts the device information 18d corresponding to the second image processing device 2 that is about to be photographed by the mobile terminal 4 and transmits it to the mobile terminal 4 (step S111). The second information processing unit 16 reads the tag image TG2 corresponding to the device information 18d of the second image processing device 2 from the tag image storage area 19, and transmits the tag image TG2 to the portable terminal 4 (step S112). . Furthermore, the second information processing unit 16 reads out the first composite image DG1 and the first auxiliary information 33 associated with the second image processing device 2 or the second base in step S109, transmits them to the mobile terminal 4, and The updated device information 18d related to the first image processing apparatus 1 and the tag image TG1 corresponding to the device information 18 are transmitted to the portable terminal 4 (step S113).

携帯端末4の第2制御部32は、サーバー装置3から第1の画像処理装置1に関する更新されたデバイス情報18d及びそのデバイス情報18に対応するタグ画像TG1を受信すると、サーバー装置3から受信する第1合成画像DG1を更新する(ステップS114)。すなわち、第1合成画像DG1に含まれる撮影画像SG1とタグ画像TG1とを一旦分離し、その分離した撮影画像SG1に対して最新のデバイス情報18dに対応する新たなタグ画像TG1を合成して第1合成画像DG1を最新の状態に更新する。また第2制御部32は、その更新後の第1合成画像DG1に基づいて新たに第1付属情報33を生成し、第1付属情報33を更新する(ステップS115)。   When the second control unit 32 of the portable terminal 4 receives the updated device information 18 d related to the first image processing apparatus 1 and the tag image TG1 corresponding to the device information 18 from the server apparatus 3, the second control section 32 receives from the server apparatus 3. The first composite image DG1 is updated (step S114). That is, the photographed image SG1 and the tag image TG1 included in the first composite image DG1 are once separated, and a new tag image TG1 corresponding to the latest device information 18d is synthesized with the separated photographed image SG1. One composite image DG1 is updated to the latest state. Further, the second control unit 32 newly generates the first attached information 33 based on the updated first composite image DG1, and updates the first attached information 33 (step S115).

次に第2制御部32は、サーバー装置3から受信する第2の画像処理装置2のデバイス情報18dに基づき、第2合成画像DG2を生成し(ステップS116)、その第2合成画像DG2に対応する第2付属情報34を生成する(ステップS117)。そして第2制御部32は、第1合成画像DG1と第2合成画像DG2とを表示部23に並べて表示する(ステップS118)。これ以降の処理(ステップS119〜S122)は、図8に示したステップS41〜S44の処理と同様である。すなわち、携帯端末4は、ユーザーによる操作を検知すると、その操作に基づく操作情報をサーバー装置3へ送信することにより、サーバー装置3が、第1の画像処理装置1と、第2の画像処理装置2とを互いに連携動作させるように制御する。   Next, the second control unit 32 generates the second composite image DG2 based on the device information 18d of the second image processing device 2 received from the server device 3 (step S116), and corresponds to the second composite image DG2. Second attached information 34 to be generated is generated (step S117). Then, the second control unit 32 displays the first composite image DG1 and the second composite image DG2 side by side on the display unit 23 (step S118). The subsequent processes (steps S119 to S122) are the same as the processes of steps S41 to S44 shown in FIG. That is, when the portable terminal 4 detects an operation by the user, the server device 3 transmits the operation information based on the operation to the server device 3, so that the server device 3 has the first image processing device 1 and the second image processing device. 2 are controlled so as to cooperate with each other.

このように本実施形態では、ユーザーが第2拠点で第2の画像処理装置2を撮影しようとするとき、サーバー装置3が第1拠点に設置されている第1の画像処理装置1のデバイス情報が更新されているか否かを確認し、デバイス情報が更新されていれば、最新のデバイス情報とそれに対応する最新のタグ画像とを携帯端末4に送信する。そして携帯端末4は、その最新のデバイス情報とタグ画像に基づいて第1合成画像DG1を更新して表示する。したがって、本実施形態では、ユーザーが第1拠点から第2拠点への移動している間に、第1の画像処理装置1に保存されているファイルなどが変更された場合であっても、その変更を反映させた状態で第1及び第2の画像処理装置1,2を連携動作させることができるので、利便性に優れたものとなる。   As described above, in this embodiment, when the user tries to photograph the second image processing apparatus 2 at the second base, the device information of the first image processing apparatus 1 in which the server apparatus 3 is installed at the first base. Is updated, and if the device information is updated, the latest device information and the latest tag image corresponding thereto are transmitted to the mobile terminal 4. Then, the mobile terminal 4 updates and displays the first composite image DG1 based on the latest device information and the tag image. Therefore, in the present embodiment, even if the file stored in the first image processing apparatus 1 is changed while the user is moving from the first base to the second base, Since the first and second image processing apparatuses 1 and 2 can be linked in a state in which the change is reflected, it is excellent in convenience.

(第4実施形態)
次に第4実施形態について説明する。上記第1乃至第3実施形態では、携帯端末4において第1合成画像DG1と第2合成画像DG2とが並んだ状態に表示されている状態でユーザーによる操作が検知されると、携帯端末4の第2制御部32が、第1合成画像DG1及び第2合成画像DG2の表示位置及び表示サイズ、並びに、第1付属情報33及び第2付属情報34に基づき、ユーザーによって行われた操作が第1及び第2の画像処理装置1,2のそれぞれにどのような動作を行わせるものであるかを特定する。本実施形態では、そのような操作を特定するための処理をサーバー装置3で行う形態について説明する。
(Fourth embodiment)
Next, a fourth embodiment will be described. In the first to third embodiments, when an operation by the user is detected in a state where the first composite image DG1 and the second composite image DG2 are displayed side by side on the mobile terminal 4, the mobile terminal 4 Based on the display position and display size of the first composite image DG1 and the second composite image DG2, and the first attached information 33 and the second attached information 34, the second control unit 32 performs the first operation performed by the user. And what operation is to be performed by each of the second image processing apparatuses 1 and 2. In the present embodiment, a mode in which processing for specifying such an operation is performed by the server device 3 will be described.

本実施形態においてもサーバー装置3及び携帯端末4のハードウェア構成及び機能構成は第1実施形態で説明したものと同様である。また本実施形態では、ユーザーが第1拠点にいるときに携帯端末4及びサーバー装置3が行っておく処理は上記第2実施形態と同様である。   Also in the present embodiment, the hardware configuration and functional configuration of the server device 3 and the mobile terminal 4 are the same as those described in the first embodiment. In the present embodiment, the processing performed by the mobile terminal 4 and the server device 3 when the user is at the first site is the same as that in the second embodiment.

図17は、第4実施形態においてユーザーが第1拠点から第2拠点へ移動した後に第2拠点で行われる処理手順であって、携帯端末4における第2制御部32と、サーバー装置3における第2情報処理部16及び制御部17によって行われる処理手順の一例を示すフローチャートである。この図17のフローチャートにおいて、ステップS130〜S142の処理は、図15に示したステップS70〜S82の処理と同様であるため、詳しい説明は省略する。   FIG. 17 is a processing procedure performed at the second site after the user has moved from the first site to the second site in the fourth embodiment, and the second control unit 32 in the portable terminal 4 and the first in the server device 3. 2 is a flowchart illustrating an example of a processing procedure performed by the information processing unit 16 and the control unit 17. In the flowchart of FIG. 17, the processes in steps S130 to S142 are the same as the processes in steps S70 to S82 shown in FIG.

携帯端末4の第2制御部32は、第2の画像処理装置2に関する第2合成画像DG2及び第2付属情報34を生成すると(ステップS141,S142)、それらの生成した第2合成画像DG2及び第2付属情報34をサーバー装置3へ送信する(ステップS143)。これにより、サーバー装置3には、第1合成画像DG1、第1付属情報33、第2合成画像DG2及び第2付属情報34が保持される。また第2制御部32は、第1合成画像DG1と第2合成画像DG2とを表示部23に並べて表示すると(ステップS144)、それら第1合成画像DG1及び第2合成画像DG2の表示位置や表示サイズなどを示す表示位置情報をサーバー装置3へ送信する(ステップS145)。これにより、サーバー装置3は、携帯端末4の表示部23において第1合成画像DG1及び第2合成画像DG2のそれぞれがどのような表示位置及び表示サイズで表示されているかを把握することができる。   When the second control unit 32 of the mobile terminal 4 generates the second composite image DG2 and the second auxiliary information 34 related to the second image processing device 2 (steps S141 and S142), the generated second composite image DG2 and The second attached information 34 is transmitted to the server device 3 (step S143). As a result, the server device 3 holds the first composite image DG1, the first attached information 33, the second composite image DG2, and the second attached information 34. Further, when the second control unit 32 displays the first composite image DG1 and the second composite image DG2 side by side on the display unit 23 (step S144), the display position and display of the first composite image DG1 and the second composite image DG2 are displayed. Display position information indicating the size and the like is transmitted to the server device 3 (step S145). Thereby, the server apparatus 3 can grasp | ascertain what display position and display size of each of the 1st synthesized image DG1 and the 2nd synthesized image DG2 are displayed in the display part 23 of the portable terminal 4. FIG.

第2制御部32は、操作検知部24によって表示部23の表示画面に対する操作が検知されると(ステップS146)、その操作に基づく操作情報を生成する。このとき、第2制御部32は、表示画面に対して行われたドラッグアンドドロップ操作の始点や終点などの座標位置を操作検知部24から取得し、その座標位置を含む操作情報を生成する。そして第2制御部32は、その操作情報をサーバー装置3へ送信する(ステップS147)。   When the operation detection unit 24 detects an operation on the display screen of the display unit 23 (step S146), the second control unit 32 generates operation information based on the operation. At this time, the second control unit 32 acquires coordinate positions such as a start point and an end point of the drag and drop operation performed on the display screen from the operation detection unit 24, and generates operation information including the coordinate positions. Then, the second control unit 32 transmits the operation information to the server device 3 (step S147).

サーバー装置3の制御部17は、携帯端末4から操作情報を受信すると、その操作情報を解析する(ステップS148)。すなわち、制御部17は、第1付属情報33及び第2付属情報34に基づき、連携動作の対象となる第1及び第2の画像処理装置1,2を特定する(ステップS149)。また制御部17は、第1合成画像DG1及び第2合成画像DG2の表示位置及び表示サイズ、並びに、第1付属情報33及び第2付属情報34に基づき、第1合成画像DG1及び第2合成画像DG2のそれぞれに合成されている各タグ画像の表示位置を特定する。そして操作情報に含まれる座標位置に基づき、移動対象となるタグ画像や移動先のタグ画像などを検知し、ユーザーによって行われた操作が第1及び第2の画像処理装置1,2のそれぞれにどのような動作を行わせるものであるかを特定する(ステップS150)。その後、制御部17は、第1及び第2の画像処理装置1,2を連携動作させ、ユーザーによって指定された処理の実行を制御する(ステップS151)。   When receiving the operation information from the portable terminal 4, the control unit 17 of the server device 3 analyzes the operation information (step S148). In other words, the control unit 17 specifies the first and second image processing apparatuses 1 and 2 that are the targets of the cooperative operation based on the first attached information 33 and the second attached information 34 (step S149). The control unit 17 also determines the first composite image DG1 and the second composite image based on the display positions and display sizes of the first composite image DG1 and the second composite image DG2, and the first attached information 33 and the second attached information 34. The display position of each tag image combined with each of DG2 is specified. Based on the coordinate position included in the operation information, the tag image to be moved, the tag image to be moved, and the like are detected, and the operation performed by the user is performed on each of the first and second image processing apparatuses 1 and 2. It is specified what operation is to be performed (step S150). Thereafter, the control unit 17 causes the first and second image processing apparatuses 1 and 2 to operate in a coordinated manner, and controls the execution of processing designated by the user (step S151).

このように本実施形態では、携帯端末4において第1合成画像DG1と第2合成画像DG2とが並んだ状態に表示されている状態でユーザーによる操作が検知されると、ユーザーによって行われた操作が第1及び第2の画像処理装置1,2にどのような連携動作を行わせるものであるかをサーバー装置3で判断するようにしている。そのため、携帯端末4での処理負担が軽減されるという利点がある。   Thus, in the present embodiment, when an operation by the user is detected in a state where the first composite image DG1 and the second composite image DG2 are displayed side by side on the mobile terminal 4, the operation performed by the user The server apparatus 3 determines what kind of cooperative operation the first and second image processing apparatuses 1 and 2 are to perform. Therefore, there is an advantage that the processing load on the portable terminal 4 is reduced.

尚、本実施形態においても、第3実施形態で説明したように、ユーザーが第2拠点で第2の画像処理装置2を撮影しようとするとき、サーバー装置3が第1拠点に設置されている第1の画像処理装置1のデバイス情報が更新されているか否かを確認し、デバイス情報が更新されていれば、最新のデバイス情報を携帯端末4に送信するようにしても良い。これにより、ユーザーが第1拠点から第2拠点への移動している間に、第1の画像処理装置1に保存されているファイルなどが変更された場合であっても、その変更を反映させた状態で第1及び第2の画像処理装置1,2を連携動作させることができるようになる。   In this embodiment as well, as described in the third embodiment, when the user tries to photograph the second image processing apparatus 2 at the second base, the server apparatus 3 is installed at the first base. Whether or not the device information of the first image processing apparatus 1 has been updated is confirmed. If the device information has been updated, the latest device information may be transmitted to the mobile terminal 4. As a result, even if the file stored in the first image processing apparatus 1 is changed while the user is moving from the first base to the second base, the change is reflected. In this state, the first and second image processing apparatuses 1 and 2 can be operated in cooperation.

(第5実施形態)
次に第5実施形態について説明する。上記第1乃至第4実施形態では、第1合成画像DG1及び第2合成画像DG2のそれぞれを互いに独立した別の画像として取り扱う場合を例示した。本実施形態では、例えば先に生成される第1合成画像DG1を、第2合成画像DG2に含まれるタグ画像(合成用画像)のひとつとして取り扱う形態について説明する。
(Fifth embodiment)
Next, a fifth embodiment will be described. In the first to fourth embodiments, the case where each of the first composite image DG1 and the second composite image DG2 is handled as separate images independent from each other is illustrated. In the present embodiment, for example, a mode in which the first composite image DG1 generated first is handled as one of the tag images (composition images) included in the second composite image DG2 will be described.

本実施形態では、ユーザーが第2拠点で第2の画像処理装置2を撮影すると、携帯端末4には、図18に示すような状態で第1合成画像DG1及び第2合成画像DG2が表示される。すなわち、携帯端末4の第2制御部32は、第2の画像処理装置2を撮影した撮影画像SG2に対し、第2の画像処理装置2のデバイス情報18dに対応するタグ画像TG2と、サーバー装置3から受信する第1合成画像DG1とのそれぞれをタグ画像として合成する。これにより、第1の画像処理装置1を撮影することによって予め生成されていた第1合成画像DG1は、第2の画像処理装置2の撮影画像SG2に合成されるタグ画像TG3となり、第2合成画像DG2の一部として携帯端末4の表示部23に表示される。   In the present embodiment, when the user photographs the second image processing device 2 at the second base, the first composite image DG1 and the second composite image DG2 are displayed on the mobile terminal 4 in a state as shown in FIG. The That is, the second control unit 32 of the mobile terminal 4 performs the tag image TG2 corresponding to the device information 18d of the second image processing device 2 with respect to the captured image SG2 obtained by capturing the second image processing device 2, and the server device. Each of the first composite image DG1 received from 3 is combined as a tag image. Thus, the first composite image DG1 generated in advance by photographing the first image processing device 1 becomes the tag image TG3 synthesized with the photographed image SG2 of the second image processing device 2, and the second composition. It is displayed on the display unit 23 of the portable terminal 4 as a part of the image DG2.

図19は、上記のようにして第2合成画像DG2が生成される場合の第2付属情報34の一例を示す図である。この第2付属情報34には、撮影画像SG2に合成された第1合成画像DG1に関する合成情報34fが記録される。この合成情報34fの合成画像IDには、第1合成画像DG1を特定するための情報が記録される。そのため、合成情報34fの合成画像IDを参照することにより、第1合成画像DG1に対応する第1付属情報33(図7)を参照することができるようになっている。したがって、図18に示すような表示状態で、ユーザーが第1合成画像DG1のタグ画像TG3の範囲内をタッチしたとき、第2制御部32は、まず第2付属情報34を参照することにより、そのタッチ位置に第1合成画像DG1が表示されていることを検知することができる。そして次に合成情報34fに基づいて第1付属情報33を参照することにより、第2制御部32は、第1合成画像DG1に含まれるタグ画像のうちのいずれがタッチされたかを検知することができる。   FIG. 19 is a diagram illustrating an example of the second attached information 34 when the second composite image DG2 is generated as described above. In the second attached information 34, composite information 34f related to the first composite image DG1 composited with the captured image SG2 is recorded. Information for specifying the first composite image DG1 is recorded in the composite image ID of the composite information 34f. Therefore, the first attached information 33 (FIG. 7) corresponding to the first composite image DG1 can be referred to by referring to the composite image ID of the composite information 34f. Accordingly, when the user touches within the range of the tag image TG3 of the first composite image DG1 in the display state as shown in FIG. 18, the second control unit 32 first refers to the second attached information 34, It can be detected that the first composite image DG1 is displayed at the touch position. Then, by referring to the first attached information 33 based on the composite information 34f, the second control unit 32 can detect which of the tag images included in the first composite image DG1 has been touched. it can.

このように本実施形態では、第1合成画像DG1を、第2合成画像DG2に含まれるタグ画像のひとつとして取り扱うようにしており、第2合成画像DG2に対応する第2付属情報34に、第1合成画像DG1に対応する第1付属情報33をリンクさせるリンク情報を記録している。それ故、上記各実施形態と同様、携帯端末4において図18のような表示画面が表示されている状態でユーザーによる操作が検知されると、ユーザーによって行われた操作が第1及び第2の画像処理装置1,2にどのような連携動作を行わせるものであるかを正常に検知することができるようになっている。
(変形例)
以上、本発明に関する一実施形態について説明したが、本発明は上記実施形態において説明した内容のものに限られるものではなく、種々の変形例が適用可能である。
As described above, in the present embodiment, the first composite image DG1 is handled as one of the tag images included in the second composite image DG2, and the second attached information 34 corresponding to the second composite image DG2 Link information for linking the first attached information 33 corresponding to one composite image DG1 is recorded. Therefore, as in the above embodiments, when an operation by the user is detected with the display screen as shown in FIG. 18 displayed on the mobile terminal 4, the operation performed by the user is the first and second operations. It is possible to normally detect what kind of cooperative operation the image processing apparatuses 1 and 2 are to perform.
(Modification)
As mentioned above, although one embodiment related to the present invention was described, the present invention is not limited to the contents described in the above embodiment, and various modifications can be applied.

例えば上記各実施形態では、2つの画像処理装置を相互に連携動作させる場合を例示したが、上述した技術を適用すれば、3つ以上の画像処理装置を同時に連携動作させることも可能である。   For example, in each of the embodiments described above, the case where two image processing apparatuses are operated in cooperation with each other is illustrated. However, if the above-described technique is applied, three or more image processing apparatuses can be operated in cooperation with each other at the same time.

また上記実施形態では、複数の画像処理装置1,2を連携動作させることにより、ファイルの移動、コピー、結合、差分抽出、印刷出力などを行う場合を例示した。しかし、複数の画像処理装置1,2を連携動作させることによって行うことができるジョブは上述したものに限られない。一例を挙げると、ファイル変換やテキスト変換、翻訳処理なども上述した連携動作によって行うことが可能である。   In the above-described embodiment, a case where a plurality of image processing apparatuses 1 and 2 are operated in cooperation to perform file movement, copy, combination, difference extraction, print output, and the like is illustrated. However, jobs that can be performed by operating the plurality of image processing apparatuses 1 and 2 in a cooperative manner are not limited to those described above. For example, file conversion, text conversion, translation processing, and the like can also be performed by the above-described cooperation operation.

また上記実施形態においては、各画像処理装置1,2のデバイス情報18dに対応するタグ画像がサーバー装置3において予め生成され、タグ画像記憶領域19に保持されている場合を例示したが、これに限られるものではない。例えば、そのようなタグ画像を携帯端末4がサーバー装置3から受信するデバイス情報18dに基づいて生成するように構成すれば、サーバー装置3においてタグ画像を生成する処理負担が軽減されるため、そのような構成を採用しても良い。   Further, in the above embodiment, the case where the tag image corresponding to the device information 18d of each image processing apparatus 1 and 2 is generated in advance in the server apparatus 3 and held in the tag image storage area 19 is exemplified. It is not limited. For example, if such a tag image is configured to be generated based on the device information 18d received by the mobile terminal 4 from the server device 3, the processing load for generating the tag image in the server device 3 is reduced. Such a configuration may be adopted.

1,2 画像処理装置
3 サーバー装置
4 携帯端末
13 記憶部(記憶手段)
14 情報取得部(情報取得手段)
15 第1情報処理部(第1情報処理手段)
16 第2情報処理部(第2情報処理手段)
17 制御部(制御手段)
18 デバイス登録情報(登録情報)
22 カメラ(撮像手段)
23 表示部(表示手段)
24 操作検知部(操作検知手段)
25 位置検出センサ(位置検出手段)
28 プログラム
31 第1制御部(第1制御手段)
32 第2制御部(第2制御手段)
DG1 第1合成画像
DG2 第2合成画像
DESCRIPTION OF SYMBOLS 1, 2 Image processing apparatus 3 Server apparatus 4 Portable terminal 13 Memory | storage part (storage means)
14 Information acquisition unit (information acquisition means)
15 1st information processing part (1st information processing means)
16 2nd information processing part (2nd information processing means)
17 Control unit (control means)
18 Device registration information (registration information)
22 Camera (imaging means)
23 Display section (display means)
24 Operation detection unit (operation detection means)
25 Position detection sensor (position detection means)
28 program 31 first control unit (first control means)
32 2nd control part (2nd control means)
DG1 first composite image DG2 second composite image

Claims (19)

サーバー装置と、携帯端末と、複数の画像処理装置とを備えて構成される画像処理システムであって、
前記サーバー装置は、
前記複数の画像処理装置のそれぞれを特定するための特定情報が予め登録された登録情報を記憶する記憶手段と、
前記複数の画像処理装置のそれぞれからデバイス情報を取得する情報取得手段と、
を備え、
前記携帯端末は、
画像を撮影する撮像手段と、
画像を表示する表示手段と、
前記表示手段に対する操作を検知する操作検知手段と、
前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第1の画像処理装置に対応する第1のデバイス情報を取得し、前記第1の画像処理装置を撮影した撮影画像と前記第1のデバイス情報に対応する画像とを合成した第1合成画像を生成する第1制御手段と、
前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第2の画像処理装置に対応する第2のデバイス情報を取得し、前記第2の画像処理装置を撮影した撮影画像と前記第2のデバイス情報に対応する画像とを合成した第2合成画像を生成し、前記第2合成画像を前記第1合成画像と共に前記表示手段に表示する第2制御手段と、
を備え、
前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示しているとき、前記操作検知手段によって前記第1合成画像及び前記第2合成画像のそれぞれに対する操作が検知されることに伴い、当該操作に基づく操作情報を前記サーバー装置に送信し、
前記サーバー装置は、前記操作情報に基づいて、前記第1及び第2の画像処理装置を連携動作させることを特徴とする画像処理システム。
An image processing system comprising a server device, a portable terminal, and a plurality of image processing devices,
The server device is
Storage means for storing registration information in which specific information for specifying each of the plurality of image processing apparatuses is registered in advance;
Information acquisition means for acquiring device information from each of the plurality of image processing apparatuses;
With
The portable terminal is
Imaging means for taking an image;
Display means for displaying an image;
Operation detecting means for detecting an operation on the display means;
Specific information for specifying the first image processing device when the first image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. To the server device, the first device information corresponding to the first image processing device is acquired from the server device, and the photographed image obtained by photographing the first image processing device and the first device information First control means for generating a first synthesized image obtained by synthesizing an image corresponding to
Specific information for specifying the second image processing device when the second image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. To the server device, the second device information corresponding to the second image processing device is acquired from the server device, and the photographed image obtained by photographing the second image processing device and the second device information A second control unit that generates a second composite image obtained by combining the image corresponding to the second composite image and displays the second composite image together with the first composite image on the display unit;
With
When the second control means is displaying the first composite image and the second composite image on the display means, the operation detection means performs an operation on each of the first composite image and the second composite image. Is detected, the operation information based on the operation is transmitted to the server device,
The server apparatus causes the first and second image processing apparatuses to perform a cooperative operation based on the operation information.
前記登録情報には、前記特定情報として、前記複数の画像処理装置のそれぞれの設置位置に関する位置情報が登録されており、
前記携帯端末は、現在位置を検出する位置検出手段を更に備え、
前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を前記サーバー装置に送信することにより前記サーバー装置から前記第1のデバイス情報を取得し、
前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を前記サーバー装置に送信することにより前記サーバー装置から前記第2のデバイス情報を取得することを特徴とする請求項1に記載の画像処理システム。
In the registration information, position information regarding each installation position of the plurality of image processing apparatuses is registered as the specific information.
The portable terminal further includes position detection means for detecting a current position,
The first control unit transmits the current position detected by the position detection unit to the server device when the first image processing device is photographed by the imaging unit, thereby causing the first control unit to transmit the first position from the server device. Get device information
The second control unit transmits the current position detected by the position detecting unit to the server device when the second image processing device is photographed by the imaging unit, thereby causing the second control unit to transmit the second position from the server device. The image processing system according to claim 1, wherein device information is acquired.
前記第1制御手段は、前記撮像手段により前記第1の画像処理装置が撮影された撮影画像を解析することにより、前記第1の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信し、
前記第2制御手段は、前記撮像手段により前記第2の画像処理装置が撮影された撮影画像を解析することにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする請求項1に記載の画像処理システム。
The first control unit obtains identification information for identifying the first image processing apparatus by analyzing a captured image captured by the first image processing apparatus by the imaging unit, and To the device,
The second control unit acquires specific information for specifying the second image processing device by analyzing a captured image captured by the second image processing device by the imaging unit, and the server The image processing system according to claim 1, wherein the image processing system transmits the image to an apparatus.
前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置と通信を行うことにより、前記第1の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信し、
前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置と通信を行うことにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする請求項1に記載の画像処理システム。
The first control unit is configured to identify the first image processing device by communicating with the first image processing device when the first image processing device is photographed by the imaging unit. Obtain information and send it to the server device;
The second control unit is configured to identify the second image processing device by communicating with the second image processing device when photographing the second image processing device by the imaging unit. The image processing system according to claim 1, wherein information is acquired and transmitted to the server device.
前記情報取得手段は、前記複数の画像処理装置のそれぞれに保存されているファイル情報を前記デバイス情報として取得し、
前記第1制御手段は、前記第1の画像処理装置を撮影した撮影画像に対し、前記第1の画像処理装置に保存されているファイル情報に対応する画像を合成して前記第1合成画像を生成し、
前記第2制御手段は、前記第2の画像処理装置を撮影した撮影画像に対し、前記第2の画像処理装置に保存されているファイル情報に対応する画像を合成して前記第2合成画像を生成することを特徴とする請求項1乃至4のいずれかに記載の画像処理システム。
The information acquisition means acquires file information stored in each of the plurality of image processing apparatuses as the device information,
The first control unit synthesizes an image corresponding to file information stored in the first image processing device with a captured image obtained by photographing the first image processing device, and generates the first composite image. Generate
The second control means synthesizes an image corresponding to the file information stored in the second image processing device with the photographed image obtained by photographing the second image processing device to obtain the second composite image. The image processing system according to claim 1, wherein the image processing system is generated.
前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示している状態で、前記操作検知手段によって検知された操作が前記第1合成画像及び前記第2合成画像のいずれか一方に含まれるファイル情報に対応する画像を他方へ移動させる操作であるとき、当該ファイル情報に対応するファイルを前記第1及び第2の画像処理装置の間で移動又はコピーさせることを指示する操作情報を生成して前記サーバー装置に送信することを特徴とする請求項5に記載の画像処理システム。   The second control means displays the first composite image and the second composite image on the display means, and the operation detected by the operation detection means is the first composite image and the second composite image. When the operation is to move an image corresponding to file information included in one of the composite images to the other, the file corresponding to the file information is moved or copied between the first and second image processing apparatuses. 6. The image processing system according to claim 5, wherein operation information instructing this is generated and transmitted to the server device. 前記情報取得手段は、前記複数の画像処理装置のそれぞれで実行可能な機能に関する機能情報を前記デバイス情報として取得し、
前記第1制御手段は、前記第1の画像処理装置を撮影した撮影画像に対し、前記第1の画像処理装置で実行可能な機能情報に対応する画像を合成して前記第1合成画像を生成し、
前記第2制御手段は、前記第2の画像処理装置を撮影した撮影画像に対し、前記第2の画像処理装置で実行可能な機能情報に対応する画像を合成して前記第2合成画像を生成することを特徴とする請求項1乃至6のいずれかに記載の画像処理システム。
The information acquisition unit acquires function information regarding a function executable by each of the plurality of image processing apparatuses as the device information,
The first control means generates the first synthesized image by synthesizing an image corresponding to the function information executable by the first image processing apparatus with a captured image obtained by photographing the first image processing apparatus. And
The second control unit generates the second composite image by synthesizing an image corresponding to the function information executable by the second image processing device with a captured image obtained by photographing the second image processing device. The image processing system according to claim 1, wherein the image processing system is an image processing system.
前記サーバー装置は、前記携帯端末に対して前記第1又は第2のデバイス情報を送信するとき、当該デバイス情報に対応する合成用画像を送信し、
前記第1又は第2制御手段は、前記合成用画像を、前記撮像手段によって得られた撮影画像に合成することにより前記第1合成画像又は第2合成画像を生成することを特徴とする請求項1乃至7のいずれかに記載の画像処理システム。
When the server device transmits the first or second device information to the mobile terminal, the server device transmits an image for synthesis corresponding to the device information,
The said 1st or 2nd control means produces | generates the said 1st synthesized image or the 2nd synthesized image by synthesize | combining the said image for a synthesis | combination with the picked-up image obtained by the said imaging means. The image processing system according to any one of 1 to 7.
前記合成用画像には、前記デバイス情報に対応するテキストが含まれることを特徴とする請求項8に記載の画像処理システム。   The image processing system according to claim 8, wherein the composition image includes text corresponding to the device information. 前記第1制御手段は、前記第1合成画像を前記サーバー装置に送信して保存しておき、
前記第2制御手段は、前記第2合成画像を前記表示手段に表示するとき、前記サーバー装置から前記第1合成画像を取得し、前記第1合成画像と共に前記第2合成画像を表示することを特徴とする請求項1乃至9のいずれかに記載の画像処理システム。
The first control means transmits and stores the first composite image to the server device,
When the second control means displays the second composite image on the display means, the second control means acquires the first composite image from the server device and displays the second composite image together with the first composite image. The image processing system according to claim 1, wherein the image processing system is characterized in that:
前記第1制御手段は、前記第1合成画像を前記サーバー装置に送信するとき、前記第1合成画像に合成した前記第1のデバイス情報に対応する画像の合成位置に関する情報を前記サーバー装置に送信することを特徴とする請求項10に記載の画像処理システム。   When the first control unit transmits the first composite image to the server device, the first control unit transmits information related to the composite position of the image corresponding to the first device information combined with the first composite image to the server device. The image processing system according to claim 10. 前記サーバー装置は、
前記携帯端末から受信する第1の特定情報に基づき、前記登録情報を参照して前記第1の画像処理装置を特定し、前記第1の画像処理装置に対応する前記第1のデバイス情報を前記携帯端末に送信する第1情報処理手段と、
前記携帯端末から受信する第2の特定情報に基づき、前記登録情報を参照して前記第2の画像処理装置を特定し、前記第2の画像処理装置に対応する前記第2のデバイス情報を前記携帯端末に送信する第2情報処理手段と、
を更に備え、
前記第1制御手段は、前記第1合成画像を前記サーバー装置に送信し、
前記第2情報処理手段は、前記携帯端末から受信する第2の特定情報に基づいて前記第2の画像処理装置を特定することに伴い、前記携帯端末から受信する前記第1合成画像を前記第2の画像処理装置に関連付け、前記第2の画像処理装置に対応する前記第2のデバイス情報を前記携帯端末に送信するときに、前記第2の画像処理装置に関連付けた前記第1合成画像を前記携帯端末に送信することを特徴とする請求項1乃至11のいずれかに記載の画像処理システム。
The server device is
Based on the first identification information received from the portable terminal, the registration information is referred to identify the first image processing apparatus, and the first device information corresponding to the first image processing apparatus is First information processing means for transmitting to the mobile terminal;
Based on the second identification information received from the mobile terminal, the second image processing apparatus is identified with reference to the registration information, and the second device information corresponding to the second image processing apparatus is Second information processing means for transmitting to the mobile terminal;
Further comprising
The first control means transmits the first composite image to the server device,
The second information processing means specifies the second image processing device based on the second specifying information received from the portable terminal, and the first information is received from the portable terminal. When the second device information corresponding to the second image processing apparatus is transmitted to the portable terminal, the first composite image associated with the second image processing apparatus is The image processing system according to claim 1, wherein the image processing system transmits the image to the portable terminal.
複数の画像処理装置を制御するサーバー装置と通信可能な携帯端末であって、
画像を撮影する撮像手段と、
画像を表示する表示手段と、
前記表示手段に対する操作を検知する操作検知手段と、
前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第1の画像処理装置に対応する第1のデバイス情報を取得し、前記第1の画像処理装置を撮影した撮影画像と前記第1のデバイス情報に対応する画像とを合成した第1合成画像を生成する第1制御手段と、
前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第2の画像処理装置に対応する第2のデバイス情報を取得し、前記第2の画像処理装置を撮影した撮影画像と前記第2のデバイス情報に対応する画像とを合成した第2合成画像を生成し、前記第2合成画像を前記第1合成画像と共に前記表示手段に表示する第2制御手段と、
を備え、
前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示しているとき、前記操作検知手段によって前記第1合成画像及び前記第2合成画像のそれぞれに対する操作が検知されることに伴い、当該操作に基づく操作情報を前記サーバー装置に送信し、前記第1及び第2の画像処理装置を連携動作させることを特徴とする携帯端末。
A portable terminal capable of communicating with a server device that controls a plurality of image processing devices,
Imaging means for taking an image;
Display means for displaying an image;
Operation detecting means for detecting an operation on the display means;
Specific information for specifying the first image processing device when the first image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. To the server device, the first device information corresponding to the first image processing device is acquired from the server device, and the photographed image obtained by photographing the first image processing device and the first device information First control means for generating a first synthesized image obtained by synthesizing an image corresponding to
Specific information for specifying the second image processing device when the second image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. To the server device, the second device information corresponding to the second image processing device is acquired from the server device, and the photographed image obtained by photographing the second image processing device and the second device information A second control unit that generates a second composite image obtained by combining the image corresponding to the second composite image and displays the second composite image together with the first composite image on the display unit;
With
When the second control means is displaying the first composite image and the second composite image on the display means, the operation detection means performs an operation on each of the first composite image and the second composite image. A mobile terminal that transmits operation information based on the operation to the server device and causes the first and second image processing devices to operate in cooperation with each other.
現在位置を検出する位置検出手段を更に備え、
前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を、前記第1の画像処理装置を特定するための特定情報として前記サーバー装置に送信し、
前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を、前記第2の画像処理装置を特定するための特定情報として前記サーバー装置に送信することを特徴とする請求項13に記載の携帯端末。
It further comprises position detection means for detecting the current position,
The first control means uses the current position detected by the position detection means as identification information for identifying the first image processing apparatus when the first image processing apparatus is photographed by the imaging means. Sent to the server device,
The second control means uses the current position detected by the position detection means as identification information for identifying the second image processing apparatus when the second image processing apparatus is photographed by the imaging means. The mobile terminal according to claim 13, wherein the mobile terminal is transmitted to the server device.
前記第1制御手段は、前記撮像手段により前記第1の画像処理装置が撮影された撮影画像を解析することにより、前記第1の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信し、
前記第2制御手段は、前記撮像手段により前記第2の画像処理装置が撮影された撮影画像を解析することにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする請求項13に記載の携帯端末。
The first control unit obtains identification information for identifying the first image processing apparatus by analyzing a captured image captured by the first image processing apparatus by the imaging unit, and To the device,
The second control unit acquires specific information for specifying the second image processing device by analyzing a captured image captured by the second image processing device by the imaging unit, and the server The mobile terminal according to claim 13, wherein the mobile terminal transmits to a device.
前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置と通信を行うことにより、前記第1の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信し、
前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置と通信を行うことにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする請求項13に記載の携帯端末。
The first control unit is configured to identify the first image processing device by communicating with the first image processing device when the first image processing device is photographed by the imaging unit. Obtain information and send it to the server device;
The second control unit is configured to identify the second image processing device by communicating with the second image processing device when photographing the second image processing device by the imaging unit. The mobile terminal according to claim 13, wherein information is acquired and transmitted to the server device.
携帯端末と通信を行うことにより複数の画像処理装置を制御するサーバー装置であって、
前記複数の画像処理装置のそれぞれを特定するための特定情報が予め登録された登録情報を記憶する記憶手段と、
前記複数の画像処理装置のそれぞれからデバイス情報を取得する情報取得手段と、
前記携帯端末から受信する第1の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第1の画像処理装置を特定し、当該第1の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第1情報処理手段と、
前記携帯端末から受信する第2の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第2の画像処理装置を特定し、当該第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第2情報処理手段と、
前記第2情報処理手段により前記第2の画像処理装置に対応するデバイス情報が前記携帯端末に送信された後、前記携帯端末から操作情報を受信することに伴い、当該操作情報に基づいて前記第1及び第2の画像処理装置を連携動作させる制御手段と、
を備え
前記第2情報処理手段は、前記第1の画像処理装置が撮影された撮影画像に対して前記第1の画像処理装置に対応するデバイス情報の画像が合成された第1合成画像を前記携帯端末から受信して保持しておき、前記携帯端末から前記第2の特定情報を受信することによって前記第2の画像処理装置を特定することに伴い、前記第1合成画像を前記第2の画像処理装置に関連付け、前記第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信するときに、前記第2の画像処理装置に関連付けた前記第1合成画像を前記携帯端末に送信することを特徴とするサーバー装置。
A server device that controls a plurality of image processing devices by communicating with a mobile terminal,
Storage means for storing registration information in which specific information for specifying each of the plurality of image processing apparatuses is registered in advance;
Information acquisition means for acquiring device information from each of the plurality of image processing apparatuses;
Based on the first identification information received from the portable terminal, the registration information is referred to identify a first image processing device included in the plurality of image processing devices, and corresponds to the first image processing device. First information processing means for transmitting device information to the portable terminal;
Based on the second identification information received from the portable terminal, the second image processing apparatus included in the plurality of image processing apparatuses is identified with reference to the registration information, and the second image processing apparatus is supported. Second information processing means for transmitting device information to the portable terminal;
After the device information corresponding to the second image processing apparatus is transmitted to the mobile terminal by the second information processing means, the operation information is received from the mobile terminal, and the first information is received based on the operation information. Control means for operating the first and second image processing apparatuses in cooperation with each other;
Equipped with a,
The second information processing means outputs a first synthesized image obtained by synthesizing an image of device information corresponding to the first image processing apparatus to a photographed image obtained by photographing the first image processing apparatus. And receiving the second specifying information from the portable terminal, and specifying the second image processing device by receiving the second specifying information from the portable terminal. associated with the device, the device information corresponding to the second image processing apparatus when transmitting to the portable terminal, Rukoto to transmit the first composite image associated with the second image processing apparatus to the portable terminal Server device characterized by.
複数の画像処理装置のそれぞれを特定するための特定情報が予め登録された登録情報を記憶する記憶手段を備え、携帯端末と通信を行うことにより前記複数の画像処理装置を制御するサーバー装置において実行されるプログラムであって、前記サーバー装置を、
前記複数の画像処理装置のそれぞれからデバイス情報を取得する情報取得手段、
前記携帯端末から受信する第1の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第1の画像処理装置を特定し、当該第1の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第1情報処理手段、
前記携帯端末から受信する第2の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第2の画像処理装置を特定し、当該第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第2情報処理手段、及び、
前記第2情報処理手段により前記第2の画像処理装置に対応するデバイス情報が前記携帯端末に送信された後、前記携帯端末から操作情報を受信することに伴い、当該操作情報に基づいて前記第1及び第2の画像処理装置を連携動作させる制御手段、
として機能させ、
前記第2情報処理手段は、前記第1の画像処理装置が撮影された撮影画像に対して前記第1の画像処理装置に対応するデバイス情報の画像が合成された第1合成画像を前記携帯端末から受信して保持しておき、前記携帯端末から前記第2の特定情報を受信することによって前記第2の画像処理装置を特定することに伴い、前記第1合成画像を前記第2の画像処理装置に関連付け、前記第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信するときに、前記第2の画像処理装置に関連付けた前記第1合成画像を前記携帯端末に送信することを特徴とするプログラム。
A storage unit that stores registration information in which specific information for specifying each of a plurality of image processing devices is registered in advance is executed in a server device that controls the plurality of image processing devices by communicating with a mobile terminal. The server device is a program to be executed.
Information acquisition means for acquiring device information from each of the plurality of image processing apparatuses;
Based on the first identification information received from the portable terminal, the registration information is referred to identify a first image processing device included in the plurality of image processing devices, and corresponds to the first image processing device. First information processing means for transmitting device information to the portable terminal;
Based on the second identification information received from the portable terminal, the second image processing apparatus included in the plurality of image processing apparatuses is identified with reference to the registration information, and the second image processing apparatus is supported. Second information processing means for transmitting device information to the portable terminal; and
After the device information corresponding to the second image processing apparatus is transmitted to the mobile terminal by the second information processing means, the operation information is received from the mobile terminal, and the first information is received based on the operation information. Control means for operating the first and second image processing apparatuses in cooperation with each other;
Function as
The second information processing means outputs a first synthesized image obtained by synthesizing an image of device information corresponding to the first image processing apparatus to a photographed image obtained by photographing the first image processing apparatus. And receiving the second specifying information from the portable terminal, and specifying the second image processing device by receiving the second specifying information from the portable terminal. Transmitting the first composite image associated with the second image processing device to the mobile terminal when transmitting device information corresponding to the second image processing device to the mobile terminal. A featured program.
複数の画像処理装置を制御するサーバー装置と通信可能であり、画像を撮影する撮像手段と、画像を表示する表示手段と、前記表示手段に対する操作を検知する操作検知手段と、を備える携帯端末において実行されるプログラムであって、前記携帯端末を、
前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第1の画像処理装置に対応する第1のデバイス情報を取得し、前記第1の画像処理装置を撮影した撮影画像と前記第1のデバイス情報に対応する画像とを合成した第1合成画像を生成する第1制御手段、及び、
前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第2の画像処理装置に対応する第2のデバイス情報を取得し、前記第2の画像処理装置を撮影した撮影画像と前記第2のデバイス情報に対応する画像とを合成した第2合成画像を生成し、前記第2合成画像を前記第1合成画像と共に前記表示手段に表示する第2制御手段、
として機能させ、
前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示しているとき、前記操作検知手段によって前記第1合成画像及び前記第2合成画像のそれぞれに対する操作が検知されることに伴い、当該操作に基づく操作情報を前記サーバー装置に送信し、前記第1及び第2の画像処理装置を連携動作させることを特徴とするプログラム。
In a portable terminal that can communicate with a server device that controls a plurality of image processing devices, and includes an imaging unit that captures an image, a display unit that displays an image, and an operation detection unit that detects an operation on the display unit A program to be executed, wherein the portable terminal is
Specific information for specifying the first image processing device when the first image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. To the server device, the first device information corresponding to the first image processing device is acquired from the server device, and the photographed image obtained by photographing the first image processing device and the first device information First control means for generating a first synthesized image obtained by synthesizing an image corresponding to
Specific information for specifying the second image processing device when the second image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. To the server device, the second device information corresponding to the second image processing device is acquired from the server device, and the photographed image obtained by photographing the second image processing device and the second device information A second control unit that generates a second composite image obtained by combining the image corresponding to the second composite image and displays the second composite image together with the first composite image on the display unit;
Function as
When the second control means is displaying the first composite image and the second composite image on the display means, the operation detection means performs an operation on each of the first composite image and the second composite image. A program that transmits operation information based on the operation to the server device and causes the first and second image processing devices to operate in cooperation with each other.
JP2013188455A 2013-09-11 2013-09-11 Image processing system, portable terminal, server device, and program Expired - Fee Related JP6171764B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013188455A JP6171764B2 (en) 2013-09-11 2013-09-11 Image processing system, portable terminal, server device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013188455A JP6171764B2 (en) 2013-09-11 2013-09-11 Image processing system, portable terminal, server device, and program

Publications (2)

Publication Number Publication Date
JP2015055987A JP2015055987A (en) 2015-03-23
JP6171764B2 true JP6171764B2 (en) 2017-08-02

Family

ID=52820354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013188455A Expired - Fee Related JP6171764B2 (en) 2013-09-11 2013-09-11 Image processing system, portable terminal, server device, and program

Country Status (1)

Country Link
JP (1) JP6171764B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170262739A1 (en) * 2016-03-09 2017-09-14 Seiko Epson Corporation Configuration of Equipment with Retailer and Geolocation Information
JP6179653B1 (en) * 2016-10-19 2017-08-16 富士ゼロックス株式会社 Information processing apparatus and program
US10567608B2 (en) 2016-05-06 2020-02-18 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium
JP6708135B2 (en) * 2017-01-10 2020-06-10 富士ゼロックス株式会社 Information processing device and program
JP6881033B2 (en) * 2017-05-26 2021-06-02 ブラザー工業株式会社 Management server
JP6455551B2 (en) * 2017-06-07 2019-01-23 富士ゼロックス株式会社 Information processing apparatus and program
JP6443498B2 (en) * 2017-06-07 2018-12-26 富士ゼロックス株式会社 Information processing apparatus and program
JP6493466B2 (en) 2017-07-28 2019-04-03 富士ゼロックス株式会社 Information processing apparatus and program
JP7173266B2 (en) * 2017-07-28 2022-11-16 富士フイルムビジネスイノベーション株式会社 Information processing device, program and control method
JP6958069B2 (en) * 2017-07-28 2021-11-02 富士フイルムビジネスイノベーション株式会社 Information processing equipment and programs
JP2019159848A (en) 2018-03-13 2019-09-19 富士ゼロックス株式会社 Information processing device and program
JP7119445B2 (en) 2018-03-13 2022-08-17 富士フイルムビジネスイノベーション株式会社 Information processing device and program
JP7206737B2 (en) * 2018-09-20 2023-01-18 富士フイルムビジネスイノベーション株式会社 Information processing device, information processing system and program
JP6743928B2 (en) * 2019-02-20 2020-08-19 富士ゼロックス株式会社 Information processing device and program
JP6895669B1 (en) * 2020-05-01 2021-06-30 株式会社エクサウィザーズ Terminals, servers, programs and methods

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5257437B2 (en) * 2010-10-20 2013-08-07 コニカミノルタビジネステクノロジーズ株式会社 Method for operating portable terminal and processing device
JP5811722B2 (en) * 2011-09-15 2015-11-11 コニカミノルタ株式会社 Image processing system, server, control method, and control program
JP5845919B2 (en) * 2012-01-23 2016-01-20 コニカミノルタ株式会社 Image processing apparatus management apparatus, image processing apparatus management apparatus control method, image processing apparatus management apparatus control program, operation terminal, operation terminal control method, and operation terminal control program
JP5989347B2 (en) * 2012-02-03 2016-09-07 コニカミノルタ株式会社 Portable terminal, portable terminal control program, and display system including portable terminal

Also Published As

Publication number Publication date
JP2015055987A (en) 2015-03-23

Similar Documents

Publication Publication Date Title
JP6171764B2 (en) Image processing system, portable terminal, server device, and program
US11800026B2 (en) Information processing apparatus and non-transitory computer readable medium
JP5257437B2 (en) Method for operating portable terminal and processing device
JP4997783B2 (en) Electronic conference system, electronic conference support program, electronic conference control device, information terminal device, electronic conference support method
JP6052459B1 (en) Information processing apparatus and program
JP6179653B1 (en) Information processing apparatus and program
JP6052458B1 (en) Information processing apparatus and program
JP4997175B2 (en) Object management device, portable terminal, and object operation method
JP5922067B2 (en) Image forming system
JP6958069B2 (en) Information processing equipment and programs
JP6493466B2 (en) Information processing apparatus and program
JP6146528B1 (en) Information processing apparatus and program
JP6160761B1 (en) Information processing apparatus and program
JP2012194649A (en) Image processing system
CN107346218B (en) Information processing apparatus, information processing method, and computer program
JP6327387B2 (en) Information processing apparatus and program
JP6443498B2 (en) Information processing apparatus and program
JP2013254244A (en) Information terminal and control method of the same, and program
JP2019036127A (en) Information processing device and program
JP2019029805A (en) Information processing apparatus and program
JP2015005026A (en) Device management terminal, device management system, and device management program
JP6455551B2 (en) Information processing apparatus and program
JP2018129097A (en) Information processing apparatus and program
JP6443497B2 (en) Information processing apparatus and program
JP2018112860A (en) Information processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170619

R150 Certificate of patent or registration of utility model

Ref document number: 6171764

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees