JP6171764B2 - Image processing system, portable terminal, server device, and program - Google Patents
Image processing system, portable terminal, server device, and program Download PDFInfo
- Publication number
- JP6171764B2 JP6171764B2 JP2013188455A JP2013188455A JP6171764B2 JP 6171764 B2 JP6171764 B2 JP 6171764B2 JP 2013188455 A JP2013188455 A JP 2013188455A JP 2013188455 A JP2013188455 A JP 2013188455A JP 6171764 B2 JP6171764 B2 JP 6171764B2
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- information
- image
- composite
- server device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
- Facsimiles In General (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、画像処理システム、携帯端末、サーバー装置およびプログラムに関し、特に携帯端末を用いて複数の画像処理装置を連携させるための技術に関する。 The present invention relates to an image processing system, a portable terminal, a server device, and a program, and more particularly to a technique for linking a plurality of image processing apparatuses using a portable terminal.
従来、複合機などの画像処理装置を管理又は操作する一手法として、例えばAR(Augmented Reality:拡張現実)技術を利用し、携帯端末で画像処理装置を撮影して得られる撮影画像に対し、その撮影した画像処理装置のステータスや操作パネルなどの画像を合成して表示することにより、直感的に画像処理装置の状態を確認できるようにしたり、画像処理装置を操作できるようにした技術が公知である(例えば特許文献1)。この従来技術によれば、携帯端末で画像処理装置を撮影することにより、その画像処理装置が待機中であるか否かを把握できると共に、携帯端末に表示された操作パネルに対する操作を行うことにより画像処理装置にプリントジョブなどを実行させることができる。 Conventionally, as a technique for managing or operating an image processing apparatus such as a multifunction peripheral, for example, using AR (Augmented Reality) technology, a captured image obtained by photographing the image processing apparatus with a portable terminal is used. A technique is known in which the status of the captured image processing device and the operation panel are combined and displayed so that the state of the image processing device can be checked intuitively and the image processing device can be operated. There is (for example, Patent Document 1). According to this prior art, by photographing an image processing apparatus with a portable terminal, it is possible to grasp whether or not the image processing apparatus is on standby, and by performing an operation on an operation panel displayed on the portable terminal. The image processing apparatus can execute a print job or the like.
しかしながら、上記従来技術では、携帯端末を使用しても、それぞれ異なる場所に設置されている複数の画像処理装置を相互に連携させることができない。そのため、例えば、一の画像処理装置に保存されている文書ファイルを別の画像処理装置で印刷出力させるようなことができないという点で利便性に欠けるという問題がある。 However, in the above prior art, even if a mobile terminal is used, a plurality of image processing apparatuses installed at different places cannot be linked with each other. Therefore, for example, there is a problem in that it is not convenient in that a document file stored in one image processing apparatus cannot be printed out by another image processing apparatus.
そこで本発明は、上記従来の問題点を解決すべくなされたものであり、複数の画像処理装置を連携させることができる画像処理システム、携帯端末、サーバー装置およびプログラムを提供することを目的とするものである。 Therefore, the present invention has been made to solve the above-described conventional problems, and an object thereof is to provide an image processing system, a portable terminal, a server device, and a program capable of linking a plurality of image processing devices. Is.
上記目的を達成するため、請求項1に係る発明は、サーバー装置と、携帯端末と、複数の画像処理装置とを備えて構成される画像処理システムであって、前記サーバー装置は、前記複数の画像処理装置のそれぞれを特定するための特定情報が予め登録された登録情報を記憶する記憶手段と、前記複数の画像処理装置のそれぞれからデバイス情報を取得する情報取得手段と、を備え、前記携帯端末は、画像を撮影する撮像手段と、画像を表示する表示手段と、前記表示手段に対する操作を検知する操作検知手段と、前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第1の画像処理装置に対応する第1のデバイス情報を取得し、前記第1の画像処理装置を撮影した撮影画像と前記第1のデバイス情報に対応する画像とを合成した第1合成画像を生成する第1制御手段と、前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第2の画像処理装置に対応する第2のデバイス情報を取得し、前記第2の画像処理装置を撮影した撮影画像と前記第2のデバイス情報に対応する画像とを合成した第2合成画像を生成し、前記第2合成画像を前記第1合成画像と共に前記表示手段に表示する第2制御手段と、を備え、前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示しているとき、前記操作検知手段によって前記第1合成画像及び前記第2合成画像のそれぞれに対する操作が検知されることに伴い、当該操作に基づく操作情報を前記サーバー装置に送信し、前記サーバー装置は、前記操作情報に基づいて、前記第1及び第2の画像処理装置を連携動作させることを特徴とする構成である。
To achieve the above object, an invention according to
請求項2に係る発明は、請求項1に記載の画像処理システムにおいて、前記登録情報には、前記特定情報として、前記複数の画像処理装置のそれぞれの設置位置に関する位置情報が登録されており、前記携帯端末は、現在位置を検出する位置検出手段を更に備え、前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を前記サーバー装置に送信することにより前記サーバー装置から前記第1のデバイス情報を取得し、前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を前記サーバー装置に送信することにより前記サーバー装置から前記第2のデバイス情報を取得することを特徴とする構成である。 According to a second aspect of the present invention, in the image processing system according to the first aspect, in the registration information, position information regarding each installation position of the plurality of image processing apparatuses is registered as the specific information. The portable terminal further includes position detection means for detecting a current position, and the first control means detects the current position detected by the position detection means when the first image processing device is photographed by the imaging means. The first device information is acquired from the server device by transmitting to the server device, and when the second control unit photographs the second image processing device by the imaging unit, the position detection unit The second device information is acquired from the server device by transmitting the current position detected by the server device to the server device. It is.
請求項3に係る発明は、請求項1に記載の画像処理システムにおいて、前記第1制御手段は、前記撮像手段により前記第1の画像処理装置が撮影された撮影画像を解析することにより、前記第1の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信し、前記第2制御手段は、前記撮像手段により前記第2の画像処理装置が撮影された撮影画像を解析することにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする構成である。 According to a third aspect of the present invention, in the image processing system according to the first aspect, the first control unit analyzes the photographed image obtained by photographing the first image processing apparatus by the imaging unit. Specific information for specifying the first image processing apparatus is acquired and transmitted to the server apparatus, and the second control unit analyzes a captured image captured by the second image processing apparatus by the imaging unit. Thus, the specific information for specifying the second image processing apparatus is acquired and transmitted to the server apparatus.
請求項4に係る発明は、請求項1に記載の画像処理システムにおいて、前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置と通信を行うことにより、前記第1の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信し、前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置と通信を行うことにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする構成である。 According to a fourth aspect of the present invention, in the image processing system according to the first aspect, when the first control unit captures the first image processing apparatus with the first image processing apparatus, By performing communication, specific information for specifying the first image processing apparatus is acquired and transmitted to the server apparatus, and the second control means uses the imaging means to transmit the second image processing apparatus. When photographing, the second image processing apparatus communicates with the second image processing apparatus to acquire specific information for specifying the second image processing apparatus and transmit the specific information to the server apparatus. .
請求項5に係る発明は、請求項1乃至4のいずれかに記載の画像処理システムにおいて、前記情報取得手段は、前記複数の画像処理装置のそれぞれに保存されているファイル情報を前記デバイス情報として取得し、前記第1制御手段は、前記第1の画像処理装置を撮影した撮影画像に対し、前記第1の画像処理装置に保存されているファイル情報に対応する画像を合成して前記第1合成画像を生成し、前記第2制御手段は、前記第2の画像処理装置を撮影した撮影画像に対し、前記第2の画像処理装置に保存されているファイル情報に対応する画像を合成して前記第2合成画像を生成することを特徴とする構成である。 According to a fifth aspect of the present invention, in the image processing system according to any one of the first to fourth aspects, the information acquisition unit uses file information stored in each of the plurality of image processing apparatuses as the device information. The first control means obtains the first image by synthesizing an image corresponding to the file information stored in the first image processing device with the captured image obtained by photographing the first image processing device. The second control means generates a composite image, and synthesizes an image corresponding to the file information stored in the second image processing device with the photographed image obtained by photographing the second image processing device. The second synthesized image is generated.
請求項6に係る発明は、請求項5に記載の画像処理システムにおいて、前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示している状態で、前記操作検知手段によって検知された操作が前記第1合成画像及び前記第2合成画像のいずれか一方に含まれるファイル情報に対応する画像を他方へ移動させる操作であるとき、当該ファイル情報に対応するファイルを前記第1及び第2の画像処理装置の間で移動又はコピーさせることを指示する操作情報を生成して前記サーバー装置に送信することを特徴とする構成である。
The invention according to
請求項7に係る発明は、請求項1乃至6のいずれかに記載の画像処理システムにおいて、前記情報取得手段は、前記複数の画像処理装置のそれぞれで実行可能な機能に関する機能情報を前記デバイス情報として取得し、前記第1制御手段は、前記第1の画像処理装置を撮影した撮影画像に対し、前記第1の画像処理装置で実行可能な機能情報に対応する画像を合成して前記第1合成画像を生成し、前記第2制御手段は、前記第2の画像処理装置を撮影した撮影画像に対し、前記第2の画像処理装置で実行可能な機能情報に対応する画像を合成して前記第2合成画像を生成することを特徴とする構成である。 According to a seventh aspect of the present invention, in the image processing system according to any one of the first to sixth aspects, the information acquisition unit obtains functional information related to a function executable by each of the plurality of image processing apparatuses. The first control means synthesizes an image corresponding to function information executable by the first image processing device with a captured image obtained by photographing the first image processing device, and The composite image is generated, and the second control unit synthesizes an image corresponding to the function information executable by the second image processing device with respect to the captured image obtained by capturing the second image processing device. A configuration is characterized in that a second composite image is generated.
請求項8に係る発明は、請求項1乃至7のいずれかに記載の画像処理システムにおいて、前記サーバー装置は、前記携帯端末に対して前記第1又は第2のデバイス情報を送信するとき、当該デバイス情報に対応する合成用画像を送信し、前記第1又は第2制御手段は、前記合成用画像を、前記撮像手段によって得られた撮影画像に合成することにより前記第1合成画像又は第2合成画像を生成することを特徴とする構成である。
The invention according to claim 8 is the image processing system according to any one of
請求項9に係る発明は、請求項8に記載の画像処理システムにおいて、前記合成用画像には、前記デバイス情報に対応するテキストが含まれることを特徴とする構成である。 The invention according to claim 9 is the image processing system according to claim 8, wherein the composition image includes text corresponding to the device information.
請求項10に係る発明は、請求項1乃至9のいずれかに記載の画像処理システムにおいて、前記第1制御手段は、前記第1合成画像を前記サーバー装置に送信して保存しておき、前記第2制御手段は、前記第2合成画像を前記表示手段に表示するとき、前記サーバー装置から前記第1合成画像を取得し、前記第1合成画像と共に前記第2合成画像を表示することを特徴とする構成である。 According to a tenth aspect of the present invention, in the image processing system according to any one of the first to ninth aspects, the first control unit transmits the first composite image to the server device and stores the first composite image. The second control means acquires the first composite image from the server device when displaying the second composite image on the display means, and displays the second composite image together with the first composite image. The configuration is as follows.
請求項11に係る発明は、請求項10に記載の画像処理システムにおいて、前記第1制御手段は、前記第1合成画像を前記サーバー装置に送信するとき、前記第1合成画像に合成した前記第1のデバイス情報に対応する画像の合成位置に関する情報を前記サーバー装置に送信することを特徴とする構成である。 According to an eleventh aspect of the present invention, in the image processing system according to the tenth aspect, when the first control unit transmits the first composite image to the server device, the first composite image is combined with the first composite image. In this configuration, information related to a composite position of an image corresponding to one device information is transmitted to the server device.
請求項12に係る発明は、請求項1乃至11のいずれかに記載の画像処理システムにおいて、前記サーバー装置は、前記携帯端末から受信する第1の特定情報に基づき、前記登録情報を参照して前記第1の画像処理装置を特定し、前記第1の画像処理装置に対応する前記第1のデバイス情報を前記携帯端末に送信する第1情報処理手段と、前記携帯端末から受信する第2の特定情報に基づき、前記登録情報を参照して前記第2の画像処理装置を特定し、前記第2の画像処理装置に対応する前記第2のデバイス情報を前記携帯端末に送信する第2情報処理手段と、を更に備え、前記第1制御手段は、前記第1合成画像を前記サーバー装置に送信し、前記第2情報処理手段は、前記携帯端末から受信する第2の特定情報に基づいて前記第2の画像処理装置を特定することに伴い、前記携帯端末から受信する前記第1合成画像を前記第2の画像処理装置に関連付け、前記第2の画像処理装置に対応する前記第2のデバイス情報を前記携帯端末に送信するときに、前記第2の画像処理装置に関連付けた前記第1合成画像を前記携帯端末に送信することを特徴とする構成である。
The invention according to
請求項13に係る発明は、複数の画像処理装置を制御するサーバー装置と通信可能な携帯端末であって、画像を撮影する撮像手段と、画像を表示する表示手段と、前記表示手段に対する操作を検知する操作検知手段と、前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第1の画像処理装置に対応する第1のデバイス情報を取得し、前記第1の画像処理装置を撮影した撮影画像と前記第1のデバイス情報に対応する画像とを合成した第1合成画像を生成する第1制御手段と、前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第2の画像処理装置に対応する第2のデバイス情報を取得し、前記第2の画像処理装置を撮影した撮影画像と前記第2のデバイス情報に対応する画像とを合成した第2合成画像を生成し、前記第2合成画像を前記第1合成画像と共に前記表示手段に表示する第2制御手段と、を備え、前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示しているとき、前記操作検知手段によって前記第1合成画像及び前記第2合成画像のそれぞれに対する操作が検知されることに伴い、当該操作に基づく操作情報を前記サーバー装置に送信し、前記第1及び第2の画像処理装置を連携動作させることを特徴とする構成である。 According to a thirteenth aspect of the present invention, there is provided a portable terminal capable of communicating with a server device that controls a plurality of image processing apparatuses, an imaging unit that captures an image, a display unit that displays an image, and an operation on the display unit. When the first image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detection unit to be detected and an operation detected by the operation detection unit, the first image processing device Specific information for identifying the first image processing apparatus is transmitted to the server apparatus, first device information corresponding to the first image processing apparatus is acquired from the server apparatus, and a captured image obtained by capturing the first image processing apparatus And a plurality of images based on an operation detected by the operation detection unit, and a first control unit that generates a first combined image by combining the image corresponding to the first device information with the first device information. When the second image processing device included in the processing device is photographed by the imaging unit, the server device transmits specification information for specifying the second image processing device, and the server device transmits the second information processing device. Obtaining second device information corresponding to the image processing apparatus, generating a second synthesized image obtained by synthesizing a captured image obtained by photographing the second image processing apparatus and an image corresponding to the second device information; Second display means for displaying the second composite image together with the first composite image on the display means, wherein the second control means displays the first composite image and the second composite image as the display means. When the operation detection unit detects an operation on each of the first composite image and the second composite image, the operation information based on the operation is sent to the server device. And a construction for causing the cooperative operation of the first and second image processing apparatus.
請求項14に係る発明は、請求項13に記載の携帯端末において、現在位置を検出する位置検出手段を更に備え、前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を、前記第1の画像処理装置を特定するための特定情報として前記サーバー装置に送信し、前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を、前記第2の画像処理装置を特定するための特定情報として前記サーバー装置に送信することを特徴とする構成である。
The invention according to
請求項15に係る発明は、請求項13に記載の携帯端末において、前記第1制御手段は、前記撮像手段により前記第1の画像処理装置が撮影された撮影画像を解析することにより、前記第1の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信し、前記第2制御手段は、前記撮像手段により前記第2の画像処理装置が撮影された撮影画像を解析することにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする構成である。 According to a fifteenth aspect of the present invention, in the portable terminal according to the thirteenth aspect, the first control unit analyzes the captured image captured by the first image processing device by the imaging unit, thereby the first control unit. Specific information for specifying one image processing apparatus is acquired and transmitted to the server apparatus, and the second control unit analyzes a captured image captured by the second image processing apparatus by the imaging unit. Thus, the specific information for specifying the second image processing apparatus is acquired and transmitted to the server apparatus.
請求項16に係る発明は、請求項13に記載の携帯端末において、前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置と通信を行うことにより、前記第1の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信し、前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置と通信を行うことにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする構成である。 According to a sixteenth aspect of the present invention, in the portable terminal according to the thirteenth aspect, the first control means communicates with the first image processing apparatus when the first image processing apparatus is photographed by the imaging means. To acquire specific information for specifying the first image processing apparatus and transmit the specific information to the server apparatus, and the second control means captures the second image processing apparatus by the imaging means. Then, by communicating with the second image processing device, specific information for specifying the second image processing device is acquired and transmitted to the server device.
請求項17に係る発明は、携帯端末と通信を行うことにより複数の画像処理装置を制御するサーバー装置であって、前記複数の画像処理装置のそれぞれを特定するための特定情報が予め登録された登録情報を記憶する記憶手段と、前記複数の画像処理装置のそれぞれからデバイス情報を取得する情報取得手段と、前記携帯端末から受信する第1の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第1の画像処理装置を特定し、当該第1の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第1情報処理手段と、前記携帯端末から受信する第2の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第2の画像処理装置を特定し、当該第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第2情報処理手段と、前記第2情報処理手段により前記第2の画像処理装置に対応するデバイス情報が前記携帯端末に送信された後、前記携帯端末から操作情報を受信することに伴い、当該操作情報に基づいて前記第1及び第2の画像処理装置を連携動作させる制御手段と、を備え、前記第2情報処理手段は、前記第1の画像処理装置が撮影された撮影画像に対して前記第1の画像処理装置に対応するデバイス情報の画像が合成された第1合成画像を前記携帯端末から受信して保持しておき、前記携帯端末から前記第2の特定情報を受信することによって前記第2の画像処理装置を特定することに伴い、前記第1合成画像を前記第2の画像処理装置に関連付け、前記第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信するときに、前記第2の画像処理装置に関連付けた前記第1合成画像を前記携帯端末に送信することを特徴とする構成である。
The invention according to
請求項18に係る発明は、複数の画像処理装置のそれぞれを特定するための特定情報が予め登録された登録情報を記憶する記憶手段を備え、携帯端末と通信を行うことにより前記複数の画像処理装置を制御するサーバー装置において実行されるプログラムであって、前記サーバー装置を、前記複数の画像処理装置のそれぞれからデバイス情報を取得する情報取得手段、前記携帯端末から受信する第1の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第1の画像処理装置を特定し、当該第1の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第1情報処理手段、前記携帯端末から受信する第2の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第2の画像処理装置を特定し、当該第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第2情報処理手段、及び、前記第2情報処理手段により前記第2の画像処理装置に対応するデバイス情報が前記携帯端末に送信された後、前記携帯端末から操作情報を受信することに伴い、当該操作情報に基づいて前記第1及び第2の画像処理装置を連携動作させる制御手段、として機能させ、前記第2情報処理手段は、前記第1の画像処理装置が撮影された撮影画像に対して前記第1の画像処理装置に対応するデバイス情報の画像が合成された第1合成画像を前記携帯端末から受信して保持しておき、前記携帯端末から前記第2の特定情報を受信することによって前記第2の画像処理装置を特定することに伴い、前記第1合成画像を前記第2の画像処理装置に関連付け、前記第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信するときに、前記第2の画像処理装置に関連付けた前記第1合成画像を前記携帯端末に送信することを特徴とする構成である。
According to an eighteenth aspect of the present invention, there is provided storage means for storing registration information in which specific information for specifying each of a plurality of image processing apparatuses is registered in advance, and the plurality of image processing by communicating with a portable terminal. A program executed in a server device that controls the device, wherein the server device is information acquisition means for acquiring device information from each of the plurality of image processing devices, and first specific information received from the portable terminal First information for identifying a first image processing device included in the plurality of image processing devices with reference to the registration information and transmitting device information corresponding to the first image processing device to the mobile terminal; A second image processing device included in the plurality of image processing devices with reference to the registration information based on second specific information received from the processing means and the portable terminal; A second information processing unit that identifies and transmits device information corresponding to the second image processing apparatus to the portable terminal, and device information corresponding to the second image processing apparatus is transmitted by the second information processing unit. In response to receiving operation information from the portable terminal after being transmitted to the portable terminal, the first and second image processing apparatuses are caused to function as a cooperative operation based on the operation information, and A second information processing unit configured to generate, from the portable terminal, a first synthesized image obtained by synthesizing an image of device information corresponding to the first image processing apparatus with a photographed image obtained by photographing the first image processing apparatus; As the second image processing device is specified by receiving and holding the second specifying information from the portable terminal, the first composite image is converted into the second image processing. Transmitting the first composite image associated with the second image processing device to the portable terminal when transmitting device information corresponding to the second image processing device to the portable terminal. This is a characteristic configuration.
請求項19に係る発明は、複数の画像処理装置を制御するサーバー装置と通信可能であり、画像を撮影する撮像手段と、画像を表示する表示手段と、前記表示手段に対する操作を検知する操作検知手段と、を備える携帯端末において実行されるプログラムであって、前記携帯端末を、前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第1の画像処理装置に対応する第1のデバイス情報を取得し、前記第1の画像処理装置を撮影した撮影画像と前記第1のデバイス情報に対応する画像とを合成した第1合成画像を生成する第1制御手段、及び、前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第2の画像処理装置に対応する第2のデバイス情報を取得し、前記第2の画像処理装置を撮影した撮影画像と前記第2のデバイス情報に対応する画像とを合成した第2合成画像を生成し、前記第2合成画像を前記第1合成画像と共に前記表示手段に表示する第2制御手段、として機能させ、前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示しているとき、前記操作検知手段によって前記第1合成画像及び前記第2合成画像のそれぞれに対する操作が検知されることに伴い、当該操作に基づく操作情報を前記サーバー装置に送信し、前記第1及び第2の画像処理装置を連携動作させることを特徴とする構成である。
The invention according to
本発明によれば、携帯端末を用いて複数の画像処理装置を連携させることができるようになり、利便性が向上する。 According to the present invention, a plurality of image processing apparatuses can be linked using a mobile terminal, and convenience is improved.
以下、本発明に関する好ましい実施形態について図面を参照しつつ詳細に説明する。尚、以下に説明する実施形態において互いに共通する部材には同一符号を付しており、それらについての重複する説明は省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the embodiments described below, members that are common to each other are denoted by the same reference numerals, and redundant descriptions thereof are omitted.
(第1実施形態)
図1は、第1実施形態における画像処理システムの概念的構成を示す図である。この画像処理システムは、複数の画像処理装置1,2と、サーバー装置3と、携帯端末4とを備えて構成される。画像処理装置1,2は、例えば複合機などによって構成され、文書などの画像データを記憶したり、印刷出力を行ったりすることができる装置である。本実施形態では、これら複数の画像処理装置1,2が互いに離れた拠点に設置されている場合を例示する。例えば、第1の画像処理装置1が第1拠点に設置されており、第2の画像処理装置2が第2拠点に設置されている。尚、図1では、画像処理システムに2つの画像処理装置1,2が設けられる場合を例示しているが、画像処理装置の数は2つに限られるものではなく、3つ以上であっても構わない。
(First embodiment)
FIG. 1 is a diagram illustrating a conceptual configuration of an image processing system according to the first embodiment. This image processing system includes a plurality of
サーバー装置3は、それら複数の画像処理装置1,2を管理すると共に、それら複数の画像処理装置1,2を制御する装置である。このサーバー装置3は、各画像処理装置1,2の設置位置を示す位置情報と関連付けて各画像処理装置1,2を管理している。また、このサーバー装置3は、複数の画像処理装置1,2のそれぞれとLAN(Local Area Network)やインターネットなどのネットワーク5を介して通信可能である。サーバー装置3は、ネットワーク5を介して各画像処理装置1,2から必要な情報を取得したり、或いは、各画像処理装置1,2に対して必要な動作を行わせたりする。尚、各画像処理装置1,2は、サーバー装置3を介することなく、それぞれが相互にネットワーク5を介して通信することも可能である。
The
またサーバー装置3は、携帯端末4とインターネットなどのネットワーク6を介して通信可能である。そしてサーバー装置3は、携帯端末4から受信する情報に基づき、携帯端末4に対して各画像処理装置1,2に関する情報や表示用の画像などを送信したり、各画像処理装置1,2の動作を制御したりする。
The
携帯端末4は、例えばスマートフォンやタブレット端末などによって構成される可搬型の情報処理端末である。この携帯端末4は、例えば1人のユーザーによって専有されるものであり、該ユーザーによって持ち運びされることにより第1拠点と第2拠点のいずれの拠点においても使用される。また携帯端末4は、画像を撮影するカメラ機能と、インターネットなどのネットワーク6を介して通信を行う通信機能とを備えている。
The
本実施形態の画像処理システムは、上記構成において、ユーザーが携帯する携帯端末4を用いて、離れた地点に設置されている第1の画像処理装置1と第2の画像処理装置2とを互いに連携動作させることを可能にするものである。
In the image processing system of the present embodiment, in the above configuration, the first
その概要について説明すると、まず始めに、ユーザーが携帯端末4を用いて第1拠点に設置されている第1の画像処理装置1を撮影するとき、携帯端末4は、サーバー装置3と通信を行う。この通信により、携帯端末4は、サーバー装置3から第1の画像処理装置1に関するデバイス情報と、そのデバイス情報に対応するタグ画像(合成用画像)TG1とを取得し、第1の画像処理装置1を撮影した撮影画像SG1にタグ画像(合成用画像)TG1を合成した第1合成画像DG1を生成して表示する。例えば携帯端末4は、ARによる表示処理技術を利用して第1合成画像DG1を生成して表示する。このようにして得られる第1合成画像DG1は、携帯端末4又はサーバー装置3に保存される。
The outline will be described. First, when the user uses the
ここで撮影画像SG1に合成されるタグ画像TG1は、第1の画像処理装置1に設けられているBOX(ファイル記憶領域)やそのBOXに保存されているファイル、或いは、第1の画像処理装置1において実行可能な機能のそれぞれに対応するアイコンのような画像であり、例えばサーバー装置3において予め生成される画像である。また携帯端末4が、サーバー装置3から受信するデバイス情報に基づいて、その都度、タグ画像TG1を生成するようにしても良い。本実施形態では、主として、サーバー装置3において予めデバイス情報に対応するタグ画像が生成される場合を例示する。
Here, the tag image TG1 combined with the photographed image SG1 is a BOX (file storage area) provided in the first
上記のように第1拠点において第1合成画像DG1が生成された後、図1の矢印Fで示すように、ユーザーが第2拠点に移動し、携帯端末4を用いて第2拠点に設置されている第2の画像処理装置2を撮影するとき、携帯端末4は、再びサーバー装置3と通信を行う。この通信により、携帯端末4は、サーバー装置3から第2の画像処理装置2に関するデバイス情報と、そのデバイス情報に対応するタグ画像(合成用画像)TG2とを取得し、第2の画像処理装置2を撮影した撮影画像SG2にタグ画像(合成用画像)TG2を合成した第2合成画像DG2を生成して表示する。このとき、携帯端末4は、第1拠点において予め生成しておいた第1合成画像DG1と共に、第2合成画像DG2を表示する。つまり、第2拠点でユーザーが第2の画像処理装置2を撮影すると、携帯端末4には、第1拠点で予め生成された第1合成画像DG1と、第2拠点で生成された第2合成画像DG2との双方が表示されるようになる。
After the first composite image DG1 is generated at the first site as described above, the user moves to the second site and is installed at the second site using the
そして本実施形態の画像処理システムは、携帯端末4において第1合成画像DG1と第2合成画像DG2との双方が表示されているときに、例えばユーザーが第1合成画像DG1に含まれる一のファイルに対応するタグ画像を第2合成画像DG2に含まれる一のBOXに対応するタグ画像上にドラッグアンドドロップ操作すると、その操作に基づく操作情報が携帯端末4からサーバー装置3に送信され、サーバー装置3が操作情報に基づいて第1の画像処理装置1と第2の画像処理装置2とを相互に連携動作させる。例えば、上記のようなファイル操作の場合には、サーバー装置3は、第1の画像処理装置1に保存されているファイルを、第2の画像処理装置2の指定されたBOXにコピー又は移動させるように、第1の画像処理装置1と第2の画像処理装置2とを相互に連携させる。
The image processing system according to the present embodiment is configured so that, for example, when the first composite image DG1 and the second composite image DG2 are both displayed on the
以下、このような画像処理システムについて更に詳しく説明する。図2は、サーバー装置3のハードウェア構成及び機能構成の一例を示すブロック図である。図2に示すように、サーバー装置3は、CPU10と、メモリ11と、通信インタフェース12と、記憶部13とを備えている。CPU10は、所定のプログラムを実行することにより、各部の動作を制御するものである。特に本実施形態におけるCPU10は、所定のプログラムを実行することにより、情報取得部14、第1情報処理部15、第2情報処理部16及び制御部17として機能する。メモリ11は、CPU10が各種演算処理を行う際に発生する一時的なデータなどを記憶するものである。通信インタフェース12は、ネットワーク5を介して第1及び第2の画像処理装置1,2のそれぞれと通信を行ったり、ネットワーク6を介して携帯端末4と通信を行ったりするためのものである。記憶部13は、例えばハードディスクドライブ(HDD)などで構成される不揮発性記憶手段であり、上述したプログラムなどが記憶される。また本実施形態では、図2に示すように、デバイス登録情報18が記憶部13に予め記憶されている。また記憶部13には、デバイス登録情報18に登録される各画像処理装置1,2のデバイス情報に対応するタグ画像を記憶するためのタグ画像記憶領域19が設けられている。
Hereinafter, such an image processing system will be described in more detail. FIG. 2 is a block diagram illustrating an example of a hardware configuration and a functional configuration of the
情報取得部14は、通信インタフェース12を介してデバイス登録情報18に予め登録されている第1及び第2の画像処理装置1,2のそれぞれと通信を行い、それら画像処理装置1,2からデバイス情報を取得してデバイス登録情報18に記録する。図3は、デバイス登録情報18の一例を示す図である。このデバイス登録情報18には、第1及び第2の画像処理装置1,2に関する情報が登録される。例えば、デバイス登録情報18には、各画像処理装置1,2に対してユニークに付与された装置ID18aと、各画像処理装置1,2の設置位置に関する位置情報18bと、各画像処理装置1,2と通信を行うためのIPアドレス18cとが予め登録されている。尚、装置ID18a、位置情報18b及びIPアドレス18cは、いずれも各画像処理装置1,2を特定することができる特定情報である。
The
情報取得部14は、デバイス登録情報18に予め登録されている情報に基づき、定期的に第1及び第2の画像処理装置1,2と通信を行い、画像処理装置1,2からデバイス情報18dを取得してデバイス登録情報18に記録する。デバイス登録情報18に記録されるデバイス情報18dは、例えばファイル情報及び機能情報である。ファイル情報は、第1及び第2の画像処理装置1,2のそれぞれに保存されているファイルに関する情報であり、各ファイルが保存されているBOXに関する情報や、そのBOXにアクセス可能なユーザーに関する情報が含まれる。尚、BOXにファイルが保存されていない場合であっても、そのBOXに関する情報や、そのBOXにアクセス可能なユーザーに関する情報が、ファイル情報として記録される。一方、機能情報は、第1及び第2の画像処理装置1,2のそれぞれで実行可能な機能(例えばプリントやスキャンなど)に関する情報である。情報取得部14は、第1及び第2の画像処理装置1,2のそれぞれから上記のようなファイル情報及び機能情報をデバイス情報18dとして取得し、デバイス登録情報18に記録する。このとき、情報取得部14は、各BOXに対してユニークなBOXIDを付与すると共に、各ファイルに対してユニークなファイルIDを付与する。さらに各機能に対してはユニークな機能IDを付与する。そして情報取得部14は、それらのBOXID、ファイルID及び機能IDのそれぞれを、第1及び第2の画像処理装置1,2のそれぞれの装置ID18aと相互に関連付けてデバイス登録情報18に記録する。
The
また情報取得部14は、デバイス登録情報18に対して各画像処理装置1,2のデバイス情報18dを登録又は更新することに伴い、そのデバイス情報18dに対応するタグ画像TG1,TG2を予め生成してタグ画像記憶領域19に保存しておく。また情報取得部14は、タグ画像TG1,TG2をタグ画像記憶領域19に保存するとき、各タグ画像TG1,TG2を各画像処理装置1,2に関連付けた状態で保存する。例えば、図1に示すタグ画像TG1は、第1の画像処理装置1のタグ画像としてタグ画像記憶領域19に保存され、タグ画像TG2は、第2の画像処理装置2のタグ画像としてタグ画像記憶領域19に保存される。
The
図2に戻り、第1情報処理部15は、携帯端末4から第1の画像処理装置1を特定するための特定情報を受信することに伴って機能し、その受信した特定情報に基づいてデバイス登録情報18を参照することにより、携帯端末4が撮影しようとしている第1の画像処理装置1を特定する。そして第1情報処理部15は、その第1の画像処理装置1に対応するデバイス情報をデバイス登録情報18から抽出すると共に、その抽出したデバイス情報に対応するタグ画像をタグ画像記憶領域19から読み出し、第1の画像処理装置1に関する情報としてデバイス情報とタグ画像とを携帯端末4に送信する。また第2情報処理部16は、携帯端末4から第2の画像処理装置2を特定するための特定情報を受信することに伴って機能し、その受信した特定情報に基づいてデバイス登録情報18を参照することにより、携帯端末4が撮影しようとしている第2の画像処理装置2を特定する。そして第2情報処理部16は、その第2の画像処理装置2に対応するデバイス情報デバイス登録情報18から抽出すると共に、その抽出したデバイス情報に対応するタグ画像をタグ画像記憶領域19から読み出し、第2の画像処理装置2に関する情報としてデバイス情報とタグ画像とを携帯端末4に送信する。尚、本実施形態では、第1情報処理部15と第2情報処理部16とを互いに区別して説明するが、これら各処理部15,16で行われる処理には共通性があるため、ひとつの処理部として実現しても構わない。
Returning to FIG. 2, the first
また制御部17は、第2情報処理部16により第2の画像処理装置2に関する情報が携帯端末4に送信された後、携帯端末4から操作情報を受信することに伴い、その操作情報に基づいて第1及び第2の画像処理装置1,2を連携動作させる。つまり、制御部17は、互いに離れた拠点に設置されている2つの画像処理装置1,2を相互に連携させることにより、ユーザーによって指定された処理の実行を制御する。
Further, the
図4は、携帯端末4のハードウェア構成及び機能構成の一例を示すブロック図である。図4に示すように、携帯端末4は、CPU20と、メモリ21と、カメラ22と、表示部23と、操作検知部24と、位置検出センサ25と、通信インタフェース26と、記憶部27とを備えている。CPU20は、各種プログラムを実行することにより、各部の動作を制御するものである。メモリ21は、CPU20が各種演算処理を行う際に発生する一時的なデータなどを記憶するものである。カメラ22は、画像を撮影するための撮像手段であり、例えば携帯端末4の背面側に設けられている。表示部23は、例えば携帯端末4の表面側に設けられたカラー液晶ディスプレイなどで構成され、各種画像を表示するものである。この表示部23は表示画面上にタッチパネルセンサを備えている。操作検知部24は、表示部23の表示画面に対して行われるユーザーの操作を検知するものであり、例えば表示画面に対してタッチ操作が行われたときのタッチ位置や、そのタッチ位置の移動、タッチ操作がリリースされたときのリリース位置などを検知することができる。位置検出センサ25は、携帯端末4の現在位置を検知するセンサであり、例えばGPS(Global Positioning System)受信センサなどにより構成される。通信インタフェース12は、ネットワーク6を介してサーバー装置3との通信を行うものである。記憶部27は、例えばソリッドステートドライブ(SSD)などで構成される不揮発性記憶手段である。この記憶部27には、携帯端末4にサーバー装置3との通信を行わせ、第1及び第2の画像処理装置1,2を連携動作させるためのプログラム28が予めインストールされている。
FIG. 4 is a block diagram illustrating an example of a hardware configuration and a functional configuration of the
CPU20は、ユーザーによる指示操作に基づいて記憶部27から上記プログラム28を読み出して実行することにより、連携アプリケーション30を起動させる。この連携アプリケーション30は、第1制御部31と、第2制御部32とを備えている。これら第1制御部31及び第2制御部32は、ユーザーによる選択操作に基づいて択一的に機能するものである。例えば、ユーザーが第1拠点から第2拠点へ移動する前に、第1拠点において連携アプリケーション30を起動させて第1の画像処理装置1を撮影することを選択すると、連携アプリケーション30は、第1制御部31を機能させる。またユーザーが第1拠点から第2拠点へ移動した後に、第2拠点において連携アプリケーション30を起動させて第2の画像処理装置2を撮影することを選択すると、連携アプリケーション30は、第2制御部32を機能させる。
The
第1制御部31は、操作検知部24により検知される操作に基づいてカメラ22を起動し、第1の画像処理装置1を撮影できる状態とする。また第1制御部31は、位置検出センサ25によって検出される現在位置を取得し、その現在位置を、カメラ22の撮影対象となっている第1の画像処理装置1を特定するための特定情報としてサーバー装置3に送信する。これにより、第1制御部31は、サーバー装置3から第1の画像処理装置1に対応するデバイス情報と、そのデバイス情報に対応するタグ画像とを取得することができる。そして第1制御部31は、サーバー装置3から受信するタグ画像TG1を、第1の画像処理装置1を撮影した撮影画像SG1に合成することにより第1合成画像DG1を生成して保存する。
The
一方、第2制御部32は、操作検知部24により検知される操作に基づいてカメラ22を起動し、第2の画像処理装置2を撮影できる状態とする。また第2制御部32は、位置検出センサ25によって検出される現在位置を取得し、その現在位置を、カメラ22の撮影対象となっている第2の画像処理装置2を特定するための特定情報としてサーバー装置3に送信する。これにより、第2制御部32は、サーバー装置3から第2の画像処理装置2に対応するデバイス情報と、そのデバイス情報に対応するタグ画像とを取得することができる。そして第2制御部32は、サーバー装置3から受信するタグ画像TG2を、第2の画像処理装置2を撮影した撮影画像SG2に合成することにより第2合成画像DG2を生成する。また第2制御部32は、予め生成されている第1合成画像DG1と、今回生成した第2合成画像DG2とを合わせて表示部23に表示する。
On the other hand, the
さらに第2制御部32は、第1合成画像DG1と第2合成画像DG2とを表示部23に表示しているとき、操作検知部24によって第1合成画像DG1及び第2合成画像DG2のそれぞれに対する操作が検知されることに伴い、その操作に基づく操作情報をサーバー装置3に送信し、第1及び第2の画像処理装置1,2を互いに連携させて動作させる。尚、本実施形態では、第1制御部31と第2制御部32とを互いに区別して説明しているが、これら各制御部31,32で行われる処理には共通性があるため、ひとつの制御部として実現しても構わない。
Furthermore, when the
次に上記構成を有する携帯端末4及びサーバー装置3における具体的な動作の一例について説明する。まず、図5は、ユーザーが第1拠点から第2拠点へ移動する前の第1拠点で行われる処理手順であって、携帯端末4における第1制御部31と、サーバー装置3における第1情報処理部15とによって行われる処理手順の一例を示すフローチャートである。図5に示すように、まずユーザーは、携帯端末4を操作して連携アプリケーション30を第1のモードで起動することにより、連携アプリケーション30の第1制御部31を機能させる(ステップS10)。第1制御部31は、カメラ22を起動すると共に(ステップS11)、位置検出センサ25から携帯端末4の現在位置を取得する(ステップS12)。そして第1制御部31は、サーバー装置3に対して各種情報を送信する(ステップS13)。このとき、サーバー装置3に送信される情報には、現在位置を示す情報と、ユーザーを特定するためのユーザーIDなどのユーザー情報とが含まれる。
Next, an example of specific operations in the
サーバー装置3は、携帯端末4から送信される情報を受信すると、まずユーザー情報に基づいてユーザー認証を行う(ステップS14)。このユーザー認証に成功することを条件として、これ以降の処理が行われる。ユーザー認証に成功した場合、サーバー装置3において上述した第1情報処理部15が機能し、現在位置を示す情報に基づいて携帯端末4が撮影しようとしている第1の画像処理装置1を特定する(ステップS15)。すなわち、第1情報処理部15は、デバイス登録情報18に登録されている位置情報18bを参照し、携帯端末4の現在位置に最も近い位置に設置されている画像処理装置を、第1の画像処理装置1として特定する。尚、携帯端末4に設けられている位置検出センサ25が携帯端末4の姿勢を検知可能な地磁気センサを更に備えたものであれば、携帯端末4の撮影方向に設置されている画像処理装置を、第1の画像処理装置1として特定することもできる。
When the
そして第1情報処理部15は、特定した第1の画像処理装置1に対応するデバイス情報18dを抽出する。このとき、第1情報処理部15は、ユーザー認証で認証されたユーザーが利用可能なBOXやファイル、機能に関する情報だけを抽出し、認証されたユーザーが利用できないBOXやファイル、機能に関する情報は抽出しない。そして第1情報処理部15は、デバイス登録情報18から抽出したデバイス情報18dを携帯端末4に送信する(ステップS16)。また第1情報処理部15は、ステップS16で抽出したデバイス情報18dに対応するタグ画像(合成用画像)TG1をタグ画像記憶領域19から読み出し、そのタグ画像TG1を携帯端末4に送信する(ステップS17)。
The first
携帯端末4の第1制御部31は、サーバー装置3からデバイス情報18dとタグ画像TG1とを受信すると、第1の画像処理装置1を撮影した撮影画像SG1と、デバイス情報18dに対応するタグ画像TG1とを合成して第1合成画像を生成する(ステップS18)。
When the
図6は、携帯端末4において生成される第1合成画像DG1の一例を示す図である。この第1合成画像DG1は、第1の画像処理装置1の撮影画像SG1に対し、第1の画像処理装置1のデバイス情報18dに基づくタグ画像TG1が合成されたものである。尚、図6の例では、第1の画像処理装置1に対応するファイル情報だけをタグ画像TG1として合成した場合を例示している。このタグ画像TG1は、第1の画像処理装置1に設けられているBOX1に対応するタグ画像TG11と、そのBOX1に保存されているFile1に対応するタグ画像TG12とを含んでおり、タグ画像TG11とTG12との関係をツリー構造で示す画像となっている。
FIG. 6 is a diagram illustrating an example of the first composite image DG <b> 1 generated in the
第1制御部31は、上記のような第1合成画像DG1を生成すると、その第1合成画像DG1に関する第1付属情報を生成する(ステップS19)。図7は、第1付属情報33の一例を示す図である。この第1付属情報33は、第1合成画像DG1と一体的に管理される情報であり、サーバー装置3から受信するデバイス情報18dと、タグ画像TG1の合成結果とに基づいて生成される。第1付属情報33は、例えば、第1合成画像DG1を特定するための画像ID33aと、第1の画像処理装置1を特定するための装置ID33bと、第1の画像処理装置1のIPアドレス33cと、ユーザーID33dと、合成情報33eとが相互に関連付けられた情報である。そして合成情報33eには、撮影画像SG1に合成された個々のタグ画像TG11,TG12を特定することができる情報が記録され、例えば、各タグ画像を特定するための合成画像ID、各タグ画像の合成位置を特定するための座標情報、各タグ画像の種類を示す情報、BOXIDやファイルIDなどの情報が記録される。このような第1付属情報33を参照すれば、第1合成画像DG1に対するタッチ操作などが行われたときに、制御対象となる画像処理装置を特定することができると共に、各タグ画像に対する操作を検知することができるようになる。そして第1制御部31は、上記のようにして生成した第1合成画像DG1と第1付属情報33とを相互に関連付けて記憶部27などに保存しておく(ステップS20)。以上で、ユーザーが第1拠点から第2拠点へ移動する前に行っておくべき処理が終了する。
When the
次に図8は、ユーザーが第1拠点から第2拠点へ移動した後に第2拠点で行われる処理手順であって、携帯端末4における第2制御部32と、サーバー装置3における第2情報処理部16及び制御部17によって行われる処理手順の一例を示すフローチャートである。図8に示すように、まずユーザーは、携帯端末4を操作して連携アプリケーション30を第2のモードで起動することにより、連携アプリケーション30の第2制御部32を機能させる(ステップS30)。第2制御部32は、位置検出センサ25から携帯端末4の現在位置を取得し(ステップS31)、第1拠点での処理で予め保存しておいた第1合成画像DG1を読み出す(ステップS32)。そして第2制御部32は、サーバー3に対して現在位置を示す情報と第1合成画像DG1とを送信する(ステップS33)。このとき、第2制御部32は、第1合成画像DG1と一体的に管理される第1付属情報33やユーザー情報などもサーバー装置3へ送信する。
Next, FIG. 8 is a processing procedure performed at the second site after the user moves from the first site to the second site, and the
サーバー装置3は、携帯端末4から送信される情報を受信すると、ユーザー情報に基づいてユーザー認証を行い(ステップS34)、そのユーザー認証に成功すると、サーバー装置3において上述した第2情報処理部16が機能する。第2情報処理部16は、現在位置を示す情報に基づいて携帯端末4が撮影しようとしている第2の画像処理装置2を特定する(ステップS35)。すなわち、第2情報処理部16は、デバイス登録情報18に登録されている位置情報18bを参照し、携帯端末4の現在位置に最も近い位置に設置されている画像処理装置を、第2の画像処理装置2として特定する。第2情報処理部16は、第2の画像処理装置2を特定することができると、携帯端末4から受信する第1合成画像DG1及び第1付属情報33を、その特定した第2の画像処理装置2に関連付けて記憶する(ステップS36)。尚、このとき、第1合成画像DG1及び第1付属情報33を、第2の画像処理装置2に関連付けるのではなく、第2拠点の情報として関連付けるようにしても良い。
When the
そして携帯端末4において第2制御部32がカメラ22を起動する(ステップS37)。これに伴い、第2制御部32は、サーバー装置3に対して再度現在位置を示す情報を送信するようにしても良い。
And in the
そして第2情報処理部16は、携帯端末4で撮影しようとしている第2の画像処理装置2に対応するデバイス情報18dを抽出する。このとき、第2情報処理部16は、ユーザー認証で認証されたユーザーが利用可能なBOXやファイル、機能に関する情報だけを抽出し、認証されたユーザーが利用できないBOXやファイル、機能に関する情報は抽出しない。そして第2情報処理部16は、デバイス登録情報18から抽出した第2の画像処理装置2のデバイス情報18dを携帯端末4に送信する(ステップS38)。また第2情報処理部16は、ステップS38で抽出したデバイス情報18dに対応するタグ画像(合成用画像)TG2をタグ画像記憶領域19から読み出し、そのタグ画像TG2を携帯端末4に送信する(ステップS39)。さらに第2情報処理部16は、ステップS36で第2の画像処理装置2又は第2拠点に関連付けた第1合成画像DG1及び第1付属情報33を読み出し、それらを携帯端末4に送信する(ステップS40)。
Then, the second
携帯端末4の第2制御部32は、サーバー装置3からデバイス情報18dとタグ画像TG2とを受信すると、第2の画像処理装置2を撮影した撮影画像SG2と、タグ画像(合成用画像)TG2とを合成して第2合成画像を生成する(ステップS41)。
When the
図9は、携帯端末4において生成される第2合成画像DG2の一例を示す図である。この第2合成画像DG2は、第2の画像処理装置2の撮影画像SG2に対し、第2の画像処理装置2のデバイス情報18dに基づくタグ画像TG2が合成されたものである。尚、図9の例においても、第2の画像処理装置2に対応するファイル情報だけをタグ画像TG2として合成した場合を例示している。このタグ画像TG2は、第2の画像処理装置2に設けられているBOX2に対応するタグ画像TG21と、BOX3に対応するタグ画像TG22と、BOX2に保存されているFile2に対応するタグ画像TG23と、BOX2に保存されているFile3に対応するタグ画像TG24とを含んでおり、タグ画像TG21〜TG24の関係をツリー構造で示す画像となっている。
FIG. 9 is a diagram illustrating an example of the second composite image DG <b> 2 generated in the
第2制御部32は、上記のような第2合成画像DG2を生成すると、次にその第2合成画像DG2に関する第2付属情報を生成する(ステップS42)。図10は、第2付属情報34の一例を示す図である。この第2付属情報34は、第2合成画像DG2と一体的に管理される情報であり、サーバー装置3から受信するデバイス情報18dと、タグ画像TG2の合成結果とに基づいて生成される。第2付属情報34は、例えば、第2合成画像DG2を特定するための画像ID34aと、第2の画像処理装置2を特定するための装置ID34bと、第2の画像処理装置2のIPアドレス34cと、ユーザーID34dと、合成情報34eとが相互に関連付けられた情報である。合成情報34eには、撮影画像SG2に合成された個々のタグ画像TG21〜TG24を特定することができる情報が記録され、例えば、各タグ画像を特定するための合成画像ID、各タグ画像の合成位置を特定するための座標情報、各タグ画像の種類を示す情報、BOXIDやファイルIDなどの情報が記録される。このような第2付属情報34を参照すれば、第2合成画像DG2に対するタッチ操作などが行われたときに、制御対象となる画像処理装置を特定することができると共に、各タグ画像に対する操作を検知することができるようになる。そして第2制御部32は、上記のようにして第2合成画像DG2と第2付属情報34とを生成すると、サーバー装置3から受信する第1合成画像DG1と第2合成画像DG2とを並べて表示部23に表示する(ステップS43)。
When the
図11は、第2拠点において第2の画像処理装置2を撮影した後に携帯端末4に表示される表示画面例を示す図である。図11(a)は、ファイル情報に基づくタグ画像だけを表示した場合を例示しており、図11(b)はファイル情報だけでなく、機能情報に基づくタグ画像も同時に表示した場合を例示している。これらの表示画面例では、第1合成画像DG1と第2合成画像DG2とが並んだ状態に表示され、しかも各タグ画像TG1,TG2にはBOX名やファイル名などのテキストが含まれる。そのため、ユーザーは、第1及び第2の画像処理装置1,2のそれぞれにどのようなBOXが設けられており、各BOXにどのようなファイルが保存されているかなどを一見して把握することができる。
FIG. 11 is a diagram illustrating an example of a display screen displayed on the
そしてユーザーは、第1合成画像DG1と第2合成画像DG2とが表示部23に表示されている状態で、例えばファイルのタグ画像をドラッグアンドドロップ操作することにより、第1の画像処理装置1と第2の画像処理装置2との間でファイルを相互に移動させたり、コピーさせたりすることができる。またユーザーは、複数のファイルのタグ画像を重ね合わせるようなドラッグアンドドロップ操作すると、第1又は第2の画像処理装置1,2において、それら複数のファイルの結合処理や差分抽出処理を行わせることができる。さらに図11(b)に示すような表示画面の場合には、第1の画像処理装置1の「File1」に対応するタグ画像を第2の画像処理装置2の「プリント」に対応するタグ画像上へドラッグアンドドロップ操作を行うことにより、第1の画像処理装置1に保存されているファイルを第2の画像処理装置2で印刷出力させることができる。
Then, in a state where the first composite image DG1 and the second composite image DG2 are displayed on the
第2制御部32は、操作検知部24によって上記のような操作が検知されると(ステップS44)、その操作に基づく操作情報を生成する。このとき、第2制御部32は、第1合成画像DG1及び第2合成画像DG2の表示位置及び表示サイズ、並びに、第1付属情報33及び第2付属情報34に基づき、第1合成画像DG1及び第2合成画像DG2のそれぞれに合成されている各タグ画像の表示位置を特定する。そして操作検知部24によって検出される表示部23の画面内におけるドラッグアンドドロップ操作の始点及び終点の座標位置に基づき、移動対象となるタグ画像や移動先のタグ画像などを検知し、ユーザーによって行われた操作が第1及び第2の画像処理装置1,2のそれぞれにどのような動作を行わせるものであるかを特定する。
When the
例えば、上記のようにして検知されるユーザー操作がファイルのタグ画像をBOXのタグ画像にドラッグアンドドロップする操作である場合、第2制御部32は、ファイルの移動又はコピーが第1及び第2の画像処理装置1,2のそれぞれに行わせる動作であることを特定する。またユーザー操作が複数のファイルのタグ画像を互いに重ね合わせるようにドラッグアンドドロップする操作である場合、第2制御部32は、第1及び第2の画像処理装置1,2のいずれか一方に行わせる動作として、それら複数のファイルの結合処理や差分抽出処理を特定する。さらにユーザー操作が、ファイルのタグ画像をプリントのタグ画像へドラッグアンドドロップする操作である場合、第2制御部32は、指定されたファイルを指定された画像処理装置で印刷出力させる動作を特定する。そして第2制御部32は、そのようにして特定した動作に基づいて操作情報を生成し、サーバー装置3に送信する(ステップS45)。
For example, when the user operation detected as described above is an operation of dragging and dropping the tag image of the file onto the tag image of the BOX, the
サーバー装置3は、携帯端末4から操作情報を受信すると、制御部17を機能させる。制御部17は、操作情報で指定されている第1及び第2の画像処理装置1,2を制御対象として特定し(ステップS46)、更に操作情報に基づいてそれら第1及び第2の画像処理装置1,2を連携動作させ、ユーザーによって指定された処理を行われるように制御する(ステップS47)。これにより、第1及び第2の画像処理装置1,2は、相互にファイル交換を行うようになる。したがって、ユーザーは、第2拠点へ移動した後、第1拠点に設置されている第1の画像処理装置1に保存されているファイルを第2の画像処理装置2で印刷出力することなどができるようになり、利便性が向上する。
When the
ここで、上記においては携帯端末4に位置検出センサ25が設けられており、第1及び第2の画像処理装置1,2を撮影するときに携帯端末4が位置検出センサ25によって検出される現在位置をサーバー装置3へ送信することにより、サーバー装置3において、携帯端末4が撮影しようとしている画像処理装置を特定できるようにした例について説明したが、これに限られるものではない。すなわち、携帯端末4は、位置検出センサ25を具備しないものであっても良い。その場合は、次のような態様を採用することにより、携帯端末4は、第1及び第2の画像処理装置1,2を特定するための特定情報を取得することができる。
Here, the
図12は、携帯端末4が第1及び第2の画像処理装置1,2を撮影することにより装置ID18aやIPアドレス18cなどの特定情報を取得する態様を示す図である。画像処理装置1,2は、その装置筐体表面の所定箇所に、自身の装置ID18aやIPアドレス18cなどが予め埋め込まれた二次元バーコードなどの識別情報9が貼付されたものである。ユーザーは、携帯端末4を用いて第1及び第2の画像処理装置1,2のそれぞれを撮影するとき、図12に示すように、各画像処理装置1,2に貼付された識別情報9が撮影画像SG1,SG2に含まれるようにして撮影する。携帯端末4は、その撮影画像SG1,SG2を解析することにより、識別情報9を抽出し、その識別情報9に埋め込まれた装置ID18aやIPアドレス18cなどを取得する。そして携帯端末4は、装置ID18aやIPアドレス18cなどを特定情報としてサーバー装置3へ送信する。つまり、第1制御部31は、カメラ22により第1の画像処理装置1が撮影された撮影画像SG1を解析することにより、第1の画像処理装置1を特定するための特定情報を取得してサーバー装置3に送信する。また第2制御部32は、カメラ22により第2の画像処理装置2が撮影された撮影画像SG2を解析することにより、第2の画像処理装置2を特定するための特定情報を取得してサーバー装置3に送信する。サーバー装置3のデバイス登録情報18には、上述したように装置ID18aやIPアドレス18cが予め登録されているため、それらを参照することにより、携帯端末4が撮影しようとしている画像処理装置を特定することができる。
FIG. 12 is a diagram illustrating a mode in which the
図13は、携帯端末4が第1及び第2の画像処理装置1,2と通信を行うことにより第1及び第2の画像処理装置1,2から装置ID18aやIPアドレス18cなどの特定情報を取得する態様を示す図である。第1及び第2の画像処理装置1,2は、その内部メモリに、自身の装置ID18aやIPアドレス18cなどの特定情報を予め記憶している。そしてユーザーが携帯端末4の連携アプリケーション30を起動して第1及び第2の画像処理装置1,2のそれぞれを撮影しようとするとき、携帯端末4は、図13に示すように、近距離無線通信などにより撮影対象となっている画像処理装置1,2との通信を行い、画像処理装置1,2から特定情報を取得する。そして携帯端末4は、画像処理装置1,2から取得した特定情報をサーバー装置3へ送信する。つまり、第1制御部31は、第1の画像処理装置1をカメラ22により撮影するとき、その第1の画像処理装置1と通信を行うことによって第1の画像処理装置1を特定するための特定情報を取得してサーバー装置3に送信する。また第2制御部32は、第2の画像処理装置2をカメラ22により撮影するとき、第2の画像処理装置2と通信を行うことにより、第2の画像処理装置2を特定するための特定情報を取得してサーバー装置3に送信する。これにより、サーバー装置3は、携帯端末4が撮影しようとしている画像処理装置を特定することができる。
FIG. 13 shows that the
以上のように本実施形態の画像処理システムは、携帯端末4を用いて互いに離れた拠点に設置されている複数の画像処理装置1,2を連携動作させることができるため、利便性に優れている。また、ユーザーにとっては、携帯端末4の表示部23に並べて表示される第1合成画像DG1及び第2合成画像DG2に対して直感的な操作を行うことにより、複数の画像処理装置1,2を連携させることができるため、操作性にも優れている。
As described above, the image processing system of the present embodiment is excellent in convenience because the plurality of
尚、上記においては、第1の画像処理装置1と第2の画像処理装置2のそれぞれについて第1合成画像DG1と第2合成画像DG2とを1枚ずつ生成する場合を例示したが、それぞれ異なる複数の画像処理装置について複数の第1合成画像DG1を予め生成しておくようにしても良い。この場合、ユーザーは、第2拠点に移動して第2の画像処理装置2を撮影しようとするとき、複数の第1合成画像DG1から一の第1合成画像DG1を選択することにより、その第2の画像処理装置2と連携させるべき一の画像処理装置を選択することができるという利点がある。
In the above, the case where the first composite image DG1 and the second composite image DG2 are generated one by one for each of the first
(第2実施形態)
次に第2実施形態について説明する。上記第1実施形態では、主として、ユーザーが第1拠点で第1の画像処理装置1を撮影することによって生成される第1合成画像DG1が、携帯端末4に保存される場合を例示した。しかし、携帯端末4において第1合成画像DG1が保持されると、携帯端末4のメモリ資源などが圧迫されることになる。そこで本実施形態では、第1拠点で生成される第1合成画像DG1をサーバー装置3に保存しておく形態について説明する。尚、本実施形態においてもサーバー装置3及び携帯端末4のハードウェア構成及び機能構成は第1実施形態で説明したものと同様である。
(Second Embodiment)
Next, a second embodiment will be described. In the first embodiment, the case where the first composite image DG1 generated by the user photographing the first
図14は、第2実施形態においてユーザーが第1拠点から第2拠点へ移動する前の第1拠点で行われる処理手順であって、携帯端末4における第1制御部31と、サーバー装置3における第1情報処理部15とによって行われる処理手順の一例を示すフローチャートである。この図14のフローチャートにおいて、ステップS50〜S59の処理は図5に示したステップS10〜S19の処理と同様であるため、説明を省略する。携帯端末4の第1制御部31は、第1の画像処理装置1に関する第1合成画像DG1と、その第1合成画像DG1に対応する第1付属情報33とを生成すると、それら第1合成画像DG1及び第1付属情報33をサーバー装置3に送信する(ステップS60)。サーバー装置3は、携帯端末4から第1合成画像DG1及び第1付属情報33を受信すると、それらを相互に関連付けて記憶部13に保存する(ステップS61)。またサーバー装置3は、第1合成画像DG1及び第1付属情報33のそれぞれをユーザーに関連付けて保存する。
FIG. 14 is a processing procedure performed at the first site before the user moves from the first site to the second site in the second embodiment, and the
図15は、第2実施形態においてユーザーが第1拠点から第2拠点へ移動した後に第2拠点で行われる処理手順であって、携帯端末4における第2制御部32と、サーバー装置3における第2情報処理部16及び制御部17によって行われる処理手順の一例を示すフローチャートである。図15に示すように、まずユーザーは、携帯端末4を操作して連携アプリケーション30を第2のモードで起動することにより、連携アプリケーション30の第2制御部32を機能させる(ステップS70)。第2制御部32は、位置検出センサ25から携帯端末4の現在位置を取得し(ステップS71)、その現在位置を示す情報をサーバー装置3へ送信する(ステップS72)。このとき第2制御部32は、ユーザー情報もサーバー装置3へ送信する。
FIG. 15 is a processing procedure performed at the second site after the user has moved from the first site to the second site in the second embodiment, and the
サーバー装置3は、携帯端末4からユーザー情報を受信するとユーザー認証を行い(ステップS73)、そのユーザー認証に成功すると、サーバー装置3において上述した第2情報処理部16が機能する。第2情報処理部16は、ユーザー認証によって特定されたユーザーに関連付けられている第1合成画像DG1及び第1付属情報33が保存されているか否かを検索し、該ユーザーが予め第1拠点で第1の画像処理装置1を撮影することによって生成された第1合成画像DG1及び第1付属情報33を特定する(ステップS74)。また第2情報処理部16は、携帯端末4から受信する現在位置を示す情報に基づいて携帯端末4が撮影しようとしている第2の画像処理装置2を特定する(ステップS75)。第2の画像処理装置2を特定することができると、第2情報処理部16は、予め保存されていた第1合成画像DG1及び第1付属情報33を、その特定した第2の画像処理装置2に関連付けて記憶する(ステップS76)。尚、このとき、第1合成画像DG1及び第1付属情報33を、第2の画像処理装置2に関連付けるのではなく、第2拠点の情報として関連付けるようにしても良い。
When the
その後は、第1実施形態と同様の処理が行われる。すなわち、図15のステップS77〜S87で行われる処理は、図8のステップS37〜S47で行われる処理と同様である。つまり、携帯端末4でカメラ22を起動して第2の画像処理装置2を撮影しようとすると、それに伴い、サーバー装置3から第2の画像処理装置2のデバイス情報18d及びタグ画像TG2が送信されると共に、先のステップS76で第2の画像処理装置2に関連付けられた第1合成画像DG1及び第1付属情報33が送信される。そして携帯端末4は、第2合成DG2を生成し、その第2合成画像DG2と、サーバー装置3から受信する第1合成画像DG1とを並べて表示部23に表示する。その後、携帯端末4は、ユーザーによる操作を検知すると、その操作に基づく操作情報をサーバー装置3へ送信することにより、第1の画像処理装置1と、第2の画像処理装置2とを互いに連携動作させる。
Thereafter, the same processing as in the first embodiment is performed. That is, the processing performed in steps S77 to S87 in FIG. 15 is the same as the processing performed in steps S37 to S47 in FIG. That is, when the
このように本実施形態では、第1合成画像DG1を予めサーバー装置3に保存しておくので、携帯端末4のメモリ資源などが圧迫されることを防止することができる。特に、ユーザーがそれぞれ異なる複数の画像処理装置について複数の第1合成画像DG1を予め生成したような場合には、その効果は大きくなる。
As described above, in the present embodiment, since the first composite image DG1 is stored in the
また本実施形態では、第1合成画像DG1だけでなく、第1合成画像DG1に対応する第1付属情報33もサーバー装置3に保存する。そのため、例えば図7に示した第1付属情報33のユーザーID33dに対し、ユーザーが他のユーザーのIDを追加登録することにより、サーバー装置3に保存されている第1合成画像DG1及び第1付属情報33を当該他のユーザーが使用できるようになる。そのため、第1拠点へ行ったことのないユーザーが第1拠点に設置されている第1の画像処理装置1を連携させることができるようになり、利便性が更に向上する。
In the present embodiment, not only the first composite image DG1 but also the first attached information 33 corresponding to the first composite image DG1 is stored in the
(第3実施形態)
次に第3実施形態について説明する。上記第1及び第2実施形態では、ユーザーが第1拠点から第2拠点へ移動する前に第1合成画像DG1及び第1付属情報33を生成するため、第1拠点から第2拠点への移動中などに、第1の画像処理装置1に保存されているファイルなどが変更されると、その変更されたファイルなどを連携利用できなくなる可能性がある。そこで本実施形態では、第2拠点で第1及び第2の画像処理装置1,2を連携動作させるときに、第1合成画像DG1を最新の状態にアップデートするようにした形態を説明する。
(Third embodiment)
Next, a third embodiment will be described. In the first and second embodiments, since the first composite image DG1 and the first auxiliary information 33 are generated before the user moves from the first base to the second base, the movement from the first base to the second base. If, for example, a file stored in the first
本実施形態においてもサーバー装置3及び携帯端末4のハードウェア構成及び機能構成は第1実施形態で説明したものと同様である。また本実施形態では、ユーザーが第1拠点にいるときに携帯端末4及びサーバー装置3が行っておく処理は上記第2実施形態と同様である。つまり、本実施形態では、第1拠点で生成される第1合成画像DG1及び第1付属情報33を予めサーバー装置3に保存しておく例について説明する。
Also in the present embodiment, the hardware configuration and functional configuration of the
図16は、第3実施形態においてユーザーが第1拠点から第2拠点へ移動した後に第2拠点で行われる処理手順であって、携帯端末4における第2制御部32と、サーバー装置3における第2情報処理部16及び制御部17によって行われる処理手順の一例を示すフローチャートである。図16に示すように、まずユーザーは、携帯端末4を操作して連携アプリケーション30を第2のモードで起動することにより、連携アプリケーション30の第2制御部32を機能させる(ステップS100)。第2制御部32は、位置検出センサ25から携帯端末4の現在位置を取得し(ステップS101)、その現在位置を示す情報をサーバー装置3へ送信する(ステップS102)。このとき第2制御部32は、ユーザー情報もサーバー装置3へ送信する。
FIG. 16 is a processing procedure performed at the second site after the user has moved from the first site to the second site in the third embodiment, and the
サーバー装置3は、携帯端末4からユーザー情報を受信するとユーザー認証を行い(ステップS103)、そのユーザー認証に成功すると、サーバー装置3において上述した第2情報処理部16が機能する。第2情報処理部16は、ユーザー認証によって特定されたユーザーに関連付けられている第1合成画像DG1及び第1付属情報33を読み出し(ステップS104)、第1付属情報33に基づいて第1の画像処理装置1を特定する(ステップS105)。そしてサーバー装置3は情報取得部14を機能させ、第1の画像処理装置1のデバイス情報18dが更新されているか否かを確認する(ステップS106)。その結果、例えば第1の画像処理装置1に保存されているファイルの削除、追加、変更などがある場合、情報取得部14は、第1の画像処理装置1から最新のデバイス情報を取得し、デバイス登録情報18のデバイス情報18dを更新する(ステップS107)。このとき、情報取得部14は、更新後のデバイス情報18dに対応するタグ画像TG1を生成してタグ画像記憶領域19に保存しておく。例えば第1の画像処理装置1に新たなファイルが追加されているときには、その新たなファイルに対応するタグ画像TG1を追加保存しておく。尚、第1の画像処理装置1のファイルなどが更新されていないときには、デバイス登録情報18のデバイス情報18dは更新しない。その場合は、これ以降、第2実施形態(図15)と同様の処理となる。
When the
その後、サーバー装置3において第2情報処理部16が再び機能し、携帯端末4から受信する現在位置を示す情報に基づいて携帯端末4が撮影しようとしている第2の画像処理装置2を特定する(ステップS108)。第2の画像処理装置2を特定することができると、第2情報処理部16は、予め保存されていた第1合成画像DG1及び第1付属情報33を、その特定した第2の画像処理装置2に関連付けて記憶する(ステップS109)。このとき、第1合成画像DG1及び第1付属情報33を、第2の画像処理装置2に関連付けるのではなく、第2拠点の情報として関連付けるようにしても良い。
After that, the second
そして携帯端末4において第2制御部32がカメラ22を起動する(ステップS110)。これに伴い、第2制御部32は、サーバー装置3に対して再度現在位置を示す情報を送信するようにしても良い。
And in the
そして第2情報処理部16は、携帯端末4で撮影しようとしている第2の画像処理装置2に対応するデバイス情報18dを抽出して携帯端末4に送信する(ステップS111)。また第2情報処理部16は、第2の画像処理装置2のデバイス情報18dに対応するタグ画像TG2をタグ画像記憶領域19から読み出し、そのタグ画像TG2を携帯端末4に送信する(ステップS112)。さらに第2情報処理部16は、ステップS109で第2の画像処理装置2又は第2拠点に関連付けた第1合成画像DG1及び第1付属情報33を読み出し、それらを携帯端末4に送信すると共に、第1の画像処理装置1に関する更新されたデバイス情報18d及びそのデバイス情報18に対応するタグ画像TG1を携帯端末4に送信する(ステップS113)。
Then, the second
携帯端末4の第2制御部32は、サーバー装置3から第1の画像処理装置1に関する更新されたデバイス情報18d及びそのデバイス情報18に対応するタグ画像TG1を受信すると、サーバー装置3から受信する第1合成画像DG1を更新する(ステップS114)。すなわち、第1合成画像DG1に含まれる撮影画像SG1とタグ画像TG1とを一旦分離し、その分離した撮影画像SG1に対して最新のデバイス情報18dに対応する新たなタグ画像TG1を合成して第1合成画像DG1を最新の状態に更新する。また第2制御部32は、その更新後の第1合成画像DG1に基づいて新たに第1付属情報33を生成し、第1付属情報33を更新する(ステップS115)。
When the
次に第2制御部32は、サーバー装置3から受信する第2の画像処理装置2のデバイス情報18dに基づき、第2合成画像DG2を生成し(ステップS116)、その第2合成画像DG2に対応する第2付属情報34を生成する(ステップS117)。そして第2制御部32は、第1合成画像DG1と第2合成画像DG2とを表示部23に並べて表示する(ステップS118)。これ以降の処理(ステップS119〜S122)は、図8に示したステップS41〜S44の処理と同様である。すなわち、携帯端末4は、ユーザーによる操作を検知すると、その操作に基づく操作情報をサーバー装置3へ送信することにより、サーバー装置3が、第1の画像処理装置1と、第2の画像処理装置2とを互いに連携動作させるように制御する。
Next, the
このように本実施形態では、ユーザーが第2拠点で第2の画像処理装置2を撮影しようとするとき、サーバー装置3が第1拠点に設置されている第1の画像処理装置1のデバイス情報が更新されているか否かを確認し、デバイス情報が更新されていれば、最新のデバイス情報とそれに対応する最新のタグ画像とを携帯端末4に送信する。そして携帯端末4は、その最新のデバイス情報とタグ画像に基づいて第1合成画像DG1を更新して表示する。したがって、本実施形態では、ユーザーが第1拠点から第2拠点への移動している間に、第1の画像処理装置1に保存されているファイルなどが変更された場合であっても、その変更を反映させた状態で第1及び第2の画像処理装置1,2を連携動作させることができるので、利便性に優れたものとなる。
As described above, in this embodiment, when the user tries to photograph the second
(第4実施形態)
次に第4実施形態について説明する。上記第1乃至第3実施形態では、携帯端末4において第1合成画像DG1と第2合成画像DG2とが並んだ状態に表示されている状態でユーザーによる操作が検知されると、携帯端末4の第2制御部32が、第1合成画像DG1及び第2合成画像DG2の表示位置及び表示サイズ、並びに、第1付属情報33及び第2付属情報34に基づき、ユーザーによって行われた操作が第1及び第2の画像処理装置1,2のそれぞれにどのような動作を行わせるものであるかを特定する。本実施形態では、そのような操作を特定するための処理をサーバー装置3で行う形態について説明する。
(Fourth embodiment)
Next, a fourth embodiment will be described. In the first to third embodiments, when an operation by the user is detected in a state where the first composite image DG1 and the second composite image DG2 are displayed side by side on the
本実施形態においてもサーバー装置3及び携帯端末4のハードウェア構成及び機能構成は第1実施形態で説明したものと同様である。また本実施形態では、ユーザーが第1拠点にいるときに携帯端末4及びサーバー装置3が行っておく処理は上記第2実施形態と同様である。
Also in the present embodiment, the hardware configuration and functional configuration of the
図17は、第4実施形態においてユーザーが第1拠点から第2拠点へ移動した後に第2拠点で行われる処理手順であって、携帯端末4における第2制御部32と、サーバー装置3における第2情報処理部16及び制御部17によって行われる処理手順の一例を示すフローチャートである。この図17のフローチャートにおいて、ステップS130〜S142の処理は、図15に示したステップS70〜S82の処理と同様であるため、詳しい説明は省略する。
FIG. 17 is a processing procedure performed at the second site after the user has moved from the first site to the second site in the fourth embodiment, and the
携帯端末4の第2制御部32は、第2の画像処理装置2に関する第2合成画像DG2及び第2付属情報34を生成すると(ステップS141,S142)、それらの生成した第2合成画像DG2及び第2付属情報34をサーバー装置3へ送信する(ステップS143)。これにより、サーバー装置3には、第1合成画像DG1、第1付属情報33、第2合成画像DG2及び第2付属情報34が保持される。また第2制御部32は、第1合成画像DG1と第2合成画像DG2とを表示部23に並べて表示すると(ステップS144)、それら第1合成画像DG1及び第2合成画像DG2の表示位置や表示サイズなどを示す表示位置情報をサーバー装置3へ送信する(ステップS145)。これにより、サーバー装置3は、携帯端末4の表示部23において第1合成画像DG1及び第2合成画像DG2のそれぞれがどのような表示位置及び表示サイズで表示されているかを把握することができる。
When the
第2制御部32は、操作検知部24によって表示部23の表示画面に対する操作が検知されると(ステップS146)、その操作に基づく操作情報を生成する。このとき、第2制御部32は、表示画面に対して行われたドラッグアンドドロップ操作の始点や終点などの座標位置を操作検知部24から取得し、その座標位置を含む操作情報を生成する。そして第2制御部32は、その操作情報をサーバー装置3へ送信する(ステップS147)。
When the
サーバー装置3の制御部17は、携帯端末4から操作情報を受信すると、その操作情報を解析する(ステップS148)。すなわち、制御部17は、第1付属情報33及び第2付属情報34に基づき、連携動作の対象となる第1及び第2の画像処理装置1,2を特定する(ステップS149)。また制御部17は、第1合成画像DG1及び第2合成画像DG2の表示位置及び表示サイズ、並びに、第1付属情報33及び第2付属情報34に基づき、第1合成画像DG1及び第2合成画像DG2のそれぞれに合成されている各タグ画像の表示位置を特定する。そして操作情報に含まれる座標位置に基づき、移動対象となるタグ画像や移動先のタグ画像などを検知し、ユーザーによって行われた操作が第1及び第2の画像処理装置1,2のそれぞれにどのような動作を行わせるものであるかを特定する(ステップS150)。その後、制御部17は、第1及び第2の画像処理装置1,2を連携動作させ、ユーザーによって指定された処理の実行を制御する(ステップS151)。
When receiving the operation information from the
このように本実施形態では、携帯端末4において第1合成画像DG1と第2合成画像DG2とが並んだ状態に表示されている状態でユーザーによる操作が検知されると、ユーザーによって行われた操作が第1及び第2の画像処理装置1,2にどのような連携動作を行わせるものであるかをサーバー装置3で判断するようにしている。そのため、携帯端末4での処理負担が軽減されるという利点がある。
Thus, in the present embodiment, when an operation by the user is detected in a state where the first composite image DG1 and the second composite image DG2 are displayed side by side on the
尚、本実施形態においても、第3実施形態で説明したように、ユーザーが第2拠点で第2の画像処理装置2を撮影しようとするとき、サーバー装置3が第1拠点に設置されている第1の画像処理装置1のデバイス情報が更新されているか否かを確認し、デバイス情報が更新されていれば、最新のデバイス情報を携帯端末4に送信するようにしても良い。これにより、ユーザーが第1拠点から第2拠点への移動している間に、第1の画像処理装置1に保存されているファイルなどが変更された場合であっても、その変更を反映させた状態で第1及び第2の画像処理装置1,2を連携動作させることができるようになる。
In this embodiment as well, as described in the third embodiment, when the user tries to photograph the second
(第5実施形態)
次に第5実施形態について説明する。上記第1乃至第4実施形態では、第1合成画像DG1及び第2合成画像DG2のそれぞれを互いに独立した別の画像として取り扱う場合を例示した。本実施形態では、例えば先に生成される第1合成画像DG1を、第2合成画像DG2に含まれるタグ画像(合成用画像)のひとつとして取り扱う形態について説明する。
(Fifth embodiment)
Next, a fifth embodiment will be described. In the first to fourth embodiments, the case where each of the first composite image DG1 and the second composite image DG2 is handled as separate images independent from each other is illustrated. In the present embodiment, for example, a mode in which the first composite image DG1 generated first is handled as one of the tag images (composition images) included in the second composite image DG2 will be described.
本実施形態では、ユーザーが第2拠点で第2の画像処理装置2を撮影すると、携帯端末4には、図18に示すような状態で第1合成画像DG1及び第2合成画像DG2が表示される。すなわち、携帯端末4の第2制御部32は、第2の画像処理装置2を撮影した撮影画像SG2に対し、第2の画像処理装置2のデバイス情報18dに対応するタグ画像TG2と、サーバー装置3から受信する第1合成画像DG1とのそれぞれをタグ画像として合成する。これにより、第1の画像処理装置1を撮影することによって予め生成されていた第1合成画像DG1は、第2の画像処理装置2の撮影画像SG2に合成されるタグ画像TG3となり、第2合成画像DG2の一部として携帯端末4の表示部23に表示される。
In the present embodiment, when the user photographs the second
図19は、上記のようにして第2合成画像DG2が生成される場合の第2付属情報34の一例を示す図である。この第2付属情報34には、撮影画像SG2に合成された第1合成画像DG1に関する合成情報34fが記録される。この合成情報34fの合成画像IDには、第1合成画像DG1を特定するための情報が記録される。そのため、合成情報34fの合成画像IDを参照することにより、第1合成画像DG1に対応する第1付属情報33(図7)を参照することができるようになっている。したがって、図18に示すような表示状態で、ユーザーが第1合成画像DG1のタグ画像TG3の範囲内をタッチしたとき、第2制御部32は、まず第2付属情報34を参照することにより、そのタッチ位置に第1合成画像DG1が表示されていることを検知することができる。そして次に合成情報34fに基づいて第1付属情報33を参照することにより、第2制御部32は、第1合成画像DG1に含まれるタグ画像のうちのいずれがタッチされたかを検知することができる。
FIG. 19 is a diagram illustrating an example of the second attached information 34 when the second composite image DG2 is generated as described above. In the second attached information 34,
このように本実施形態では、第1合成画像DG1を、第2合成画像DG2に含まれるタグ画像のひとつとして取り扱うようにしており、第2合成画像DG2に対応する第2付属情報34に、第1合成画像DG1に対応する第1付属情報33をリンクさせるリンク情報を記録している。それ故、上記各実施形態と同様、携帯端末4において図18のような表示画面が表示されている状態でユーザーによる操作が検知されると、ユーザーによって行われた操作が第1及び第2の画像処理装置1,2にどのような連携動作を行わせるものであるかを正常に検知することができるようになっている。
(変形例)
以上、本発明に関する一実施形態について説明したが、本発明は上記実施形態において説明した内容のものに限られるものではなく、種々の変形例が適用可能である。
As described above, in the present embodiment, the first composite image DG1 is handled as one of the tag images included in the second composite image DG2, and the second attached information 34 corresponding to the second composite image DG2 Link information for linking the first attached information 33 corresponding to one composite image DG1 is recorded. Therefore, as in the above embodiments, when an operation by the user is detected with the display screen as shown in FIG. 18 displayed on the
(Modification)
As mentioned above, although one embodiment related to the present invention was described, the present invention is not limited to the contents described in the above embodiment, and various modifications can be applied.
例えば上記各実施形態では、2つの画像処理装置を相互に連携動作させる場合を例示したが、上述した技術を適用すれば、3つ以上の画像処理装置を同時に連携動作させることも可能である。 For example, in each of the embodiments described above, the case where two image processing apparatuses are operated in cooperation with each other is illustrated. However, if the above-described technique is applied, three or more image processing apparatuses can be operated in cooperation with each other at the same time.
また上記実施形態では、複数の画像処理装置1,2を連携動作させることにより、ファイルの移動、コピー、結合、差分抽出、印刷出力などを行う場合を例示した。しかし、複数の画像処理装置1,2を連携動作させることによって行うことができるジョブは上述したものに限られない。一例を挙げると、ファイル変換やテキスト変換、翻訳処理なども上述した連携動作によって行うことが可能である。
In the above-described embodiment, a case where a plurality of
また上記実施形態においては、各画像処理装置1,2のデバイス情報18dに対応するタグ画像がサーバー装置3において予め生成され、タグ画像記憶領域19に保持されている場合を例示したが、これに限られるものではない。例えば、そのようなタグ画像を携帯端末4がサーバー装置3から受信するデバイス情報18dに基づいて生成するように構成すれば、サーバー装置3においてタグ画像を生成する処理負担が軽減されるため、そのような構成を採用しても良い。
Further, in the above embodiment, the case where the tag image corresponding to the
1,2 画像処理装置
3 サーバー装置
4 携帯端末
13 記憶部(記憶手段)
14 情報取得部(情報取得手段)
15 第1情報処理部(第1情報処理手段)
16 第2情報処理部(第2情報処理手段)
17 制御部(制御手段)
18 デバイス登録情報(登録情報)
22 カメラ(撮像手段)
23 表示部(表示手段)
24 操作検知部(操作検知手段)
25 位置検出センサ(位置検出手段)
28 プログラム
31 第1制御部(第1制御手段)
32 第2制御部(第2制御手段)
DG1 第1合成画像
DG2 第2合成画像
DESCRIPTION OF
14 Information acquisition unit (information acquisition means)
15 1st information processing part (1st information processing means)
16 2nd information processing part (2nd information processing means)
17 Control unit (control means)
18 Device registration information (registration information)
22 Camera (imaging means)
23 Display section (display means)
24 Operation detection unit (operation detection means)
25 Position detection sensor (position detection means)
28
32 2nd control part (2nd control means)
DG1 first composite image DG2 second composite image
Claims (19)
前記サーバー装置は、
前記複数の画像処理装置のそれぞれを特定するための特定情報が予め登録された登録情報を記憶する記憶手段と、
前記複数の画像処理装置のそれぞれからデバイス情報を取得する情報取得手段と、
を備え、
前記携帯端末は、
画像を撮影する撮像手段と、
画像を表示する表示手段と、
前記表示手段に対する操作を検知する操作検知手段と、
前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第1の画像処理装置に対応する第1のデバイス情報を取得し、前記第1の画像処理装置を撮影した撮影画像と前記第1のデバイス情報に対応する画像とを合成した第1合成画像を生成する第1制御手段と、
前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第2の画像処理装置に対応する第2のデバイス情報を取得し、前記第2の画像処理装置を撮影した撮影画像と前記第2のデバイス情報に対応する画像とを合成した第2合成画像を生成し、前記第2合成画像を前記第1合成画像と共に前記表示手段に表示する第2制御手段と、
を備え、
前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示しているとき、前記操作検知手段によって前記第1合成画像及び前記第2合成画像のそれぞれに対する操作が検知されることに伴い、当該操作に基づく操作情報を前記サーバー装置に送信し、
前記サーバー装置は、前記操作情報に基づいて、前記第1及び第2の画像処理装置を連携動作させることを特徴とする画像処理システム。 An image processing system comprising a server device, a portable terminal, and a plurality of image processing devices,
The server device is
Storage means for storing registration information in which specific information for specifying each of the plurality of image processing apparatuses is registered in advance;
Information acquisition means for acquiring device information from each of the plurality of image processing apparatuses;
With
The portable terminal is
Imaging means for taking an image;
Display means for displaying an image;
Operation detecting means for detecting an operation on the display means;
Specific information for specifying the first image processing device when the first image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. To the server device, the first device information corresponding to the first image processing device is acquired from the server device, and the photographed image obtained by photographing the first image processing device and the first device information First control means for generating a first synthesized image obtained by synthesizing an image corresponding to
Specific information for specifying the second image processing device when the second image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. To the server device, the second device information corresponding to the second image processing device is acquired from the server device, and the photographed image obtained by photographing the second image processing device and the second device information A second control unit that generates a second composite image obtained by combining the image corresponding to the second composite image and displays the second composite image together with the first composite image on the display unit;
With
When the second control means is displaying the first composite image and the second composite image on the display means, the operation detection means performs an operation on each of the first composite image and the second composite image. Is detected, the operation information based on the operation is transmitted to the server device,
The server apparatus causes the first and second image processing apparatuses to perform a cooperative operation based on the operation information.
前記携帯端末は、現在位置を検出する位置検出手段を更に備え、
前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を前記サーバー装置に送信することにより前記サーバー装置から前記第1のデバイス情報を取得し、
前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を前記サーバー装置に送信することにより前記サーバー装置から前記第2のデバイス情報を取得することを特徴とする請求項1に記載の画像処理システム。 In the registration information, position information regarding each installation position of the plurality of image processing apparatuses is registered as the specific information.
The portable terminal further includes position detection means for detecting a current position,
The first control unit transmits the current position detected by the position detection unit to the server device when the first image processing device is photographed by the imaging unit, thereby causing the first control unit to transmit the first position from the server device. Get device information
The second control unit transmits the current position detected by the position detecting unit to the server device when the second image processing device is photographed by the imaging unit, thereby causing the second control unit to transmit the second position from the server device. The image processing system according to claim 1, wherein device information is acquired.
前記第2制御手段は、前記撮像手段により前記第2の画像処理装置が撮影された撮影画像を解析することにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする請求項1に記載の画像処理システム。 The first control unit obtains identification information for identifying the first image processing apparatus by analyzing a captured image captured by the first image processing apparatus by the imaging unit, and To the device,
The second control unit acquires specific information for specifying the second image processing device by analyzing a captured image captured by the second image processing device by the imaging unit, and the server The image processing system according to claim 1, wherein the image processing system transmits the image to an apparatus.
前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置と通信を行うことにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする請求項1に記載の画像処理システム。 The first control unit is configured to identify the first image processing device by communicating with the first image processing device when the first image processing device is photographed by the imaging unit. Obtain information and send it to the server device;
The second control unit is configured to identify the second image processing device by communicating with the second image processing device when photographing the second image processing device by the imaging unit. The image processing system according to claim 1, wherein information is acquired and transmitted to the server device.
前記第1制御手段は、前記第1の画像処理装置を撮影した撮影画像に対し、前記第1の画像処理装置に保存されているファイル情報に対応する画像を合成して前記第1合成画像を生成し、
前記第2制御手段は、前記第2の画像処理装置を撮影した撮影画像に対し、前記第2の画像処理装置に保存されているファイル情報に対応する画像を合成して前記第2合成画像を生成することを特徴とする請求項1乃至4のいずれかに記載の画像処理システム。 The information acquisition means acquires file information stored in each of the plurality of image processing apparatuses as the device information,
The first control unit synthesizes an image corresponding to file information stored in the first image processing device with a captured image obtained by photographing the first image processing device, and generates the first composite image. Generate
The second control means synthesizes an image corresponding to the file information stored in the second image processing device with the photographed image obtained by photographing the second image processing device to obtain the second composite image. The image processing system according to claim 1, wherein the image processing system is generated.
前記第1制御手段は、前記第1の画像処理装置を撮影した撮影画像に対し、前記第1の画像処理装置で実行可能な機能情報に対応する画像を合成して前記第1合成画像を生成し、
前記第2制御手段は、前記第2の画像処理装置を撮影した撮影画像に対し、前記第2の画像処理装置で実行可能な機能情報に対応する画像を合成して前記第2合成画像を生成することを特徴とする請求項1乃至6のいずれかに記載の画像処理システム。 The information acquisition unit acquires function information regarding a function executable by each of the plurality of image processing apparatuses as the device information,
The first control means generates the first synthesized image by synthesizing an image corresponding to the function information executable by the first image processing apparatus with a captured image obtained by photographing the first image processing apparatus. And
The second control unit generates the second composite image by synthesizing an image corresponding to the function information executable by the second image processing device with a captured image obtained by photographing the second image processing device. The image processing system according to claim 1, wherein the image processing system is an image processing system.
前記第1又は第2制御手段は、前記合成用画像を、前記撮像手段によって得られた撮影画像に合成することにより前記第1合成画像又は第2合成画像を生成することを特徴とする請求項1乃至7のいずれかに記載の画像処理システム。 When the server device transmits the first or second device information to the mobile terminal, the server device transmits an image for synthesis corresponding to the device information,
The said 1st or 2nd control means produces | generates the said 1st synthesized image or the 2nd synthesized image by synthesize | combining the said image for a synthesis | combination with the picked-up image obtained by the said imaging means. The image processing system according to any one of 1 to 7.
前記第2制御手段は、前記第2合成画像を前記表示手段に表示するとき、前記サーバー装置から前記第1合成画像を取得し、前記第1合成画像と共に前記第2合成画像を表示することを特徴とする請求項1乃至9のいずれかに記載の画像処理システム。 The first control means transmits and stores the first composite image to the server device,
When the second control means displays the second composite image on the display means, the second control means acquires the first composite image from the server device and displays the second composite image together with the first composite image. The image processing system according to claim 1, wherein the image processing system is characterized in that:
前記携帯端末から受信する第1の特定情報に基づき、前記登録情報を参照して前記第1の画像処理装置を特定し、前記第1の画像処理装置に対応する前記第1のデバイス情報を前記携帯端末に送信する第1情報処理手段と、
前記携帯端末から受信する第2の特定情報に基づき、前記登録情報を参照して前記第2の画像処理装置を特定し、前記第2の画像処理装置に対応する前記第2のデバイス情報を前記携帯端末に送信する第2情報処理手段と、
を更に備え、
前記第1制御手段は、前記第1合成画像を前記サーバー装置に送信し、
前記第2情報処理手段は、前記携帯端末から受信する第2の特定情報に基づいて前記第2の画像処理装置を特定することに伴い、前記携帯端末から受信する前記第1合成画像を前記第2の画像処理装置に関連付け、前記第2の画像処理装置に対応する前記第2のデバイス情報を前記携帯端末に送信するときに、前記第2の画像処理装置に関連付けた前記第1合成画像を前記携帯端末に送信することを特徴とする請求項1乃至11のいずれかに記載の画像処理システム。 The server device is
Based on the first identification information received from the portable terminal, the registration information is referred to identify the first image processing apparatus, and the first device information corresponding to the first image processing apparatus is First information processing means for transmitting to the mobile terminal;
Based on the second identification information received from the mobile terminal, the second image processing apparatus is identified with reference to the registration information, and the second device information corresponding to the second image processing apparatus is Second information processing means for transmitting to the mobile terminal;
Further comprising
The first control means transmits the first composite image to the server device,
The second information processing means specifies the second image processing device based on the second specifying information received from the portable terminal, and the first information is received from the portable terminal. When the second device information corresponding to the second image processing apparatus is transmitted to the portable terminal, the first composite image associated with the second image processing apparatus is The image processing system according to claim 1, wherein the image processing system transmits the image to the portable terminal.
画像を撮影する撮像手段と、
画像を表示する表示手段と、
前記表示手段に対する操作を検知する操作検知手段と、
前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第1の画像処理装置に対応する第1のデバイス情報を取得し、前記第1の画像処理装置を撮影した撮影画像と前記第1のデバイス情報に対応する画像とを合成した第1合成画像を生成する第1制御手段と、
前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第2の画像処理装置に対応する第2のデバイス情報を取得し、前記第2の画像処理装置を撮影した撮影画像と前記第2のデバイス情報に対応する画像とを合成した第2合成画像を生成し、前記第2合成画像を前記第1合成画像と共に前記表示手段に表示する第2制御手段と、
を備え、
前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示しているとき、前記操作検知手段によって前記第1合成画像及び前記第2合成画像のそれぞれに対する操作が検知されることに伴い、当該操作に基づく操作情報を前記サーバー装置に送信し、前記第1及び第2の画像処理装置を連携動作させることを特徴とする携帯端末。 A portable terminal capable of communicating with a server device that controls a plurality of image processing devices,
Imaging means for taking an image;
Display means for displaying an image;
Operation detecting means for detecting an operation on the display means;
Specific information for specifying the first image processing device when the first image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. To the server device, the first device information corresponding to the first image processing device is acquired from the server device, and the photographed image obtained by photographing the first image processing device and the first device information First control means for generating a first synthesized image obtained by synthesizing an image corresponding to
Specific information for specifying the second image processing device when the second image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. To the server device, the second device information corresponding to the second image processing device is acquired from the server device, and the photographed image obtained by photographing the second image processing device and the second device information A second control unit that generates a second composite image obtained by combining the image corresponding to the second composite image and displays the second composite image together with the first composite image on the display unit;
With
When the second control means is displaying the first composite image and the second composite image on the display means, the operation detection means performs an operation on each of the first composite image and the second composite image. A mobile terminal that transmits operation information based on the operation to the server device and causes the first and second image processing devices to operate in cooperation with each other.
前記第1制御手段は、前記第1の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を、前記第1の画像処理装置を特定するための特定情報として前記サーバー装置に送信し、
前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記位置検出手段により検出される現在位置を、前記第2の画像処理装置を特定するための特定情報として前記サーバー装置に送信することを特徴とする請求項13に記載の携帯端末。 It further comprises position detection means for detecting the current position,
The first control means uses the current position detected by the position detection means as identification information for identifying the first image processing apparatus when the first image processing apparatus is photographed by the imaging means. Sent to the server device,
The second control means uses the current position detected by the position detection means as identification information for identifying the second image processing apparatus when the second image processing apparatus is photographed by the imaging means. The mobile terminal according to claim 13, wherein the mobile terminal is transmitted to the server device.
前記第2制御手段は、前記撮像手段により前記第2の画像処理装置が撮影された撮影画像を解析することにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする請求項13に記載の携帯端末。 The first control unit obtains identification information for identifying the first image processing apparatus by analyzing a captured image captured by the first image processing apparatus by the imaging unit, and To the device,
The second control unit acquires specific information for specifying the second image processing device by analyzing a captured image captured by the second image processing device by the imaging unit, and the server The mobile terminal according to claim 13, wherein the mobile terminal transmits to a device.
前記第2制御手段は、前記第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置と通信を行うことにより、前記第2の画像処理装置を特定するための特定情報を取得して前記サーバー装置に送信することを特徴とする請求項13に記載の携帯端末。 The first control unit is configured to identify the first image processing device by communicating with the first image processing device when the first image processing device is photographed by the imaging unit. Obtain information and send it to the server device;
The second control unit is configured to identify the second image processing device by communicating with the second image processing device when photographing the second image processing device by the imaging unit. The mobile terminal according to claim 13, wherein information is acquired and transmitted to the server device.
前記複数の画像処理装置のそれぞれを特定するための特定情報が予め登録された登録情報を記憶する記憶手段と、
前記複数の画像処理装置のそれぞれからデバイス情報を取得する情報取得手段と、
前記携帯端末から受信する第1の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第1の画像処理装置を特定し、当該第1の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第1情報処理手段と、
前記携帯端末から受信する第2の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第2の画像処理装置を特定し、当該第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第2情報処理手段と、
前記第2情報処理手段により前記第2の画像処理装置に対応するデバイス情報が前記携帯端末に送信された後、前記携帯端末から操作情報を受信することに伴い、当該操作情報に基づいて前記第1及び第2の画像処理装置を連携動作させる制御手段と、
を備え、
前記第2情報処理手段は、前記第1の画像処理装置が撮影された撮影画像に対して前記第1の画像処理装置に対応するデバイス情報の画像が合成された第1合成画像を前記携帯端末から受信して保持しておき、前記携帯端末から前記第2の特定情報を受信することによって前記第2の画像処理装置を特定することに伴い、前記第1合成画像を前記第2の画像処理装置に関連付け、前記第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信するときに、前記第2の画像処理装置に関連付けた前記第1合成画像を前記携帯端末に送信することを特徴とするサーバー装置。 A server device that controls a plurality of image processing devices by communicating with a mobile terminal,
Storage means for storing registration information in which specific information for specifying each of the plurality of image processing apparatuses is registered in advance;
Information acquisition means for acquiring device information from each of the plurality of image processing apparatuses;
Based on the first identification information received from the portable terminal, the registration information is referred to identify a first image processing device included in the plurality of image processing devices, and corresponds to the first image processing device. First information processing means for transmitting device information to the portable terminal;
Based on the second identification information received from the portable terminal, the second image processing apparatus included in the plurality of image processing apparatuses is identified with reference to the registration information, and the second image processing apparatus is supported. Second information processing means for transmitting device information to the portable terminal;
After the device information corresponding to the second image processing apparatus is transmitted to the mobile terminal by the second information processing means, the operation information is received from the mobile terminal, and the first information is received based on the operation information. Control means for operating the first and second image processing apparatuses in cooperation with each other;
Equipped with a,
The second information processing means outputs a first synthesized image obtained by synthesizing an image of device information corresponding to the first image processing apparatus to a photographed image obtained by photographing the first image processing apparatus. And receiving the second specifying information from the portable terminal, and specifying the second image processing device by receiving the second specifying information from the portable terminal. associated with the device, the device information corresponding to the second image processing apparatus when transmitting to the portable terminal, Rukoto to transmit the first composite image associated with the second image processing apparatus to the portable terminal Server device characterized by.
前記複数の画像処理装置のそれぞれからデバイス情報を取得する情報取得手段、
前記携帯端末から受信する第1の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第1の画像処理装置を特定し、当該第1の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第1情報処理手段、
前記携帯端末から受信する第2の特定情報に基づき、前記登録情報を参照して前記複数の画像処理装置に含まれる第2の画像処理装置を特定し、当該第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信する第2情報処理手段、及び、
前記第2情報処理手段により前記第2の画像処理装置に対応するデバイス情報が前記携帯端末に送信された後、前記携帯端末から操作情報を受信することに伴い、当該操作情報に基づいて前記第1及び第2の画像処理装置を連携動作させる制御手段、
として機能させ、
前記第2情報処理手段は、前記第1の画像処理装置が撮影された撮影画像に対して前記第1の画像処理装置に対応するデバイス情報の画像が合成された第1合成画像を前記携帯端末から受信して保持しておき、前記携帯端末から前記第2の特定情報を受信することによって前記第2の画像処理装置を特定することに伴い、前記第1合成画像を前記第2の画像処理装置に関連付け、前記第2の画像処理装置に対応するデバイス情報を前記携帯端末に送信するときに、前記第2の画像処理装置に関連付けた前記第1合成画像を前記携帯端末に送信することを特徴とするプログラム。 A storage unit that stores registration information in which specific information for specifying each of a plurality of image processing devices is registered in advance is executed in a server device that controls the plurality of image processing devices by communicating with a mobile terminal. The server device is a program to be executed.
Information acquisition means for acquiring device information from each of the plurality of image processing apparatuses;
Based on the first identification information received from the portable terminal, the registration information is referred to identify a first image processing device included in the plurality of image processing devices, and corresponds to the first image processing device. First information processing means for transmitting device information to the portable terminal;
Based on the second identification information received from the portable terminal, the second image processing apparatus included in the plurality of image processing apparatuses is identified with reference to the registration information, and the second image processing apparatus is supported. Second information processing means for transmitting device information to the portable terminal; and
After the device information corresponding to the second image processing apparatus is transmitted to the mobile terminal by the second information processing means, the operation information is received from the mobile terminal, and the first information is received based on the operation information. Control means for operating the first and second image processing apparatuses in cooperation with each other;
Function as
The second information processing means outputs a first synthesized image obtained by synthesizing an image of device information corresponding to the first image processing apparatus to a photographed image obtained by photographing the first image processing apparatus. And receiving the second specifying information from the portable terminal, and specifying the second image processing device by receiving the second specifying information from the portable terminal. Transmitting the first composite image associated with the second image processing device to the mobile terminal when transmitting device information corresponding to the second image processing device to the mobile terminal. A featured program.
前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第1の画像処理装置を前記撮像手段により撮影するとき、前記第1の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第1の画像処理装置に対応する第1のデバイス情報を取得し、前記第1の画像処理装置を撮影した撮影画像と前記第1のデバイス情報に対応する画像とを合成した第1合成画像を生成する第1制御手段、及び、
前記操作検知手段により検知される操作に基づいて前記複数の画像処理装置に含まれる第2の画像処理装置を前記撮像手段により撮影するとき、前記第2の画像処理装置を特定するための特定情報を前記サーバー装置に送信して前記サーバー装置から前記第2の画像処理装置に対応する第2のデバイス情報を取得し、前記第2の画像処理装置を撮影した撮影画像と前記第2のデバイス情報に対応する画像とを合成した第2合成画像を生成し、前記第2合成画像を前記第1合成画像と共に前記表示手段に表示する第2制御手段、
として機能させ、
前記第2制御手段は、前記第1合成画像と前記第2合成画像とを前記表示手段に表示しているとき、前記操作検知手段によって前記第1合成画像及び前記第2合成画像のそれぞれに対する操作が検知されることに伴い、当該操作に基づく操作情報を前記サーバー装置に送信し、前記第1及び第2の画像処理装置を連携動作させることを特徴とするプログラム。 In a portable terminal that can communicate with a server device that controls a plurality of image processing devices, and includes an imaging unit that captures an image, a display unit that displays an image, and an operation detection unit that detects an operation on the display unit A program to be executed, wherein the portable terminal is
Specific information for specifying the first image processing device when the first image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. To the server device, the first device information corresponding to the first image processing device is acquired from the server device, and the photographed image obtained by photographing the first image processing device and the first device information First control means for generating a first synthesized image obtained by synthesizing an image corresponding to
Specific information for specifying the second image processing device when the second image processing device included in the plurality of image processing devices is photographed by the imaging unit based on an operation detected by the operation detection unit. To the server device, the second device information corresponding to the second image processing device is acquired from the server device, and the photographed image obtained by photographing the second image processing device and the second device information A second control unit that generates a second composite image obtained by combining the image corresponding to the second composite image and displays the second composite image together with the first composite image on the display unit;
Function as
When the second control means is displaying the first composite image and the second composite image on the display means, the operation detection means performs an operation on each of the first composite image and the second composite image. A program that transmits operation information based on the operation to the server device and causes the first and second image processing devices to operate in cooperation with each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013188455A JP6171764B2 (en) | 2013-09-11 | 2013-09-11 | Image processing system, portable terminal, server device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013188455A JP6171764B2 (en) | 2013-09-11 | 2013-09-11 | Image processing system, portable terminal, server device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015055987A JP2015055987A (en) | 2015-03-23 |
JP6171764B2 true JP6171764B2 (en) | 2017-08-02 |
Family
ID=52820354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013188455A Expired - Fee Related JP6171764B2 (en) | 2013-09-11 | 2013-09-11 | Image processing system, portable terminal, server device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6171764B2 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170262739A1 (en) * | 2016-03-09 | 2017-09-14 | Seiko Epson Corporation | Configuration of Equipment with Retailer and Geolocation Information |
JP6179653B1 (en) * | 2016-10-19 | 2017-08-16 | 富士ゼロックス株式会社 | Information processing apparatus and program |
US10567608B2 (en) | 2016-05-06 | 2020-02-18 | Fuji Xerox Co., Ltd. | Information processing apparatus and non-transitory computer readable medium |
JP6708135B2 (en) * | 2017-01-10 | 2020-06-10 | 富士ゼロックス株式会社 | Information processing device and program |
JP6881033B2 (en) * | 2017-05-26 | 2021-06-02 | ブラザー工業株式会社 | Management server |
JP6455551B2 (en) * | 2017-06-07 | 2019-01-23 | 富士ゼロックス株式会社 | Information processing apparatus and program |
JP6443498B2 (en) * | 2017-06-07 | 2018-12-26 | 富士ゼロックス株式会社 | Information processing apparatus and program |
JP6493466B2 (en) | 2017-07-28 | 2019-04-03 | 富士ゼロックス株式会社 | Information processing apparatus and program |
JP7173266B2 (en) * | 2017-07-28 | 2022-11-16 | 富士フイルムビジネスイノベーション株式会社 | Information processing device, program and control method |
JP6958069B2 (en) * | 2017-07-28 | 2021-11-02 | 富士フイルムビジネスイノベーション株式会社 | Information processing equipment and programs |
JP2019159848A (en) | 2018-03-13 | 2019-09-19 | 富士ゼロックス株式会社 | Information processing device and program |
JP7119445B2 (en) | 2018-03-13 | 2022-08-17 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
JP7206737B2 (en) * | 2018-09-20 | 2023-01-18 | 富士フイルムビジネスイノベーション株式会社 | Information processing device, information processing system and program |
JP6743928B2 (en) * | 2019-02-20 | 2020-08-19 | 富士ゼロックス株式会社 | Information processing device and program |
JP6895669B1 (en) * | 2020-05-01 | 2021-06-30 | 株式会社エクサウィザーズ | Terminals, servers, programs and methods |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5257437B2 (en) * | 2010-10-20 | 2013-08-07 | コニカミノルタビジネステクノロジーズ株式会社 | Method for operating portable terminal and processing device |
JP5811722B2 (en) * | 2011-09-15 | 2015-11-11 | コニカミノルタ株式会社 | Image processing system, server, control method, and control program |
JP5845919B2 (en) * | 2012-01-23 | 2016-01-20 | コニカミノルタ株式会社 | Image processing apparatus management apparatus, image processing apparatus management apparatus control method, image processing apparatus management apparatus control program, operation terminal, operation terminal control method, and operation terminal control program |
JP5989347B2 (en) * | 2012-02-03 | 2016-09-07 | コニカミノルタ株式会社 | Portable terminal, portable terminal control program, and display system including portable terminal |
-
2013
- 2013-09-11 JP JP2013188455A patent/JP6171764B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015055987A (en) | 2015-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6171764B2 (en) | Image processing system, portable terminal, server device, and program | |
US11800026B2 (en) | Information processing apparatus and non-transitory computer readable medium | |
JP5257437B2 (en) | Method for operating portable terminal and processing device | |
JP4997783B2 (en) | Electronic conference system, electronic conference support program, electronic conference control device, information terminal device, electronic conference support method | |
JP6052459B1 (en) | Information processing apparatus and program | |
JP6179653B1 (en) | Information processing apparatus and program | |
JP6052458B1 (en) | Information processing apparatus and program | |
JP4997175B2 (en) | Object management device, portable terminal, and object operation method | |
JP5922067B2 (en) | Image forming system | |
JP6958069B2 (en) | Information processing equipment and programs | |
JP6493466B2 (en) | Information processing apparatus and program | |
JP6146528B1 (en) | Information processing apparatus and program | |
JP6160761B1 (en) | Information processing apparatus and program | |
JP2012194649A (en) | Image processing system | |
CN107346218B (en) | Information processing apparatus, information processing method, and computer program | |
JP6327387B2 (en) | Information processing apparatus and program | |
JP6443498B2 (en) | Information processing apparatus and program | |
JP2013254244A (en) | Information terminal and control method of the same, and program | |
JP2019036127A (en) | Information processing device and program | |
JP2019029805A (en) | Information processing apparatus and program | |
JP2015005026A (en) | Device management terminal, device management system, and device management program | |
JP6455551B2 (en) | Information processing apparatus and program | |
JP2018129097A (en) | Information processing apparatus and program | |
JP6443497B2 (en) | Information processing apparatus and program | |
JP2018112860A (en) | Information processing device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6171764 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |