JP2019068442A - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP2019068442A
JP2019068442A JP2018222752A JP2018222752A JP2019068442A JP 2019068442 A JP2019068442 A JP 2019068442A JP 2018222752 A JP2018222752 A JP 2018222752A JP 2018222752 A JP2018222752 A JP 2018222752A JP 2019068442 A JP2019068442 A JP 2019068442A
Authority
JP
Japan
Prior art keywords
function
image
information
terminal device
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018222752A
Other languages
Japanese (ja)
Inventor
賢吾 得地
Kengo Tokuchi
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2018222752A priority Critical patent/JP2019068442A/en
Publication of JP2019068442A publication Critical patent/JP2019068442A/en
Pending legal-status Critical Current

Links

Abstract

To provide an information processing apparatus and a program that can change functions using an image.SOLUTION: A function is changed according to a portion where a first image linked to a first function and a second image linked to a second function overlap each other. The first image and the second image are displayed on display means. A user overlaps all or part of the first image on all or part of the second image on the display means. A display color of the overlapped portion is changed.SELECTED DRAWING: Figure 34

Description

本発明は、情報処理装置及びプログラムに関する。   The present invention relates to an information processing apparatus and program.

装置本体とユーザインターフェースとが分離したシステムが利用される場合がある。例えば特許文献1には、装置本体と着脱可能で無線通信可能な操作パネルに、操作の案内を示す画像を表示する技術が開示されている。   A system in which the device body and the user interface are separated may be used. For example, Patent Document 1 discloses a technique for displaying an image indicating guidance of an operation on an operation panel that can be wirelessly communicated with an apparatus body.

特許文献2には、クライアント装置とサービスを提供するサービス提供装置との間でデータの中継を行う中継装置が開示されている。   Patent Document 2 discloses a relay apparatus that relays data between a client apparatus and a service providing apparatus that provides a service.

特許文献3には、撮像手段によって撮像された撮像画像に画像形成装置の状態情報を含む付加情報を重畳させた拡張現実画像を生成する携帯端末が開示されている。   Patent Document 3 discloses a portable terminal that generates an augmented reality image in which additional information including state information of an image forming apparatus is superimposed on a captured image captured by an imaging unit.

特許文献4には、複数のクラウドサーバと通信する通信システムにおいて、ユーザによる各クラウドサーバの利用状況を、当該ユーザがログインに際して操作した機器のディスプレイに表示する技術が開示されている。   Patent Document 4 discloses a technology for displaying the usage status of each cloud server by a user on a display of a device operated by the user at the time of login in a communication system that communicates with a plurality of cloud servers.

特許第5737906号Patent No. 5737906 特開2014−10769号公報JP, 2014-10769, A 特開2014−48672号公報JP, 2014-48672, A 特開2014−238786号公報JP 2014-238786 A

本発明の目的は、画像を用いて機能を変えることにある。   An object of the present invention is to change functions using an image.

請求項1に係る発明は、第1機能に紐付く第1画像と第2機能に紐付く第2画像とが互いに重なる部分に応じて機能を変える制御手段、を有する情報処理装置である。   The invention according to claim 1 is an information processing apparatus having control means for changing a function according to a portion where a first image attached to a first function and a second image attached to a second function overlap each other.

請求項2に係る発明は、前記機能は、前記重なる部分に対応する機能を利用する、ことを特徴とする請求項1に記載の情報処理装置である。   The invention according to claim 2 is the information processing apparatus according to claim 1, wherein the function uses a function corresponding to the overlapping portion.

請求項3に係る発明は、前記第1画像と前記第2画像は表示手段に表示され、前記表示手段上にてユーザによって前記第1画像の全体又は部分が前記第2画像の全体又は部分に重ねられる、ことを特徴とする請求項1又は請求項2に記載の情報処理装置である。   In the invention according to claim 3, the first image and the second image are displayed on the display means, and the whole or the part of the first image is displayed on the whole or the part of the second image by the user on the display means. The information processing apparatus according to claim 1, wherein the information processing apparatus is overlapped.

請求項4に係る発明は、前記制御手段は、前記重ねられた部分の表示色を変える、ことを特徴とする請求項1から請求項3何れかに記載の情報処理装置である。   The invention according to claim 4 is the information processing apparatus according to any one of claims 1 to 3, wherein the control means changes the display color of the overlapped portion.

請求項5に係る発明は、コンピュータを、第1機能に紐付く第1画像と第2機能に紐付く第2画像とが互いに重なる部分に応じて機能を変える制御手段、として機能させるプログラムである。   The invention according to claim 5 is a program that causes a computer to function as control means that changes a function according to a portion where a first image attached to a first function and a second image attached to a second function overlap each other. .

請求項1−5に係る発明によれば、画像を用いて機能を変えることができる。   According to the invention which concerns on Claim 1-5, a function can be changed using an image.

本発明の第1実施形態に係る画像形成システムを示すブロック図である。FIG. 1 is a block diagram showing an image forming system according to a first embodiment of the present invention. 第1実施形態に係る画像形成装置を示すブロック図である。FIG. 1 is a block diagram showing an image forming apparatus according to a first embodiment. 第1実施形態に係るサーバを示すブロック図である。It is a block diagram showing a server concerning a 1st embodiment. 第1実施形態に係る端末装置を示すブロック図である。It is a block diagram showing a terminal unit concerning a 1st embodiment. 画像形成装置の外観を示す模式図である。FIG. 1 is a schematic view showing an appearance of an image forming apparatus. 機器機能管理テーブルの一例を示す図である。It is a figure which shows an example of an apparatus function management table. 連携機能管理テーブルの一例を示す図である。It is a figure which shows an example of a cooperation function management table. 端末装置に表示される機能表示画面の一例を示す図である。It is a figure which shows an example of the function display screen displayed on a terminal device. 連携対象の機器を示す図である。It is a figure which shows the apparatus of cooperation object. 第1実施形態において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in 1st Embodiment. 第1実施形態において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in 1st Embodiment. 変形例1に係る機器機能管理テーブルの一例を示す図である。It is a figure which shows an example of the apparatus function management table which concerns on the modification 1. FIG. 変形例1において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in the modification 1. FIG. 変形例1において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in the modification 1. FIG. 変形例1において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in the modification 1. FIG. 変形例2において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in modification 2. FIG. 変形例2において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in modification 2. FIG. 変形例2において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in modification 2. FIG. 変形例3において端末装置に表示される画面の一例を示す図である。FIG. 18 is a diagram showing an example of a screen displayed on the terminal device in the modification 3. 変形例4において端末装置に表示される画面の一例を示す図である。FIG. 18 is a diagram showing an example of a screen displayed on the terminal device in the modification 4; 第1実施形態に係る画像形成システムにおける接続処理を示すシーケンス図である。FIG. 6 is a sequence diagram showing connection processing in the image forming system according to the first embodiment. 第2実施形態に係るサーバを示すブロック図である。It is a block diagram showing the server concerning a 2nd embodiment. 連携機能管理テーブルの一例を示す図である。It is a figure which shows an example of a cooperation function management table. 第2実施形態において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in 2nd Embodiment. 第2実施形態において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in 2nd Embodiment. 変形例5において端末装置に表示される画面の一例を示す図である。FIG. 18 is a diagram showing an example of a screen displayed on the terminal device in the fifth modification. 変形例5において端末装置に表示される画面の一例を示す図である。FIG. 18 is a diagram showing an example of a screen displayed on the terminal device in the fifth modification. 変形例5において端末装置に表示される画面の一例を示す図である。FIG. 18 is a diagram showing an example of a screen displayed on the terminal device in the fifth modification. 変形例6において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in the modification 6. FIG. 変形例6において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in the modification 6. FIG. 変形例6において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in the modification 6. FIG. 変形例7において端末装置に表示される画面の一例を示す図である。FIG. 21 is a diagram illustrating an example of a screen displayed on a terminal device in a modification 7; 変形例8において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in the modification 8. FIG. 変形例10において端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device in modification 10. FIG. 端末装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal device.

[第1実施形態]
図1を参照して、本発明の第1実施形態に係る情報処理システムとしての画像形成システムについて説明する。図1には、第1実施形態に係る画像形成システムの一例が示されている。
First Embodiment
An image forming system as an information processing system according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 shows an example of the image forming system according to the first embodiment.

第1実施形態に係る画像形成システムは、機器の一例としての画像形成装置10と、機器の一例としての端末装置12と、サーバ14と、情報処理装置の一例としての端末装置16と、を含む。画像形成装置10、端末装置12,16及びサーバ14は、ネットワーク等の通信経路Nを介して互いに接続されている。もちろん、画像形成装置10、端末装置12,16及びサーバ14は、それぞれ異なる通信経路を介して他の装置に接続されてもよい。図1に示す例では、2つの機器(画像形成装置10と端末装置12)が画像形成システムに含まれているが、1つ以上の機器が画像形成システムに含まれていればよい。また、複数のサーバ14及び複数の端末装置16が、画像形成システムに含まれていてもよい。   The image forming system according to the first embodiment includes an image forming apparatus 10 as an example of an apparatus, a terminal apparatus 12 as an example of an apparatus, a server 14 and a terminal apparatus 16 as an example of an information processing apparatus. . The image forming apparatus 10, the terminal devices 12 and 16, and the server 14 are connected to one another via a communication path N such as a network. Of course, the image forming apparatus 10, the terminal devices 12 and 16, and the server 14 may be connected to other devices via different communication paths. Although two devices (the image forming apparatus 10 and the terminal device 12) are included in the image forming system in the example illustrated in FIG. 1, one or more devices may be included in the image forming system. Also, a plurality of servers 14 and a plurality of terminal devices 16 may be included in the image forming system.

画像形成装置10は画像形成機能を備えた装置である。具体的には、画像形成装置10は、スキャン機能、プリント機能、コピー機能及びファクシミリ機能の中の少なくとも1つの機能を備えた装置である。また、画像形成装置10は、他の装置との間でデータを送受信する機能を備えている。   The image forming apparatus 10 is an apparatus having an image forming function. Specifically, the image forming apparatus 10 is an apparatus provided with at least one of a scan function, a print function, a copy function, and a facsimile function. In addition, the image forming apparatus 10 has a function of transmitting and receiving data to and from another apparatus.

端末装置12,16は、PC(パーソナルコンピュータ)、タブレットPC、スマートフォン、携帯電話、等の装置であり、他の装置との間でデータを送受信する機能を備えている。端末装置16は、例えば、画像形成装置10等の機器の利用時に、ユーザインターフェース部(UI部)として機能する。   The terminal devices 12 and 16 are devices such as a PC (personal computer), a tablet PC, a smartphone, and a mobile phone, and have a function of transmitting and receiving data to and from other devices. The terminal device 16 functions as a user interface unit (UI unit), for example, when using an apparatus such as the image forming apparatus 10 or the like.

サーバ14は、各機器が有する機能を管理する装置である。例えば、サーバ14は、複数の機能を連携させることによって実行される連携機能を管理する。また、サーバ14は、他の装置との間でデータを送受信する機能を備えている。   The server 14 is a device that manages the function of each device. For example, the server 14 manages a collaboration function that is executed by linking a plurality of functions. The server 14 also has a function of transmitting and receiving data to and from other devices.

図1に示す例では、機器の一例として、画像形成装置10と端末装置12が画像形成システムに含まれているが、これは一例に過ぎない。プロジェクタ等の表示装置、電話機、時計、監視カメラ、等の装置が、機器として画像形成システムに含まれていてもよい。もちろん、画像形成装置10や端末装置12が画像形成システムに含まれていなくてもよい。   In the example shown in FIG. 1, the image forming apparatus 10 and the terminal device 12 are included in the image forming system as an example of the device, but this is merely an example. A display device such as a projector, a device such as a telephone, a watch, a surveillance camera, or the like may be included as an apparatus in the image forming system. Of course, the image forming apparatus 10 and the terminal device 12 may not be included in the image forming system.

なお、サーバ14は、ユーザ毎に、ユーザによって利用可能な機能を管理してもよい。例えば、ユーザによって購入された機能が当該ユーザによって利用可能な機能であり、サーバ14は、ユーザ毎に機能購入履歴を管理してもよい。もちろん、無料で利用できる機能、追加アップデータ機能、管理者によって特別に管理されている機能等もあるので、サーバ14は、一概に購入の有無による機能を管理しているだけではない。機能の購入処理は、例えば、サーバ14によって行われる。もちろん、別の装置によって購入処理が行われてもよい。   The server 14 may manage, for each user, functions available to the user. For example, the function purchased by the user is a function available to the user, and the server 14 may manage the function purchase history for each user. Of course, since there are functions available free of charge, functions of additional update data, functions specially managed by the administrator, etc., the server 14 not only manages functions according to the presence or absence of purchase. The purchase process of the function is performed by, for example, the server 14. Of course, the purchase process may be performed by another device.

第1実施形態に係る画像形成システムにおいては、複数の機能を連携させることによって実行される連携機能が特定され、複数の連携機能に関する情報が優先順位に従って表示される。   In the image forming system according to the first embodiment, a cooperation function to be executed is specified by causing a plurality of functions to cooperate, and information on the plurality of cooperation functions is displayed in the order of priority.

以下、第1実施形態に係る画像形成システムに含まれる各装置について詳しく説明する。   Hereinafter, each device included in the image forming system according to the first embodiment will be described in detail.

まず、図2を参照して、画像形成装置10の構成について詳しく説明する。図2には、画像形成装置10の構成が示されている。   First, the configuration of the image forming apparatus 10 will be described in detail with reference to FIG. The configuration of the image forming apparatus 10 is shown in FIG.

通信部18は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を備えている。通信部18は、無線通信機能を備えた通信インターフェースであってもよいし、有線通信機能を備えた通信インターフェースであってもよい。   The communication unit 18 is a communication interface, and has a function of transmitting data to another device and a function of receiving data from the other device. The communication unit 18 may be a communication interface having a wireless communication function, or may be a communication interface having a wired communication function.

画像形成部20は画像形成に関する機能を実行する。具体的には、画像形成部20は、スキャン機能、プリント機能、コピー機能及びファクシミリ機能の中の少なくとも1つの機能を実行する。スキャン機能が実行されることにより、原稿が読み取られてスキャンデータ(画像データ)が生成される。プリント機能が実行されることにより、画像が用紙等の記録媒体上に印刷される。コピー機能が実行されることにより、原稿が読み取られて記録媒体上に印刷される。ファクシミリ機能が実行されることにより、画像データがファクシミリ送信又はファクシミリ受信される。また、複数の機能を連携させた連携機能が実行されてもよい。例えば、スキャン機能と送信機能(転送機能)とを組み合わせたスキャン転送機能が実行されてもよい。このスキャン転送機能が実行されることにより、原稿が読み取られてスキャンデータ(画像データ)が生成され、そのスキャンデータが送信先(例えば端末装置16等の外部装置)に送信される。もちろん、この連携機能は一例に過ぎず、別の連携機能が実行されてもよい。   The image forming unit 20 performs a function related to image formation. Specifically, the image forming unit 20 executes at least one of the scan function, the print function, the copy function, and the facsimile function. By executing the scan function, the document is read and scan data (image data) is generated. By executing the print function, an image is printed on a recording medium such as paper. By executing the copy function, the original is read and printed on the recording medium. By executing the facsimile function, image data is transmitted by facsimile or received by facsimile. Further, a cooperation function in which a plurality of functions are cooperated may be executed. For example, a scan transfer function combining the scan function and the transmission function (transfer function) may be performed. By executing the scan transfer function, a document is read to generate scan data (image data), and the scan data is transmitted to a transmission destination (for example, an external device such as the terminal device 16). Of course, this cooperation function is only an example, and another cooperation function may be executed.

記憶部22はハードディスクやSSD等の記憶装置である。記憶部22には、例えば、画像形成の命令を示す情報(例えばジョブ情報等)、プリントの対象となる画像データ、スキャン機能を実行することにより生成されたスキャンデータ、他の機器のアドレスを示す機器アドレス情報、サーバ14のアドレスを示すサーバアドレス情報、各種の制御データ、各種のプログラム、等が記憶される。もちろん、それらは別々の記憶装置に記憶されてもよいし、1つの記憶装置に記憶されてもよい。   The storage unit 22 is a storage device such as a hard disk or an SSD. The storage unit 22 indicates, for example, information indicating a command for image formation (for example, job information etc.), image data to be printed, scan data generated by executing a scan function, and addresses of other devices. Device address information, server address information indicating the address of the server 14, various control data, various programs, and the like are stored. Of course, they may be stored in separate storage devices, or may be stored in one storage device.

UI部24はユーザインターフェース部であり、表示部と操作部を含む。表示部は、例えば液晶ディスプレイ等の表示装置である。操作部は、例えばタッチパネルやキーボード等の入力装置である。なお、画像形成装置10はUI部24を備えていなくてもよいし、表示部を備えずに、ハードウェアとしてのハードウェアユーザインターフェース部(ハードウェアUI部)を備えていてもよい。ハードウェアUI部は、例えば、数字入力に特化したハードウェアキー(例えばテンキー)、方向の指示に特化したハードウェアキー(例えば方向指示キー)、等である。   The UI unit 24 is a user interface unit, and includes a display unit and an operation unit. The display unit is, for example, a display device such as a liquid crystal display. The operation unit is, for example, an input device such as a touch panel or a keyboard. The image forming apparatus 10 may not include the UI unit 24 or may include a hardware user interface unit (hardware UI unit) as hardware without including the display unit. The hardware UI unit is, for example, a hardware key specialized for numeric input (for example, a ten key), a hardware key specialized for direction indication (for example, a direction indication key), or the like.

制御部26は、画像形成装置10の各部の動作を制御する。   The control unit 26 controls the operation of each unit of the image forming apparatus 10.

次に、図3を参照して、サーバ14の構成について詳しく説明する。図3には、サーバ14の構成が示されている。   Next, the configuration of the server 14 will be described in detail with reference to FIG. The configuration of the server 14 is shown in FIG.

通信部28は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を備えている。通信部28は、無線通信機能を備えた通信インターフェースであってもよいし、有線通信機能を備えた通信インターフェースであってもよい。   The communication unit 28 is a communication interface, and has a function of transmitting data to another device and a function of receiving data from the other device. The communication unit 28 may be a communication interface having a wireless communication function, or may be a communication interface having a wired communication function.

記憶部30はハードディスクやSSD等の記憶装置である。記憶部30には、例えば、機器機能情報32、連携機能情報34、各種のデータ、各種のプログラム、各機器のアドレスを示す機器アドレス情報、サーバ14のアドレスを示すサーバアドレス情報、等が記憶されている。もちろん、それらは別々の記憶装置に記憶されてもよいし、1つの記憶装置に記憶されてもよい。記憶部30に記憶されている機器機能情報32や連携機能情報34が、定期的に又は指定されたタイミングで端末装置16に提供され、これにより、端末装置16に記憶されている情報が更新されてもよい。以下、機器機能情報32と連携機能情報34について説明する。   The storage unit 30 is a storage device such as a hard disk or an SSD. The storage unit 30 stores, for example, device function information 32, cooperation function information 34, various data, various programs, device address information indicating the address of each device, server address information indicating the address of the server 14, etc. ing. Of course, they may be stored in separate storage devices, or may be stored in one storage device. The device function information 32 and the cooperation function information 34 stored in the storage unit 30 are provided to the terminal device 16 periodically or at designated timing, whereby the information stored in the terminal device 16 is updated. May be The device function information 32 and the cooperation function information 34 will be described below.

機器機能情報32は、画像形成システムに含まれる各機器(例えば画像形成装置10や端末装置12)が有する機能を示す情報であり、例えば、機器を識別するための機器識別情報と、当該機器が有する機能を識別するための機能識別情報と、の対応付けを示す情報である。機器識別情報は、例えば、機器ID、機器名称、機器の種類を示す情報、型番号、位置情報、等である。機能識別情報は、例えば、機能IDや機能名称等である。例えば、ある画像形成装置10がスキャン機能、プリント機能、コピー機能及びスキャン転送機能を備えている場合、当該画像形成装置10の機器識別情報には、スキャン機能を示す機能識別情報、プリント機能を示す機能識別情報、コピー機能を示す機能識別情報及びスキャン転送機能を示す機能識別情報が対応付けられている。機器機能情報32を参照することにより、各機器が有する機能が特定(識別)される。   The device function information 32 is information indicating the function of each device (for example, the image forming apparatus 10 and the terminal device 12) included in the image forming system, and, for example, device identification information for identifying the device and the device It is information which shows correspondence with function identification information for identifying a function which it has. The device identification information is, for example, a device ID, a device name, information indicating a type of device, a model number, position information, and the like. The function identification information is, for example, a function ID or a function name. For example, when an image forming apparatus 10 has a scan function, a print function, a copy function, and a scan transfer function, the device identification information of the image forming apparatus 10 indicates function identification information indicating a scan function, and a print function. The function identification information, the function identification information indicating the copy function, and the function identification information indicating the scan transfer function are associated with each other. By referring to the device function information 32, the function that each device has is identified (identified).

連携機能情報34は、複数の機能を連携させることによって実行される連携機能を示す情報である。複数の機能を連携させることによって、1又は複数の連携機能が実行される。連携機能は、1つの機器(例えば画像形成装置10又は端末装置12)が有する複数の機能を連携させることによって実行されてもよいし、複数の機器(例えば画像形成装置10と端末装置12)が有する複数の機能を連携させることによって実行されてもよい。また、操作指示を出している端末装置(本実施形態では、端末装置16)も識別対象の機器に含め、端末装置が有する機能を連携機能の一部として利用するようにしてもよい。   The cooperation function information 34 is information indicating a cooperation function executed by causing a plurality of functions to cooperate. By linking a plurality of functions, one or more linking functions are executed. The cooperation function may be executed by linking a plurality of functions of one device (for example, the image forming apparatus 10 or the terminal device 12), or a plurality of devices (for example, the image forming apparatus 10 and the terminal device 12) It may be implemented by linking a plurality of functions that it has. Further, the terminal device (in the present embodiment, the terminal device 16) issuing the operation instruction may be included in the device to be identified, and the function of the terminal device may be used as part of the cooperation function.

連携機能情報34は、例えば、連携機能を実行するために連携される各機能を識別するための機能識別情報の組み合わせを示す情報と、当該連携機能を識別するための連携機能識別情報と、当該連携機能に利用される各機能を接続する順番を示す情報と、当該連携機能の表示の優先順位を示す情報と、の対応付けを示す情報である。連携機能識別情報は、例えば、連携機能IDや連携機能名称等である。表示の優先順位は、端末装置16において連携機能に関する情報(例えば連携機能識別情報)が表示される順位である。   The cooperation function information 34 includes, for example, information indicating a combination of function identification information for identifying each function to be cooperated to execute the cooperation function, cooperation function identification information for identifying the cooperation function, and The information indicates the correspondence between information indicating the order of connecting each function used for the collaboration function and information indicating the display priority of the collaboration function. The cooperation function identification information is, for example, a cooperation function ID or a cooperation function name. The display priority is the order in which the terminal device 16 displays information on the cooperation function (for example, cooperation function identification information).

複数の機器を連携させる場合、連携機能情報34は、複数の機器が有する複数の機能を連携させることによって実行される連携機能を示す情報であり、連携機能を実行するために連携される各機器を識別するための機器識別情報の組み合わせを示す情報と、連携機能識別情報と、当該連携機能に利用される各機器を接続する順番を示す情報と、当該連携機能の表示の優先順位を示す情報と、の対応付けを示す情報である。   In the case of linking a plurality of devices, the linking function information 34 is information indicating a linking function to be executed by linking a plurality of functions possessed by the plurality of devices, and each device linked to execute the linking function Information indicating the combination of the device identification information for identifying the information, the cooperation function identification information, the information indicating the order of connecting the respective devices used for the cooperation function, and the information indicating the display priority of the cooperation function It is the information which shows the correspondence of and.

連携機能は、互いに異なる複数の機能を連携させることによって実行される機能であってもよいし、同一の機能を連携させることによって実行される機能であってもよい。連携機能は、連携前には利用できなかった機能であってもよい。連携前には利用できなかった機能は、連携対象の機器が有する機能のうち、同じ機能を利用することによって利用できる機能であってもよいし、互いに異なる機能を組み合わせることによって利用できる機能であってもよい。例えば、プリント機能を有する機器(プリンタ)とスキャン機能を有する機器(スキャナ)を連携させることにより、連携機能としてのコピー機能が実現される。すなわち、プリント機能とスキャン機能を連携させることにより、コピー機能が実現される。この場合、コピー機能と、プリント機能及びスキャン機能の組み合わせと、が対応付けられている。連携機能情報34においては、例えば、連携機能としてのコピー機能を識別するための連携機能識別情報と、プリント機能を有する機器を識別するための機器識別情報及びスキャン機能を有する機器を識別するための機器識別情報の組み合わせと、が対応付けられる。   The linkage function may be a function executed by linking a plurality of different functions with each other, or may be a function executed by linking the same functions. The cooperation function may be a function that can not be used before cooperation. The function that can not be used before the cooperation may be a function that can be used by using the same function among the functions possessed by the cooperation target device, or a function that can be used by combining different functions. May be For example, by linking an apparatus (printer) having a print function and an apparatus (scanner) having a scan function, a copy function as a cooperation function is realized. That is, the copy function is realized by linking the print function and the scan function. In this case, the copy function is associated with the combination of the print function and the scan function. In the cooperation function information 34, for example, cooperation function identification information for identifying a copy function as a cooperation function, apparatus identification information for identifying an apparatus having a print function, and an apparatus for identifying an apparatus having a scan function. A combination of device identification information is associated with each other.

なお、記憶部30には、機能購入履歴情報が記憶されていてもよい。機能購入履歴情報は、各ユーザによる機能の購入履歴を示す情報、つまり、各ユーザによって購入された機能を示す情報であり、例えば、ユーザを識別するためのユーザ識別情報と、当該ユーザによって購入された機能を示す機能識別情報と、の対応付けを示す情報である。ユーザ識別情報は、例えば、ユーザIDや氏名等のユーザアカウント情報である。ユーザによって購入された機能は、当該ユーザによって利用可能な機能である。機能購入履歴情報を参照することにより、各ユーザが購入した機能、つまり、各ユーザが利用可能な機能が特定される。機能購入履歴情報は、例えば、ユーザが機能を購入する度に更新される。   The storage unit 30 may store function purchase history information. The function purchase history information is information indicating a purchase history of a function by each user, that is, information indicating a function purchased by each user, for example, user identification information for identifying the user, and purchase by the user It is information indicating the correspondence with the function identification information indicating the function. The user identification information is, for example, user account information such as a user ID and a name. The features purchased by a user are the features available to the user. By referring to the function purchase history information, the functions purchased by each user, that is, the functions available to each user are identified. The function purchase history information is updated, for example, each time the user purchases a function.

制御部36は、サーバ14の各部の動作を制御する。また、制御部36は、特定部38を含む。   The control unit 36 controls the operation of each unit of the server 14. Further, the control unit 36 includes a specifying unit 38.

特定部38は、機器を識別するための機器識別情報を受け、記憶部30に記憶されている機器機能情報32において当該機器識別情報に対応付けられている機能の機能識別情報を特定する。これにより、機器が有する機能が特定される。例えば、端末装置16からサーバ14に機器識別情報が送信され、特定部38によって、当該機器識別情報に対応付けられている機能の機能識別情報が特定される。機能に関する情報(例えば、機能識別情報や機能の説明情報等)は、例えばサーバ14から端末装置16に送信されて表示される。これにより、機器識別情報によって特定される機器が有する機能に関する情報が、端末装置16に表示される。   The specifying unit 38 receives device identification information for identifying a device, and specifies function identification information of a function associated with the device identification information in the device function information 32 stored in the storage unit 30. Thereby, the function that the device has is identified. For example, device identification information is transmitted from the terminal device 16 to the server 14, and the identification unit 38 identifies function identification information of a function associated with the device identification information. Information related to the function (for example, function identification information, function explanatory information, etc.) is transmitted from the server 14 to the terminal device 16 and displayed, for example. Thereby, the information regarding the function which the apparatus specified by the apparatus identification information has is displayed on the terminal device 16.

また、特定部38は、連携対象の各機器を識別するための機器識別情報を受け、記憶部30に記憶されている連携機能情報34において各機器識別情報の組み合わせに対応付けられている連携機能の連携機能識別情報を特定する。これにより、連携対象の各機器が有する機能を連携させることによって実行される連携機能が特定される。例えば、端末装置16からサーバ14に複数の機器識別情報が送信され、特定部38によって、当該複数の機器識別情報に対応付けられている連携機能の連携機能識別情報が特定される。連携機能に関する情報(例えば、連携機能識別情報や連携機能の説明情報等)は、例えばサーバ14から端末装置16に送信されて表示される。これにより、複数の機器識別情報によって特定される複数の機器によって実行される連携機能に関する情報が、端末装置16に表示される。   Further, the specifying unit 38 receives device identification information for identifying each device to be cooperated, and the cooperation function associated with the combination of the respective device identification information in the cooperation function information 34 stored in the storage unit 30. Identify the linkage function identification information of As a result, the cooperation function to be executed is identified by causing the functions of the respective devices to be cooperated to cooperate. For example, a plurality of pieces of device identification information are transmitted from the terminal device 16 to the server 14, and the identification unit 38 identifies cooperation function identification information of the cooperation function associated with the plurality of pieces of device identification information. Information related to the cooperation function (for example, cooperation function identification information, explanation information of the cooperation function, etc.) is transmitted from the server 14 to the terminal device 16 and displayed, for example. Thereby, the information regarding the cooperation function performed by the plurality of devices specified by the plurality of device identification information is displayed on the terminal device 16.

また、特定部38は、連携機能情報34を参照し、連携機能に利用される各機能の接続の順番に基づいて、連携機能に関する情報の表示の優先順位を決定する。例えば、複数の機能を連携させることによって複数の連携機能が実現される場合がある。この場合、各機能の接続順番に基づいて、複数の連携機能に含まれる各連携機能に関する情報の表示の優先順位が決定される。端末装置16においては、その優先順位に従って連携機能に関する情報が表示される。例えば、機器に紐付いた画像が端末装置16に表示され、画像同士がユーザによって繋がれる。複数の機器が有する複数の機能を連携させる場合、当該複数の機器に紐付いた複数の画像がユーザによって繋がれる。画像を繋ぐ順番が、機能の接続順番に相当する。特定部38は、画像を繋ぐ順番に基づいて、連携機能に関する情報の表示の優先順位を特定する。   Further, the specifying unit 38 refers to the cooperation function information 34 and determines the display priority of the information on the cooperation function based on the connection order of each function used for the cooperation function. For example, by linking a plurality of functions, a plurality of linking functions may be realized. In this case, based on the connection order of each function, the display priority of information on each cooperation function included in the plurality of cooperation functions is determined. The terminal device 16 displays the information related to the cooperation function in accordance with the priority. For example, the image linked with the device is displayed on the terminal device 16, and the images are connected by the user. When linking a plurality of functions of a plurality of devices, a plurality of images linked to the plurality of devices are linked by the user. The order of connecting the images corresponds to the order of connecting the functions. The identifying unit 38 identifies the display priority of the information related to the cooperation function based on the order of connecting the images.

なお、機能の購入履歴が管理されている場合、特定部38は、ユーザを識別するためのユーザ識別情報を受け、記憶部30に記憶されている機能購入履歴情報において当該ユーザ識別情報に対応付けられている各機能の機能識別情報を特定してもよい。これにより、当該ユーザによって購入された機能群、つまり、当該ユーザによって利用可能な機能群が特定(識別)される。例えば、端末装置16からサーバ14にユーザ識別情報が送信され、特定部38によって、当該ユーザ識別情報に対応付けられている各機能の機能識別情報が特定される。各機能の機能識別情報(例えば各機能の名称を示す情報)は、例えばサーバ14から端末装置16に送信されて表示される。これにより、ユーザ識別情報によって特定されるユーザが利用可能な機能を識別するための情報(機能識別情報)が、端末装置16に表示される。例えば、特定部38は、機器識別情報とユーザ識別情報を受け、機器機能情報32において当該機器識別情報に対応付けられている機能の機能識別情報を特定し、また、機能購入履歴情報において当該ユーザ識別情報に対応付けられている機能の機能識別情報を特定する。これにより、当該機器識別情報によって特定される機器が有する機能であって、当該ユーザ識別情報によって特定されるユーザが利用可能な機能が特定される。その機能を示す機能識別情報は、例えばサーバ14から端末装置16に送信されて表示される。   When the purchase history of the function is managed, the identification unit 38 receives the user identification information for identifying the user, and associates the user identification information in the function purchase history information stored in the storage unit 30 with the user identification information. The function identification information of each function being identified may be specified. Thereby, the function group purchased by the user, that is, the function group available by the user is specified (identified). For example, user identification information is transmitted from the terminal device 16 to the server 14, and the identification unit 38 identifies function identification information of each function associated with the user identification information. The function identification information of each function (for example, information indicating the name of each function) is transmitted from, for example, the server 14 to the terminal device 16 and displayed. Thereby, information (function identification information) for identifying a function available to the user specified by the user identification information is displayed on the terminal device 16. For example, the identification unit 38 receives the device identification information and the user identification information, identifies the function identification information of the function associated with the device identification information in the device function information 32, and also identifies the user in the function purchase history information. The function identification information of the function associated with the identification information is specified. As a result, the functions possessed by the device identified by the device identification information that are usable by the user identified by the user identification information are identified. The function identification information indicating the function is transmitted from, for example, the server 14 to the terminal device 16 and displayed.

制御部36は、機能の購入処理を実行し、その購入の履歴を管理してもよい。例えば、有料の機能がユーザによって購入された場合、制御部36は、当該ユーザに対して課金処理を適用し、その購入の履歴を示す機能購入履歴情報を作成する。   The control unit 36 may execute a process of purchasing a function and manage the history of the purchase. For example, when a paid function is purchased by a user, the control unit 36 applies a charging process to the user and creates function purchase history information indicating a history of the purchase.

次に、図4を参照して、端末装置16の構成について詳しく説明する。図4には、端末装置16の構成が示されている。   Next, the configuration of the terminal device 16 will be described in detail with reference to FIG. The configuration of the terminal device 16 is shown in FIG.

通信部40は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を備えている。通信部40は、無線通信機能を備えた通信インターフェースであってもよいし、有線通信機能を備えた通信インターフェースであってもよい。   The communication unit 40 is a communication interface, and has a function of transmitting data to another device and a function of receiving data from the other device. The communication unit 40 may be a communication interface having a wireless communication function, or may be a communication interface having a wired communication function.

撮影手段としてのカメラ42は、撮影対象を撮影することにより画像データ(例えば静止画像データや動画像データ)を生成する。また、端末装置16のカメラを利用するだけではなく、ネットワーク等の通信経路に繋がった外部のカメラで撮影された画像データを通信部40で受け取り、UI部46で画像データを表示し、画像データを操作できるようにしてもよい。   The camera 42 as a photographing means generates image data (for example, still image data and moving image data) by photographing an object to be photographed. In addition to using the camera of the terminal device 16, the communication unit 40 receives image data captured by an external camera connected to a communication path such as a network, and the UI unit 46 displays the image data, and the image data is displayed. May be operated.

記憶部44はハードディスクやSSD等の記憶装置であり、各種のプログラム、各種のデータ、サーバ14のアドレス情報、各機器のアドレス情報(例えば各画像形成装置10や端末装置12のアドレス情報)、識別した連携対象の機器に関する情報、連携機能に関する情報、等を記憶する。   The storage unit 44 is a storage device such as a hard disk or an SSD, and various programs, various data, address information of the server 14, address information of each device (for example, address information of each image forming apparatus 10 or terminal device 12), identification It stores information on the linked device, information on the linked function, etc.

UI部46はユーザインターフェース部であり、表示部と操作部を含む。表示部は、例えば液晶ディスプレイ等の表示装置である。操作部は、例えば、タッチパネル、キーボード、マウス、等の入力装置である。もちろん、表示部と操作部を兼ねたユーザインターフェース(例えばタッチ式のディスプレイや、ディスプレイ上に電子的にキーボード等を表示するものを含む)であってもよい。   The UI unit 46 is a user interface unit, and includes a display unit and an operation unit. The display unit is, for example, a display device such as a liquid crystal display. The operation unit is, for example, an input device such as a touch panel, a keyboard, or a mouse. Of course, a user interface (for example, a touch-type display or one that displays a keyboard or the like on a display electronically) that doubles as a display unit and an operation unit may be used.

制御部48は、端末装置16の各部の動作を制御する。制御部48は、例えば表示制御手段(制御手段)として機能し、各種の情報をUI部46の表示部に表示させる。   The control unit 48 controls the operation of each unit of the terminal device 16. The control unit 48 functions as, for example, a display control unit (control unit), and causes the display unit of the UI unit 46 to display various types of information.

UI部46の表示部には、例えば、カメラ42によって撮影された画像や、利用対象の機器(例えば連携対象の機器)として識別された機器に紐付いた画像、等が表示される。機器に紐付いた画像は、カメラ42によって撮影された当該機器を表わす画像(静止画像又は動画像)であってもよいし、当該機器を模式的に表す画像(例えばアイコン)であってもよい。模式的に表す画像のデータは、例えば、サーバ14に記憶されてサーバ14から端末装置16に提供されてもよいし、端末装置16に予め記憶されていてもよい。例えば複数の機器を連携させて連携機能を実行する場合、複数の機器がカメラ42によって撮影され、各機器を表わす画像がUI部46の表示部に表示される。ユーザが連携対象の各機器に紐付いた各画像を繋ぐことにより、連携対象の機器群によって実行される連携機能が特定され、その繋ぐ順番に応じた優先順位に従って、連携機能に関する情報がUI部46の表示部に表示される。   On the display unit of the UI unit 46, for example, an image captured by the camera 42, an image linked to a device identified as a device to be used (for example, a device to be cooperated), and the like are displayed. The image linked to the device may be an image (still image or moving image) representing the device taken by the camera 42, or may be an image (for example, an icon) schematically showing the device. For example, data of an image schematically represented may be stored in the server 14 and provided from the server 14 to the terminal device 16 or may be stored in advance in the terminal device 16. For example, when a plurality of devices are linked to execute the linkage function, the plurality of devices are photographed by the camera 42, and an image representing each device is displayed on the display unit of the UI unit 46. By linking each image linked to each device to be cooperated by the user, the cooperation function to be executed is specified by the device group to be cooperated, and the information on the cooperation function is the UI unit 46 according to the priority order according to the connection order. Is displayed on the display unit of

機器としての端末装置12は、例えば上記の端末装置16と同様の構成を備えている。端末装置12はカメラ42を備えていなくてもよい。   The terminal device 12 as an apparatus has, for example, the same configuration as that of the terminal device 16 described above. The terminal device 12 may not have the camera 42.

なお、上述した機器機能情報32は、端末装置16の記憶部44に記憶されていてもよい。この場合、機器機能情報32は、サーバ14の記憶部30に記憶されていなくてもよい。同様に、上述した連携機能情報34は、端末装置16の記憶部44に記憶されていてもよい。この場合、連携機能情報34は、サーバ14の記憶部30に記憶されていなくてもよい。また、端末装置16の制御部48は、上述した特定部38を備え、機器識別情報に基づいて機器を識別し、機器が有する機能を特定してもよいし、複数の機能を連携させることによって実行される連携機能を特定してもよい。この場合、サーバ14は特定部38を備えていなくてもよい。機能購入履歴情報が作成されている場合、その機能購入履歴情報は、端末装置16の記憶部44に記憶されていてもよい。この場合、機能購入履歴情報は、サーバ14の記憶部30に記憶されていなくてもよい。また、端末装置16の制御部48は、ユーザによる機能の購入の履歴を管理してもよい。この場合、サーバ14の制御部36は、その管理機能を備えていなくてもよい。また、端末装置16の制御部48は、ユーザ識別情報に基づいて、ユーザによって利用可能な機能を特定してもよい。更に別の例として、画像形成装置10や端末装置12等の機器に、機器機能情報32や連携機能情報34が記憶されていてもよいし、画像形成装置10や端末装置12等の機器が特定部38を備えていてもよい。つまり、サーバ14の特定部38による処理は、サーバ14において行われてもよいし、端末装置16において行われてもよいし、画像形成装置10や端末装置16等の機器において行われてもよい。   The device function information 32 described above may be stored in the storage unit 44 of the terminal device 16. In this case, the device function information 32 may not be stored in the storage unit 30 of the server 14. Similarly, the cooperation function information 34 described above may be stored in the storage unit 44 of the terminal device 16. In this case, the cooperation function information 34 may not be stored in the storage unit 30 of the server 14. In addition, the control unit 48 of the terminal device 16 may include the above-described identification unit 38, identify the device based on the device identification information, and identify the function possessed by the device, or by linking a plurality of functions. The cooperation function to be executed may be specified. In this case, the server 14 may not include the identifying unit 38. When the function purchase history information is created, the function purchase history information may be stored in the storage unit 44 of the terminal device 16. In this case, the function purchase history information may not be stored in the storage unit 30 of the server 14. Further, the control unit 48 of the terminal device 16 may manage the history of purchase of the function by the user. In this case, the control unit 36 of the server 14 may not have the management function. In addition, the control unit 48 of the terminal device 16 may specify a function available to the user based on the user identification information. Further, as another example, the device function information 32 and the cooperation function information 34 may be stored in the device such as the image forming device 10 or the terminal device 12 or the device such as the image forming device 10 or the terminal device 12 is specified. The part 38 may be provided. That is, the processing by the specifying unit 38 of the server 14 may be performed in the server 14, may be performed in the terminal device 16, or may be performed in an apparatus such as the image forming apparatus 10 or the terminal device 16. .

第1実施形態では、一例として、AR(Augmented Reality)技術(拡張現実技術)を適用することにより、機器識別情報が取得されて利用対象の機器が識別される。例えば、AR技術を適用することにより、連携対象の機器の機器識別情報が取得されて連携対象の機器が識別される。AR技術として公知のAR技術が用いられる。例えば、2次元バーコード等のマーカを用いるマーカ型AR技術、画像認識技術を用いるマーカレス型AR技術、位置情報を用いる位置情報AR技術、等が用いられる。もちろん、AR技術を適用せずに機器識別情報が取得されて利用対象の機器が識別されてもよい。例えば、ネットワークに繋がっている機器であれば、IPアドレスに基づいて機器を識別してもよいし、機器IDを読み出して機器を識別してもよい。   In the first embodiment, as an example, by applying an AR (Augmented Reality) technology (augmented reality technology), device identification information is acquired and a device to be used is identified. For example, by applying the AR technology, the device identification information of the device to be cooperated is acquired, and the device to be cooperated is identified. AR technology known as AR technology is used. For example, a marker type AR technology using a marker such as a two-dimensional barcode, a markerless type AR technology using an image recognition technology, a position information AR technology using position information, or the like is used. Of course, the device identification information may be acquired and the device to be used may be identified without applying the AR technology. For example, as long as the device is connected to the network, the device may be identified based on the IP address, or the device ID may be read to identify the device.

以下、図5を参照して、機器の機器識別情報の取得処理について詳しく説明する。一例として、画像形成装置10の機器識別情報を取得する場合について説明する。図5には、画像形成装置10の外観が模式的に示されている。ここでは、マーカ型AR技術を適用してデバイス識別情報を取得するための処理について説明する。画像形成装置10の筐体には、2次元バーコード等のマーカ50が設けられている。マーカ50は、画像形成装置10の機器識別情報がコード化された情報である。ユーザは端末装置16のカメラ42を起動させ、利用対象の画像形成装置10に設けられているマーカ50をカメラ42によって撮影する。これにより、マーカ50を表す画像データが生成される。その画像データは、例えば、端末装置16からサーバ14に送信される。サーバ14においては、制御部36が、当該画像データに表されたマーカ像に対してデコード処理を適用することにより、機器識別情報を抽出する。これにより、利用対象の画像形成装置10(撮影されたマーカ50を有する画像形成装置10)が識別される。サーバ14の特定部38は、機器機能情報32において、抽出された機器識別情報に対応付けられている機能の機能識別情報を特定する。これにより、利用対象の画像形成装置10が有する機能が特定される。   Hereinafter, with reference to FIG. 5, the process of acquiring the device identification information of the device will be described in detail. A case where device identification information of the image forming apparatus 10 is acquired will be described as an example. The appearance of the image forming apparatus 10 is schematically shown in FIG. Here, processing for acquiring device identification information by applying the marker type AR technology will be described. The case of the image forming apparatus 10 is provided with a marker 50 such as a two-dimensional bar code. The marker 50 is information in which the device identification information of the image forming apparatus 10 is coded. The user activates the camera 42 of the terminal device 16 and photographs the marker 50 provided on the image forming apparatus 10 to be used by the camera 42. Thereby, image data representing the marker 50 is generated. The image data is transmitted from the terminal device 16 to the server 14, for example. In the server 14, the control unit 36 extracts the device identification information by applying the decoding process to the marker image represented in the image data. As a result, the image forming apparatus 10 to be used (the image forming apparatus 10 having the photographed marker 50) is identified. The specifying unit 38 of the server 14 specifies the function identification information of the function associated with the extracted device identification information in the device function information 32. Thereby, the function of the image forming apparatus 10 to be used is specified.

なお、端末装置16の制御部48が、マーカ50を表す画像データにデコード処理を適用することにより、機器識別情報を抽出してもよい。この場合、抽出された機器識別情報は、端末装置16からサーバ14に送信される。サーバ14の特定部38は、機器機能情報32において、端末装置16から送信された機器識別情報に対応付けられている機能の機能識別情報を特定する。端末装置16の記憶部44に機器機能情報32が記憶されている場合、端末装置16の制御部48が、その機器機能情報32において、抽出された機器識別情報に対応付けられている機能の機能識別情報を特定してもよい。   The control unit 48 of the terminal device 16 may extract the device identification information by applying the decoding process to the image data representing the marker 50. In this case, the extracted device identification information is transmitted from the terminal device 16 to the server 14. The specifying unit 38 of the server 14 specifies, in the device function information 32, the function identification information of the function associated with the device identification information transmitted from the terminal device 16. When the device function information 32 is stored in the storage unit 44 of the terminal device 16, the control unit 48 of the terminal device 16 determines the function of the function associated with the extracted device identification information in the device function information 32. Identification information may be specified.

マーカ50には、画像形成装置10が有する機能の機能識別情報がコード化されて含まれていてもよい。この場合、マーカ50を表す画像データにデコード処理を適用することにより、当該画像形成装置10の機能識別情報が抽出されるとともに、当該画像形成装置10が有する機能の機能識別情報も抽出される。これにより、画像形成装置10が特定されるとともに、当該画像形成装置10が有する機能が特定される。このデコード処理は、サーバ14によって行われてもよいし、端末装置16によって行われてもよい。   The marker 50 may include function identification information of the function of the image forming apparatus 10 in a coded form. In this case, by applying the decoding process to the image data representing the marker 50, the function identification information of the image forming apparatus 10 is extracted, and the function identification information of the function of the image forming apparatus 10 is also extracted. Thus, the image forming apparatus 10 is specified, and the function of the image forming apparatus 10 is specified. This decoding process may be performed by the server 14 or may be performed by the terminal device 16.

複数の機器を連携させることによって連携機能を実行する場合、連携対象の各機器のマーカを撮影することにより各機器の機器識別情報が取得され、これにより、連携機能が特定される。   When the cooperation function is executed by linking a plurality of devices, the device identification information of each device is acquired by photographing the markers of the respective devices to be cooperated, whereby the cooperation function is specified.

マーカレス型AR技術を適用してデバイス識別情報を取得する場合、例えば、ユーザは端末装置16のカメラ42によって、利用対象の機器(例えば画像形成装置10)の外観の全部又は一部を撮影する。もちろん、利用対象機器の名称(例えば商品名)や型番号といった機器を特定するための情報を外観から撮影して得ることは役に立つ。撮影により、利用対象の機器の外観の全部又は一部を表す外観画像データが生成される。その外観画像データは、例えば端末装置16からサーバ14に送信される。サーバ14においては、制御部36が、当該外観画像データに基づいて利用対象の機器を識別する。例えば、サーバ14の記憶部30には、機器毎に、機器の外観の全部又は一部を表す外観画像データと、当該機器の機器識別情報と、の対応付けを示す外観画像対応付け情報が記憶されている。制御部36は、例えば、端末装置16から送信された外観画像データと外観画像対応付け情報に含まれる各外観画像データとを比較し、その比較結果に基づいて、利用対象の機器の機器識別情報を特定する。例えば、制御部36は、端末装置16から送信された外観画像データから利用対象の機器の外観の特徴を抽出し、外観画像対応付け情報に含まれる外観画像データ群において、その外観の特徴と同一又は類似の特徴を表す外観画像データを特定し、その外観画像データに対応付けられている機器識別情報を特定する。これにより、利用対象の機器(カメラ42によって撮影された機器)が認識される。別の例として、機器の名称(例えば商品名)や型番号が撮影され、名称や型番号を表す外観画像データが生成されている場合、その外観画像データに表された名称や型番号に基づいて、利用対象の機器を識別してもよい。サーバ14の特定部38は、機器機能情報32において、特定された機器識別情報に対応付けられている各機能の機能識別情報を特定する。これにより、利用対象の機器(例えば画像形成装置10)が有する機能が特定される。   When the device identification information is acquired by applying the markerless AR technology, for example, the user captures all or part of the appearance of the device to be used (for example, the image forming apparatus 10) by the camera 42 of the terminal device 16. Of course, it is useful to obtain information for identifying the device, such as the name of the device to be used (for example, a product name) and a model number from the appearance. By photographing, appearance image data representing all or part of the appearance of the device to be used is generated. The appearance image data is transmitted from, for example, the terminal device 16 to the server 14. In the server 14, the control unit 36 identifies the device to be used based on the appearance image data. For example, the storage unit 30 of the server 14 stores, for each device, appearance image correspondence information indicating correspondence between appearance image data representing all or part of the appearance of the device and device identification information of the device. It is done. The control unit 36 compares, for example, the appearance image data transmitted from the terminal device 16 with the appearance image data included in the appearance image correspondence information, and based on the comparison result, device identification information of the device to be used. Identify For example, the control unit 36 extracts the feature of the appearance of the device to be used from the appearance image data transmitted from the terminal device 16, and the appearance image data group included in the appearance image association information is the same as the feature of the appearance Alternatively, appearance image data representing similar features is identified, and device identification information associated with the appearance image data is identified. Thus, the device to be used (the device photographed by the camera 42) is recognized. As another example, if the device name (for example, a product name) or a model number is captured and appearance image data representing the name or model number is generated, the name or model number represented in the appearance image data is used. The device to be used may be identified. The specifying unit 38 of the server 14 specifies the function identification information of each function associated with the specified device identification information in the device function information 32. Thereby, the function of the device to be used (for example, the image forming apparatus 10) is specified.

なお、端末装置16の制御部48が、利用対象の機器(例えば画像形成装置10)の外観の全部又は一部を表す外観画像データと外観画像対応付け情報に含まれる各外観画像データとを比較し、その比較結果に基づいて、利用対象の機器の機器識別情報を特定してもよい。外観画像対応付け情報は、端末装置16の記憶部44に記憶されていてもよい。この場合、端末装置16の制御部48は、端末装置16の記憶部44に記憶されている外観画像対応付け情報を参照することにより、利用対象の機器の機器識別情報を特定する。または、端末装置16の制御部48は、サーバ14から外観画像対応付け情報を取得し、当該外観画像対応付け情報を参照することにより、利用対象の機器の機器識別情報を特定してもよい。   The control unit 48 of the terminal device 16 compares the appearance image data representing all or part of the appearance of the device to be used (for example, the image forming apparatus 10) with the appearance image data included in the appearance image correspondence information. The device identification information of the device to be used may be specified based on the comparison result. The appearance image correspondence information may be stored in the storage unit 44 of the terminal device 16. In this case, the control unit 48 of the terminal device 16 specifies the device identification information of the device to be used by referring to the appearance image correspondence information stored in the storage unit 44 of the terminal device 16. Alternatively, the control unit 48 of the terminal device 16 may specify the device identification information of the device to be used by acquiring the appearance image association information from the server 14 and referring to the appearance image association information.

複数の機器を連携させることによって連携機能を実行する場合、連携対象の各機器の外観の全部又は一部を撮影することにより各機器の機器識別情報が取得され、これにより、連携機能が特定される。   When the cooperation function is executed by linking a plurality of devices, the device identification information of each device is acquired by photographing all or part of the appearance of each device to be cooperated, whereby the cooperation function is specified. Ru.

位置情報AR技術を適用してデバイス識別情報を取得する場合、例えば、GPS(Global Positioning System)機能を利用することにより、機器(例えば画像形成装置10)が設置されている位置を示す位置情報が取得される。例えば、各機器がGPS機能を備えており、機器自身の位置を示す機器位置情報を取得する。端末装置16は、利用対象の機器に対して機器位置情報の取得要求を示す情報を出力し、その取得要求に対する応答として、当該機器から当該機器の機器位置情報を受信する。その機器位置情報は、例えば、端末装置16からサーバ14に送信される。サーバ14においては、制御部36が、当該機器位置情報に基づいて利用対象の機器を識別する。例えば、サーバ14の記憶部30には、機器毎に、機器が設置されている位置を示す機器位置情報と、当該機器の機器識別情報と、の対応付けを示す位置対応付け情報が記憶されている。制御部36は、その位置対応付け情報において、端末装置16から送信された機器位置情報に対応付けられている機器識別情報を特定する。これにより、利用対象の機器が認識される。サーバ14の特定部38は、機器機能情報32において、特定された機器識別情報に対応付けられている各機能の機能識別情報を特定する。これにより、利用対象の機器(例えば画像形成装置10)が有する機能が認識される。   When acquiring device identification information by applying position information AR technology, for example, position information indicating a position where an apparatus (for example, the image forming apparatus 10) is installed is available by using a GPS (Global Positioning System) function. It is acquired. For example, each device has a GPS function, and acquires device position information indicating the position of the device itself. The terminal device 16 outputs information indicating an acquisition request of the device position information to the device to be used, and receives the device position information of the device from the device as a response to the acquisition request. The device position information is transmitted from the terminal device 16 to the server 14, for example. In the server 14, the control unit 36 identifies the device to be used based on the device position information. For example, the storage unit 30 of the server 14 stores, for each device, position association information indicating correspondence between device position information indicating the position where the device is installed and device identification information of the device. There is. The control unit 36 identifies the device identification information associated with the device location information transmitted from the terminal device 16 in the location association information. Thereby, the device to be used is recognized. The specifying unit 38 of the server 14 specifies the function identification information of each function associated with the specified device identification information in the device function information 32. Thereby, the function of the device to be used (for example, the image forming apparatus 10) is recognized.

なお、端末装置16の制御部48が、位置対応付け情報において、利用対象の機器の位置情報に対応付けられている機器識別情報を特定してもよい。位置対応付け情報は、端末装置16の記憶部44に記憶されていてもよい。この場合、端末装置16の制御部48は、端末装置16の記憶部44に記憶されている位置対応付け情報を参照することにより、利用対象の機器の機器識別情報を特定する。別の例として、端末装置16の制御部48は、サーバ14から位置対応付け情報を取得し、当該位置対応付け情報を参照することにより、利用対象の機器の機器識別情報を特定してもよい。   The control unit 48 of the terminal device 16 may specify, in the position association information, the device identification information associated with the position information of the device to be used. The position association information may be stored in the storage unit 44 of the terminal device 16. In this case, the control unit 48 of the terminal device 16 specifies the device identification information of the device to be used by referring to the position association information stored in the storage unit 44 of the terminal device 16. As another example, the control unit 48 of the terminal device 16 may obtain the position association information from the server 14 and specify the device identification information of the device to be used by referring to the position association information. .

複数の機器を連携させることによって連携機能を実行する場合、連携対象の各機器の機器位置情報が取得され、各機器位置情報に基づいて各機器の機器識別情報が特定される。これにより、連携機能が特定される。   When the cooperation function is executed by linking a plurality of devices, device position information of each device to be cooperated is acquired, and device identification information of each device is specified based on the device position information. Thereby, the cooperation function is identified.

以下、第1実施形態に係る画像形成システムについて詳しく説明する。   The image forming system according to the first embodiment will be described in detail below.

まず、図6を参照して、機器機能情報32について詳しく説明する。図6には、機器機能情報32としての機器機能管理テーブルの一例が示されている。機器機能管理テーブルにおいては、一例として、機器IDと、機器名(例えば機器の種類)を示す情報と、機器が有する機能を示す情報(機能識別情報)と、画像IDと、が対応付けられている。機器IDと機器名は機器識別情報の一例に相当する。画像IDは、機器を模式的に表す画像(例えばアイコン)を識別するための画像識別情報の一例である。なお、機器機能管理テーブルには、画像IDは含まれていなくてもよい。例えば、機器IDが「B」の機器は、複合機(複数の画像形成機能を有する画像形成装置)であり、プリント機能やスキャン機能等の機能を有している。その機器には、その機器を模式的に表す画像を識別するための画像IDが対応付けられている。機器を模式的に表す画像のデータは、例えば、サーバ14の記憶部30に記憶されている。   First, the device function information 32 will be described in detail with reference to FIG. An example of the device function management table as the device function information 32 is shown in FIG. In the device function management table, as an example, a device ID, information indicating a device name (for example, type of device), information indicating a function of the device (function identification information), and an image ID are associated with each other. There is. The device ID and the device name correspond to an example of device identification information. The image ID is an example of image identification information for identifying an image (for example, an icon) that schematically represents the device. The device function management table may not include the image ID. For example, the device whose device ID is “B” is a multifunction peripheral (image forming apparatus having a plurality of image forming functions) and has functions such as a print function and a scan function. The device is associated with an image ID for identifying an image that schematically represents the device. Data of an image schematically representing the device is stored, for example, in the storage unit 30 of the server 14.

例えば、AR技術を適用することにより、利用対象の機器を識別するための機器IDが取得される。サーバ14の特定部38は、機器機能管理テーブルを参照することにより、その機器IDに対応付けられている機器名、機能及び画像IDを特定する。これにより、利用対象の機器が識別される。例えば、機器名を示す情報、及び、機器を模式的に表す画像のデータが、サーバ14から端末装置16に送信され、それらが端末装置16のUI部46に表示される。機器を模式的に表す画像は、当該機器に紐付いた画像として表示される。もちろん、機器を模式的に表す画像は表示されずに、カメラ42によって撮影された画像そのものが端末装置16のUI部46に表示されてもよい。また、端末装置16のUI部46において、機器に紐付いた画像(例えば、カメラ42によって撮影された画像や、機器を模式的に表す画像)がユーザによって指定されると、その機器が有する機能に関する情報(例えば、機能識別情報や機能の説明情報等)が、サーバ14から端末装置16に送信されて端末装置16のUI部46に表示されてもよい。   For example, by applying the AR technology, a device ID for identifying a device to be used is acquired. The specifying unit 38 of the server 14 specifies the device name, the function, and the image ID associated with the device ID by referring to the device function management table. Thus, the device to be used is identified. For example, information indicating the device name and data of an image schematically representing the device are transmitted from the server 14 to the terminal device 16 and displayed on the UI unit 46 of the terminal device 16. An image schematically representing the device is displayed as an image linked to the device. Of course, the image itself captured by the camera 42 may be displayed on the UI unit 46 of the terminal device 16 without displaying an image schematically representing the device. In addition, when the image (for example, an image photographed by the camera 42 or an image schematically representing the device) associated with the device is designated by the user in the UI unit 46 of the terminal device 16, the function of the device is related. Information (for example, function identification information, function explanation information, etc.) may be transmitted from the server 14 to the terminal device 16 and displayed on the UI unit 46 of the terminal device 16.

次に、図7を参照して、連携機能情報34について詳しく説明する。図7には、連携機能情報34としての連携機能管理テーブルの一例が示されている。連携機能管理テーブルにおいては、一例として、機器IDの組み合わせを示す情報と、連携対象の機器名(例えば各機器の種類)を示す情報、連携機能を示す情報(連携機能識別情報)と、接続順番を示す情報と、優先順位を示す情報と、が対応付けられている。接続順番は、機器に紐付いた画像を繋ぐ順番に対応している。優先順位は、連携機能に関する情報の表示の優先順位である。例えば、機器IDが「A」の機器はPC(パーソナルコンピュータ)であり、機器IDが「B」の機器は複合機である。PC(A)と複合機(B)を連携させることにより、連携機能として、例えば「スキャン転送機能」と「印刷機能」が実現される。「スキャン転送機能」は、複合機(B)によるスキャンによって生成された画像データをPC(A)に転送する機能である。「印刷機能」は、PC(A)に保存されているデータ(例えば画像データや文書データ)を複合機(B)に送信して複合機(B)にて印刷する機能である。例えば、複合機(B)からPC(A)に機器が接続された場合、つまり、複合機(B)に紐付いた画像からPC(A)に紐付いた画像へ画像が繋がれた場合、「スキャン転送機能」の優先順位が「1位」となり、「印刷機能」の優先順位は「2位」となる。この場合、「スキャン転送機能」に関する情報が「印刷機能」に関する情報よりも優先的に表示される。これとは逆に、PC(A)から複合機(B)に機器が接続された場合、つまり、PC(A)に紐付いた画像から複合機(B)に紐付いた画像へ画像が繋がれた場合、「印刷機能」の優先順位が「1位」となり、「スキャン転送機能」の優先順位が「2位」となる。この場合、「印刷機能」に関する情報が「スキャン転送機能」に関する情報よりも優先的に表示される。   Next, the cooperation function information 34 will be described in detail with reference to FIG. An example of the cooperation function management table as the cooperation function information 34 is shown in FIG. In the linked function management table, as an example, information indicating a combination of device IDs, information indicating a linked device name (for example, type of each device), information indicating a linked function (linked function identification information), and connection order And the information indicating the priority are associated with each other. The connection order corresponds to the order in which the images linked to the device are connected. The priority is a display priority of information on the cooperation function. For example, the device with the device ID “A” is a PC (personal computer), and the device with the device ID “B” is a multifunction peripheral. By linking the PC (A) and the multifunction peripheral (B), for example, a “scan transfer function” and a “print function” are realized as linked functions. The “scan transfer function” is a function of transferring image data generated by scanning by the multifunction peripheral (B) to the PC (A). The “printing function” is a function of transmitting data (for example, image data and document data) stored in the PC (A) to the multifunction peripheral (B) and printing the data in the multifunction peripheral (B). For example, when a device is connected from the multifunction device (B) to the PC (A), that is, when an image is linked from an image linked to the multifunction device (B) to an image linked to the PC (A) The priority of the “transfer function” is “first place”, and the priority of the “print function” is “second place”. In this case, the information on the "scan transfer function" is displayed prior to the information on the "print function". Conversely, when a device is connected from the PC (A) to the multifunction machine (B), that is, the image is linked from the image linked to the PC (A) to the image linked to the multifunction machine (B) In this case, the priority of the “print function” is “first place”, and the priority of the “scan transfer function” is “second place”. In this case, the information on the "print function" is displayed prior to the information on the "scan transfer function".

次に、図8を参照して、端末装置16のUI部46に表示される画面について詳しく説明する。図8には、機能表示画面の一例が示されている。機能表示画面は、単体の機器を利用する際に、端末装置16のUI部46に表示される画面である。   Next, the screen displayed on the UI unit 46 of the terminal device 16 will be described in detail with reference to FIG. An example of the function display screen is shown in FIG. The function display screen is a screen displayed on the UI unit 46 of the terminal device 16 when using a single device.

例えば、上述したマーカ型AR技術、マーカレス型AR技術、又は、位置情報AR技術のいずれかの技術を用いることにより、利用対象の機器(例えば画像形成装置10)の機器識別情報が取得されてその機器が識別され、その機器識別情報に対応付けられている各機能を示す機能識別情報、つまり、利用対象の機器(識別された機器)が有する各機能を示す機能識別情報が特定される。また、利用対象の機器を利用するユーザのユーザ識別情報に対応付けられている各機能を示す機能識別情報、つまり、当該ユーザによって利用可能な各機能を示す機能識別情報が特定されてもよい。それらの情報が、機能表示画面として端末装置16のUI部46に表示される。また、利用対象の機器が有する機能が特定されるので、販売対象となっている機能群の中で利用対象の機器が有していない機能が特定されてもよい。利用対象の機器が有していない各機能を示す機能識別情報が、機能表示画面に表示されてもよい。   For example, by using any of the marker type AR technology, the markerless type AR technology, or the position information AR technology described above, the device identification information of the device to be used (for example, the image forming apparatus 10) is acquired and A device is identified, and function identification information indicating each function associated with the device identification information, that is, function identification information indicating each function possessed by the device to be used (identified device) is identified. In addition, function identification information indicating each function associated with user identification information of a user who uses a device to be used, that is, function identification information indicating each function available by the user may be specified. Those pieces of information are displayed on the UI unit 46 of the terminal device 16 as a function display screen. Further, since the function possessed by the device to be used is identified, the function not possessed by the device to be utilized may be identified among the functional groups to be sold. Function identification information indicating each function that the device to be used does not have may be displayed on the function display screen.

図8に示されている機能表示画面52には、機能識別情報の一例として、機能Aを表すボタン像54、機能Bを表すボタン像56、及び、機能Cを表すボタン像58が、表示されている。機能Aは、利用対象の機器(AR技術等によって識別された機器)が有している機能であって、ユーザによって利用可能な機能、つまり、当該ユーザによって購入された機能である。機能Bは、利用対象の機器が有している機能であって、ユーザによる利用が不可能な機能、つまり、当該ユーザによって購入されていない機能である。ユーザが機能Bを購入することにより、当該ユーザによる機能Bの利用が可能となる。機能Cは、利用対象の機器が有していない機能、つまり、利用対象の機器が対応していない機能である。端末装置16の制御部48は、ボタン像によって表されている機能が、利用対象の機器が有している機能であるか否かに応じて、当該ボタン像の表示態様を変えてもよい。また、制御部48は、ボタン像によって表されている機能が、ユーザによって利用可能な機能であるか否かに応じて、当該ボタン像の表示態様を変えてもよい。例えば、制御部48は、ボタン像の色や形状を変える。図8に示す例では、ボタン像54,56,58はそれぞれ異なる色で表示されている。一例として、利用対象の機器が有している機能であってユーザによって利用可能な機能を表すボタン像(例えば機能Aを表すボタン像54)は、青色で表示される。利用対象の機器が有している機能であってユーザによる利用が不可能な機能を表すボタン像(機能Bを表すボタン像56)は、黄色で表示される。利用対象の機器が有していない機能を表すボタン像(例えば機能Cを表すボタン像58)は、灰色で表示される。別の例として、制御部48は、ボタン像54,56,58の形状を変えてもよいし、機能表示名のフォントを変えてもよい。もちろん、別の手法によって表示態様を変えてもよい。これにより、ユーザに視認性良く各機能の利用可否が伝えられる。   On the function display screen 52 shown in FIG. 8, a button image 54 representing the function A, a button image 56 representing the function B, and a button image 58 representing the function C are displayed as an example of the function identification information. ing. The function A is a function of a device to be used (a device identified by AR technology or the like) and is a function available to the user, that is, a function purchased by the user. The function B is a function that the device to be used has, and is a function that can not be used by the user, that is, a function that has not been purchased by the user. When the user purchases the function B, the user can use the function B. The function C is a function that the device to be used does not have, that is, a function to which the device to be used does not correspond. The control unit 48 of the terminal device 16 may change the display mode of the button image in accordance with whether or not the function represented by the button image is the function possessed by the device to be used. In addition, the control unit 48 may change the display mode of the button image depending on whether the function represented by the button image is a function available to the user. For example, the control unit 48 changes the color or shape of the button image. In the example shown in FIG. 8, the button images 54, 56, 58 are displayed in different colors. As one example, a button image (for example, a button image 54 representing function A) which is a function possessed by the device to be used and which represents a function available to the user is displayed in blue. A button image (button image 56 representing function B) representing a function possessed by the device to be used that can not be used by the user is displayed in yellow. The button image (for example, the button image 58 representing the function C) representing the function that the device to be used does not have is displayed in gray. As another example, the control unit 48 may change the shapes of the button images 54, 56, 58, or may change the font of the function display name. Of course, the display mode may be changed by another method. Thereby, the user can be notified of availability of each function with high visibility.

例えば、ユーザが端末装置16を利用して機能Aを表すボタン像54を指定し、機能Aの実行の指示を与えると、機能Aの実行指示を示す実行指示情報が、端末装置16から利用対象の機器に送信される。その実行指示情報には、機能Aを実行するための制御データや、機能Aによる処理が適用される画像データ等のデータ、等が含まれる。利用対象の機器は実行指示情報を受けると、その実行指示情報に従って機能Aを実行する。例えば、利用対象の機器が画像形成装置10の場合であって機能Aがスキャン転送機能の場合、画像形成装置10の画像形成部20によってスキャン機能が実行され、これによりスキャンデータ(画像データ)が生成される。そのスキャンデータは、画像形成装置10から設定された送信先(例えば端末装置16)に送信される。   For example, when the user designates the button image 54 representing the function A using the terminal device 16 and gives an instruction to execute the function A, execution instruction information indicating an instruction to execute the function A is to be used from the terminal device 16 Sent to the device. The execution instruction information includes control data for executing the function A, data such as image data to which the process by the function A is applied, and the like. When receiving the execution instruction information, the device to be used executes the function A in accordance with the execution instruction information. For example, when the device to be used is the image forming apparatus 10 and the function A is a scan transfer function, the image forming unit 20 of the image forming apparatus 10 executes a scan function, whereby scan data (image data) is generated. It is generated. The scan data is transmitted from the image forming apparatus 10 to the set destination (for example, the terminal device 16).

また、ユーザが端末装置16を利用して機能Bを表すボタン像56を指定し、機能Bの購入を指示した場合、購入処理が実行される。購入処理がサーバ14によって行われる場合、端末装置16はサーバ14にアクセスする。これにより、ユーザによる機能Bの利用を可能にするための情報として、機能Bを購入するための画面(例えばWebサイト)が端末装置16のUI部46に表示される。この画面上で購入手続きを行うことにより、ユーザによる機能Bの利用が許可される。例えば、端末装置16にはWebブラウザのプログラムが記憶されており、そのWebブラウザを利用することにより、端末装置16からサーバ14へのアクセスが実現される。ユーザはWebブラウザを用いてサーバ14にアクセスすると、端末装置16のUI部46に、機能購入画面(例えばWebサイト)が表示され、そのWebサイトを介して機能が購入される。もちろん、サーバ14以外のサーバ等によって購入処理が行われてもよい。別の例として、端末装置16のUI部46には、ユーザによる機能Bの利用を可能にするための情報として、管理者等に機能Bの利用を依頼するための利用許可依頼画面(例えばWebサイト)が表示されてもよい。この利用許可依頼画面を介して機能Bの利用の許可を管理者等に依頼し、その許可が得られた場合、ユーザによる機能Bの利用が可能となる。   When the user designates the button image 56 representing the function B using the terminal device 16 and instructs the purchase of the function B, the purchase process is executed. When the purchase process is performed by the server 14, the terminal device 16 accesses the server 14. As a result, a screen (for example, a website) for purchasing the function B is displayed on the UI unit 46 of the terminal device 16 as information for enabling the user to use the function B. By performing the purchase procedure on this screen, the use of the function B by the user is permitted. For example, a program of a web browser is stored in the terminal device 16, and access from the terminal device 16 to the server 14 is realized by using the web browser. When the user accesses the server 14 using a web browser, a function purchase screen (for example, a web site) is displayed on the UI unit 46 of the terminal device 16, and the function is purchased via the web site. Of course, the purchase process may be performed by a server other than the server 14 or the like. As another example, in the UI unit 46 of the terminal device 16, a usage permission request screen (for example, the web) for requesting the administrator etc. to use the function B as information for enabling the user to use the function B. The site may be displayed. If the administrator or the like is requested to permit the use of the function B via the use permission request screen, and the permission is obtained, the user can use the function B.

以下、AR技術を適用して複数の機能を連携させる方法について詳しく説明する。   Hereinafter, a method of linking a plurality of functions by applying AR technology will be described in detail.

図9を参照して、マーカ型AR技術又はマーカレス型AR技術を適用して複数の機器を識別し、当該複数の機器が有する複数の機能を連携させる方法について説明する。図9には、連携対象の機器の一例が示されている。一例として、連携対象の機器として画像形成装置10と端末装置12が用いられるものとする。画像形成装置10は例えば複合機であり、端末装置12は例えばPC(パーソナルコンピュータ)である。画像形成装置10と端末装置12は、現実空間に存在する機器である。端末装置16は、複数の機能を連携させる際に利用される、現実空間に存在する機器である。端末装置16は、例えばスマートフォンや携帯電話等の携帯端末装置である。   A method of identifying a plurality of devices by applying a marker type AR technology or a markerless type AR technology and linking a plurality of functions of the plurality of devices will be described with reference to FIG. FIG. 9 shows an example of the device to be cooperated. As an example, the image forming apparatus 10 and the terminal device 12 are used as devices to be cooperated. The image forming apparatus 10 is, for example, a multifunction peripheral, and the terminal device 12 is, for example, a PC (personal computer). The image forming apparatus 10 and the terminal device 12 are devices existing in the real space. The terminal device 16 is a device that exists in the real space and is used when linking a plurality of functions. The terminal device 16 is, for example, a mobile terminal device such as a smartphone or a mobile phone.

例えば、画像形成装置10の筐体に2次元バーコード等のマーカ50が設けられており、端末装置12(PC)の筐体に2次元バーコード等のマーカ60が設けられている。マーカ60は、端末装置12の機器識別情報がコード化された情報である。マーカ型AR技術又はマーカレス型AR技術が用いられる場合、ユーザは端末装置16(例えばスマートフォン)のカメラ42によって、連携対象の画像形成装置10と端末装置12を撮影する。図9に示す例では、カメラ42の撮影領域に画像形成装置10と端末装置12の両方が含まれる状態で、画像形成装置10と端末装置12が一緒に撮影されている。これにより、マーカ50,60をそれぞれ表す画像データが生成され、端末装置16からサーバ14に送信される。サーバ14においては、制御部36がその画像データにデコード処理を適用することにより、画像形成装置10の機器識別情報と端末装置12の機器識別情報を抽出し、これにより画像形成装置10と端末装置12を識別する。別の例として、画像形成装置10と端末装置12の両方の外観を表わす外観画像データが生成され、端末装置16からサーバ14に送信されてもよい。この場合、サーバ14においては、制御部36が、外観画像対応付け情報を参照することにより、画像形成装置10の機器識別情報と端末装置12の機器識別情報を特定する。これにより、画像形成装置10と端末装置12が識別される。もちろん、連携対象の機器を識別するための処理は、端末装置16によって行われてもよい。   For example, a marker 50 such as a two-dimensional bar code is provided in the case of the image forming apparatus 10, and a marker 60 such as a two-dimensional bar code is provided in the case of the terminal device 12 (PC). The marker 60 is information in which the device identification information of the terminal device 12 is coded. When the marker type AR technology or the markerless type AR technology is used, the user captures an image of the cooperation target image forming apparatus 10 and the terminal apparatus 12 with the camera 42 of the terminal apparatus 16 (for example, a smartphone). In the example illustrated in FIG. 9, the image forming apparatus 10 and the terminal device 12 are photographed together in a state in which both the image forming apparatus 10 and the terminal device 12 are included in the imaging area of the camera 42. Thereby, image data representing each of the markers 50 and 60 is generated and transmitted from the terminal device 16 to the server 14. In the server 14, the control unit 36 applies the decoding process to the image data to extract the device identification information of the image forming device 10 and the device identification information of the terminal device 12, thereby the image forming device 10 and the terminal device Identify 12 As another example, appearance image data representing the appearance of both the image forming apparatus 10 and the terminal device 12 may be generated and transmitted from the terminal device 16 to the server 14. In this case, in the server 14, the control unit 36 specifies the device identification information of the image forming apparatus 10 and the device identification information of the terminal device 12 by referring to the appearance image correspondence information. Thereby, the image forming apparatus 10 and the terminal device 12 are identified. Of course, the process for identifying the device to be cooperated may be performed by the terminal device 16.

端末装置16のUI部46の表示部には機器表示画面62が表示され、その機器表示画面62に、画像形成装置10に紐付いた機器像64と端末装置12に紐付いた機器像66が表示される。機器像64,66は、カメラ42によって撮影された機器(画像形成装置10と端末装置12)の画像(撮影時のサイズを有する画像であってもよいし、拡大又は縮小された画像であってもよい)であってもよいし、識別された機器に紐付く予め用意された画像データ(撮影で得られた画像そのものではなく模式的な画像(例えばアイコン))であってもよい。上述したように、外部のカメラで撮影された機器を表わす画像を利用するようにしてもよい。   The device display screen 62 is displayed on the display unit of the UI unit 46 of the terminal device 16, and the device image 64 linked to the image forming apparatus 10 and the device image 66 linked to the terminal device 12 are displayed on the device display screen 62. Ru. The device images 64 and 66 may be images of the devices (the image forming apparatus 10 and the terminal device 12) taken by the camera 42 (the images at the time of shooting, or may be enlarged or reduced images) The image data may be the image data prepared in advance (not the image obtained by photographing itself but a schematic image (for example, an icon)). As described above, an image representing a device captured by an external camera may be used.

例えば、機器を撮影することで得られた画像データを利用する場合、現在の機器そのものの外観(例えば、キズ、メモ書き、機器に貼り付けられたシール等が反映された外観)が画像に反映されるので、ユーザにとって他の同種の機器との違いが視覚的により分かる効果がある。   For example, when using image data obtained by photographing the device, the appearance of the current device itself (for example, the appearance in which a scratch, a note, a sticker attached to the device, or the like is reflected) is reflected in the image As a result, it is possible for the user to visually recognize the difference from other similar devices.

模式的な画像を利用する場合、模式的な画像のデータは、例えばサーバ14から端末装置16に送信される。例えば画像形成装置10が識別されると、サーバ14の特定部38は、図6に示されている機器機能管理テーブル(機器機能情報32)を参照することにより、画像形成装置10に紐付く模式的な画像を特定する。その模式的な画像のデータはサーバ14から端末装置16に送信され、その模式的な画像は機器像64として機器表示画面62に表示される。端末装置12に紐付いた機器像66についても同様である。模式的な画像としての機器像64,66のデータが端末装置16に予め記憶されていてもよい。この場合、画像形成装置10が識別されると、端末装置16に記憶されている機器像64が機器表示画面62に表示される。端末装置12についても同様である。模式的な画像のデータは、サーバ14や端末装置16以外の装置に記憶されていてもよい。   When a schematic image is used, data of the schematic image is transmitted from the server 14 to the terminal device 16, for example. For example, when the image forming apparatus 10 is identified, the identifying unit 38 of the server 14 refers to the device function management table (device function information 32) illustrated in FIG. Specific images. The data of the schematic image is transmitted from the server 14 to the terminal device 16, and the schematic image is displayed on the device display screen 62 as the device image 64. The same applies to the device image 66 linked to the terminal device 12. Data of the device images 64 and 66 as schematic images may be stored in the terminal device 16 in advance. In this case, when the image forming apparatus 10 is identified, the device image 64 stored in the terminal device 16 is displayed on the device display screen 62. The same applies to the terminal device 12. The data of the schematic image may be stored in a device other than the server 14 or the terminal device 16.

また、機器が識別されると、その機器の名称を示す情報がサーバ14から端末装置16に送信され、端末装置16において、機器表示画面62に機器の名称が表示されてもよい。図9に示す例では、画像形成装置10は複合機であり、その名称は「複合機(B)」である。端末装置12はPC(パーソナルコンピュータ)であり、その名称は「PC(A)」である。   In addition, when the device is identified, information indicating the name of the device may be transmitted from the server 14 to the terminal device 16, and the terminal device 16 may display the name of the device on the device display screen 62. In the example shown in FIG. 9, the image forming apparatus 10 is a multifunction peripheral, and its name is "multifunctional peripheral (B)". The terminal device 12 is a PC (personal computer), and its name is "PC (A)".

なお、AR技術等を適用しても撮影対象の機器が識別されない場合、その撮影対象の機器を表わす機器像は、機器表示画面62に表示されなくてもよい。これにより、識別された機器の視認性が向上する。例えば、識別された機器と識別されない機器が混在し、それぞれがカメラ42によって撮影された場合、識別されない機器を表わす機器像を非表示にする。これにより、識別された機器を表わす機器像が、識別されない機器を表わす機器像に埋もれずに表示されるので、識別された機器の視認性が向上する。また、識別された機器を表わす機器像(例えば機器像64,66)を強調して表示してもよい。例えば、識別された機器を表わす機器像を特定の色で表示してもよいし、機器像の縁を強調して表示してもよいし、機器像を拡大して表示してもよいし、機器像を3次元で表示してもよいし、機器像を振動させて表示してもよい。これにより、識別された機器の視認性が向上する。   When the device to be imaged is not identified even if the AR technology or the like is applied, the device image representing the device to be imaged does not have to be displayed on the device display screen 62. This improves the visibility of the identified device. For example, when there are a mixture of identified devices and unidentified devices, and each of them is photographed by the camera 42, the device image representing the unidentified devices is not displayed. As a result, since the device image representing the identified device is displayed without being buried in the device image representing the non-identified device, the visibility of the identified device is improved. Also, an instrument image (for example, instrument images 64 and 66) representing the identified instrument may be displayed in an emphasized manner. For example, the device image representing the identified device may be displayed in a specific color, the edge of the device image may be highlighted, or the device image may be enlarged and displayed. The device image may be displayed in three dimensions, or may be displayed by vibrating the device image. This improves the visibility of the identified device.

ユーザが機器表示画面62上にて機器像64,66を操作することにより、連携対象の機器として画像形成装置10と端末装置12が指定され、画像形成装置10と端末装置12を連携させることにより実行される連携機能が特定される。機器像を操作する順番に応じた優先順位に従って、連携機能に関する情報が端末装置16のUI部46に表示される。   When the user operates the device images 64 and 66 on the device display screen 62, the image forming apparatus 10 and the terminal device 12 are designated as the devices to be cooperated, and by causing the image forming device 10 and the terminal device 12 to cooperate. The linkage function to be executed is identified. Information on the cooperation function is displayed on the UI unit 46 of the terminal device 16 according to the priority order according to the order in which the device image is operated.

以下、図10及び図11を参照して、連携機能を特定するための操作について詳しく説明する。   Hereinafter, with reference to FIG. 10 and FIG. 11, the operation for specifying the cooperation function will be described in detail.

図10及び図11には、端末装置16のUI部46に表示される画面の一例が示されている。例えば、画像形成装置10と端末装置12が連携対象の機器として識別されているものとする。図10(a)に示すように、端末装置16のUI部46には機器表示画面62が表示されており、その機器表示画面62に機器像64,66が表示されている。この状態で、ユーザは指示子(例えばユーザの指、ペン、スタイラス等)を用いて連携対象の機器を表わす機器像を繋ぐ。端末装置16の制御部48は、機器表示画面62への指示子の接触を検知し、機器表示画面62上での指示子の移動を検知する。例えば、矢印68で示すように、ユーザが操作子を用いて機器表示画面62上で機器像64をタッチして機器像66まで操作する(例えば、機器表示画面62上で操作子をなぞる)ことにより、機器像64と機器像66を繋ぐ。これにより、機器像64に紐付いた画像形成装置10(複合機(B))と機器像66に紐付いた端末装置12(PC(A))が、連携対象の機器として指定されるとともに、接続の順番が指定される。機器像を繋ぐ順番が接続の順番に相当する。図10(a)に示す例では、機器像64から機器像66へ画像を繋げているため、画像形成装置10(複合機(B))から端末装置12(PC(A))へ機器が接続されている。機器の接続順番を示す情報は、端末装置16からサーバ14に送信される。なお、端末装置16の制御部48は、ユーザがなぞった軌跡を表わす画像を機器表示画面62に表示させてもよいし、機器同士が接続された後は、その軌跡を予め設定された直線等に置き換えて機器表示画面62に表示させてもよい。   10 and 11 show an example of a screen displayed on the UI unit 46 of the terminal device 16. For example, it is assumed that the image forming apparatus 10 and the terminal device 12 are identified as devices to be cooperated with each other. As shown in FIG. 10A, a device display screen 62 is displayed on the UI unit 46 of the terminal device 16, and device images 64 and 66 are displayed on the device display screen 62. In this state, the user uses an indicator (for example, a user's finger, a pen, a stylus, or the like) to connect the device image representing the device to be cooperated. The control unit 48 of the terminal device 16 detects the contact of the indicator on the device display screen 62 and detects the movement of the indicator on the device display screen 62. For example, as indicated by the arrow 68, the user may use the operator to touch the device image 64 on the device display screen 62 to operate the device image 66 (for example, to trace the operation member on the device display screen 62) Thus, the device image 64 and the device image 66 are connected. As a result, the image forming apparatus 10 (the multifunction machine (B)) linked to the device image 64 and the terminal device 12 (PC (A)) linked to the device image 66 are designated as linked devices, and connected. The order is specified. The order of connecting device images corresponds to the order of connection. In the example shown in FIG. 10A, since the image is connected from the device image 64 to the device image 66, the device is connected from the image forming apparatus 10 (MFP (B)) to the terminal device 12 (PC (A)). It is done. The information indicating the connection order of the devices is transmitted from the terminal device 16 to the server 14. The control unit 48 of the terminal device 16 may display an image representing the locus traced by the user on the device display screen 62, and after the devices are connected, the locus is previously set as a straight line, etc. And may be displayed on the device display screen 62.

上記のように、連携対象の機器(例えば画像形成装置10と端末装置12)が指定されると、サーバ14の特定部38は、図7に示されている連携機能管理テーブル(連携機能情報34)において、PC(A)と複合機(B)の組み合わせに対応付けられている連携機能を特定する。これにより、PC(A)と複合機(B)を連携させることによって実行される連携機能が特定される。また、ユーザによって機器の接続順番が指定されると、特定部38は、連携機能管理テーブルにおいて、その接続順番に対応付けられている優先順位を特定する。図7を参照して具体例を挙げて説明すると、PC(A)と複合機(B)が連携対象の機器として指定されているため、それらによって実行される連携機能は「スキャン転送機能」と「印刷機能」である。また、複合機(B)からPC(A)へ機器が接続されているため(B→A)、「スキャン転送機能」の優先順位は「1位」であり、「印刷機能」の優先順位は「2位」である。   As described above, when devices to be cooperated (for example, the image forming apparatus 10 and the terminal device 12) are designated, the specifying unit 38 of the server 14 performs the cooperation function management table (cooperation function information 34 shown in FIG. 7). , Identify the cooperation function associated with the combination of the PC (A) and the multifunction machine (B). Thus, the cooperation function to be executed by causing the PC (A) and the multifunction machine (B) to cooperate is specified. In addition, when the connection order of devices is specified by the user, the specification unit 38 specifies the priority order associated with the connection order in the cooperation function management table. A specific example will be described with reference to FIG. 7. Since the PC (A) and the multi-functional peripheral (B) are designated as devices to be cooperated with each other, the cooperation function executed by them is “scan transfer function”. It is a "printing function". Also, since the device is connected from the multi-function device (B) to the PC (A) (B → A), the priority of the “scan transfer function” is “first place” and the priority of the “print function” is It is "second place".

上記のようにして特定された連携機能に関する情報と優先順位を示す情報は、サーバ14から端末装置16に送信される。端末装置16の制御部48は、その優先順位に従って、連携機能に関する情報を連携機能候補に関する情報としてUI部46に表示させる。   The information on the cooperation function identified as described above and the information indicating the priority are transmitted from the server 14 to the terminal device 16. The control unit 48 of the terminal device 16 causes the UI unit 46 to display the information on the cooperation function as the information on the cooperation function candidate according to the priority.

例えば図10(b)に示すように、端末装置16の制御部48は、UI部46に連携機能表示画面70を表示させ、その連携機能表示画面70に連携機能候補に関する情報を表示させる。「スキャン転送機能」の優先順位が「1位」であり、「印刷機能」の優先順位が「2位」であるため、「スキャン転送機能」に関する情報が「印刷機能」に関する情報よりも優先的に(例えば上位に)表示されている。例えば、「スキャン転送機能」に関する情報として、「複合機(B)でスキャンしたデータをPC(A)に転送する。」という「スキャン転送機能」の説明文が表示される。また、「印刷機能」に関する情報として、「PC(A)にあるデータを印刷する。」という「印刷機能」の説明文が表示される。   For example, as shown in FIG. 10B, the control unit 48 of the terminal device 16 causes the UI unit 46 to display the cooperation function display screen 70, and causes the cooperation function display screen 70 to display information on cooperation function candidates. Since the priority of "scan transfer function" is "first place" and the priority of "print function" is "second place", the information on "scan transfer function" has priority over the information on "print function" (For example, in the upper rank) is displayed. For example, as the information related to the “scan transfer function”, an explanatory note of “scan transfer function” of “transfer data scanned by the MFP (B) to the PC (A)” is displayed. Further, as the information regarding the "printing function", an explanatory text of "printing function" of "printing data in the PC (A)" is displayed.

連携機能がユーザによって指定されて実行指示が与えられると、指定された連携機能が実行される。例えば、「YES」ボタンがユーザによって押されると、その「YES」ボタンに紐付く連携機能が実行される。また、連携機能表示画面70に「戻る」ボタンが表示されており、ユーザが「戻る」ボタンを押すことにより、機器の接続処理が中止される。   When the collaboration function is designated by the user and given an execution instruction, the designated collaboration function is executed. For example, when the "YES" button is pressed by the user, a cooperation function tied to the "YES" button is executed. Further, a "return" button is displayed on the cooperation function display screen 70, and when the user presses the "return" button, the device connection process is canceled.

なお、連携機能の特定処理及び優先順位の特定処理は、端末装置16にて行われてもよい。   The identification processing of the cooperation function and the identification processing of the priority may be performed by the terminal device 16.

機器像の間を操作子でなぞる以外の操作として、丸印を付けるような描画操作によって連携対象の機器を指定するとともに、接続順番を指定してもよい。例えば、描画操作の順番が接続順番に相当する。別の例として、ユーザの音声指示に従って連携対象の機器や接続順番が指定されてもよい。   As an operation other than tracing between device images with an operator, a device to be cooperated may be designated by a drawing operation such as putting a circle, and a connection order may be designated. For example, the order of drawing operations corresponds to the connection order. As another example, the device to be cooperated and the connection order may be designated according to the user's voice instruction.

図11には別の操作の例が示されている。例えば図11(a)に示すように、ユーザが操作子を用いて、機器表示画面62上で機器像66をタッチし、矢印72で示す方向に機器像64まで操作することにより、機器像66と機器像64を繋ぐ。これにより、機器像66に紐付いた端末装置12(PC(A))と機器像64に紐付いた画像形成装置10(複合機(B))が、連携対象の機器として指定されるとともに、接続の順番が指定される。この例では、機器像66から機器像64へ画像を繋げているため、端末装置12(PC(A))から画像形成装置10(複合機(B))へ機器が接続されている。図7に示されている連携機能管理テーブルを参照すると、「印刷機能」の優先順位が「1位」であり、「スキャン転送機能」の優先順位は「2位」である。この場合、図11(b)に示すように、連携機能表示画面74において、「印刷機能」に関する情報が「スキャン転送機能」に関する情報よりも優先的に(例えば上位に)表示される。   An example of another operation is shown in FIG. For example, as shown in FIG. 11A, the user touches the device image 66 on the device display screen 62 using the operation element, and operates the device image 64 in the direction indicated by the arrow 72. And the device image 64 are connected. As a result, the terminal device 12 (PC (A)) linked to the device image 66 and the image forming apparatus 10 (multifunction machine (B) linked to the device image 64 are designated as devices to be cooperated, and The order is specified. In this example, since the image is connected from the device image 66 to the device image 64, the device is connected from the terminal device 12 (PC (A)) to the image forming apparatus 10 (multifunctional peripheral (B)). Referring to the cooperation function management table shown in FIG. 7, the priority of the “print function” is “first place”, and the priority of the “scan transfer function” is “second place”. In this case, as shown in FIG. 11B, on the cooperation function display screen 74, the information on the "print function" is displayed preferentially (for example, above) to the information on the "scan transfer function".

以上のように、第1実施形態によると、機器に紐付いた機器像同士を繋ぐことにより、機器が有する機能を利用する連携機能が特定される。また、画像を繋ぐ順番、つまり、機器を接続する順番に応じて、連携機能に関する情報の表示順位が変更される。機器の接続順番は、各機器で利用される機能の順番や、連携する機器間を移動するデータの移動順番を兼ねており、機器を接続する操作(つまり画像を繋ぐ操作)は、機能の順番やデータの移動順番を指定する操作を兼ねることになる。それ故、接続順番に応じて連携機能に関する情報の表示順位を変えることにより、ユーザが利用するであろうと予測される連携機能に関する情報が優先的に表示される。つまり、ユーザが利用する可能性の高い連携機能に関する情報が優先的に表示される。例えば、複合機(B)からPC(A)へ画像が繋がれた場合、「PC(A)よりも先に複合機(B)の機能を利用し、複合機(B)からPC(A)へデータを転送する」という連携機能がユーザによって利用されると予測される。また、PC(A)から複合機(B)へ画像が繋がれた場合、「複合機(B)よりも先にPC(A)の機能を利用し、PC(A)から複合機(B)へデータを転送する」という連携機能がユーザによって利用されると予測される。それ故、画像を繋ぐ順番に応じて連携機能に関する情報の表示順位を変えることにより、ユーザが利用する可能性の高い連携機能に関する情報が優先的に表示される。また、機器像同士を繋ぐ操作以外の特別な操作を行わずに、利用する機能の順番やデータの移動順番が指定され、ユーザが利用するであろうと予測される連携機能に関する情報が表示される。   As described above, according to the first embodiment, by linking the device images linked to the device, a cooperation function that uses the function of the device is identified. Further, the display order of the information related to the cooperative function is changed according to the order of connecting the images, that is, the order of connecting the devices. The connection order of the devices is the same as the order of the functions used by each device and the movement order of the data moving between the linked devices, and the operation of connecting the devices (that is, the operation of connecting the images) is the order of the functions And the operation to specify the data transfer order. Therefore, by changing the display order of the information on the cooperation function according to the connection order, the information on the cooperation function predicted to be used by the user is preferentially displayed. That is, the information regarding the cooperation function highly likely to be used by the user is preferentially displayed. For example, when an image is connected from the multi-function device (B) to the PC (A), “Use the function of the multi-function device (B) before the PC (A), and the multi-function device (B) to PC (A) It is predicted that the cooperation function of “transfer data to” is used by the user. Also, when an image is connected from the PC (A) to the multi-function device (B), “Use the function of the PC (A) before the multi-function device (B) and use the PC (A) to multi-function device (B) It is predicted that the cooperation function of “transfer data to” is used by the user. Therefore, by changing the display order of the information on the cooperation function according to the order of connecting the images, the information on the cooperation function highly likely to be used by the user is preferentially displayed. In addition, the order of functions to be used and the order of movement of data are specified without performing a special operation other than the operation of connecting device images, and information on a cooperation function predicted to be used by the user is displayed. .

以下、第1実施形態の変形例について説明する。   Hereinafter, modifications of the first embodiment will be described.

(変形例1)
以下、変形例1について説明する。変形例1においては、機器に紐付いた機器像内の位置に応じて、連携機能に割り当てられる機器が有する機能が異なっている。機器像内において特定の位置がユーザによって指定されると、その特定の位置に対応する機能を利用する連携機能に関する情報が優先的に表示される。以下、変形例1について詳しく説明する。
(Modification 1)
Hereinafter, the first modification will be described. In the first modification, the function of the device assigned to the cooperative function is different according to the position in the device image linked to the device. When a specific position is designated by the user in the device image, information on a cooperation function using a function corresponding to the specific position is preferentially displayed. Hereinafter, the first modification will be described in detail.

図12には、変形例1に係る機器機能管理テーブルの一例が示されている。変形例1に係る機器機能管理テーブルのデータは、機器機能情報32としてサーバ14に記憶されている。変形例1に係る機器機能管理テーブルにおいては、一例として、機器IDと、機器名(例えば機器の種類)を示す情報と、画像内位置を示す情報と、その画像内位置に対応する機能を示す情報(機能識別情報)と、画像IDと、が対応付けられている。画像内位置は、機器に紐付いた機器像内の特定の位置(特定の部位)であり、例えば、機器を模式的に表す機器像内の特定の位置や、カメラによって撮影された機器像内の特定の位置である。画像内の特定の位置毎に、異なる機能が対応付けられている。   FIG. 12 illustrates an example of the device function management table according to the first modification. Data of the device function management table according to the first modification is stored in the server 14 as the device function information 32. In the device function management table according to the first modification, as an example, the device ID, information indicating the device name (for example, type of device), information indicating the position in the image, and the function corresponding to the position in the image Information (function identification information) and an image ID are associated with each other. The position in the image is a specific position (specific part) in the device image linked to the device, and for example, a specific position in the device image schematically representing the device or in the device image captured by the camera It is a specific position. Different functions are associated with specific positions in the image.

図13には、端末装置16のUI部46に表示される画面の一例が示されている。例えば、画像形成装置10(複合機(B))と端末装置12(PC(A))が連携対象の機器として識別されているものとする。図13(a)に示すように、端末装置16のUI部46には機器表示画面62が表示されており、その機器表示画面62に機器像64,66が表示されている。例えば、機器像64において複合機(B)の本体部分に対応する特定の位置(部分像76)には、「プリント機能」が対応付けられている。機器像64において複合機(B)の原稿カバーや原稿ガラスや自動原稿給紙装置に対応する特定の位置(部分像78)には、「スキャン機能」が対応付けられている。機器像64において後処理装置に対応する特定の位置(部分像80)には、「ステープル止め機能」が対応付けられている。「ステープル止め機能」は、出力された用紙をステープルによって止める機能である。また、機器像66においてPC(A)の本体部分に対応する特定の位置(部分像82)には、「データ保存機能」が対応付けられている。機器像66においてPC(A)の表示部に対応する特定の位置(部分像84)には、「画面表示機能」が対応付けられている。「データ保存機能」は、他の装置から送られてきたデータをPC(A)にて保存する機能である。「画面表示機能」は、他の装置から送られてきたデータをPC(A)にて表示する機能である。   An example of the screen displayed on the UI unit 46 of the terminal device 16 is shown in FIG. For example, it is assumed that the image forming apparatus 10 (multifunctional peripheral (B)) and the terminal device 12 (PC (A)) are identified as devices to be cooperated with each other. As shown in FIG. 13A, the device display screen 62 is displayed on the UI unit 46 of the terminal device 16, and the device images 64 and 66 are displayed on the device display screen 62. For example, “print function” is associated with a specific position (partial image 76) corresponding to the main body portion of the multifunction machine (B) in the device image 64. A “scan function” is associated with a specific position (partial image 78) corresponding to the document cover or document glass of the multifunction machine (B) or the automatic document feeder in the device image 64. The “stapling function” is associated with a specific position (partial image 80) corresponding to the post-processing device in the device image 64. The "stapling function" is a function of stapling the output sheet. In addition, a “data storage function” is associated with a specific position (partial image 82) corresponding to the main body of the PC (A) in the device image 66. The “screen display function” is associated with the specific position (partial image 84) corresponding to the display unit of the PC (A) in the device image 66. The "data storage function" is a function for storing data sent from another device in the PC (A). The “screen display function” is a function to display data sent from another device on the PC (A).

なお、端末装置16の制御部48は、機器像内の特定の位置に対応付けられている機能の名称(例えば印刷やスキャン等)を機器表示画面62に表示させてもよい。これにより、特定の位置にどのような機能が対応しているのかが分かり易い情報がユーザに提供される。もちろん、機能の名称は表示されなくてもよい。   The control unit 48 of the terminal device 16 may cause the device display screen 62 to display the name (for example, printing, scanning, etc.) of the function associated with the specific position in the device image. This provides the user with easy-to-understand information on which function corresponds to a specific position. Of course, the name of the function may not be displayed.

変形例1では、機器像において機能が対応付けられている位置がユーザによって指定されると、その指定された位置に対応付けられている機能が連携対象の機能として指定される。ユーザは指示子を用いて、連携対象の機器を表わす機器像において機能が対応付けられている特定の位置(部分像)を繋ぐ。例えば、矢印86で示すように、ユーザが操作子を用いて、機器表示画面62上で部分像78をタッチして部分像84まで操作することにより、部分像78と部分像84を繋ぐ。これにより、部分像78を含む機器像64に紐付いた複合機(B)と部分像84を含む機器像66に紐付いたPC(A)が、連携対象の機器として指定されるとともに、部分像78に対応する「スキャン機能」と部分像84に対応する「画面表示機能」が指定され、さらに、接続の順番が指定される。部分像を繋ぐ順番が接続の順番に相当する。図13(a)に示す例では、部分像78から部分像84へ画像を繋げているため、複合機(B)からPC(A)へ機器が接続されている。また、連携機能に利用する機能として「スキャン機能」と「画面表示機能」が指定されている。機器の接続順番を示す情報と、機器像内においてユーザによって指定された特定の位置を示す情報が、端末装置16からサーバ14に送信される。   In the first modification, when the position where the function is associated in the device image is designated by the user, the function associated with the designated position is designated as the function to be cooperated. The user uses the indicator to connect a specific position (partial image) to which the function is associated in the device image representing the device to be cooperated. For example, as indicated by the arrow 86, the user touches the partial image 78 on the device display screen 62 using the operator to operate the partial image 84, thereby connecting the partial image 78 and the partial image 84. As a result, the multifunction machine (B) linked to the device image 64 including the partial image 78 and the PC (A) linked to the device image 66 including the partial image 84 are designated as devices to be cooperated with each other. The "scan function" corresponding to the "screen display function" corresponding to the partial image 84 is specified, and the order of connection is further specified. The order of connecting the partial images corresponds to the order of connection. In the example shown in FIG. 13A, since the image is connected from the partial image 78 to the partial image 84, a device is connected from the multi-functional peripheral (B) to the PC (A). In addition, "scan function" and "screen display function" are specified as functions to be used for the cooperation function. Information indicating the connection order of the devices and information indicating a specific position designated by the user in the device image are transmitted from the terminal device 16 to the server 14.

連携対象の機器(例えばPC(A)と複合機(B))が識別されると、サーバ14の特定部38は、図7に示されている連携機能管理テーブルにおいて、PC(A)と複合機(B)を連携させることによって実現される連携機能を特定する。また、特定部38は、図12に示されている機器機能管理テーブルを参照することにより、機器像内においてユーザによって指定された特定に位置に対応付けられている機能を特定する。そして、特定部38は、PC(A)と複合機(B)とを連携させることによって実現される連携機能群の中で、ユーザによって指定された位置に対応付けられている機能を利用する連携機能の優先順位を上げて、その機能を利用しない連携機能の優先順位を下げる。   When devices to be cooperated (for example, PC (A) and multifunction peripheral (B)) are identified, the identifying unit 38 of the server 14 combines with PC (A) in the cooperation function management table shown in FIG. 7. Identify the collaboration function that is realized by linking the machine (B). Further, the specifying unit 38 specifies the function associated with the position specified by the user in the device image by referring to the device function management table shown in FIG. 12. Then, the specifying unit 38 uses the function associated with the position designated by the user in the cooperation function group realized by causing the PC (A) and the multifunction machine (B) to cooperate with each other. Raise the priority of the function and lower the priority of the linked function that does not use that function.

上記のようにして特定された連携機能に関する情報と優先順位を示す情報は、サーバ14から端末装置16に送信される。端末装置16の制御部48は、その優先順位に従って、連携機能に関する情報を連携機能候補に関する情報としてUI部46に表示させる。   The information on the cooperation function identified as described above and the information indicating the priority are transmitted from the server 14 to the terminal device 16. The control unit 48 of the terminal device 16 causes the UI unit 46 to display the information on the cooperation function as the information on the cooperation function candidate according to the priority.

例えば図13(b)に示すように、端末装置16の制御部48は、UI部46の表示部に連携機能表示画面88を表示させ、その連携機能表示画面88に連携機能候補に関する情報を表示させる。「スキャン機能」と「画面表示機能」がその順番でユーザによって指定されているため、「スキャン機能」と「画像表示機能」を連携させることによって実行される連携機能「スキャン転送表示機能」に関する情報が、他の連携機能に関する情報よりも優先的に(例えば上位に)表示される。例えば、「スキャン機能」と「データ保存機能」を連携させることによって実行される連携機能「スキャン転送保存機能」に関する情報よりも、「スキャン転送表示機能」に関する情報が優先的に表示される。なお、スキャン転送表示機能は、複合機(B)によるスキャンによって生成されたデータをPC(A)に転送してPC(A)の画面に表示する機能である。スキャン転送保存機能は、複合機(B)によるスキャンによって生成されたデータをPC(A)に転送してPC(A)に保存する機能である。図13(b)に示す例では、各連携機能に関する情報として、各連携機能の説明文が表示されている。   For example, as shown in FIG. 13B, the control unit 48 of the terminal device 16 causes the display unit of the UI unit 46 to display the cooperation function display screen 88, and the cooperation function display screen 88 displays information on cooperation function candidates. Let Since the "scan function" and the "screen display function" are designated by the user in that order, the information on the "scan transfer display function" linked function executed by linking the "scan function" and the "image display function" Is displayed preferentially (for example, at a higher rank) than information on other cooperation functions. For example, information related to the “scan transfer display function” is displayed with priority over information related to the linked function “scan transfer storage function” executed by linking the “scan function” and the “data storage function”. The scan transfer display function is a function of transferring data generated by scanning by the multi-functional peripheral (B) to the PC (A) and displaying it on the screen of the PC (A). The scan transfer storage function is a function of transferring data generated by scanning by the multi-functional peripheral (B) to the PC (A) and storing the data in the PC (A). In the example illustrated in FIG. 13B, a descriptive text of each cooperation function is displayed as information on each cooperation function.

変形例1によると、連携対象の機器が複数の機能を有している場合に、機能が個別的に指定され、その指定された機能を利用する連携機能に関する情報が優先的に表示される。これにより、ユーザが利用するであろうと予測される連携機能が優先的に表示される。   According to the first modification, when the device to be cooperated has a plurality of functions, the function is individually designated, and information on the cooperation function using the designated function is preferentially displayed. Thereby, the cooperation function predicted to be used by the user is preferentially displayed.

図14には、変形例1の別の例が示されている。図14は、端末装置16のUI部46に表示される画面の一例を示す図である。端末装置16の制御部48は、機能像内において、特定の機能が割り当てられている特定の位置(部分像)に、識別可能な接触領域像を重ねて表示させる。図14(a)に示す例では、部分像76に接触領域像90が重畳して表示されており、部分像78に接触領域像92が重畳して表示されており、部分像80に接触領域像94が重畳して表示されている。また、部分像82に接触領域像96が重畳して表示されており、部分像84に接触領域像98が重畳して表示されている。各接触領域像は、例えば、半透明又は不透明の画像であり、円形、楕円形、矩形等の形状を有する。特定の機能が割り当てられている位置に接触領域像を表示することにより、その位置が強調されるので、ユーザにとって、どの位置に機能が割り当てられているのかが分かり易くなる。つまり、どの位置が連携機能に利用される機能として反応する位置であるのかが分かり易くなる。   Another example of the first modification is shown in FIG. FIG. 14 is a view showing an example of a screen displayed on the UI unit 46 of the terminal device 16. The control unit 48 of the terminal device 16 superimposes and displays an identifiable touch area image at a specific position (partial image) to which a specific function is assigned in the functional image. In the example shown in FIG. 14A, the touch area image 90 is displayed superimposed on the partial image 76, the touch area image 92 is displayed superimposed on the partial image 78, and the touch area is displayed on the partial image 80. An image 94 is displayed superimposed. Further, the contact area image 96 is displayed superimposed on the partial image 82, and the contact area image 98 is displayed superimposed on the partial image 84. Each contact area image is, for example, a translucent or opaque image, and has a shape such as a circle, an ellipse, or a rectangle. By displaying the contact area image at the position to which the specific function is assigned, the position is emphasized, so that it is easy for the user to understand to which position the function is assigned. That is, it becomes easy to understand which position is the position that responds as the function used for the cooperation function.

また、端末装置16の制御部48は、連携機能として利用される機能に対応する接触領域像や、ユーザによって指定された接触領域像が、他の接触領域像から識別されるように接触領域像の表示態様(例えば色及び形状の中の少なくとも1つ)を変えてもよい。例えば図14(b)に示すように、矢印100で示す操作によって、部分像78と部分像84が繋がれた場合、部分像78に対応する接触領域像92と部分像84に対応する接触領域像98の色が、他の接触領域像とは異なる色で表示される。   In addition, the control unit 48 of the terminal device 16 detects the touch area image such that the touch area image corresponding to the function used as the cooperation function or the touch area image designated by the user is distinguished from the other touch area images. The display mode (for example, at least one of color and shape) may be changed. For example, as shown in FIG. 14B, when the partial image 78 and the partial image 84 are connected by the operation shown by the arrow 100, the contact area image 92 corresponding to the partial image 78 and the contact area corresponding to the partial image 84 The color of the image 98 is displayed in a color different from the other contact area images.

図15には、変形例1の更に別の例が示されている。図15は、端末装置16のUI部46に表示される画面の一例を示す図である。識別された機器が複数の機能を有している場合、同一機器が有する複数の機能が指定されることにより、当該複数の機能を連携することによって実行される連携機能が指定される。例えば図15(a)に示すように、ユーザが、矢印102,104,106が示す方向に画像を繋いだとする。この場合、部分像78,84,82,76が、その順番で繋がれる。サーバ14の特定部38は、部分像78,84,82,76に割り当てられている機能(スキャン機能、画面表示機能、データ保存機能、及び、プリント機能)を特定し、接続の順番に従って各機能を利用する連携機能を特定し、その連携機能の優先順位を上げる。これにより、その連携機能に関する情報が、他の連携機能に関する情報よりも優先的に表示される。図15(b)には、連携機能表示画面108が示されており、その連携機能表示画面108に、その連携機能に関する情報が優先的に表示されている。優先的な連携機能は、例えば、「複合機(B)によるスキャンによって生成されたデータをPC(A)に転送してPC(A)の画面に表示し、PC(A)にて色味調整を行った後、そのデータをPC(A)に保存するとともに複合機(B)に転送して複合機(B)にて印刷する」機能である。   FIG. 15 shows still another example of the first modification. FIG. 15 is a view showing an example of a screen displayed on the UI unit 46 of the terminal device 16. When the identified device has a plurality of functions, by designating a plurality of functions possessed by the same device, a collaboration function to be executed by linking the plurality of functions is designated. For example, as illustrated in FIG. 15A, it is assumed that the user connects images in the directions indicated by the arrows 102, 104, and 106. In this case, the partial images 78, 84, 82, 76 are connected in that order. The specifying unit 38 of the server 14 specifies the functions (scan function, screen display function, data storage function, and print function) assigned to the partial images 78, 84, 82, 76, and each function in accordance with the order of connection Identify the collaboration function that uses the and prioritize the collaboration function. Thereby, the information on the cooperation function is displayed with priority over the information on other cooperation functions. The linked function display screen 108 is shown in FIG. 15 (b), and the linked function display screen 108 preferentially displays information on the linked function. For example, “a data transfer generated by scanning with the MFP (B) is transferred to the PC (A) and displayed on the screen of the PC (A), and the color adjustment is performed by the PC (A). After that, the data is stored in the PC (A) and transferred to the multi-function device (B) for printing on the multi-function device (B).

(変形例2)
以下、図16及び図17を参照して、変形例2について説明する。図16及び図17には、端末装置16に表示される画面の一例が示されている。変形例2においては、予め設定された時間以上の間、機器像が押し続けられた場合に、複数機能選択モード(複数の機能を指定するモード)に移行する。
(Modification 2)
Hereinafter, the second modification will be described with reference to FIGS. 16 and 17. An example of the screen displayed on the terminal device 16 is shown in FIG. 16 and FIG. In the second modification, when the device image is continuously pressed for a predetermined time or more, the mode is shifted to a multiple function selection mode (a mode for specifying a plurality of functions).

変形例2においても、画像形成装置10(複合機(B))と端末装置12(PC(A))が、連携対象の機器として識別されており、図16(a)に示すように、端末装置16において、機器表示画面62に機器像64,66が表示されている。例えば、ユーザが操作子を用いて、機器像64を予め設定された時間以上の間、指定し続けたものとする。つまり、機器像64が長押しされたものとする。図16(a)に示す例では、符号110で示す箇所が長押しされている。この場合、図16(b)に示すように、端末装置16のUI部46に機能選択画面112が表示され、その機能選択画面112に、複合機(B)が有する機能の一覧が表示される。図16(b)に示す例では、各機能の名称(スキャン、印刷、ステープラ止め、FAX送信)が表示されている。例えば、ユーザによって機器像64が指定されると、機器像64に紐付いた複合機(B)の機器識別情報が端末装置16からサーバ14に送信される。サーバ14においては、機器機能管理テーブルを参照することにより、複合機(B)が有する機能が特定される。その機能に関する情報(例えば機器識別情報)がサーバ14から端末装置16に送信されて表示される。もちろん、端末装置16にて、複合機(B)が有する機能が特定されてもよい。なお、端末装置16のユーザインターフェースが、ユーザの操作時の接触力を複数段階に分けて検知できる場合、その接触力が強くなったことを検知して(例えば、予め設定された接触力を検知した場合)、機能選択画面112を表示するようにしてもよい。   Also in the second modification, the image forming apparatus 10 (the multifunction machine (B)) and the terminal device 12 (PC (A)) are identified as devices to be cooperated with each other, as shown in FIG. In the device 16, device images 64 and 66 are displayed on the device display screen 62. For example, it is assumed that the user continues to designate the device image 64 for a predetermined time or more using the operation elements. That is, it is assumed that the device image 64 has been long pressed. In the example shown in FIG. 16A, the portion indicated by reference numeral 110 is long pressed. In this case, as shown in FIG. 16B, the function selection screen 112 is displayed on the UI unit 46 of the terminal device 16, and the function selection screen 112 displays a list of functions possessed by the multifunction peripheral (B). . In the example shown in FIG. 16B, the names of the functions (scan, print, stapler stop, fax transmission) are displayed. For example, when the device image 64 is designated by the user, the device identification information of the multifunction peripheral (B) linked to the device image 64 is transmitted from the terminal device 16 to the server 14. In the server 14, the function possessed by the multifunction machine (B) is specified by referring to the device function management table. Information on the function (for example, device identification information) is transmitted from the server 14 to the terminal device 16 and displayed. Of course, the terminal device 16 may specify the function of the multifunction peripheral (B). In addition, when the user interface of the terminal device 16 can detect the contact force at the time of a user's operation in multiple steps and detect it, it detects that the contact force became strong (for example, detects the contact force set beforehand) Function selection screen 112 may be displayed.

図16(b)に示されている機能選択画面112において、連携機能に利用する複数の機能がユーザによって選択される。例えば、(1)スキャン機能と(4)FAX送信機能が選択されたものとする。この場合、図16(c)に示すように、端末装置16のUI部46には確認画面114が表示される。確認画面114には、ユーザによって選択された機能を示す情報が表示される。そして、確認画面114において、ユーザが連携の順番(利用の順番)を指定すると、図17(a)に示すように、端末装置16のUI部46には、別の確認画面116が表示される。図17(a)に示す例では、(1)スキャン機能の順番が「1番」であり、(4)FAX送信機能の順番が「2番」である。なお、図16(b)に示されている機能選択画面112において、連携の順番に従って、連携機能に利用する複数の機能がユーザによって選択されてもよい。この場合、図16(c)に示されている確認画面114の表示が省略されて、図17(a)に示されている確認画面116が端末装置16のUI部46に表示される。   In the function selection screen 112 shown in FIG. 16B, the user selects a plurality of functions used for the cooperation function. For example, it is assumed that (1) scan function and (4) fax transmission function are selected. In this case, as shown in FIG. 16C, the confirmation screen 114 is displayed on the UI unit 46 of the terminal device 16. The confirmation screen 114 displays information indicating the function selected by the user. Then, when the user designates the order of cooperation (order of use) in the confirmation screen 114, another confirmation screen 116 is displayed on the UI unit 46 of the terminal device 16, as shown in FIG. 17A. . In the example shown in FIG. 17A, (1) the order of the scan function is "No. 1", and (4) the order of the FAX transmission function is "No. 2". In the function selection screen 112 shown in FIG. 16B, the user may select a plurality of functions used for the cooperation function in accordance with the order of cooperation. In this case, the display of the confirmation screen 114 illustrated in FIG. 16C is omitted, and the confirmation screen 116 illustrated in FIG. 17A is displayed on the UI unit 46 of the terminal device 16.

次に、図17(a)に示されている確認画面116において、ユーザによって「YES」ボタンが押されると、連携機能に利用される複合機(B)の機能が確定され、図17(b)に示すように、画面は機器表示画面62に遷移する。この機器表示画面62において、矢印118で示すように、ユーザが機器像64と機器像66を繋ぐ。これにより、連携機能に利用される機器としてPC(A)が指定されるとともに、連携の順番(利用の順番)が指定される。サーバ14の特定部38は、連携の順番に従って各機能を利用する連携機能を特定し、その連携機能の優先順位を上げる。これにより、その連携機能に関する情報が、他の連携機能に関する情報よりも優先的に表示される。連携機能に関する情報は、サーバ14から端末装置16に送信されて表示される。例えば図17(c)に示すように、連携機能表示画面120が端末装置16のUI部46に表示され、連携機能表示画面120に、連携機能に関する情報が表示される。連携の順番に従って各機能を利用する連携機能に関する情報は優先的に表示される。優先的な連携機能は、例えば、「複合機(B)によるスキャンによって生成された画像をFAX送信し、そのFAX送信したデータの写しをPC(A)に転送する」機能である。   Next, in the confirmation screen 116 shown in FIG. 17A, when the user presses the “YES” button, the function of the multifunction peripheral (B) used for the cooperation function is determined, and FIG. As shown in), the screen transitions to the device display screen 62. On the device display screen 62, as indicated by an arrow 118, the user connects the device image 64 and the device image 66. As a result, the PC (A) is specified as a device to be used for the cooperation function, and the order of cooperation (order of use) is specified. The specifying unit 38 of the server 14 specifies a cooperation function that uses each function in accordance with the order of cooperation, and raises the priority of the cooperation function. Thereby, the information on the cooperation function is displayed with priority over the information on other cooperation functions. The information regarding the cooperation function is transmitted from the server 14 to the terminal device 16 and displayed. For example, as shown in FIG. 17C, the cooperation function display screen 120 is displayed on the UI unit 46 of the terminal device 16, and information on the cooperation function is displayed on the cooperation function display screen 120. Information on cooperation functions that use each function according to the order of cooperation is preferentially displayed. The preferential cooperation function is, for example, a function “fax-transmits an image generated by scanning by the multifunction machine (B) and transfers a copy of the fax-transmitted data to the PC (A)”.

なお、図17(a)に示されている確認画面116において、ユーザによって「NO」ボタンが押されると、連携機能に利用される複合機(B)の機能の選択が解除され、画面は機能選択画面112に戻る。また、機能選択画面112には「キャンセル」ボタンが表示されており、ユーザによって「キャンセル」ボタンが押されると、画面は機器表示画面62に戻る。   In the confirmation screen 116 shown in FIG. 17A, when the user presses the “NO” button, the selection of the function of the multifunction machine (B) used for the cooperation function is cancelled, and the screen is a function It returns to the selection screen 112. Further, a "cancel" button is displayed on the function selection screen 112, and when the "cancel" button is pressed by the user, the screen returns to the device display screen 62.

変形例2によると、指定された機器が有する機能の一覧が表示されるので、当該機器がどのような機能を有しているのかがユーザにとって分かり易くなる。   According to the second modification, since a list of functions possessed by the specified device is displayed, it is easy for the user to understand what kind of function the device has.

図18には、変形例2の別の例が示されている。変形例2においては、機器表示画面62に、複数の機能を選択するためのボタン像122が表示されている。ユーザが機能像を押しながらボタン像122を押すと、モードは複数機能選択モードに移行する。図18に示す例では、符号124で示すように、複合機(B)に紐付いた機器像64がユーザによって押された状態で、ボタン像122が押されている。この場合、画面は、図16(b)に示されている機能選択画面112に遷移する。それ以降、図16及び図17を参照して説明した処理が行われる。   Another example of the modification 2 is shown in FIG. In the second modification, the device display screen 62 displays a button image 122 for selecting a plurality of functions. When the user presses the button image 122 while pressing the functional image, the mode shifts to the multiple function selection mode. In the example shown in FIG. 18, as indicated by reference numeral 124, the button image 122 is pressed in a state where the device image 64 linked to the multi-functional peripheral (B) is pressed by the user. In this case, the screen changes to the function selection screen 112 shown in FIG. Thereafter, the processing described with reference to FIGS. 16 and 17 is performed.

(変形例3)
以下、図19を参照して、変形例3について説明する。図19には、端末装置16のUI部46に表示される画面の一例が示されている。
(Modification 3)
Hereinafter, the third modification will be described with reference to FIG. An example of a screen displayed on the UI unit 46 of the terminal device 16 is shown in FIG.

変形例3においても、画像形成装置10(複合機(B))と端末装置12(PC(A))が、連携対象の機器として識別されており、図19(a)に示すように、端末装置16において、機器表示画面62に機器像64,66が表示されている。また、矢印126,128,130で示すように、部分像78,84,82,76が、その順番で繋がれているものとする。つまり、スキャン機能、画面表示機能、データ保存機能、及び、プリント機能が、その順番で指定されている。   Also in the third modification, the image forming apparatus 10 (the multifunction machine (B)) and the terminal device 12 (PC (A)) are identified as devices to be cooperated, as shown in FIG. 19A, the terminal In the device 16, device images 64 and 66 are displayed on the device display screen 62. Further, as shown by arrows 126, 128 and 130, partial images 78, 84, 82 and 76 are connected in that order. That is, the scan function, the screen display function, the data storage function, and the print function are designated in that order.

変形例3においては、解除対象の画像の1つ前に繋がれた画像が指定されると、解除対象の画像に紐付いた機能が連携機能から解除される。つまり、解除対象の機能が連携対象の機能から除外される。例えば、解除対象の画像の1つ前に繋がれた画像が指定されると、その指定を示す情報が端末装置16からサーバ14に送信され、サーバ14の特定部38は、解除対象の画像に紐付いた機能を連携対象の機能から除外する。   In the third modification, when the image connected one before the cancellation target image is designated, the function associated with the cancellation target image is canceled from the cooperation function. That is, the function to be canceled is excluded from the function to be cooperated. For example, when an image linked to one before the image to be canceled is designated, information indicating the designation is transmitted from the terminal device 16 to the server 14, and the identifying unit 38 of the server 14 Exclude linked functions from linked functions.

図19(a)に示す例で説明すると、破線の矢印132で示すように、部分像76から部分像82へ画像が繋がれている。つまり、部分像76の1つ前に繋がれた部分像82が指定されている。この場合、部分像76に紐付いた機能(プリント機能)が連携対象の機能から除外される。   In the example shown in FIG. 19A, as shown by the broken arrow 132, an image is connected from the partial image 76 to the partial image 82. That is, the partial image 82 connected to the front of the partial image 76 is designated. In this case, the function (print function) linked to the partial image 76 is excluded from the functions to be linked.

その後、図19(b)に示すように、矢印134で示す方向に、ユーザによって、部分像82から部分像80へ画像が繋がれた場合、部分像80に紐付いた機能(ステープラ止め機能)が連携対象の機能として選択され、部分像80に紐付いた機能を利用する連携機能が優先的に選択される。   Thereafter, as shown in FIG. 19B, when the image is connected from the partial image 82 to the partial image 80 by the user in the direction indicated by the arrow 134, the function (stapler stop function) linked to the partial image 80 has The cooperation function which is selected as the cooperation target function and uses the function associated with the partial image 80 is preferentially selected.

変形例3によると、画像を繋ぐ操作以外の特別な操作を行わずに、解除対象の機能が連携対象の機能から除外され、解除対象の機能を利用する連携機能が解除される。例えば、連携対象の機能を間違って指定した場合、その機能に紐付いた画像よりも1つ前に繋いだ画像を指定することにより、それ以外の特別な操作を行わずに、間違って指定された機能が解除される。これにより、解除ボタン等を用いて機能を連携対象の機能から除外する場合と比べて、簡単な操作で解除対象の機能が除外される。   According to the third modification, the function to be canceled is excluded from the function to be cooperated without performing a special operation other than the operation to connect the images, and the cooperation function to use the function to be canceled is cancelled. For example, if a function to be linked is specified incorrectly, by specifying an image linked one before the image linked to that function, it is specified incorrectly without performing any other special operation. The function is released. As a result, the function to be canceled is excluded with a simple operation as compared with the case where the function is excluded from the functions to be cooperated using the release button or the like.

なお、解除用の操作の軌跡(例えば矢印132の軌跡)が、機器表示画面62に表示されてもよい。この場合、接続用の操作の軌跡(例えば矢印126,128,130の軌跡)とは異なる表示態様(例えば異なる色や異なる線の種類)で、解除用の操作の軌跡が表示されてもよい。   The trajectory of the release operation (for example, the trajectory of the arrow 132) may be displayed on the device display screen 62. In this case, the trajectory of the release operation may be displayed in a display mode (for example, different colors or different types of lines) different from the trajectory of the connection operation (for example, the trajectory of the arrows 126, 128, 130).

別の例として、連携を解除する場合、ユーザが機器表示画面62上で解除対象の機器に紐付いた機器像や部分像を指定してもよいし、連携解除ボタンを押してもよい。また、連携対象ではない機器が機器表示画面62に写り込んでいる場合、ユーザが機器表示画面62上でその機器に紐付いた機器像を指定することにより、その機器を連携対象の機器から除外してもよい。解除対象の機器に紐付いた機器像にバツ印等を付けるような予め設定された操作が行われた場合に、その機器が連携対象の機器から除外されてもよい。   As another example, when releasing the cooperation, the user may designate on the device display screen 62 the device image or the partial image linked to the device to be released, or may push the cooperation release button. Also, when a device that is not a collaboration target is reflected on the device display screen 62, the user designates the device image linked to the device on the device display screen 62, thereby excluding the device from the devices of the collaboration target. May be The device may be excluded from the devices to be cooperated when a preset operation is performed such as putting a cross mark on the device image linked to the device to be canceled.

(変形例4)
以下、図20を参照して、変形例4について説明する。図20には、端末装置16のUI部46に表示される画面の一例が示されている。
(Modification 4)
Hereinafter, the fourth modification will be described with reference to FIG. An example of a screen displayed on the UI unit 46 of the terminal device 16 is shown in FIG.

変形例4においても、画像形成装置10(複合機(B))と端末装置12(PC(A))が、連携対象の機器として識別されており、図20(a)に示すように、端末装置16において、機器表示画面62に機器像64,66が表示されている。また、矢印136で示すように、部分像78,84(接触領域像92,98)が、その順番で繋がれているものとする。つまり、スキャン機能及び画面表示機能が、その順番で指定されている。   Also in the fourth modification, the image forming apparatus 10 (the multi-function device (B)) and the terminal device 12 (PC (A)) are identified as devices to be cooperated, and as shown in FIG. In the device 16, device images 64 and 66 are displayed on the device display screen 62. Further, as shown by an arrow 136, partial images 78 and 84 (contact area images 92 and 98) are assumed to be connected in that order. That is, the scan function and the screen display function are designated in that order.

変形例4においては、端末装置16の制御部48は、最後に連携した機器を表わす機器像を機器表示画面62に残して表示させつつ、カメラ42の撮影領域を変更して機器表示画面62に表示させる。この場合、既に連携された機器(例えば複合機(B)とPC(A))の識別情報は端末装置16又はサーバ14の記憶部に記憶される。   In the fourth modification, the control unit 48 of the terminal device 16 changes the imaging area of the camera 42 and displays it on the device display screen 62 while displaying the device image representing the device that cooperated last on the device display screen 62. Display. In this case, the identification information of the devices (for example, the multifunction machine (B) and the PC (A)) that have already cooperated with each other is stored in the storage unit of the terminal device 16 or the server 14.

図20(a)に示す例では、端末装置12(PC(A))が最後に連携した機器であるため、その機器像66が機器表示画面62に残って表示される。ユーザが端末装置16のカメラ42の撮影領域を変えた場合、端末装置16の制御部48は、機器像66を機器表示画面62に表示させた状態で、カメラ42によって撮影された画像を機器表示画面62に表示させる。例えば、図20(a)に示す環境では撮影しきれないプロジェクタ(C)を連携対象の機器として用いる場合、図20(b)に示すように、機器像66が機器表示画面62に表示されている状態で、ユーザは、カメラ42の撮影領域にプロジェクタ(C)が含まれるようにカメラ42の向きを変えてプロジェクタ(C)を撮影する。これにより、プロジェクタ(C)がカメラ42によって撮影され、プロジェクタ(C)に紐付いた機器像138が機器表示画面62に表示される。上述したように、プロジェクタ(C)が識別され、例えば、プロジェクタ(C)が有する機能の名称(例えば「投影する」)が機器表示画面62に表示される。また、プロジェクタ(C)を表わす機器像138に重畳して接触領域像140が表示されている。矢印142で示すように、ユーザによって、部分像84(接触領域像98)から機器像138(接触領域像140)へ画像が繋がれた場合、機器像138に紐付いた機器が有する機能(例えば投影機能)が連携対象の機能として選択され、機器像138に紐付いた機能を利用する連携機能が優先的に表示される。   In the example shown in FIG. 20A, since the terminal device 12 (PC (A)) is the last device to cooperate with, the device image 66 remains on the device display screen 62 and is displayed. When the user changes the shooting area of the camera 42 of the terminal device 16, the control unit 48 of the terminal device 16 displays the image captured by the camera 42 in a state where the device image 66 is displayed on the device display screen 62. It is displayed on the screen 62. For example, when using the projector (C) which can not be photographed in the environment shown in FIG. 20A as the device to be cooperated, the device image 66 is displayed on the device display screen 62 as shown in FIG. 20B. In this state, the user shoots the projector (C) by changing the direction of the camera 42 so that the projector (C) is included in the shooting area of the camera 42. Thus, the projector (C) is photographed by the camera 42, and the device image 138 linked to the projector (C) is displayed on the device display screen 62. As described above, the projector (C) is identified, and, for example, the name (for example, “project”) of the function of the projector (C) is displayed on the device display screen 62. Further, the contact area image 140 is displayed superimposed on the device image 138 representing the projector (C). When an image is connected from the partial image 84 (contact area image 98) to the apparatus image 138 (contact area image 140) by the user as indicated by the arrow 142, the function (for example, projection) of the apparatus linked to the apparatus image 138 A function is selected as the function to be cooperated, and the cooperation function using the function linked to the device image 138 is displayed preferentially.

変形例4によると、連携対象となる複数の機器を一度に撮影しきれない場合であっても、複数の機器を別々に撮影して連携させることが可能となる。つまり、連携対象の機器が必ずしも互いに近い位置に配置されているとは限らない。変形例4によると、そのような場合であっても、複数の機器を別々に撮影して連携させることが可能となる。もちろん、カメラ42の撮影領域のアングルを変えたり、撮影領域を拡大又は縮小することによって対応することも可能であるが、そのような操作で対応しきれない場合、撮影を複数回に分けることで各機器が識別される。   According to the fourth modification, even when the plurality of devices to be cooperated can not be photographed at one time, the plurality of devices can be photographed separately and cooperated. That is, the devices to be cooperated are not necessarily arranged at positions close to each other. According to the fourth modification, even in such a case, a plurality of devices can be separately photographed and cooperated. Of course, it is also possible to respond by changing the angle of the shooting area of the camera 42 or enlarging or reducing the shooting area, but if such an operation can not cope with the situation, the shooting may be divided into multiple times. Each device is identified.

なお、上記の例では、最後に連携した機器に紐付いた機器像を機器表示画面62に残して表示しているが、別の例として、ユーザによって指定された機器像や、最初に撮影された機器に紐付いた機器像や、予め設定された基本機器に紐付いた機器像を、機器表示画面62に残して表示してもよい。この場合も、複数の機器を別々に撮影して連携させることが可能となる。   In the above example, the device image linked to the device at the end of cooperation is displayed on the device display screen 62, but as another example, the device image designated by the user or the first image taken A device image linked to a device or a device image linked to a preset basic device may be displayed on the device display screen 62 and displayed. Also in this case, it becomes possible to capture a plurality of devices separately and to make them cooperate.

上述した第1実施形態及び変形例1−4において、識別された機器を表わす機器像、接触領域像、接続用の操作の軌跡(例えば、なぞった線の軌跡)、及び、解除用の操作の軌跡は、背景画像に埋もれないように3次元で表示されてもよい。つまり、それらの画像は3次元画像として表示されてもよい。例えば、背景画像が2次元で表示され、機器像、接触領域像及び操作の軌跡が3次元で表示される。これにより、機器像、接触領域像及び操作の軌跡の視認性が向上する。別の例として、識別されない機器に紐付いた機器像や背景画像は、機器表示画面62に表示されずに、識別された機器に紐付いた機器像のみが機器表示画面62に表示されてもよい。   In the first embodiment and the modified example 1-4 described above, an apparatus image representing the identified apparatus, a contact area image, a trajectory of an operation for connection (for example, a trajectory of a traced line), and an operation for releasing The trajectory may be displayed in three dimensions so as not to be buried in the background image. That is, those images may be displayed as a three-dimensional image. For example, the background image is displayed in two dimensions, and the device image, the touch area image, and the trajectory of the operation are displayed in three dimensions. This improves the visibility of the device image, the contact area image, and the trajectory of the operation. As another example, the device image or the background image linked to an unidentified device may not be displayed on the device display screen 62, and only the device image linked to the identified device may be displayed on the device display screen 62.

上記のように、機器に紐付いた画像が繋がれて連携機能が特定されると、端末装置16から連携対象の機器に対して接続要求が送信され、端末装置16と連携対象の機器とが接続される。以下、図21を参照して、その接続処理について説明する。図21は、その処理を示すシーケンス図である。   As described above, when the image linked to the device is connected and the cooperation function is specified, a connection request is transmitted from the terminal device 16 to the device to be cooperated, and the terminal device 16 and the device to be cooperated are connected Be done. The connection process will be described below with reference to FIG. FIG. 21 is a sequence diagram showing the process.

まず、ユーザは、端末装置16を利用して、連携機能実行用のアプリケーション(プログラム)の起動を指示する。端末装置16の制御部48は、その指示に応じて当該アプリケーションを起動させる(S01)。なお、そのアプリケーションは、端末装置16の記憶部44に予め記憶されていてもよいし、サーバ14等からダウンロードされてもよい。   First, the user uses the terminal device 16 to instruct activation of an application (program) for executing the cooperation function. The control unit 48 of the terminal device 16 activates the application according to the instruction (S01). The application may be stored in advance in the storage unit 44 of the terminal device 16 or may be downloaded from the server 14 or the like.

次に、マーカ型AR技術、マーカレス型AR技術又は位置情報AR技術を適用することにより、連携対象の機器が識別される(S02)。もちろん、AR技術以外の技術によって連携対象の機器が識別されてもよい。マーカ型AR技術又はマーカレス型AR技術を適用する場合、ユーザは、端末装置16のカメラ42によって連携対象の機器を撮影する。一例として、画像形成装置10(複合機(B))と端末装置12(PC(A))が連携機器として用いられる場合、ユーザは、カメラ42によって画像形成装置10と端末装置12を撮影する。画像形成装置10と端末装置12のそれぞれの機器識別情報が取得され、画像形成装置10と端末装置12が連携対象の機器として識別される。位置情報AR技術を適用する場合、画像形成装置10と端末装置12のそれぞれの位置情報が取得され、その位置情報に基づいて、画像形成装置10と端末装置12のそれぞれの機器識別情報が特定され、画像形成装置10と端末装置12が識別される。   Next, by applying the marker type AR technology, the markerless type AR technology, or the position information AR technology, the device to be cooperated is identified (S02). Of course, devices to be cooperated may be identified by techniques other than AR technology. When the marker type AR technology or the markerless type AR technology is applied, the user shoots a device to be cooperated with the camera 42 of the terminal device 16. As an example, when the image forming apparatus 10 (multifunctional peripheral (B)) and the terminal device 12 (PC (A)) are used as linked devices, the user captures an image of the image forming apparatus 10 and the terminal device 12 with the camera 42. The device identification information of each of the image forming device 10 and the terminal device 12 is acquired, and the image forming device 10 and the terminal device 12 are identified as devices to be cooperated with each other. When the position information AR technology is applied, position information of each of the image forming apparatus 10 and the terminal device 12 is acquired, and device identification information of each of the image forming apparatus 10 and the terminal device 12 is specified based on the position information. , The image forming apparatus 10 and the terminal device 12 are identified.

端末装置16において、ユーザが、連携対象となる複数の機器に紐付いた複数の機器像を互いに繋ぐことにより、連携機能が特定されるとともに、各連携機能の優先順位が特定される。端末装置16のUI部46には、その優先順位に従って連携機能に関する情報が表示される(S03)。連携機能の特定処理及び優先順位の特定処理は、サーバ14によって行われてもよいし、端末装置16によって行われてもよい。   In the terminal device 16, when the user mutually connects a plurality of device images linked to a plurality of devices to be cooperated, the cooperation function is specified, and the priority of each cooperation function is specified. Information on the cooperation function is displayed on the UI unit 46 of the terminal device 16 according to the priority (S03). The specifying process of the cooperation function and the specifying process of the priority may be performed by the server 14 or may be performed by the terminal device 16.

次に、端末装置16において、ユーザによって実行対象の連携機能が指定されると、端末装置16は、その連携機能を実行する連携対象の機器(例えば画像形成装置10と端末装置12)に接続要求を示す情報を送信する(S04)。例えば、連携対象の機器のアドレスを示すアドレス情報が、サーバ14に記憶されている場合、端末装置16は、連携対象の機器のアドレス情報をサーバ14から取得する。機器識別情報にアドレス情報が含まれている場合、端末装置16は、連携対象の機器の機器識別情報からそれぞれのアドレス情報を取得してもよい。別の例として、端末装置16に、連携対象の機器のアドレス情報が記憶されていてもよい。もちろん、端末装置16は、別の手法によって連携対象の機器のアドレス情報を取得してもよい。端末装置16は、連携対象の機器(例えば画像形成装置10と端末装置12)のアドレス情報を用いて、連携対象の機器(例えば画像形成装置10と端末装置12)に接続要求を示す情報を送信する。   Next, in the terminal device 16, when the cooperation function to be executed is designated by the user, the terminal device 16 requests connection to the devices to be cooperated (for example, the image forming apparatus 10 and the terminal device 12) that executes the cooperation function. Is transmitted (S04). For example, when the address information indicating the address of the device to be cooperated is stored in the server 14, the terminal device 16 acquires the address information of the device to be cooperated from the server 14. When the device identification information includes the address information, the terminal device 16 may obtain the respective address information from the device identification information of the device to be cooperated. As another example, the terminal device 16 may store address information of a device to be cooperated. Of course, the terminal device 16 may acquire the address information of the collaboration target device by another method. The terminal device 16 transmits information indicating a connection request to the devices to be cooperated (eg, the image forming device 10 and the terminal device 12) using the address information of the devices to be cooperated (eg, the image forming device 10 and the terminal device 12) Do.

接続要求を示す情報を受けた画像形成装置10と端末装置12は、端末装置16との接続を許可する、又は、許可しない(S05)。例えば、画像形成装置10と端末装置12が、接続が許可されていない機器に該当する場合や、接続を要求している装置の数が上限を超えている機器に該当する場合、接続は許可されない。なお、端末装置16からの接続が許可された場合、画像形成装置10と端末装置16の固有の設定情報が端末装置16から変更されないように、その変更操作を禁止してもよい。例えば、画像形成装置10の色彩のパラメータや、節電に移行する際の設定時間等の変更が禁止されてもよい。これにより、連携対象の機器に対するセキュリティが向上する。別の例として、機器を連携させる場合、当該機器を連携させずに単独で利用する場合と比べて、設定情報の変更が制限されてもよい。例えば、機器を単独で利用する場合と比べて、より少ない設定項目の変更が許可されてもよい。また、稼働履歴のような他のユーザの個人情報の閲覧を禁止してもよい。これにより、ユーザの個人情報に対するセキュリティが向上する。   The image forming apparatus 10 and the terminal device 12 having received the information indicating the connection request permit or do not permit connection with the terminal device 16 (S05). For example, if the image forming apparatus 10 and the terminal apparatus 12 correspond to an apparatus for which connection is not permitted or if the number of apparatuses requesting connection exceeds an upper limit, the connection is not permitted. . When the connection from the terminal device 16 is permitted, the change operation may be prohibited so that the setting information unique to the image forming apparatus 10 and the terminal device 16 is not changed from the terminal device 16. For example, the change of the color parameter of the image forming apparatus 10, the setting time when shifting to the power saving, or the like may be prohibited. This improves the security of the device to be linked. As another example, when devices are linked, the change in setting information may be restricted as compared to the case where the devices are used alone without linking. For example, as compared with the case of using the device alone, it may be permitted to change less setting items. Further, browsing of personal information of other users such as operation history may be prohibited. This improves the security of the user's personal information.

接続の許可又は不許可を示す結果情報が、画像形成装置10と端末装置12から端末装置16に送信される(S06)。画像形成装置10と端末装置12への接続が許可された場合、端末装置16と、画像形成装置10及び端末装置12と、の間で通信が確立される。   Result information indicating permission or non-permission of connection is transmitted from the image forming apparatus 10 and the terminal device 12 to the terminal device 16 (S06). When the connection to the image forming apparatus 10 and the terminal device 12 is permitted, communication is established between the terminal device 16 and the image forming apparatus 10 and the terminal device 12.

次に、ユーザは端末装置16を利用して連携機能の実行を指示する(S07)。この指示に応じて、連携機能の実行指示を示す実行指示情報が、端末装置16から画像形成装置10と端末装置12に送信される(S08)。画像形成装置10に送信される実行指示情報には、画像形成装置10にて実行される処理を示す情報(例えばジョブ情報)が含まれ、端末装置12に送信される実行指示情報には、端末装置12にて実行される処理を示す情報(例えばジョブ情報)が含まれる。   Next, the user uses the terminal device 16 to instruct execution of the cooperation function (S07). In response to this instruction, execution instruction information indicating a cooperative function execution instruction is transmitted from the terminal device 16 to the image forming apparatus 10 and the terminal device 12 (S08). The execution instruction information transmitted to the image forming apparatus 10 includes information (for example, job information) indicating a process to be executed by the image forming apparatus 10, and the execution instruction information transmitted to the terminal device 12 includes a terminal The information (for example, job information) indicating the process to be executed by the device 12 is included.

実行指示情報を受けた画像形成装置10と端末装置12は、実行指示情報に従って機能を実行する(S09)。例えば、画像形成装置10(複合機(B))から端末装置12(PC(A))へスキャンデータを転送するスキャン転送機能のように、連携機能に、画像形成装置10と端末装置12との間でデータの送受信が行われる処理が含まれている場合、画像形成装置10と端末装置12との間で通信が確立される。この場合、例えば、画像形成装置10に送信される実行指示情報には端末装置12のアドレス情報が含まれ、端末装置12に送信される実行指示情報には画像形成装置10のアドレス情報が含まれ、それらのアドレス情報を用いて画像形成装置10と端末装置12との間で通信が確立される。   The image forming apparatus 10 and the terminal device 12 having received the execution instruction information execute the function according to the execution instruction information (S09). For example, as in the scan transfer function of transferring scan data from the image forming apparatus 10 (multifunctional peripheral (B)) to the terminal apparatus 12 (PC (A)), the cooperation function includes the image forming apparatus 10 and the terminal apparatus 12 When the process of transmitting and receiving data is included, communication is established between the image forming apparatus 10 and the terminal device 12. In this case, for example, the execution instruction information transmitted to the image forming apparatus 10 includes the address information of the terminal apparatus 12, and the execution instruction information transmitted to the terminal apparatus 12 includes the address information of the image forming apparatus 10. Communication is established between the image forming apparatus 10 and the terminal device 12 using the address information.

連携機能の実行が終了すると、連携機能の実行完了を示す情報が、画像形成装置10と端末装置12から端末装置16に送信される(S10)。端末装置16のUI部46には、連携機能の実行が完了したことを示す情報が表示される(S11)。なお、実行指示を与えた時点から予め設定された時間が経過しても実行完了を示す情報が表示されない場合、端末装置16の制御部48は、エラーを示す情報をUI部46に表示させ、再度、実行指示情報、又は、接続要求を示す情報を、画像形成装置10と端末装置12に送信してもよい。   When the execution of the cooperation function ends, information indicating the completion of the execution of the cooperation function is transmitted from the image forming apparatus 10 and the terminal device 12 to the terminal device 16 (S10). Information indicating that the execution of the cooperation function has been completed is displayed on the UI unit 46 of the terminal device 16 (S11). If the information indicating the completion of execution is not displayed even if the time set in advance has passed since the time of giving the execution instruction, the control unit 48 of the terminal device 16 causes the UI unit 46 to display the information indicating an error, The execution instruction information or the information indicating the connection request may be transmitted to the image forming apparatus 10 and the terminal device 12 again.

次に、ユーザは、画像形成装置10と端末装置12の連携状態を解除するか否かを確認し(S12)、解除の有無に応じた処理が実行される(S13)。連携状態を解除する場合、ユーザは、端末装置16を利用して解除の指示を与える。これにより、端末装置16と、画像形成装置10及び端末装置12と、の間の通信が解除される。同様に、画像形成装置10と端末装置12との間の通信も解除される。連携状態を解除しない場合、継続して実行指示を与えてもよい。   Next, the user confirms whether or not to cancel the cooperation state of the image forming apparatus 10 and the terminal device 12 (S12), and a process according to the presence or absence of the cancellation is executed (S13). When canceling the cooperation state, the user uses the terminal device 16 to give a cancellation instruction. Thereby, the communication between the terminal device 16 and the image forming apparatus 10 and the terminal device 12 is released. Similarly, the communication between the image forming apparatus 10 and the terminal device 12 is released. If the cooperation state is not canceled, an execution instruction may be continuously given.

また、連携対象の機器を増やしてもよい。例えば3台目の機器の機器識別情報が取得され、画像形成装置10と端末装置12を含む3台の機器を連携させることによって実行される連携機能が特定されてもよい。なお、画像形成装置10と端末装置12が既に連携機能として識別されていることを示す情報は、サーバ14や端末装置16に記憶される。   Moreover, you may increase the apparatus of cooperation object. For example, the device identification information of the third device may be acquired, and the cooperation function to be executed by causing the three devices including the image forming apparatus 10 and the terminal device 12 to cooperate may be specified. The information indicating that the image forming apparatus 10 and the terminal device 12 have already been identified as the cooperation function is stored in the server 14 or the terminal device 16.

連携対象の機器を示す機器識別情報や、実行された連携機能を示す連携機能識別情報は、端末装置16やサーバ14等に記憶されてもよい。例えば、端末装置16を利用するユーザのユーザアカウント情報(ユーザ識別情報)が取得され、そのユーザアカウント情報と、連携対象の機器を示す機器識別情報と、実行された連携機能を示す連携機能識別情報と、の対応付けを示す履歴情報が作成され、端末装置16やサーバ14等に記憶されてもよい。履歴情報は、端末装置16によって作成されてもよいし、サーバ14によって作成されてもよい。履歴情報を参照することにより、どのような連携機能がどのような機器群を用いて実行されたのかが特定される。   The device identification information indicating the device to be cooperated and the cooperation function identification information indicating the executed cooperation function may be stored in the terminal device 16 or the server 14 or the like. For example, user account information (user identification information) of a user who uses the terminal device 16 is acquired, and the user account information, device identification information indicating a device to be cooperated, and cooperation function identification information indicating an executed cooperation function The historical information which shows the correspondence of and may be created, and may be memorized by terminal unit 16 or server 14 grade. The history information may be created by the terminal device 16 or may be created by the server 14. By referring to the history information, it is specified what kind of cooperation function has been executed using what kind of device group.

なお、連携対象の機器(例えば画像形成装置10と端末装置12)は、接続を要求したユーザのユーザアカウント情報や、接続要求元の端末装置16を示す端末識別情報を、履歴情報として記憶してもよい。この履歴情報を参照することにより、機器を利用したユーザが特定される。例えば、機器が壊れたときに当該機器を使用していたユーザを特定する場合や、消耗品等について課金処理を行う場合等に、履歴情報を活用してユーザを特定してもよい。履歴情報は、サーバ14や端末装置16に記憶されてもよいし、別の装置に記憶されてもよい。   The devices to be cooperated (for example, the image forming apparatus 10 and the terminal device 12) store, as history information, user account information of the user who requested connection, and terminal identification information indicating the terminal device 16 of the connection request source. It is also good. By referring to this history information, the user who has used the device is identified. For example, when identifying a user who has used the device when the device is broken, or when performing a charging process for consumables or the like, the user may be identified using history information. The history information may be stored in the server 14 or the terminal device 16 or may be stored in another device.

ユーザアカウント情報は、例えば、端末装置16の記憶部44に予め記憶されており、端末装置16の制御部48は、ユーザ識別手段の一例として機能し、記憶部44からユーザのユーザアカウント情報を読み込んで、端末装置16を使用するユーザを識別する。複数のユーザのユーザアカウント情報が記憶部44に記憶されている場合、ユーザは端末装置16を使用して、自身のユーザアカウント情報を指定する。これにより、当該ユーザのユーザアカウント情報が読み込まれ、当該ユーザが識別される。別の例として、端末装置16の制御部48は、端末装置16にログインしているユーザのユーザアカウント情報を読み込むことにより、ユーザを識別してもよい。更に別の例として、同一の端末装置16に、1つのユーザアカウント情報のみが記憶されている場合、端末装置16の制御部48は、そのユーザアカウント情報を読み込むことによりユーザを識別してもよい。なお、ユーザアカウントが設定されておらず、ユーザアカウント情報が作成されていない場合、初期設定が行われ、これにより、ユーザアカウント情報が作成される。   The user account information is stored in advance in, for example, the storage unit 44 of the terminal device 16, and the control unit 48 of the terminal device 16 functions as an example of a user identification unit, and reads user account information of the user from the storage unit 44. , Identify the user who uses the terminal device 16. When user account information of a plurality of users is stored in the storage unit 44, the user uses the terminal device 16 to specify his own user account information. Thereby, the user account information of the user is read, and the user is identified. As another example, the control unit 48 of the terminal device 16 may identify the user by reading user account information of the user logged in to the terminal device 16. As still another example, when only one piece of user account information is stored in the same terminal device 16, the control unit 48 of the terminal device 16 may identify the user by reading the user account information. . When the user account is not set and the user account information is not created, the initial setting is performed, whereby the user account information is created.

ユーザ毎に連携機能の利用履歴が管理され、読み込まれたユーザアカウント情報が示すユーザによって過去に利用された連携機能を示す情報が、端末装置16のUI部46に表示されてもよい。その利用履歴を示す情報は、端末装置16に記憶されていてもよいし、サーバ14に記憶されていてもよい。また、予め設定された利用頻度以上の頻度で利用されている連携機能を示す情報が表示されてもよい。このようなショートカット機能を設けることにより、連携機能に関するユーザの操作の手間が軽減される。   The use history of the collaboration function may be managed for each user, and information indicating the collaboration function used in the past by the user indicated by the read user account information may be displayed on the UI unit 46 of the terminal device 16. The information indicating the usage history may be stored in the terminal device 16 or may be stored in the server 14. In addition, information indicating a collaboration function being used may be displayed at a frequency higher than a preset usage frequency. By providing such a shortcut function, the time and effort of the user's operation regarding the cooperation function can be reduced.

[第2実施形態]
以下、本発明の第2実施形態に係る情報処理システムとしての画像形成システムについて説明する。図22には、第2実施形態に係るサーバ14Aが示されている。第2実施形態に係る画像形成システムは、第1実施形態に係るサーバ14の代りにサーバ14Aを含む。サーバ14A以外の構成は、図1に示されている第1実施形態に係る画像形成システムの構成と同じである。
Second Embodiment
Hereinafter, an image forming system as an information processing system according to the second embodiment of the present invention will be described. FIG. 22 shows a server 14A according to the second embodiment. The image forming system according to the second embodiment includes a server 14A instead of the server 14 according to the first embodiment. The configuration other than the server 14A is the same as the configuration of the image forming system according to the first embodiment shown in FIG.

サーバ14Aは、第1実施形態に係るサーバ14と同様に、複数の機能を連携させることによって実行される連携機能を管理する。以下、図22を参照して、サーバ14Aの構成について詳しく説明する。   Similar to the server 14 according to the first embodiment, the server 14A manages a cooperation function that is executed by causing a plurality of functions to cooperate. Hereinafter, the configuration of the server 14A will be described in detail with reference to FIG.

サーバ14Aは、通信部28、記憶部30A及び制御部36Aを含む。通信部28は、第1実施形態に係る通信部28と同じ構成を備えている。   The server 14A includes a communication unit 28, a storage unit 30A, and a control unit 36A. The communication unit 28 has the same configuration as the communication unit 28 according to the first embodiment.

記憶部30AはハードディスクやSSD等の記憶装置である。記憶部30Aには、例えば、機器機能情報32、連携機能情報144、各種のデータ、各種のプログラム、各機器のアドレスを示す機器アドレス情報、等が記憶されている。もちろん、それらは別々の記憶装置に記憶されてもよいし、1つの記憶装置に記憶されてもよい。記憶部30Aに記憶されている機器機能情報32や連携機能情報144が、定期的に又は指定されたタイミングで端末装置16に提供され、これにより、端末装置16に記憶されている情報が更新されてもよい。   The storage unit 30A is a storage device such as a hard disk or an SSD. The storage unit 30A stores, for example, device function information 32, cooperation function information 144, various data, various programs, device address information indicating the address of each device, and the like. Of course, they may be stored in separate storage devices, or may be stored in one storage device. The device function information 32 and the cooperation function information 144 stored in the storage unit 30A are provided to the terminal device 16 periodically or at a designated timing, whereby the information stored in the terminal device 16 is updated. May be

機器機能情報32は、第1実施形態に係る機器機能情報32と同じ情報である。   The device function information 32 is the same information as the device function information 32 according to the first embodiment.

連携機能情報144は、複数の機能を連携させることによって実行される連携機能を示す情報であり、例えば、連携機能を実行するために連携される機能を識別するための機能識別情報の組み合わせを示す情報と、当該連携機能を識別するための連携機能識別情報と、の対応付けを示す情報である。複数の機器を連携させる場合、連携機能情報144は、複数の機器が有する複数の機能を連携させることによって実行される連携機能を示す情報であり、連携機能を実行するために連携される機器を識別するための機器識別情報の組み合わせを示す情報と、連携機能識別情報と、の対応付けを示す情報である。   The cooperation function information 144 is information indicating a cooperation function executed by causing a plurality of functions to cooperate, and indicates, for example, a combination of function identification information for identifying a function to be cooperated in order to execute the cooperation function. This is information indicating correspondence between information and cooperation function identification information for identifying the cooperation function. In the case of linking a plurality of devices, the linking function information 144 is information indicating a linking function to be executed by linking a plurality of functions possessed by the plurality of devices, and the devices linked to execute the linking function are selected. This is information indicating the correspondence between information indicating a combination of device identification information for identification and cooperative function identification information.

制御部36Aは、サーバ14Aの各部の動作を制御する。また、制御部36Aは、特定部38と連携機能登録部146を含む。   The control unit 36A controls the operation of each unit of the server 14A. Further, the control unit 36A includes a specifying unit 38 and a cooperation function registration unit 146.

特定部38は、第1実施形態に係る特定部38と同様に、機器識別情報に基づいて機器を識別し、当該機器が有する機能を特定する。また、特定部38は、連携対象の機器が有する機能を連携させることによって実行される連携機能を特定する。第2実施形態においても、AR技術を適用することにより、機器識別情報が取得されて機器が識別される。もちろん、AR技術以外の技術によって機器識別情報が取得されて機器が識別されてもよい。   The identifying unit 38 identifies the device based on the device identification information and identifies the function of the device, as the identifying unit 38 according to the first embodiment. Further, the specifying unit 38 specifies a cooperation function to be executed by causing the function of the device to be cooperated to cooperate. Also in the second embodiment, by applying the AR technology, the device identification information is acquired and the device is identified. Of course, the device identification information may be acquired by a technique other than the AR technique to identify the device.

第2実施形態においては、連携対象の機器に紐付いた機器像が端末装置16のUI部46に表示され、機器像同士を重ね合わせることにより連携機能が特定されて、その連携機能に関する情報が端末装置16のUI部46に表示される。   In the second embodiment, the device image linked to the device to be cooperated is displayed on the UI unit 46 of the terminal device 16, the cooperation image is specified by superimposing the device images, and the information on the cooperation function is the terminal It is displayed on the UI unit 46 of the device 16.

連携機能登録部146は、連携機能を登録する機能を備えており、例えば、登録対象の連携機能の登録内容を示す情報と、連携機能を実行するときに表示される画像(例えばショートカット用の画像)と、を対応付ける。その画像は、例えば、機器像の重ね合わせによって生成された画像や、重ね合わせの対象となった機器を模式的に表わす画像である。   The cooperation function registration unit 146 has a function of registering the cooperation function, and, for example, information indicating the registration content of the cooperation function to be registered and an image displayed when executing the cooperation function (for example, an image for a shortcut) ) And correspond. The image is, for example, an image generated by superimposing device images or an image schematically representing a device to be superimposed.

以下、第2実施形態に係る画像形成システムについて詳しく説明する。   Hereinafter, the image forming system according to the second embodiment will be described in detail.

まず、図23を参照して、連携機能情報144について詳しく説明する。図23には、連携機能情報144としての連携機能管理テーブルの一例が示されている。連携機能管理テーブルにおいては、一例として、機器IDの組み合わせを示す情報と、連携対象の機器名(例えば各機器の種類)を示す情報と、連携機能を示す情報(連携機能識別情報)と、が対応付けられている。図7に示されている第1実施形態に係る連携機能管理テーブルとは異なり、第2実施形態に係る連携機能管理テーブルには、接続順番を示す情報と優先順位を示す情報は含まれていない。   First, the cooperation function information 144 will be described in detail with reference to FIG. An example of the cooperation function management table as the cooperation function information 144 is shown in FIG. In the linked function management table, as an example, information indicating a combination of device IDs, information indicating a linked device name (for example, type of each device), and information indicating a linked function (linked function identification information) It is associated. Unlike the cooperation function management table according to the first embodiment shown in FIG. 7, the cooperation function management table according to the second embodiment does not include information indicating the connection order and information indicating the priority. .

以下、図24及び図25を参照して、連携機能を特定するための操作について詳しく説明する。図24及び図25には、端末装置16のUI部46に表示される画面の一例が示されている。   Hereinafter, with reference to FIG. 24 and FIG. 25, an operation for specifying the cooperation function will be described in detail. An example of a screen displayed on the UI unit 46 of the terminal device 16 is shown in FIGS. 24 and 25.

例えば、第1実施形態と同様に、UR技術等を適用することにより、画像形成装置10(複合機(B))と端末装置12(PC(A))が連携対象の機器として識別されているものとする。図24(a)に示すように、端末装置16のUI部46には機器表示画面62が表示されており、その機器表示画面62に、識別された機器(画像形成装置10と端末装置12)に紐付く機器像64,66が表示されている。この状態で、ユーザが指示子(例えばユーザの指、ペン、スタイラス等)を用いて連携対象の機器に紐付いた機器像を、他の連携対象の機器に紐付いた機器像に重ね合わせる。例えば、図24(b)に示すように、ユーザが操作子を用いて機器像64を指定し、矢印148で示すように、その機器像64を機器像66に重ね合わせる。例えば、ドラッグ&ドロップ操作によって機器像同士を重ね合わせる。つまり、ユーザは機器像64をドラッグ操作し、機器像66に重なる位置で機器像64をドロップ操作する。このドラッグ&ドロップ操作自体は、例えば公知の技術である。なお、ユーザの音声指示に従って、重ね合わせる機器像(連携させるべき機器に紐付いた画像)が指定されてもよい。例えば、ユーザの音声指示に従って、機器像64,66が重ね合わせ対象の機器像として指定され、それらが重ねられてもよい。   For example, as in the first embodiment, the image forming apparatus 10 (multifunctional peripheral (B)) and the terminal device 12 (PC (A)) are identified as cooperation target devices by applying the UR technology or the like. It shall be. As shown in FIG. 24A, the device display screen 62 is displayed on the UI unit 46 of the terminal device 16, and the identified devices (image forming apparatus 10 and terminal device 12) are displayed on the device display screen 62. The device image 64, 66 linked to the is displayed. In this state, the user uses an indicator (for example, a user's finger, a pen, a stylus, or the like) to superimpose the device image linked to the device to be cooperated with the device image linked to another device to be cooperated. For example, as shown in FIG. 24B, the user designates the device image 64 using the operation element, and superimposes the device image 64 on the device image 66 as shown by the arrow 148. For example, device images are superimposed by a drag and drop operation. That is, the user drags the device image 64 and drops the device image 64 at a position overlapping the device image 66. This drag and drop operation itself is, for example, a known technique. A device image to be superimposed (an image linked to a device to be linked) may be designated according to the user's voice instruction. For example, the device images 64 and 66 may be designated as device images to be superimposed according to the user's voice instruction, and they may be superimposed.

機器像64,66を互いに重ね合わせることにより、機器像64に紐付いた画像形成装置10(複合機(B))と機器像66に紐付いた端末装置12(PC(A))が、連携対象の機器として指定される。なお、図24(b)に示す例では、機器像64を機器像66に重ね合わせているが、機器像66を機器像64に重ね合わせてもよい。   The image forming apparatus 10 (the multifunction machine (B)) linked to the device image 64 and the terminal device 12 (PC (A)) linked to the device image 66 are linked with each other by overlapping the device images 64 and 66 with each other. Designated as a device. Although the device image 64 is superimposed on the device image 66 in the example shown in FIG. 24B, the device image 66 may be superimposed on the device image 64.

なお、端末装置16の制御部48は、ドラッグ操作中の機器像を識別可能な表示態様でUI部46に表示させてもよい。例えば、ドラッグ操作中の機器像を半透明に表示したり、特定の色で表示したりしてもよい。   The control unit 48 of the terminal device 16 may cause the UI unit 46 to display the device image during the drag operation in a distinguishable display mode. For example, the device image during the drag operation may be displayed semitransparently or in a specific color.

機器像64が機器像66に重ねて表示されると、図24(c)に示すように、端末装置16のUI部46に確認画面150が表示される。確認画面150は、連携対象の機器として指定された機器群を連携させるか否かを確認するための画面である。確認画面150において、連携指示がユーザによって与えられると(例えば「YES」ボタンがユーザによって押されると)、連携機能に関する情報が端末装置16のUI部46に表示される。具体的には、連携対象の機器(例えば画像形成装置10と端末装置12)が指定されて連携指示が与えられると、サーバ14Aの特定部38は、図23に示されている連携機能管理テーブル(連携機能情報144)において、PC(A)と複合機(B)の組み合わせに対応付けられている連携機能を特定する。これにより、PC(A)と複合機(B)を連携させることによって実行される連携機能が特定される。このようにして特定された連携機能に関する情報は、サーバ14から端末装置16に送信され、連携機能候補に関する情報として端末装置16のUI部46に表示される。   When the device image 64 is displayed superimposed on the device image 66, a confirmation screen 150 is displayed on the UI unit 46 of the terminal device 16 as shown in FIG. 24C. The confirmation screen 150 is a screen for confirming whether the device group designated as the device to be cooperated is to be cooperated. In the confirmation screen 150, when the collaboration instruction is given by the user (for example, when the “YES” button is pressed by the user), information on the collaboration function is displayed on the UI unit 46 of the terminal device 16. Specifically, when a device to be cooperated (for example, the image forming apparatus 10 and the terminal device 12) is specified and a cooperation instruction is given, the specifying unit 38 of the server 14A performs the cooperation function management table shown in FIG. In (collaboration function information 144), the cooperation function associated with the combination of the PC (A) and the multifunction machine (B) is specified. Thus, the cooperation function to be executed by causing the PC (A) and the multifunction machine (B) to cooperate is specified. The information on the cooperation function specified in this manner is transmitted from the server 14 to the terminal device 16 and displayed on the UI unit 46 of the terminal device 16 as the information on cooperation function candidates.

例えば図25(a)に示すように、端末装置16の制御部48は、UI部46に連携機能表示画面152を表示させ、その連携機能表示画面152に連携機能候補に関する情報を表示させる。PC(A)と複合機(B)を連携させることにより、例えば、「スキャン転送機能」と「印刷機能」が実現されるため、連携機能表示画面152には、「スキャン転送機能」に関する情報と「印刷機能」に関する情報が表示される。   For example, as shown in FIG. 25A, the control unit 48 of the terminal device 16 causes the UI unit 46 to display the cooperation function display screen 152, and causes the cooperation function display screen 152 to display information on cooperation function candidates. Since the “scan transfer function” and the “print function” are realized, for example, by linking the PC (A) and the multi-functional peripheral (B), the cooperative function display screen 152 displays information on the “scan transfer function” and the like. Information on "Print Function" is displayed.

連携機能がユーザによって指定されて実行指示が与えられると、端末装置16から連携対象の機器に対して接続要求が行われる。図25(b)に示すように、その接続要求の間、端末装置16のUI部46には待機画面154が表示される。端末装置16と連携対象の機器との接続が成功すると、指定された連携機能が実行される。   When the cooperation function is designated by the user and an execution instruction is given, a connection request is issued from the terminal device 16 to the device to be cooperated. As shown in FIG. 25B, a standby screen 154 is displayed on the UI unit 46 of the terminal device 16 during the connection request. When the connection between the terminal device 16 and the device to be cooperated is successful, the designated cooperation function is executed.

以上のように、第2実施形態によると、機器に紐付いた機器像同士を重ね合わせることにより、機器が有する機能を利用する連携機能が特定される。それ故、画像操作以外の特別な操作を行わずに、機能を連携させることが可能となり、簡易な操作で機能が連携される。   As described above, according to the second embodiment, by superimposing the device images linked to the device, the cooperation function that uses the function of the device is identified. Therefore, the functions can be linked without performing any special operation other than the image operation, and the functions can be linked by a simple operation.

以下、第2実施形態の変形例について説明する。   Hereinafter, a modification of the second embodiment will be described.

(変形例5)
以下、図26及び図27を参照して、変形例5について説明する。図26及び図27には、端末装置16のUI部46に表示される画面の一例が示されている。変形例5においては、複数の機器像が重ねられた後、その重ねた状態を示す新たな画像が生成されて表示される。以下、変形例5について詳しく説明する。
(Modification 5)
The fifth modification will be described below with reference to FIGS. 26 and 27. 26 and 27 show an example of a screen displayed on the UI unit 46 of the terminal device 16. In the fifth modification, after a plurality of device images are superimposed, a new image showing the superimposed state is generated and displayed. Hereinafter, the fifth modification will be described in detail.

変形例5においても、画像形成装置10(複合機(B))と端末装置12(PC(A))が、連携対象の機器として識別されており、図26(a)に示すように、端末装置16において、機器表示画面62に機器像64,66が表示されているものとする。例えば、ユーザが操作子を用いて、矢印156で示すように、機器像64を機器像66に重ね合わせたものとする。機器像64,66を重ね合わせることにより、機器像64に紐付いた画像形成装置10(複合機(B))と機器像66に紐付いた端末装置12(PC(A))が、連携対象の機器として指定される。   Also in the fifth modification, the image forming apparatus 10 (the multi-function device (B)) and the terminal device 12 (PC (A)) are identified as devices to be cooperated, and as shown in FIG. In the device 16, it is assumed that the device images 64 and 66 are displayed on the device display screen 62. For example, it is assumed that the device image 64 is superimposed on the device image 66 as indicated by the arrow 156 using the operator. The image forming apparatus 10 (multifunction machine (B)) linked to the device image 64 and the terminal device 12 (PC (A)) linked to the device image 66 by superimposing the device images 64 and 66 are devices targeted for cooperation. Designated as

機器像64が機器像66に重ねて表示されると、図26(b)に示すように、端末装置16のUI部46に確認画面158が表示される。確認画面158は、連携対象の機器として指定された機器群を連携させるか否かを確認するための画面であるとともに、更に連携させる機器が存在するか否かを確認するための画面である。複合機(B)をPC(A)に連携させる指示がユーザによって与えられると(例えば、複合機(B)をPC(A)に連携させるための「YES」ボタンがユーザによって押されると)、複合機(B)とPC(A)が連携させられる。他に連携させる機器が存在する場合(例えば、他の機器を連携させるための「YES」ボタンがユーザによって押されると)、図26(c)に示すように、機器表示画面62が表示される。この機器表示画面62には、重ねられた機器像64,66をグルーピングすることにより生成された新たな機器像160が表示される。新たな機器像160は、例えば端末装置16の制御部48によって生成されてもよいし、サーバ14Aの制御部36Aによって生成されてもよい。機器像160は、機器像64上に機器像66が重ねられた状態を表わす画像である。   When the device image 64 is displayed superimposed on the device image 66, a confirmation screen 158 is displayed on the UI unit 46 of the terminal device 16, as shown in FIG. 26 (b). The confirmation screen 158 is a screen for confirming whether or not the device group designated as the device to be cooperated is to be cooperated, and a screen for confirming whether or not there is a further device to be cooperated. When the user gives an instruction to cause the multifunction device (B) to cooperate with the PC (A) (for example, when the user presses the “YES” button for causing the multifunction device (B) to cooperate with the PC (A)), The multifunction peripheral (B) and the PC (A) are linked. When there is another device to be linked (for example, when the user presses the “YES” button for linking another device), the device display screen 62 is displayed as shown in FIG. 26C. . On the device display screen 62, a new device image 160 generated by grouping the overlapped device images 64 and 66 is displayed. The new device image 160 may be generated by, for example, the control unit 48 of the terminal device 16 or may be generated by the control unit 36A of the server 14A. The device image 160 is an image representing a state in which the device image 66 is superimposed on the device image 64.

変形例5においては、端末装置16の制御部48は、新たに生成された機器像160を機器表示画面62に残して表示させる。ユーザが端末装置16のカメラ42の撮影領域を変えた場合、端末装置16の制御部48は、機器像160を機器表示画面62に表示させた状態で、カメラ42によって撮影された画像を機器表示画面62に表示させる。この場合、既に連携された機器(例えば複合機(B)とPC(A))の識別情報は端末装置16又はサーバ14Aの記憶部に記憶される。   In the fifth modification, the control unit 48 of the terminal device 16 displays the newly generated device image 160 on the device display screen 62. When the user changes the shooting area of the camera 42 of the terminal device 16, the control unit 48 of the terminal device 16 displays the image captured by the camera 42 in a state where the device image 160 is displayed on the device display screen 62. It is displayed on the screen 62. In this case, the identification information of the devices (for example, the multifunction machine (B) and the PC (A)) that have already cooperated with each other is stored in the storage unit of the terminal device 16 or the server 14A.

例えば、図26(a)に示す環境では撮影しきれないプロジェクタ(C)を連携対象の機器として用いる場合、図26(c)に示すように、機器像160が機器表示画面62に表示されている状態で、ユーザは、カメラ42の撮影領域にプロジェクタ(C)が含まれるようにカメラ42の向きを変えてプロジェクタ(C)を撮影する。これにより、プロジェクタ(C)がカメラ42によって撮影され、プロジェクタ(C)に紐付いた機器像138が機器表示画面62に表示され、プロジェクタ(C)が識別される。矢印162で示すように、ユーザが、新たな機器像160を機器像138に重ね合わせることにより、機器像138に紐付いた機器が連携対象の機器として選択される。更に連携させる機器が存在しない場合、既に指定された連携対象の機器群を連携させることによって実行される連携機能がサーバ14において特定され、その連携機能に関する情報がサーバ14から端末装置16に送信されて端末装置16のUI部46に表示される。例えば、図26(b)に示されている確認画面158において、更に連携させる機器が存在しないことを指示するための「NO」ボタンがユーザによって押されると、連携機能に関する情報が端末装置16のUI部46に表示される。   For example, when using a projector (C) which can not be photographed in the environment shown in FIG. 26A as a device to be cooperated, the device image 160 is displayed on the device display screen 62 as shown in FIG. 26C. In this state, the user shoots the projector (C) by changing the direction of the camera 42 so that the projector (C) is included in the shooting area of the camera 42. Thus, the projector (C) is photographed by the camera 42, the device image 138 linked to the projector (C) is displayed on the device display screen 62, and the projector (C) is identified. As indicated by the arrow 162, the user superimposes the new device image 160 on the device image 138, whereby the device linked to the device image 138 is selected as the device to be cooperated. Furthermore, when there is no device to be cooperated, the cooperation function executed by causing the already-specified cooperation target equipment group to cooperate is specified in the server 14, and the information on the cooperation function is transmitted from the server 14 to the terminal device 16. It is displayed on the UI unit 46 of the terminal device 16. For example, in the confirmation screen 158 shown in FIG. 26B, when the user presses the “NO” button for instructing that there is no device to be cooperated, the information on the cooperation function is displayed on the terminal device 16. It is displayed on the UI unit 46.

以上のように、変形例5によると、機器像を重ね合わせることにより生成された新たな機器像を、次の連携候補の機器に紐付いた機器像に重ね合わせることにより、連携させる機器を増加させることができる。また、新たな機器像は、連携対象の機器に紐付いた機器像が重ねられた状態を表わしているため、新たな機器像を表示することにより、どのような機器が連携対象の機器として指定されているのかが視覚的に分かり易くなる。   As described above, according to the fifth modification, a new device image generated by overlapping device images is superimposed on the device image linked to the next cooperation candidate device, thereby increasing the number of devices to be linked. be able to. Further, since the new device image represents a state in which the device image linked to the device to be linked is superimposed, by displaying the new device image, any device is designated as the device to be linked. It becomes easy to understand visually whether it is.

なお、確認画面158の表示は省略されてもよい。この場合、機器像同士を重ね合わせた後に、連携機能の表示指示がユーザによって与えられると、その重ね合わせによって指定された連携対象の機器によって実行される連携機能に関する情報が、端末装置16のUI部46に表示される。   Note that the display of the confirmation screen 158 may be omitted. In this case, after the device images are superimposed, when the display instruction of the cooperation function is given by the user, the information on the cooperation function to be executed by the cooperation target device designated by the superposition is the UI of the terminal device 16 It is displayed on the part 46.

変形例5においては、互いに重ねられた機器像群をグルーピングすることにより新たな機器像が生成されるが、互いに重ねられた機器像群を別の画像に代えて機器表示画面62に表示してもよい。例えば、図27に示すように、機器表示画面62には、グルーピングによって生成された機器像160の代りに、新たな機器像164が表示されており、その新たな機器像164が矢印166で示すように操作されている。機器像164は、複合機(B)とPC(A)とを模式的に表す画像や、複合機(B)が有する機能とPC(A)とが有する機能の内容を表わす画像等である。機器像164は、端末装置16の制御部48によって生成されてもよいし、サーバ14Aの制御部36Aによって生成されてもよい。機能の内容を表わす画像を新たな機器像として表示することにより、どのような機能が連携対象の機能として指定されているのかが視覚的に分かり易くなる。   In the fifth modification, a new device image is generated by grouping device images overlapping one another, but the device images overlapping one another are displayed on the device display screen 62 instead of another image. It is also good. For example, as shown in FIG. 27, a new device image 164 is displayed on the device display screen 62 instead of the device image 160 generated by grouping, and the new device image 164 is shown by an arrow 166. It has been manipulated as. The device image 164 is an image schematically representing the multi-function device (B) and the PC (A), an image representing the contents of the functions of the multi-function device (B) and the functions of the PC (A). The device image 164 may be generated by the control unit 48 of the terminal device 16 or may be generated by the control unit 36A of the server 14A. By displaying an image representing the content of the function as a new device image, it becomes easy to visually understand what function is designated as the function to be cooperated.

図27に示す例では、元の機器像160が新たな機器像164に自動的に置き換えられて表示されているが、この置き換えの際に確認画面が端末装置16のUI部46に表示されてもよい。図28には、その確認画面の一例が示されている。複数の機能像が重ねられた後、確認画面168が端末装置16のUI部46に表示される。この確認画面168には、複数の機器像をグルーピングすることによって生成された元の機器像160と、模式的な機器像164が表示されている。ユーザによって画像の置き換えが指示された場合(例えば「YES」ボタンがユーザによって押された場合)、元の機器像160から模式的な機器像164に置き換えられ、図27に示すように、模式的な機器像164が機器表示画面62に表示される。   In the example shown in FIG. 27, the original device image 160 is displayed by being automatically replaced with a new device image 164, but a confirmation screen is displayed on the UI unit 46 of the terminal device 16 when this replacement is performed. It is also good. An example of the confirmation screen is shown in FIG. After a plurality of functional images are superimposed, a confirmation screen 168 is displayed on the UI unit 46 of the terminal device 16. On the confirmation screen 168, an original device image 160 generated by grouping a plurality of device images and a schematic device image 164 are displayed. When the user instructs to replace the image (for example, when the “YES” button is pressed by the user), the original device image 160 is replaced with a schematic device image 164, as shown in FIG. The device image 164 is displayed on the device display screen 62.

(変形例6)
以下、図29から図31を参照して、変形例6について説明する。図29から図31には、端末装置16のUI部46に表示される画面の一例が示されている。変形例6においては、最後に連携したときに生成された機器像が、次回以降に連携機能を実行する際のショートカットボタン用の画像として用いられる。以下、変形例6について詳しく説明する。
(Modification 6)
Hereinafter, the sixth modification will be described with reference to FIGS. 29 to 31. 29 to 31 show an example of a screen displayed on the UI unit 46 of the terminal device 16. In the sixth modification, the device image generated at the time of the last cooperation is used as an image for a shortcut button when the cooperation function is executed next time or later. Hereinafter, the sixth modification will be described in detail.

変形例6においては、変形例5と同様に、機器像64,66が重ねられて、画像形成装置10(複合機(B))と端末装置12(PC(A))が、連携対象の機器として識別されており、機器像64,66をグルーピングすることにより新たな機器像160が生成されているものとする。   In the sixth modification, as in the fifth modification, the device images 64 and 66 are superimposed, and the image forming apparatus 10 (the multi-function device (B)) and the terminal device 12 (PC (A)) are devices to be cooperated with each other. It is assumed that a new device image 160 is generated by grouping the device images 64 and 66.

ユーザが端末装置16を用いて、新たな機器像160をショートカットボタン用の画像として登録する指示を与えると、図29(a)に示すように、端末装置16のUI部46に連携機能登録画面170が表示される。この連携機能登録画面170には、新たな機器像160が表示されるとともに、複合機(B)とPC(A)とを連携させることによって実行される連携機能の登録内容を示す情報が表示される。例えば、連携機能名、連携機能の概要、及び、連携に必要な機器を示す情報が、登録内容を示す情報として表示されている。ユーザは端末装置16を用いて、登録内容(例えば、連携機能名、連携機能の概要等)を編集してもよい。   When the user gives an instruction to register a new device image 160 as an image for a shortcut button using the terminal device 16, as shown in FIG. 29A, the cooperation function registration screen is displayed on the UI unit 46 of the terminal device 16. 170 is displayed. On the linked function registration screen 170, a new device image 160 is displayed, and information indicating the registered content of the linked function to be executed by linking the MFP (B) and the PC (A) is displayed. Ru. For example, the cooperation function name, the outline of the cooperation function, and the information indicating the device necessary for cooperation are displayed as the information indicating the registered content. The user may edit the registered content (for example, the cooperation function name, the outline of the cooperation function, etc.) using the terminal device 16.

連携機能登録画面170において、連携機能のショートカット機能を登録しない指示がユーザによって与えられた場合(例えば「NO」ボタンがユーザによって押された場合)、図29(b)に示すように、端末装置16のUI部46に確認画面172が表示される。確認画面172において、終了指示がユーザによって与えられると(例えば、登録終了に関する「YES」ボタンがユーザによって押されると)、連携機能登録処理は終了する。一部の編集指示がユーザによって与えられると(例えば、一部編集に関する「YES」ボタンがユーザによって押されると)、画面は連携機能登録画面170に戻る。   In the cooperation function registration screen 170, when the user gives an instruction not to register the shortcut function of the cooperation function (for example, when the “NO” button is pressed by the user), as shown in FIG. A confirmation screen 172 is displayed on the sixteen UI units 46. In the confirmation screen 172, when the end instruction is given by the user (for example, when the “YES” button related to the end of registration is pressed by the user), the cooperation function registration process is ended. When a part of the editing instruction is given by the user (for example, when the "YES" button for partial editing is pressed by the user), the screen returns to the cooperation function registration screen 170.

一方、連携機能登録画面170において、連携機能のショートカット機能を登録する指示がユーザによって与えられた場合(例えば「YES」ボタンがユーザによって押された場合)、図30(a)に示すように、端末装置16のUI部46に確認画面174が表示される。この確認画面174において、ショートカットボタンの作成指示がユーザによって与えられた場合(例えば「YES」ボタンがユーザによって押された場合)、連携機能を実行するためのショートカットボタンを表わす画像(ショートカットボタン像)が生成される。ショートカットボタン像は、端末装置16によって作成されてもよいしサーバ14Aによって作成されてもよい。例えば図30(b)に示すように、端末装置16のUI部46の画面176(例えばデスクトップ画面)には、そのショートカットボタン像178が表示される。ショートカットボタン像178には、機器像160が含まれている。例えば、サーバ14Aの連携機能登録部146は、登録対象の連携機能の登録内容を示す情報と、ショートカットボタン像178と、を対応付ける。もちろん、端末装置16によって、その対応付けが行われてもよい。複数のショートカットボタン像が生成されて登録されると、画面176にはショートカットボタン像の一覧が表示される。連携機能の登録内容を示す情報とショートカットボタン像は、例えば端末装置16に記憶される。別の例として、連携機能の登録内容を示す情報とショートカットボタン像は、ユーザアカウント情報に対応付けられてサーバ14に記憶されてもよい。この場合、ユーザアカウント情報が端末装置16からサーバ14に送信されると、そのユーザアカウント情報に対応付けられている情報(連携機能の登録内容を示す情報とショートカットボタン像)が、サーバ14から端末装置16に送信されて表示される。   On the other hand, when an instruction to register the shortcut function of the cooperation function is given by the user on the cooperation function registration screen 170 (for example, when the “YES” button is pressed by the user), as shown in FIG. A confirmation screen 174 is displayed on the UI unit 46 of the terminal device 16. When an instruction to create a shortcut button is given by the user on the confirmation screen 174 (for example, when the “YES” button is pressed by the user), an image (shortcut button image) representing the shortcut button for executing the cooperation function Is generated. The shortcut button image may be created by the terminal device 16 or may be created by the server 14A. For example, as shown in FIG. 30B, the shortcut button image 178 is displayed on the screen 176 (for example, a desktop screen) of the UI unit 46 of the terminal device 16. The shortcut button image 178 includes the device image 160. For example, the cooperation function registration unit 146 of the server 14A associates the information indicating the registration content of the cooperation function to be registered with the shortcut button image 178. Of course, the association may be performed by the terminal device 16. When a plurality of shortcut button images are generated and registered, a list of shortcut button images is displayed on the screen 176. The information indicating the registered content of the cooperation function and the shortcut button image are stored, for example, in the terminal device 16. As another example, the information indicating the registered content of the cooperation function and the shortcut button image may be stored in the server 14 in association with the user account information. In this case, when the user account information is transmitted from the terminal device 16 to the server 14, the information (the information indicating the registered content of the cooperation function and the shortcut button image) associated with the user account information is transmitted from the server 14 to the terminal It is sent to the device 16 and displayed.

ショートカットボタン像178には、ステータス像180,182が含まれている。ステータス像は、連携対象の機器のステータスを表わす画像、つまり、連携対象の機器が連携機能を実行できる状態にあるか否かを表わす画像である。例えば、ステータス像180は、画像形成装置10(複合機(B))のステータスを表わす画像であり、ステータス像182は、端末装置12(PC(A))のステータスを表わす画像である。連携対象の機器が連携機能を実行できる状態の場合、その旨を象徴する特定の色(例えば緑色や青色等)でステータス像が表示され、連携対象の機器が連携機能を実行できる状態ではない場合、その旨を象徴する別の特定の色(例えば白色や赤色等)でステータス像が表示される。図30(b)に示す例では、ステータス像180が緑色で表示されており、ステータス像182が白色で表示されている。それ故、画像形成装置10(複合機(B))は連携機能を実行できる状態にあるが、端末装置12(PC(A))は連携機能を実行できる状態にない。もちろん、色以外の情報によって、連携対象の機器のステータスを表わしてもよい。例えば、ステータスに応じた形状を有するステータス像を表示してもよいし、ステータスを示す文字列を表示してもよい。   The shortcut button image 178 includes status images 180 and 182. The status image is an image showing the status of the device to be cooperated, that is, an image showing whether the device to be cooperated is in a state where the cooperation function can be executed. For example, the status image 180 is an image representing the status of the image forming apparatus 10 (the multifunction machine (B)), and the status image 182 is an image representing the status of the terminal device 12 (PC (A)). When the device to be cooperated can execute the cooperation function, the status image is displayed in a specific color (for example, green, blue, etc.) symbolizing that effect, and the device to be cooperated is not in the state to be able to execute the cooperation function The status image is displayed in another specific color (for example, white, red, etc.) symbolizing that. In the example shown in FIG. 30B, the status image 180 is displayed in green and the status image 182 is displayed in white. Therefore, although the image forming apparatus 10 (the multifunction machine (B)) can execute the cooperation function, the terminal apparatus 12 (PC (A)) is not in the state capable of executing the cooperation function. Of course, information other than color may indicate the status of the device to be linked. For example, a status image having a shape corresponding to the status may be displayed, or a character string indicating the status may be displayed.

連携機能を実行できる状態とは、例えば、現在、他のユーザによって使用されていない状態、故障が発生していない状態、等である。連携機能を実行できない状態とは、例えば、現在、他のユーザによって使用されている状態、故障が発生している状態、等である。例えば、端末装置16が、連携対象の機器のステータスを示す情報を連携対象の機器から取得し、その情報に基づいてステータス像を特定の色で表示させる。別の例として、サーバ14が、ステータスを示す情報を連携対象の機器から取得し、端末装置16は、サーバ14からその情報を取得してもよい。   The state in which the cooperation function can be executed is, for example, a state not currently being used by another user, a state in which no failure has occurred, or the like. The state in which the cooperation function can not be executed is, for example, a state currently being used by another user, a state in which a failure has occurred, or the like. For example, the terminal device 16 acquires information indicating the status of the cooperation target device from the cooperation target device, and displays the status image in a specific color based on the information. As another example, the server 14 may acquire the information indicating the status from the cooperation target device, and the terminal device 16 may acquire the information from the server 14.

以上のように、連携機能とショートカットボタン像とを紐付けて管理することにより、次回以降、連携機能を実行するための操作が軽減される。   As described above, by linking and managing the collaboration function and the shortcut button image, the operation for executing the collaboration function is reduced from the next time on.

図31には、連携機能の閲覧編集画面の一例が示されている。ユーザが端末装置16を使用して、連携機能の登録情報の閲覧指示を与えると、図31(a)に示すように、端末装置16のUI部46に閲覧編集画面184が表示される。閲覧編集画面184には、表示画像としてのショートカット像や、連携機能の登録内容(例えば、連携機能名、機能概要、接続機器名)等が表示される。例えば、閲覧編集画面184において、ユーザが、編集対象の連携機能についての項目(例えば、表示画像、連携機能名、機能概要、接続機器名)を指定すると、図31(b)に示すように、端末装置16のUI部46に確認画面186が表示される。例えば、ある連携機能の連携機能名がユーザによって指定されると、連携機能名の編集を確認するための確認画面186が表示される。その確認画面186において「YES」ボタンがユーザによって押されると、図31(c)に示すように、端末装置16のUI部46に編集画面188が表示される。この編集画面188において、連携機能名がユーザによって編集され、編集画面188には、編集前の連携機能名と編集後の連携機能名が表示される。編集内容を反映させる指示がユーザによって与えられると(例えば「YES」ボタンがユーザによって押されると)、その編集内容が反映される。例えば、編集後の連携機能名が、ショートカット像とともに端末装置16のUI部46のデスクトップ画面に表示される。連携機能名以外の項目についても、同様の方法によって編集される。   FIG. 31 shows an example of the browsing edit screen of the cooperation function. When the user uses the terminal device 16 to give an instruction to browse the registration information of the cooperation function, as shown in FIG. 31A, the browsing editing screen 184 is displayed on the UI unit 46 of the terminal device 16. The browsing editing screen 184 displays a shortcut image as a display image, registered contents of a cooperation function (for example, a cooperation function name, a function outline, a connected device name) and the like. For example, when the user designates an item (for example, a display image, a linked function name, a function summary, a connected device name) about a linked function to be edited on the browsing and editing screen 184, as shown in FIG. A confirmation screen 186 is displayed on the UI unit 46 of the terminal device 16. For example, when the cooperation function name of a certain cooperation function is designated by the user, a confirmation screen 186 for confirming editing of the cooperation function name is displayed. When the user presses the “YES” button on the confirmation screen 186, as shown in FIG. 31C, the editing screen 188 is displayed on the UI unit 46 of the terminal device 16. In the edit screen 188, the linked function name is edited by the user, and the edited screen 188 displays the linked function name before editing and the linked function name after editing. When an instruction to reflect the editing content is given by the user (for example, when the “YES” button is pressed by the user), the editing content is reflected. For example, the linked function name after editing is displayed on the desktop screen of the UI unit 46 of the terminal device 16 together with the shortcut image. Items other than linked function names are edited in the same manner.

(変形例7)
以下、図32を参照して、変形例7について説明する。図32には、端末装置16のUI部46に表示される画面の一例が示されている。変形例7においては、重ね合わせ対象の機器像が選択された後、機器表示画面62上において機器像が表示されていない領域で、その選択が解除された場合、連携機能が解除される。
(Modification 7)
Hereinafter, the seventh modification will be described with reference to FIG. An example of a screen displayed on the UI unit 46 of the terminal device 16 is shown in FIG. In the seventh modification, after the device image to be superimposed is selected, if the selection is canceled in the area where the device image is not displayed on the device display screen 62, the cooperation function is canceled.

例えば、図32(a)に示すように、機器像66が機器像64に重ねられ、新たな機器像160が生成されて表示されたものとする。このとき、ユーザが機器像160を選択し、矢印190で示すように、機器表示画面62上において機器像が表示されていない領域で機器像160の選択を解除すると、複合機(B)とPC(A)とを連携させることによって実行される連携機能が解除される。つまり、機器像160を、機器像が表示されていない領域までドラッグ操作し、その領域でドロップ操作することにより、連携機能が解除されて、機器が連携される前の状態に戻る。例えば、そのドラッグ操作及びドロップ操作を示す情報が端末装置16からサーバ14に送信され、サーバ14の特定部38は、連携機能を解除する。もちろん、端末装置16が連携機能を解除してもよい。   For example, as shown in FIG. 32A, the device image 66 is superimposed on the device image 64, and a new device image 160 is generated and displayed. At this time, when the user selects the device image 160 and cancels the selection of the device image 160 in the area where the device image is not displayed on the device display screen 62 as shown by the arrow 190, the multifunction device (B) and the PC The cooperation function executed by the cooperation with (A) is cancelled. That is, by dragging the device image 160 to a region where the device image is not displayed and performing a drop operation in that region, the cooperation function is canceled and the device returns to the state before the device cooperation. For example, information indicating the drag operation and the drop operation is transmitted from the terminal device 16 to the server 14, and the specifying unit 38 of the server 14 releases the cooperation function. Of course, the terminal device 16 may release the cooperation function.

図32(b)には、連携機能が解除された後の機器表示画面62が示されている。機器が連携される前においては、機器像64,66,138が重ねられずに別々に表示されている。   FIG. 32 (b) shows the device display screen 62 after the cooperation function is released. Before the devices are linked, the device images 64, 66 and 138 are displayed separately without being superimposed.

以上のように、変形例7によると、重ね合わせ対象の機器像の選択を解除することにより、それ以外の特別な操作を行わずに連携機能が解除されるので、連携機能の解除のために選択解除以外の特別な操作が必要になる場合と比べて、連携機能が簡単に解除される。   As described above, according to the seventh modification, since the cooperation function is canceled without performing any other special operation by canceling the selection of the device image to be superimposed, the cancellation of the cooperation function is performed. The cooperation function is easily released as compared to the case where a special operation other than the selection cancellation is required.

別の例として、連携を解除する場合、ユーザが機器表示画面62上で解除対象の機器に紐付いた機器像を指定してもよいし、連携解除ボタンを押してもよい。また、連携対象ではない機器が機器表示画面62に写り込んでいる場合、ユーザが機器表示画面62上でその機器に紐付いた機器像を指定することにより、その機器を連携対象の機器から除外してもよい。解除対象の機器に紐付いた機器像にバツ印等を付けるような予め設定された操作が行われた場合に、その機器が連携対象の機器から除外されてもよい。   As another example, when releasing the cooperation, the user may designate the device image linked to the release target device on the device display screen 62, or may press the cooperation release button. Also, when a device that is not a collaboration target is reflected on the device display screen 62, the user designates the device image linked to the device on the device display screen 62, thereby excluding the device from the devices of the collaboration target. May be The device may be excluded from the devices to be cooperated when a preset operation is performed such as putting a cross mark on the device image linked to the device to be canceled.

(変形例8)
以下、図33を参照して、変形例8について説明する。図33には、端末装置16のUI部46に表示される画面の一例が示されている。
(Modification 8)
The eighth modification will be described below with reference to FIG. An example of a screen displayed on the UI unit 46 of the terminal device 16 is shown in FIG.

変形例8においても、画像形成装置10(複合機(B))と端末装置12(PC(A))が、連携対象の機器として識別されており、図33(a)に示すように、端末装置16において、機器表示画面62に機器像64,66が表示されている。また、矢印192で示すように、機器像64が機器像66に重ねられており、これにより、新たな機器像160が生成されて表示されている。画像形成装置10(複合機(B))と端末装置12(PC(A))が、連携対象の機器として指定されている。   Also in the modified example 8, the image forming apparatus 10 (the multi-function device (B)) and the terminal device 12 (PC (A)) are identified as devices to be cooperated, and as shown in FIG. In the device 16, device images 64 and 66 are displayed on the device display screen 62. Further, as indicated by an arrow 192, the device image 64 is superimposed on the device image 66, whereby a new device image 160 is generated and displayed. The image forming apparatus 10 (multifunctional peripheral (B)) and the terminal device 12 (PC (A)) are designated as devices to be cooperated.

変形例8においては、端末装置16の制御部48は、最後に重ね合わせて生成された機器像を機器表示画面62に残して表示させつつ、カメラ42の撮影領域を変更して機器表示画面62に表示させる。この場合、連携された機器(重ねられた機器像に紐付いた機器)の識別情報は端末装置16又はサーバ14に記憶される。   In the eighth modification, the control unit 48 of the terminal device 16 changes the imaging area of the camera 42 while displaying the device image generated by overlapping at the end on the device display screen 62 and displaying the device display screen 62. Display on. In this case, the identification information of the linked device (the device linked to the overlapped device image) is stored in the terminal device 16 or the server 14.

図33(a)に示す例では、機器像64が機器像66に重ね合わされて新たな機器像160が生成されて表示されているため、その機器像160が機器表示画面62に残って表示される。例えば、図33(a)に示す環境では撮影しきれないプロジェクタ(C)を連携対象の機器として用いる場合、図33(b)に示すように、機器像160が機器表示画面62に表示されている状態で、ユーザは、カメラ42の撮影領域にプロジェクタ(C)が含まれるようにカメラ42の向きを変えてプロジェクタ(C)を撮影する。これにより、プロジェクタ(C)がカメラ42によって撮影され、プロジェクタ(C)に紐付いた機器像138が機器表示画面62に表示される。機器像160を機器像138に重ね合わせることにより、プロジェクタ(C)が連携対象の機器として指定される。   In the example shown in FIG. 33A, since the device image 64 is superimposed on the device image 66 and a new device image 160 is generated and displayed, the device image 160 remains displayed on the device display screen 62. Ru. For example, when using the projector (C) which can not be photographed in the environment shown in FIG. 33A as a device to be cooperated, the device image 160 is displayed on the device display screen 62 as shown in FIG. 33B. In this state, the user shoots the projector (C) by changing the direction of the camera 42 so that the projector (C) is included in the shooting area of the camera 42. Thus, the projector (C) is photographed by the camera 42, and the device image 138 linked to the projector (C) is displayed on the device display screen 62. By superimposing the device image 160 on the device image 138, the projector (C) is designated as a device to be cooperated.

変形例8によると、連携対象となる複数の機器を一度に撮影しきれない場合であっても、複数の機器を別々に撮影して連携させることが可能となる。   According to the eighth modification, even when the plurality of devices to be cooperated can not be photographed at one time, the plurality of devices can be photographed separately and cooperated.

なお、上記の例では、最後に重ね合わせて生成された機器像を機器表示画面62に残して表示しているが、別の例として、ユーザによって指定された機器像や、最初に撮影された機器に紐付いた機器像や、予め設定された基本機器に紐付いた機器像を、機器表示画面62に残して表示してもよい。この場合も、複数の機器を別々に撮影して連携させることが可能となる。   In the above example, the device image generated by superimposing at the end is displayed on the device display screen 62, but as another example, the device image designated by the user or the first image taken A device image linked to a device or a device image linked to a preset basic device may be displayed on the device display screen 62 and displayed. Also in this case, it becomes possible to capture a plurality of devices separately and to make them cooperate.

(変形例9)
以下、変形例9について説明する。変形例9においては、第1実施形態に係る処理が適用される。つまり、機器像を重ね合わせる順番に応じて、連携機能に関する情報の表示の優先順位が決定される。例えば、図24(b)に示すように、機器像64が選択され、その機器像64が操作されて機器像66に重ねられた場合、機器像64から機器像66へ画像が繋がれたことになる。これにより、機器像64に紐付いた画像形成装置10(複合機(B))と機器像66に紐付いた端末装置12(PC(A))が、連携対象の機器として指定されるとともに、接続の順番が指定される。機器像を重ねる順番が接続の順番に相当する。図24(b)に示す例では、画像形成装置10(複合機(B))から端末装置12(PC(A))へ機器が接続されている。
(Modification 9)
Hereinafter, modification 9 will be described. In the ninth modification, the process according to the first embodiment is applied. That is, according to the order in which the device images are superimposed, the display priority of the information related to the cooperative function is determined. For example, as shown in FIG. 24B, when the device image 64 is selected and the device image 64 is manipulated and superimposed on the device image 66, the image is connected from the device image 64 to the device image 66. become. As a result, the image forming apparatus 10 (the multifunction machine (B)) linked to the device image 64 and the terminal device 12 (PC (A)) linked to the device image 66 are designated as linked devices, and connected. The order is specified. The order of overlapping the device images corresponds to the order of connection. In the example shown in FIG. 24B, a device is connected from the image forming apparatus 10 (MFP (B)) to the terminal device 12 (PC (A)).

変形例9においては、サーバ14Aには、第1実施形態に係る連携機能情報34(図7に示されている連携機能管理テーブル)が記憶されている。上記のように、連携対象の機器(例えば画像形成装置10と端末装置12)が指定されると、サーバ14Aの特定部38は、図7に示されている連携機能管理テーブル(連携機能情報34)において、PC(A)と複合機(B)の組み合わせに対応付けられている連携機能を特定する。これにより、PC(A)と複合機(B)を連携させることによって実現される連携機能が特定される。また、ユーザによって機器の接続順番が指定されると、特定部38は、連携機能管理テーブルにおいて、その接続順番に対応付けられている優先順位を特定する。   In the ninth modification, the server 14A stores cooperation function information 34 (cooperation function management table shown in FIG. 7) according to the first embodiment. As described above, when devices to be cooperated (for example, the image forming apparatus 10 and the terminal device 12) are designated, the specifying unit 38 of the server 14A performs the cooperation function management table (cooperation function information 34 shown in FIG. 7). , Identify the cooperation function associated with the combination of the PC (A) and the multifunction machine (B). As a result, the cooperation function realized by causing the PC (A) and the multifunction peripheral (B) to cooperate is specified. In addition, when the connection order of devices is specified by the user, the specification unit 38 specifies the priority order associated with the connection order in the cooperation function management table.

上記のようにして特定された連携機能に関する情報と優先順位を示す情報は、サーバ14Aから端末装置16に送信される。端末装置16の制御部48は、その優先順位に従って、連携機能に関する情報を連携機能候補に関する情報としてUI部46に表示させる。   The information on the cooperation function identified as described above and the information indicating the priority are transmitted from the server 14A to the terminal device 16. The control unit 48 of the terminal device 16 causes the UI unit 46 to display the information on the cooperation function as the information on the cooperation function candidate according to the priority.

以上のように、変形例9によると、機器像を重ね合わせることにより、機器が有する機能を利用する連携機能が特定される。また、機器像を重ねる順番、つまり、機器を接続する順番を変えることにより、連携機能に関する情報の表示順位が変更される。それ故、機器像同士を重ねる操作以外の特別な操作を行わずに、ユーザが利用するであろうと予測される連携機能に関する情報が優先的に表示される。   As described above, according to the ninth modification, the cooperation function that uses the function of the device is identified by superimposing the device image. Moreover, the display order of the information regarding a cooperation function is changed by changing the order which overlaps an apparatus image, ie, the order which connects an apparatus. Therefore, the information related to the cooperation function predicted to be used by the user is preferentially displayed without performing any special operation other than the operation of overlapping the device images.

(変形例10)
以下、図34を参照して、変形例10について説明する。図34には、端末装置16のUI部46に表示される画面の一例が示されている。
(Modification 10)
Hereinafter, with reference to FIG. 34, the modification 10 will be described. FIG. 34 shows an example of a screen displayed on the UI unit 46 of the terminal device 16.

変形例10においては、第1実施形態の変形例1と同様に、機器に紐付いた機器像内の位置に応じて、連携機能に割り当てられる機器が有する機能が異なっている。機器像内の特定の部分像を、他の機器像内の特定の部分像に重ね合わせることにより、その特定の部分像に紐付いた機能を利用する連携機能が特定される。以下、変形例10について詳しく説明する。   In the tenth modification, as in the first modification of the first embodiment, the function of the device assigned to the cooperative function is different according to the position in the device image linked to the device. By superimposing a specific partial image in a device image on a specific partial image in another device image, a cooperative function using the function associated with the specific partial image is specified. Hereinafter, modification 10 will be described in detail.

変形例10においても、画像形成装置10(複合機(B))と端末装置12(PC(A))が識別されているものとする。図34(a)に示すように、端末装置16のUI部46には機器表示画面62が表示されており、その機器表示画面62に機器像64,66が表示されている。第1実施形態の変形例1と同様に、機器像64内の部分像76には「プリント機能」が対応付けられており、機器像64内の部分像78には「スキャン機能」が対応付けられており、機器像64内の部分像80には「ステープル止め機能」が対応付けられている。また、機器像66内の部分像82には「データ保存機能」が対応付けられており、機器像66内の部分像84には「画面表示機能」が対応付けられている。変形例10においては、部分像は他の部分像から分離して個別的に移動可能な画像として表示されている。   Also in the modified example 10, it is assumed that the image forming apparatus 10 (multifunctional peripheral (B)) and the terminal device 12 (PC (A)) are identified. As shown in FIG. 34A, the device display screen 62 is displayed on the UI unit 46 of the terminal device 16, and the device images 64 and 66 are displayed on the device display screen 62. As in the first modification of the first embodiment, the "print function" is associated with the partial image 76 in the device image 64, and the "scan function" is associated with the partial image 78 in the device image 64. The "stapling function" is associated with the partial image 80 in the device image 64. Further, the “data storage function” is associated with the partial image 82 in the device image 66, and the “screen display function” is associated with the partial image 84 in the device image 66. In the tenth modification, the partial image is displayed as an image that can be moved separately from the other partial images.

なお、第1実施形態の変形例1と同様に、各機能の名称(例えば印刷やスキャン等)が機器表示画面62に表示されてもよいし、接触領域像90−98が機器表示画面62に表示されてもよい。この場合、ユーザによって指定された部分像に対応する接触領域像の色や、重ねられた部分像に対応する接触領域像の色が変更されてもよい。もちろん、機能の名称や接触領域像は表示されなくてもよい。   As in the first modification of the first embodiment, the names of the respective functions (for example, printing, scanning, etc.) may be displayed on the device display screen 62, and the contact area images 90 to 98 are displayed on the device display screen 62. It may be displayed. In this case, the color of the touch area image corresponding to the partial image designated by the user or the color of the touch area image corresponding to the superimposed partial image may be changed. Of course, the name of the function and the contact area image may not be displayed.

変形例10においては、部分像がユーザによって指定されて、その部分像が他の部分像に重ねられると、重ねられた部分像に紐付いた機能を利用する連携機能が特定され、その連携機能に関する情報が端末装置16のUI部46に表示される。この特定処理は、サーバ14の特定部38によって行われてもよいし、端末装置16によって行われてもよい。   In the modification 10, when a partial image is designated by the user and the partial image is superimposed on another partial image, a cooperation function that uses the function associated with the superimposed partial image is identified, and the cooperation function is related to the cooperation function. The information is displayed on the UI unit 46 of the terminal device 16. This specifying process may be performed by the specifying unit 38 of the server 14 or may be performed by the terminal device 16.

例えば、図34(b)中の矢印194で示すように、ユーザが操作子を用いて、部分像78をドラッグ操作して部分像84に重ねてドロップ操作を行った場合、部分像78を含む機器像64に紐付いた複合機(B)と部分像84を含む機器像66に紐付いたPC(A)が、連携対象の機器として指定されるとともに、部分像78に対応する「スキャン機能」と部分像82に対応する「画面表示機能」が連携対象の機能として指定される。   For example, as shown by an arrow 194 in FIG. 34B, when the user drags the partial image 78 using the operation element to overlap the partial image 84 and perform a drop operation, the partial image 78 is included. The MFP (B) linked to the device image 64 and the PC (A) linked to the device image 66 including the partial image 84 are designated as the devices to be cooperated, and “scan function” corresponding to the partial image 78 The “screen display function” corresponding to the partial image 82 is designated as the function to be cooperated.

サーバ14Aにおいては、部分像に対応する機能が管理されている。例えば、部分像を識別するための識別情報と、部分像に対応付けられている機能を示す機能識別情報と、機能を連携させることによって実行される連携機能を示す連携機能識別情報と、が対応付けられてサーバ14Aに記憶されている。機器表示画面62上で部分像が選択されて他の部分像に重ねられると、重ねられた部分像を示す識別情報が、端末装置16からサーバ14Aに送信される。図34(b)に示す例では、部分像78,84をそれぞれ示す識別情報が端末装置16からサーバ14Aに送信される。サーバ14Aの特定部38は、その識別情報に基づいて、重ねられた部分像78,84のそれぞれに対応する機能を特定し、その機能を利用する連携機能を特定する。その連携機能に関する情報は、サーバ14Aから端末装置16に送信されて表示される。   In the server 14A, functions corresponding to partial images are managed. For example, identification information for identifying a partial image, function identification information indicating a function associated with the partial image, and linked function identification information indicating a linked function to be executed by linking the functions correspond to each other. And stored in the server 14A. When a partial image is selected on the device display screen 62 and superimposed on another partial image, identification information indicating the superimposed partial image is transmitted from the terminal device 16 to the server 14A. In the example shown in FIG. 34 (b), identification information respectively indicating the partial images 78 and 84 is transmitted from the terminal device 16 to the server 14A. The specifying unit 38 of the server 14A specifies a function corresponding to each of the superimposed partial images 78 and 84 based on the identification information, and specifies a cooperation function using the function. The information on the cooperation function is transmitted from the server 14A to the terminal device 16 and displayed.

以上のように、変形例10によると、連携対象の機器が複数の機能を有している場合に、機能が個別的に指定され、この指定された機能を利用する連携機能に関する情報が優先的に表示される。これにより、ユーザが利用するであろうと予測される連携機能が優先的に表示される。   As described above, according to the modification 10, when the device to be cooperated has a plurality of functions, the function is individually designated, and the information on the cooperation function using the designated function is prioritized Is displayed on. Thereby, the cooperation function predicted to be used by the user is preferentially displayed.

変形例10においても、第1実施形態と同様に、部分像を重ね合わせる順番に応じて、連携機能の表示の優先順位が変更されてもよい。この場合、重ねられた部分像に紐付いた機能を利用する連携機能に関する情報が優先的に表示される。   Also in the modification 10, as in the first embodiment, the display priority of the cooperative function may be changed according to the order in which the partial images are superimposed. In this case, information relating to the cooperation function using the function linked to the superimposed partial image is displayed preferentially.

(変形例11)
以下、変形例11について説明する。変形例11においては、変形例10と同様に、機器に紐付いた機器像内の位置に応じて、連携機能に割り当てられる機器が有する機能が異なっているが、変形例10と異なり、部分像は他の部分像から分離して個別的に移動可能になっていない。変形例11では、図24(b)に示す例と同様に、ユーザによって機器像の全体が移動させられ、他の機器像に重ねられる。このとき、重ねられた位置に応じて連携機能が変更される。この点について、図34(a)を参照して具体例を挙げて説明する。例えば、複合機(B)に紐付いた機器像64の全体がユーザによって操作されて、PC(A)に紐付いた機器像66に重ねられたものとする。このとき、機器像64内の部分像78(スキャン機能に紐付いた部分像)と、機器像66内の部分像84(画面表示機能に紐付いた部分像)と、が重ねられた場合、スキャン機能と画面表示機能とを利用する連携機能に関する情報が優先的に表示される。
(Modification 11)
Hereinafter, modification 11 will be described. In the eleventh modification, as in the tenth modification, depending on the position in the device image linked to the device, the function of the device assigned to the cooperation function is different, but unlike the tenth modification, the partial image is different It is not separately movable from other partial images separately. In the eleventh modification, as in the example shown in FIG. 24B, the user moves the entire device image and superimposes the other device images. At this time, the cooperation function is changed in accordance with the overlapped position. This point will be described with reference to a specific example with reference to FIG. For example, it is assumed that the entire device image 64 linked to the multifunction machine (B) is operated by the user and superimposed on the device image 66 linked to the PC (A). At this time, if the partial image 78 (partial image linked to the scan function) in the device image 64 and the partial image 84 (partial image linked to the screen display function) in the device image 66 overlap, the scan function The information regarding the cooperation function using the and the screen display function is displayed preferentially.

上述した第2実施形態及び変形例5−11においても、第1実施形態と同様に、図21に示されているシーケンスに従って、連携対象の機器が接続される。   Also in the second embodiment and the modified example 5-11 described above, the devices to be cooperated are connected according to the sequence shown in FIG. 21 as in the first embodiment.

また、上述した第2実施形態及び変形例5−11において、識別された機器に紐付いた機器像、及び、重ねられた機器像は、背景画像に埋もれないように3次元で表示されてもよい。つまり、それらの画像が3次元画像として表示されてもよい。例えば、背景画像が2次元で表示され、機器像が3次元で表示される。これより、機器像の視認性が向上する。また、ユーザによって指定された機器像が他の機器像から識別されるように、指定された機器像の色を変えたり、指定された機器像を振動させたりしてもよい。   Further, in the second embodiment and the modified example 5-11 described above, the device image associated with the identified device and the device image superimposed may be displayed in three dimensions so as not to be buried in the background image. . That is, those images may be displayed as a three-dimensional image. For example, the background image is displayed in two dimensions, and the device image is displayed in three dimensions. This improves the visibility of the device image. Further, the color of the designated device image may be changed or the designated device image may be vibrated so that the device image designated by the user is identified from other device images.

上述した第1実施形態、第2実施形態及び変形例1−11においては、機器等のハードウェアを識別して連携機能を実現しているが、ソフトウェア(アプリケーションプログラム)を識別して、各ソフトウェアの機能を連携させてもよい。例えば、スマートフォンのホーム画面やパーソナルコンピュータのデスクトップ画面に表示されている機能に関するアイコン等の画像(機能に紐付いた画像の一例に相当する)を繋いだり重ねたりすることで、連携機能が特定され、その連携機能に関する情報が表示されてもよい。この場合において、画像を繋げる順番や重ねる順番に応じて、連携機能の表示の優先順位が変更されてもよい。   In the first embodiment, the second embodiment, and the modification 1-11 described above, the hardware such as the device is identified to realize the cooperation function, but the software (application program) is identified and each software is identified. The functions of may be linked. For example, by linking or overlapping images (corresponding to an example of an image linked to a function) such as icons relating to functions displayed on a home screen of a smartphone or a desktop screen of a personal computer, a cooperation function is specified, Information on the cooperation function may be displayed. In this case, the display priority of the cooperation function may be changed according to the order of connecting the images and the order of overlapping.

また、上述した第1実施形態、第2実施形態及び変形例1−11によると、AR技術を適用することにより、連携対象の機器が有する機能を利用する連携機能が特定され、その連携機能に関する情報が表示される。これにより、連携対象の機器によってどのような連携機能が実行可能であるのかその外観からでは分からない場合であっても、その連携機能に関する情報がユーザに提供される。また、個々の機器が単独では実行できない機能が、複数の機器を連携させることによって実行できるようになり、便利である。また、AR技術を適用して連携対象の機器を識別するだけで連携機能の利用が可能となるため、連携機能を実行するための設定等をユーザがマニュアル操作で行う場合と比べて、簡単な操作で連携機能の利用が可能となり、ユーザの手間が軽減される。   In addition, according to the first embodiment, the second embodiment, and the modification 1-11 described above, by applying the AR technology, a cooperation function that uses a function of a device to be cooperated is identified, and the cooperation function is related. Information is displayed. Thereby, even if it is not clear from the appearance of what kind of cooperation function can be executed by the device to be cooperated, information on the cooperation function is provided to the user. In addition, it is convenient because functions that can not be performed individually by individual devices can be performed by linking a plurality of devices. In addition, it is possible to use the cooperation function simply by applying AR technology and identifying the device to be cooperated, which is simpler than when the user performs settings etc. for executing the cooperation function manually. The cooperation function can be used by the operation, and the time and effort of the user can be reduced.

また、複数の機器を複数のユーザが利用するという環境において、連携機能に関する情報が各ユーザの端末装置16に表示される。例えば、機器からタッチパネル等のユーザインターフェースが取り除かれた場合であっても、端末装置16がユーザインターフェースとして機能し、連携機能に関する情報が各ユーザの端末装置16に表示される。別の場面として、例えば、ユーザの出先等で複数の機器が一時的に利用される場合に、当該ユーザに適したユーザインターフェース、つまり、当該ユーザによって指定された連携対象の機器が有する機能を利用する連携機能に関する情報を表わすユーザインターフェースが表示される。   Further, in an environment where a plurality of devices are used by a plurality of users, information on the cooperation function is displayed on the terminal device 16 of each user. For example, even if a user interface such as a touch panel is removed from the device, the terminal device 16 functions as a user interface, and information on the cooperation function is displayed on the terminal device 16 of each user. As another scene, for example, when a plurality of devices are temporarily used at the place where the user goes out, a user interface suitable for the user, that is, the function of the device to be cooperated designated by the user is used. The user interface representing the information on the linked function is displayed.

上述した第1実施形態、第2実施形態及び変形例1−11の連携機能実行動作の過程で、予め機器を撮影する、他のユーザが機器を識別して取得した機器識別情報及び機器の画像を譲り受ける等して、既に機器を識別している場合、その機器識別情報及び機器の画像をサーバ14や端末装置16等の記憶部に記憶しておき、後で連携機能を実行するための編集画面を起動して、その記憶した機器識別情報及び機器の画像を記憶部から読み出し、編集画面上で、上述したように機器の画像を繋げたり、重ね合わせることで、連携機能を実行するようにしてもよい。ここで、図35を参照して、具体例を挙げて説明する。図35には、端末装置16に表示される編集画面196が示されている。この編集画面には、一例として、PC(A)に紐付いた機器像66、複合機(B)に紐付いた機器像64、プロジェクタ(C)に紐付いた機器像138、及び、カメラ(D)に紐付いた機器像198が、表示されている。これらの画像は、上述したように、過去において既に取得された画像であり、サーバ14や端末装置16等の記憶部に記憶されている。連携機能を実行するときに、これらの画像が記憶部から読み出されて編集画面196に表示される。この編集画面196上において、上述したように、画像を繋げたり重ね合わせたりすることで、連携機能が実行される。このような処理を行うことにより、過去に識別したことのある機器を連携機能を実行する度に撮影する必要がなくなり、効率的に連携機能を実行することができる。また、カメラの撮影画像に写り込む機器以外の画像がなくなるため、操作すべき機器の視認性も向上する。   Device identification information and an image of the device obtained by imaging the device in advance in the process of the linked function execution operation of the first embodiment, the second embodiment and the modified example 1-11 described above, and another user identifying and acquiring the device If the device has already been identified, the device identification information and the image of the device are stored in the storage unit such as the server 14 or the terminal device 16 and edited to execute the cooperation function later. The screen is started, and the stored device identification information and the image of the device are read out from the storage unit, and the image of the device is connected or superimposed on the editing screen as described above to execute the cooperation function. May be Here, with reference to FIG. 35, a specific example will be described. An editing screen 196 displayed on the terminal device 16 is shown in FIG. In this editing screen, as an example, the device image 66 linked to the PC (A), the device image 64 linked to the multi-function machine (B), the device image 138 linked to the projector (C), and the camera (D) A linked device image 198 is displayed. As described above, these images are images already acquired in the past, and are stored in the storage unit such as the server 14 or the terminal device 16. When executing the cooperation function, these images are read from the storage unit and displayed on the editing screen 196. As described above, the linking function is executed on the editing screen 196 by connecting or overlapping the images. By performing such processing, it is not necessary to take a picture of a device that has been identified in the past every time the linked function is executed, and the linked function can be efficiently executed. In addition, since there is no image other than the device reflected in the photographed image of the camera, the visibility of the device to be operated is also improved.

上記の画像形成装置10、端末装置12,16及びサーバ14,14Aのそれぞれは、一例としてハードウェア資源とソフトウェアとの協働により実現される。具体的には、画像形成装置10、端末装置12,16及びサーバ14,14Aのそれぞれは、図示しないCPU等の1又は複数のプロセッサを備えている。当該1又は複数のプロセッサが、図示しない記憶装置に記憶されたプログラムを読み出して実行することにより、画像形成装置10、端末装置12,16及びサーバ14,14Aの各部の機能が実現される。上記プログラムは、CDやDVD等の記録媒体を経由して、又は、ネットワーク等の通信経路を経由して、記憶装置に記憶される。別の例として、画像形成装置10、端末装置12,16及びサーバ14,14Aのそれぞれの各部は、例えばプロセッサや電子回路等のハードウェア資源により実現されてもよい。その実現においてメモリ等のデバイスが利用されてもよい。更に別の例として、画像形成装置10、端末装置12,16及びサーバ14,14Aのそれぞれの各部は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等によって実現されてもよい。   Each of the image forming apparatus 10, the terminal devices 12 and 16 and the servers 14 and 14A is realized by cooperation of hardware resources and software as an example. Specifically, each of the image forming apparatus 10, the terminal devices 12 and 16, and the servers 14 and 14A includes one or more processors such as a CPU (not shown). The one or more processors read and execute a program stored in a storage device (not shown) to realize the functions of the respective units of the image forming apparatus 10, the terminal devices 12 and 16, and the servers 14 and 14A. The program is stored in the storage device via a recording medium such as a CD or a DVD or via a communication path such as a network. As another example, each unit of the image forming apparatus 10, the terminal devices 12 and 16, and the servers 14 and 14A may be realized by hardware resources such as a processor and an electronic circuit. A device such as a memory may be used in the implementation. As still another example, each unit of the image forming apparatus 10, the terminal devices 12 and 16, and the servers 14 and 14A may be realized by a digital signal processor (DSP), a field programmable gate array (FPGA), or the like.

10 画像形成装置、12,16 端末装置、14,14A サーバ、18,28,40 通信部、20 画像形成部、22,30,30A,44 記憶部、24,46 UI部、26,36,36A,48 制御部、32 機器機能情報、34,144 連携機能情報、38 特定部、42 カメラ、146 連携機能登録部。
DESCRIPTION OF SYMBOLS 10 Image forming apparatus, 12, 16 terminal device, 14, 14A server, 18, 28, 40 Communication part, 20 Image forming part, 22, 30, 30A, 44 Storage part 24, 46 UI part, 26, 36, 36A , 48 control unit, 32 device function information, 34, 144 linked function information, 38 identification unit, 42 camera, 146 linked function registration unit.

Claims (5)

第1機能に紐付く第1画像と第2機能に紐付く第2画像とが互いに重なる部分に応じて機能を変える制御手段、
を有する情報処理装置。
Control means for changing the function according to a portion where the first image linked to the first function and the second image linked to the second function overlap each other,
An information processing apparatus having
前記機能は、前記重なる部分に対応する機能を利用する、
ことを特徴とする請求項1に記載の情報処理装置。
The function uses a function corresponding to the overlapping portion.
An information processing apparatus according to claim 1, characterized in that.
前記第1画像と前記第2画像は表示手段に表示され、前記表示手段上にてユーザによって前記第1画像の全体又は部分が前記第2画像の全体又は部分に重ねられる、
ことを特徴とする請求項1又は請求項2に記載の情報処理装置。
The first image and the second image are displayed on the display means, and the whole or the part of the first image is superimposed on the whole or the part of the second image by the user on the display means.
The information processing apparatus according to claim 1 or 2, characterized in that:
前記制御手段は、前記重ねられた部分の表示色を変える、
ことを特徴とする請求項1から請求項3何れかに記載の情報処理装置。
The control means changes the display color of the overlapped portion.
The information processing apparatus according to any one of claims 1 to 3, characterized in that:
コンピュータを、
第1機能に紐付く第1画像と第2機能に紐付く第2画像とが互いに重なる部分に応じて機能を変える制御手段、
として機能させるプログラム。
Computer,
Control means for changing the function according to a portion where the first image linked to the first function and the second image linked to the second function overlap each other,
A program to function as
JP2018222752A 2018-11-28 2018-11-28 Information processing apparatus and program Pending JP2019068442A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018222752A JP2019068442A (en) 2018-11-28 2018-11-28 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018222752A JP2019068442A (en) 2018-11-28 2018-11-28 Information processing apparatus and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017112972A Division JP6443497B2 (en) 2017-06-07 2017-06-07 Information processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2019068442A true JP2019068442A (en) 2019-04-25

Family

ID=66340080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018222752A Pending JP2019068442A (en) 2018-11-28 2018-11-28 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2019068442A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348243A (en) * 1993-06-07 1994-12-22 Fuji Photo Film Co Ltd On-screen character color selecting method
JP2010231673A (en) * 2009-03-28 2010-10-14 Brother Ind Ltd Data management program and computer executing the same
JP2013080377A (en) * 2011-10-04 2013-05-02 Konica Minolta Business Technologies Inc Image processing device, coordination method, and coordination program
JP2018005361A (en) * 2016-06-29 2018-01-11 富士ゼロックス株式会社 Information processing apparatus and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348243A (en) * 1993-06-07 1994-12-22 Fuji Photo Film Co Ltd On-screen character color selecting method
JP2010231673A (en) * 2009-03-28 2010-10-14 Brother Ind Ltd Data management program and computer executing the same
JP2013080377A (en) * 2011-10-04 2013-05-02 Konica Minolta Business Technologies Inc Image processing device, coordination method, and coordination program
JP2018005361A (en) * 2016-06-29 2018-01-11 富士ゼロックス株式会社 Information processing apparatus and program

Similar Documents

Publication Publication Date Title
JP6052459B1 (en) Information processing apparatus and program
US11800026B2 (en) Information processing apparatus and non-transitory computer readable medium
JP6052458B1 (en) Information processing apparatus and program
JP6179653B1 (en) Information processing apparatus and program
JP6160761B1 (en) Information processing apparatus and program
JP6146528B1 (en) Information processing apparatus and program
US10440208B2 (en) Information processing apparatus with cooperative function identification
CN107391061B (en) Information processing apparatus and information processing method
JP7235072B2 (en) Information processing device, program and control method
CN107346218B (en) Information processing apparatus, information processing method, and computer program
JP6327387B2 (en) Information processing apparatus and program
JP6443498B2 (en) Information processing apparatus and program
CN108307084B (en) Information processing apparatus, information processing method, and computer program
JP2018129097A (en) Information processing apparatus and program
JP6443497B2 (en) Information processing apparatus and program
JP2019068442A (en) Information processing apparatus and program
JP6958680B2 (en) Information processing equipment and programs
JP6455551B2 (en) Information processing apparatus and program
JP2018067292A (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200305

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200929