JP2018067291A - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP2018067291A
JP2018067291A JP2017113023A JP2017113023A JP2018067291A JP 2018067291 A JP2018067291 A JP 2018067291A JP 2017113023 A JP2017113023 A JP 2017113023A JP 2017113023 A JP2017113023 A JP 2017113023A JP 2018067291 A JP2018067291 A JP 2018067291A
Authority
JP
Japan
Prior art keywords
function
image
information
terminal device
cooperation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017113023A
Other languages
Japanese (ja)
Other versions
JP6455551B2 (en
Inventor
賢吾 得地
Kengo Tokuchi
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017113023A priority Critical patent/JP6455551B2/en
Publication of JP2018067291A publication Critical patent/JP2018067291A/en
Application granted granted Critical
Publication of JP6455551B2 publication Critical patent/JP6455551B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide information on executable cooperation functions.SOLUTION: An information processing apparatus combines a first function of a first apparatus and a second function of a second apparatus according to display positions of a first image associated with the first apparatus and a second image associated with the second apparatus, so as to control display of executable cooperation functions.SELECTED DRAWING: Figure 19

Description

本発明は、情報処理装置及びプログラムに関する。   The present invention relates to an information processing apparatus and a program.

特許文献1には、装置本体と着脱可能で無線通信可能な操作パネルに、操作の案内を示す画像を表示する技術が開示されている。   Patent Document 1 discloses a technique for displaying an image indicating operation guidance on an operation panel that can be attached to and detached from the apparatus main body and wirelessly communicated.

特許文献2には、クライアント装置とサービスを提供するサービス提供装置との間でデータの中継を行う中継装置が開示されている。   Patent Document 2 discloses a relay device that relays data between a client device and a service providing device that provides a service.

特許文献3には、撮像手段によって撮像された撮像画像に画像形成装置の状態情報を含む付加情報を重畳させた拡張現実画像を生成する携帯端末が開示されている。   Patent Document 3 discloses a portable terminal that generates an augmented reality image in which additional information including state information of an image forming apparatus is superimposed on a captured image captured by an imaging unit.

特許文献4には、複数のクラウドサーバと通信する通信システムにおいて、ユーザによる各クラウドサーバの利用状況を、当該ユーザがログインに際して操作した機器のディスプレイに表示する技術が開示されている。   Patent Document 4 discloses a technique for displaying a usage status of each cloud server by a user on a display of a device operated by the user during login in a communication system communicating with a plurality of cloud servers.

特許第5737906号Patent No. 5737906 特開2014−10769号公報JP 2014-10769 A 特開2014−48672号公報JP 2014-48672 A 特開2014−238786号公報JP 2014-238786 A

ところで、機器や機能を利用してどのような連携機能が実行可能であるのかがユーザにおいて簡単には分からない場合がある。   By the way, there are cases where it is not easy for the user to know what cooperation function can be executed using the device or function.

本発明の目的は、実行可能な連携機能の情報を提供することにある。   An object of the present invention is to provide information on executable cooperation functions.

請求項1に記載の発明は、第1機器に紐付く第1画像と第2機器に紐付く第2画像の表示位置に応じて、前記第1機器が有する第1機能と前記第2機器が有する第2機能とを組み合わせることで実行可能な連携機能の表示を切り替える制御手段を有する情報処理装置である。   According to the first aspect of the present invention, the first function of the first device and the second device correspond to the display positions of the first image associated with the first device and the second image associated with the second device. The information processing apparatus includes a control unit that switches display of a cooperative function that can be executed by combining the second function.

請求項2に記載の発明は、前記第1画像は前記第1機器を撮影することで得られた画像であり、前記第2画像は前記第2機器を撮影することで得られた画像である、ことを特徴とする請求項1に記載の情報処理装置である。   According to a second aspect of the present invention, the first image is an image obtained by photographing the first device, and the second image is an image obtained by photographing the second device. The information processing apparatus according to claim 1.

請求項3に記載の発明は、前記第1画像に基づいて前記第1機器を識別し、前記第2画像に基づいて前記第2機器を識別する識別手段を更に有し、前記制御手段は、前記識別手段によって前記第1機器と前記第2機器が識別された場合、前記表示位置に応じて前記連携機能の表示を切り替える、ことを特徴とする請求項2に記載の情報処理装置である。   The invention according to claim 3 further includes identification means for identifying the first device based on the first image and identifying the second device based on the second image, and the control means includes: The information processing apparatus according to claim 2, wherein when the first device and the second device are identified by the identification unit, the display of the cooperation function is switched according to the display position.

請求項4に記載の発明は、第1機能に紐付く第1画像と第2機能に紐付く第2画像の表示位置に応じて、前記第1機能と前記第2機能とを組み合わせることで実行可能な連携機能の表示を制御する制御手段を有する情報処理装置である。   The invention according to claim 4 is executed by combining the first function and the second function in accordance with the display position of the first image associated with the first function and the second image associated with the second function. This is an information processing apparatus having control means for controlling display of possible cooperative functions.

請求項5に記載の発明は、前記制御手段は、前記第1画像内の部分画像と前記第2画像内の部分画像の表示位置に応じて、前記第1画像内の部分画像に紐付く機能と前記第2画像内の部分画像に紐付く機能とを組み合わせることで実行可能な前記連携機能の表示を切り替える、ことを特徴とする請求項1から請求項4何れかに記載の情報処理装置である。   The invention according to claim 5 is a function in which the control means is associated with the partial image in the first image according to the display position of the partial image in the first image and the partial image in the second image. 5. The information processing apparatus according to claim 1, wherein display of the cooperative function that can be executed is switched by combining a function associated with a partial image in the second image. is there.

請求項6に記載の発明は、部分画像毎に異なる機能が紐付けられている、ことを特徴とする請求項5に記載の情報処理装置である。   The invention according to claim 6 is the information processing apparatus according to claim 5, wherein different functions are associated with each partial image.

請求項7に記載の発明は、前記連携機能は、連携前には利用できなかった機能である、ことを特徴とする請求項1から請求項6何れかに記載の情報処理装置である。   The invention according to claim 7 is the information processing apparatus according to any one of claims 1 to 6, wherein the cooperation function is a function that cannot be used before cooperation.

請求項8に記載の発明は、コンピュータを、第1機器に紐付く第1画像と第2機器に紐付く第2画像の表示位置に応じて、前記第1機器が有する第1機能と前記第2機器が有する第2機能とを組み合わせることで実行可能な連携機能の表示を切り替える切換手段、として機能させるプログラムである。   According to an eighth aspect of the present invention, the first function of the first device and the first function of the computer according to the display positions of the first image associated with the first device and the second image associated with the second device. This is a program that functions as a switching unit that switches display of a cooperative function that can be executed by combining the second function of two devices.

請求項9に記載の発明は、コンピュータを、第1機能に紐付く第1画像と第2機能に紐付く第2画像の表示位置に応じて、前記第1機能と前記第2機能とを組み合わせることでえ実行可能な連携機能の表示を制御する制御手段、として機能させるプログラムである。   The invention according to claim 9 combines the first function and the second function in accordance with the display position of the first image associated with the first function and the second image associated with the second function. This is a program that functions as a control unit that controls display of an executable cooperative function.

請求項1−4,8,9に記載の発明によれば、実行可能な連携機能の情報が提供される。   According to the first to fourth aspects of the present invention, information on the cooperation function that can be executed is provided.

請求項5,6に記載の発明によれば、部分画像に紐付く機能を利用して実行可能な連携機能の情報が提供される。   According to the fifth and sixth aspects of the present invention, information on a cooperative function that can be executed using a function associated with a partial image is provided.

請求項7に記載の発明によれば、連携前には実行できなかった機能を実行することができる。   According to the seventh aspect of the invention, a function that could not be executed before cooperation can be executed.

本発明の実施形態に係る画像形成システムを示すブロック図である。1 is a block diagram illustrating an image forming system according to an embodiment of the present invention. 本実施形態に係る画像形成装置を示すブロック図である。1 is a block diagram illustrating an image forming apparatus according to an exemplary embodiment. 本実施形態に係るサーバを示すブロック図である。It is a block diagram which shows the server which concerns on this embodiment. 本実施形態に係る端末装置を示すブロック図である。It is a block diagram which shows the terminal device which concerns on this embodiment. 画像形成装置の外観を示す模式図である。1 is a schematic diagram illustrating an appearance of an image forming apparatus. 機器機能管理テーブルの一例を示す図である。It is a figure which shows an example of an apparatus function management table. 連携機能管理テーブルの一例を示す図である。It is a figure which shows an example of a cooperation function management table. 単独で利用される機器を示す図である。It is a figure which shows the apparatus utilized independently. 機能表示画面の一例を示す図である。It is a figure which shows an example of a function display screen. 機能表示画面の一例を示す図である。It is a figure which shows an example of a function display screen. 連携対象の機器を示す図である。It is a figure which shows the apparatus of cooperation object. 機能表示画面の一例を示す図である。It is a figure which shows an example of a function display screen. 機器表示画面の一例を示す図である。It is a figure which shows an example of an apparatus display screen. 機器表示画面の一例を示す図である。It is a figure which shows an example of an apparatus display screen. 変形例1に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 1. 変形例1に係る機能表示画面の一例を示す図である。It is a figure which shows an example of the function display screen which concerns on the modification 1. FIG. 変形例1に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 1. 変形例1に係る機能表示画面の一例を示す図である。It is a figure which shows an example of the function display screen which concerns on the modification 1. FIG. 変形例1に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 1. 変形例2に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 2. 変形例2に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 2. 変形例3に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 3. 変形例4に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 4. 変形例4に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 4. 変形例5に係る機器機能管理テーブルの一例を示す図である。It is a figure which shows an example of the apparatus function management table which concerns on the modification 5. FIG. 変形例5に係る連携機能管理テーブルの一例を示す図である。It is a figure which shows an example of the cooperation function management table which concerns on the modification 5. FIG. 変形例5に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 5. 変形例5に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 5. 変形例6に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 6. FIG. 変形例6に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 6. FIG. 変形例7に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 7. 変形例7に係る機器表示画面の一例を示す図である。It is a figure which shows an example of the apparatus display screen which concerns on the modification 7. 画像形成システムにおける接続処理を示すシーケンス図である。It is a sequence diagram which shows the connection process in an image forming system.

図1を参照して、本発明の実施形態に係る情報処理システムとしての画像形成システムについて説明する。図1には、本実施形態に係る画像形成システムの一例が示されている。   With reference to FIG. 1, an image forming system as an information processing system according to an embodiment of the present invention will be described. FIG. 1 shows an example of an image forming system according to the present embodiment.

本実施形態に係る画像形成システムは、複数の機器(例えば機器10,12)と、外部装置の一例としてのサーバ14と、情報処理装置の一例としての端末装置16と、を含む。機器10,12、サーバ14及び端末装置16は、ネットワーク等の通信経路Nを介して互いに通信する機能を備えている。もちろん、機器10,12、サーバ14及び端末装置16は、それぞれ異なる通信経路を介して他の装置と通信を行ってもよい。図1に示す例では、2つの機器(機器10,12)が画像形成システムに含まれているが、3つ以上の機器が画像形成システムに含まれていてもよい。また、複数のサーバ14や複数の端末装置16が、画像形成システムに含まれていてもよい。   The image forming system according to the present embodiment includes a plurality of devices (for example, devices 10 and 12), a server 14 as an example of an external device, and a terminal device 16 as an example of an information processing device. The devices 10 and 12, the server 14, and the terminal device 16 have a function of communicating with each other via a communication path N such as a network. Of course, the devices 10, 12, the server 14, and the terminal device 16 may communicate with other devices via different communication paths. In the example shown in FIG. 1, two devices (devices 10 and 12) are included in the image forming system, but three or more devices may be included in the image forming system. A plurality of servers 14 and a plurality of terminal devices 16 may be included in the image forming system.

機器10,12は、特定の機能を有する装置であり、例えば、画像形成機能を備えた画像形成装置、パーソナルコンピュータ(PC)、プロジェクタ、液晶ディスプレイやプロジェクタ等の表示装置、電話機、時計、監視カメラ、等の装置である。また、機器10,12は、他の装置との間でデータを送受信する機能を有する。本実施形態では、機器10は、一例として画像形成装置であるとする。画像形成装置(機器10)は、例えば、スキャン機能、プリント機能、コピー機能及びファクシミリ機能の中の少なくとも1つの機能を有する装置である。   The devices 10 and 12 are devices having specific functions. For example, an image forming device having an image forming function, a personal computer (PC), a projector, a display device such as a liquid crystal display or a projector, a telephone, a clock, and a surveillance camera. , Etc. The devices 10 and 12 have a function of transmitting and receiving data to and from other devices. In the present embodiment, the device 10 is an image forming apparatus as an example. The image forming apparatus (device 10) is an apparatus having at least one of a scan function, a print function, a copy function, and a facsimile function, for example.

サーバ14は、各機器が有する機能を管理する装置である。例えば、サーバ14は、各機器が有する機能と、複数の装置が有する機能を利用する連携機能を管理する。また、サーバ14は、他の装置との間でデータを送受信する機能を有する。   The server 14 is a device that manages the functions of each device. For example, the server 14 manages a function that each device has and a cooperation function that uses a function that a plurality of apparatuses have. The server 14 has a function of transmitting and receiving data to and from other devices.

サーバ14は、ユーザ毎に、ユーザによって利用可能な機能を管理してもよい。ユーザによって利用可能な機能は、例えば、ユーザに無償で提供された機能、ユーザに有償で提供されてユーザによって購入された機能、等である。サーバ14は、ユーザ毎に、ユーザが利用可能な機能を示す利用可能機能情報(例えば機能購入履歴情報)を管理してもよい。もちろん、無料で利用できる機能、追加アップデート機能、管理者によって特別に管理されている機能等もあるため、サーバ14は、一概に購入の有無によって機能を管理しなくてもよい。機能の購入処理は、例えば、サーバ14によって行われる。もちろん、別の装置によって購入処理が行われてもよい。   For each user, the server 14 may manage functions that can be used by the user. The functions that can be used by the user are, for example, functions that are provided to the user free of charge, functions that are provided to the user for a fee and purchased by the user, and the like. The server 14 may manage usable function information (for example, function purchase history information) indicating functions available to the user for each user. Of course, since there are functions that can be used free of charge, additional update functions, and functions that are specially managed by the administrator, the server 14 does not need to manage the functions depending on whether or not there is a purchase. The function purchase process is performed by the server 14, for example. Of course, the purchase process may be performed by another apparatus.

端末装置16は、パーソナルコンピュータ(PC)、タブレットPC、スマートフォン、携帯電話、等の装置であり、他の装置との間でデータを送受信する機能を有する。端末装置16は、例えば、機器の利用時に、ユーザインターフェース部(UI部)として機能する。   The terminal device 16 is a device such as a personal computer (PC), a tablet PC, a smartphone, or a mobile phone, and has a function of transmitting / receiving data to / from other devices. For example, the terminal device 16 functions as a user interface unit (UI unit) when the device is used.

本実施形態に係る画像形成システムにおいては、例えば、1つの機器が識別された場合、当該機器が有する機能の表示が制御され、複数の機器が識別された場合、当該複数の機器が有する機能を利用する連携機能の表示が制御される。例えば、1つの機器が撮影された場合、当該機器が有する機能の表示が制御され、複数の機器が撮影された場合、当該複数の機器が有する機能を利用する連携機能の表示が制御される。   In the image forming system according to the present embodiment, for example, when one device is identified, display of the function of the device is controlled, and when a plurality of devices are identified, the functions of the plurality of devices are included. The display of the linkage function to be used is controlled. For example, when one device is photographed, display of a function of the device is controlled, and when a plurality of devices are photographed, display of a cooperation function that uses a function of the plurality of devices is controlled.

以下、本実施形態に係る画像形成システムに含まれる各装置について詳しく説明する。   Hereinafter, each device included in the image forming system according to the present embodiment will be described in detail.

図2を参照して、画像形成装置としての機器10の構成について詳しく説明する。以下では、機器10を画像形成装置10と称することとする。図2には、画像形成装置10の構成が示されている。   With reference to FIG. 2, the configuration of the device 10 as the image forming apparatus will be described in detail. Hereinafter, the device 10 is referred to as an image forming apparatus 10. FIG. 2 shows the configuration of the image forming apparatus 10.

通信部18は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を備えている。通信部18は、無線通信機能を備えた通信インターフェースであってもよいし、有線通信機能を備えた通信インターフェースであってもよい。   The communication unit 18 is a communication interface and has a function of transmitting data to other devices and a function of receiving data from other devices. The communication unit 18 may be a communication interface having a wireless communication function or a communication interface having a wired communication function.

画像形成部20は画像形成機能を有する。具体的には、画像形成部20は、スキャン機能、プリント機能、コピー機能及びファクシミリ機能の中の少なくとも1つの機能を有する。スキャン機能が実行されることにより、原稿が読み取られてスキャンデータ(画像データ)が生成される。プリント機能が実行されることにより、画像が用紙等の記録媒体上に印刷される。コピー機能が実行されることにより、原稿が読み取られて記録媒体上に印刷される。ファクシミリ機能が実行されることにより、画像データがファクシミリ送信又はファクシミリ受信される。また、複数の機能を連携させた連携機能が実行されてもよい。例えば、スキャン機能と送信機能(転送機能)とを組み合わせたスキャン転送機能が実行されてもよい。このスキャン転送機能が実行されることにより、原稿が読み取られてスキャンデータ(画像データ)が生成され、そのスキャンデータが送信先(例えば端末装置16等の外部装置)に送信される。もちろん、この連携機能は一例に過ぎず、別の連携機能が実行されてもよい。   The image forming unit 20 has an image forming function. Specifically, the image forming unit 20 has at least one of a scan function, a print function, a copy function, and a facsimile function. By executing the scan function, the document is read and scan data (image data) is generated. By executing the print function, an image is printed on a recording medium such as paper. By executing the copy function, the document is read and printed on the recording medium. By executing the facsimile function, the image data is transmitted or received by facsimile. In addition, a cooperation function that links a plurality of functions may be executed. For example, a scan transfer function that combines a scan function and a transmission function (transfer function) may be executed. By executing the scan transfer function, the original is read to generate scan data (image data), and the scan data is transmitted to a transmission destination (for example, an external device such as the terminal device 16). Of course, this cooperation function is only an example, and another cooperation function may be executed.

記憶部22はハードディスクやメモリ(例えばSSD等)等の記憶装置である。記憶部22には、例えば、画像形成の命令を示す情報(例えばジョブ情報等)、プリントの対象となる画像データ、スキャン機能を実行することにより生成されたスキャンデータ、他の機器のアドレスを示す機器アドレス情報、サーバ14のアドレスを示すサーバアドレス情報、各種の制御データ、各種のプログラム、等が記憶される。もちろん、それらは別々の記憶装置に記憶されてもよいし、1つの記憶装置に記憶されてもよい。   The storage unit 22 is a storage device such as a hard disk or a memory (for example, SSD). The storage unit 22 indicates, for example, information indicating an image formation command (for example, job information), image data to be printed, scan data generated by executing a scan function, and addresses of other devices. Device address information, server address information indicating the address of the server 14, various control data, various programs, and the like are stored. Of course, they may be stored in separate storage devices or may be stored in one storage device.

UI部24はユーザインターフェース部であり、表示部と操作部を含む。表示部は、例えば液晶ディスプレイ等の表示装置である。操作部は、例えばタッチパネルやキーボード等の入力装置である。もちろん、表示部と操作部を兼ねたユーザインターフェース(例えば、タッチ式のディスプレイや、ディスプレイ上に電子的にキーボード等を表示する装置等を含む)であってもよい。なお、画像形成装置10はUI部24を備えていなくてもよいし、表示部を備えずに、ハードウェアとしてのハードウェアユーザインターフェース部(ハードウェアUI部)を備えていてもよい。ハードウェアUI部は、例えば、数字入力に特化したハードウェアキー(例えばテンキー)、方向の指示に特化したハードウェアキー(例えば方向指示キー)、等である。   The UI unit 24 is a user interface unit and includes a display unit and an operation unit. The display unit is a display device such as a liquid crystal display. The operation unit is an input device such as a touch panel or a keyboard. Of course, it may be a user interface that serves both as a display unit and an operation unit (for example, including a touch-type display or a device that electronically displays a keyboard or the like on the display). The image forming apparatus 10 may not include the UI unit 24, or may include a hardware user interface unit (hardware UI unit) as hardware without including a display unit. The hardware UI unit is, for example, a hardware key (for example, a numeric keypad) specialized for numerical input, a hardware key (for example, a direction indication key) specialized for direction indication, and the like.

制御部26は、画像形成装置10の各部の動作を制御する。   The control unit 26 controls the operation of each unit of the image forming apparatus 10.

以下、図3を参照して、サーバ14の構成について詳しく説明する。図3には、サーバ14の構成が示されている。   Hereinafter, the configuration of the server 14 will be described in detail with reference to FIG. FIG. 3 shows the configuration of the server 14.

通信部28は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を有する。通信部28は、無線通信機能を備えた通信インターフェースであってもよいし、有線通信機能を備えた通信インターフェースであってもよい。   The communication unit 28 is a communication interface and has a function of transmitting data to another device and a function of receiving data from another device. The communication unit 28 may be a communication interface having a wireless communication function or a communication interface having a wired communication function.

記憶部30はハードディスクやメモリ(例えばSSD等)等の記憶装置である。記憶部30には、例えば、機器機能情報32、連携機能情報34、各種のデータ、各種のプログラム、各機器のアドレスを示す機器アドレス情報、サーバ14のアドレスを示すサーバアドレス情報、等が記憶されている。もちろん、それらは別々の記憶装置に記憶されてもよいし、1つの記憶装置に記憶されてもよい。記憶部30に記憶されている機器機能情報32や連携機能情報34が、定期的に又は指定されたタイミングで端末装置16に提供され、これにより、端末装置16に記憶されている情報が更新されてもよい。以下、機器機能情報32と連携機能情報34について説明する。   The storage unit 30 is a storage device such as a hard disk or a memory (for example, SSD). The storage unit 30 stores, for example, device function information 32, linkage function information 34, various data, various programs, device address information indicating the address of each device, server address information indicating the address of the server 14, and the like. ing. Of course, they may be stored in separate storage devices or may be stored in one storage device. The device function information 32 and the cooperation function information 34 stored in the storage unit 30 are provided to the terminal device 16 regularly or at a designated timing, whereby the information stored in the terminal device 16 is updated. May be. Hereinafter, the device function information 32 and the link function information 34 will be described.

機器機能情報32は、画像形成システムに含まれる各機器(例えば画像形成装置10や機器12)が有する機能を示す情報であり、例えば、機器を識別するための機器識別情報と、当該機器が有する機能を識別するための機能識別情報と、の対応付けを示す情報である。機器識別情報は、例えば、機器ID、機器名称、機器の種類を示す情報、型番号、位置情報、機器の外観を表わす外観画像、等である。機能識別情報は、例えば、機能IDや機能名称等である。例えば、画像形成装置10がスキャン機能、プリント機能、コピー機能及びスキャン転送機能を有する場合、当該画像形成装置10の機器識別情報には、スキャン機能を示す機能識別情報、プリント機能を示す機能識別情報、コピー機能を示す機能識別情報、及び、スキャン転送機能を示す機能識別情報が対応付けられている。機器機能情報32を参照することにより、各機器が有する機能が特定(識別)される。   The device function information 32 is information indicating a function of each device (for example, the image forming apparatus 10 or the device 12) included in the image forming system. For example, device identification information for identifying the device and the device have the device function information 32. It is information which shows matching with the function identification information for identifying a function. The device identification information is, for example, a device ID, a device name, information indicating the type of device, a model number, position information, an appearance image representing the appearance of the device, and the like. The function identification information is, for example, a function ID or a function name. For example, when the image forming apparatus 10 has a scan function, a print function, a copy function, and a scan transfer function, the device identification information of the image forming apparatus 10 includes function identification information indicating the scan function and function identification information indicating the print function. The function identification information indicating the copy function and the function identification information indicating the scan transfer function are associated with each other. By referring to the device function information 32, the function of each device is specified (identified).

連携機能情報34は、複数の機能を連携させることによって実行される連携機能を示す情報である。複数の機能を連携させることによって、1又は複数の連携機能が実行される。連携機能は、1つの機器(例えば画像形成装置10又は機器12)が有する複数の機能を連携させることによって実行されてもよいし、複数の機器(例えば画像形成装置10と機器12)が有する複数の機能を連携させることによって実行されてもよい。また、操作指示を出している端末装置(本実施形態では端末装置16)も識別対象の機器に含め、端末装置が有する機能を連携機能の一部として利用するようにしてもよい。   The cooperation function information 34 is information indicating a cooperation function executed by linking a plurality of functions. By coordinating a plurality of functions, one or a plurality of cooperation functions are executed. The cooperation function may be executed by linking a plurality of functions of one device (for example, the image forming apparatus 10 or the device 12), or a plurality of devices (for example, the image forming apparatus 10 and the device 12). This function may be executed by linking these functions. In addition, a terminal device that issues an operation instruction (in the present embodiment, the terminal device 16) may be included in the device to be identified, and the functions of the terminal device may be used as part of the linkage function.

連携機能情報34は、例えば、連携機能に利用される各機能を識別するための機能識別情報の組み合わせと、当該連携機能を識別するための連携機能識別情報と、の対応付けを示す情報である。連携機能識別情報は、例えば、連携機能IDや連携機能名称等である。   The cooperation function information 34 is information indicating a correspondence between a combination of function identification information for identifying each function used for the cooperation function and cooperation function identification information for identifying the cooperation function, for example. . The cooperation function identification information is, for example, a cooperation function ID or a cooperation function name.

複数の機器を連携させる場合、連携機能情報34は、複数の機器が有する複数の機能を利用する連携機能を示す情報であり、連携機能に利用される各機器を識別するための機器識別情報の組み合わせと、連携機能識別情報と、の対応付けを示す情報である。   When a plurality of devices are to be linked, the linkage function information 34 is information indicating a linkage function that uses a plurality of functions of the plurality of devices, and device identification information for identifying each device used for the linkage function. This is information indicating the association between the combination and the cooperative function identification information.

連携機能は、互いに異なる複数の機能を連携させることによって実行される機能であってもよいし、同一の機能を連携させることによって実行される機能であってもよい。連携機能は、連携前には利用できなかった機能であってもよい。連携前には利用できなかった機能は、連携対象の機器が有する機能のうち、同じ機能を利用することによって利用できる機能であってもよいし、互いに異なる機能を組み合わせることによって利用できる機能であってもよい。例えば、プリント機能を有する機器(プリンタ)とスキャン機能を有する機器(スキャナ)を連携させることにより、連携機能としてのコピー機能が実現される。すなわち、プリント機能とスキャン機能を連携させることにより、コピー機能が実現される。この場合、連携機能としてのコピー機能と、プリント機能及びスキャン機能の組み合わせと、が対応付けられている。連携機能情報34においては、例えば、連携機能としてのコピー機能を識別するための連携機能識別情報と、プリント機能を有する機器を識別するための機器識別情報及びスキャン機能を有する機器を識別するための機器識別情報の組み合わせと、が対応付けられる。   The cooperation function may be a function executed by linking a plurality of different functions to each other, or may be a function executed by linking the same function. The cooperation function may be a function that could not be used before the cooperation. The functions that could not be used before cooperation may be functions that can be used by using the same functions among the functions of the devices to be linked, or functions that can be used by combining different functions. May be. For example, by coordinating a device having a print function (printer) and a device having a scan function (scanner), a copy function as a cooperation function is realized. That is, the copy function is realized by linking the print function and the scan function. In this case, a copy function as a linkage function is associated with a combination of a print function and a scan function. In the cooperation function information 34, for example, cooperation function identification information for identifying a copy function as a cooperation function, apparatus identification information for identifying a device having a print function, and a device having a scan function are identified. A combination of device identification information is associated with the combination.

なお、記憶部30には、利用可能機能情報が記憶されていてもよい。利用可能機能情報は、各ユーザが利用可能な機能を示す情報であり、例えば、ユーザを識別するためのユーザ識別情報と、当該ユーザが利用可能な機能を示す機能識別情報(連携機能識別情報を含む)と、の対応付けを示す情報である。ユーザが利用可能な機能は、上述したように、例えば、ユーザに無償で提供された機能や、ユーザが購入した機能、等であり、単体の機器が有する機能であってもよいし、連携機能であってもよい。ユーザ識別情報は、例えば、ユーザIDや氏名等のユーザアカウント情報である。利用可能機能情報を参照することにより、各ユーザが利用可能な機能が特定される。利用可能機能情報は、例えば、ユーザに機能が提供される度に(例えば、ユーザに無償又は有償で機能が提供される度に)更新される。   The storage unit 30 may store usable function information. The usable function information is information indicating a function that can be used by each user. For example, user identification information for identifying a user, and function identification information indicating a function that can be used by the user (cooperation function identification information). Information). As described above, the functions that can be used by the user are, for example, functions provided free of charge to the user, functions purchased by the user, and the like. It may be. The user identification information is user account information such as a user ID and a name, for example. By referring to the usable function information, a function that can be used by each user is specified. The available function information is updated, for example, every time a function is provided to the user (for example, every time a function is provided to the user free of charge or for a fee).

制御部36は、サーバ14の各部の動作を制御する。また、制御部36は、特定部38を含む。   The control unit 36 controls the operation of each unit of the server 14. The control unit 36 includes a specifying unit 38.

特定部38は、機器を識別するための機器識別情報を受け、記憶部30に記憶されている機器機能情報32において当該機器識別情報に対応付けられている機能の機能識別情報を特定する。これにより、機器が有する機能が特定(識別)される。例えば、端末装置16からサーバ14に機器識別情報が送信され、特定部38によって、当該機器識別情報に対応付けられている機能の機能識別情報が特定される。機能に関する情報(例えば、機能識別情報や機能の説明情報等)は、例えばサーバ14から端末装置16に送信されて端末装置16に表示される。これにより、機器識別情報によって特定される機器が有する機能に関する情報が、端末装置16に表示される。   The specifying unit 38 receives device identification information for identifying a device, and specifies function identification information of a function associated with the device identification information in the device function information 32 stored in the storage unit 30. As a result, the function of the device is specified (identified). For example, the device identification information is transmitted from the terminal device 16 to the server 14, and the function identification information of the function associated with the device identification information is specified by the specifying unit 38. Information related to the function (for example, function identification information and function description information) is transmitted from the server 14 to the terminal device 16 and displayed on the terminal device 16, for example. Thereby, information related to the function of the device specified by the device identification information is displayed on the terminal device 16.

また、特定部38は、連携対象の各機器を識別するための機器識別情報を受け、記憶部30に記憶されている連携機能情報34において各機器識別情報の組み合わせに対応付けられている連携機能の連携機能識別情報を特定する。これにより、連携対象の各機器が有する機能を連携させることによって実行される連携機能が特定(識別)される。例えば、端末装置16からサーバ14に複数の機器識別情報が送信され、特定部38によって、当該複数の機器識別情報に対応付けられている連携機能の連携機能識別情報が特定される。連携機能に関する情報(例えば、連携機能識別情報や連携機能の説明情報等)は、例えばサーバ14から端末装置16に送信されて端末装置16に表示される。これにより、複数の機器識別情報によって特定される複数の機器によって実行される連携機能に関する情報が、端末装置16に表示される。   The specifying unit 38 receives device identification information for identifying each device to be linked, and the linkage function associated with the combination of each piece of device identification information in the linkage function information 34 stored in the storage unit 30. Identify the linked function identification information. Thereby, the cooperation function performed by cooperating the function which each apparatus of cooperation object has is identified (identified). For example, a plurality of pieces of device identification information are transmitted from the terminal device 16 to the server 14, and the specifying unit 38 specifies the link function identification information of the link function associated with the plurality of device identification information. Information relating to the cooperation function (for example, cooperation function identification information and explanation information of the cooperation function) is transmitted from the server 14 to the terminal device 16 and displayed on the terminal device 16, for example. Thereby, information related to the cooperation function executed by the plurality of devices specified by the plurality of device identification information is displayed on the terminal device 16.

例えば、1つの機器が識別された場合(例えば1つの機器が撮影された場合)、特定部38は、当該機器を識別するための機器識別情報を受け、機器機能情報32において当該機器識別情報に対応付けられている機能の機能識別情報を特定する。これにより、1つの機器が識別された場合(例えば1つの機器が撮影された場合)、当該機器が有する機能が特定(識別)される。複数の機器が識別された場合(例えば複数の機器が撮影された場合)、特定部38は、当該複数の機器に含まれる各機器を識別するための機器識別情報を受け、連携機能情報34において各機器識別情報の組み合わせに対応付けられている連携機能の連携機能識別情報を特定する。これにより、複数の機器が識別された場合(例えば複数の機器が撮影された場合)、当該複数の機器が有する機能を利用する連携機能が特定(識別)される。このように、特定部38は、識別された機器の数に応じて(例えば撮影された機器の数に応じて)、機能の特定処理を切り替える。端末装置16においては、識別(例えば撮影)された機器の数に応じて、単体の機器が有する機能に関する情報、又は、複数の機器が有する機能を利用する連携機能に関する情報、が表示される。もちろん、複数の機器が撮影された場合であっても、特定部38は、当該複数の機器に含まれる各機器の機器識別情報を受け、機器機能情報32を参照することにより、各機器が有する機能を特定(識別)してもよい。   For example, when one device is identified (for example, when one device is photographed), the specifying unit 38 receives device identification information for identifying the device, and includes the device identification information in the device function information 32. The function identification information of the associated function is specified. Thereby, when one device is identified (for example, when one device is photographed), the function of the device is specified (identified). When a plurality of devices are identified (for example, when a plurality of devices are photographed), the specifying unit 38 receives device identification information for identifying each device included in the plurality of devices, and in the cooperation function information 34 The linkage function identification information of the linkage function associated with each combination of device identification information is specified. Thereby, when a plurality of devices are identified (for example, when a plurality of devices are photographed), a cooperation function that uses a function of the plurality of devices is specified (identified). As described above, the specifying unit 38 switches the function specifying process according to the number of identified devices (for example, according to the number of devices photographed). In the terminal device 16, information related to a function of a single device or information related to a cooperation function using a function of a plurality of devices is displayed according to the number of devices identified (for example, photographed). Of course, even when a plurality of devices are photographed, the specifying unit 38 receives the device identification information of each device included in the plurality of devices and refers to the device function information 32 to thereby have each device. The function may be specified (identified).

なお、ユーザが利用可能な機能が管理されている場合、特定部38は、ユーザを識別するためのユーザ識別情報を受け、記憶部30に記憶されている利用可能機能情報において当該ユーザ識別情報に対応付けられている各機能の機能識別情報を特定してもよい。これにより、当該ユーザが利用可能な機能群が特定(識別)される。例えば、端末装置16からサーバ14にユーザ識別情報が送信され、特定部38によって、当該ユーザ識別情報に対応付けられている各機能の機能識別情報が特定される。ユーザが利用可能な各機能に関する情報(例えば各機能の名称を示す情報)は、例えばサーバ14から端末装置16に送信されて端末装置16に表示される。これにより、ユーザ識別情報によって特定されるユーザが利用可能な各機能に関する情報が、端末装置16に表示される。例えば、特定部38は、機器識別情報とユーザ識別情報を受け、機器機能情報32において当該機器識別情報に対応付けられている機能の機能識別情報を特定し、また、利用可能機能情報において当該ユーザ識別情報に対応付けられている機能の機能識別情報を特定する。これにより、当該機器識別情報によって特定される機器が有する機能であって、当該ユーザ識別情報によって特定されるユーザが利用可能な機能が特定される。   When the functions that can be used by the user are managed, the specifying unit 38 receives user identification information for identifying the user, and the user identification information is stored in the usable function information stored in the storage unit 30. You may identify the function identification information of each function matched. Thereby, the function group which can be used by the user is specified (identified). For example, user identification information is transmitted from the terminal device 16 to the server 14, and the function identification information of each function associated with the user identification information is specified by the specifying unit 38. Information regarding each function available to the user (for example, information indicating the name of each function) is transmitted from the server 14 to the terminal device 16 and displayed on the terminal device 16, for example. As a result, information related to each function available to the user specified by the user identification information is displayed on the terminal device 16. For example, the specifying unit 38 receives the device identification information and the user identification information, specifies the function identification information of the function associated with the device identification information in the device function information 32, and also includes the user in the available function information. The function identification information of the function associated with the identification information is specified. As a result, a function that is included in the device specified by the device identification information and that can be used by the user specified by the user identification information is specified.

制御部36は、機能の購入処理を実行し、その購入の履歴を管理してもよい。例えば、有料の機能がユーザによって購入された場合、制御部36は、当該ユーザに対して課金処理を適用してもよい。   The control unit 36 may execute a function purchase process and manage the purchase history. For example, when a paid function is purchased by a user, the control unit 36 may apply a charging process to the user.

また、制御部36は、例えば、文字認識機能、翻訳機能、画像加工機能、画像形成機能、等の画像処理に関する機能を実行してもよい。もちろん、制御部36は、画像処理以外の処理に関する機能を実行してもよい。文字認識機能が実行されることにより、画像内の文字が認識されて当該文字を示す文字データが生成される。翻訳機能が実行されることにより、画像内の文字が特定の言語で表される文字に翻訳され、翻訳された文字を示す文字データが生成される。画像加工機能が実行されることにより、画像が加工される。制御部36は、例えば、スキャン機能を実行することにより生成されたスキャンデータを画像形成装置10から受信し、当該スキャンデータを対象として、文字認識機能、翻訳機能、画像加工機能、等の画像処理に関する機能を実行する。制御部36は、画像データを端末装置16から受信し、当該画像データを対象として各機能を実行してもよい。制御部36によって生成された文字データや画像データは、例えば、サーバ14から端末装置16に送信される。サーバ14は外部機器として利用され、連携機能は、サーバ14を含む複数の機器が有する機能を利用する機能であってもよい。   Further, the control unit 36 may execute functions related to image processing such as a character recognition function, a translation function, an image processing function, and an image forming function. Of course, the control unit 36 may execute a function related to processing other than image processing. By executing the character recognition function, a character in the image is recognized and character data indicating the character is generated. By executing the translation function, the characters in the image are translated into characters expressed in a specific language, and character data indicating the translated characters is generated. The image is processed by executing the image processing function. The control unit 36 receives, for example, scan data generated by executing a scan function from the image forming apparatus 10, and performs image processing such as a character recognition function, a translation function, an image processing function, and the like for the scan data. Execute functions related to. The control unit 36 may receive image data from the terminal device 16 and execute each function for the image data. The character data and image data generated by the control unit 36 are transmitted from the server 14 to the terminal device 16, for example. The server 14 may be used as an external device, and the cooperation function may be a function that uses functions of a plurality of devices including the server 14.

以下、図4を参照して、端末装置16の構成について詳しく説明する。図4には、端末装置16の構成が示されている。   Hereinafter, the configuration of the terminal device 16 will be described in detail with reference to FIG. FIG. 4 shows the configuration of the terminal device 16.

通信部40は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を有する。通信部40は、無線通信機能を備えた通信インターフェースであってもよいし、有線通信機能を備えた通信インターフェースであってもよい。   The communication unit 40 is a communication interface, and has a function of transmitting data to other devices and a function of receiving data from other devices. The communication unit 40 may be a communication interface having a wireless communication function or a communication interface having a wired communication function.

撮影手段としてのカメラ42は、撮影対象を撮影することにより画像データ(例えば静止画像データや動画像データ)を生成する。また、端末装置16のカメラを利用するだけではなく、ネットワーク等の通信経路に繋がった外部のカメラで撮影された画像データを通信部40で受け取り、UI部46で画像データを表示し、ユーザが画像データを操作できるようにしてもよい。   The camera 42 as an imaging unit generates image data (for example, still image data or moving image data) by imaging an imaging target. In addition to using the camera of the terminal device 16, the communication unit 40 receives image data captured by an external camera connected to a communication path such as a network, and the UI unit 46 displays the image data. The image data may be manipulated.

記憶部44はハードディスクやメモリ(例えばSSD等)等の記憶装置であり、各種のプログラム、各種のデータ、サーバ14のアドレス情報、各機器のアドレス情報(例えば画像形成装置10や機器12のアドレス情報)、識別された機器に関する情報、識別された連携対象の機器に関する情報、識別された機器が有する機能に関する情報、連携機能に関する情報、等を記憶する。   The storage unit 44 is a storage device such as a hard disk or a memory (for example, SSD), and various programs, various data, address information of the server 14, address information of each device (for example, address information of the image forming device 10 and the device 12). ), Information regarding the identified device, information regarding the identified device to be linked, information regarding the function of the identified device, information regarding the linkage function, and the like.

UI部46はユーザインターフェース部であり、表示部と操作部を含む。表示部は、例えば液晶ディスプレイ等の表示装置である。操作部は、例えば、タッチパネル、キーボード、マウス、等の入力装置である。もちろん、表示部と操作部を兼ねたユーザインターフェース(例えばタッチ式のディスプレイや、ディスプレイ上に電子的にキーボード等を表示するものを含む)であってもよい。   The UI unit 46 is a user interface unit and includes a display unit and an operation unit. The display unit is a display device such as a liquid crystal display. The operation unit is, for example, an input device such as a touch panel, a keyboard, and a mouse. Of course, a user interface that serves as both a display unit and an operation unit (for example, a touch-type display or a device that electronically displays a keyboard or the like on the display) may be used.

制御部48は、端末装置16の各部の動作を制御する。制御部48は、例えば表示制御手段(制御手段)として機能し、各種の情報をUI部46の表示部に表示させる。   The control unit 48 controls the operation of each unit of the terminal device 16. The control unit 48 functions as, for example, a display control unit (control unit), and displays various types of information on the display unit of the UI unit 46.

UI部46の表示部には、例えば、カメラ42によって撮影された画像や、利用対象の機器(例えば、単独で利用される機器や連携対象の機器)として識別された機器に紐付いた画像、等が表示される。機器に紐付いた画像は、カメラ42によって撮影された当該機器を表わす画像(静止画像又は動画像)であってもよいし、当該機器を模式的に表す画像(例えばアイコン)であってもよい。模式的に表す画像のデータは、例えば、サーバ14に記憶されてサーバ14から端末装置16に提供されてもよいし、端末装置16に予め記憶されていてもよいし、別の装置に記憶されて当該別の装置から端末装置16に提供されてもよい。   On the display unit of the UI unit 46, for example, an image taken by the camera 42, an image associated with a device identified as a device to be used (for example, a device used alone or a device to be linked), etc. Is displayed. The image associated with the device may be an image (still image or moving image) representing the device taken by the camera 42, or may be an image (for example, an icon) schematically representing the device. The image data schematically represented may be stored in the server 14 and provided from the server 14 to the terminal device 16, or may be stored in advance in the terminal device 16, or stored in another device. The terminal device 16 may be provided from the other device.

上述した機器機能情報32は、端末装置16の記憶部44に記憶されていてもよい。この場合、機器機能情報32は、サーバ14の記憶部30に記憶されていなくてもよい。同様に、上述した連携機能情報34は、端末装置16の記憶部44に記憶されていてもよい。この場合、連携機能情報34は、サーバ14の記憶部30に記憶されていなくてもよい。端末装置16の制御部48は、上述した特定部38を有し、機器識別情報に基づいて機器を識別し、機器が有する機能を特定してもよいし、複数の機能を利用する連携機能を特定してもよい。この場合、サーバ14は特定部38を有していなくてもよい。   The device function information 32 described above may be stored in the storage unit 44 of the terminal device 16. In this case, the device function information 32 may not be stored in the storage unit 30 of the server 14. Similarly, the cooperation function information 34 described above may be stored in the storage unit 44 of the terminal device 16. In this case, the cooperation function information 34 may not be stored in the storage unit 30 of the server 14. The control unit 48 of the terminal device 16 includes the specifying unit 38 described above, identifies the device based on the device identification information, may specify the function of the device, and has a linkage function that uses a plurality of functions. You may specify. In this case, the server 14 may not have the specifying unit 38.

利用可能機能情報が作成されている場合、その利用可能機能情報は、端末装置16の記憶部44に記憶されていてもよい。この場合、利用可能機能情報は、サーバ14の記憶部30に記憶されていなくてもよい。端末装置16の制御部48は、ユーザによる機能の購入の履歴を管理してもよい。この場合、サーバ14の制御部36は、その管理機能を有していなくてもよい。端末装置16の制御部48は、ユーザ識別情報に基づいて、ユーザによって利用可能な機能を特定してもよい。   When the usable function information is created, the usable function information may be stored in the storage unit 44 of the terminal device 16. In this case, the usable function information may not be stored in the storage unit 30 of the server 14. The control unit 48 of the terminal device 16 may manage the purchase history of the function by the user. In this case, the control unit 36 of the server 14 may not have the management function. The control unit 48 of the terminal device 16 may specify a function that can be used by the user based on the user identification information.

更に別の例として、画像形成装置10や機器12等の機器に、機器機能情報32や連携機能情報34が記憶されていてもよいし、画像形成装置10や機器12等の機器が特定部38を有していてもよい。つまり、サーバ14の特定部38による処理は、サーバ14において行われてもよいし、端末装置16において行われてもよいし、画像形成装置10や機器12等の機器において行われてもよい。   As yet another example, device function information 32 and linkage function information 34 may be stored in devices such as the image forming apparatus 10 and the device 12, and devices such as the image forming device 10 and the device 12 may be specified by the specifying unit 38. You may have. That is, the processing by the specifying unit 38 of the server 14 may be performed in the server 14, may be performed in the terminal device 16, or may be performed in devices such as the image forming apparatus 10 and the device 12.

本実施形態では、一例として、AR(Augmented Reality)技術(拡張現実技術)を適用することにより、機器識別情報が取得されて利用対象の機器が識別される。例えば、AR技術を適用することにより、単独で使用される機器の機器識別情報が取得されて当該機器が識別され、また、連携対象の機器の機器識別情報が取得されて連携対象の機器が識別される。AR技術として公知のAR技術が用いられる。例えば、2次元バーコード等のマーカを用いるマーカ型AR技術、画像認識技術を用いるマーカレス型AR技術、位置情報を用いる位置情報AR技術、等が用いられる。もちろん、AR技術を適用せずに機器識別情報が取得されて利用対象の機器が識別されてもよい。例えば、ネットワークに繋がっている機器であれば、IPアドレスに基づいて機器を識別してもよいし、機器IDを読み出して機器を識別してもよい。更に、赤外線通信、可視光通信、Wi−Fi(Wireles Fidelity)(登録商標)、ブルートゥース(Bluetooth(登録商標))といった各種無線通信機能を備えた機器、端末装置であれば、それら無線通信機能を利用して連携する機器の機器IDを取得することで機器を識別し、連携機能を実行してもよい。   In this embodiment, as an example, by applying AR (Augmented Reality) technology (augmented reality technology), device identification information is acquired and a device to be used is identified. For example, by applying AR technology, device identification information of a device used alone is acquired and the device is identified, and device identification information of a device to be linked is acquired to identify a device to be linked. Is done. A known AR technique is used as the AR technique. For example, a marker type AR technique using a marker such as a two-dimensional barcode, a markerless type AR technique using an image recognition technique, a position information AR technique using position information, and the like are used. Of course, the device identification information may be acquired without applying the AR technology to identify the device to be used. For example, if the device is connected to the network, the device may be identified based on the IP address, or the device ID may be read to identify the device. Furthermore, if the device or terminal device has various wireless communication functions such as infrared communication, visible light communication, Wi-Fi (Wireless Fidelity) (registered trademark), Bluetooth (Bluetooth (registered trademark)), these wireless communication functions are provided. The device may be identified by acquiring the device ID of the device to be used and linked to execute the linkage function.

以下、図5を参照して、機器識別情報の取得処理について詳しく説明する。一例として、画像形成装置10の機器識別情報を取得する場合について説明する。図5には、画像形成装置10の外観が模式的に示されている。ここでは、マーカ型AR技術を適用して機器識別情報を取得するための処理について説明する。画像形成装置10の筐体には、2次元バーコード等のマーカ50が設けられている。マーカ50は、画像形成装置10の機器識別情報がコード化された情報である。ユーザは端末装置16のカメラ42を起動させ、利用対象の画像形成装置10に設けられているマーカ50をカメラ42によって撮影する。これにより、マーカ50を表す画像データが生成される。その画像データは、例えば、端末装置16からサーバ14に送信される。サーバ14においては、制御部36が、当該画像データに表されたマーカ画像に対してデコード処理を適用することにより、機器識別情報を抽出する。これにより、利用対象の画像形成装置10(撮影されたマーカ50を有する画像形成装置10)が識別される。サーバ14の特定部38は、機器機能情報32において、抽出された機器識別情報に対応付けられている機能の機能識別情報を特定する。これにより、利用対象の画像形成装置10が有する機能が特定(識別)される。   Hereinafter, the device identification information acquisition process will be described in detail with reference to FIG. As an example, a case where the device identification information of the image forming apparatus 10 is acquired will be described. FIG. 5 schematically shows the appearance of the image forming apparatus 10. Here, a process for acquiring the device identification information by applying the marker AR technology will be described. The casing of the image forming apparatus 10 is provided with a marker 50 such as a two-dimensional barcode. The marker 50 is information in which device identification information of the image forming apparatus 10 is encoded. The user activates the camera 42 of the terminal device 16 and photographs the marker 50 provided in the image forming apparatus 10 to be used by the camera 42. Thereby, image data representing the marker 50 is generated. The image data is transmitted from the terminal device 16 to the server 14, for example. In the server 14, the control part 36 extracts apparatus identification information by applying a decoding process with respect to the marker image represented by the said image data. Thereby, the image forming apparatus 10 to be used (the image forming apparatus 10 having the photographed marker 50) is identified. The specifying unit 38 of the server 14 specifies function identification information of a function associated with the extracted device identification information in the device function information 32. Thereby, the function of the image forming apparatus 10 to be used is specified (identified).

なお、端末装置16の制御部48が、マーカ50を表す画像データにデコード処理を適用することにより、機器識別情報を抽出してもよい。この場合、抽出された機器識別情報は、端末装置16からサーバ14に送信される。サーバ14の特定部38は、機器機能情報32において、端末装置16から送信された機器識別情報に対応付けられている機能の機能識別情報を特定する。端末装置16の記憶部44に機器機能情報32が記憶されている場合、端末装置16の制御部48が、その機器機能情報32において、抽出された機器識別情報に対応付けられている機能の機能識別情報を特定してもよい。   Note that the control unit 48 of the terminal device 16 may extract the device identification information by applying a decoding process to the image data representing the marker 50. In this case, the extracted device identification information is transmitted from the terminal device 16 to the server 14. The specifying unit 38 of the server 14 specifies function identification information of a function associated with the device identification information transmitted from the terminal device 16 in the device function information 32. When the device function information 32 is stored in the storage unit 44 of the terminal device 16, the control unit 48 of the terminal device 16 functions in the function associated with the extracted device identification information in the device function information 32. Identification information may be specified.

マーカ50には、画像形成装置10が有する機能の機能識別情報がコード化されて含まれていてもよい。この場合、マーカ50を表す画像データにデコード処理を適用することにより、当該画像形成装置10の機器識別情報が抽出されるとともに、当該画像形成装置10が有する機能の機能識別情報も抽出される。これにより、画像形成装置10が特定(識別)されるとともに、当該画像形成装置10が有する機能が特定(識別)される。このデコード処理は、サーバ14によって行われてもよいし、端末装置16によって行われてもよい。   The marker 50 may include encoded function identification information of the function of the image forming apparatus 10. In this case, by applying the decoding process to the image data representing the marker 50, the device identification information of the image forming apparatus 10 is extracted, and the function identification information of the function of the image forming apparatus 10 is also extracted. Thereby, the image forming apparatus 10 is specified (identified), and the function of the image forming apparatus 10 is specified (identified). This decoding process may be performed by the server 14 or the terminal device 16.

複数の機器が有する機能を利用する連携機能を実行する場合、連携対象の各機器のマーカを撮影することにより各機器の機器識別情報が取得され、これにより、連携機能が特定(識別)される。   When executing a linkage function that uses a function of a plurality of devices, device identification information of each device is acquired by photographing a marker of each device to be linked, and thereby the linkage function is specified (identified). .

マーカレス型AR技術を適用して機器識別情報を取得する場合、例えば、ユーザは端末装置16のカメラ42によって、利用対象の機器(例えば画像形成装置10)の外観の全部又は一部を撮影する。もちろん、利用対象機器の名称(例えば商品名)や型番号といった機器を特定するための情報を外観から撮影して得ることは役に立つ。撮影により、利用対象の機器の外観の全部又は一部を表す外観画像データが生成される。その外観画像データは、例えば端末装置16からサーバ14に送信される。サーバ14においては、制御部36が、当該外観画像データに基づいて利用対象の機器を識別する。例えば、サーバ14の記憶部30には、機器毎に、機器の外観の全部又は一部を表す外観画像データと、当該機器の機器識別情報と、の対応付けを示す外観画像対応付け情報が記憶されている。制御部36は、例えば、端末装置16から送信された外観画像データと外観画像対応付け情報に含まれる各外観画像データとを比較し、その比較結果に基づいて、利用対象の機器の機器識別情報を特定する。例えば、制御部36は、端末装置16から送信された外観画像データから利用対象の機器の外観の特徴を抽出し、外観画像対応付け情報に含まれる外観画像データ群において、その外観の特徴と同一又は類似の特徴を表す外観画像データを特定し、その外観画像データに対応付けられている機器識別情報を特定する。これにより、利用対象の機器(カメラ42によって撮影された機器)が識別される。別の例として、機器の名称(例えば商品名)や型番号が撮影され、名称や型番号を表す外観画像データが生成されている場合、その外観画像データに表された名称や型番号に基づいて、利用対象の機器を識別してもよい。サーバ14の特定部38は、機器機能情報32において、特定された機器識別情報に対応付けられている各機能の機能識別情報を特定する。これにより、利用対象の機器(例えば画像形成装置10)が有する機能が特定される。   When acquiring the device identification information by applying the markerless AR technology, for example, the user captures all or part of the appearance of the device to be used (for example, the image forming apparatus 10) with the camera 42 of the terminal device 16. Of course, it is useful to obtain information for identifying the device such as the name of the device to be used (for example, product name) and the model number from the appearance. Appearance image data representing all or a part of the appearance of the device to be used is generated by photographing. The appearance image data is transmitted from the terminal device 16 to the server 14, for example. In the server 14, the control unit 36 identifies a device to be used based on the appearance image data. For example, the storage unit 30 of the server 14 stores, for each device, appearance image association information indicating association between appearance image data representing all or part of the appearance of the device and device identification information of the device. Has been. For example, the control unit 36 compares the appearance image data transmitted from the terminal device 16 with each appearance image data included in the appearance image association information, and based on the comparison result, device identification information of the device to be used. Is identified. For example, the control unit 36 extracts the appearance feature of the device to be used from the appearance image data transmitted from the terminal device 16, and is the same as the appearance feature in the appearance image data group included in the appearance image association information. Alternatively, appearance image data representing similar features is specified, and device identification information associated with the appearance image data is specified. Thereby, a device to be used (device photographed by the camera 42) is identified. As another example, when a device name (for example, a product name) or model number is photographed and appearance image data representing the name or model number is generated, it is based on the name or model number represented in the appearance image data. Thus, the device to be used may be identified. The specifying unit 38 of the server 14 specifies function identification information of each function associated with the specified device identification information in the device function information 32. Thereby, the function which the apparatus (for example, image forming apparatus 10) of utilization object has is specified.

なお、端末装置16の制御部48が、利用対象の機器(例えば画像形成装置10)の外観の全部又は一部を表す外観画像データと外観画像対応付け情報に含まれる各外観画像データとを比較し、その比較結果に基づいて、利用対象の機器の機器識別情報を特定してもよい。外観画像対応付け情報は、端末装置16の記憶部44に記憶されていてもよい。この場合、端末装置16の制御部48は、端末装置16の記憶部44に記憶されている外観画像対応付け情報を参照することにより、利用対象の機器の機器識別情報を特定する。または、端末装置16の制御部48は、サーバ14から外観画像対応付け情報を取得し、当該外観画像対応付け情報を参照することにより、利用対象の機器の機器識別情報を特定してもよい。   Note that the control unit 48 of the terminal device 16 compares the appearance image data representing all or part of the appearance of the device to be used (for example, the image forming apparatus 10) with each appearance image data included in the appearance image association information. And based on the comparison result, you may identify the apparatus identification information of the apparatus of utilization object. The appearance image association information may be stored in the storage unit 44 of the terminal device 16. In this case, the control unit 48 of the terminal device 16 specifies the device identification information of the device to be used by referring to the appearance image association information stored in the storage unit 44 of the terminal device 16. Alternatively, the control unit 48 of the terminal device 16 may specify the device identification information of the device to be used by acquiring the appearance image association information from the server 14 and referring to the appearance image association information.

複数の機器が有する機能を利用する連携機能を実行する場合、連携対象の各機器の外観の全部又は一部を撮影することにより各機器の機器識別情報が取得され、これにより、連携機能が特定(識別)される。   When executing a linkage function that uses the functions of multiple devices, the device identification information of each device is acquired by photographing all or part of the appearance of each device to be linked. (Identified).

位置情報AR技術を適用して機器識別情報を取得する場合、例えば、GPS(Global Positioning System)機能を利用することにより、機器(例えば画像形成装置10)が設置されている位置を示す位置情報が取得される。例えば、各機器がGPS機能を備えており、機器自身の位置を示す機器位置情報を取得する。端末装置16は、利用対象の機器に対して機器位置情報の取得要求を示す情報を出力し、その取得要求に対する応答として、当該機器から当該機器の機器位置情報を受信する。その機器位置情報は、例えば、端末装置16からサーバ14に送信される。サーバ14においては、制御部36が、当該機器位置情報に基づいて利用対象の機器を識別する。例えば、サーバ14の記憶部30には、機器毎に、機器が設置されている位置を示す機器位置情報と、当該機器の機器識別情報と、の対応付けを示す位置対応付け情報が記憶されている。制御部36は、その位置対応付け情報において、端末装置16から送信された機器位置情報に対応付けられている機器識別情報を特定する。これにより、利用対象の機器が特定(識別)される。サーバ14の特定部38は、機器機能情報32において、特定された機器識別情報に対応付けられている各機能の機能識別情報を特定する。これにより、利用対象の機器(例えば画像形成装置10)が有する機能が特定(識別)される。   When device identification information is acquired by applying the position information AR technology, for example, by using a GPS (Global Positioning System) function, position information indicating a position where a device (for example, the image forming apparatus 10) is installed is obtained. To be acquired. For example, each device has a GPS function, and device location information indicating the location of the device itself is acquired. The terminal device 16 outputs information indicating an acquisition request for device position information to the device to be used, and receives device position information of the device from the device as a response to the acquisition request. The device position information is transmitted from the terminal device 16 to the server 14, for example. In the server 14, the control unit 36 identifies a device to be used based on the device position information. For example, the storage unit 30 of the server 14 stores, for each device, position association information indicating association between device position information indicating a position where the device is installed and device identification information of the device. Yes. The controller 36 specifies device identification information associated with the device position information transmitted from the terminal device 16 in the position association information. Thereby, the device to be used is specified (identified). The specifying unit 38 of the server 14 specifies function identification information of each function associated with the specified device identification information in the device function information 32. Thereby, the function of the device to be used (for example, the image forming apparatus 10) is specified (identified).

なお、端末装置16の制御部48が、位置対応付け情報において、利用対象の機器の位置情報に対応付けられている機器識別情報を特定してもよい。位置対応付け情報は、端末装置16の記憶部44に記憶されていてもよい。この場合、端末装置16の制御部48は、端末装置16の記憶部44に記憶されている位置対応付け情報を参照することにより、利用対象の機器の機器識別情報を特定する。別の例として、端末装置16の制御部48は、サーバ14から位置対応付け情報を取得し、当該位置対応付け情報を参照することにより、利用対象の機器の機器識別情報を特定してもよい。   Note that the control unit 48 of the terminal device 16 may specify device identification information associated with the position information of the device to be used in the position association information. The position association information may be stored in the storage unit 44 of the terminal device 16. In this case, the control unit 48 of the terminal device 16 specifies the device identification information of the device to be used by referring to the position association information stored in the storage unit 44 of the terminal device 16. As another example, the control unit 48 of the terminal device 16 may acquire the position association information from the server 14 and specify the device identification information of the device to be used by referring to the position association information. .

複数の機器を利用する連携機能を実行する場合、連携対象の各機器の機器位置情報が取得され、各機器位置情報に基づいて各機器の機器識別情報が特定される。これにより、連携機能が特定(識別)される。   When executing a linkage function using a plurality of devices, device position information of each device to be linked is acquired, and device identification information of each device is specified based on each device position information. Thereby, a cooperation function is specified (identified).

以下、本実施形態に係る画像形成システムについて詳しく説明する。   Hereinafter, the image forming system according to the present embodiment will be described in detail.

図6を参照して、機器機能情報32について詳しく説明する。図6には、機器機能情報32としての機器機能管理テーブルの一例が示されている。機器機能管理テーブルにおいては、一例として、機器IDと、機器名(例えば機器の種類)を示す情報と、機器が有する機能を示す情報(機能識別情報)と、画像IDと、が互いに対応付けられている。機器IDと機器名は機器識別情報の一例に相当する。画像IDは、機器を表わす画像(例えば、機器の外観を表わす画像や、機器を模式的に表す画像(例えばアイコン)等)を識別するための画像識別情報の一例である。なお、機器機能管理テーブルには、画像IDは含まれていなくてもよい。例えば、機器IDが「B」の機器は、複合機(複数の画像形成機能を有する画像形成装置)であり、プリント機能やスキャン機能等の機能を有している。その機器には、その機器を表わす画像を識別するための画像IDが対応付けられている。機器を表わす画像のデータは、例えば、サーバ14の記憶部30に記憶されている。   The device function information 32 will be described in detail with reference to FIG. FIG. 6 shows an example of a device function management table as the device function information 32. In the device function management table, for example, a device ID, information indicating a device name (for example, device type), information indicating a function of the device (function identification information), and an image ID are associated with each other. ing. The device ID and the device name correspond to an example of device identification information. The image ID is an example of image identification information for identifying an image representing a device (for example, an image representing an external appearance of the device, an image schematically representing the device (for example, an icon), or the like). The device function management table may not include the image ID. For example, a device whose device ID is “B” is a multifunction peripheral (an image forming apparatus having a plurality of image forming functions), and has functions such as a print function and a scan function. The device is associated with an image ID for identifying an image representing the device. Image data representing the device is stored in, for example, the storage unit 30 of the server 14.

例えば、AR技術を適用することにより、利用対象の機器を識別するための機器IDが取得される。サーバ14の特定部38は、機器機能管理テーブルを参照することにより、その機器IDに対応付けられている機器名、機能及び画像IDを特定する。これにより、利用対象の機器が識別される。例えば、機器名を示す情報、及び、機器を表す画像のデータが、サーバ14から端末装置16に送信され、それらが端末装置16のUI部46に表示される。機器を表す画像は、当該機器に紐付いた画像として表示される。もちろん、カメラ42によって撮影された画像そのものが端末装置16のUI部46に表示されてもよい。また、端末装置16のUI部46において、機器に紐付いた画像(例えば、カメラ42によって撮影された画像や、機器を模式的に表す画像)がユーザによって指定されると、その機器が有する機能に関する情報(例えば、機能識別情報や機能の説明情報等)が、サーバ14から端末装置16に送信されて端末装置16のUI部46に表示されてもよい。   For example, by applying the AR technology, a device ID for identifying a device to be used is acquired. The specifying unit 38 of the server 14 specifies the device name, function, and image ID associated with the device ID by referring to the device function management table. Thereby, the device to be used is identified. For example, information indicating the device name and image data representing the device are transmitted from the server 14 to the terminal device 16 and displayed on the UI unit 46 of the terminal device 16. An image representing a device is displayed as an image associated with the device. Of course, the image itself captured by the camera 42 may be displayed on the UI unit 46 of the terminal device 16. Further, in the UI unit 46 of the terminal device 16, when an image associated with the device (for example, an image photographed by the camera 42 or an image schematically representing the device) is designated by the user, the function of the device is provided. Information (for example, function identification information and function description information) may be transmitted from the server 14 to the terminal device 16 and displayed on the UI unit 46 of the terminal device 16.

以下、図7を参照して、連携機能情報34について詳しく説明する。図7には、連携機能情報34としての連携機能管理テーブルの一例が示されている。連携機能管理テーブルにおいては、一例として、機器IDの組み合わせと、連携対象の機器名(例えば各機器の種類)を示す情報と、連携機能を示す情報(連携機能識別情報)と、が互いに対応付けられている。例えば、機器IDが「A」の機器はPC(パーソナルコンピュータ)であり、機器IDが「B」の機器は複合機である。PC(A)と複合機(B)を連携させることにより、連携機能として、例えば「スキャン転送機能」や「プリント機能」が実現される。「スキャン転送機能」は、複合機(B)によるスキャンによって生成された画像データをPC(A)に転送する機能である。「プリント機能」は、PC(A)に保存されているデータ(例えば画像データや文書データ)を複合機(B)に送信して複合機(B)にて印刷する機能である。   Hereinafter, the cooperation function information 34 will be described in detail with reference to FIG. FIG. 7 shows an example of a cooperation function management table as the cooperation function information 34. In the cooperation function management table, as an example, a combination of device IDs, information indicating a device name to be linked (for example, the type of each device), and information indicating a cooperation function (cooperation function identification information) are associated with each other. It has been. For example, a device with a device ID “A” is a PC (personal computer), and a device with a device ID “B” is a multifunction device. By linking the PC (A) and the multifunction peripheral (B), for example, a “scan transfer function” or a “print function” is realized as a link function. The “scan transfer function” is a function for transferring image data generated by scanning by the multifunction peripheral (B) to the PC (A). The “print function” is a function for transmitting data (for example, image data or document data) stored in the PC (A) to the multifunction device (B) and printing the data on the multifunction device (B).

以下、図8を参照して、機器が単独で利用される場合の処理について説明する。図8には、単独で利用される機器の一例が示されている。一例として、画像形成装置10が、単独で利用される機器であるとする。画像形成装置10は例えば複合機である。画像形成装置10は、現実空間に存在する機器である。図8に示されている端末装置16は、現実空間に存在する機器であり、例えばスマートフォンや携帯電話等の携帯端末装置である。   Hereinafter, with reference to FIG. 8, processing when the device is used alone will be described. FIG. 8 shows an example of a device used alone. As an example, it is assumed that the image forming apparatus 10 is a device used alone. The image forming apparatus 10 is, for example, a multifunction machine. The image forming apparatus 10 is a device that exists in a real space. The terminal device 16 illustrated in FIG. 8 is a device that exists in the real space, and is a mobile terminal device such as a smartphone or a mobile phone.

例えば、画像形成装置10の筐体に2次元バーコード等のマーカ50が設けられている。マーカ型AR技術又はマーカレス型AR技術が用いられる場合、ユーザは端末装置16(例えばスマートフォン)のカメラ42によって、利用対象の画像形成装置10を撮影する。これにより、マーカ50を表わす画像データ又は画像形成装置10の外観を表わす外観画像データが生成される。端末装置16のUI部46の表示部には機器表示画面52が表示され、その機器表示画面52に、画像形成装置10に紐付いた機器画像54が表示される。機器画像54は、例えば、カメラ42による撮影によって生成された画像(撮影時のサイズを有する画像であってもよいし、拡大又は縮小された画像であってもよい)である。   For example, a marker 50 such as a two-dimensional barcode is provided on the housing of the image forming apparatus 10. When the marker type AR technology or the markerless type AR technology is used, the user photographs the image forming apparatus 10 to be used by the camera 42 of the terminal device 16 (for example, a smartphone). As a result, image data representing the marker 50 or appearance image data representing the appearance of the image forming apparatus 10 is generated. A device display screen 52 is displayed on the display unit of the UI unit 46 of the terminal device 16, and a device image 54 associated with the image forming apparatus 10 is displayed on the device display screen 52. The device image 54 is, for example, an image generated by photographing with the camera 42 (an image having a size at the time of photographing may be used, or an enlarged or reduced image may be used).

カメラ42による撮影によって生成された画像データは、端末装置16からサーバ14に送信される。サーバ14においては、制御部36が画像データにデコード処理を適用することにより、画像形成装置10の機器識別情報を抽出し、これにより、画像形成装置10を識別する。別の例として、画像形成装置10の外観を表わす外観画像データが生成され、端末装置16からサーバ14に外観画像データが送信されてもよい。この場合、サーバ14においては、制御部36が、外観画像対応付け情報を参照することにより、画像形成装置10の機器識別情報を特定する。これにより、画像形成装置10が識別される。   Image data generated by photographing by the camera 42 is transmitted from the terminal device 16 to the server 14. In the server 14, the control unit 36 applies the decoding process to the image data to extract the device identification information of the image forming apparatus 10, thereby identifying the image forming apparatus 10. As another example, appearance image data representing the appearance of the image forming apparatus 10 may be generated, and the appearance image data may be transmitted from the terminal device 16 to the server 14. In this case, in the server 14, the control unit 36 specifies the device identification information of the image forming apparatus 10 by referring to the appearance image association information. Thereby, the image forming apparatus 10 is identified.

また、サーバ14の特定部38は、機器機能情報32(例えば図6に示されている機器機能管理テーブル)を参照することにより、画像形成装置10が有する機能を特定(識別)する。この点について図6を参照して詳しく説明する。画像形成装置10は、一例として「複合機(B)」であるとする。特定部38は、図6に示されている機器機能管理テーブルにおいて、複合機(B)に対応付けられている機能を特定する。これにより、複合機(B)が有する機能が特定される。特定された機能に関する情報は、サーバ14から端末装置16に送信される。もちろん、機器や機能を識別するための処理は、端末装置16によって行われてもよい。   Further, the specifying unit 38 of the server 14 specifies (identifies) the function of the image forming apparatus 10 by referring to the device function information 32 (for example, the device function management table shown in FIG. 6). This point will be described in detail with reference to FIG. The image forming apparatus 10 is assumed to be a “multifunction machine (B)” as an example. The specifying unit 38 specifies the function associated with the multifunction peripheral (B) in the device function management table shown in FIG. Thereby, the function which a multifunctional machine (B) has is specified. Information regarding the identified function is transmitted from the server 14 to the terminal device 16. Of course, the process for identifying a device or a function may be performed by the terminal device 16.

なお、機器表示画面52には、カメラ42による撮影によって生成された画像の替わりに、識別された画像形成装置10に紐付く予め用意された画像(撮影で得られた画像そのものではなく模式的な画像(例えばアイコン))や、外部のカメラによる撮影によって生成された画像が、機器画像54として表示されてもよい。   It should be noted that the device display screen 52 is a schematic image (not an image itself obtained by photographing) prepared in advance associated with the identified image forming apparatus 10 instead of an image generated by photographing by the camera 42. An image (for example, an icon) or an image generated by photographing with an external camera may be displayed as the device image 54.

例えば、機器を撮影することで得られた画像データを利用する場合、現在の機器そのものの外観(例えば、キズ、メモ書き、機器に貼り付けられたシール等が反映された外観)が画像に反映されるので、ユーザにとって他の同種の機器との違いが視覚的により分かる効果がある。   For example, when using image data obtained by shooting a device, the appearance of the current device itself (for example, an appearance that reflects scratches, notes, stickers attached to the device, etc.) is reflected in the image. As a result, the user can visually understand the difference from other similar devices.

模式的な画像を利用する場合、模式的な画像のデータは、例えばサーバ14から端末装置16に送信される。例えば画像形成装置10が識別されると、サーバ14の特定部38は、図6に示されている機器機能管理テーブル(機器機能情報32)を参照することにより、画像形成装置10に紐付く模式的な画像を特定する。その模式的な画像のデータはサーバ14から端末装置16に送信され、その模式的な画像は機器画像54として機器表示画面52に表示される。模式的な画像のデータは端末装置16に予め記憶されていてもよい。この場合、画像形成装置10が識別されると、端末装置16に記憶されている機器画像54が機器表示画面52に表示される。模式的な画像のデータは、サーバ14や端末装置16以外の装置に記憶されていてもよい。   When using a schematic image, the data of the schematic image is transmitted from the server 14 to the terminal device 16, for example. For example, when the image forming apparatus 10 is identified, the specifying unit 38 of the server 14 refers to the device function management table (device function information 32) illustrated in FIG. Specific images. The schematic image data is transmitted from the server 14 to the terminal device 16, and the schematic image is displayed on the device display screen 52 as the device image 54. Schematic image data may be stored in the terminal device 16 in advance. In this case, when the image forming apparatus 10 is identified, the device image 54 stored in the terminal device 16 is displayed on the device display screen 52. Schematic image data may be stored in a device other than the server 14 or the terminal device 16.

また、機器が識別されると、その機器の名称を示す情報がサーバ14から端末装置16に送信され、端末装置16において、機器表示画面52に機器の名称が表示されてもよい。図8に示す例では、画像形成装置10は複合機であり、その名称「複合機(B)」が表示されている。   When a device is identified, information indicating the name of the device may be transmitted from the server 14 to the terminal device 16, and the device name may be displayed on the device display screen 52 in the terminal device 16. In the example illustrated in FIG. 8, the image forming apparatus 10 is a multifunction peripheral, and the name “multifunction peripheral (B)” is displayed.

画像形成装置10が有する機能が特定されると、例えば図9に示すように、端末装置16の制御部48は、機能表示画面56を端末装置16のUI部46に表示させ、その機能表示画面56に機能に関する情報を表示させる。機能に関する情報として、例えば、その機能の実行を指示するためのボタン画像が表示される。画像形成装置10としての複合機(B)は、例えば、プリント機能、スキャン機能、コピー機能、及び、ファクシミリ機能を有しているため、これらの機能の実行を指示するためのボタン画像が機能表示画面56に表示される。例えば、ユーザが端末装置16を使用してプリント機能を表わすボタン画像を指定し、プリント機能の実行を指示すると、プリント機能の実行指示を示す実行指示情報が、端末装置16から画像形成装置10に送信される。その実行指示情報には、プリント機能を実行するための制御データや、プリント機能が適用される画像データ等のデータ、等が含まれる。画像形成装置10は実行指示情報を受けると、その実行指示情報に従ってプリントを実行する。   When the function of the image forming apparatus 10 is specified, for example, as illustrated in FIG. 9, the control unit 48 of the terminal device 16 displays a function display screen 56 on the UI unit 46 of the terminal device 16, and the function display screen is displayed. 56 displays information about the function. As information about a function, for example, a button image for instructing execution of the function is displayed. Since the multifunction peripheral (B) as the image forming apparatus 10 has, for example, a print function, a scan function, a copy function, and a facsimile function, button images for instructing execution of these functions are displayed as functions. It is displayed on the screen 56. For example, when a user designates a button image representing a print function using the terminal device 16 and instructs execution of the print function, execution instruction information indicating an instruction to execute the print function is transmitted from the terminal device 16 to the image forming apparatus 10. Sent. The execution instruction information includes control data for executing the print function, data such as image data to which the print function is applied, and the like. Upon receiving the execution instruction information, the image forming apparatus 10 executes printing according to the execution instruction information.

図10には、機能表示画面の別の例が示されている。この機能表示画面58は、図8に示すように、単体の機器を利用する際に、端末装置16のUI部46に表示される画面である。上述したように、利用対象の機器(例えば画像形成装置10)が特定され、利用対象の機器が有する機能が特定される。また、利用対象の機器を利用するユーザがユーザ識別情報に対応付けられている機能を示す機能識別情報、つまり、当該ユーザが利用可能な機能が特定されてもよい。さらに、利用対象の機器が有する機能が特定されるので、提供対象となっている機能群の中で利用対象の機器が有していない機能が特定されてもよい。これらの情報は、機能表示画面58に表示されてもよい。   FIG. 10 shows another example of the function display screen. As shown in FIG. 8, the function display screen 58 is a screen displayed on the UI unit 46 of the terminal device 16 when using a single device. As described above, the device to be used (for example, the image forming apparatus 10) is specified, and the function of the device to be used is specified. Moreover, the function identification information which shows the function with which the user using the apparatus of utilization object is matched with user identification information, ie, the function which the said user can utilize, may be specified. Furthermore, since the function of the device to be used is specified, the function that the device to be used does not have may be specified in the function group to be provided. Such information may be displayed on the function display screen 58.

図10に示されている機能表示画面58には、機能識別情報の一例として、機能Aを表すボタン画像60、機能Bを表すボタン画像62、及び、機能Cを表すボタン画像64が、表示されている。機能Aは、利用対象の機器(例えば識別された画像形成装置10)が有している機能であって、ユーザによって利用可能な機能である。機能Bは、利用対象の機器が有している機能であって、ユーザによる利用が不可能な機能である。ユーザが機能Bの提供を受けることにより、当該ユーザによる機能Bの利用が可能となる。機能Bが有償の機能であれば、ユーザが機能Bを購入することにより、機能Bの利用が可能となり、機能Bが無償の機能であれば、ユーザが無償で機能Bの提供を受けることにより、機能Bの利用が可能となる。機能Cは、利用対象の機器が有していない機能、つまり、利用対象の機器が対応していない機能である。端末装置16の制御部48は、ボタン画像によって表されている機能が、利用対象の機器が有している機能であるか否かに応じて、当該ボタン画像の表示態様を変えてもよい。また、制御部48は、ボタン画像によって表されている機能が、ユーザによって利用可能な機能であるか否かに応じて、当該ボタン画像の表示態様を変えてもよい。例えば、制御部48は、ボタン画像の色や形状を変えてもよい。図10に示す例では、ボタン画像60,62,64はそれぞれ異なる色で表示されている。一例として、利用対象の機器が有している機能であってユーザによって利用可能な機能を表すボタン画像(例えば機能Aを表すボタン画像60)は、青色で表示される。利用対象の機器が有している機能であってユーザによる利用が不可能な機能を表すボタン画像(機能Bを表すボタン画像62)は、黄色で表示される。利用対象の機器が有していない機能を表すボタン画像(例えば機能Cを表すボタン画像64)は、灰色で表示される。別の例として、制御部48は、ボタン画像60,62,64の形状を変えてもよいし、機能表示名のフォントを変えてもよい。もちろん、別の手法によって表示態様を変えてもよい。これにより、ユーザに視認性良く各機能の利用可否が伝えられる。   On the function display screen 58 shown in FIG. 10, a button image 60 representing the function A, a button image 62 representing the function B, and a button image 64 representing the function C are displayed as an example of the function identification information. ing. The function A is a function that a device to be used (for example, the identified image forming apparatus 10) has, and is a function that can be used by the user. The function B is a function possessed by the device to be used and cannot be used by the user. When the user receives the provision of the function B, the user can use the function B. If the function B is a paid function, the user can use the function B by purchasing the function B. If the function B is a free function, the user receives the function B free of charge. The function B can be used. Function C is a function that the target device does not have, that is, a function that the target device does not support. The control unit 48 of the terminal device 16 may change the display mode of the button image according to whether or not the function represented by the button image is a function of the device to be used. The control unit 48 may change the display mode of the button image depending on whether or not the function represented by the button image is a function that can be used by the user. For example, the control unit 48 may change the color and shape of the button image. In the example shown in FIG. 10, the button images 60, 62, and 64 are displayed in different colors. As an example, a button image (for example, a button image 60 representing the function A) that represents a function that the target device has and that can be used by the user is displayed in blue. A button image (a button image 62 representing the function B) that represents a function that the target device has and cannot be used by the user is displayed in yellow. A button image representing a function that the device to be used does not have (for example, a button image 64 representing the function C) is displayed in gray. As another example, the control unit 48 may change the shape of the button images 60, 62, and 64, or may change the font of the function display name. Of course, the display mode may be changed by another method. This informs the user whether or not each function can be used with high visibility.

例えば、ユーザが端末装置16を利用して機能Aを表すボタン画像60を指定し、機能Aの実行の指示を与えると、機能Aの実行指示を示す実行指示情報が、端末装置16から利用対象の機器に送信される。その実行指示情報には、機能Aを実行するための制御データや、機能Aによる処理が適用される画像データ等のデータ、等が含まれる。利用対象の機器は実行指示情報を受けると、その実行指示情報に従って機能Aを実行する。例えば、利用対象の機器が画像形成装置10の場合であって機能Aがスキャン転送機能の場合、画像形成装置10の画像形成部20によってスキャン機能が実行され、これによりスキャンデータ(画像データ)が生成される。そのスキャンデータは、画像形成装置10から設定された送信先(例えば端末装置16)に送信される。   For example, when the user designates the button image 60 representing the function A using the terminal device 16 and gives an instruction to execute the function A, the execution instruction information indicating the execution instruction of the function A is used from the terminal device 16 as the usage target. Sent to other devices. The execution instruction information includes control data for executing function A, data such as image data to which processing by function A is applied, and the like. When the target device receives the execution instruction information, it executes the function A according to the execution instruction information. For example, when the device to be used is the image forming apparatus 10 and the function A is the scan transfer function, the scan function is executed by the image forming unit 20 of the image forming apparatus 10, and thereby the scan data (image data) is obtained. Generated. The scan data is transmitted from the image forming apparatus 10 to a transmission destination (for example, the terminal device 16) set.

また、ユーザが端末装置16を利用して機能Bを表すボタン画像62を指定し、機能Bの提供を指示した場合、提供処理が実行される。提供処理がサーバ14によって行われる場合、端末装置16はサーバ14にアクセスする。これにより、ユーザによる機能Bの利用を可能にするための情報として、機能Bの提供を受けるための画面(例えばWebサイト)が端末装置16のUI部46に表示される。この画面上で提供手続きを行うことにより、ユーザによる機能Bの利用が可能となる。例えば、端末装置16にはWebブラウザのプログラムが記憶されており、そのWebブラウザを利用することにより、端末装置16からサーバ14へのアクセスが実現される。ユーザはWebブラウザを用いてサーバ14にアクセスすると、端末装置16のUI部46に、機能提供画面(例えばWebサイト)が表示され、そのWebサイトを介して機能が提供される。もちろん、サーバ14以外のサーバ等によって提供処理が行われてもよい。別の例として、端末装置16のUI部46には、ユーザによる機能Bの利用を可能にするための情報として、管理者等に機能Bの利用を依頼するための利用許可依頼画面(例えばWebサイト)が表示されてもよい。この利用許可依頼画面を介して機能Bの利用の許可を管理者等に依頼し、その許可が得られた場合、ユーザによる機能Bの利用が可能となる。   When the user designates the button image 62 representing the function B using the terminal device 16 and instructs the provision of the function B, the providing process is executed. When the providing process is performed by the server 14, the terminal device 16 accesses the server 14. As a result, a screen (for example, a website) for receiving the provision of the function B is displayed on the UI unit 46 of the terminal device 16 as information for enabling the user to use the function B. By performing the provision procedure on this screen, the user can use the function B. For example, a Web browser program is stored in the terminal device 16, and access from the terminal device 16 to the server 14 is realized by using the Web browser. When the user accesses the server 14 using a Web browser, a function providing screen (for example, a Web site) is displayed on the UI unit 46 of the terminal device 16 and functions are provided via the Web site. Of course, the providing process may be performed by a server other than the server 14. As another example, the UI unit 46 of the terminal device 16 has a use permission request screen (for example, Web) for requesting the administrator or the like to use the function B as information for enabling the user to use the function B. Site) may be displayed. If the administrator or the like is requested to permit the use of the function B via the use permission request screen and the permission is obtained, the user can use the function B.

以下、図11を参照して、連携機能が利用される場合の処理について説明する。図11には、連携対象の機器の一例が示されている。一例として、画像形成装置10と機器12としてのプロジェクタ(以下、プロジェクタ12と称する)とが、連携対象の機器として用いられるものとする。画像形成装置10、プロジェクタ12及び端末装置16は、現実空間に存在する機器である。   Hereinafter, with reference to FIG. 11, processing when the cooperation function is used will be described. FIG. 11 shows an example of a cooperation target device. As an example, it is assumed that the image forming apparatus 10 and a projector as the device 12 (hereinafter referred to as a projector 12) are used as devices to be linked. The image forming apparatus 10, the projector 12, and the terminal device 16 are devices that exist in the real space.

例えば、画像形成装置10の筐体に2次元バーコード等のマーカ50が設けられており、プロジェクタ12の筐体に2次元バーコード等のマーカ66が設けられている。マーカ66は、プロジェクタ12の機器識別情報がコード化された情報である。マーカ型AR技術又はマーカレス型AR技術が用いられる場合、ユーザは端末装置16(例えばスマートフォン)のカメラ42によって、連携対象の画像形成装置10とプロジェクタ12を撮影する。図11に示す例では、カメラ42の撮影領域に画像形成装置10とプロジェクタ12の両方が含まれる状態で、画像形成装置10とプロジェクタ12が一緒に撮影されている。これにより、マーカ50,66のそれぞれを表わす画像データが生成される。端末装置16のUI部46の表示部には機器表示画面68が表示され、その機器表示画面68に、画像形成装置10に紐付いた機器画像70とプロジェクタ12に紐付いた機器画像72が表示される。機器画像70,72は、例えば、カメラ42による撮影によって生成された画像(撮影時のサイズを有する画像であってもよいし、拡大又は縮小された画像であってもよい)である。   For example, a marker 50 such as a two-dimensional barcode is provided on the casing of the image forming apparatus 10, and a marker 66 such as a two-dimensional barcode is provided on the casing of the projector 12. The marker 66 is information obtained by coding the device identification information of the projector 12. When the marker type AR technology or the markerless type AR technology is used, the user captures the image forming apparatus 10 and the projector 12 to be linked by the camera 42 of the terminal device 16 (for example, a smartphone). In the example illustrated in FIG. 11, the image forming apparatus 10 and the projector 12 are photographed together in a state where both the image forming apparatus 10 and the projector 12 are included in the photographing region of the camera 42. Thereby, image data representing each of the markers 50 and 66 is generated. A device display screen 68 is displayed on the display unit of the UI unit 46 of the terminal device 16, and a device image 70 associated with the image forming apparatus 10 and a device image 72 associated with the projector 12 are displayed on the device display screen 68. . The device images 70 and 72 are, for example, images generated by photographing with the camera 42 (an image having a size at the time of photographing may be used, or an enlarged or reduced image may be used).

カメラ42による撮影によって生成された画像データは、端末装置16からサーバ14に送信される。サーバ14においては、制御部36が画像データにデコード処理を適用することにより、画像形成装置10の機器識別情報とプロジェクタ12の機器識別情報を抽出し、これにより、画像形成装置10とプロジェクタ12を識別する。別の例として、画像形成装置10とプロジェクタ12のそれぞれの外観を表わす外観画像データが生成され、端末装置16からサーバ14に送信されてもよい。この場合、サーバ14においては、制御部36が、外観画像対応付け情報を参照することにより、画像形成装置10の機器識別情報とプロジェクタ12の機器識別情報を特定する。これにより、画像形成装置10とプロジェクタ12が識別される。   Image data generated by photographing by the camera 42 is transmitted from the terminal device 16 to the server 14. In the server 14, the control unit 36 applies the decoding process to the image data to extract the device identification information of the image forming device 10 and the device identification information of the projector 12, and thereby the image forming device 10 and the projector 12 are connected. Identify. As another example, appearance image data representing the appearances of the image forming apparatus 10 and the projector 12 may be generated and transmitted from the terminal device 16 to the server 14. In this case, in the server 14, the control unit 36 specifies the device identification information of the image forming apparatus 10 and the device identification information of the projector 12 by referring to the appearance image association information. Thereby, the image forming apparatus 10 and the projector 12 are identified.

また、サーバ14の特定部38は、連携機能情報34(例えば図7に示されている連携機能管理テーブル)を参照することにより、画像形成装置10が有する機能とプロジェクタ12が有する機能とを利用する連携機能を特定(識別)する。この点について図7を参照して詳しく説明する。画像形成装置10は、一例として「複合機(B)」であり、プロジェクタ12は、一例として「プロジェクタ(C)」であるとする。特定部38は、図7に示されている連携機能管理テーブルにおいて、複合機(B)とプロジェクタ(C)の組み合わせに対応付けられている連携機能を特定する。これにより、複合機(B)とプロジェクタ(C)を連携させることによって実行される連携機能が特定される。特定された連携機能に関する情報は、サーバ14から端末装置16に送信される。もちろん、機器や連携機能を識別するための処理は、端末装置16によって行われてもよい。   Further, the specifying unit 38 of the server 14 uses the function of the image forming apparatus 10 and the function of the projector 12 by referring to the cooperation function information 34 (for example, the cooperation function management table shown in FIG. 7). Identify (identify) the linkage function to be performed. This point will be described in detail with reference to FIG. The image forming apparatus 10 is assumed to be a “multifunction machine (B)” as an example, and the projector 12 is assumed to be a “projector (C)” as an example. The specifying unit 38 specifies the link function associated with the combination of the multifunction peripheral (B) and the projector (C) in the link function management table shown in FIG. Thereby, the cooperation function performed by cooperating the multifunction peripheral (B) and the projector (C) is specified. Information regarding the identified linkage function is transmitted from the server 14 to the terminal device 16. Of course, the processing for identifying the device and the linkage function may be performed by the terminal device 16.

なお、機器表示画面68には、カメラ42による撮影によって生成された画像の替わりに、識別された画像形成装置10に紐付く予め用意された画像(例えば模式的な画像(例えばアイコン))や、外部のカメラによる撮影によって生成された画像が、機器画像70として表示されてもよい。同様に、識別されたプロジェクタ12に紐付く予め用意された画像や、外部のカメラによる撮影によって生成された画像が、機器画像72として表示されてもよい。模式的な画像のデータは、上述したように、例えばサーバ14から端末装置16に送信されてもよいし、端末装置16に予め記憶されていてもよいし、それら以外の装置に記憶されていてもよい。   The device display screen 68 includes an image prepared in advance (for example, a schematic image (for example, an icon)) associated with the identified image forming apparatus 10 instead of an image generated by photographing with the camera 42, An image generated by photographing with an external camera may be displayed as the device image 70. Similarly, an image prepared in advance associated with the identified projector 12 or an image generated by photographing with an external camera may be displayed as the device image 72. As described above, the schematic image data may be transmitted from the server 14 to the terminal device 16, stored in the terminal device 16 in advance, or stored in other devices. Also good.

また、機器が識別されると、その機器の名称を示す情報がサーバ14から端末装置16に送信され、端末装置16において、機器表示画面68に機器の名称が表示されてもよい。図11に示す例では、画像形成装置10の名称「複合機(B)」と、プロジェクタ12の名称「プロジェクタ(C)」が表示されている。   When a device is identified, information indicating the name of the device may be transmitted from the server 14 to the terminal device 16, and the device name may be displayed on the device display screen 68 in the terminal device 16. In the example shown in FIG. 11, the name “MFP (B)” of the image forming apparatus 10 and the name “Projector (C)” of the projector 12 are displayed.

なお、複数の機器が撮影された場合であっても、サーバ14の特定部38は、機器機能情報32を参照することにより、各機器が有する機能を特定してもよい。図11に示す例では、特定部38は、画像形成装置10が有する機能とプロジェクタ12が有する機能をそれぞれ特定してもよい。特定された機能に関する情報は、サーバ14から端末装置16に送信されてもよい。   Even when a plurality of devices are photographed, the specifying unit 38 of the server 14 may specify the function of each device by referring to the device function information 32. In the example illustrated in FIG. 11, the specifying unit 38 may specify the function of the image forming apparatus 10 and the function of the projector 12. Information regarding the identified function may be transmitted from the server 14 to the terminal device 16.

連携機能が特定されると、例えば図12に示すように、端末装置16の制御部48は、機能表示画面74を端末装置16のUI部46に表示させ、その機能表示画面56に連携機能に関する情報を表示させる。連携機能に関する情報として、例えば、その連携機能の実行を指示するためのボタン画像が表示される。複合機(B)とプロジェクタ(C)を連携させることで、例えば、複合機(B)によるスキャンによって生成された画像をプロジェクタ(C)によって投影する連携機能や、プロジェクタ(C)によって投影されている画像を複合機(B)によってプリントする連携機能が実行可能となる。これらの連携機能の実行を指示するためのボタン画像が機能表示画面74に表示される。例えば、ユーザが端末装置16を使用してボタン画像を指定し、連携機能の実行を指示すると、その連携機能の実行指示を示す実行指示情報が、端末装置16から画像形成装置10とプロジェクタ12に送信される。画像形成装置10とプロジェクタ12は、実行指示情報を受けると、ユーザによって指定された連携機能を実行する。   When the cooperation function is specified, for example, as illustrated in FIG. 12, the control unit 48 of the terminal device 16 displays the function display screen 74 on the UI unit 46 of the terminal device 16, and the function display screen 56 relates to the cooperation function. Display information. For example, a button image for instructing execution of the cooperation function is displayed as information on the cooperation function. By linking the multifunction machine (B) and the projector (C), for example, a cooperation function for projecting an image generated by scanning by the multifunction machine (B) by the projector (C), or being projected by the projector (C). The cooperative function of printing the existing image by the multifunction peripheral (B) can be executed. A button image for instructing execution of these linkage functions is displayed on the function display screen 74. For example, when the user designates a button image using the terminal device 16 and instructs execution of the cooperation function, execution instruction information indicating the execution instruction of the cooperation function is transmitted from the terminal device 16 to the image forming apparatus 10 and the projector 12. Sent. Upon receiving the execution instruction information, the image forming apparatus 10 and the projector 12 execute the cooperation function designated by the user.

ユーザの操作によって、連携対象の機器が指定されてもよい。例えば、画像形成装置10とプロジェクタ12をカメラ42によって撮影することにより、図11に示すように、端末装置16のUI部46には、画像形成装置10に紐付く機器画像70とプロジェクタ12に紐付く機器画像72が表示される。なお、機器に紐付く画像は、カメラ42による撮影で得られた画像であってもよいし、識別された機器に紐付く予め用意された画像(例えば模式的な画像(例えばアイコン))であってもよい。ユーザが機器表示画面68上で機器画像70,72を指定することにより、連携対象の機器として画像形成装置10とプロジェクタ12が指定される。例えば、ユーザが機器画像70を指定すると、マーカ型AR技術又はマーカレス型AR技術が機器画像70に適用され、これにより、画像形成装置10が特定(識別)される。同様に、ユーザが機器画像72を指定すると、マーカ型AR技術又はマーカレス型AR技術が機器画像72に適用され、これにより、プロジェクタ12が特定(識別)される。これにより、画像形成装置10とプロジェクタ12によって実行される連携機能が特定され、その連携機能に関する情報が端末装置16のUI部46に表示される。   A device to be linked may be designated by a user operation. For example, when the image forming apparatus 10 and the projector 12 are photographed by the camera 42, as shown in FIG. 11, the UI unit 46 of the terminal device 16 has a device image 70 associated with the image forming apparatus 10 and the projector 12. An attached device image 72 is displayed. The image associated with the device may be an image obtained by photographing with the camera 42, or may be an image prepared in advance (for example, a schematic image (eg, icon)) associated with the identified device. May be. When the user designates device images 70 and 72 on the device display screen 68, the image forming apparatus 10 and the projector 12 are designated as devices to be linked. For example, when the user designates the device image 70, the marker type AR technology or the markerless type AR technology is applied to the device image 70, and thereby the image forming apparatus 10 is specified (identified). Similarly, when the user designates the device image 72, the marker type AR technology or the markerless type AR technology is applied to the device image 72, and thereby the projector 12 is specified (identified). Thereby, the cooperation function executed by the image forming apparatus 10 and the projector 12 is specified, and information related to the cooperation function is displayed on the UI unit 46 of the terminal device 16.

別の例として、ユーザが機器表示画面68上で機器画像70をタッチして機器画像72までの間を指等で操作する(例えば指等でなぞる)ことにより、機器画像70,72が指定され、画像形成装置10とプロジェクタ12が連携対象の機器として指定されてもよい。機器画像70,72を触れる順番やなぞる方向は、上記の例と逆であってもよい。もちろん、機器表示画面68をなぞるためのペンといった指以外の画面接触手段が用いられてもよい。丸を付けるような描画操作によって連携対象の機器を指定してもよいし、連携したい機器に紐付く機器画像を予め設定された時間内に指定することで、連携対象の機器を指定してもよい。連携を解除する場合、ユーザが機器表示画面68上で解除対象の機器を指定してもよいし、連携解除ボタンを押してもよい。連携対象ではない機器が画像に写り込んでいる場合、ユーザが機器表示画面68上にてその機器を指定することにより、その機器を連携対象の機器群から除外してもよい。バツ印等を付けるような予め設定された操作によって、解除対象の機器を指定してもよい。   As another example, when the user touches the device image 70 on the device display screen 68 and operates the device image 72 with a finger or the like (for example, tracing with the finger or the like), the device images 70 and 72 are designated. The image forming apparatus 10 and the projector 12 may be designated as devices to be linked. The order of touching the device images 70 and 72 and the direction of tracing may be the reverse of the above example. Of course, screen contact means other than a finger such as a pen for tracing the device display screen 68 may be used. The device to be linked may be specified by a drawing operation such as adding a circle, or the device to be linked can be specified by specifying the device image associated with the device to be linked within a preset time. Good. When canceling the cooperation, the user may specify a device to be canceled on the device display screen 68 or may press a cooperation cancellation button. When a device that is not a collaboration target is reflected in the image, the device may be excluded from the collaboration target device group by designating the device on the device display screen 68. The device to be released may be designated by a preset operation such as adding a cross mark.

連携対象の各機器は別々に撮影されてもよい。例えば、カメラ42による撮影を複数回に分けることで、連携対象の各機器を識別する。カメラ42による撮影を複数回に分けた場合、各撮影回で識別された機器の機器識別情報は、サーバ14又は端末装置16の記憶部に記憶される。例えば、カメラ42の撮影領域に画像形成装置10が含まれる状態で画像形成装置10が撮影され、次に、カメラ42の撮影領域にプロジェクタ12が含まれる状態でプロジェクタ12が撮影される。これにより、画像形成装置10についての画像データとプロジェクタ12についての画像データが生成され、各画像データにマーカ型AR技術又はマーカレス型AR技術が適用されることにより、画像形成装置10とプロジェクタ12が特定(識別)され、画像形成装置10とプロジェクタ12の機能を利用する連携機能が特定(識別)される。例えば、連携対象の各機器が互いに近い位置に配置されて、カメラ42の撮影領域に画像形成装置10とプロジェクタ12の両方が必ずしも一緒に含まれるとは限らない。カメラ42の撮影領域のアングルを変えたり、撮影領域の拡大又は縮小によって対応することができる場合もあるが、そのような操作で対応しきれない場合、撮影を複数回に分けることにより、連携対象の機器を識別することも解決手段としてあり得る。   Each device to be linked may be shot separately. For example, each device to be linked is identified by dividing the shooting by the camera 42 into a plurality of times. When the shooting by the camera 42 is divided into a plurality of times, the device identification information of the device identified at each shooting time is stored in the storage unit of the server 14 or the terminal device 16. For example, the image forming apparatus 10 is photographed with the image forming apparatus 10 included in the photographing area of the camera 42, and then the projector 12 is photographed with the projector 12 included in the photographing area of the camera 42. Thereby, image data for the image forming apparatus 10 and image data for the projector 12 are generated, and the marker-type AR technique or the markerless-type AR technique is applied to each image data. Identification (identification) is performed, and a cooperation function that uses the functions of the image forming apparatus 10 and the projector 12 is identified (identification). For example, the devices to be linked are arranged at positions close to each other, and both the image forming apparatus 10 and the projector 12 are not necessarily included together in the shooting area of the camera 42. In some cases, it is possible to respond by changing the angle of the shooting area of the camera 42, or by expanding or reducing the shooting area. It is also possible to identify other devices.

別の例として、連携対象の機器が基本連携機器として予め設定されていてもよい。例えば、画像形成装置10が基本連携機器として予め設定されているものとする。基本連携機器の機器識別情報は、サーバ14や端末装置16の記憶部に予め記憶されていてもよい。ユーザが端末装置16を利用して基本連携機器を指定してもよい。基本連携機器が設定されている場合、ユーザは端末装置16のカメラ42によって、基本連携機器以外の連携対象の機器を撮影する。これにより、連携対象の機器が特定(識別)され、基本連携機器と撮影された機器が有する機能を利用する連携機能が特定(識別)される。   As another example, a device to be linked may be set in advance as a basic linked device. For example, it is assumed that the image forming apparatus 10 is preset as a basic cooperation device. The device identification information of the basic cooperation device may be stored in advance in the storage unit of the server 14 or the terminal device 16. The user may specify the basic cooperation device using the terminal device 16. When the basic cooperation device is set, the user uses the camera 42 of the terminal device 16 to photograph a device to be linked other than the basic cooperation device. As a result, the device to be linked is specified (identified), and the linked function that uses the functions of the basic linked device and the captured device is specified (identified).

なお、AR技術等を適用しても撮影対象の機器が識別されない場合、その撮影対象の機器を表わす機器画像は、機器表示画面に表示されなくてもよい。これにより、識別された機器の視認性が向上する。例えば、識別された機器と識別されない機器が混在し、それぞれがカメラ42によって撮影された場合、識別されない機器を表わす機器画像を非表示にする。これにより、識別された機器を表わす機器画像が、識別されない機器を表わす機器画像に埋もれずに表示されるので、識別された機器の視認性が向上する。また、識別された機器を表わす機器画像を強調して表示してもよい。例えば、識別された機器を表わす機器画像を特定の色で表示してもよいし、機器画像の縁を強調して表示してもよいし、機器画像を拡大して表示してもよいし、機器画像を3次元で表示してもよいし、機器画像を振動させて表示してもよい。これにより、識別された機器の視認性が向上する。   Note that if the device to be imaged is not identified even when the AR technology or the like is applied, the device image representing the device to be imaged may not be displayed on the device display screen. This improves the visibility of the identified device. For example, when an identified device and an unidentified device are mixed and each is photographed by the camera 42, the device image representing the unidentified device is hidden. Thereby, since the device image representing the identified device is displayed without being buried in the device image representing the unidentified device, the visibility of the identified device is improved. In addition, a device image representing the identified device may be highlighted and displayed. For example, the device image representing the identified device may be displayed in a specific color, the edge of the device image may be displayed highlighted, the device image may be displayed enlarged, The device image may be displayed in three dimensions, or the device image may be displayed with vibration. This improves the visibility of the identified device.

以下、機器が単独で利用される機能(以下、「単独利用機能」と称する)の表示と、連携機能の表示と、の切り替え制御について詳しく説明する。   Hereinafter, switching control between the display of a function that is used independently by a device (hereinafter referred to as a “single use function”) and the display of a linkage function will be described in detail.

例えば、予め設定された識別時間内に、1つの機器のみが識別された場合、端末装置16の制御部48は、当該1つの機器(例えば画像形成装置10)が有する機能に関する情報を、単独利用機能に関する情報として、端末装置16のUI部46に表示させる。識別期間の長さは、ユーザによって変更されてもよい。なお、AR技術を適用することで機器を識別してもよいし、AR技術以外の技術を適用することで機器を識別してもよい。機器の識別処理は、サーバ14によって行われてもよいし、端末装置16によって行われてもよい。識別時間の始点(起算点)は、例えば、1つの機器が識別された時点であってもよいし、ユーザが指定した時点(例えば識別処理開始時点)であってもよい。   For example, when only one device is identified within a preset identification time, the control unit 48 of the terminal device 16 independently uses information on the function of the one device (for example, the image forming apparatus 10). Information on the function is displayed on the UI unit 46 of the terminal device 16. The length of the identification period may be changed by the user. The device may be identified by applying the AR technology, or the device may be identified by applying a technology other than the AR technology. The device identification process may be performed by the server 14 or the terminal device 16. The start point (starting point) of the identification time may be, for example, a time point when one device is identified, or may be a time point specified by the user (for example, the identification process start time point).

例えば、1つの機器が識別された時点から識別時間内に、別の機器が識別されない場合、端末装置16の制御部48は、当該1つの機器が有する機能に関する情報を、単独利用機能に関する情報として、端末装置16のUI部46に表示させる。この場合、当該1つの機器は、識別期間内に識別された機器として扱われる。機器に関する情報は、サーバ14から端末装置16に送信された情報であってもよいし、端末装置16に予め記憶されている情報であってもよい。   For example, when another device is not identified within the identification time from the time when one device is identified, the control unit 48 of the terminal device 16 uses information regarding the function of the one device as information regarding the single use function. And displayed on the UI unit 46 of the terminal device 16. In this case, the one device is treated as a device identified within the identification period. The information related to the device may be information transmitted from the server 14 to the terminal device 16 or information stored in the terminal device 16 in advance.

別の例として、ユーザが指定した時点を識別時間の開始時点として、その開始時点から識別時間内に1つの機器のみが識別された場合、端末装置16の制御部48は、当該1つの機器が有する機能に関する情報を、単独利用機器に関する情報として、端末装置16のUI部46に表示させる。   As another example, when only one device is identified within the identification time from the start time when the time specified by the user is the start time of the identification time, the control unit 48 of the terminal device 16 Information related to the functions possessed is displayed on the UI unit 46 of the terminal device 16 as information related to the single use device.

別の例として、1つの機器が識別された後、単独利用機能の表示指示が与えられた場合、端末装置16の制御部48は、当該1つの機器が有する機能に関する情報を、単独利用機能に関する情報として、端末装置16のUI部46に表示させてもよい。端末装置16の制御部48は、例えば、常時、又は、1つの機器が撮影された場合(又は1つの機器が識別された場合)、単独利用機能の表示を指示するためのボタン画像を、図8に示されている機器表示画面52に表示させる。そのボタン画像がユーザによって押された場合、制御部48は、当該1つの機器が有する機能に関する情報をUI部46に表示させる。   As another example, when a display instruction of a single use function is given after one device is identified, the control unit 48 of the terminal device 16 displays information on the function of the one device regarding the single use function. Information may be displayed on the UI unit 46 of the terminal device 16. The control unit 48 of the terminal device 16 displays a button image for instructing the display of the single use function, for example, at all times or when one device is photographed (or when one device is identified). 8 is displayed on the device display screen 52 shown in FIG. When the button image is pressed by the user, the control unit 48 causes the UI unit 46 to display information related to the function of the one device.

識別時間が経過した時点で、端末装置16の制御部48は、確認画面を端末装置16のUI部46に表示させてもよい。その確認画面は、例えば、ユーザが識別時間の延長を指示するための画面である。ユーザが確認画面を介して識別時間の延長を指示した場合において、その延長時間内に別の機器が撮影されない場合、端末装置16の制御部48は、識別された機器が有する機能に関する情報を、端末装置16のUI部46に表示させる。   When the identification time has elapsed, the control unit 48 of the terminal device 16 may display a confirmation screen on the UI unit 46 of the terminal device 16. The confirmation screen is, for example, a screen for the user to instruct extension of the identification time. When the user instructs the extension of the identification time via the confirmation screen, when another device is not photographed within the extension time, the control unit 48 of the terminal device 16 displays information on the function of the identified device. It is displayed on the UI unit 46 of the terminal device 16.

単独利用機能に関する情報の表示制御について更に詳しく説明する。例えば、マーカ型AR技術又はマーカレス型AR技術によって機器が識別されるものとする。例えば、予め設定された撮影時間内に、1つの機器のみが撮影された場合、端末装置16の制御部48は、当該1つの機器が有する機能に関する情報を、単独利用機能に関する情報として、端末装置16のUI部46に表示させる。撮影時間の始点(起算点)は、1つの機器が撮影された時点であってもよいし、ユーザが指示した時点(例えば撮影開始時点)であってもよい。撮影時間の長さは、ユーザによって変更されてもよい。なお、当該1つの機器が撮影されると、マーカ型AR技術又はマーカレス型AR技術によって、当該1つの機器が識別される。この識別処理は、サーバ14によって行われてもよいし、端末装置16によって行われてもよい。   The display control of information related to the single use function will be described in more detail. For example, it is assumed that the device is identified by the marker type AR technology or the markerless type AR technology. For example, when only one device is photographed within a preset photographing time, the control unit 48 of the terminal device 16 uses the information regarding the function of the one device as information regarding the single use function. 16 UI parts 46 are displayed. The start point (starting point) of the shooting time may be the time when one device is shot, or may be the time point designated by the user (for example, the shooting start time). The length of the shooting time may be changed by the user. When the one device is photographed, the one device is identified by the marker type AR technology or the markerless type AR technology. This identification process may be performed by the server 14 or the terminal device 16.

例えば、1つの機器が撮影された時点から撮影時間内に、別の機器が撮影されない場合、端末装置16の制御部48は、当該1つの機器が有する機能に関する情報を、単独利用機能に関する情報として、端末装置16のUI部46に表示させる。この場合、当該1つの機器は、撮影時間内に撮影された機器として扱われる。   For example, when another device is not shot within the shooting time from the time when one device is shot, the control unit 48 of the terminal device 16 uses information related to the function of the one device as information related to the single use function. And displayed on the UI unit 46 of the terminal device 16. In this case, the one device is treated as a device photographed within the photographing time.

別の例として、ユーザが指定した時点を撮影時間の開始時点として、その開始時点から撮影時間内に1つの機器のみが撮影された場合、端末装置16の制御部48は、当該1つの機器が有する機能に関する情報を、単独利用機能に関する情報として、端末装置16のUI部46に表示させる。   As another example, when the time point specified by the user is set as the start time of the shooting time, and only one device is shot within the shooting time from the start time, the control unit 48 of the terminal device 16 causes the one device to Information related to the function that the user has is displayed on the UI unit 46 of the terminal device 16 as information related to the single use function.

別の例として、1つの機器が撮影された後、単独利用機能の表示指示が与えられた場合、端末装置16の制御部48は、当該1つの機器が有する機能に関する情報を、単独利用機能に関する情報として、端末装置16のUI部46に表示させてもよい。   As another example, when a display instruction of a single use function is given after one device is photographed, the control unit 48 of the terminal device 16 displays information on the function of the one device regarding the single use function. Information may be displayed on the UI unit 46 of the terminal device 16.

例えば、撮影時間内に1つの機器のみが撮影された場合(例えば、1つ目の機器が撮影された時点から撮影時間内に別の機器が撮影されない場合や、ユーザが指定した開始時点から撮影時間内に1つの機器のみが撮影された場合)、端末装置16の制御部48は、その撮影で生成された画像データをサーバ14に送信する。撮影時間は、制御部48によって計測されてもよいし、タイマーによって計測されてもよい。サーバ14の特定部38は、その画像データに基づいて機器を特定(識別)し、その機器が有する機能を特定する。その機能に関する情報は、サーバ14から端末装置16に送信され、端末装置16のUI部46に表示される。もちろん、端末装置16が時間の管理を行わずに、サーバ14が時間の管理を行って、識別された機器が有する機能に関する情報を端末装置16に送信してもよい。   For example, when only one device is photographed within the photographing time (for example, when another device is not photographed within the photographing time from the time when the first device was photographed, or from the start time specified by the user) When only one device is photographed in time), the control unit 48 of the terminal device 16 transmits the image data generated by the photographing to the server 14. The shooting time may be measured by the control unit 48 or may be measured by a timer. The specifying unit 38 of the server 14 specifies (identifies) a device based on the image data, and specifies the function of the device. Information regarding the function is transmitted from the server 14 to the terminal device 16 and displayed on the UI unit 46 of the terminal device 16. Of course, the terminal device 16 may not manage the time, but the server 14 may manage the time and transmit information about the functions of the identified device to the terminal device 16.

撮影時間が経過した時点で、端末装置16の制御部48は、確認画面を端末装置16のUI部46に表示させてもよい。その確認画面は、例えば、ユーザが撮影時間の延長を指示するための画面である。ユーザが確認画面を介して撮影時間の延長を指示した場合において、その延長時間内に別の機器が撮影されない場合、端末装置16の制御部48は、撮影で得られた画像データをサーバ14に送信し、それに応じて、当該1つの機器が有する機能を端末装置16のUI部46に表示させる。延長時間の長さは、ユーザによって変更されてもよい。   When the shooting time has elapsed, the control unit 48 of the terminal device 16 may display a confirmation screen on the UI unit 46 of the terminal device 16. The confirmation screen is, for example, a screen for the user to instruct extension of the shooting time. When the user instructs to extend the shooting time via the confirmation screen, if another device is not shot within the extended time, the control unit 48 of the terminal device 16 sends the image data obtained by shooting to the server 14. In response, the function of the one device is displayed on the UI unit 46 of the terminal device 16. The length of the extension time may be changed by the user.

別の例として、端末装置16の制御部48は、1つの機器が撮影された後、単独利用機能の表示指示が与えられた場合、その撮影で生成された画像データをサーバ14に送信し、それに応じて、撮影された機器が有する機能に関する情報をサーバ14から受信してもよい。   As another example, the control unit 48 of the terminal device 16 transmits the image data generated by the shooting to the server 14 when a display instruction of the single use function is given after one device is shot. In response, information regarding the functions of the photographed device may be received from the server 14.

更に別の例として、端末装置16の制御部48は、機器が撮影されて画像データが生成される度に、その画像データをサーバ14に送信し、それに応じて、撮影された機器が有する機能に関する情報をサーバ14から受信してもよい。この場合、端末装置16の制御部48は、撮影時間内に1つの機器のみが撮影された場合、当該1つの機器に関する情報を、単独利用機能に関する情報として、端末装置16のUI部46に表示させる。   As yet another example, the control unit 48 of the terminal device 16 transmits the image data to the server 14 each time the device is photographed and image data is generated, and the function of the photographed device accordingly. Information regarding the server 14 may be received. In this case, when only one device is photographed within the photographing time, the control unit 48 of the terminal device 16 displays information regarding the one device on the UI unit 46 of the terminal device 16 as information regarding the single use function. Let

一方、識別時間内に複数の機器が識別された場合、端末装置16の制御部48は、当該識別時間内に識別された複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。識別時間が延長された場合、端末装置16の制御部48は、その延長時間を含む識別時間内に識別された複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。その識別時間内に識別された複数の機器は、連携対象の機器として指定されたことになる。連携機能に関する情報は、サーバ14から端末装置16に送信された情報であってもよいし、端末装置16に予め記憶されている情報であってもよい。   On the other hand, when a plurality of devices are identified within the identification time, the control unit 48 of the terminal device 16 displays information related to the cooperation function that uses the functions of the plurality of devices identified within the identification time. Are displayed on the UI part 46 of FIG. When the identification time is extended, the control unit 48 of the terminal device 16 displays information related to the cooperation function using the functions of a plurality of devices identified within the identification time including the extended time, as the UI unit of the terminal device 16. 46 is displayed. A plurality of devices identified within the identification time are designated as devices to be linked. Information related to the cooperation function may be information transmitted from the server 14 to the terminal device 16, or may be information stored in advance in the terminal device 16.

例えば、1つの目の機器が識別された時点から識別時間内に、別の機器が識別された場合、端末装置16の制御部48は、当該1つ目の機器と当該別の機器とを含む複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。この場合、1つ目の機器も、識別時間内に識別された機器として扱われる。   For example, when another device is identified within the identification time from when the first device is identified, the control unit 48 of the terminal device 16 includes the first device and the other device. Information related to a cooperative function that uses functions of a plurality of devices is displayed on the UI unit 46 of the terminal device 16. In this case, the first device is also treated as a device identified within the identification time.

また、1つ目の機器が識別された時点から識別時間内に別の機器が識別された場合、端末装置16の制御部48は、当該別の機器が識別された時点を開始時点とした新たな識別時間を設定してもよい。以降についても同様であり、新たな識別時間内に更に別の機器が識別された場合、更に新たな識別時間が設定される。この場合、端末装置16の制御部48は、全識別時間内に識別された複数の機器(1つ目の機器を含む)が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。   In addition, when another device is identified within the identification time from the time when the first device is identified, the control unit 48 of the terminal device 16 newly starts from the time when the other device is identified. A different identification time may be set. The same applies to the subsequent processes. When another device is identified within the new identification time, a new identification time is set. In this case, the control unit 48 of the terminal device 16 uses the UI unit of the terminal device 16 to transmit information related to a cooperation function that uses functions of a plurality of devices (including the first device) identified within the entire identification time. 46 is displayed.

別の例として、ユーザが指定した時点を識別時間の開始時点として、その開始時点から識別時間内に複数の機器が撮影された場合、端末装置16の制御部48は、当該複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。   As another example, when the time point specified by the user is set as the start time of the identification time, and a plurality of devices are photographed within the identification time from the start time, the control unit 48 of the terminal device 16 has the devices. Information related to the cooperation function that uses the function is displayed on the UI unit 46 of the terminal device 16.

別の例として、複数の機器が識別された後、連携機能の表示指示が与えられた場合に、端末装置16の制御部48は、当該複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させてもよい。端末装置16の制御部48は、例えば、常時、又は、複数の機器が撮影された場合(又は複数の機器が識別された場合)、連携機能の表示を指示するためのボタン画像を機器表示画面68に表示させる。そのボタン画像がユーザによって押された場合、制御部48は、当該複数の機器が有する機能を利用する連携機能に関する情報をUI部46に表示させる。   As another example, when a display instruction of a cooperation function is given after a plurality of devices are identified, the control unit 48 of the terminal device 16 displays information on the cooperation function that uses the functions of the plurality of devices. The information may be displayed on the UI unit 46 of the terminal device 16. The control unit 48 of the terminal device 16 displays, for example, a button image for instructing display of the cooperation function when a plurality of devices are photographed at all times (or when a plurality of devices are identified). 68. When the button image is pressed by the user, the control unit 48 causes the UI unit 46 to display information related to a cooperative function that uses the functions of the plurality of devices.

別の例として、1つ目の機器が識別された後、当該1つ目の機器が有する機能の実行指示が与えられない間に、別の機器が識別された場合、端末装置16の制御部48は、当該複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させてもよい。例えば、図9又は図10に示すように、機能表示画面56,58が端末装置16のUI部46に表示されている状態で、ユーザによって機能の実行が指示される前に、別の機器が撮影された場合、端末装置16の制御部48は、最初に識別された機器と当該別の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。   As another example, when another device is identified after the first device is identified and an instruction to execute the function of the first device is not given, the control unit of the terminal device 16 48 may cause the UI unit 46 of the terminal device 16 to display information related to a cooperation function that uses the functions of the plurality of devices. For example, as shown in FIG. 9 or FIG. 10, in a state where the function display screens 56 and 58 are displayed on the UI unit 46 of the terminal device 16, another device may be connected before the execution of the function is instructed by the user. When the image is taken, the control unit 48 of the terminal device 16 causes the UI unit 46 of the terminal device 16 to display information related to the first identified device and a cooperation function that uses a function of the other device.

連携機能に関する情報の表示制御について更に詳しく説明する。例えば、マーカ型AR技術又はマーカレス型AR技術によって複数の機器が識別されるものとする。例えば、予め設定された撮影時間内に複数の機器が撮影された場合、端末装置16の制御部48は、当該撮影時間内に撮影された複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。撮影時間が延長された場合、端末装置16の制御部48は、その延長時間を含む撮影時間内に撮影された複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。その撮影時間内に撮影された複数の機器は、連携対象の機器として指定されたことになる。なお、複数の機器が撮影されると、マーカ型AR技術又はマーカレス型AR技術によって、当該複数の機器が識別される。この識別処理は、サーバ14によって行われてもよいし、端末装置16によって行われてもよい。   The display control of information related to the cooperation function will be described in more detail. For example, it is assumed that a plurality of devices are identified by the marker type AR technology or the markerless type AR technology. For example, when a plurality of devices are photographed within a preset photographing time, the control unit 48 of the terminal device 16 obtains information on a cooperation function that uses a function of the plurality of devices photographed within the photographing time. And displayed on the UI unit 46 of the terminal device 16. When the shooting time is extended, the control unit 48 of the terminal device 16 displays information related to the cooperation function using the functions of a plurality of devices shot within the shooting time including the extended time, as the UI unit of the terminal device 16. 46 is displayed. A plurality of devices photographed within the photographing time are designated as cooperation target devices. When a plurality of devices are photographed, the plurality of devices are identified by the marker type AR technology or the markerless type AR technology. This identification process may be performed by the server 14 or the terminal device 16.

例えば、1つの目の機器が撮影された時点から撮影時間内に、別の機器が撮影された場合、端末装置16の制御部48は、当該1つ目の機器と当該別の機器とを含む複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。この場合、1つ目の機器も、撮影時間内に撮影された機器として扱われる。   For example, when another device is photographed within the photographing time from the time when the first device is photographed, the control unit 48 of the terminal device 16 includes the first device and the another device. Information related to a cooperative function that uses functions of a plurality of devices is displayed on the UI unit 46 of the terminal device 16. In this case, the first device is also treated as a device that has been photographed within the photographing time.

また、1つ目の機器が撮影された時点から撮影時間内に別の機器が撮影された場合、端末装置16の制御部48は、当該別の機器が撮影された時点を開始時点とした新たな撮影時間を設定してもよい。以降についても同様であり、新たな撮影時間内に更に別の機器が撮影された場合、更に新たな撮影時間が設定される。この場合、端末装置16の制御部48は、全撮影時間内に撮影された複数の機器(1つ目の機器を含む)が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。   In addition, when another device is photographed within the photographing time from the time when the first device is photographed, the control unit 48 of the terminal device 16 newly starts from the time when the other device is photographed. An appropriate shooting time may be set. The same applies to the following, and when another device is photographed within the new photographing time, a new photographing time is set. In this case, the control unit 48 of the terminal device 16 uses the UI unit of the terminal device 16 to transmit information related to the cooperation function that uses the functions of a plurality of devices (including the first device) captured within the entire imaging time 46 is displayed.

別の例として、ユーザが指定した時点を撮影時間の開始時点として、その開始時点から撮影時間内に複数の機器が撮影された場合、端末装置16の制御部48は、当該複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。   As another example, when a plurality of devices are photographed within the photographing time from the start time when the time point specified by the user is the starting point of the photographing time, the control device 48 of the terminal device 16 has the plurality of devices. Information related to the cooperation function that uses the function is displayed on the UI unit 46 of the terminal device 16.

別の例として、複数の機器が撮影された後、連携機能の表示指示が与えられた場合に、端末装置16の制御部48は、当該複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させてもよい。   As another example, when a display instruction of a cooperation function is given after a plurality of devices are photographed, the control unit 48 of the terminal device 16 displays information on the cooperation function that uses the functions of the plurality of devices. The information may be displayed on the UI unit 46 of the terminal device 16.

別の例として、1つ目の機器が撮影された後、当該1つ目の機器が有する機能の実行指示が与えられない間に、別の機器が撮影された場合、端末装置16の制御部48は、当該複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させてもよい。例えば、図9又は図10に示すように、機能表示画面56,58が端末装置16のUI部46に表示されている状態で、ユーザによって機能の実行が指示される前に、別の機器が撮影された場合、端末装置16の制御部48は、最初に撮影された機器と当該別の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。   As another example, when another device is photographed after the first device is photographed and an instruction to execute the function of the first device is not given, the control unit of the terminal device 16 48 may cause the UI unit 46 of the terminal device 16 to display information related to a cooperation function that uses the functions of the plurality of devices. For example, as shown in FIG. 9 or FIG. 10, in a state where the function display screens 56 and 58 are displayed on the UI unit 46 of the terminal device 16, before the user instructs execution of the function, another device is connected. When the image is photographed, the control unit 48 of the terminal device 16 causes the UI unit 46 of the terminal device 16 to display information related to the cooperation function that uses the function of the first imaged device and the other device.

例えば、撮影時間内に複数の機器が撮影された場合(例えば、1つ目の機器が撮影された時点から撮影時間内に別の機器が撮影された場合や、ユーザが指定した開始時点から撮影時間内に複数の機器が撮影された場合)、端末装置16の制御部48は、その撮影で生成された複数の画像データをサーバ14に送信する。サーバ14の特定部38は、各画像データに基づいて各機器を特定(識別)し、識別された複数の機器が有する機能を利用する連携機能を特定する。その連携機能に関する情報は、サーバ14から端末装置16に送信されて、端末装置16のUI部46に表示される。もちろん、各機器が単独で有する機能が特定され、各機器が有する機能に関する情報が、サーバ14から端末装置16に送信されて、端末装置16のUI部46に表示されてもよい。   For example, when a plurality of devices are photographed within the photographing time (for example, when another device is photographed within the photographing time from the time when the first device is photographed, or from the start time specified by the user) When a plurality of devices are photographed in time), the control unit 48 of the terminal device 16 transmits the plurality of image data generated by the photographing to the server 14. The specifying unit 38 of the server 14 specifies (identifies) each device based on each image data, and specifies a cooperation function that uses functions of the plurality of identified devices. Information regarding the cooperation function is transmitted from the server 14 to the terminal device 16 and displayed on the UI unit 46 of the terminal device 16. Of course, a function that each device has independently may be specified, and information on a function that each device has may be transmitted from the server 14 to the terminal device 16 and displayed on the UI unit 46 of the terminal device 16.

別の例として、端末装置16の制御部48は、複数の機器が撮影された後、連携機能の表示指示が与えられた場合、その撮影で生成された複数の画像データをサーバ14に送信し、それに応じて、撮影された複数の機器が有する機能を利用する連携機能に関する情報をサーバ14から受信してもよい。   As another example, the control unit 48 of the terminal device 16 transmits a plurality of pieces of image data generated by the shooting to the server 14 when a display instruction for the cooperation function is given after a plurality of devices are shot. Accordingly, information related to a cooperation function that uses functions of a plurality of photographed devices may be received from the server 14.

別の例として、1つ目の機器が撮影された後、当該1つ目の機器が有する機能の実行指示が与えられる前に、別の機器が撮影された場合、端末装置16の制御部48は、その撮影で生成された複数の画像データをサーバ14に送信し、それに応じて、撮影された複数の機器が有する機能を利用する連携機能に関する情報をサーバ14から受信してもよい。   As another example, when another device is photographed after the first device is photographed and before an instruction to execute a function of the first device is given, the control unit 48 of the terminal device 16. May transmit a plurality of pieces of image data generated by the shooting to the server 14 and, in response thereto, may receive information from the server 14 regarding a cooperation function that uses functions of the plurality of devices that have been shot.

別の例として、端末装置16の制御部48は、機器が撮影されて画像データが生成される度に、その画像データをサーバ14に送信し、それに応じて、撮影された複数の機器が有する機能を利用する連携機能に関する情報をサーバ14から受信してもよい。この場合、端末装置16の制御部48は、撮影時間内に複数の機器が撮影された場合、当該複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。   As another example, the control unit 48 of the terminal device 16 transmits the image data to the server 14 each time the device is photographed and image data is generated, and the plurality of devices photographed accordingly have the image data. Information regarding the cooperative function that uses the function may be received from the server 14. In this case, when a plurality of devices are photographed within the photographing time, the control unit 48 of the terminal device 16 displays information related to the cooperation function that uses the functions of the plurality of devices on the UI unit 46 of the terminal device 16. Let

以下、機能に関する情報の別の表示例について説明する。   Hereinafter, another display example of information regarding functions will be described.

図13には、単独利用機能の表示例が示されている。端末装置16の制御部48は、機器表示画面52を端末装置16のUI部46に表示させ、その機器表示画面52に、撮影された機器(例えば画像形成装置10)を表わす機器画像54と、当該機器が有する機能に関する情報を表示させる。図13に示す例では、吹き出しの形状を有する表示領域76に、画像形成装置10が有する機能に関する情報(例えば各機能の名称)が表示されている。表示領域76の形状は一例に過ぎず、別の形状を有する表示領域76が表示されてもよい。表示領域76内に表示された機能に関する情報がユーザによって指定されて、機能の実行指示が与えられると、その指定された機能が実行される。   FIG. 13 shows a display example of the single use function. The control unit 48 of the terminal device 16 displays the device display screen 52 on the UI unit 46 of the terminal device 16, and the device display screen 52 displays a device image 54 representing a photographed device (for example, the image forming apparatus 10) Information on the functions of the device is displayed. In the example illustrated in FIG. 13, information (for example, the name of each function) related to the function of the image forming apparatus 10 is displayed in the display area 76 having a balloon shape. The shape of the display area 76 is merely an example, and a display area 76 having another shape may be displayed. When information related to the function displayed in the display area 76 is designated by the user and a function execution instruction is given, the designated function is executed.

図14には、連携機能の表示例が示されている。端末装置16の制御部48は、機器表示画面68を端末装置16のUI部46に表示させ、その機器表示画面68に、撮影された複数の機器(例えば画像形成装置10とプロジェクタ12)を表わす機器画像70,72を表示させる。さらに、端末装置16の制御部48は、機器表示画面68に、当該複数の機器が有する機能を利用する連携機能に関する情報を表示させる。図14に示す例では、吹き出しの形状を有する表示領域78に、連携機能に関する情報(例えば、連携機能の名称や説明文)が表示されている。表示領域78は一例に過ぎず、別の形状を有する表示領域78が表示されてもよい。表示領域78内に表示された連携機能に関する情報がユーザによって指定されて、連携機能の実行指示が与えられると、その指定された連携機能が実行される。   FIG. 14 shows a display example of the cooperation function. The control unit 48 of the terminal device 16 displays a device display screen 68 on the UI unit 46 of the terminal device 16, and the device display screen 68 represents a plurality of photographed devices (for example, the image forming apparatus 10 and the projector 12). Device images 70 and 72 are displayed. Furthermore, the control unit 48 of the terminal device 16 causes the device display screen 68 to display information related to the cooperation function that uses the functions of the plurality of devices. In the example illustrated in FIG. 14, information related to the cooperation function (for example, the name and description of the cooperation function) is displayed in the display area 78 having a balloon shape. The display area 78 is only an example, and a display area 78 having another shape may be displayed. When information related to the cooperation function displayed in the display area 78 is designated by the user and an instruction to execute the cooperation function is given, the designated cooperation function is executed.

また、端末装置16の制御部48は、連携対象の各機器が有する単独利用機能に関する情報を、機器表示画面68に表示させてもよい。図14に示す例では、吹き出しの形状を有する表示領域80に、画像形成装置10が有する機能に関する情報が表示されており、吹き出しの形状を有する表示領域82に、プロジェクタ12が有する機能に関する情報が表示されている。端末装置16の制御部48は、連携機能に関する情報と単独利用機能に関する情報とを区別して機器表示画面68に表示させてもよい。例えば、表示領域78は、表示領域80,82とは異なる色で表示されてもよいし、表示領域78の形状は、表示領域80,82の形状とは異なる形状であってもよい。別の例として、表示領域78,80,82の表示位置が、単独利用機能と連携機能とで異なっていてもよい。例えば、表示領域80は、対応する機器画像70の近くに表示され、表示領域82は、対応する機器画像72の近くに表示され、表示領域78は、表示領域80,82よりも機器画像70,72から離れた位置に表示される。このように、表示領域78と表示領域80,82とを区別して表示することにより、ユーザにおいて、単独利用機能と連携機能との区別が容易となる。   Further, the control unit 48 of the terminal device 16 may cause the device display screen 68 to display information related to the single use function of each cooperation target device. In the example shown in FIG. 14, information related to the function of the image forming apparatus 10 is displayed in the display area 80 having a balloon shape, and information related to the function of the projector 12 is displayed in the display area 82 having a balloon shape. It is displayed. The control unit 48 of the terminal device 16 may display information on the cooperation function and information on the single use function on the device display screen 68 separately. For example, the display area 78 may be displayed in a different color from the display areas 80 and 82, and the shape of the display area 78 may be different from the shape of the display areas 80 and 82. As another example, the display positions of the display areas 78, 80, and 82 may be different between the single use function and the cooperation function. For example, the display region 80 is displayed near the corresponding device image 70, the display region 82 is displayed near the corresponding device image 72, and the display region 78 is more device image 70, than the display regions 80, 82. It is displayed at a position away from 72. Thus, by displaying the display area 78 and the display areas 80 and 82 separately, the user can easily distinguish between the single use function and the cooperation function.

端末装置16の制御部48は、ユーザの指示に応じて、単独利用機能に関する情報の表示や連携機能に関する情報の表示を制御してもよい。例えば、ユーザが機器画像(例えば機器画像70)を指定した場合に、端末装置16の制御部48は、指定された機器画像に紐付く機器(例えば画像形成装置10)が有する機能に関する情報を、機器表示画面68に表示させてもよい。ユーザが機器画像を指定して単独利用機能の表示指示を与えた場合に、端末装置16の制御部48は、指定された機器画像に紐付く機器が有する機能に関する情報を、機器表示画面68に表示させてもよい。ユーザが複数の機器画像(例えば機器画像70,72)を指定した場合に、端末装置16の制御部48は、指定された複数の機器画像に紐付く複数の機器(例えば画像形成装置10とプロジェクタ12)が有する機能を利用する連携機能に関する情報を、機器表示画面68に表示させてもよい。例えば、1つめの機器画像がユーザによって指定された後に、予め設定された時間内に他の機器画像がユーザによって指定された場合、端末装置16の制御部48は、それら複数の機器画像に紐付く複数の機器が有する機能を利用する連携機能に関する情報を、機器表示画面68に表示させる。別の例として、ユーザが複数の機器画像を指定して連携機能の表示指示を与えた場合に、端末装置16の制御部48は、指定された複数の機器画像に紐付く複数の機器が有する機能を利用する連携機能に関する情報を、機器表示画面68に表示させてもよい。   The control unit 48 of the terminal device 16 may control the display of information related to the single use function and the display of information related to the cooperation function in accordance with a user instruction. For example, when the user designates a device image (for example, device image 70), the control unit 48 of the terminal device 16 obtains information on the functions of the device (for example, the image forming apparatus 10) associated with the designated device image. You may display on the apparatus display screen 68. FIG. When the user designates a device image and gives a display instruction for a single use function, the control unit 48 of the terminal device 16 displays information related to the function of the device associated with the designated device image on the device display screen 68. It may be displayed. When the user designates a plurality of device images (for example, device images 70 and 72), the control unit 48 of the terminal device 16 causes a plurality of devices (for example, the image forming apparatus 10 and the projector) associated with the designated plurality of device images. Information related to the linkage function that uses the function of 12) may be displayed on the device display screen 68. For example, after the first device image is designated by the user, when another device image is designated by the user within a preset time, the control unit 48 of the terminal device 16 associates the plurality of device images with the device image. Information related to a cooperation function that uses functions of a plurality of attached devices is displayed on the device display screen 68. As another example, when the user designates a plurality of device images and gives a display instruction for the cooperation function, the control unit 48 of the terminal device 16 has a plurality of devices associated with the designated plurality of device images. Information related to the cooperation function that uses the function may be displayed on the device display screen 68.

以上のように、本実施形態によると、1つの機器が識別(例えば撮影)された場合、当該1つの機器が有する機能に関する情報が表示され、複数の機器が識別(例えば撮影)された場合、当該複数の機器が有する機能を利用する連携機能に関する情報が表示される。これにより、識別(例えば撮影)された機器を利用して実行可能な機能の情報がユーザに提供され、ユーザにとって便利である。   As described above, according to the present embodiment, when one device is identified (for example, photographed), information on the function of the one device is displayed, and when a plurality of devices are identified (for example, photographed), Information related to a cooperative function that uses the functions of the plurality of devices is displayed. Accordingly, information on functions that can be executed using the identified (eg, photographed) device is provided to the user, which is convenient for the user.

また、連携機能を実行することにより、個々の機器が単独では実行できない機能が実行されるので、便利である。   Also, by executing the linkage function, a function that cannot be executed by each individual device is executed, which is convenient.

また、AR技術を適用して機器を識別するだけで単独利用機能や連携機能の利用が可能になるため、機能を実行するための設定等をユーザがマニュアル操作で行う場合と比べて、簡単な作業で各機能の利用が可能となり、ユーザの手間も軽減する。   In addition, since the single use function and the cooperation function can be used only by identifying the device by applying the AR technology, it is simpler than the case where the user performs the setting for executing the function manually. Each function can be used in the work, reducing the user's trouble.

また、本実施形態によると、例えば、複数の機器を複数のユーザが利用するという環境において、単独利用機能に関する情報や連携機能に関する情報が端末装置16に適切に表示される。例えば、機器からタッチパネル等のユーザインターフェースが取り除かれた場合であっても、端末装置16がユーザインターフェースとして用いられる。別の場面として、例えば、ユーザの出先等で機器が一時的に利用される場合に、当該ユーザに適したユーザインターフェース、つまり、当該ユーザによって指定された機器が有する機能やその機器を利用する連携機能が表示されたユーザインターフェースが、端末装置16にて実現される。   Further, according to the present embodiment, for example, in an environment where a plurality of users use a plurality of devices, information related to the single use function and information related to the link function are appropriately displayed on the terminal device 16. For example, even when a user interface such as a touch panel is removed from the device, the terminal device 16 is used as the user interface. As another scene, for example, when a device is temporarily used at a user's destination, etc., a user interface suitable for the user, that is, a function of the device specified by the user and cooperation using the device A user interface on which the function is displayed is realized by the terminal device 16.

なお、上記の実施形態では、2つの機器を利用する連携機能について説明したが、もちろん、連携機能は、3つ以上の機器を利用する機能であってもよい。   In the above-described embodiment, the cooperation function using two devices has been described. Of course, the cooperation function may be a function using three or more devices.

また、複数の機器が識別(例えば撮影)された場合であっても、ユーザによって指定された機器が、連携対象の機器から除外されてもよい。   Further, even when a plurality of devices are identified (for example, photographed), the device specified by the user may be excluded from the devices to be linked.

(変形例1)
以下、変形例1について説明する。変形例1においては、複数の機器が識別されており、連携機能に関する情報が表示されるものとする。機器は、上述した実施形態と同様に、AR技術を用いることによって識別されてもよいし、AR技術以外の技術を用いることによって識別されてもよい。機器の識別処理は、サーバ14によって行われてもよいし、端末装置16によって行われてもよい。
(Modification 1)
Hereinafter, Modification 1 will be described. In the first modification, it is assumed that a plurality of devices are identified and information regarding the cooperation function is displayed. The device may be identified by using the AR technology as in the above-described embodiment, or may be identified by using a technology other than the AR technology. The device identification process may be performed by the server 14 or the terminal device 16.

変形例1においては、端末装置16の制御部48は、機器表示画面68における機器画像の表示位置に応じて連携機能を変えて、その連携機能に関する情報を端末装置16のUI部46に表示させる。例えば、機器画像の表示位置に応じて、連携機能で利用される各機器の利用の順番が変更され、端末装置16の制御部48は、その利用順番に従った連携機能に関する情報を端末装置16のUI部46に表示させる。換言すると、機器画像の表示位置に応じて、連携機能で利用される各機器の間を移動するデータの移動順番が変更され、端末装置16の制御部48は、その移動順番に従った連携機能に関する情報を端末装置16のUI部46に表示させる。以下、変形例1について詳しく説明する。   In the first modification, the control unit 48 of the terminal device 16 changes the cooperation function according to the display position of the device image on the device display screen 68 and causes the UI unit 46 of the terminal device 16 to display information related to the cooperation function. . For example, the order of use of each device used in the cooperation function is changed according to the display position of the device image, and the control unit 48 of the terminal device 16 provides information on the cooperation function according to the use order to the terminal device 16. Are displayed on the UI part 46 of FIG. In other words, according to the display position of the device image, the movement order of the data moving between the devices used in the cooperation function is changed, and the control unit 48 of the terminal device 16 performs the cooperation function according to the movement order. Information on the terminal device 16 is displayed on the UI unit 46. Hereinafter, Modification 1 will be described in detail.

図15には、変形例1に係る機器表示画面68が示されている。機器表示画面68には、例えば、境界線84によって、起点となる機器に紐付く機器画像が表示される起点表示領域86と、次の連携先となる機器に紐付く機器画像が表示される連携先表示領域88と、が予め設定されている。一例として、機器表示画面68は左右に分割され、左側に起点表示領域86が設定され、右側に連携先表示領域88が設定されている。もちろん、境界線84や表示領域を示す文字列(例えば、「左」や「右」)は、表示されなくてもよい。図15に示す例では、起点表示領域86には機器画像70が表示されており、連携先表示領域88には機器画像72が表示されている。そのため、機器画像70に紐付く画像形成装置10(複合機(B))が起点の機器として指定され、機器画像72に紐付くプロジェクタ12(プロジェクタ(C))が連携先の機器として指定される。この場合、端末装置16の制御部48は、画像形成装置10を起点の機器として利用するとともにプロジェクタ12を連携先の機器として利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。端末装置16の制御部48は、例えば、起点の機器としての画像形成装置10を先に利用し、次に、連携先の機器としてのプロジェクタ12を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。換言すると、端末装置16の制御部48は、起点の機器としての画像形成装置10から連携先の機器としてのプロジェクタ12にデータを移動させる連携機能に関する情報を、端末装置16のUI部46に表示させる。なお、機器画像70,72は、カメラによる撮影によって生成された画像であってもよいし、模式的な画像(例えばアイコン)であってもよい。   FIG. 15 shows a device display screen 68 according to the first modification. In the device display screen 68, for example, a start point display area 86 in which a device image associated with the device as a starting point is displayed by a boundary line 84, and a cooperation in which a device image associated with the next device to be linked is displayed. A pre-display area 88 is preset. As an example, the device display screen 68 is divided into right and left, a starting point display area 86 is set on the left side, and a cooperation destination display area 88 is set on the right side. Of course, the boundary line 84 and the character string indicating the display area (for example, “left” and “right”) may not be displayed. In the example shown in FIG. 15, the device image 70 is displayed in the starting point display area 86, and the device image 72 is displayed in the cooperation destination display area 88. Therefore, the image forming apparatus 10 (multifunction device (B)) associated with the device image 70 is designated as the starting device, and the projector 12 (projector (C)) associated with the device image 72 is designated as the cooperation destination device. . In this case, the control unit 48 of the terminal device 16 causes the UI unit 46 of the terminal device 16 to display information related to a cooperation function that uses the image forming apparatus 10 as a starting device and uses the projector 12 as a cooperation destination device. . For example, the control unit 48 of the terminal device 16 uses the image forming apparatus 10 as a starting device first, and then uses the projector 12 as a cooperation destination device to obtain information on the cooperation function of the terminal device 16. It is displayed on the UI unit 46. In other words, the control unit 48 of the terminal device 16 displays, on the UI unit 46 of the terminal device 16, information related to the cooperation function that moves data from the image forming apparatus 10 as the starting device to the projector 12 as the cooperation destination device. Let The device images 70 and 72 may be images generated by photographing with a camera or may be schematic images (for example, icons).

図16には、連携機能に関する情報の表示例が示されている。端末装置16のUI部46には機能表示画面90が表示され、その機能表示画面90中に、画像形成装置10を起点の機器として利用するとともにプロジェクタ12を連携先の機器として利用する連携機能に関する情報が表示される。図16に示す例では、その連携機能は、スキャンで得られた画像データを画像形成装置10(複合機(B))からプロジェクタ12(プロジェクタ(C))に移動させ、プロジェクタ12にて画像を投影する機能である。具体的には、その連携機能が実行されると、画像形成装置10が起点の機器として利用され、その画像形成装置10によるスキャンによって生成された画像データが、連携先の機器としてのプロジェクタ12に送信され、プロジェクタ12によって画像が投影される。   FIG. 16 shows a display example of information related to the cooperation function. A function display screen 90 is displayed on the UI unit 46 of the terminal device 16, and the function display screen 90 relates to a cooperation function that uses the image forming apparatus 10 as a starting device and uses the projector 12 as a cooperation destination device. Information is displayed. In the example shown in FIG. 16, the cooperation function moves image data obtained by scanning from the image forming apparatus 10 (multifunction device (B)) to the projector 12 (projector (C)), and the projector 12 displays the image. It is a function to project. Specifically, when the cooperation function is executed, the image forming apparatus 10 is used as a starting device, and image data generated by scanning by the image forming apparatus 10 is transmitted to the projector 12 as a cooperation destination device. Then, the image is projected by the projector 12.

図17には、変形例1に係る機器表示画面68の別の例が示されている。機器表示画面68には、境界線84によって、起点表示領域92と連携先表示領域94が設定されている。図15に示す例とは異なり、機器表示画面68において、右側に起点表示領域92が設定され、左側に連携先表示領域94が設定されている。この場合、機器画像72に紐付くプロジェクタ12(プロジェクタ(C))が起点の機器として指定され、機器画像70に紐付く画像形成装置10(複合機(B))が連携先の機器として指定される。この場合、端末装置16の制御部48は、プロジェクタ12を起点の機器として利用するとともに画像形成装置10を連携先の機器として利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。端末装置16の制御部48は、例えば、起点の機器としてのプロジェクタ12を先に利用し、次に、連携先の機器としての画像形成装置10を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。換言すると、端末装置16の制御部48は、起点の機器としてのプロジェクタ12から連携先の機器としての画像形成装置10にデータを移動させる連携機能に関する情報を、端末装置16のUI部46に表示させる。   FIG. 17 shows another example of the device display screen 68 according to the first modification. On the device display screen 68, a starting point display area 92 and a cooperation destination display area 94 are set by a boundary line 84. Unlike the example shown in FIG. 15, in the device display screen 68, a starting point display area 92 is set on the right side, and a cooperation destination display area 94 is set on the left side. In this case, the projector 12 (projector (C)) associated with the device image 72 is designated as the starting device, and the image forming apparatus 10 (multifunction device (B)) associated with the device image 70 is designated as the cooperation destination device. The In this case, the control unit 48 of the terminal device 16 causes the UI unit 46 of the terminal device 16 to display information related to a cooperation function that uses the projector 12 as a starting device and uses the image forming apparatus 10 as a cooperation destination device. . For example, the control unit 48 of the terminal device 16 uses the projector 12 as the starting device first, and then uses the image forming apparatus 10 as the cooperation destination device to obtain information regarding the cooperation function of the terminal device 16. It is displayed on the UI unit 46. In other words, the control unit 48 of the terminal device 16 displays, on the UI unit 46 of the terminal device 16, information related to the cooperation function that moves data from the projector 12 as the starting device to the image forming apparatus 10 as the cooperation destination device. Let

図18には、連携機能に関する情報の表示例が示されている。端末装置16のUI部46には機能表示画面96が表示され、その機能表示画面96中に、プロジェクタ12を起点の機器として利用するとともに画像形成装置10を連携先の機器として利用する連携機能に関する情報が表示される。図18に示す例では、その連携機能は、投影されている画像を印刷(プリント)機能である。具体的には、その連携機能が実行されると、プロジェクタ12が起点の機器として利用され、そのプロジェクタ12に投影されている画像データが、連携先の機器としての画像形成装置10に送信され、画像形成装置10によってその画像データが印刷される。   FIG. 18 shows a display example of information related to the cooperation function. A function display screen 96 is displayed on the UI unit 46 of the terminal device 16, and the function display screen 96 relates to a cooperation function that uses the projector 12 as a starting device and uses the image forming apparatus 10 as a cooperation destination device. Information is displayed. In the example shown in FIG. 18, the cooperation function is a function for printing a projected image. Specifically, when the cooperation function is executed, the projector 12 is used as a starting device, and image data projected on the projector 12 is transmitted to the image forming apparatus 10 as a cooperation destination device. The image data is printed by the image forming apparatus 10.

変形例1においては、端末装置16は、起点表示領域86(92)に表示されている機器画像のデータを、起点機器の画像データとしてサーバ14に送信し、連携先表示領域88(94)に表示されている機器画像のデータを、連携先機器の画像データとしてサーバ14に送信する。サーバ14の特定部38は、起点機器の画像データに紐付く機器を起点機器として扱い、連携先機器の画像データに紐付く機器を連携先機器として扱う。サーバ14には、変形例1に係る連携機能管理テーブルのデータが記憶されており、その連携機能管理テーブルにおいては、起点機器の機器識別情報と、連携先機能の機器識別情報と、連携機能識別情報と、が互いに対応付けられている。サーバ14の特定部38は、その連携機能管理テーブルにおいて、起点機器として特定された機器の機器識別情報と、連携先機器として特定された機器の機器識別情報と、に対応付けられている連携機能識別情報を特定する。例えば、起点機器としての画像形成装置10の機器識別情報と、連携先機器としてのプロジェクタ12の機器識別情報と、スキャンで得られた画像を投影する連携機能(図16に示す連携機能)の連携機能識別情報と、が互いに対応付けられている。また、起点機器としてのプロジェクタ12の機器識別情報と、連携先機器としての画像形成装置10の機器識別情報と、投影している画像を印刷する連携機能(図18に示す連携機能)の連携機能識別情報と、が互いに対応付けられている。従って、変形例1に係る連携機能管理テーブルを参照することにより、起点機器と連携先機器が有する機能を利用する連携機能が特定される。   In the first modification, the terminal device 16 transmits the device image data displayed in the starting point display area 86 (92) to the server 14 as image data of the starting point device, and displays it in the cooperation destination display area 88 (94). The displayed device image data is transmitted to the server 14 as image data of the cooperation destination device. The specifying unit 38 of the server 14 treats the device associated with the image data of the origin device as the origin device, and treats the device associated with the image data of the collaboration destination device as the collaboration destination device. The server 14 stores data of the cooperation function management table according to the first modification. In the cooperation function management table, the device identification information of the originating device, the device identification information of the cooperation destination function, and the cooperation function identification are stored. Information is associated with each other. The specifying unit 38 of the server 14 has a cooperation function associated with the device identification information of the device specified as the starting device and the device identification information of the device specified as the cooperation destination device in the cooperation function management table. Identify identification information. For example, the device identification information of the image forming apparatus 10 as a starting device, the device identification information of the projector 12 as a cooperation destination device, and the cooperation function (the cooperation function shown in FIG. 16) for projecting an image obtained by scanning. Function identification information is associated with each other. Also, the cooperation function of the device identification information of the projector 12 as the starting device, the device identification information of the image forming apparatus 10 as the cooperation destination device, and the cooperation function (cooperation function shown in FIG. 18) for printing the projected image. Identification information is associated with each other. Therefore, by referring to the cooperation function management table according to the first modification, the cooperation function that uses the functions of the originating device and the cooperation destination device is specified.

変形例1において、機器画像の表示位置が変えられるようにしてもよい。この場合、機器画像が表示される機器表示画面は、機器画像の表示位置を変えるための編集画面として機能することになる。なお、撮影している状態で画面を編集画面へ移行させてもよいし、予め機器画像の撮影が完了している又は機器画像を受け渡されている等して、機器画像を保有している状態で、連携機能を指示するための編集画面を立ち上げてもよい。もちろん、別の手法によって画面を編集画面に移行させてもよい。例えば図19に示すように、起点表示領域86に機器画像70が表示されており、連携先表示領域88に機器画像72が表示されているものとする。例えば、ユーザが、矢印98で示す方向に、機器画像70を起点表示領域86から連携先表示領域88に移動させた場合、端末装置16の制御部48は、その移動指示に従って、機器画像70を連携先表示領域88に表示させ、機器画像70を起点表示領域86に表示させない。これにより、機器画像70に紐付く画像形成装置10(複合機(B))は、連携先の機器として特定(識別)されることになる。また、ユーザが、矢印100で示す方向に、機器画像72を連携先表示領域88から起点表示領域86に移動させた場合、端末装置16の制御部48は、その移動指示に従って、機器画像72を起点表示領域86に表示させ、機器画像72を連携先表示領域88に表示させない。これにより、機器画像72に紐付くプロジェクタ12(プロジェクタ(C))は、起点の機器として特定(識別)されることになる。表示位置の変更後、ユーザが連携機能の表示指示を与えた場合に、変更後の表示位置に対応する連携機能に関する情報が端末装置16のUI部46に表示されてもよいし、ユーザが連携機能の表示指示を与えなくても、表示位置の変更に伴って、変更後の表示位置に対応する連携機能に関する情報が端末装置16のUI部46に表示されてもよい。   In the first modification, the display position of the device image may be changed. In this case, the device display screen on which the device image is displayed functions as an editing screen for changing the display position of the device image. In addition, the screen may be shifted to the editing screen in the shooting state, or the device image is held because the device image shooting has been completed in advance or the device image has been delivered. In this state, an edit screen for instructing the linkage function may be launched. Of course, the screen may be transferred to the editing screen by another method. For example, as illustrated in FIG. 19, it is assumed that the device image 70 is displayed in the start point display area 86 and the device image 72 is displayed in the cooperation destination display area 88. For example, when the user moves the device image 70 from the starting point display region 86 to the cooperation destination display region 88 in the direction indicated by the arrow 98, the control unit 48 of the terminal device 16 displays the device image 70 according to the movement instruction. The device image 70 is not displayed in the starting point display region 86 and displayed in the cooperation destination display region 88. As a result, the image forming apparatus 10 (multifunction device (B)) associated with the device image 70 is specified (identified) as a cooperation destination device. When the user moves the device image 72 from the cooperation destination display region 88 to the starting point display region 86 in the direction indicated by the arrow 100, the control unit 48 of the terminal device 16 displays the device image 72 according to the movement instruction. The device image 72 is not displayed in the cooperation destination display region 88 while being displayed in the start point display region 86. Thus, the projector 12 (projector (C)) associated with the device image 72 is specified (identified) as the starting device. When the user gives a display instruction for the cooperation function after the display position is changed, information regarding the cooperation function corresponding to the display position after the change may be displayed on the UI unit 46 of the terminal device 16 or the user may cooperate. Even if the display instruction of the function is not given, information on the cooperation function corresponding to the display position after the change may be displayed on the UI unit 46 of the terminal device 16 according to the change of the display position.

上記の変形例1では、機器表示画面68が左右の方向に分割されているが、これは一例に過ぎず、上下方向に分割されて、起点表示領域と連携先表示領域が上下方向に並んで表示されてもよい。別の例として、起点表示領域が画面の中央付近に表示され、その起点表示領域を囲むように連携先表示領域が表示されてもよいし、それとは逆に、連携先表示領域が画面の中央付近に表示され、その連携先表示領域を囲むように起点表示領域が表示されてもよい。   In the first modification described above, the device display screen 68 is divided in the left-right direction. However, this is only an example, and the display screen 68 is divided in the vertical direction, and the start point display area and the cooperation destination display area are aligned in the vertical direction. May be displayed. As another example, the start point display area may be displayed near the center of the screen, and the link destination display area may be displayed so as to surround the start point display area. Conversely, the link destination display area is displayed at the center of the screen. The starting point display area may be displayed so as to be displayed in the vicinity and surround the cooperation destination display area.

また、上記の変形例1では、2つの機器を利用する連携機能について説明したが、もちろん、連携機能は3つ以上の機器を利用する機能であってもよい。例えば、端末装置16の制御部48は、複数の連携先表示領域を機器表示画面68に表示させる。各連携先表示領域には利用順番が予め設定されており、その利用順番に従って、各機器の利用の順番(連携の順番)が決定される。例えば、1番目の連携先表示領域に表示されている機器画像に紐付く機器は、1番目の連携先機器として利用され、2番目の連携先表示領域に表示されている機器画像に紐付く機器は、2番目の連携先機器として利用される。この場合の連携機能は、起点の機器が最初に利用され、次に、1番目の連携先機器が利用され、次に、2番目の連携先機器が利用される機能である。換言すると、その連携機能は、データが、起点の機器、1番目の連携先機器、2番目の連携先機器の順番で移動する機能である。各連携先表示領域に設定されている利用順番は、ユーザによって変更されてもよい。   In the first modification, the cooperation function that uses two devices has been described. Of course, the cooperation function may be a function that uses three or more devices. For example, the control unit 48 of the terminal device 16 displays a plurality of cooperation destination display areas on the device display screen 68. The order of use is set in advance in each cooperation destination display area, and the order of use of each device (order of cooperation) is determined according to the use order. For example, the device associated with the device image displayed in the first cooperation destination display area is used as the first cooperation destination device, and the device associated with the device image displayed in the second cooperation destination display area. Is used as the second cooperation destination device. The cooperation function in this case is a function in which the starting device is used first, then the first cooperation destination device is used, and then the second cooperation destination device is used. In other words, the cooperation function is a function in which data moves in the order of the starting device, the first cooperation destination device, and the second cooperation destination device. The use order set in each cooperation destination display area may be changed by the user.

以上のように、変形例1によると、機器画像の表示位置に応じて連携機能が変更されるので、連携機能の変更の操作性が向上する。また、簡単な操作で連携機能が変更される。   As described above, according to the first modification, the cooperation function is changed according to the display position of the device image, so that the operability of changing the cooperation function is improved. Moreover, a cooperation function is changed by simple operation.

(変形例2)
以下、変形例2について説明する。変形例2においては、上記の変形例1と同様に、複数の機器が識別されているものとする。また、機器画像の表示位置に応じて、単独利用機能に関する情報、又は、連携機能に関する情報、のいずれかが表示される。
(Modification 2)
Hereinafter, Modification 2 will be described. In the second modification, as in the first modification, a plurality of devices are identified. In addition, according to the display position of the device image, either information related to the single use function or information related to the cooperation function is displayed.

例えば、端末装置16のUI部46に表示されている機器表示画面上において、複数の機器画像が特定の方向(例えば左右方向)に並べられた場合、端末装置16の制御部48は、当該複数の機器画像に紐付く複数の機器が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。例えば図20に示すように、機器表示画面68が境界線102によって左右に分割され、左側の領域104に機器画像70が表示され、右側の領域106に機器画像72が表示された場合、端末装置16の制御部48は、機器画像70に紐付く画像形成装置10と機器画像72に紐付くプロジェクタ12を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。変形例1と同様に、領域104,106の中の1つの領域が起点表示領域として用いられ、他の領域が連携先表示領域として用いられてもよい。   For example, when a plurality of device images are arranged in a specific direction (for example, the left-right direction) on the device display screen displayed on the UI unit 46 of the terminal device 16, the control unit 48 of the terminal device 16 The UI unit 46 of the terminal device 16 displays information related to a cooperation function that uses functions of a plurality of devices associated with the device image. For example, as shown in FIG. 20, when the device display screen 68 is divided into right and left by the boundary line 102, the device image 70 is displayed in the left region 104, and the device image 72 is displayed in the right region 106, the terminal device 16 control unit 48 causes UI unit 46 of terminal device 16 to display information related to a cooperation function that uses image forming apparatus 10 associated with device image 70 and projector 12 associated with device image 72. As in the first modification, one of the areas 104 and 106 may be used as the start point display area, and the other area may be used as the cooperation destination display area.

機器表示画面上において、複数の機器画像が上記特定の方向と交差する方向(例えば上下方向)に並べられた場合、端末装置16の制御部48は、各機器画像に紐付く各機器が有する機能(単独利用機能)に関する情報を、端末装置16のUI部46に表示させる。例えば図21に示すように、機器表示画面68が境界線108によって上下に分割され、上側の領域110に機器画像70が表示され、下側の領域112に機器画像72が表示された場合、端末装置16の制御部48は、機器画像70に紐付く画像形成装置10が有する機能(単独利用機能)に関する情報と、機器画像72に紐付くプロジェクタ12が有する機能(単独利用機能)に関する情報を、端末装置16のUI部46に表示させる。   When a plurality of device images are arranged on the device display screen in a direction (for example, the vertical direction) intersecting the specific direction, the control unit 48 of the terminal device 16 has a function that each device associated with each device image has. Information regarding (single use function) is displayed on the UI unit 46 of the terminal device 16. For example, as shown in FIG. 21, when the device display screen 68 is vertically divided by the boundary line 108, the device image 70 is displayed in the upper region 110, and the device image 72 is displayed in the lower region 112, the terminal The control unit 48 of the device 16 includes information on the function (single use function) of the image forming apparatus 10 associated with the device image 70 and information on the function (single use function) of the projector 12 associated with the device image 72. It is displayed on the UI unit 46 of the terminal device 16.

なお、境界線102,108や、左右や上下の文字列は表示されてもよいし、表示されなくてもよい。   The boundary lines 102 and 108 and the left and right and upper and lower character strings may be displayed or may not be displayed.

例えば、ユーザが端末装置16のUI部46を利用して、連携機能用の表示領域の表示指示を与えた場合、端末装置16の制御部48は、図20に示すように、機器表示画面68を左右に分割して、領域104,106を設定する。一方、ユーザが、単独利用機能用の表示領域の表示指示を与えた場合、端末装置16の制御部48は、図21に示すように、機器表示画面68を上下に分割して、領域110,112を設定する。もちろん、表示領域の表示指示がユーザによって与えられなくても、複数の機器画像が左右の方向に並べられた場合、連携機能に関する情報が表示され、複数の機器画像が上下の方向に並べられた場合、単独利用機能に関する情報が表示されてもよい。   For example, when the user gives an instruction to display the display area for the cooperation function using the UI unit 46 of the terminal device 16, the control unit 48 of the terminal device 16 displays the device display screen 68 as shown in FIG. Are divided into right and left to set areas 104 and 106. On the other hand, when the user gives an instruction to display the display area for the single use function, the control unit 48 of the terminal device 16 divides the device display screen 68 vertically as shown in FIG. 112 is set. Of course, even if the display instruction for the display area is not given by the user, when a plurality of device images are arranged in the left and right direction, information about the linkage function is displayed, and the plurality of device images are arranged in the up and down direction. In this case, information on the single use function may be displayed.

複数の機器画像が左右方向に並べられた場合に、単独利用機能に関する情報が表示され、複数の機器画像が上下方向に並べられた場合に、連携機能に関する情報が表示されてもよい。もちろん、これら以外の方向に複数の機器画像が並べられた場合に、その方向に応じて、単独利用機能に関する情報、又は、連携機能に関する情報、のいずれかが表示されてもよい。   Information regarding the single use function may be displayed when a plurality of device images are arranged in the left-right direction, and information regarding the cooperation function may be displayed when a plurality of device images are arranged in the vertical direction. Of course, when a plurality of device images are arranged in directions other than these, either information regarding the single use function or information regarding the cooperation function may be displayed according to the direction.

以上のように、変形例2によると、複数の機器画像の表示位置に応じて、単独利用機能に関する情報、又は、連携機能に関する情報が表示されるので、簡単な操作で、それらの情報が切り替えられて表示される。   As described above, according to the second modification, information on a single use function or information on a linkage function is displayed according to the display positions of a plurality of device images, so that the information can be switched with a simple operation. Displayed.

(変形例3)
以下、変形例3について説明する。変形例3においては、撮影された機器に紐付く機器画像が予め設定された領域基準を満たさない場合、当該機器は利用対象の機器として識別されない。例えば図22に示すように、複合機(B)としての画像形成装置10がカメラ42によって撮影されているものとする。画像形成装置10の手前側に(画像形成装置10と端末装置16との間に)、障害物としての植木が配置されており、画像形成装置10に紐付く機器画像70(例えばカメラ42による撮影で生成された画像)には、植木の画像114が重なっている。つまり、機器画像70が障害物の画像によって欠損している。この場合、画像形成装置10は利用対象の機器として識別されない。例えば、機器に対する撮影で得られた外観画像データが、端末装置16からサーバ14に送信され、サーバ14の特定部38は、その外観画像データに基づいて機器を特定(識別)する。この場合、外観画像データに欠損部分が含まれている場合、サーバ14の特定部38は、その外観画像データに基づいて機器を特定(識別)しない。これにより、欠損部分を含む外観画像データに紐付く機器(例えば画像形成装置10)は、利用対象の機器として識別されないことになる。
(Modification 3)
Hereinafter, Modification 3 will be described. In the third modification, when a device image associated with a photographed device does not satisfy a preset area standard, the device is not identified as a device to be used. For example, as illustrated in FIG. 22, it is assumed that the image forming apparatus 10 as the multifunction peripheral (B) is photographed by the camera 42. A planted tree as an obstacle is arranged on the front side of the image forming apparatus 10 (between the image forming apparatus 10 and the terminal device 16), and a device image 70 (for example, photographed by the camera 42) associated with the image forming apparatus 10 is disposed. The image 114 is overlaid with the plant image 114. That is, the device image 70 is missing due to the obstacle image. In this case, the image forming apparatus 10 is not identified as a device to be used. For example, appearance image data obtained by photographing the device is transmitted from the terminal device 16 to the server 14, and the specifying unit 38 of the server 14 specifies (identifies) the device based on the appearance image data. In this case, when the appearance image data includes a missing portion, the specifying unit 38 of the server 14 does not specify (identify) the device based on the appearance image data. As a result, a device (for example, the image forming apparatus 10) associated with the appearance image data including the missing portion is not identified as a device to be used.

なお、障害物は、例えば、サーバ14の特定部38によって機器として識別されない物である。植木等は機器として登録されていないため、植木を表わす外観画像データがサーバ14に送信されても、植木は機器として識別されず、障害物として識別される。   The obstacle is, for example, an object that is not identified as a device by the specifying unit 38 of the server 14. Since plants and the like are not registered as devices, even if appearance image data representing a plant is transmitted to the server 14, the plant is not identified as a device but is identified as an obstacle.

サーバ14の特定部38は、外観画像データにおける欠損部分以外の領域の大きさに応じて、その外観画像データに基づく機器の特定(識別)を行ってもよい。例えば、外観画像データにおける欠損部分以外の領域の大きさが、予め設定された閾値以上となる場合、サーバ14の特定部38は、その外観画像データにおける欠損部分以外の領域に基づいて、機器を特定(識別)してもよい。別の例として、欠損部分以外の領域が欠損部分よりも大きい場合に、サーバ14の特定部38は、その外観画像データにおける欠損部分以外の領域に基づいて、機器を特定(識別)してもよい。別の例として、マーカレス型AR技術を外観画像データに適用して機器が特定できる場合、外観画像データに欠損部分が含まれていても、サーバ14の特定部38は、外観画像データにおける欠損部分以外の領域に基づいて、機器を特定(識別)してもよい。   The specifying unit 38 of the server 14 may specify (identify) a device based on the appearance image data according to the size of the area other than the missing portion in the appearance image data. For example, when the size of the region other than the missing portion in the appearance image data is equal to or larger than a preset threshold, the specifying unit 38 of the server 14 selects the device based on the region other than the missing portion in the appearance image data. It may be specified (identified). As another example, when the area other than the missing part is larger than the missing part, the specifying unit 38 of the server 14 may specify (identify) the device based on the area other than the missing part in the appearance image data. Good. As another example, when the device can be identified by applying the markerless AR technology to the appearance image data, even if the appearance image data includes a missing portion, the specifying unit 38 of the server 14 The device may be specified (identified) based on a region other than.

画像形成装置10(複合機(B))が利用対象の機器として識別されない場合、端末装置16の制御部48は、撮影された他の機器についての機能に関する情報を、端末装置16のUI部46に表示させる。例えば、プロジェクタ(C)としてのプロジェクタ12が撮影されて、プロジェクタ12に紐付く機器画像72が表示され、カメラ(D)が撮影されて、カメラ(D)に紐付く機器画像116が表示されているものとする。この場合、端末装置16の制御部48は、上述した実施形態に係る処理に従って、プロジェクタ(C)とカメラ(D)が有する機能を利用する連携機能に関する情報、又は、プロジェクタ(C)とカメラ(D)がそれぞれ有する機能(単独利用機能)に関する情報を、端末装置16のUI部46に表示させる。   When the image forming apparatus 10 (multifunction device (B)) is not identified as a device to be used, the control unit 48 of the terminal device 16 displays information regarding functions of other devices that have been photographed, and the UI unit 46 of the terminal device 16. To display. For example, the projector 12 as the projector (C) is photographed, the device image 72 associated with the projector 12 is displayed, the camera (D) is photographed, and the device image 116 associated with the camera (D) is displayed. It shall be. In this case, the control unit 48 of the terminal device 16 performs information related to the cooperation function using the functions of the projector (C) and the camera (D) or the projector (C) and the camera ( D) Information related to the functions (single use functions) of the terminal device 16 is displayed on the UI unit 46 of the terminal device 16.

なお、外観画像データにおいて欠損部分以外の画像部分に紐付く機能を利用して連携機能が構築されてもよい。例えば、図22に示す例において、機器画像70に複合機(B)(画像形成装置10)の本体部が表されている場合、端末装置16の制御部48は、上述した実施形態に係る処理に従って、その本体部が有する機能を利用する連携機能に関する情報、又は、その本体部が有する機能(単独利用機能)に関する情報を、端末装置16のUI部46に表示させてもよい。例えば、機器の部分毎に、その部分を表わす外観部分画像と、その部分が有する機能と、が互いに対応付けられており、その対応付けを示す機器機能情報32が、サーバ14の記憶部30に記憶されている。その機器機能情報32を参照することにより、欠損部分以外の画像部分に紐付く機能が特定(識別)される。また、複数の部分が有する機能を利用する連携機能を示す連携機能情報34が、サーバ14の記憶部30に記憶されている。もちろん、その連携機能情報34は、機器の部分が有する機能と機器全体が有する機能とを利用する連携機能を示す情報を含んでいてもよい。その連携機能情報34を参照することにより、欠損部分以外の画像部分に紐付く機能を利用する連携機能が特定(識別)される。   In addition, a cooperation function may be constructed | assembled using the function linked | related with the image part other than a defect | deletion part in external appearance image data. For example, in the example illustrated in FIG. 22, when the main body of the multifunction peripheral (B) (image forming apparatus 10) is represented in the device image 70, the control unit 48 of the terminal device 16 performs processing according to the above-described embodiment. Accordingly, the information related to the cooperation function that uses the function of the main body unit or the information about the function (single use function) of the main body unit may be displayed on the UI unit 46 of the terminal device 16. For example, for each device part, an appearance partial image representing the part and a function of the part are associated with each other, and device function information 32 indicating the association is stored in the storage unit 30 of the server 14. It is remembered. By referring to the device function information 32, the function associated with the image part other than the missing part is specified (identified). In addition, cooperation function information 34 indicating a cooperation function that uses functions of a plurality of parts is stored in the storage unit 30 of the server 14. Of course, the link function information 34 may include information indicating a link function that uses the function of the device part and the function of the entire device. By referring to the cooperation function information 34, a cooperation function that uses a function associated with an image part other than a missing part is specified (identified).

機器画像が欠損している場合、サーバ14の特定部38は、マーカ型AR技術や位置情報AR技術等の複数の識別技術を用いることにより、その機器画像に紐付く機器を特定(識別)し、これにより、その機器が有する機能や、その機器が有する機能を利用する連携機能を特定(識別)してもよい。   When the device image is missing, the specifying unit 38 of the server 14 specifies (identifies) the device associated with the device image by using a plurality of identification technologies such as the marker type AR technology and the position information AR technology. Thus, the function of the device and the cooperation function that uses the function of the device may be specified (identified).

以上のように、変形例3によると、欠損している機器画像に紐付く機器は、利用対象の機器から除外される。これにより、欠損している機器画像に紐付く機器は、ユーザが利用対象の機器として望んでいない場合等において、ユーザが想定していない機器が識別されることが防止され、その結果、当該機器が有する機能に関する情報や、当該機器が有する機能を利用する連携機能に関する情報が表示されることが防止される。   As described above, according to the third modification, a device associated with a missing device image is excluded from devices to be used. As a result, the device associated with the missing device image is prevented from being identified as a device that is not assumed by the user when the user does not want the device to be used. It is possible to prevent the information related to the function of the device and the information related to the cooperation function that uses the function of the device from being displayed.

(変形例4)
以下、変形例4について説明する。変形例4においては、上記の変形例1と同様に、複数の機器が識別されているものとする。また、機器の撮影を行う撮影装置と各機器との間の位置関係に応じて、連携機能の起点として利用される機器が変更される。
(Modification 4)
Hereinafter, Modification 4 will be described. In the fourth modification, as in the first modification, a plurality of devices are identified. In addition, the device used as the starting point of the cooperation function is changed according to the positional relationship between the photographing device that performs photographing of the device and each device.

例えば、撮影装置(例えばカメラ42を備えた端末装置16)から近い位置に設置されている機器(撮影された機器)ほど優先的に連携機能の起点の機器として利用される。この場合、サーバ14の特定部38は、端末装置16と各機器との間の距離を示す情報を取得し、その距離に基づいて、各機器に優先順位を付ける。端末装置16や各機器の位置情報は、例えば、GPS(Global Positioning System)機能を利用することにより取得される。もちろん、別の技術によって位置情報が取得されてもよい。例えば、端末装置16や各機器はGPS機能を備えており、自身の位置情報を取得する。端末装置16は、各機器から位置情報を取得し、端末装置16と各機器の位置情報をサーバ14に送信する。サーバ14の特定部38は、端末装置16と各機器の位置情報に基づいて、端末装置16と各機器との間の距離を算出する。例えば、端末装置16との間の距離が最短となる機器は、1番目(最優先)の機器として利用され、端末装置16との間の距離が2番目に短い機器は、2番目の機器として利用される。この場合、サーバ14の特定部38は、優先順位の高い機器が有する機能から順番に利用する連携機能を特定(識別)し、端末装置16の制御部48は、優先順位の高い機器が有する機能から順番に利用する連携機能を優先的に端末装置16のUI部46に表示させる。   For example, a device (photographed device) installed at a position closer to the photographing device (for example, the terminal device 16 including the camera 42) is preferentially used as a device for starting the cooperation function. In this case, the specifying unit 38 of the server 14 acquires information indicating the distance between the terminal device 16 and each device, and prioritizes each device based on the distance. The position information of the terminal device 16 and each device is acquired by using, for example, a GPS (Global Positioning System) function. Of course, the position information may be acquired by another technique. For example, the terminal device 16 and each device have a GPS function, and acquire their own position information. The terminal device 16 acquires position information from each device, and transmits the position information of the terminal device 16 and each device to the server 14. The specifying unit 38 of the server 14 calculates the distance between the terminal device 16 and each device based on the position information of the terminal device 16 and each device. For example, the device with the shortest distance to the terminal device 16 is used as the first (highest priority) device, and the device with the second shortest distance to the terminal device 16 is used as the second device. Used. In this case, the specifying unit 38 of the server 14 specifies (identifies) the cooperation function to be used in order from the function of the high priority device, and the control unit 48 of the terminal device 16 has the function of the high priority device. Are linked to the UI unit 46 of the terminal device 16 with priority.

例えば図23に示すように、複合機(B)としての画像形成装置10、プロジェクタ(C)としてのプロジェクタ12、カメラ(D)、及び、ディスプレイ(E)、がカメラ42によって撮影されたものとする。この場合、複合機(B)に紐付く機器画像70、プロジェクタ(C)に紐付く機器画像72、カメラ(D)に紐付く機器画像116、及び、ディスプレイ(E)に紐付く機器画像118が、端末装置16のUI部46に表示される。例えば、プロジェクタ(C)、カメラ(D)、複合機(B)、及び、ディスプレイ(E)の順番で、端末装置16から近いと判断された場合、プロジェクタ(C)、カメラ(D)、複合機(B)、及び、ディスプレイ(E)の順番で利用する連携機能が特定(識別)され、端末装置16のUI部46に、その連携機能が優先的に表示される。   For example, as shown in FIG. 23, an image forming apparatus 10 as a multifunction peripheral (B), a projector 12 as a projector (C), a camera (D), and a display (E) are taken by a camera 42. To do. In this case, there are a device image 70 associated with the multifunction peripheral (B), a device image 72 associated with the projector (C), a device image 116 associated with the camera (D), and a device image 118 associated with the display (E). Are displayed on the UI unit 46 of the terminal device 16. For example, when it is determined that the projector (C), the camera (D), the multifunction device (B), and the display (E) are close to the terminal device 16 in this order, the projector (C), the camera (D), the composite The cooperation function to be used is identified (identified) in the order of the machine (B) and the display (E), and the cooperation function is preferentially displayed on the UI unit 46 of the terminal device 16.

別の例として、機器表示画面68上に設定された基準位置120から近い位置に表示されている機器画像に紐付く機器ほど優先的に連携機能の起点の機器として利用されてもよい。この場合、端末装置16は、基準位置120と各機器画像との間の距離(例えば、図23に示されている各矢印の長さ)を示す情報をサーバ14に送信する。サーバ14の特定部38は、基準位置120と各機器画像との間の距離に基づいて、各機器画像に紐付く各機器に優先順位を付ける。例えば、基準位置120との間の距離が最短となる機器画像に紐付く機器は、1番目(最優先)の機器として利用され、基準位置120からの距離が2番目に短い機器画像に紐付く機器は、2番目の機器として利用される。この場合、サーバ14の特定部38は、優先順位の高い機器が有する機能から順番に利用する連携機能を特定(識別)し、端末装置16の制御部48は、その連携機能を端末装置16のUI部46に表示させる。なお、端末装置16の制御部48は、基準位置120を表わすマーク(例えば丸い形状を有するマーク)や、画像間の距離を表わす矢印を、機器表示画面68に表示してもよいし、表示しなくてもよい。   As another example, a device associated with a device image displayed at a position closer to the reference position 120 set on the device display screen 68 may be preferentially used as a device that starts the linkage function. In this case, the terminal device 16 transmits information indicating the distance (for example, the length of each arrow shown in FIG. 23) between the reference position 120 and each device image to the server 14. The specifying unit 38 of the server 14 gives priority to each device associated with each device image based on the distance between the reference position 120 and each device image. For example, the device associated with the device image having the shortest distance from the reference position 120 is used as the first (highest priority) device, and is associated with the device image with the second shortest distance from the reference position 120. The device is used as a second device. In this case, the specifying unit 38 of the server 14 specifies (identifies) the cooperation function to be used in order from the function of the high priority device, and the control unit 48 of the terminal device 16 determines the cooperation function of the terminal device 16. It is displayed on the UI unit 46. Note that the control unit 48 of the terminal device 16 may display or display a mark representing the reference position 120 (for example, a mark having a round shape) or an arrow representing the distance between images on the device display screen 68. It does not have to be.

端末装置16の制御部48は、優先順位を示す情報(例えば、端末装置16から近い位置の順番に応じた番号)を、各機器画像に対応付けて機器表示画面68に表示させてもよい。例えば、各機器画像の近傍に、優先順位を示す情報(例えば番号)が表示される。図23に示す例では、プロジェクタ(C)に紐付く機器画像72の近傍に、1番目(最優先)を示す番号が表示される。他の機器画像についても同様である。   The control unit 48 of the terminal device 16 may display information indicating the priority order (for example, a number corresponding to the order of the positions close to the terminal device 16) on the device display screen 68 in association with each device image. For example, information (for example, a number) indicating the priority order is displayed near each device image. In the example shown in FIG. 23, a number indicating the first (highest priority) is displayed in the vicinity of the device image 72 associated with the projector (C). The same applies to other device images.

以上のように、変形例4によると、撮影装置(例えば端末装置16)に近い機器が有する機能ほど優先的に利用される連携機能が優先的に表示される。これにより、ユーザが撮影装置(例えば端末装置16)から近い位置に設置されている機器から順番に利用したいと望んでいる場合等に、ユーザの要望に適合した連携機能に関する情報が表示されるので、便利である。   As described above, according to the fourth modification, the cooperation function that is preferentially used as the function of the device close to the photographing device (for example, the terminal device 16) is preferentially displayed. As a result, when the user wants to use the devices in order from the device installed at a position close to the photographing device (for example, the terminal device 16), information on the linkage function that matches the user's request is displayed. Convenient.

各機器に紐付く機器画像(外観画像)同士の欠損関係に基づいて、各機器の位置関係が判定されてもよい。例えば図24に示すように、ディスプレイ(E)に紐付く機器画像118(例えばカメラ42による撮影で得られた外観画像)上に、複合機(B)に紐付く機器画像70が重畳して表示されている場合、複合機(B)はディスプレイ(E)よりも端末装置16に近い位置に設置されていると判定される。この判定は、端末装置16によって行われてもよいし、サーバ14によって行われてもよい。この場合、サーバ14の特定部38は、複合機(B)、ディスプレイ(E)の順番で各機器を利用する連携機能を特定(識別)し、端末装置16の制御部48は、その連携機能に関する情報を優先的に端末装置16のUI部46に表示させる。   The positional relationship between the devices may be determined based on the missing relationship between the device images (appearance images) associated with the devices. For example, as shown in FIG. 24, a device image 70 associated with the multifunction peripheral (B) is displayed superimposed on a device image 118 associated with the display (E) (for example, an appearance image obtained by photographing with the camera 42). If it is determined that the multifunction device (B) is installed at a position closer to the terminal device 16 than the display (E). This determination may be performed by the terminal device 16 or may be performed by the server 14. In this case, the specifying unit 38 of the server 14 specifies (identifies) a cooperation function that uses each device in the order of the multifunction peripheral (B) and the display (E), and the control unit 48 of the terminal device 16 uses the cooperation function. The information regarding is preferentially displayed on the UI unit 46 of the terminal device 16.

なお、機器画像118上に機器画像70が重畳しているため、機器画像118は欠損している。この場合、サーバ14の特定部38は、マーカ型AR技術や位置情報AR技術等の複数の識別技術を用いることにより、機器画像118に紐付くディスプレイ(E)を特定(識別)し、これにより、ディスプレイ(E)が有する機能や、ディスプレイ(E)が有する機能を利用する連携機能を特定(識別)してもよい。   Since the device image 70 is superimposed on the device image 118, the device image 118 is missing. In this case, the specifying unit 38 of the server 14 specifies (identifies) the display (E) associated with the device image 118 by using a plurality of identification technologies such as the marker-type AR technology and the position information AR technology. The function that the display (E) has and the cooperation function that uses the function that the display (E) has may be specified (identified).

(変形例5)
以下、変形例5について説明する。変形例5においては、機器の各部分に機能が割り当てられており、識別(例えば撮影)された部分に割り当てられている機能に関する情報や、識別(例えば撮影)された部分に割り当てられている機能を利用する連携機能に関する情報が表示される。以下、変形例5について詳しく説明する。
(Modification 5)
Hereinafter, Modification 5 will be described. In the modified example 5, functions are assigned to each part of the device, information on functions assigned to the identified (eg, photographed) part, and functions assigned to the identified (eg, photographed) part. Information related to the linkage function that uses is displayed. Hereinafter, Modification 5 will be described in detail.

図25には、変形例5に係る機器機能管理テーブルの一例が示されている。変形例5に係る機器機能管理テーブルのデータは、機器機能情報32としてサーバ14に記憶されている。変形例5に係る機器機能管理テーブルにおいては、一例として、機器IDと、機器名(例えば機器の種類)を示す情報と、機器の部分の名称(例えば部分の種類)を示す情報と、その部分を識別するための部分識別情報としての部分IDと、その部分に割り当てられている機能(その部分が有する機能)を示す情報と、その部分に紐付く機器部分画像を識別するための部分画像IDと、が互いに対応付けられている。機器部分画像は、カメラによる撮影によって得られた機器の部分の外観を表わす画像である。もちろん、機器の部分を模式的に表す部分画像が、当該部分に対応付けられていてもよい。例えば、機器の部分毎に異なる機能が割り当てられている。   FIG. 25 shows an example of a device function management table according to Modification 5. Data of the device function management table according to Modification 5 is stored in the server 14 as device function information 32. In the device function management table according to the modified example 5, as an example, the device ID, information indicating a device name (for example, the type of device), information indicating the name of the device part (for example, the type of portion), and the portion A part ID as part identification information for identifying the part, information indicating a function assigned to the part (function of the part), and a part image ID for identifying a device part image associated with the part Are associated with each other. The device partial image is an image representing the appearance of the device portion obtained by photographing with the camera. Of course, a partial image that schematically represents the part of the device may be associated with the part. For example, a different function is assigned to each part of the device.

具体例を挙げて説明すると、PC(A)の表示部には画面表示機能が割り当てられており、その表示部に紐付く機器部分画像の部分画像IDには、画面表示機能を示す情報が対応付けられている。画面表示機能は、情報をPC(A)にて表示する機能である。PC(A)の本体部にはデータ保存機能が割り当てられており、その本体部に紐付く機器部分画像の部分画像IDには、データ保存機能を示す情報が対応付けられている。データ保存機能は、データをPC(A)に保存する機能である。   A specific example will be described. A screen display function is assigned to the display unit of PC (A), and information indicating the screen display function corresponds to the partial image ID of the device partial image associated with the display unit. It is attached. The screen display function is a function for displaying information on the PC (A). A data storage function is assigned to the main body of the PC (A), and information indicating the data storage function is associated with the partial image ID of the device partial image associated with the main body. The data storage function is a function for storing data in the PC (A).

また、複合機(B)の本体部にはプリント機能が割り当てられており、その本体部に紐付く機器部分画像の部分画像IDには、プリント機能を示す情報が対応付けられている。複合機(B)の読取部(例えば、複合機(B)の原稿カバーや原稿ガラスや自動原稿給紙装置に対応する部分)にはスキャン機能が割り当てられており、その読取部に紐付く機器部分画像の部分画像IDには、スキャン機能を示す情報が対応付けられている。複合機(B)の後処理装置にはステープル止め機能が割り当てられており、その後処理装置に紐付く機器部分画像の部分画像IDには、ステープル止め機能を示す情報が対応付けられている。ステープル止め機能は、出力された用紙をステープルによって綴じる機能である。   Also, a print function is assigned to the main body of the multifunction peripheral (B), and information indicating the print function is associated with the partial image ID of the device partial image associated with the main body. A scanning function is assigned to the reading unit of the multifunction device (B) (for example, a portion corresponding to the document cover, document glass, or automatic document feeder of the multifunction device (B)), and a device associated with the reading unit. Information indicating the scan function is associated with the partial image ID of the partial image. The post-processing device of the multifunction peripheral (B) is assigned a stapling function, and information indicating the stapling function is associated with the partial image ID of the device partial image associated with the processing device thereafter. The stapling function is a function of binding the output paper by stapling.

機器の部分に割り当てられている機能は、例えば、マーカレス型AR技術を用いることによって特定(識別)される。例えば、機器の部分がカメラ(例えば端末装置16のカメラ42)によって撮影された場合、その部分を表わす外観画像データが端末装置16からサーバ14に送信される。サーバ14の特定部38は、機器機能管理テーブルにおいて、その外観画像データに対応付けられている機能を特定(識別)する。これにより、撮影された部分に割り当てられている機能が特定(識別)される。例えば、複合機(B)の本体部がカメラ42によって撮影された場合、複合機(B)の本体部を表わす外観画像データが端末装置16からサーバ14に送信される。サーバ14の特定部38は、機器機能管理テーブルにおいて、その外観画像データに対応付けられているプリント機能を特定する。これにより、複合機(B)の本体部に割り当てられている機能がプリント機能であることが特定される。   The function assigned to the device part is specified (identified) by using, for example, a markerless AR technology. For example, when a device portion is photographed by a camera (for example, the camera 42 of the terminal device 16), appearance image data representing the portion is transmitted from the terminal device 16 to the server 14. The specifying unit 38 of the server 14 specifies (identifies) a function associated with the appearance image data in the device function management table. Thereby, the function assigned to the photographed part is specified (identified). For example, when the main body of the multifunction peripheral (B) is photographed by the camera 42, appearance image data representing the main body of the multifunction peripheral (B) is transmitted from the terminal device 16 to the server 14. The specifying unit 38 of the server 14 specifies the print function associated with the appearance image data in the device function management table. Thereby, it is specified that the function assigned to the main body of the multifunction peripheral (B) is the print function.

もちろん、機器の部分に割り当てられている機能は、マーカ型AR技術を用いることによって特定(識別)されてもよい。例えば、機器の各部分に、部分を識別するための部分識別情報(例えば部分ID)がコード化された2次元バーコード等のマーカが設けられている。部分に設けられているマーカがカメラによって撮影されてマーカ型AR技術が適用されると、その部分の部分識別情報(例えば部分ID)が取得される。マーカ型AR技術の適用は、端末装置16で行われてもよいし、サーバ14で行われてもよい。このように部分識別情報が取得されると、サーバ14の特定部38は、機器機能管理テーブルにおいて、その部分識別情報(例えば部分ID)に対応付けられている機能を特定(識別)する。   Of course, the function assigned to the part of the device may be specified (identified) by using the marker type AR technology. For example, each part of the device is provided with a marker such as a two-dimensional barcode in which part identification information (for example, part ID) for identifying the part is encoded. When a marker provided in a part is photographed by a camera and the marker type AR technology is applied, partial identification information (for example, a partial ID) of the part is acquired. The application of the marker type AR technology may be performed by the terminal device 16 or the server 14. When the partial identification information is acquired in this way, the specifying unit 38 of the server 14 specifies (identifies) the function associated with the partial identification information (for example, the partial ID) in the device function management table.

図26には、変形例5に係る連携機能管理テーブルの一例が示されている。変形例6に係る連携機能管理テーブルのデータは、連携機能情報34としてサーバ14に記憶されている。変形例5に係る連携機能管理テーブルは、複数の部分が有する機能を利用する連携機能を示す情報であり、その連携機能管理テーブルにおいては、一例として、機器の部分の組み合わせを示す情報と、部分IDの組み合わせを示す情報と、その組み合わせに含まれる複数の部分が有する機能を利用する連携機能を示す情報と、が互いに対応付けられている。もちろん、連携機能管理テーブルにおいては、機器の部分と機器の全体との組み合わせを示す情報と、その機器の部分が有する機能と機器の全体が有する機能とを利用する連携機能を示す情報と、が対応付けられていてもよい。   FIG. 26 illustrates an example of a cooperation function management table according to the fifth modification. Data of the cooperation function management table according to the modification 6 is stored in the server 14 as cooperation function information 34. The cooperation function management table according to Modification 5 is information indicating a cooperation function that uses functions of a plurality of parts. In the cooperation function management table, as an example, information indicating a combination of device parts, and a part Information indicating a combination of IDs and information indicating a cooperation function that uses functions of a plurality of parts included in the combination are associated with each other. Of course, in the linkage function management table, information indicating the combination of the device portion and the entire device, and information indicating the linkage function using the function of the device portion and the function of the entire device are: It may be associated.

具体例を挙げて説明すると、PC(A)の表示部と複合機(B)の本体部との組み合わせには、連携機能としてのプリント機能が割り当てられており、PC(A)の表示部の部分IDと複合機(B)の本体部の部分IDとの組み合わせを示す情報には、連携機能としてのプリント機能を示す情報が対応付けられている。連携機能としてのプリント機能は、例えば、PC(A)に保存されているデータを複合機(B)に送信して、そのデータを複合機(B)によって印刷する機能である。   A specific example will be described. A print function as a cooperation function is assigned to the combination of the display unit of the PC (A) and the main unit of the multifunction peripheral (B). Information indicating the combination of the partial ID and the partial ID of the main body of the multifunction peripheral (B) is associated with information indicating a print function as a cooperation function. The print function as the linkage function is a function that, for example, transmits data stored in the PC (A) to the multifunction device (B) and prints the data by the multifunction device (B).

また、複合機(B)の本体部とプロジェクタ(C)の本体部との組み合わせには、連携機能としてのプリント機能が割り当てられており、複合機(B)の本体部の部分IDとプロジェクタ(C)の本体部の部分IDとの組み合わせを示す情報には、連携機能としてのプリント機能を示す情報が対応付けられている。連携機能としてのプリント機能は、例えば、プロジェクタ(C)によって投影されているデータを複合機(B)に送信して、そのデータを複合機(B)によって印刷する機能である。   A print function as a cooperation function is assigned to the combination of the main body of the multifunction peripheral (B) and the main body of the projector (C). The information indicating the print function as the cooperation function is associated with the information indicating the combination with the partial ID of the main body portion of C). The print function as the cooperation function is, for example, a function of transmitting data projected by the projector (C) to the multifunction device (B) and printing the data by the multifunction device (B).

また、複合機(B)の読取部とプロジェクタ(C)の本体部との組み合わせには、連携機能としてのスキャン投影機能が割り当てられており、複合機(B)の読取部の部分IDとプロジェクタ(C)の本体部の部分IDとの組み合わせを示す情報には、連携機能としてのスキャン投影機能を示す情報が対応付けられている。連携機能としてのスキャン投影機能は、例えば、複合機(B)によるスキャンによって生成されたデータをプロジェクタ(C)に送信して、そのデータをプロジェクタ(C)によって投影する機能である。   Further, a scan projection function as a cooperation function is assigned to the combination of the reading unit of the multifunction device (B) and the main body of the projector (C), and the partial ID of the reading unit of the multifunction device (B) and the projector The information indicating the combination with the partial ID of the main body part in (C) is associated with information indicating the scan projection function as the cooperation function. The scan projection function as the cooperation function is a function of, for example, transmitting data generated by scanning by the multifunction peripheral (B) to the projector (C) and projecting the data by the projector (C).

なお、連携機能は、同一の機器に含まれる複数の部分が有する機能を利用する機能であってもよいし、互いに異なる複数の機器の部分が有する機能を利用する機能であってもよい。また、連携機能は、3つ以上の部分が有する機能を利用する機能であってもよい。   Note that the linkage function may be a function that uses a function of a plurality of parts included in the same device, or a function that uses a function of a part of a plurality of different devices. In addition, the cooperation function may be a function that uses functions of three or more parts.

例えば、マーカ型AR技術又はマーカレス型AR技術を利用して、機器の複数の部分(例えば、互いに異なる複数の機器の複数の部分や、同一機器の複数の部分)が特定(識別)されると、サーバ14の特定部38は、連携機能管理テーブルにおいて、識別された複数の部分の組み合わせに対応付けられている連携機能を特定(識別)する。これにより、識別(例えば撮影)された複数の部分が有する機能を利用する連携機能が特定(識別)される。例えば、複合機(B)の本体部とプロジェクタ(C)の本体部が、端末装置16のカメラ42によって撮影されて、複合機(B)の本体部とプロジェクタ(C)の本体部が識別された場合、サーバ14の特定部38は、連携機能管理テーブルにおいて、複合機(B)の本体部とプロジェクタ(C)の本体部の組み合わせに対応付けられている連携機能としてのプリント機能等を特定する。   For example, when a plurality of parts of a device (for example, a plurality of parts of a plurality of different devices or a plurality of parts of the same device) are specified (identified) using the marker type AR technology or the markerless type AR technology. The specifying unit 38 of the server 14 specifies (identifies) a cooperative function associated with a combination of a plurality of identified parts in the cooperative function management table. Thereby, the cooperation function using the function which the some part identified (for example, imaging | photography) has is pinpointed (identification). For example, the main body of the multifunction peripheral (B) and the main body of the projector (C) are photographed by the camera 42 of the terminal device 16, and the main body of the multifunction peripheral (B) and the main body of the projector (C) are identified. In this case, the specifying unit 38 of the server 14 specifies a print function or the like as a link function associated with a combination of the main body unit of the multifunction peripheral (B) and the main body unit of the projector (C) in the link function management table. To do.

変形例5においても、上述した実施形態と同様に、単独利用機能に関する情報又は連携機能に関する情報が、端末装置16のUI部46に表示されてもよい。例えば、単独利用機能の表示指示がユーザによって与えられたり、機器内の1つの部分のみが識別されたりした場合、端末装置16の制御部48は、識別された1つの部分が有する機能に関する情報を、端末装置16のUI部46に表示させてもよい。一方、複数の機器の複数の部分が識別されたり、同一機器内の複数の部分が識別されたり、複数の部分が識別された上で連携機能の表示指示が与えられたりした場合、端末装置16の制御部48は、識別された複数の部分が有する機能を利用する連携機能に関する情報を、端末装置16のUI部46に表示させてもよい。   Also in the modification 5, the information regarding a single use function or the information regarding a cooperation function may be displayed on the UI part 46 of the terminal device 16 similarly to embodiment mentioned above. For example, when the display instruction of the single use function is given by the user or only one part in the device is identified, the control unit 48 of the terminal device 16 displays information on the function of the identified one part. The information may be displayed on the UI unit 46 of the terminal device 16. On the other hand, when a plurality of parts of a plurality of devices are identified, a plurality of parts in the same device are identified, or a display instruction of a cooperation function is given after the plurality of parts are identified, the terminal device 16 The control unit 48 may cause the UI unit 46 of the terminal device 16 to display information related to the cooperation function that uses the functions of the plurality of identified parts.

以下、変形例5について具体例を挙げて説明する。例えば、画像形成装置10としての複合機(B)の本体部が、端末装置16のカメラ42によって撮影され、マーカ型AR技術又はマーカレス型AR技術によって、複合機(B)の本体部が特定(識別)されたものとする。この場合、例えば図27に示すように、端末装置16のUI部46に機器表示画面52が表示され、その機器表示画面52に、複合機(B)の本体部に紐付く機器部分画像121が表示される。複合機(B)の読取部や後処理装置が識別されていない場合、読取部に紐付く機器部分画像122と後処理装置に紐付く機器部分画像124は、機器表示画面52に表示されない。   Hereinafter, Modification 5 will be described with a specific example. For example, the main body of the multifunction peripheral (B) as the image forming apparatus 10 is photographed by the camera 42 of the terminal device 16, and the main body of the multifunction peripheral (B) is identified by the marker type AR technology or the markerless type AR technology ( Identification). In this case, for example, as shown in FIG. 27, a device display screen 52 is displayed on the UI unit 46 of the terminal device 16, and a device partial image 121 associated with the main unit of the multifunction peripheral (B) is displayed on the device display screen 52. Is displayed. When the reading unit and the post-processing device of the multifunction peripheral (B) are not identified, the device partial image 122 associated with the reading unit and the device partial image 124 associated with the post-processing device are not displayed on the device display screen 52.

例えば、単独利用機能の表示指示がユーザによって与えられたり、複数の部分が撮影されずに1つの部分のみが撮影されたりした場合、端末装置16の制御部48は、複合機(B)の本体部が有する機能に関する情報を、単独利用機能に関する情報として、端末装置16のUI部46に表示させる。なお、複合機(B)の本体部が有する機能の識別処理は、端末装置16によって行われてもよいし、サーバ14によって行われてもよい。図27に示す例では、機器表示画面52内に設けられた表示領域126に、複合機(B)の本体部が有する機能に関する情報(例えば各機能の名称)が表示されている。表示領域126内に表示されている機能に関する情報がユーザによって指定されて、機能の実行指示が与えられると、その指定された機能が実行される。表示領域126は、複合機(B)の本体部に紐付く機器部分画像121の近傍に配置されている。もちろん、端末装置16の制御部48は、機器表示画面52とは異なる機能表示画面を端末装置16のUI部46に表示させ、その機能表示画面内に、複合機(B)の本体部が有する機能に関する情報を表示させてもよい。   For example, when the display instruction of the single use function is given by the user, or only one part is photographed without photographing a plurality of parts, the control unit 48 of the terminal device 16 controls the main body of the multifunction device (B). Information related to the function of the unit is displayed on the UI unit 46 of the terminal device 16 as information related to the single use function. Note that the function identification processing of the main unit of the multifunction peripheral (B) may be performed by the terminal device 16 or the server 14. In the example shown in FIG. 27, information (for example, the names of the functions) related to the functions of the main body of the multifunction peripheral (B) is displayed in the display area 126 provided in the device display screen 52. When information regarding the function displayed in the display area 126 is designated by the user and an instruction to execute the function is given, the designated function is executed. The display area 126 is arranged in the vicinity of the device partial image 121 associated with the main body of the multifunction peripheral (B). Of course, the control unit 48 of the terminal device 16 displays a function display screen different from the device display screen 52 on the UI unit 46 of the terminal device 16, and the main unit of the multifunction peripheral (B) has the function display screen. Information regarding the function may be displayed.

なお、機器の全体を表わす機器画像が端末装置16のUI部46に表示されている場合に、その機器画像においてユーザによって指定された部分に対応する機能に関する情報が、単独利用機能に関する情報として、端末装置16のUI部46に表示されてもよい。例えば、機器画像内の位置毎に異なる機能が割り当てられており、各位置に対応する各機能に関する情報は、機器機能情報32としてサーバ14に記憶されている。機器画像においてユーザによって指定された位置を示す情報は、端末装置16からサーバ14に送信され、サーバ14の特定部38は、その指定された位置に対応する機能を特定(識別)する。その機能に関する情報は、単独利用機能として、端末装置16のUI部46に表示される。別の例として、機器の全体を表わす機器画像は、当該機器を構成する複数の部分を表わす複数の機器部分画像によって構成されていてもよい。上述したように、機器部分画像には機能が割り当てられているため、ユーザによって指定された機器部分画像に対応する機能が特定され、その機能に関する情報が端末装置16のUI部46に表示される。   When a device image representing the entire device is displayed on the UI unit 46 of the terminal device 16, information regarding a function corresponding to a portion designated by the user in the device image is information regarding a single use function. It may be displayed on the UI unit 46 of the terminal device 16. For example, different functions are assigned to each position in the device image, and information regarding each function corresponding to each position is stored in the server 14 as device function information 32. Information indicating the position specified by the user in the device image is transmitted from the terminal device 16 to the server 14, and the specifying unit 38 of the server 14 specifies (identifies) the function corresponding to the specified position. Information regarding the function is displayed on the UI unit 46 of the terminal device 16 as a single use function. As another example, a device image representing the entire device may be composed of a plurality of device partial images representing a plurality of portions constituting the device. As described above, since a function is assigned to the device partial image, a function corresponding to the device partial image designated by the user is specified, and information related to the function is displayed on the UI unit 46 of the terminal device 16. .

端末装置16の制御部48は、機器の全体が撮影された場合、その機器が有する1又は複数の機能に関する情報を、端末装置16のUI部46に表示させ、機器の一部が撮影された場合、その一部に割り当てられている機能に関する情報を、端末装置16のUI部46に表示させてもよい。例えば、複合機(B)の全体が撮影された場合、図9に示すように、複合機(B)が有する機能に関する情報が表示され、複合機(B)の本体部が撮影された場合、図27に示すように、その本体部が有する機能に関する情報が表示されてもよい。   When the entire device is photographed, the control unit 48 of the terminal device 16 displays information on one or more functions of the device on the UI unit 46 of the terminal device 16, and a part of the device is photographed. In this case, information related to the function assigned to a part of the information may be displayed on the UI unit 46 of the terminal device 16. For example, when the entire multifunction device (B) is photographed, as shown in FIG. 9, information on the functions of the multifunction device (B) is displayed, and when the main body of the multifunction device (B) is photographed, As shown in FIG. 27, information regarding the functions of the main body may be displayed.

また、画像形成装置10としての複合機(B)の本体部とプロジェクタ12としてのプロジェクタ(C)の本体部が、端末装置16のカメラ42によって撮影され、マーカ型AR技術又はマーカレス型AR技術によって、複合機(B)の本体部とプロジェクタ(C)の本体部が特定(識別)されたものとする。この場合、例えば図28に示すように、端末装置16のUI部46に機器表示画面68が表示され、その機器表示画面68に、複合機(B)の本体部に紐付く機器部分画像121と、プロジェクタ(C)の本体部に紐付く機器部分画像128が表示される。   Further, the main body of the multifunction peripheral (B) as the image forming apparatus 10 and the main body of the projector (C) as the projector 12 are photographed by the camera 42 of the terminal device 16 and are subjected to the marker type AR technique or the markerless type AR technique. Assume that the main body of the multifunction peripheral (B) and the main body of the projector (C) are specified (identified). In this case, for example, as shown in FIG. 28, a device display screen 68 is displayed on the UI unit 46 of the terminal device 16, and a device partial image 121 associated with the main unit of the multifunction peripheral (B) is displayed on the device display screen 68. A device partial image 128 associated with the main body of the projector (C) is displayed.

例えば、連携機能の表示指示がユーザによって与えられたり、撮影時間内に複数の部分が撮影されたり、1つの部分に割り当てられた機能の実行指示が与えられる前に、複数の部分が撮影されたりした場合、端末装置16の制御部48は、複合機(B)の本体部が有する機能とプロジェクタ(C)の本体部が有する機能とを利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。なお、連携機能の識別処理は、端末装置16によって行われてもよいし、サーバ14によって行われてもよい。図28に示す例では、機器表示画面68内に設けられた表示領域130に、連携機能に関する情報(例えば連携機能の名称)が表示されている。表示領域130内に表示されている機能に関する情報がユーザによって指定されて、連携機能の実行指示が与えられると、その指定された連携機能が実行される。また、図28に示す例では、複合機(B)の本体部が有する機能に関する情報が表示領域132内に表示され、プロジェクタ(C)の本体部が有する機能に関する情報が表示領域134内に表示されている。表示領域132は、複合機(B)の本体部に紐付く機器部分画像121の近傍に配置され、表示領域134は、プロジェクタ(C)の本体部に紐付く機器部分画像128の近傍に配置されている。もちろん、端末装置16の制御部48は、機器表示画面68とは異なる機能表示画面を端末装置16のUI部46に表示させ、その機能表示画面内に、連携機能に関する情報や単独利用機能に関する情報を表示してもよい。また、表示領域132,134は表示されなくてもよいし、ユーザの指示に応じて表示と非表示が切り替えられてもよい。   For example, the display instruction of the cooperation function is given by the user, a plurality of parts are photographed within the photographing time, or the plurality of parts are photographed before the execution instruction of the function assigned to one part is given. In this case, the control unit 48 of the terminal device 16 displays information related to the cooperation function that uses the function of the main unit of the multifunction peripheral (B) and the function of the main unit of the projector (C) as the UI unit of the terminal device 16. 46 is displayed. In addition, the identification process of a cooperation function may be performed by the terminal device 16, and may be performed by the server 14. FIG. In the example illustrated in FIG. 28, information related to the cooperation function (for example, the name of the cooperation function) is displayed in the display area 130 provided in the device display screen 68. When information regarding the function displayed in the display area 130 is designated by the user and an instruction to execute the cooperation function is given, the designated cooperation function is executed. In the example shown in FIG. 28, information related to the function of the main body of the multifunction peripheral (B) is displayed in the display area 132, and information related to the function of the main body of the projector (C) is displayed in the display area 134. Has been. The display area 132 is disposed in the vicinity of the device partial image 121 associated with the main body of the multifunction peripheral (B), and the display area 134 is disposed in the vicinity of the device partial image 128 associated with the main body of the projector (C). ing. Of course, the control unit 48 of the terminal device 16 displays a function display screen different from the device display screen 68 on the UI unit 46 of the terminal device 16, and information related to the cooperation function or information related to the single use function is displayed in the function display screen. May be displayed. In addition, the display areas 132 and 134 may not be displayed, and display and non-display may be switched according to a user instruction.

なお、端末装置16の制御部48は、機器部分画像に紐付く機器が有する機能の名称(例えばプリントやスキャン等)を機器表示画面68に表示させてもよい。これにより、各部分にどのような機能が割り当てられているのかが分かり易い情報がユーザに提供される。もちろん、機能の名称は表示されなくてもよい。   Note that the control unit 48 of the terminal device 16 may display on the device display screen 68 the name of a function (for example, printing or scanning) of the device associated with the device partial image. As a result, the user is provided with easy-to-understand information on what function is assigned to each part. Of course, the name of the function may not be displayed.

以上のように、変形例5によると、機器の一部が識別された場合、当該一部が有する機能に関する情報が表示され、複数の部分が識別された場合、当該複数の部分が有する機能を利用する連携機能に関する情報が表示される。例えば、機器において利用対象の部分を識別(例えば撮影)することで、当該部分が有する機能に関する情報が表示されるので、機器が有する全機能に関する情報が表示される場合と比べて、ユーザにとって不要な情報が表示され難くなるので、便利である。同様に、複数の部分を識別(例えば撮影)することで、当該複数の部分が有する機能を利用する連携機能に関する情報が表示されるので、ユーザにとって不要な情報が表示され難くなるので、便利である。   As described above, according to the modified example 5, when a part of the device is identified, information regarding the function of the part is displayed, and when a plurality of parts are identified, the functions of the plurality of parts are displayed. Information about the linkage function to be used is displayed. For example, by identifying (for example, shooting) a part to be used in a device, information on the functions of the part is displayed, so that it is unnecessary for the user compared to the case of displaying information on all the functions of the device. This is convenient because it is difficult to display various information. Similarly, by identifying (for example, photographing) a plurality of parts, information related to a cooperative function that uses the functions of the plurality of parts is displayed, which makes it difficult to display unnecessary information for the user. is there.

(変形例6)
以下、変形例6について説明する。変形例6は、変形例1,5の組み合わせである。例えば、複合機(B)の本体部とプロジェクタ(C)の本体部が撮影されたものとする。この場合、例えば図29に示すように、端末装置16のUI部46に機器表示画面68が表示され、その機器表示画面68に、複合機(B)の本体部に紐付く機器部分画像121と、プロジェクタ(C)の本体部に紐付く機器部分画像128が表示される。変形例1と同様に、機器表示画面68に起点表示領域86と連携先表示領域88が設定されている。この場合、起点表示領域86内に表示されている機器部分画像に紐付く機器の部分が起点として指定され、連携先表示領域88内に表示されている機器部分画像に紐付く機器の部分が連携先と指定される。図29に示す例では、機器部分画像121が起点表示領域86内に表示されているため、複合機(B)の本体部が起点として指定されており、機器部分画像128が連携先表示領域88内に表示されているため、プロジェクタ(C)の本体部が連携先として指定されている。この場合、端末装置16の制御部48は、複合機(B)の本体部を起点として利用するとともにプロジェクタ(C)の本体部を連携先として利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。端末装置16の制御部48は、例えば、起点としての複合機(B)の本体部を先に利用し、次に、連携先としてのプロジェクタ(C)の本体部を利用する連携機能に関する情報を、端末装置16のUI部46に表示させる。換言すると、端末装置16の制御部48は、起点としての複合機(B)の本体部から連携先としてのプロジェクタ(C)にデータを移動させる連携機能に関する情報を、端末装置16のUI部46に表示させる。
(Modification 6)
Hereinafter, Modification 6 will be described. Modification 6 is a combination of Modifications 1 and 5. For example, it is assumed that the main body of the multifunction peripheral (B) and the main body of the projector (C) are photographed. In this case, for example, as shown in FIG. 29, a device display screen 68 is displayed on the UI unit 46 of the terminal device 16, and a device partial image 121 associated with the main unit of the multifunction peripheral (B) is displayed on the device display screen 68. A device partial image 128 associated with the main body of the projector (C) is displayed. Similar to the first modification, a starting point display area 86 and a cooperation destination display area 88 are set on the device display screen 68. In this case, the part of the device associated with the device partial image displayed in the starting point display area 86 is designated as the starting point, and the part of the device associated with the device partial image displayed in the cooperation destination display area 88 is linked. Specified as the destination. In the example shown in FIG. 29, since the device partial image 121 is displayed in the starting point display area 86, the main body of the multifunction peripheral (B) is designated as the starting point, and the device partial image 128 is displayed in the cooperation destination display area 88. Therefore, the main body of the projector (C) is designated as the cooperation destination. In this case, the control unit 48 of the terminal device 16 uses the main unit of the multifunction peripheral (B) as a starting point and uses the main unit of the projector (C) as the cooperation destination to obtain information on the cooperation function. This is displayed on the unit 46. For example, the control unit 48 of the terminal device 16 uses the main body of the multifunction peripheral (B) as a starting point first, and then, the information on the cooperation function that uses the main body of the projector (C) as a cooperation destination. And displayed on the UI unit 46 of the terminal device 16. In other words, the control unit 48 of the terminal device 16 uses the UI unit 46 of the terminal device 16 to transmit information related to the cooperation function that moves data from the main body of the multifunction peripheral (B) as the starting point to the projector (C) as the cooperation destination. To display.

また、変形例1と同様に、機器部分画像の表示位置が変えられるようにしてもよい。例えば、ユーザが機器部分画像121を連携先表示領域88に移動させた場合、機器部分画像121に紐付く複合機(B)の本体部は、連携先の機器の部分として扱われる。同様に、ユーザが機器部分画像128を起点表示領域86に移動させた場合、機器部分画像128に紐付くプロジェクタ(C)の本体部は、起点の機器の部分として扱われる。   Further, as in the first modification, the display position of the device partial image may be changed. For example, when the user moves the device partial image 121 to the cooperation destination display area 88, the main unit of the multifunction peripheral (B) associated with the device partial image 121 is handled as a portion of the cooperation destination device. Similarly, when the user moves the device partial image 128 to the starting point display area 86, the main body of the projector (C) associated with the device partial image 128 is treated as the starting device portion.

変形例1と同様に、端末装置16は、起点表示領域86に表示されている機器部分画像のデータを、起点機器の部分の画像データとしてサーバ14に送信し、連携先表示領域88に表示されている機器部分画像のデータを、連携先機器の部分の画像データとしてサーバ14に送信する。サーバ14の特定部38は、起点機器の部分の画像データに紐付く機器の部分を起点として設定し、連携先機器の部分の画像データに紐付く機器の部分を連携先として設定する。サーバ14には、変形例6に係る連携機能管理テーブルのデータが記憶されており、その連携機能管理テーブルにおいては、起点機器の部分の識別情報と、連携先機器の部分の識別情報と、連携機能識別情報と、が対応付けられている。サーバ14の特定部38は、その連携機能管理テーブルにおいて、起点機器の部分の識別情報と、連携先機器の部分の識別情報と、に対応付けられている連携機能識別情報を特定する。このようにして連携機能識別情報が特定されると、端末装置16のUI部46には、特定された連携機能に関する情報が表示される。   Similarly to the first modification, the terminal device 16 transmits the device partial image data displayed in the starting point display area 86 to the server 14 as image data of the starting point device portion, and is displayed in the cooperation destination display area 88. The device partial image data being transmitted is transmitted to the server 14 as image data of the cooperation destination device portion. The specifying unit 38 of the server 14 sets the device portion associated with the image data of the starting device portion as the starting point, and sets the device portion associated with the image data of the cooperation destination device portion as the cooperation destination. The server 14 stores data of a cooperation function management table according to the modified example 6. In the cooperation function management table, the identification information of the part of the starting device, the identification information of the part of the cooperation destination device, and the cooperation Is associated with function identification information. The specifying unit 38 of the server 14 specifies the link function identification information associated with the identification information of the part of the originating device and the identification information of the part of the link destination device in the link function management table. When the cooperation function identification information is specified in this way, information related to the specified cooperation function is displayed on the UI unit 46 of the terminal device 16.

なお、機器の全体を表わす機器画像から部分を表わす機器部分画像を切り離して、機器部分画像の表示位置が変えられるようにしてもよい。例えば図30に示すように、複合機(B)の全体を表わす機器画像70が、起点表示領域86に表示されているものとする。この場合、矢印136で示すように、ユーザが、機器画像70に含まれる機器部分画像122を起点表示領域86から連携先表示領域88に移動させると、機器部分画像122に紐付く部分が有する機能(例えば読取部が有するスキャン機能)は、連携先の機能として設定される。同様に、連携先表示領域88に表示されている機器画像に含まれる機器部分画像がユーザによって起点表示領域86に移動させられると、その機器部分画像に紐付く部分が有する機能は、起点の機能として設定される。   Note that the display position of the device partial image may be changed by separating the device partial image representing the part from the device image representing the entire device. For example, as shown in FIG. 30, it is assumed that a device image 70 representing the entire MFP (B) is displayed in the start point display area 86. In this case, as indicated by an arrow 136, when the user moves the device partial image 122 included in the device image 70 from the starting point display region 86 to the cooperation destination display region 88, the function associated with the device partial image 122 has a function. (For example, the scanning function of the reading unit) is set as a function of the cooperation destination. Similarly, when the device partial image included in the device image displayed in the cooperation destination display area 88 is moved to the starting point display area 86 by the user, the function associated with the device partial image has the function of the starting point. Set as

以上のように、変形例6によると、機器部分画像の表示位置に応じて連携機能が変更されるので、連携機能の変更の操作性が向上する。また、簡単な操作で連携機能が変更される。   As described above, according to the modified example 6, since the cooperation function is changed according to the display position of the device partial image, the operability of changing the cooperation function is improved. Moreover, a cooperation function is changed by simple operation.

(変形例7)
以下、図31及び図32を参照して、変形例7について説明する。図31及び図32には、変形例7に係る機器表示画面68が示されている。変形例7では、上述した変形例1等と同様に、機器表示画面68に、起点表示領域86と連携先表示領域88が設定されており、同一の連携先表示領域88内に複数の機器画像(例えば、機器画像72,116,118)が表示されている。なお、起点表示領域86内には、機器画像70が表示されている。この場合、連携先表示領域88内に表示されている各機器画像に紐付く各機器の利用の順番(連携の順番)は、ユーザによって指定されてもよいし、各機器画像の表示位置の関係に基づいて自動的に設定されてもよい。
(Modification 7)
Hereinafter, Modification 7 will be described with reference to FIGS. 31 and 32. 31 and 32 show a device display screen 68 according to Modification 7. In the modified example 7, as in the modified example 1 described above, the starting point display area 86 and the cooperation destination display area 88 are set on the device display screen 68, and a plurality of device images are included in the same cooperation destination display area 88. (For example, device images 72, 116, and 118) are displayed. A device image 70 is displayed in the starting point display area 86. In this case, the order of use of each device associated with each device image displayed in the cooperation destination display area 88 (order of cooperation) may be specified by the user, or the relationship between the display positions of the device images. May be set automatically based on

ユーザの指示によって連携の順番を設定する場合、ユーザは、例えば、連携先表示領域88内に表示されている各機器画像を順番に指定する。例えば、プロジェクタ(C)に紐付く機器画像72、ディスプレイ(E)に紐付く機器画像118、カメラ(D)に紐付く機器画像116の順番で、各機器画像がユーザによって指定された場合、起点表示領域86内に表示されている機器画像70に紐付く複合機(B)が最初に利用された後、その指定された順番で連携先の各機器が連携(利用)される。   When setting the order of cooperation according to a user's instruction, for example, the user designates each device image displayed in the cooperation destination display area 88 in order. For example, when each device image is designated by the user in the order of the device image 72 associated with the projector (C), the device image 118 associated with the display (E), and the device image 116 associated with the camera (D), After the multifunction device (B) associated with the device image 70 displayed in the display area 86 is first used, the cooperation destination devices are linked (used) in the designated order.

連携順番を自動的に設定する場合、起点表示領域86内に表示されている機器画像70から近い順に、各機器に連携順番を割り当ててもよい。図31に示す例では、機器画像70から近い順に、機器画像72、機器画像118及び機器画像116が連携先表示領域88内に表示されている。この場合、複合機(B)が最初に利用された後、プロジェクタ(C)、ディスプレイ(E)及びカメラ(D)の順番で、各機器が連携(利用)される。   When automatically setting the cooperation order, the cooperation order may be assigned to each device in the order closer to the device image 70 displayed in the start point display area 86. In the example illustrated in FIG. 31, the device image 72, the device image 118, and the device image 116 are displayed in the cooperation destination display area 88 in order from the device image 70. In this case, after the multifunction device (B) is first used, the devices are linked (used) in the order of the projector (C), the display (E), and the camera (D).

別の例として、起点表示領域86内に表示されている機器画像70から最も近い位置に表示されている機器画像に紐付く機器が、最初の連携先の機器として設定され、同一の連携先表示領域88内に表示されている機器画像同士の位置関係に基づいて、2番目以降の連携先機器の連携順番が順次決定されてもよい。例えば図32に示すように、機器画像70から最も近い位置に表示されている機器画像72に紐付く画像が、最初の連携先の機器として設定される。次に、連携先表示領域88内において、機器画像72に最も近い位置に表示されている機器画像116に紐付くカメラ(D)が、2番目の連携先の機器として設定される。次に、連携先表示領域88内において、連携先として既に設定された機器に紐付く機器画像(例えば機器画像72)以外の機器画像を対象として、機器画像116に最も近い位置に表示されている機器画像118に紐付くディスプレイ(E)が、3番目の連携先の機器として設定される。それ以降の連携順番についても同様である。   As another example, the device associated with the device image displayed in the position closest to the device image 70 displayed in the start point display area 86 is set as the first device of the cooperation destination, and the same cooperation destination display. Based on the positional relationship between the device images displayed in the area 88, the cooperation order of the second and subsequent cooperation destination devices may be sequentially determined. For example, as shown in FIG. 32, an image associated with the device image 72 displayed at the position closest to the device image 70 is set as the first device to be linked. Next, in the cooperation destination display area 88, the camera (D) associated with the device image 116 displayed at the position closest to the device image 72 is set as the second cooperation destination device. Next, in the cooperation destination display area 88, the device image other than the device image (for example, the device image 72) associated with the device already set as the cooperation destination is displayed at the position closest to the device image 116. The display (E) associated with the device image 118 is set as the third cooperation destination device. The same applies to the cooperation order after that.

以上のように、同一の連携先表示領域88内に複数の機器画像が表示されている場合に、機器画像同士の表示位置の関係に基づいて連携順番を自動的に設定することにより、ユーザの手間が省けて便利である。なお、同一の連携先表示領域88内に複数の機器部分画像が表示されている場合も、上記と同じ処理によって、各機器の部分の連携順番が決定される。もちろん、起点表示領域86内に、機器部分画像が表示されていてもよい。   As described above, when a plurality of device images are displayed in the same cooperation destination display area 88, the cooperation order is automatically set based on the relationship between the display positions of the device images. Convenient and saves time. Even when a plurality of device partial images are displayed in the same cooperation destination display area 88, the cooperation order of the portions of each device is determined by the same processing as described above. Of course, the device partial image may be displayed in the starting point display area 86.

なお、上述した実施形態及び変形例において、連携機能は、機器の全体同士の組み合わせを利用する機能であってもよいし、機器の部分同士の組み合わせを利用する機能であってもよいし、機器の全体と機器の部分との組み合わせを利用する機能であってもよい。   In the embodiment and the modification described above, the linkage function may be a function that uses a combination of all the devices, a function that uses a combination of parts of the devices, or a device. It is also possible to use a function that uses a combination of the entire device and the device portion.

また、ユーザの指示に応じて、各変形例の機能が切り替えられるようにしてもよい。例えば、ユーザが変形例1の機能の実行を指示した場合、変形例1の機能が実行され、これにより、機器表示画面に、起点表示領域と連携先表示領域が設定されてもよい。他の変形例についても同様であり、ユーザが変形例の機能の実行を指示した場合、当該変形例に係る機能が実行される。   In addition, the function of each modification may be switched in accordance with a user instruction. For example, when the user instructs the execution of the function of the first modification, the function of the first modification may be executed, and thereby the starting point display area and the cooperation destination display area may be set on the device display screen. The same applies to other modified examples. When the user instructs execution of the function of the modified example, the function according to the modified example is executed.

以下、上述した実施形態及び変形例において、機器が有する機能を実行するときの処理について説明する。一例として、連携機能を実行するときの処理について説明する。この場合、端末装置16から連携対象の機器に対して接続要求が送信され、端末装置16と連携対象の機器とが接続される。以下、図33を参照して、この接続処理について説明する。図33は、その処理を示すシーケンス図である。   Hereinafter, in the embodiment and the modification described above, a process when executing a function of the device will be described. As an example, a process when executing the cooperation function will be described. In this case, a connection request is transmitted from the terminal device 16 to the cooperation target device, and the terminal device 16 and the cooperation target device are connected. Hereinafter, this connection process will be described with reference to FIG. FIG. 33 is a sequence diagram showing the processing.

まず、ユーザは、端末装置16を利用して、機器機能実行用のアプリケーション(プログラム)の起動を指示する。端末装置16の制御部48は、その指示に応じて当該アプリケーションを起動させる(S01)。なお、そのアプリケーションは、端末装置16の記憶部44に予め記憶されていてもよいし、サーバ14等からダウンロードされてもよい。   First, the user uses the terminal device 16 to instruct activation of an application (program) for executing a device function. The control unit 48 of the terminal device 16 activates the application according to the instruction (S01). The application may be stored in advance in the storage unit 44 of the terminal device 16 or may be downloaded from the server 14 or the like.

次に、マーカ型AR技術、マーカレス型AR技術又は位置情報AR技術を適用することにより、連携対象の機器が識別される(S02)。もちろん、AR技術以外の技術によって連携対象の機器が識別されてもよい。マーカ型AR技術又はマーカレス型AR技術を適用する場合、ユーザは、端末装置16のカメラ42によって連携対象の機器を撮影する。一例として、画像形成装置10(複合機(B))とプロジェクタ12(プロジェクタ(C))が連携機器として用いられる場合、ユーザは、カメラ42によって画像形成装置10とプロジェクタ12を撮影する。画像形成装置10とプロジェクタ12のそれぞれの機器識別情報が取得され、画像形成装置10とプロジェクタ12が連携対象の機器として識別される。位置情報AR技術を適用する場合、画像形成装置10とプロジェクタ12のそれぞれの位置情報が取得され、その位置情報に基づいて、画像形成装置10とプロジェクタ12のそれぞれの機器識別情報が特定され、画像形成装置10とプロジェクタ12が識別される。   Next, by applying the marker type AR technology, the markerless type AR technology, or the position information AR technology, a device to be linked is identified (S02). Of course, a device to be linked may be identified by a technology other than the AR technology. When applying the marker type AR technology or the markerless type AR technology, the user photographs the device to be linked by the camera 42 of the terminal device 16. As an example, when the image forming apparatus 10 (multifunction machine (B)) and the projector 12 (projector (C)) are used as linked devices, the user photographs the image forming apparatus 10 and the projector 12 with the camera 42. Device identification information of the image forming apparatus 10 and the projector 12 is acquired, and the image forming apparatus 10 and the projector 12 are identified as devices to be linked. When the position information AR technology is applied, the position information of each of the image forming apparatus 10 and the projector 12 is acquired, and the device identification information of each of the image forming apparatus 10 and the projector 12 is specified based on the position information. The forming apparatus 10 and the projector 12 are identified.

上述したように、複数の機器が識別されたり、連携機能表示の指示が与えられたり、1つの機器が有する単独利用機能の実行指示が与えられる前に別の機器が識別されたりした場合、複数の機器が有する機能を利用する連携機能が識別される。端末装置16のUI部46には、識別された連携機能に関する情報が表示される。(S03)。連携機能の識別処理は、サーバ14によって行われてもよいし、端末装置16によって行われてもよい。   As described above, when a plurality of devices are identified, an instruction to display a cooperation function is given, or another device is identified before an instruction to execute a single use function of one device is given, A linkage function that uses the function of the device is identified. The UI unit 46 of the terminal device 16 displays information regarding the identified cooperation function. (S03). The identification process of the cooperation function may be performed by the server 14 or the terminal device 16.

次に、端末装置16において、ユーザによって実行対象の連携機能が指定されると、端末装置16は、その連携機能を実行する連携対象の機器(例えば画像形成装置10とプロジェクタ12)に接続要求を示す情報を送信する(S04)。例えば、連携対象の機器のアドレスを示すアドレス情報が、サーバ14に記憶されている場合、端末装置16は、連携対象の機器のアドレス情報をサーバ14から取得する。機器識別情報にアドレス情報が含まれている場合、端末装置16は、連携対象の機器の機器識別情報からそれぞれのアドレス情報を取得してもよい。別の例として、端末装置16に、連携対象の機器のアドレス情報が記憶されていてもよい。もちろん、端末装置16は、別の手法によって連携対象の機器のアドレス情報を取得してもよい。端末装置16は、連携対象の機器(例えば画像形成装置10とプロジェクタ12)のアドレス情報を用いて、連携対象の機器(例えば画像形成装置10とプロジェクタ12)に接続要求を示す情報を送信する。   Next, in the terminal device 16, when the cooperation function to be executed is designated by the user, the terminal device 16 sends a connection request to the cooperation target devices (for example, the image forming apparatus 10 and the projector 12) that execute the cooperation function. The information shown is transmitted (S04). For example, when the address information indicating the address of the cooperation target device is stored in the server 14, the terminal device 16 acquires the address information of the cooperation target device from the server 14. When the address information is included in the device identification information, the terminal device 16 may acquire each address information from the device identification information of the cooperation target device. As another example, the terminal device 16 may store address information of devices to be linked. Of course, the terminal device 16 may acquire the address information of the cooperation target device by another method. The terminal device 16 transmits information indicating a connection request to the cooperation target devices (for example, the image forming apparatus 10 and the projector 12) using the address information of the cooperation target devices (for example, the image forming apparatus 10 and the projector 12).

接続要求を示す情報を受けた画像形成装置10とプロジェクタ12は、端末装置16との接続を許可する、又は、許可しない(S05)。例えば、画像形成装置10とプロジェクタ12が、接続が許可されていない機器に該当する場合や、接続を要求している装置の数が上限を超えている機器に該当する場合、接続は許可されない。なお、端末装置16からの接続が許可された場合、画像形成装置10とプロジェクタ12の固有の設定情報が端末装置16から変更されないように、その変更操作を禁止してもよい。例えば、画像形成装置10の色彩のパラメータや、節電に移行する際の設定時間等の変更が禁止されてもよい。これにより、連携対象の機器に対するセキュリティが向上する。別の例として、機器を連携させる場合、当該機器を連携させずに単独で利用する場合と比べて、設定情報の変更が制限されてもよい。例えば、機器を単独で利用する場合と比べて、より少ない設定項目の変更が許可されてもよい。また、稼働履歴のような他のユーザの個人情報の閲覧を禁止してもよい。これにより、ユーザの個人情報に対するセキュリティが向上する。   Upon receiving the information indicating the connection request, the image forming apparatus 10 and the projector 12 permit or do not permit connection with the terminal device 16 (S05). For example, when the image forming apparatus 10 and the projector 12 correspond to devices that are not permitted to be connected, or when the number of devices that request connection exceeds the upper limit, the connection is not permitted. When the connection from the terminal device 16 is permitted, the change operation may be prohibited so that the setting information unique to the image forming apparatus 10 and the projector 12 is not changed from the terminal device 16. For example, it may be prohibited to change the color parameters of the image forming apparatus 10 or the set time when shifting to power saving. As a result, the security for the cooperation target device is improved. As another example, when the devices are linked, the change of the setting information may be limited as compared to the case where the devices are used alone without being linked. For example, fewer setting item changes may be permitted as compared to the case where the device is used alone. In addition, browsing of personal information of other users such as operation history may be prohibited. Thereby, the security with respect to a user's personal information improves.

接続の許可又は不許可を示す結果情報が、画像形成装置10とプロジェクタ12から端末装置16に送信される(S06)。画像形成装置10とプロジェクタ12への接続が許可された場合、端末装置16と、画像形成装置10及びプロジェクタ12と、の間で通信が確立される。   Result information indicating permission or non-permission of the connection is transmitted from the image forming apparatus 10 and the projector 12 to the terminal device 16 (S06). When the connection to the image forming apparatus 10 and the projector 12 is permitted, communication is established between the terminal device 16 and the image forming apparatus 10 and the projector 12.

次に、ユーザは端末装置16を利用して連携機能の実行を指示する(S07)。この指示に応じて、連携機能の実行指示を示す実行指示情報が、端末装置16から画像形成装置10とプロジェクタ12に送信される(S08)。画像形成装置10に送信される実行指示情報には、画像形成装置10にて実行される処理を示す情報(例えばジョブ情報)が含まれ、プロジェクタ12に送信される実行指示情報には、プロジェクタ12にて実行される処理を示す情報(例えばジョブ情報)が含まれる。   Next, the user uses the terminal device 16 to instruct execution of the cooperation function (S07). In response to this instruction, execution instruction information indicating an instruction to execute the cooperation function is transmitted from the terminal device 16 to the image forming apparatus 10 and the projector 12 (S08). The execution instruction information transmitted to the image forming apparatus 10 includes information (for example, job information) indicating processing executed in the image forming apparatus 10, and the execution instruction information transmitted to the projector 12 includes the projector 12. Includes information (for example, job information) indicating the process executed in step.

実行指示情報を受けた画像形成装置10とプロジェクタ12は、実行指示情報に従って機能を実行する(S09)。例えば、画像形成装置10(複合機(B))からプロジェクタ12(PC(A))へスキャンデータを転送してプロジェクタ12によってデータを投影する機能のように、連携機能に、画像形成装置10とプロジェクタ12との間でデータの送受信が行われる処理が含まれている場合、画像形成装置10とプロジェクタ12との間で通信が確立される。この場合、例えば、画像形成装置10に送信される実行指示情報にはプロジェクタ12のアドレス情報が含まれ、プロジェクタ12に送信される実行指示情報には画像形成装置10のアドレス情報が含まれ、それらのアドレス情報を用いて画像形成装置10とプロジェクタ12との間で通信が確立される。   Receiving the execution instruction information, the image forming apparatus 10 and the projector 12 execute the function according to the execution instruction information (S09). For example, the image forming apparatus 10 can be linked to the image forming apparatus 10 such as a function of transferring scan data from the image forming apparatus 10 (multifunction machine (B)) to the projector 12 (PC (A)) and projecting data by the projector 12. When processing for transmitting and receiving data to and from the projector 12 is included, communication is established between the image forming apparatus 10 and the projector 12. In this case, for example, the execution instruction information transmitted to the image forming apparatus 10 includes the address information of the projector 12, and the execution instruction information transmitted to the projector 12 includes the address information of the image forming apparatus 10. Communication is established between the image forming apparatus 10 and the projector 12 using the address information.

連携機能の実行が終了すると、連携機能の実行完了を示す情報が、画像形成装置10とプロジェクタ12から端末装置16に送信される(S10)。端末装置16のUI部46には、連携機能の実行が完了したことを示す情報が表示される(S11)。なお、実行指示を与えた時点から予め設定された時間が経過しても実行完了を示す情報が表示されない場合、端末装置16の制御部48は、エラーを示す情報をUI部46に表示させ、再度、実行指示情報、又は、接続要求を示す情報を、画像形成装置10とプロジェクタ12に送信してもよい。   When the execution of the cooperation function is completed, information indicating completion of execution of the cooperation function is transmitted from the image forming apparatus 10 and the projector 12 to the terminal device 16 (S10). Information indicating that the execution of the cooperation function is completed is displayed on the UI unit 46 of the terminal device 16 (S11). When information indicating execution completion is not displayed even after a preset time has elapsed since the execution instruction is given, the control unit 48 of the terminal device 16 causes the UI unit 46 to display information indicating an error, The execution instruction information or information indicating the connection request may be transmitted to the image forming apparatus 10 and the projector 12 again.

次に、ユーザは、画像形成装置10とプロジェクタ12の連携状態を解除するか否かを確認し(S12)、解除の有無に応じた処理が実行される(S13)。連携状態を解除する場合、ユーザは、端末装置16を利用して解除の指示を与える。これにより、端末装置16と、画像形成装置10及びプロジェクタ12と、の間の通信が解除される。同様に、画像形成装置10とプロジェクタ12との間の通信も解除される。連携状態を解除しない場合、継続して実行指示を与えてもよい。   Next, the user confirms whether or not to cancel the cooperative state between the image forming apparatus 10 and the projector 12 (S12), and performs processing according to the presence or absence of the cancellation (S13). When canceling the linked state, the user uses the terminal device 16 to give a cancellation instruction. Thereby, the communication between the terminal device 16 and the image forming apparatus 10 and the projector 12 is released. Similarly, communication between the image forming apparatus 10 and the projector 12 is also released. If the cooperation state is not canceled, an execution instruction may be given continuously.

また、連携対象の機器を増やしてもよい。例えば3台目の機器の機器識別情報が取得され、画像形成装置10とプロジェクタ12を含む3台の機器を連携させることによって実行される連携機能が特定されてもよい。なお、画像形成装置10とプロジェクタ12が既に連携機能として識別されていることを示す情報は、サーバ14や端末装置16に記憶される。   Moreover, you may increase the apparatus of cooperation object. For example, device identification information of a third device may be acquired, and a cooperation function executed by linking three devices including the image forming apparatus 10 and the projector 12 may be specified. Information indicating that the image forming apparatus 10 and the projector 12 have already been identified as the cooperation function is stored in the server 14 or the terminal device 16.

連携対象の機器を示す機器識別情報や、実行された連携機能を示す連携機能識別情報は、端末装置16やサーバ14等に記憶されてもよい。例えば、端末装置16を利用するユーザのユーザアカウント情報(ユーザ識別情報)が取得され、そのユーザアカウント情報と、連携対象の機器を示す機器識別情報と、実行された連携機能を示す連携機能識別情報と、の対応付けを示す履歴情報が作成され、端末装置16やサーバ14等に記憶されてもよい。履歴情報は、端末装置16によって作成されてもよいし、サーバ14によって作成されてもよい。履歴情報を参照することにより、どのような連携機能がどのような機器群を用いて実行されたのかが特定される。   The device identification information indicating the device to be linked and the linkage function identification information indicating the executed linkage function may be stored in the terminal device 16, the server 14, or the like. For example, user account information (user identification information) of a user who uses the terminal device 16 is acquired, the user account information, device identification information indicating a cooperation target device, and cooperation function identification information indicating an executed cooperation function May be created and stored in the terminal device 16, the server 14, or the like. The history information may be created by the terminal device 16 or the server 14. By referring to the history information, it is specified which cooperation function is executed using which device group.

なお、連携対象の機器(例えば画像形成装置10とプロジェクタ12)は、接続を要求したユーザのユーザアカウント情報や、接続要求元の端末装置16を示す端末識別情報を、履歴情報として記憶してもよい。この履歴情報を参照することにより、機器を利用したユーザが特定される。例えば、機器が壊れたときに当該機器を使用していたユーザを特定する場合や、消耗品等について課金処理を行う場合等に、履歴情報を活用してユーザを特定してもよい。履歴情報は、サーバ14や端末装置16に記憶されてもよいし、別の装置に記憶されてもよい。   Note that the devices to be linked (for example, the image forming apparatus 10 and the projector 12) may store the user account information of the user who has requested the connection and the terminal identification information indicating the connection request source terminal device 16 as history information. Good. By referring to the history information, the user who uses the device is specified. For example, the history information may be used to specify a user when specifying a user who has used the device when the device is broken, or when charging a consumable item. The history information may be stored in the server 14 or the terminal device 16 or may be stored in another device.

ユーザアカウント情報は、例えば、端末装置16の記憶部44に予め記憶されており、端末装置16の制御部48は、ユーザ識別手段の一例として機能し、記憶部44からユーザのユーザアカウント情報を読み込んで、端末装置16を使用するユーザを識別する。複数のユーザのユーザアカウント情報が記憶部44に記憶されている場合、ユーザは端末装置16を使用して、自身のユーザアカウント情報を指定する。これにより、当該ユーザのユーザアカウント情報が読み込まれ、当該ユーザが識別される。別の例として、端末装置16の制御部48は、端末装置16にログインしているユーザのユーザアカウント情報を読み込むことにより、ユーザを識別してもよい。更に別の例として、同一の端末装置16に、1つのユーザアカウント情報のみが記憶されている場合、端末装置16の制御部48は、そのユーザアカウント情報を読み込むことによりユーザを識別してもよい。なお、ユーザアカウントが設定されておらず、ユーザアカウント情報が作成されていない場合、初期設定が行われ、これにより、ユーザアカウント情報が作成される。   For example, the user account information is stored in advance in the storage unit 44 of the terminal device 16, and the control unit 48 of the terminal device 16 functions as an example of a user identification unit, and reads the user account information of the user from the storage unit 44. Thus, the user who uses the terminal device 16 is identified. When user account information of a plurality of users is stored in the storage unit 44, the user uses the terminal device 16 to specify his / her user account information. Thereby, the user account information of the user is read and the user is identified. As another example, the control unit 48 of the terminal device 16 may identify the user by reading the user account information of the user who has logged into the terminal device 16. As yet another example, when only one user account information is stored in the same terminal device 16, the control unit 48 of the terminal device 16 may identify the user by reading the user account information. . If no user account is set and user account information is not created, initial setting is performed, thereby creating user account information.

ユーザ毎に連携機能の利用履歴が管理され、読み込まれたユーザアカウント情報が示すユーザによって過去に利用された連携機能を示す情報が、端末装置16のUI部46に表示されてもよい。その利用履歴を示す情報は、端末装置16に記憶されていてもよいし、サーバ14に記憶されていてもよい。また、予め設定された利用頻度以上の頻度で利用されている連携機能を示す情報が表示されてもよい。このようなショートカット機能を設けることにより、連携機能に関するユーザの操作の手間が軽減される。   The use history of the cooperation function is managed for each user, and information indicating the cooperation function used in the past by the user indicated by the read user account information may be displayed on the UI unit 46 of the terminal device 16. Information indicating the usage history may be stored in the terminal device 16 or may be stored in the server 14. Moreover, the information which shows the cooperation function currently used with the frequency more than the preset usage frequency may be displayed. By providing such a shortcut function, it is possible to reduce the time and effort of the user's operation regarding the linkage function.

なお、単独利用機能が実行される場合、その単独利用機能の実行指示を示す情報が、端末装置16から単独利用機能を実行する機器に送信される。当該機器は、その実行指示に従って単独利用機能を実行する。   When the single use function is executed, information indicating an instruction to execute the single use function is transmitted from the terminal device 16 to a device that executes the single use function. The device executes the single use function according to the execution instruction.

上記の画像形成装置10、サーバ14及び端末装置16のそれぞれは、一例としてハードウェアとソフトウェアとの協働により実現される。具体的には、画像形成装置10、サーバ14及び端末装置16のそれぞれは、図示しないCPU等の1又は複数のプロセッサを備えている。当該1又は複数のプロセッサが、図示しない記憶装置に記憶されたプログラムを読み出して実行することにより、画像形成装置10、サーバ14及び端末装置16の各部の機能が実現される。上記プログラムは、CDやDVD等の記録媒体を経由して、又は、ネットワーク等の通信経路を経由して、記憶装置に記憶される。別の例として、画像形成装置10、サーバ14及び端末装置16のそれぞれの各部は、例えばプロセッサや電子回路等のハードウェア資源により実現されてもよい。その実現においてメモリ等のデバイスが利用されてもよい。更に別の例として、画像形成装置10、サーバ14及び端末装置16のそれぞれの各部は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等によって実現されてもよい。   Each of the image forming apparatus 10, the server 14, and the terminal device 16 is realized by cooperation of hardware and software, for example. Specifically, each of the image forming apparatus 10, the server 14, and the terminal device 16 includes one or a plurality of processors such as a CPU (not shown). The function of each unit of the image forming apparatus 10, the server 14, and the terminal device 16 is realized by the one or more processors reading and executing a program stored in a storage device (not shown). The program is stored in the storage device via a recording medium such as a CD or DVD, or via a communication path such as a network. As another example, each unit of the image forming apparatus 10, the server 14, and the terminal device 16 may be realized by hardware resources such as a processor and an electronic circuit. In the realization, a device such as a memory may be used. As another example, each part of the image forming apparatus 10, the server 14, and the terminal device 16 may be realized by a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), or the like.

10 機器(画像形成装置)、12 機器(プロジェクタ)、14 サーバ、16 端末装置、32 機器機能情報、34 連携機能情報、38 特定部。
DESCRIPTION OF SYMBOLS 10 apparatus (image forming apparatus), 12 apparatus (projector), 14 server, 16 terminal device, 32 apparatus function information, 34 cooperation function information, 38 specification part.

Claims (9)

第1機器に紐付く第1画像と第2機器に紐付く第2画像の表示位置に応じて、前記第1機器が有する第1機能と前記第2機器が有する第2機能とを組み合わせることで実行可能な連携機能の表示を切り替える制御手段を有する情報処理装置。   By combining the first function possessed by the first device and the second function possessed by the second device in accordance with the display position of the first image associated with the first device and the second image associated with the second device. An information processing apparatus having a control unit that switches display of executable cooperation functions. 前記第1画像は前記第1機器を撮影することで得られた画像であり、
前記第2画像は前記第2機器を撮影することで得られた画像である、
ことを特徴とする請求項1に記載の情報処理装置。
The first image is an image obtained by photographing the first device;
The second image is an image obtained by photographing the second device.
The information processing apparatus according to claim 1.
前記第1画像に基づいて前記第1機器を識別し、前記第2画像に基づいて前記第2機器を識別する識別手段を更に有し、
前記制御手段は、前記識別手段によって前記第1機器と前記第2機器が識別された場合、前記表示位置に応じて前記連携機能の表示を切り替える、
ことを特徴とする請求項2に記載の情報処理装置。
Identifying means for identifying the first device based on the first image and identifying the second device based on the second image;
The control unit switches the display of the cooperation function according to the display position when the first device and the second device are identified by the identification unit.
The information processing apparatus according to claim 2.
第1機能に紐付く第1画像と第2機能に紐付く第2画像の表示位置に応じて、前記第1機能と前記第2機能とを組み合わせることで実行可能な連携機能の表示を制御する制御手段を有する情報処理装置。   The display of the cooperation function executable by combining the first function and the second function is controlled according to the display position of the first image associated with the first function and the second image associated with the second function. An information processing apparatus having a control means. 前記制御手段は、前記第1画像内の部分画像と前記第2画像内の部分画像の表示位置に応じて、前記第1画像内の部分画像に紐付く機能と前記第2画像内の部分画像に紐付く機能とを組み合わせることで実行可能な前記連携機能の表示を切り替える、
ことを特徴とする請求項1から請求項4何れかに記載の情報処理装置。
The control means has a function associated with a partial image in the first image and a partial image in the second image according to a display position of the partial image in the first image and the partial image in the second image. To switch the display of the linkage function that can be executed by combining the function associated with
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
部分画像毎に異なる機能が紐付けられている、
ことを特徴とする請求項5に記載の情報処理装置。
Different functions are linked to each partial image,
The information processing apparatus according to claim 5.
前記連携機能は、連携前には利用できなかった機能である、
ことを特徴とする請求項1から請求項6何れかに記載の情報処理装置。
The cooperation function is a function that could not be used before cooperation.
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
コンピュータを、
第1機器に紐付く第1画像と第2機器に紐付く第2画像の表示位置に応じて、前記第1機器が有する第1機能と前記第2機器が有する第2機能とを組み合わせることで実行可能な連携機能の表示を切り替える切換手段、
として機能させるプログラム。
Computer
By combining the first function possessed by the first device and the second function possessed by the second device in accordance with the display position of the first image associated with the first device and the second image associated with the second device. Switching means for switching the display of executable linkage functions;
Program to function as.
コンピュータを、
第1機能に紐付く第1画像と第2機能に紐付く第2画像の表示位置に応じて、前記第1機能と前記第2機能とを組み合わせることでえ実行可能な連携機能の表示を制御する制御手段、
として機能させるプログラム。
Computer
Control the display of executable functions that can be executed by combining the first function and the second function in accordance with the display position of the first image associated with the first function and the second image associated with the second function. Control means,
Program to function as.
JP2017113023A 2017-06-07 2017-06-07 Information processing apparatus and program Active JP6455551B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017113023A JP6455551B2 (en) 2017-06-07 2017-06-07 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017113023A JP6455551B2 (en) 2017-06-07 2017-06-07 Information processing apparatus and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016205160A Division JP6179653B1 (en) 2016-05-06 2016-10-19 Information processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2018067291A true JP2018067291A (en) 2018-04-26
JP6455551B2 JP6455551B2 (en) 2019-01-23

Family

ID=62087188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017113023A Active JP6455551B2 (en) 2017-06-07 2017-06-07 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP6455551B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013062654A (en) * 2011-09-13 2013-04-04 Ricoh Co Ltd Information terminal, processing flow control program and processing flow control system
JP2013161246A (en) * 2012-02-03 2013-08-19 Konica Minolta Inc Portable terminal, control program of portable terminal, and display system including portable terminal
JP2015055987A (en) * 2013-09-11 2015-03-23 コニカミノルタ株式会社 Image processing system, portable terminal, server device and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013062654A (en) * 2011-09-13 2013-04-04 Ricoh Co Ltd Information terminal, processing flow control program and processing flow control system
JP2013161246A (en) * 2012-02-03 2013-08-19 Konica Minolta Inc Portable terminal, control program of portable terminal, and display system including portable terminal
JP2015055987A (en) * 2013-09-11 2015-03-23 コニカミノルタ株式会社 Image processing system, portable terminal, server device and program

Also Published As

Publication number Publication date
JP6455551B2 (en) 2019-01-23

Similar Documents

Publication Publication Date Title
JP6179653B1 (en) Information processing apparatus and program
JP6052459B1 (en) Information processing apparatus and program
JP6024848B1 (en) Information processing apparatus and program
JP6052458B1 (en) Information processing apparatus and program
US10447871B2 (en) Information processing device for controlling display of device, information processing method, and non-transitory computer readable medium
CN107391061B (en) Information processing apparatus and information processing method
JP6160761B1 (en) Information processing apparatus and program
JP6146528B1 (en) Information processing apparatus and program
US10440208B2 (en) Information processing apparatus with cooperative function identification
JP7235072B2 (en) Information processing device, program and control method
JP6493466B2 (en) Information processing apparatus and program
JP6327387B2 (en) Information processing apparatus and program
JP6443498B2 (en) Information processing apparatus and program
JP6972738B2 (en) Information processing equipment and programs
JP6455551B2 (en) Information processing apparatus and program
CN108307084B (en) Information processing apparatus, information processing method, and computer program
JP2018129097A (en) Information processing apparatus and program
JP6958680B2 (en) Information processing equipment and programs
JP2018067292A (en) Information processing apparatus and program
JP6443497B2 (en) Information processing apparatus and program
JP6743928B2 (en) Information processing device and program
JP2019068442A (en) Information processing apparatus and program
JP2022027759A (en) Information processing unit, program and control method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181203

R150 Certificate of patent or registration of utility model

Ref document number: 6455551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350