JP2013161246A - Portable terminal, control program of portable terminal, and display system including portable terminal - Google Patents

Portable terminal, control program of portable terminal, and display system including portable terminal Download PDF

Info

Publication number
JP2013161246A
JP2013161246A JP2012022461A JP2012022461A JP2013161246A JP 2013161246 A JP2013161246 A JP 2013161246A JP 2012022461 A JP2012022461 A JP 2012022461A JP 2012022461 A JP2012022461 A JP 2012022461A JP 2013161246 A JP2013161246 A JP 2013161246A
Authority
JP
Japan
Prior art keywords
data processing
mobile terminal
data
data flow
flow information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012022461A
Other languages
Japanese (ja)
Other versions
JP5989347B2 (en
Inventor
Tomonori Sato
友則 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2012022461A priority Critical patent/JP5989347B2/en
Publication of JP2013161246A publication Critical patent/JP2013161246A/en
Application granted granted Critical
Publication of JP5989347B2 publication Critical patent/JP5989347B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a portable terminal that enables a user to easily grasp a physical position relationship of each device when executing data processing using the plurality of devices on a network.SOLUTION: A portable terminal 2 includes: a position specification unit for specifying a position of an own machine; a posture specification unit for specifying a posture of the own machine; and a display unit for displaying data flow information A2 indicating the flow of data with executable data processing by data processing devices (a scanner 3, and printers 4, 5), which are detected based on the position and the posture specified by the position specification unit and the posture specification unit, existing within a predetermined distance from the own machine and existing in a specification direction of being viewed from the own machine.

Description

本発明は、自機の位置及び姿勢を特定する機能を有する携帯端末、当該携帯端末の制御プログラム、及び当該携帯端末を含む表示システムに関する。   The present invention relates to a mobile terminal having a function of specifying the position and orientation of its own device, a control program for the mobile terminal, and a display system including the mobile terminal.

近年のオフィス環境には、各人が使用するPCのみならず、全員で共用するプリンターやスキャナー等の多数のネットワーク機器が設置されているのが一般的である。このようなオフィス環境においてプリントやスキャン等を実行する際には、IPアドレスやIPアドレスに紐付けられた機器ID等を用いてネットワーク機器を指定する必要があるが、ユーザーがIPアドレスや機器ID等から個々のネットワーク機器を特定することは困難である場合が多い。   In recent office environments, not only a PC used by each person but also a large number of network devices such as printers and scanners shared by all are installed. When executing printing or scanning in such an office environment, it is necessary to specify a network device using an IP address or a device ID linked to the IP address. It is often difficult to identify individual network devices from the above.

例えば、スキャナーとプリンターの組み合わせによるスキャン&プリントを実行する際に、ユーザーはPC上で両機器のIPアドレス等を指定する必要があるが、そのIPアドレス等の情報のみからでは両機器の設置場所や位置関係等を把握することは困難である。そのため、原稿を読み取らせるスキャナーと印刷物を出力させるプリンターの設置場所等を逐一確認しなければならず、ユーザーの負担が大きくなるという問題が指摘されている。この問題はより多くのネットワーク機器が設置されたオフィス環境において顕著になる。   For example, when performing a scan and print process using a combination of a scanner and a printer, the user needs to specify the IP addresses of both devices on the PC. It is difficult to grasp the positional relationship and the like. For this reason, it has been pointed out that the installation location of the scanner for reading the original and the printer for outputting the printed matter must be checked one by one, which increases the burden on the user. This problem becomes prominent in an office environment where more network devices are installed.

他方、スキャンやプリント等の各種機能を兼ね備えたMFP(Multi−Function Peripheral)を用いてスキャン&プリントを実行することも可能ではあるが、MFPの操作パネル上でログインパスワードを入力したり印刷プレビューを表示したりする際に横からのぞき見られる危険性があるため、セキュリティ上の問題が生じる虞がある。   On the other hand, although it is possible to scan and print using an MFP (Multi-Function Peripheral) that has various functions such as scanning and printing, you can enter a login password or print preview on the operation panel of the MFP. Since there is a danger of being peeped from the side when displaying, there is a possibility that a security problem may occur.

上記問題点に関連して、以下の特許文献1には、モバイル端末の現在位置の近辺に存在する印刷用デバイスを検索し、見つかった印刷用デバイスのアイコンをモバイル端末の現在位置を中心とする地図画像上の適当な位置に配置したものをWebページとして公開するサーバー装置が提案されている。しかし、特許文献1のサーバー装置を用いたとしても、ユーザーは二次元の地図画像上でモバイル端末と印刷用デバイスとの位置関係を把握することができるにすぎず、印刷用デバイスがどの方向に配置されているのかを特定することは必ずしも容易ではない。   In relation to the above problem, the following Patent Document 1 searches for a printing device that exists in the vicinity of the current position of the mobile terminal, and the icon of the found printing device is centered on the current position of the mobile terminal. There has been proposed a server device that publishes a web page that is arranged at an appropriate position on a map image. However, even if the server device of Patent Document 1 is used, the user can only grasp the positional relationship between the mobile terminal and the printing device on the two-dimensional map image, and in which direction the printing device is located. It is not always easy to specify whether it is arranged.

特開2004−234218号公報JP 2004-234218 A

本発明は、上記従来技術の有する問題点に鑑みてなされたものであり、本発明の目的は、ネットワーク上の複数の装置を用いてデータ処理を実行する際にユーザーが各装置の物理的な位置関係を容易に把握することができる携帯端末、当該携帯端末の制御プログラム、及び当該携帯端末を含む表示システムを提供することである。   The present invention has been made in view of the above-described problems of the prior art, and an object of the present invention is to allow a user to physically execute each device when executing data processing using a plurality of devices on a network. To provide a mobile terminal capable of easily grasping the positional relationship, a control program for the mobile terminal, and a display system including the mobile terminal.

本発明の上記目的は、下記の手段によって達成される。   The above object of the present invention is achieved by the following means.

(1)自機の位置を特定する位置特定部と、自機の姿勢を特定する姿勢特定部と、前記位置特定部及び前記姿勢特定部により特定された位置及び姿勢に基づいて検出されたデータ処理装置であって、自機から所定の距離内に存在し、かつ、自機から見た特定の方向に存在するデータ処理装置により実行可能なデータ処理に伴うデータの流れを示すデータフロー情報を表示する表示部と、を有する携帯端末。   (1) A position specifying unit for specifying the position of the own device, a posture specifying unit for specifying the posture of the own device, and data detected based on the position and posture specified by the position specifying unit and the posture specifying unit. Data flow information indicating the flow of data associated with data processing that can be executed by a data processing device that is within a predetermined distance from the own device and that exists in a specific direction as seen from the own device. And a display unit for displaying.

(2)前記特定の方向の画像を撮影する撮影部をさらに有し、前記表示部は、前記撮影部による撮影画像に前記データフロー情報を重ね合わせて表示することを特徴とする上記(1)に記載の携帯端末。   (2) The image processing apparatus further includes an image capturing unit that captures an image in the specific direction, and the display unit displays the data flow information superimposed on an image captured by the image capturing unit. The portable terminal as described in.

(3)前記表示部は、前記撮影部による撮影画像に前記データ処理装置が映っていないときに、前記撮影部による撮影画像に前記データ処理装置を表すアイコンを重ね合わせて表示することを特徴とする上記(2)に記載の携帯端末。   (3) The display unit displays an icon representing the data processing device superimposed on the image captured by the imaging unit when the data processing device is not reflected in the image captured by the imaging unit. The portable terminal according to (2) above.

(4)前記表示部は、前記データ処理に伴うデータの通信方式を示す通信方式情報を前記データフロー情報と関連付けて表示することを特徴とする上記(1)〜(3)のいずれか1つに記載の携帯端末。   (4) Any one of the above (1) to (3), wherein the display unit displays communication method information indicating a data communication method associated with the data processing in association with the data flow information. The portable terminal as described in.

(5)前記表示部は、前記データ処理の操作指示を受け付けるための操作ボタンを前記データフロー情報と関連付けて表示することを特徴とする上記(1)〜(4)のいずれか1つに記載の携帯端末。   (5) The display unit displays an operation button for receiving an operation instruction for the data processing in association with the data flow information, according to any one of (1) to (4) above. Mobile devices.

(6)前記表示部は、前記操作ボタンにより前記操作指示を受け付けたときに、前記データ処理の操作ガイダンスを表示することを特徴とする上記(5)に記載の携帯端末。   (6) The mobile terminal according to (5), wherein the display unit displays an operation guidance for the data processing when the operation instruction is received by the operation button.

(7)前記表示部は、前記データ処理装置が自機から所定の距離内に存在しなくなるか、又は自機から見た特定の方向に存在しなくなったときに、前記データ処理装置を表すアイコンを前記データフロー情報と関連付けて表示することを特徴とする上記(1)〜(6)のいずれか1つに記載の携帯端末。   (7) The display unit displays an icon representing the data processing device when the data processing device does not exist within a predetermined distance from the own device or does not exist in a specific direction viewed from the own device. Is displayed in association with the data flow information. The mobile terminal according to any one of (1) to (6) above.

(8)前記データフロー情報は、前記データ処理に伴うデータの流れを示す矢印からなるアノテーション画像であることを特徴とする上記(1)〜(7)のいずれか1つに記載の端末装置。   (8) The terminal device according to any one of (1) to (7), wherein the data flow information is an annotation image including arrows indicating a data flow associated with the data processing.

(9)携帯端末の制御プログラムであって、自機の位置を特定する手順(A)と、自機の姿勢を特定する手順(B)と、前記手順(A)及び(B)で特定された位置及び姿勢に基づいて検出されたデータ処理装置であって、自機から所定の距離内に存在し、かつ、自機から見た特定の方向に存在するデータ処理装置により実行可能なデータ処理に伴うデータの流れを示すデータフロー情報を表示する手順(C)と、を携帯端末に実行させることを特徴とする制御プログラム。   (9) A mobile terminal control program, which is specified by the procedure (A) for specifying the position of the own device, the procedure (B) for specifying the posture of the own device, and the procedures (A) and (B). A data processing device that is detected based on the position and orientation, and that can be executed by a data processing device that exists within a predetermined distance from the own device and that exists in a specific direction as seen from the own device. A control program for causing a mobile terminal to execute a procedure (C) for displaying data flow information indicating a data flow associated with the mobile terminal.

(10)前記特定の方向の画像を撮影する手順(a)をさらに前記携帯端末に実行させ、前記手順(C)では、前記手順(a)での撮影画像に前記データフロー情報を重ね合わせて表示することを特徴とする上記(9)に記載の制御プログラム。   (10) The portable terminal is further caused to execute the procedure (a) for capturing an image in the specific direction, and in the procedure (C), the data flow information is superimposed on the captured image in the procedure (a). The control program according to (9), wherein the control program is displayed.

(11)前記手順(C)では、前記手順(a)での撮影画像に前記データ処理装置が映っていないときに、前記手順(a)での撮影画像に前記データ処理装置を表すアイコンを重ね合わせて表示することを特徴とする上記(10)に記載の制御プログラム。   (11) In the procedure (C), when the data processing device is not shown in the captured image in the procedure (a), an icon representing the data processing device is superimposed on the captured image in the procedure (a). The control program according to (10) above, characterized by being displayed together.

(12)前記手順(C)では、前記データ処理に伴うデータの通信方式を示す通信方式情報を前記データフロー情報と関連付けて表示することを特徴とする上記(9)〜(11)のいずれか1つに記載の制御プログラム。   (12) In the procedure (C), any one of the above (9) to (11), wherein communication method information indicating a data communication method associated with the data processing is displayed in association with the data flow information. The control program according to one.

(13)前記手順(C)では、前記データ処理の操作指示を受け付けるための操作ボタンを前記データフロー情報と関連付けて表示することを特徴とする上記(9)〜(12)のいずれか1つに記載の制御プログラム。   (13) In the procedure (C), an operation button for receiving an operation instruction for the data processing is displayed in association with the data flow information, and any one of the above (9) to (12) The control program described in 1.

(14)前記手順(C)では、前記操作ボタンにより前記操作指示を受け付けたときに、前記データ処理の操作ガイダンスを表示することを特徴とする上記(13)に記載の制御プログラム。   (14) In the procedure (C), when the operation instruction is received by the operation button, an operation guidance for the data processing is displayed.

(15)前記手順(C)では、前記データ処理装置が自機から所定の距離内に存在しなくなるか、又は自機から見た特定の方向に存在しなくなったときに、前記データ処理装置を表すアイコンを前記データフロー情報と関連付けて表示することを特徴とする上記(9)〜(14)のいずれか1つに記載の制御プログラム。   (15) In the procedure (C), when the data processing device does not exist within a predetermined distance from the own device or does not exist in a specific direction viewed from the own device, the data processing device is The control program according to any one of (9) to (14) above, wherein an icon to be displayed is displayed in association with the data flow information.

(16)前記データフロー情報は、前記データ処理に伴うデータの流れを示す矢印からなるアノテーション画像であることを特徴とする上記(9)〜(15)のいずれか1つに記載の制御プログラム。   (16) The control program according to any one of (9) to (15), wherein the data flow information is an annotation image including arrows indicating a data flow associated with the data processing.

(17)上記(9)〜(16)のいずれか1つに記載の制御プログラムが記録されたコンピューター読み取り可能な記録媒体。   (17) A computer-readable recording medium on which the control program according to any one of (9) to (16) is recorded.

(18)相互に通信可能な携帯端末と、サーバーと、を含む表示システムであって、前記携帯端末は、自機の位置を特定する位置特定部と、自機の姿勢を特定する姿勢特定部と、を有し、前記サーバーは、前記位置特定部及び前記姿勢特定部により特定された位置及び姿勢に基づき、前記携帯端末から所定の距離内に存在し、かつ、前記携帯端末から見た特定の方向に存在するデータ処理装置を検出する検出部を有し、前記携帯端末は、前記検出部により検出された前記データ処理装置により実行可能なデータ処理に伴うデータの流れを示すデータフロー情報を表示する表示部をさらに有することを特徴とする表示システム。   (18) A display system including a mobile terminal and a server that can communicate with each other, wherein the mobile terminal specifies a position specifying unit that specifies a position of the own device and an attitude specifying unit that specifies the posture of the own device. And the server is located within a predetermined distance from the portable terminal and is identified from the portable terminal based on the position and posture specified by the position specifying unit and the posture specifying unit. A data processing unit having a detection unit that detects a data processing device existing in the direction of the data, wherein the portable terminal includes data flow information indicating a data flow associated with data processing executable by the data processing device detected by the detection unit. A display system further comprising a display unit for displaying.

本発明によると、携帯端末から所定距離内に存在し、かつ、携帯端末から見た特定方向に存在する装置により実行可能なデータ処理に伴うデータの流れを示す情報が携帯端末の表示部に表示される。よって、本発明によると、ネットワーク上の各装置の物理的な位置関係を容易に、かつ、直感的に把握することができるため、ネットワーク上の複数の装置を用いて各種データ処理を実行する際のユーザーの負担が大幅に軽減される。   According to the present invention, information indicating a data flow associated with data processing that can be executed by a device that exists within a predetermined distance from a mobile terminal and that is present in a specific direction viewed from the mobile terminal is displayed on the display unit of the mobile terminal. Is done. Therefore, according to the present invention, the physical positional relationship between each device on the network can be easily and intuitively grasped, and therefore when performing various data processing using a plurality of devices on the network. The burden on users is greatly reduced.

本発明の一実施形態に係る携帯端末を含む表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the display system containing the portable terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係る携帯端末を含む表示システムを一方向から眺めた斜視図である。It is the perspective view which looked at the display system containing the portable terminal concerning one embodiment of the present invention from one direction. 本発明の一実施形態に係るARサーバーの構成を示すブロック図である。It is a block diagram which shows the structure of AR server which concerns on one Embodiment of this invention. 本発明の一実施形態に係るARサーバーの諸機能を概念的に示すブロック図である。It is a block diagram which shows notionally various functions of AR server which concerns on one Embodiment of this invention. 本発明の一実施形態に係る携帯端末の構成を示すブロック図である。It is a block diagram which shows the structure of the portable terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係る装置情報テーブルを示す概略図である。It is the schematic which shows the apparatus information table which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ処理情報テーブルを示す概略図である。It is the schematic which shows the data processing information table which concerns on one Embodiment of this invention. 本発明の一実施形態に係る携帯端末を含む表示システムにおける信号のやりとりを示すシーケンスチャートである。It is a sequence chart which shows exchange of the signal in the display system containing the portable terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係る携帯端末を含む表示システムにおける信号のやりとりを示すシーケンスチャートである。It is a sequence chart which shows exchange of the signal in the display system containing the portable terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係る携帯端末を含む表示システムにおける信号のやりとりを示すシーケンスチャートである。It is a sequence chart which shows exchange of the signal in the display system containing the portable terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係る携帯端末により表示されるAR画像の一例を示す概略図である。It is the schematic which shows an example of AR image displayed with the portable terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係る携帯端末により表示されるAR画像の一例を示す概略図である。It is the schematic which shows an example of AR image displayed with the portable terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係る携帯端末のAR画像表示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of AR image display processing of the portable terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係る携帯端末のAR画像表示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of AR image display processing of the portable terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係る携帯端末により表示されるAR画像の一例を示す概略図である。It is the schematic which shows an example of AR image displayed with the portable terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係る携帯端末により表示されるAR画像の一例を示す概略図である。It is the schematic which shows an example of AR image displayed with the portable terminal which concerns on one Embodiment of this invention.

以下、本発明の実施の形態を、図面を参照しながら詳細に説明する。
<システムの構成>
図1は、本発明の一実施形態に係る携帯端末を含む表示システムの一例を示すブロック図である。図1のように、本システムは、AR(Augmented Reality)サーバー1、携帯端末2、及び各種データ処理を実行可能なデータ処理装置3〜6を備えており、これらはネットワークNを介して相互に通信可能に接続されている。ただし、携帯端末2は無線LANルーターや無線基地局等を介してネットワークNに接続されている。また、携帯端末2は、BluetoothやWi−Fi(Wireless Fidelity)等の無線通信技術によりネットワークN上の他の装置と直接通信することもできる。ここで、ネットワークNは、イーサネット(登録商標)、トークンリング、FDDI(Fiber Distributed Data Interface)等の規格によるLAN(Local Area Network)、又はLANどうしを専用線で接続したWAN(Wide Area Network)等である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<System configuration>
FIG. 1 is a block diagram illustrating an example of a display system including a mobile terminal according to an embodiment of the present invention. As shown in FIG. 1, this system includes an AR (Augmented Reality) server 1, a mobile terminal 2, and data processing devices 3 to 6 that can execute various data processing. It is connected so that it can communicate. However, the mobile terminal 2 is connected to the network N via a wireless LAN router, a wireless base station, or the like. In addition, the mobile terminal 2 can directly communicate with other devices on the network N by wireless communication technology such as Bluetooth or Wi-Fi (Wireless Fidelity). Here, the network N is a LAN (Local Area Network) according to a standard such as Ethernet (registered trademark), Token Ring, FDDI (Fiber Distributed Data Interface), or a WAN (Wide Area Network) in which LANs are connected by a dedicated line. It is.

図2は、図1の例による表示システムを一方向から眺めたときの斜視図である。図2の例において、ARサーバー1及びデータ処理装置6は、他の装置とは壁を隔てた別の居室内に配置されているため斜視図には描かれていない。図1、2の例において、データ処理装置3はスキャナーであり、データ処理装置4、5はプリンターであり、データ処理装置6はファイルサーバーである。ただし、本システムを構成する装置の種類や台数等は図1、2中の例に限定されない。各装置の詳細な構成について以下に順に説明する。   FIG. 2 is a perspective view when the display system according to the example of FIG. 1 is viewed from one direction. In the example of FIG. 2, the AR server 1 and the data processing device 6 are not drawn in the perspective view because they are arranged in another room separated from other devices by a wall. 1 and 2, the data processing device 3 is a scanner, the data processing devices 4 and 5 are printers, and the data processing device 6 is a file server. However, the types and the number of devices constituting this system are not limited to the examples in FIGS. The detailed configuration of each device will be described in order below.

図3は、本実施形態に係るARサーバー1の構成を示すブロック図である。図3のように、ARサーバー1は、制御部11、記憶部12、及び通信インターフェース13を備えており、これらは信号をやり取りするためのバス10を介して接続されている。各部の詳細な構成について以下に順に説明する。   FIG. 3 is a block diagram showing a configuration of the AR server 1 according to the present embodiment. As shown in FIG. 3, the AR server 1 includes a control unit 11, a storage unit 12, and a communication interface 13, which are connected via a bus 10 for exchanging signals. The detailed configuration of each part will be described in order below.

制御部11は、CPU(Central Processing Unit)であり、プログラムに従って各部の動作を制御することによりARサーバー1の諸機能を実現する。ARサーバー1の諸機能については後述する。記憶部12は、CPUの作業領域として一時的にデータを記憶するRAM(Random Access Memory)、ARサーバー1の基本動作を制御するための各種プログラムやパラメーター等を格納するROM(Read Only Memory)、及びOS(Operating System)を含む各種プログラムやパラメーター等を格納するHDD(Hard Disk Drive)を備えている。特に、記憶部12には、後述する装置情報テーブル及びデータ処理情報テーブルが格納されている(図6、7参照)。通信インターフェース13は、ネットワークN上の他の装置と双方向通信を行うためのインターフェースである。   The control unit 11 is a CPU (Central Processing Unit), and realizes various functions of the AR server 1 by controlling the operation of each unit according to a program. Various functions of the AR server 1 will be described later. The storage unit 12 includes a RAM (Random Access Memory) that temporarily stores data as a work area of the CPU, a ROM (Read Only Memory) that stores various programs and parameters for controlling the basic operation of the AR server 1, And an HDD (Hard Disk Drive) for storing various programs including the OS (Operating System), parameters, and the like. In particular, the storage unit 12 stores a device information table and a data processing information table, which will be described later (see FIGS. 6 and 7). The communication interface 13 is an interface for performing bidirectional communication with other devices on the network N.

図4は、制御部11により実現される諸機能部を概念的に示すブロック図である。図4のように、制御部11は、状態取得部11a、ログイン認証部11b、装置検出部11c、及びデータ抽出部11dの各機能部を備えている。これらの機能について以下に順に説明する。状態取得部11aは、ネットワークNを介して各データ処理装置と定期的に通信することにより各データ処理装置の状態(ステータス)を取得する。ログイン認証部11bは、携帯端末2からのログイン通知に応じてARサーバー1へのログイン可否を判定する。   FIG. 4 is a block diagram conceptually showing various function units realized by the control unit 11. As shown in FIG. 4, the control unit 11 includes functional units such as a state acquisition unit 11 a, a login authentication unit 11 b, a device detection unit 11 c, and a data extraction unit 11 d. These functions will be described in order below. The status acquisition unit 11a acquires the status (status) of each data processing device by periodically communicating with each data processing device via the network N. The login authentication unit 11b determines whether or not to log in to the AR server 1 according to the login notification from the mobile terminal 2.

装置検出部11cは、携帯端末2からの指令に応じて携帯端末2から所定距離内に存在するデータ処理装置を検出する。より具体的に、装置検出部11cは、携帯端末2から受信した位置情報、及び記憶部12に格納されている各データ処理の位置座標に基づいて、携帯端末2から各データ処理装置までの距離を算出する。装置検出部11cにより検出されたデータ処理装置のことを以下では「近接装置」と称することがある。   The device detection unit 11 c detects a data processing device existing within a predetermined distance from the mobile terminal 2 in response to a command from the mobile terminal 2. More specifically, the device detection unit 11c is based on the position information received from the mobile terminal 2 and the position coordinates of each data processing stored in the storage unit 12, and the distance from the mobile terminal 2 to each data processing device. Is calculated. Hereinafter, the data processing device detected by the device detection unit 11c may be referred to as a “proximity device”.

データ抽出部11dは、携帯端末2からの指令に応じて記憶部12内の装置情報テーブルやデータ処理情報テーブル(図6、7参照)等の一部を抽出して携帯端末2に送信する。より具体的に、データ抽出部11dは、装置検出部11cにより検出した近接装置の一覧を作成して携帯端末2に送信したり、複数の近接装置の組み合わせにより実行可能なデータ処理の一覧を作成して携帯端末2に送信したりする。   The data extraction unit 11 d extracts a part of the device information table, the data processing information table (see FIGS. 6 and 7) and the like in the storage unit 12 in response to a command from the mobile terminal 2 and transmits the extracted information to the mobile terminal 2. More specifically, the data extraction unit 11d creates a list of proximity devices detected by the device detection unit 11c and transmits the list to the mobile terminal 2, or creates a list of data processes that can be executed by a combination of a plurality of proximity devices. And transmitted to the mobile terminal 2.

図6は、記憶部12に格納されている装置情報テーブルT1の概略図である。図6のように、装置情報テーブルT1は、ネットワークN上のデータ処理装置3〜6の各々に対応する「装置ID」、「装置名」、「装置種類」、「IPアドレス」、及び「位置座標」を保持している。装置情報テーブルT1の各行のことを以下では「装置情報」と称することがある。   FIG. 6 is a schematic diagram of the device information table T1 stored in the storage unit 12. As shown in FIG. 6, the device information table T1 includes “device ID”, “device name”, “device type”, “IP address”, and “position” corresponding to each of the data processing devices 3 to 6 on the network N. "Coordinates" are retained. Hereinafter, each row of the device information table T1 may be referred to as “device information”.

図7は、記憶部12に格納されているデータ処理テーブルT2の概略図である。図7のように、データ処理テーブルT2は、ネットワークN上の複数のデータ処理装置の組み合わせにより実行可能なデータ処理の各々に対応する「処理ID」、「主装置ID」、「従装置ID」、「通信方式」、及び「処理内容」を保持している。ここで、「処理ID」とは、各々のデータ処理に付与されたIDであり、「主装置ID」とは、各々のデータ処理に伴うデータフローの入力側装置(すなわち、データ送信側装置)の装置IDであり、「従装置ID」とは、各々のデータ処理に伴うデータフローの出力側装置(すなわち、データ受信側装置)の装置IDであり、「通信方式」とは、主装置と従装置との間の通信方式(LAN、BlueTooth、USB等)であり、「処理内容」とは、各々のデータ処理の内容(スキャン、コピー、プリント等)である。データ処理テーブルT2の各行のことを以下では「データ処理情報」と称することがある。   FIG. 7 is a schematic diagram of the data processing table T2 stored in the storage unit 12. As shown in FIG. 7, the data processing table T2 includes a “processing ID”, a “master device ID”, and a “slave device ID” corresponding to each of data processes that can be executed by a combination of a plurality of data processing devices on the network N. , “Communication method”, and “processing content”. Here, the “process ID” is an ID assigned to each data process, and the “main apparatus ID” is an input side apparatus (that is, a data transmission side apparatus) of a data flow associated with each data process. The “slave device ID” is the device ID of the output side device (that is, the data reception side device) of the data flow accompanying each data processing, and the “communication method” is the master device It is a communication method (LAN, BlueTooth, USB, etc.) with the slave device, and “processing content” is the content of each data processing (scanning, copying, printing, etc.). Hereinafter, each row of the data processing table T2 may be referred to as “data processing information”.

図5は、本実施形態に係る携帯端末2の構成を示すブロック図である。携帯端末2は、スマートフォン、PDA(Personal Digital Assistant)、タブレット型PC(Personal Computer)、ノート型PC等である。図5のように、携帯端末2は、制御部21、記憶部22、表示部23、入力部24、撮影部25、位置特定部26、姿勢特定部27、装置検出部28、及び通信インターフェース29を備えており、これらは信号をやり取りするためのバス20を介して相互に通信可能に接続されている。各部の詳細な構成について以下に順に説明する。   FIG. 5 is a block diagram illustrating a configuration of the mobile terminal 2 according to the present embodiment. The mobile terminal 2 is a smart phone, a PDA (Personal Digital Assistant), a tablet PC (Personal Computer), a notebook PC, or the like. As shown in FIG. 5, the mobile terminal 2 includes a control unit 21, a storage unit 22, a display unit 23, an input unit 24, an imaging unit 25, a position specifying unit 26, a posture specifying unit 27, a device detecting unit 28, and a communication interface 29. These are connected to each other via a bus 20 for exchanging signals. The detailed configuration of each part will be described in order below.

制御部21は、CPUであり、プログラムに従って各部の動作を制御するとともに種々の演算処理を実行する。記憶部22は、CPUの作業領域として一時的にデータを記憶するRAM、携帯端末2の基本動作を制御するための各種プログラムやパラメーター等を格納するROM、及びOSを含む各種プログラムやパラメーター等を格納するEEPROM(Electrically Erasable Programmable Read−Only Memory)を備えている。特に、記憶部22には、公知のAR技術を用いて撮影部25のリアルタイム画像に各種アノテーション画像を重ね合わせた合成画像を表示するためのアプリケーションが格納されている。このアプリケーションのことを以下ではARアプリケーションと称する。図11、12は、本実施形態に係るARアプリケーションにより表示された合成画像の一例を示す概略図である。ARアプリケーションの詳細についてはさらに後述する。   The control unit 21 is a CPU, and controls the operation of each unit according to a program and executes various arithmetic processes. The storage unit 22 stores a RAM that temporarily stores data as a work area of the CPU, a ROM that stores various programs and parameters for controlling basic operations of the mobile terminal 2, and various programs and parameters including an OS. An EEPROM (Electrically Erasable Programmable Read-Only Memory) is provided. In particular, the storage unit 22 stores an application for displaying a composite image in which various annotation images are superimposed on a real-time image of the imaging unit 25 using a known AR technique. This application is hereinafter referred to as an AR application. 11 and 12 are schematic diagrams illustrating an example of a composite image displayed by the AR application according to the present embodiment. Details of the AR application will be described later.

表示部23は、液晶ディスプレイや有機ELディスプレイ等の表示装置である。入力部24は、タッチパネル等のポインティングデバイス及びキーボード等の固定キーを備えた入力装置である。撮影部25は、CCD(Charge Coupled Device)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサー等の撮像素子を備えたデジタルカメラである。携帯端末2は、撮影部25により撮影したリアルタイム画像を表示部23に表示することができる。また、携帯端末2は、表示中のリアルタイム画像をユーザーが指示したタイミングで静止画像に切り替えることもできる。また、撮影部25は遠方の画像を撮影することができるようにズーム機能を備えていることが好ましい。   The display unit 23 is a display device such as a liquid crystal display or an organic EL display. The input unit 24 is an input device provided with a pointing device such as a touch panel and a fixed key such as a keyboard. The imaging unit 25 is a digital camera including an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The mobile terminal 2 can display the real-time image captured by the imaging unit 25 on the display unit 23. The mobile terminal 2 can also switch the real-time image being displayed to a still image at the timing indicated by the user. Moreover, it is preferable that the imaging | photography part 25 is provided with the zoom function so that a distant image can be image | photographed.

位置特定部26は、GPS(Global Positioning System:全地球測位システム)を用いて携帯端末2の位置を特定する。ここでいう携帯端末2の「位置」とは、予め定めた三次元座標系における携帯端末2の位置座標のことを指す。姿勢特定部27は、ジャイロスコープや加速度センサー等を用いて携帯端末2の姿勢を特定する。ここでいう携帯端末2の「姿勢」とは、予め定めた観測点から携帯端末2を見たときの方向のことを指す。なお、位置特定部26及び姿勢特定部27は、撮影部25の撮影画像に含まれるQR(Quick Response)コード等の二次元マーカーを解析することにより携帯端末2の位置及び姿勢を特定するものであってもよい。なお、位置特定部26としてGPSを用いる形態において、衛星からの電波を取得できない環境(例えば、窓がない室内等)で使用される可能性が大いにある。この場合、直近の時刻に得られた測位情報位置座標を、姿勢特定部27を構成するジャイロスコープや加速度センサー等からその時刻以降に得られた情報に基づいて補正することにより、時期の位置を特定することができる。   The position specifying unit 26 specifies the position of the mobile terminal 2 using GPS (Global Positioning System). The “position” of the mobile terminal 2 here refers to the position coordinates of the mobile terminal 2 in a predetermined three-dimensional coordinate system. The posture identifying unit 27 identifies the posture of the mobile terminal 2 using a gyroscope, an acceleration sensor, or the like. The “posture” of the mobile terminal 2 here refers to a direction when the mobile terminal 2 is viewed from a predetermined observation point. The position specifying unit 26 and the posture specifying unit 27 specify the position and posture of the mobile terminal 2 by analyzing a two-dimensional marker such as a QR (Quick Response) code included in the shot image of the shooting unit 25. There may be. In addition, in the form using GPS as the position specifying unit 26, there is a great possibility that the position specifying unit 26 is used in an environment in which radio waves from satellites cannot be acquired (for example, indoors without windows). In this case, the position of the timing is obtained by correcting the positioning information position coordinates obtained at the most recent time based on the information obtained after that time from the gyroscope, the acceleration sensor, or the like constituting the posture specifying unit 27. Can be identified.

また、位置特定部26、姿勢特定部27の構成は上記の例に限られるものではなく、例えば、室内の複数箇所にビーコンを設置する一方、これらビーコンからの電波或いは赤外線を受信する受信部を携帯端末2に設け、受信した情報から自機の位置や姿勢を特定することとしてもよい。この場合、位置特定部26と姿勢特定部27とは単一の受信部を共有することとなる。また、位置特定部26による位置特定に要する手順及び姿勢特定部27による姿勢特定に要する手順は、共通の単一手順で実現可能となる。   The configuration of the position specifying unit 26 and the posture specifying unit 27 is not limited to the above example. For example, a beacon is installed at a plurality of locations in a room, and a receiving unit that receives radio waves or infrared rays from these beacons is provided. It is good also as providing in the portable terminal 2 and specifying the position and attitude | position of an own machine from the received information. In this case, the position specifying unit 26 and the posture specifying unit 27 share a single receiving unit. Further, the procedure required for position specification by the position specifying unit 26 and the procedure required for posture specification by the posture specifying unit 27 can be realized by a common single procedure.

通信インターフェース28は、無線LANルーターや無線基地局等を介してネットワークN上の他の装置と双方向通信を行うためのインターフェースである。なお、携帯端末2は、ネットワークNを介さずにWi−FiやBluetooth(登録商標)等の無線通信技術により他の装置と直接通信することもできる。   The communication interface 28 is an interface for performing bidirectional communication with other devices on the network N via a wireless LAN router, a wireless base station, or the like. Note that the mobile terminal 2 can also communicate directly with other devices without using the network N by a wireless communication technology such as Wi-Fi or Bluetooth (registered trademark).

続いて、本実施形態に係るデータ処理装置3〜6について説明する。先ず、データ処理装置3は、スキャナーであり、原稿台にセットされた原稿画像に光を照射したときの反射光をCCDイメージセンサー等の撮像素子により電気信号に変換し、その電気信号に基づき原稿画像のデジタルデータを生成してネットワークN上の他の装置に送信する。データ処理装置3のことを以下ではスキャナー3と称することがある。   Next, the data processing devices 3 to 6 according to the present embodiment will be described. First, the data processing device 3 is a scanner, which converts reflected light when an original image set on a platen is irradiated with light into an electrical signal by an image pickup device such as a CCD image sensor, and the original based on the electrical signal. Digital image data is generated and transmitted to another device on the network N. Hereinafter, the data processing device 3 may be referred to as a scanner 3.

また、データ処理装置4、5は、プリンターであり、ネットワークN上の他の装置から受信したデジタルデータに基づく出力画像を電子写真方式の印刷技術を用いて用紙に印刷する。データ処理装置4、5のことを以下ではプリンター4、5と称することがある。プリンター4、5が採用する印刷方式は電子写真方式に限定されず、インパクト方式や熱転写方式やインクジェット方式等の他の印刷方式であってもよい。データ処理装置6は、ファイルサーバーであり、ネットワークN上の他の機器から受信したデジタルデータをHDD等の記憶領域内に保存したり、記憶領域内のデジタルデータをネットワークN上の他の装置に送信したりする。データ処理装置6のことを以下ではファイルサーバー6と称することがある。   The data processing devices 4 and 5 are printers, and print output images based on digital data received from other devices on the network N on paper using an electrophotographic printing technique. The data processing devices 4 and 5 may be referred to as printers 4 and 5 below. The printing method employed by the printers 4 and 5 is not limited to the electrophotographic method, and may be other printing methods such as an impact method, a thermal transfer method, and an ink jet method. The data processing device 6 is a file server, stores digital data received from other devices on the network N in a storage area such as an HDD, and stores digital data in the storage area in other devices on the network N. Or send. Hereinafter, the data processing device 6 may be referred to as a file server 6.

本実施形態に係る表示システムにおいては、スキャナー3(装置名:スキャナーA)を主装置とし、プリンター4、5(装置名:プリンターA、B)を従装置とする組み合わせにより、原稿画像の「コピー」を実行可能である。同様に、本システムにおいては、スキャナー3(装置名:スキャナーA)を主装置とし、ファイルサーバー6(装置名:サーバーA)を従装置とする組み合わせにより、原稿画像の「スキャン」を実行可能であり、ファイルサーバー6(装置名:サーバーA)を主装置とし、プリンター5(装置名:プリンターB)を従装置とする組み合わせによりデジタルデータの「プリント」を実行可能である(図7参照)。
<システムの動作>
次に、本実施形態に係る表示システムの動作の概要について説明する。図8〜10は、スキャナー3(装置名:スキャナーA)を主装置とし、プリンター4(装置名:プリンターA)を従装置とする組み合わせにより原稿画像のコピーを実行する際の信号のやりとりを示すシーケンスチャートである。図8のように、ユーザーが携帯端末2に対してARアプリケーション1の起動を指示すると、携帯端末2がARアプリケーションを起動し、ARサーバー1へのログイン画面を表示する。なお、図8〜9のように、ARサーバー1はスキャナー3及びプリンター4の状態を一定間隔で定期的に取得している。
In the display system according to the present embodiment, a combination of the scanner 3 (device name: scanner A) as a main device and the printers 4 and 5 (device names: printers A and B) as slave devices is used for “copying” an original image. Can be executed. Similarly, in this system, a “scan” of a document image can be executed by a combination in which the scanner 3 (device name: scanner A) is the main device and the file server 6 (device name: server A) is the slave device. Yes, it is possible to execute “printing” of digital data by a combination in which the file server 6 (device name: server A) is the main device and the printer 5 (device name: printer B) is the slave device (see FIG. 7).
<System operation>
Next, an outline of the operation of the display system according to the present embodiment will be described. FIGS. 8 to 10 show signal exchanges when a copy of a document image is executed by a combination in which the scanner 3 (device name: scanner A) is the main device and the printer 4 (device name: printer A) is the slave device. It is a sequence chart. As shown in FIG. 8, when the user instructs the mobile terminal 2 to start the AR application 1, the mobile terminal 2 starts the AR application and displays a login screen to the AR server 1. 8 to 9, the AR server 1 periodically acquires the status of the scanner 3 and the printer 4 at regular intervals.

続いて、ユーザーがログイン画面にID及びパスワードを入力し、ログインボタンを押下すると、携帯端末2がARサーバー1にログイン通知を行う。そして、ARサーバー1がログイン認証を行い、ログイン認証結果を携帯端末2に通知する。ログインが許可された場合、携帯端末2がカメラ(撮影部25)を起動し、リアルタイム画像の表示を開始する(図9に続く)。   Subsequently, when the user inputs the ID and password on the login screen and presses the login button, the portable terminal 2 notifies the AR server 1 of login. Then, the AR server 1 performs login authentication and notifies the portable terminal 2 of the login authentication result. When the login is permitted, the mobile terminal 2 activates the camera (imaging unit 25) and starts displaying a real-time image (continuing to FIG. 9).

図9のように、続いて、携帯端末2が自機の位置を特定し、その位置情報をARサーバー1に送信すると、ARサーバー1が受信した位置情報に基づいて携帯端末2の所定距離内に存在する近接装置を検出し、検出した近接装置の一覧を携帯端末2に送信する。その後、携帯端末2が、自機の位置を特定し、さらに、自機の姿勢を特定する。   Next, as shown in FIG. 9, when the mobile terminal 2 identifies the position of the mobile terminal 2 and transmits the position information to the AR server 1, the mobile terminal 2 is within a predetermined distance of the mobile terminal 2 based on the received position information. , And a list of detected proximity devices is transmitted to the portable terminal 2. Thereafter, the portable terminal 2 specifies the position of the own device and further specifies the posture of the own device.

続いて、携帯端末2が、リアルタイム画像における近接装置の表示位置を算出し、近接装置の状態をARサーバー1から取得し、近接装置の状態を示す情報の表示態様を決定し、そして、公知のAR技術を用いて近接装置の状態を示す情報をリアルタイム画像に重ね合わせて表示する。以下では近接装置の状態を示す情報ことを「状態情報」と称する。図11は、リアルタイム画像に重ね合わせて表示された近接装置3〜6の状態情報A1を示す概略図である。なお、本段落に示した手順は、ARサーバー1から取得した一覧中の全ての近接装置について繰り返される。   Subsequently, the mobile terminal 2 calculates the display position of the proximity device in the real-time image, acquires the state of the proximity device from the AR server 1, determines the display mode of the information indicating the state of the proximity device, and Information indicating the state of the proximity device is displayed superimposed on the real-time image using the AR technology. Hereinafter, information indicating the state of the proximity device is referred to as “state information”. FIG. 11 is a schematic diagram showing the state information A1 of the proximity devices 3 to 6 displayed superimposed on the real-time image. The procedure shown in this paragraph is repeated for all the proximity devices in the list acquired from the AR server 1.

続いて、携帯端末2が、公知のAR技術を用いて、複数の近接装置の組み合わせにより実行可能なデータ処理に伴うデータフローを示す情報をリアルタイム画像に重ね合わせて表示する。以下では上記データ処理に伴うデータフローを示す情報のことを「データフロー情報」と称する。続いて、携帯端末2が、上記データ処理に伴うデータフローの通信方式を示す情報をリアルタイム画像中のデータフロー情報と関連付けて表示する。以下では上記データフローの通信方式を示す情報のことを「通信方式情報」と称する。続いて、携帯端末2が、上記のデータ処理に関する操作指示を受け付けるための操作ボタンをリアルタイム画像中のデータフロー情報と関連付けて表示する(図10に続く)。なお、本段落に示した手順は、ARサーバー1から取得した一覧中の近接装置の組み合わせにより実行可能な全てのデータ処理について繰り返される。   Subsequently, the portable terminal 2 displays information indicating a data flow associated with data processing that can be executed by a combination of a plurality of proximity devices, overlaid on a real-time image, using a known AR technology. Hereinafter, information indicating a data flow accompanying the data processing is referred to as “data flow information”. Subsequently, the mobile terminal 2 displays information indicating the data flow communication method associated with the data processing in association with the data flow information in the real-time image. Hereinafter, the information indicating the communication method of the data flow is referred to as “communication method information”. Subsequently, the mobile terminal 2 displays an operation button for accepting an operation instruction related to the above data processing in association with the data flow information in the real-time image (continuing to FIG. 10). Note that the procedure shown in this paragraph is repeated for all data processes that can be executed by a combination of proximity devices in the list acquired from the AR server 1.

図11は、リアルタイム画像に重ね合わせて表示されたデータフロー情報A2、通信方式情報A3、及び操作ボタンBを示す概略図である。なお、図9における携帯端末2の処理の手順は、図13〜14のフローチャートに詳細に示されている。   FIG. 11 is a schematic diagram showing the data flow information A2, the communication method information A3, and the operation button B that are displayed superimposed on the real-time image. The processing procedure of the mobile terminal 2 in FIG. 9 is shown in detail in the flowcharts of FIGS.

図10のように、続いて、ユーザーが携帯端末2に表示されている操作ボタンBを押下すると、携帯端末2が押下された操作ボタンBに対応するデータ処理の操作ガイダンスを示す情報をリアルタイム画像中の近接装置(主装置)と関連付けて表示する。以下では上記データの操作ガイダンスを示す情報のことを「操作ガイダンス情報」と称する。図12は、リアルタイム画像に重ね合わせて表示された操作ガイダンス情報A4の一例を示す概略図である。図12の例による操作ガイダンス情報A4は、スキャナー3を主装置としプリンター4を従装置とするデータ処理に伴うデータフロー情報A2と関連付けて表示された操作ボタンBが押下されたときに表示される。そして、ユーザーが操作ガイダンス情報A4に含まれる「OK」ボタンを押下すると、携帯端末2がリアルタイム画像中の近接装置(従装置)を強調表示する。この時点において、携帯端末2からARサーバー1に対し、スキャナーAとしてのスキャナー3を主装置とし、プリンターAとしてのプリンター4を従装置とするコピーであることを示す情報が通知される。そして、ARサーバー1からスキャナー3に対し、プリンター4を出力先とするコピー機能を実現するモードへの移行が指令される。   As shown in FIG. 10, when the user subsequently presses the operation button B displayed on the mobile terminal 2, the information indicating the operation guidance of the data processing corresponding to the operation button B pressed on the mobile terminal 2 is displayed in real time. The information is displayed in association with the neighboring proximity device (main device). Hereinafter, the information indicating the operation guidance of the data is referred to as “operation guidance information”. FIG. 12 is a schematic diagram showing an example of the operation guidance information A4 displayed so as to be superimposed on the real-time image. The operation guidance information A4 in the example of FIG. 12 is displayed when the operation button B displayed in association with the data flow information A2 associated with data processing with the scanner 3 as the main device and the printer 4 as the slave device is pressed. . When the user presses the “OK” button included in the operation guidance information A4, the mobile terminal 2 highlights the proximity device (secondary device) in the real-time image. At this time, the mobile terminal 2 notifies the AR server 1 of information indicating that the copy is made with the scanner 3 as the scanner A as the main device and the printer 4 as the printer A as the slave device. Then, the AR server 1 instructs the scanner 3 to shift to a mode for realizing a copy function with the printer 4 as an output destination.

続いて、ユーザーがスキャナー3に原稿をセットし、スタートボタンを押下すると、スキャナー3が原稿画像を読み取ってデジタルデータを生成し、そのデジタルデータをプリンター4に送信する。そして、プリンター4が受信したスキャンデータに基づく出力画像の印刷を行い、印刷終了後にARサーバー1に印刷終了通知を行う。その後、携帯端末2がARサーバー1からプリンター4の状態情報を取得し、スキャナー3及びプリンター4による原稿画像のコピーが終了したことを示すメッセージを表示する。続いて、ユーザーが携帯端末2にARアプリケーションの終了を指示すると、携帯端末2がARサーバー1にログアウト通知を行う。そして、ARサーバー1がログアウト処理を終了すると、携帯端末2がARアプリケーションを終了する。   Subsequently, when the user sets an original on the scanner 3 and presses the start button, the scanner 3 reads the original image to generate digital data, and transmits the digital data to the printer 4. Then, the output image is printed based on the scan data received by the printer 4, and after the printing is finished, the AR server 1 is notified of the printing end. Thereafter, the portable terminal 2 acquires the status information of the printer 4 from the AR server 1 and displays a message indicating that the copying of the document image by the scanner 3 and the printer 4 has been completed. Subsequently, when the user instructs the mobile terminal 2 to end the AR application, the mobile terminal 2 notifies the AR server 1 of logout. When the AR server 1 completes the logout process, the mobile terminal 2 ends the AR application.

続いて、図13、14は、本実施形態に係る携帯端末2において、撮影部25のリアルタイム画像に各種アノテーション画像を重ね合わせた合成画像を表示する処理(AR画像表示処理)の手順を示すフローチャートである。図13、14のフローチャートにより示されるアルゴリズムは記憶部22のROM内に制御プログラムとして格納されており、RAMに読み出されてCPUにより実行される。なお、AR画像表示処理に先立ち、携帯端末2によりARアプリケーションが起動されており、表示部23に撮影部25のリアルタイム画像が表示されているものとする(図8参照)。   Next, FIGS. 13 and 14 are flowcharts showing a procedure of processing (AR image display processing) of displaying a composite image in which various annotation images are superimposed on a real-time image of the photographing unit 25 in the mobile terminal 2 according to the present embodiment. It is. The algorithms shown in the flowcharts of FIGS. 13 and 14 are stored as a control program in the ROM of the storage unit 22, read out to the RAM, and executed by the CPU. Prior to the AR image display processing, it is assumed that the AR application is activated by the mobile terminal 2 and the real-time image of the photographing unit 25 is displayed on the display unit 23 (see FIG. 8).

図13のように、先ず、携帯端末2は、自機の位置を特定してARサーバーに送信し(S101)、ARサーバー1から自機の近接装置の一覧を取得する(S102)。そして、携帯端末2は、S102で取得した一覧に含まれる近隣装置の各々について以下のS104〜S111の処理を繰り返し、全ての近接装置についての処理を完了したら(S103のYES)図14のS112に進む
S104において、携帯端末2は、現在の処理対象であるn番目の近接装置(n=1、2、3、・・・)の装置情報(図6参照)をARサーバー1から取得する。続いて、携帯端末2は、自機の姿勢を特定し(S105)、さらに、自機の位置を特定する(S106)。そして、携帯端末2は、S104で取得した装置情報に含まれるn番目の近接装置の位置座標、並びにS105及びS106で特定した自機の位置及び姿勢に基づいて、n番目の近接装置のリアルタイム画像における位置座標を算出する(S107)。S107で算出された位置座標は、後述のS111で状態情報A1をリアルタイム画像に重ね合わせて表示する際に用いられる。なお、携帯端末2は、S104でARサーバー1から近接装置の位置座標を取得する代わりに、撮影部24のリアルタイム画像に含まれるQRコードの形状、又は近接装置自体の形状や色等を解析することにより近接装置の位置座標を特定することもできる。
As shown in FIG. 13, first, the mobile terminal 2 specifies its own location and transmits it to the AR server (S101), and acquires a list of proximity devices of its own from the AR server 1 (S102). And the portable terminal 2 repeats the process of following S104-S111 about each of the neighboring apparatuses contained in the list acquired by S102, and if the process about all the proximity apparatuses is completed (YES of S103), it will transfer to S112 of FIG. In S104, the mobile terminal 2 acquires device information (see FIG. 6) of the nth proximity device (n = 1, 2, 3,...) That is the current processing target from the AR server 1. Subsequently, the mobile terminal 2 specifies the posture of the own device (S105), and further specifies the position of the own device (S106). And the portable terminal 2 is a real-time image of the nth proximity device based on the position coordinates of the nth proximity device included in the device information acquired in S104 and the position and orientation of the own device specified in S105 and S106. The position coordinates at are calculated (S107). The position coordinates calculated in S107 are used when the state information A1 is displayed superimposed on the real-time image in S111 described later. Note that the mobile terminal 2 analyzes the shape of the QR code included in the real-time image of the imaging unit 24 or the shape and color of the proximity device itself instead of acquiring the position coordinates of the proximity device from the AR server 1 in S104. Thus, the position coordinates of the proximity device can be specified.

続いて、携帯端末2は、S107で算出した位置座標に基づいて、n番目の装置が携帯端末2から見た特定の方向に存在するかどうかを判定する(S108)。より具体的に、S108では、S107で算出した位置座標に基づいて、n番目の近接装置が撮影部25の画角内に含まれているかどうかを判定する。そして、n番目の装置が特定の方向に存在する場合(S108のYES)、携帯端末2は、後述のS109〜s111に進み、n番目の近接装置の状態情報A1をリアルタイム画像に重ね合わせて表示する。他方、n番目の近接装置が特定の方向に存在しない場合(S108のNO)、携帯端末2はS103に戻り、n+1番目の装置についての処理(S104〜S111)に移行する。   Subsequently, the mobile terminal 2 determines whether or not the nth device exists in a specific direction viewed from the mobile terminal 2 based on the position coordinates calculated in S107 (S108). More specifically, in S108, based on the position coordinates calculated in S107, it is determined whether or not the nth proximity device is included within the angle of view of the photographing unit 25. If the n-th device is present in a specific direction (YES in S108), the mobile terminal 2 proceeds to S109 to s111, which will be described later, and displays the state information A1 of the n-th proximity device superimposed on the real-time image. To do. On the other hand, when the n-th proximity device does not exist in a specific direction (NO in S108), the mobile terminal 2 returns to S103, and proceeds to the process for the n + 1-th device (S104 to S111).

S109において、携帯端末2は、ARサーバー1からn番目の近接装置の状態を取得する。そして、携帯端末2は、n番目の近接装置までの距離やn番目の近接装置の状態等に応じて、リアルタイム画像に重ね合わせて表示すべき状態情報A1の表示態様を決定する(S110)。ここでいう状態情報の「表示態様」とは、リアルタイム画像に重ね合わせて表示すべき状態情報A1のサイズ、色、透明度、形状、アニメーション効果等のことを指す。携帯端末2は、自機から近接装置までの距離や近接装置の状態等に応じて状態情報の表示態様を変化させることができる。   In S109, the mobile terminal 2 acquires the state of the nth proximity device from the AR server 1. And the portable terminal 2 determines the display mode of state information A1 which should be superimposed and displayed on a real-time image according to the distance to the nth proximity device, the state of the nth proximity device, etc. (S110). The “display mode” of the state information here refers to the size, color, transparency, shape, animation effect, etc. of the state information A1 to be displayed superimposed on the real-time image. The portable terminal 2 can change the display mode of the state information according to the distance from the own device to the proximity device, the state of the proximity device, and the like.

その後、携帯端末2は、公知のAR技術を用いて、n番目の装置の状態情報A1をリアルタイム画像に重ね合わせて表示する(S111)。この際、携帯端末2は、S110で決定した表示態様により状態情報A1を表示する(図14に続く)。図11は、S111で表示された状態情報A1の一例を示す概略図である。図11の例による状態情報A1は、近接装置の装置名(例:「スキャナーA」)及び状態(例:「待機中」)を示す吹き出しからなるアノテーション画像であり、リアルタイム画像中の近接装置と関連付けて表示されている。   Thereafter, the portable terminal 2 displays the state information A1 of the n-th device superimposed on the real-time image using a known AR technique (S111). At this time, the portable terminal 2 displays the state information A1 in the display mode determined in S110 (continuing to FIG. 14). FIG. 11 is a schematic diagram illustrating an example of the state information A1 displayed in S111. The state information A1 according to the example of FIG. 11 is an annotation image including a balloon indicating the device name (eg, “scanner A”) and the state (eg, “standby”) of the proximity device, and the proximity device in the real-time image. Displayed in association.

なお、図11の例において、ファイルサーバー6(装置名:サーバーA)は、携帯端末2の近接装置であり、かつ、撮影部25の画角内に含まれているものの、携帯端末2から見て壁の反対側に配置されているためリアルタイム画像には含まれていない。そこで、携帯端末2は、ユーザーがファイルサーバー6の位置を直感的に理解することができるように、ファイルサーバー6を表すアイコンIをリアルタイム画像に重ね合わせて表示し、そのアイコンIにファイルサーバー6の状態情報A1を関連付けて表示している。   In the example of FIG. 11, the file server 6 (device name: server A) is a proximity device of the mobile terminal 2 and is included in the angle of view of the photographing unit 25, but is viewed from the mobile terminal 2. Because it is placed on the opposite side of the wall, it is not included in the real-time image. Therefore, the portable terminal 2 displays an icon I representing the file server 6 superimposed on the real-time image so that the user can intuitively understand the position of the file server 6, and the file server 6 is displayed on the icon I. Are displayed in association with each other.

さらに、携帯端末2の位置や姿勢等の変動により元々は画角内にあった近接装置が画角外に出てしまった場合も同様に、近接装置を表すアイコンをリアルタイム画像に重ね合わせて表示し、そのアイコンに近接装置の状態情報を関連付けて表示することが好ましい。その場合、近接装置が撮影部25の画角外に出てしまったことをユーザーが直感的に理解することができるように、その近接装置を表すアイコンはリアルタイム画像の表示領域の外周付近に配置されることが好ましい。   Further, when a proximity device that was originally within the angle of view has moved out of the angle of view due to a change in the position or orientation of the mobile terminal 2, an icon representing the proximity device is displayed superimposed on the real-time image. It is preferable to display the state information of the proximity device in association with the icon. In that case, the icon representing the proximity device is arranged near the outer periphery of the display area of the real-time image so that the user can intuitively understand that the proximity device has gone out of the angle of view of the photographing unit 25. It is preferred that

図14を参照すると、携帯端末2は、S102で取得した一覧中の近接装置の組み合わせにより実行可能なデータ処理の一覧をARサーバー1から取得する(S112)。そして、携帯端末2は、S112で取得した一覧に含まれるデータ処理の各々について以下のS114〜S121の処理を繰り返す。   Referring to FIG. 14, the mobile terminal 2 acquires from the AR server 1 a list of data processes that can be executed by the combination of proximity devices in the list acquired in S102 (S112). And the portable terminal 2 repeats the process of the following S114-S121 about each of the data processing contained in the list acquired by S112.

S114において、携帯端末2は、現在の処理対象であるm番目(m=1、2、3、・・・)のデータ処理に対応するデータ処理情報(図7参照)を取得する。続いて、携帯端末2は、自機の姿勢を特定し(S115)、さらに、自機の位置を特定する(S116)。そして、携帯端末2は、S114で取得したデータ処理情報に含まれる主装置ID及び従装置IDに対応する装置情報(図6参照)をARサーバー1から取得する(S117)。例えば、S114で図7のデータ処理情報テーブルT2中の処理IDが「1」であるデータ処理情報が取得された場合、S117では主装置であるスキャナー3(装置名:スキャナーA)及び従装置であるプリンター4(装置名:プリンターA)の装置情報が取得される。   In S114, the mobile terminal 2 acquires data processing information (see FIG. 7) corresponding to the m-th (m = 1, 2, 3,...) Data processing that is the current processing target. Subsequently, the mobile terminal 2 specifies the posture of the own device (S115), and further specifies the position of the own device (S116). Then, the mobile terminal 2 acquires device information (see FIG. 6) corresponding to the master device ID and the slave device ID included in the data processing information acquired in S114 from the AR server 1 (S117). For example, when the data processing information whose processing ID is “1” in the data processing information table T2 of FIG. 7 is acquired in S114, in S117, the scanner 3 (device name: scanner A) and the slave device that are the master device are used. The device information of a certain printer 4 (device name: printer A) is acquired.

続いて、携帯端末2は、S117で取得した装置情報に含まれる主装置及び従装置の位置座標、並びにS114及びS115で特定した自機の位置及び姿勢に基づいて、m番目のデータ処理の主装置及び従装置のリアルタイム画像における位置座標を算出する(S118)。S118で算出された位置座標は、S119でデータフロー情報をリアルタイム画像に重ね合わせて表示する際に用いられる。   Subsequently, the mobile terminal 2 performs the m-th data processing based on the position coordinates of the main device and the slave device included in the device information acquired in S117 and the position and orientation of the own device specified in S114 and S115. The position coordinates in the real-time image of the device and the slave device are calculated (S118). The position coordinates calculated in S118 are used when displaying the data flow information superimposed on the real-time image in S119.

続いて、携帯端末2は、公知のAR技術を用いて、m番目のデータ処理に伴うデータフロー情報A2をリアルタイム画像に重ね合わせて表示する(S119)。図11は、S119で表示されたデータフロー情報A2の一例を示す概略図である。図11の例におけるデータフロー情報A2は、m番目のデータ処理の主装置を始点とし、従装置を終点とする矢印形状からなるアノテーション画像であり、リアルタイム画像中の主装置及び従装置と関連付けて表示されている。   Subsequently, the portable terminal 2 displays the data flow information A2 associated with the m-th data process superimposed on the real-time image using a known AR technique (S119). FIG. 11 is a schematic diagram illustrating an example of the data flow information A2 displayed in S119. The data flow information A2 in the example of FIG. 11 is an annotation image that has an arrow shape starting from the m-th data processing master device and ending with the slave device, and is associated with the master device and slave devices in the real-time image. It is displayed.

図15は、データフロー情報A2の他の例を示す概略図である。図15の例によるデータフロー情報A2は、m番目のデータ処理の主装置と従装置との間に配置された雲状の立体からなるアノテーション画像である。ただし、本実施形態に係るデータフロー情報は図11、15の例に限定されず、主装置及び従装置に付した連続番号(例:主装置=1、従装置=2)を示す吹き出しや、主装置から従装置へのデータフローを示すアニメーション等であってもよい。また、リアルタイム画像中の主装置及び従装置を同一色で強調表示することをもってデータフロー情報とすることもできる。   FIG. 15 is a schematic diagram illustrating another example of the data flow information A2. The data flow information A2 in the example of FIG. 15 is an annotation image made up of a cloud-like solid arranged between the m-th data processing main device and the slave device. However, the data flow information according to the present embodiment is not limited to the examples of FIGS. 11 and 15, and a balloon indicating a serial number (for example, master device = 1, slave device = 2) assigned to the master device and the slave device, It may be an animation or the like showing a data flow from the master device to the slave device. It is also possible to obtain data flow information by highlighting the main device and the slave device in the real-time image with the same color.

なお、S119では、ARサーバー1等に記録されている各データ処理の使用履歴(例:使用回数、使用時期等)に応じてデータフロー情報の表示サイズや表示色等を変化させることとしてもよい。また、過去の使用頻度が一定水準を超えているデータ処理に対応するデータフロー情報のみを表示することで表示内容を簡略化することもできる。   In S119, the display size, display color, etc. of the data flow information may be changed according to the usage history of each data process recorded in the AR server 1 or the like (eg, the number of uses, the use time, etc.). . In addition, the display contents can be simplified by displaying only the data flow information corresponding to the data processing whose past use frequency exceeds a certain level.

続いて、携帯端末2は、S114で取得したデータ処理情報に含まれる「通信方式」等を参照して、m番目のデータ処理に伴うデータフローの通信方式情報A3をデータフロー情報A1と関連付けて表示する(S120)。図11は、S120で表示された通信方式情報A3の一例を示す概略図である。図11の例における通信方式情報A3は、m番目のデータ処理に伴うデータフローの通信方式(Bluetooth)を示す記号からなるアノテーション画像であり、矢印形状からなるデータフロー情報A2の中点近傍に表示されている。   Subsequently, the mobile terminal 2 refers to the “communication method” included in the data processing information acquired in S114 and associates the communication method information A3 of the data flow associated with the m-th data processing with the data flow information A1. Display (S120). FIG. 11 is a schematic diagram illustrating an example of the communication method information A3 displayed in S120. The communication method information A3 in the example of FIG. 11 is an annotation image made up of symbols indicating the communication method (Bluetooth) of the data flow accompanying the mth data processing, and is displayed near the middle point of the data flow information A2 made up of an arrow shape. Has been.

続いて、携帯端末2は、公知のAR技術を用いて、m番目のデータ処理を実行したり、当該データ処理の操作ガイダンスを表示したりするための操作指示を受け付けるための操作ボタンBをリアルタイム画像に重ね合わせて表示する(S121)。図11は、S121で表示された操作ボタンBの一例を示す概略図である。図11の例による操作ボタンBは、矢印形状からなるデータフロー情報A2に隣接するように配置されており、ユーザーはこの操作ボタンBにタッチすることにより当該データ処理の操作ガイダンスA4を表示させることができる。   Subsequently, the mobile terminal 2 uses the well-known AR technology to execute an operation button B for receiving an operation instruction for executing the m-th data processing or displaying an operation guidance for the data processing in real time. The image is superimposed and displayed (S121). FIG. 11 is a schematic diagram illustrating an example of the operation button B displayed in S121. The operation button B in the example of FIG. 11 is arranged adjacent to the data flow information A2 having an arrow shape, and the user touches the operation button B to display the operation guidance A4 for the data processing. Can do.

図12は、リアルタイム画像上に表示されたデータ処理の操作ガイダンスA4の一例を示す概略図である。図12の例において、操作ガイダンスA4はリアルタイム画像における当該データ処理(「Copy」)の主装置(「スキャナーA」)と関連付けて表示されている。なお、ユーザーが携帯端末2に操作指示を与える方法は操作ボタンにタッチすることに限定されず、リアルタイム画像中の主装置から従装置に向かって指をスライドしたり、携帯端末2に搭載されたマイクに向かって音声を入力したりすることにより操作指示を与えることとしてもよい。   FIG. 12 is a schematic diagram illustrating an example of operation guidance A4 for data processing displayed on a real-time image. In the example of FIG. 12, the operation guidance A4 is displayed in association with the main device (“scanner A”) of the data processing (“Copy”) in the real-time image. Note that the method of giving an operation instruction to the mobile terminal 2 by the user is not limited to touching the operation button, but the user slides his / her finger from the main device to the slave device in the real-time image or is mounted on the mobile terminal 2. An operation instruction may be given by inputting sound into a microphone.

その後、携帯端末2は、m+1番目のデータ処理についての処理(S114〜S121)に移行し、S112で取得した一覧中の全てのデータ処理についての処理を完了したら(S113のYES)AR画像表示処理を終了する(エンド)。   After that, the portable terminal 2 proceeds to the process for the (m + 1) th data process (S114 to S121), and when the process for all the data processes in the list acquired in S112 is completed (YES in S113), the AR image display process End (end).

以上のように、本実施形態に係る表示システムによると、携帯端末2から所定距離内に存在し、かつ、携帯端末2から見た特定方向に存在するデータ処理装置により実行可能なデータ処理に伴うデータの流れを示すデータフロー情報A2が携帯端末2の表示部23に表示されるよって、本実施形態に係る表示システムによると、ネットワークN上の各々のデータ処理装置の物理的な位置関係を容易に、かつ、直感的に把握することができるため、ネットワークN上の複数のデータ処理装置を用いて各種データ処理を実行する際のユーザーの負担が大幅に軽減されることになる。   As described above, according to the display system according to the present embodiment, it accompanies data processing that can be executed by a data processing device that exists within a predetermined distance from the mobile terminal 2 and that exists in a specific direction viewed from the mobile terminal 2. Since the data flow information A2 indicating the data flow is displayed on the display unit 23 of the portable terminal 2, according to the display system according to the present embodiment, the physical positional relationship of each data processing device on the network N can be easily set. In addition, since it can be grasped intuitively, the burden on the user when executing various data processing using a plurality of data processing devices on the network N is greatly reduced.

本発明は、上記実施形態のみに限定されることなく、特許請求の範囲内において、種々改変されることができる。例えば、上記実施形態において、携帯端末は複数のデータ処理装置どうしの組み合わせにより実現可能なデータ処理に伴うデータフロー情報を表示しているが、携帯端末と各データ処理装置との組み合わせにより実行可能なデータ処理が存在する場合には当該データ処理に伴うデータフロー情報を表示することもできる。図16は、携帯端末2とスキャナー3及びプリンター4との各組み合わせにより実行可能なデータ処理に伴うデータフロー情報A2の一例を示す概略図である。   The present invention is not limited to the above-described embodiments, and can be variously modified within the scope of the claims. For example, in the above embodiment, the mobile terminal displays data flow information associated with data processing that can be realized by a combination of a plurality of data processing devices, but can be executed by a combination of the mobile terminal and each data processing device. When data processing exists, data flow information accompanying the data processing can be displayed. FIG. 16 is a schematic diagram illustrating an example of data flow information A2 associated with data processing that can be executed by each combination of the mobile terminal 2, the scanner 3, and the printer 4.

図16の例では、携帯端末2とプリンター4の組み合わせにより画像データのプリントを実行可能であり、スキャナー3と携帯端末2の組み合わせにより原稿画像のスキャンを実行可能である。そのため、本例では、スキャン(「Scan」)及びプリント(「Print」)に対応するデータフロー情報A2として、リアルタイム画像中のスキャナー3から表示領域の下辺に至る矢印形状、及び表示領域の下辺からリアルタイム画像中のプリンター4に至る矢印形状からなるアノテーション画像をそれぞれ表示している。ただし、図16のようにリアルタイム画像の表示領域の下辺を始点又は終点とする矢印形状の代わりに、リアルタイム画像上の所定位置に携帯端末2に対応するアイコンを表示し、そのアイコンを始点又は終点とする矢印形状からなるアノテーション画像を表示することとしてもよい。   In the example of FIG. 16, image data can be printed by a combination of the portable terminal 2 and the printer 4, and a document image can be scanned by a combination of the scanner 3 and the portable terminal 2. Therefore, in this example, as the data flow information A2 corresponding to scanning (“Scan”) and printing (“Print”), the arrow shape from the scanner 3 to the lower side of the display area in the real-time image, and the lower side of the display area Annotation images each having an arrow shape reaching the printer 4 in the real-time image are displayed. However, an icon corresponding to the mobile terminal 2 is displayed at a predetermined position on the real-time image instead of the arrow shape starting from the lower side of the display area of the real-time image as shown in FIG. It is good also as displaying the annotation image which consists of an arrow shape.

また、本発明に係る携帯端末は上記実施形態に示したスマートフォン等に限定されず、現実空間の景色にAR画像を重ね合わせて表示するヘッドマウントディスプレイ等のゴーグル型の表示装置であってもよい。さらに、上記実施形態では2つのデータ処理装置により実現されるデータ処理に伴うデータフロー情報を表示することとしたが、本発明に係るデータフロー情報は3つ以上のデータ処理装置により実現されるデータ処理に伴うデータフローを示すものであってもよい。   Further, the mobile terminal according to the present invention is not limited to the smart phone or the like shown in the above embodiment, and may be a goggle type display device such as a head mounted display that displays an AR image superimposed on a real space scene. . Furthermore, in the above embodiment, data flow information associated with data processing realized by two data processing devices is displayed. However, the data flow information according to the present invention is data realized by three or more data processing devices. It may indicate a data flow accompanying processing.

1 ARサーバー、
11 制御部、
11a 状態取得部、
11b ログイン認証部、
11c 装置検出部、
11d データ抽出部、
12 記憶部、
13 通信インターフェース、
2 携帯端末、
21 制御部、
22 記憶部、
23 表示部、
24 入力部、
25 撮影部、
26 位置特定部、
27 姿勢特定部、
28 通信インターフェース、
3 データ処理装置(スキャナー)、
4 データ処理装置(プリンター)、
5 データ処理装置(プリンター)、
6 データ処理装置(ファイルサーバー)、
A1 状態情報、
A2 データフロー情報、
A3 通信方式情報、
A4 操作ガイダンス情報、
B 操作ボタン、
I アイコン、
N ネットワーク、
T1 装置情報テーブル、
T2 データ処理テーブル。
1 AR server,
11 Control unit,
11a state acquisition unit,
11b Login authentication unit,
11c device detector,
11d data extraction unit,
12 storage unit,
13 Communication interface,
2 mobile devices,
21 control unit,
22 storage unit,
23 display section,
24 input section,
25 Shooting department,
26 Location specifying part,
27 Posture specifying part,
28 communication interface,
3 Data processing device (scanner),
4 Data processing device (printer),
5 Data processing device (printer),
6 Data processing device (file server),
A1 status information,
A2 data flow information,
A3 communication method information,
A4 operation guidance information,
B Operation button,
I icon,
N network,
T1 device information table,
T2 data processing table.

Claims (18)

自機の位置を特定する位置特定部と、
自機の姿勢を特定する姿勢特定部と、
前記位置特定部及び前記姿勢特定部により特定された位置及び姿勢に基づいて検出されたデータ処理装置であって、自機から所定の距離内に存在し、かつ、自機から見た特定の方向に存在するデータ処理装置により実行可能なデータ処理に伴うデータの流れを示すデータフロー情報を表示する表示部と、を有する携帯端末。
A position identifying unit that identifies the position of the aircraft,
A posture identifying unit that identifies the posture of the aircraft,
A data processing device detected based on the position and posture specified by the position specifying unit and the posture specifying unit, the data processing device being within a predetermined distance from the own device, and a specific direction seen from the own device A display unit that displays data flow information indicating a data flow associated with data processing that can be executed by the data processing apparatus existing in the mobile terminal.
前記特定の方向の画像を撮影する撮影部をさらに有し、
前記表示部は、前記撮影部による撮影画像に前記データフロー情報を重ね合わせて表示することを特徴とする請求項1に記載の携帯端末。
A photographing unit that photographs the image in the specific direction;
The mobile terminal according to claim 1, wherein the display unit displays the data flow information superimposed on an image captured by the imaging unit.
前記表示部は、前記撮影部による撮影画像に前記データ処理装置が映っていないときに、前記撮影部による撮影画像に前記データ処理装置を表すアイコンを重ね合わせて表示することを特徴とする請求項2に記載の携帯端末。   The display unit displays an icon representing the data processing device in a superimposed manner on an image captured by the imaging unit when the data processing device is not reflected in an image captured by the imaging unit. 2. The mobile terminal according to 2. 前記表示部は、前記データ処理に伴うデータの通信方式を示す通信方式情報を前記データフロー情報と関連付けて表示することを特徴とする請求項1〜3のいずれか1つに記載の携帯端末。   The mobile terminal according to any one of claims 1 to 3, wherein the display unit displays communication method information indicating a communication method of data accompanying the data processing in association with the data flow information. 前記表示部は、前記データ処理の操作指示を受け付けるための操作ボタンを前記データフロー情報と関連付けて表示することを特徴とする請求項1〜4のいずれか1つに記載の携帯端末。   The mobile terminal according to claim 1, wherein the display unit displays an operation button for receiving an operation instruction for the data processing in association with the data flow information. 前記表示部は、前記操作ボタンにより前記操作指示を受け付けたときに、前記データ処理の操作ガイダンスを表示することを特徴とする請求項5に記載の携帯端末。   The portable terminal according to claim 5, wherein the display unit displays an operation guidance for the data processing when the operation instruction is received by the operation button. 前記表示部は、前記データ処理装置が自機から所定の距離内に存在しなくなるか、又は自機から見た特定の方向に存在しなくなったときに、前記データ処理装置を表すアイコンを前記データフロー情報と関連付けて表示することを特徴とする請求項1〜6のいずれか1つに記載の携帯端末。   The display unit displays an icon representing the data processing device when the data processing device does not exist within a predetermined distance from the own device or does not exist in a specific direction viewed from the own device. The mobile terminal according to claim 1, wherein the mobile terminal is displayed in association with flow information. 前記データフロー情報は、前記データ処理に伴うデータの流れを示す矢印からなるアノテーション画像であることを特徴とする請求項1〜7のいずれか1つに記載の端末装置。   The terminal device according to claim 1, wherein the data flow information is an annotation image including arrows indicating a data flow associated with the data processing. 携帯端末の制御プログラムであって、
自機の位置を特定する手順(A)と、
自機の姿勢を特定する手順(B)と、
前記手順(A)及び(B)で特定された位置及び姿勢に基づいて検出されたデータ処理装置であって、自機から所定の距離内に存在し、かつ、自機から見た特定の方向に存在するデータ処理装置により実行可能なデータ処理に伴うデータの流れを示すデータフロー情報を表示する手順(C)と、を携帯端末に実行させることを特徴とする制御プログラム。
A control program for a mobile terminal,
A procedure (A) for identifying the position of the aircraft;
Procedure (B) for identifying the attitude of the aircraft,
A data processing device that is detected based on the position and orientation specified in the steps (A) and (B), and that is present within a predetermined distance from the own device and that is viewed from the own device A control program for causing a portable terminal to execute a procedure (C) for displaying data flow information indicating a data flow associated with data processing that can be executed by a data processing apparatus existing in the mobile terminal.
前記特定の方向の画像を撮影する手順(a)をさらに前記携帯端末に実行させ、
前記手順(C)では、前記手順(a)での撮影画像に前記データフロー情報を重ね合わせて表示することを特徴とする請求項9に記載の制御プログラム。
Causing the portable terminal to further execute a procedure (a) of taking an image in the specific direction;
The control program according to claim 9, wherein in the procedure (C), the data flow information is displayed by being superimposed on the captured image obtained in the procedure (a).
前記手順(C)では、前記手順(a)での撮影画像に前記データ処理装置が映っていないときに、前記手順(a)での撮影画像に前記データ処理装置を表すアイコンを重ね合わせて表示することを特徴とする請求項10に記載の制御プログラム。   In the procedure (C), when the data processing device is not shown in the photographed image in the procedure (a), an icon representing the data processing device is superimposed on the photographed image in the procedure (a). The control program according to claim 10. 前記手順(C)では、前記データ処理に伴うデータの通信方式を示す通信方式情報を前記データフロー情報と関連付けて表示することを特徴とする請求項9〜11のいずれか1つに記載の制御プログラム。   The control according to any one of claims 9 to 11, wherein in the step (C), communication method information indicating a communication method of data accompanying the data processing is displayed in association with the data flow information. program. 前記手順(C)では、前記データ処理の操作指示を受け付けるための操作ボタンを前記データフロー情報と関連付けて表示することを特徴とする請求項9〜12のいずれか1つに記載の制御プログラム。   The control program according to any one of claims 9 to 12, wherein in the step (C), an operation button for receiving an operation instruction for the data processing is displayed in association with the data flow information. 前記手順(C)では、前記操作ボタンにより前記操作指示を受け付けたときに、前記データ処理の操作ガイダンスを表示することを特徴とする請求項13に記載の制御プログラム。   14. The control program according to claim 13, wherein in the step (C), an operation guidance for the data processing is displayed when the operation instruction is received by the operation button. 前記手順(C)では、前記データ処理装置が自機から所定の距離内に存在しなくなるか、又は自機から見た特定の方向に存在しなくなったときに、前記データ処理装置を表すアイコンを前記データフロー情報と関連付けて表示することを特徴とする請求項9〜14のいずれか1つに記載の制御プログラム。   In the step (C), when the data processing device does not exist within a predetermined distance from the own device or does not exist in a specific direction viewed from the own device, an icon representing the data processing device is displayed. The control program according to claim 9, wherein the control program is displayed in association with the data flow information. 前記データフロー情報は、前記データ処理に伴うデータの流れを示す矢印からなるアノテーション画像であることを特徴とする請求項9〜15のいずれか1つに記載の制御プログラム。   The control program according to any one of claims 9 to 15, wherein the data flow information is an annotation image including arrows indicating a data flow associated with the data processing. 請求項9〜16のいずれか1つに記載の制御プログラムが記録されたコンピューター読み取り可能な記録媒体。   The computer-readable recording medium with which the control program as described in any one of Claims 9-16 was recorded. 相互に通信可能な携帯端末と、サーバーと、を含む表示システムであって、
前記携帯端末は、自機の位置を特定する位置特定部と、自機の姿勢を特定する姿勢特定部と、を有し、
前記サーバーは、前記位置特定部及び前記姿勢特定部により特定された位置及び姿勢に基づき、前記携帯端末から所定の距離内に存在し、かつ、前記携帯端末から見た特定の方向に存在するデータ処理装置を検出する検出部を有し、
前記携帯端末は、前記検出部により検出された前記データ処理装置により実行可能なデータ処理に伴うデータの流れを示すデータフロー情報を表示する表示部をさらに有することを特徴とする表示システム。
A display system including a mobile terminal and a server that can communicate with each other,
The mobile terminal has a position specifying unit that specifies the position of the own device, and a posture specifying unit that specifies the posture of the own device,
The server is data existing within a predetermined distance from the mobile terminal and in a specific direction viewed from the mobile terminal based on the position and orientation specified by the position specifying unit and the attitude specifying unit. A detection unit for detecting the processing device;
The mobile terminal further includes a display unit that displays data flow information indicating a data flow associated with data processing that can be executed by the data processing device detected by the detection unit.
JP2012022461A 2012-02-03 2012-02-03 Portable terminal, portable terminal control program, and display system including portable terminal Expired - Fee Related JP5989347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012022461A JP5989347B2 (en) 2012-02-03 2012-02-03 Portable terminal, portable terminal control program, and display system including portable terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012022461A JP5989347B2 (en) 2012-02-03 2012-02-03 Portable terminal, portable terminal control program, and display system including portable terminal

Publications (2)

Publication Number Publication Date
JP2013161246A true JP2013161246A (en) 2013-08-19
JP5989347B2 JP5989347B2 (en) 2016-09-07

Family

ID=49173442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012022461A Expired - Fee Related JP5989347B2 (en) 2012-02-03 2012-02-03 Portable terminal, portable terminal control program, and display system including portable terminal

Country Status (1)

Country Link
JP (1) JP5989347B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015055987A (en) * 2013-09-11 2015-03-23 コニカミノルタ株式会社 Image processing system, portable terminal, server device and program
JP2015115649A (en) * 2013-12-09 2015-06-22 三菱電機株式会社 Device control system and device control method
JP2016071776A (en) * 2014-10-01 2016-05-09 富士通株式会社 Display control program, display control method, and display control device
WO2016143325A1 (en) * 2015-03-10 2016-09-15 パナソニックIpマネジメント株式会社 Camera system and control method therefor, and electronic device and control program therefor
US9621750B2 (en) 2015-04-25 2017-04-11 Kyocera Document Solutions Inc. Image forming system that moves print job between a plurality of image forming apparatuses and recording medium
US9658804B2 (en) 2015-04-25 2017-05-23 Kyocera Document Solutions Inc. Electronic device that displays degree-of-recommendation, image forming system, and recording medium
JP6179653B1 (en) * 2016-10-19 2017-08-16 富士ゼロックス株式会社 Information processing apparatus and program
CN107391061A (en) * 2016-05-06 2017-11-24 富士施乐株式会社 Information processor and information processing method
JP2018005899A (en) * 2017-06-07 2018-01-11 富士ゼロックス株式会社 Information processing apparatus and program
JP2018067291A (en) * 2017-06-07 2018-04-26 富士ゼロックス株式会社 Information processing apparatus and program
JP2018067292A (en) * 2017-06-07 2018-04-26 富士ゼロックス株式会社 Information processing apparatus and program
US10168972B2 (en) 2014-09-16 2019-01-01 Ricoh Company, Ltd. Terminal apparatus and operation designation method
JP2019074649A (en) * 2017-10-16 2019-05-16 富士ゼロックス株式会社 Information processing device and program
US10423213B2 (en) 2017-12-22 2019-09-24 Toshiba Tec Kabushiki Kaisha Image forming apparatus
JP2020173831A (en) * 2018-05-18 2020-10-22 富士ゼロックス株式会社 Information processing device and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092764A (en) * 1999-07-16 2001-04-06 Canon Inc Information processor, device, network system, monitoring method of device, control method of device and storage medium
JP2001257827A (en) * 2000-03-13 2001-09-21 Canon Inc Image input/output system, image input/output controller, and their control method
JP2002218503A (en) * 2001-01-22 2002-08-02 Fuji Photo Film Co Ltd Communication system and mobile terminal
JP2009226081A (en) * 2008-03-24 2009-10-08 Nintendo Co Ltd Information processing program and information processor
US20120019858A1 (en) * 2010-07-26 2012-01-26 Tomonori Sato Hand-Held Device and Apparatus Management Method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092764A (en) * 1999-07-16 2001-04-06 Canon Inc Information processor, device, network system, monitoring method of device, control method of device and storage medium
JP2001257827A (en) * 2000-03-13 2001-09-21 Canon Inc Image input/output system, image input/output controller, and their control method
JP2002218503A (en) * 2001-01-22 2002-08-02 Fuji Photo Film Co Ltd Communication system and mobile terminal
JP2009226081A (en) * 2008-03-24 2009-10-08 Nintendo Co Ltd Information processing program and information processor
US20120019858A1 (en) * 2010-07-26 2012-01-26 Tomonori Sato Hand-Held Device and Apparatus Management Method

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015055987A (en) * 2013-09-11 2015-03-23 コニカミノルタ株式会社 Image processing system, portable terminal, server device and program
JP2015115649A (en) * 2013-12-09 2015-06-22 三菱電機株式会社 Device control system and device control method
US10168972B2 (en) 2014-09-16 2019-01-01 Ricoh Company, Ltd. Terminal apparatus and operation designation method
JP2016071776A (en) * 2014-10-01 2016-05-09 富士通株式会社 Display control program, display control method, and display control device
WO2016143325A1 (en) * 2015-03-10 2016-09-15 パナソニックIpマネジメント株式会社 Camera system and control method therefor, and electronic device and control program therefor
US10165172B2 (en) 2015-03-10 2018-12-25 Panasonic Intellectual Property Management Co., Ltd. Camera system and control method therefor, and electronic device and control program therefor
JPWO2016143325A1 (en) * 2015-03-10 2017-12-28 パナソニックIpマネジメント株式会社 CAMERA SYSTEM AND ITS CONTROL METHOD, ELECTRONIC DEVICE AND ITS CONTROL PROGRAM
US9621750B2 (en) 2015-04-25 2017-04-11 Kyocera Document Solutions Inc. Image forming system that moves print job between a plurality of image forming apparatuses and recording medium
US9658804B2 (en) 2015-04-25 2017-05-23 Kyocera Document Solutions Inc. Electronic device that displays degree-of-recommendation, image forming system, and recording medium
CN107391061B (en) * 2016-05-06 2022-07-05 富士胶片商业创新有限公司 Information processing apparatus and information processing method
CN107391061A (en) * 2016-05-06 2017-11-24 富士施乐株式会社 Information processor and information processing method
US10567608B2 (en) 2016-05-06 2020-02-18 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium
JP2018067139A (en) * 2016-10-19 2018-04-26 富士ゼロックス株式会社 Information processing apparatus and program
JP6179653B1 (en) * 2016-10-19 2017-08-16 富士ゼロックス株式会社 Information processing apparatus and program
JP2018067291A (en) * 2017-06-07 2018-04-26 富士ゼロックス株式会社 Information processing apparatus and program
JP2018067292A (en) * 2017-06-07 2018-04-26 富士ゼロックス株式会社 Information processing apparatus and program
JP2018005899A (en) * 2017-06-07 2018-01-11 富士ゼロックス株式会社 Information processing apparatus and program
JP2019074649A (en) * 2017-10-16 2019-05-16 富士ゼロックス株式会社 Information processing device and program
JP7013786B2 (en) 2017-10-16 2022-02-01 富士フイルムビジネスイノベーション株式会社 Information processing equipment, programs and control methods
US10423213B2 (en) 2017-12-22 2019-09-24 Toshiba Tec Kabushiki Kaisha Image forming apparatus
US10664038B2 (en) 2017-12-22 2020-05-26 Toshiba Tec Kabushiki Kaisha Image forming apparatus that determines whether to shift between in multiple states
US10671145B2 (en) 2017-12-22 2020-06-02 Toshiba Tec Kabushiki Kaisha Image forming apparatus that determines whether to shift between multiple states
JP2020173831A (en) * 2018-05-18 2020-10-22 富士ゼロックス株式会社 Information processing device and program

Also Published As

Publication number Publication date
JP5989347B2 (en) 2016-09-07

Similar Documents

Publication Publication Date Title
JP5989347B2 (en) Portable terminal, portable terminal control program, and display system including portable terminal
JP5257437B2 (en) Method for operating portable terminal and processing device
US11245814B2 (en) Shared terminal transmits print data with name of the shared terminal as a print requester to printer when the terminal device identification is not received
US9304728B2 (en) Generating a map of image forming devices on a mobile device
JP5922067B2 (en) Image forming system
JP2012029164A (en) Portable terminal and device managing method
US20160269578A1 (en) Head mounted display apparatus and method for connecting head mounted display apparatus to external device
US10681047B2 (en) Shared terminal that authenticates a user based on a terminal identifier
JP5696489B2 (en) Server apparatus, printing system, and printing method
US10915289B2 (en) Shared terminal and image transmission method
JP2006185053A (en) Image processor, image processing method and computer program
JP6089833B2 (en) Image forming apparatus, portable terminal apparatus, information processing apparatus, image forming system, and program
JP6304497B2 (en) Image forming system and augmented reality program
JP6465072B2 (en) Information processing apparatus and printing system
JP5423846B2 (en) Information processing system, control method and program thereof, and portable terminal, control method and program thereof
JP6136667B2 (en) Image processing system, image forming apparatus, display apparatus, and control program
US9917976B2 (en) Image forming system that identifies who has performed printing
JP5673121B2 (en) Server apparatus, printing system, and printing method
JP2015014912A (en) Apparatus management terminal, apparatus management system, and apparatus management program
JP6354394B2 (en) Information processing apparatus and image processing system
US9600217B2 (en) Portable apparatus displaying apparatus information on electronic apparatus
JP6761207B2 (en) Shared terminals, communication systems, communication methods, and programs
JP2016157352A (en) Image forming apparatus using smartphone
US20180285042A1 (en) Communication terminal, communication system, communication control method, and non-transitory computer-readable medium
JP2019160095A (en) Information processing system and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150917

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160810

R150 Certificate of patent or registration of utility model

Ref document number: 5989347

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees