JP2023140285A - Information processing apparatus, information processing system, device management method, and program - Google Patents

Information processing apparatus, information processing system, device management method, and program Download PDF

Info

Publication number
JP2023140285A
JP2023140285A JP2023005177A JP2023005177A JP2023140285A JP 2023140285 A JP2023140285 A JP 2023140285A JP 2023005177 A JP2023005177 A JP 2023005177A JP 2023005177 A JP2023005177 A JP 2023005177A JP 2023140285 A JP2023140285 A JP 2023140285A
Authority
JP
Japan
Prior art keywords
electronic device
user
information
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023005177A
Other languages
Japanese (ja)
Inventor
葵 中村
Aoi Nakamura
熱河 松浦
Nekka Matsuura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2023005177A priority Critical patent/JP2023140285A/en
Publication of JP2023140285A publication Critical patent/JP2023140285A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimiles In General (AREA)

Abstract

To configure settings for an electronic device using information used in another electronic device.SOLUTION: A management apparatus configured to communicate with a plurality of electronic devices and an imaging apparatus over a communication link includes: a state storage unit; a state management unit which includes an object state management unit, a device state management unit, and an output information determination unit; an image receiving unit which manages the electronic devices and a state of an object, decides content of an operation instruction to be transmitted to the electronic devices, updates, based on a received image, a registered object list stored in the state storage unit, updates, based on received device operation information, a registered device list and the registered object list, and transmits the received image to the state management unit; an operation information receiving unit which receives the device operation information from the electronic devices and transmits the received device operation information to the state management unit; an output information determination unit which determines content of an operation instruction to be transmitted to the electronic devices on the basis of the stored state management information, and transmits the determined operation instruction to an operation instruction unit; and the operation instruction unit which transmits the operation instruction received from the state management unit to the electronic devices.SELECTED DRAWING: Figure 6

Description

この発明は、情報処理装置、情報処理システム、機器管理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing system, a device management method, and a program.

クラウドコンピューティングにおいて、ソフトウェアを連携してシングルサインオンを実現する技術がある。例えば、特許文献1には、複数のサービスで共通の認証基盤を利用することで、あるサービスで認証されたユーザが他のサービスでの認証を省略することができる発明が開示されている。 In cloud computing, there is a technology that enables single sign-on by linking software. For example, Patent Document 1 discloses an invention in which a user who is authenticated in a certain service can omit authentication in other services by using a common authentication infrastructure for a plurality of services.

電子機器等のハードウェアによる認証において、各ハードウェアの認証処理を関連付ける技術がある。例えば、特許文献2には、機密情報を扱う領域への入退室を管理するシステムと、当該領域内にある電子機器とを連携することで、入退室管理システムにおいて認証されたユーザでなければ電子機器での認証を許可しない発明が開示されている。 In authentication using hardware such as electronic equipment, there is a technique for associating authentication processing of each piece of hardware. For example, Patent Document 2 discloses that by linking a system that manages entry and exit to an area that handles confidential information and electronic devices in the area, electronic devices that are not authenticated by the entry/exit management system can An invention is disclosed that does not permit authentication on a device.

ハードウェア間の連携では、ユーザの同一性を判定することが困難である。特許文献2に開示された発明は、電子機器での認証において入退室管理システムの認証状態を利用しているが、ユーザはそれぞれで認証操作を行う必要がある。例えば、第1の電子機器で認証を行ったユーザと第2の電子機器の近傍にいるユーザとの同一性を判定できれば、ユーザが第1の電子機器で入力した認証情報を用いて、第2の電子機器が認証を行うことが可能となる。 In coordination between hardware, it is difficult to determine the identity of a user. The invention disclosed in Patent Document 2 utilizes the authentication status of the room entry/exit management system for authentication using electronic equipment, but each user needs to perform an authentication operation for each user. For example, if it is possible to determine the identity of a user who authenticated with a first electronic device and a user who is near a second electronic device, authentication information input by the user with the first electronic device can be used to authenticate the user with the second electronic device. electronic devices can perform authentication.

この発明の一実施形態は、第1の電子機器で使用された情報を用いて第2の電子機器を設定することを目的とする。 One embodiment of the invention aims to configure a second electronic device using information used in a first electronic device.

上記の課題を解決するために、この発明の一実施形態である情報処理装置は、第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能な情報処理装置であって、撮影装置から第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信部と、第1の電子機器の使用情報と第1の画像とに基づいて、第1の電子機器を使用した第1のユーザを特定する第1ユーザ特定部と、第1ユーザ特定部によって特定された第1のユーザが第1の電子機器で入力した認証情報を第1の電子機器から受信する入力情報受信部と、撮影装置から第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信部と、第2の画像から第2の電子機器の操作可能位置に存在する第2のユーザを特定する第2ユーザ特定部と、第1ユーザ特定部によって特定された第1のユーザ及び第2ユーザ特定部によって特定された第2のユーザの情報と認証情報とに基づいて、第2の電子機器に認証情報又は認証情報中の画面設定情報を送信する動作指示部と、を備える。 In order to solve the above problems, an information processing device according to an embodiment of the present invention is an information processing device that can communicate with a first electronic device, a second electronic device, and a photographing device via a network. , a first image receiving unit that receives a first image of a first user using a first electronic device from a photographing device; and a first image receiving unit that receives usage information of the first electronic device and the first image. a first user identification unit that identifies the first user who used the first electronic device based on the authentication information input by the first user identified by the first user identification unit on the first electronic device; an input information receiving section that receives from a first electronic device; and a second image receiving section that receives a second image of a second user who is present at an operable position of the second electronic device from a photographing device. a second user specifying unit that specifies a second user present at an operable position of the second electronic device from a second image; and a first user and a second user specified by the first user specifying unit. An operation instruction section that transmits authentication information or screen setting information included in the authentication information to the second electronic device based on the second user information and authentication information specified by the identification section.

この発明の一実施形態によれば、第1の電子機器で使用された情報を用いて第2の電子機器を設定することができる。 According to one embodiment of the present invention, a second electronic device can be configured using information used in a first electronic device.

一実施形態における機器管理システムの全体構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of the overall configuration of a device management system in an embodiment. 一実施形態におけるコンピュータのハードウェア構成の一例を示す図である。1 is a diagram illustrating an example of a hardware configuration of a computer in an embodiment. FIG. 一実施形態における全天球撮影装置のハードウェア構成の一例を示す図である。1 is a diagram illustrating an example of a hardware configuration of a celestial sphere imaging device in an embodiment. FIG. 一実施形態におけるMFPのハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of an MFP in an embodiment. 一実施形態における電子黒板のハードウェア構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of the hardware configuration of an electronic whiteboard in an embodiment. 一実施形態における機器管理システムの機能構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a functional configuration of a device management system in an embodiment. 一実施形態における状態管理情報の一例を示す図である。It is a figure showing an example of state management information in one embodiment. 一実施形態における第1の基本フローチャートの一例を示す図である。FIG. 3 is a diagram illustrating an example of a first basic flowchart in one embodiment. 一実施形態における第2の基本フローチャートの一例を示す図である。It is a figure which shows an example of the 2nd basic flowchart in one embodiment. 一実施形態における機器管理方法の一例を示す図である。FIG. 3 is a diagram illustrating an example of a device management method in an embodiment. 一実施形態における物体状態更新処理の一例を示す図である。FIG. 3 is a diagram illustrating an example of object state update processing in an embodiment. 一実施形態における検知物体リスト作成処理の一例を示す図である。FIG. 3 is a diagram illustrating an example of a detection object list creation process in an embodiment. 一実施形態における登録物体リスト更新処理の一例を示す図である。FIG. 3 is a diagram illustrating an example of registered object list update processing in one embodiment. 一実施形態における登録物体リスト更新処理の一例を示す図である。FIG. 3 is a diagram illustrating an example of registered object list update processing in one embodiment. 一実施形態におけるグループID付与処理の第1の例を示す図である。It is a figure showing the 1st example of group ID grant processing in one embodiment. 一実施形態におけるグループID付与処理の第2の例を示す図である。It is a figure showing the 2nd example of group ID grant processing in one embodiment. 一実施形態における機器状態更新処理の一例を示す図である。FIG. 3 is a diagram illustrating an example of device status update processing in an embodiment. 一実施形態における出力情報決定処理の一例を示す図である。FIG. 3 is a diagram illustrating an example of output information determination processing in an embodiment. 一実施形態における出力条件判定処理の一例を示す図である。FIG. 3 is a diagram illustrating an example of output condition determination processing in an embodiment. 一実施形態における機器出力情報の一例を示す図である。It is a figure showing an example of device output information in one embodiment.

以下、図面を参照しながら、この発明の実施の形態について、詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。 Embodiments of the present invention will be described in detail below with reference to the drawings. Note that in the drawings, components having the same functions are designated by the same numbers, and redundant explanation will be omitted.

[実施形態]
本発明の一実施形態は、複数の電子機器を管理する機器管理システムである。本実施形態における機器管理システムは、ある電子機器で入力された情報を用いた動作を他の電子機器に指示することで、電子機器間の連携を実現する。
[Embodiment]
One embodiment of the present invention is a device management system that manages multiple electronic devices. The device management system in this embodiment achieves cooperation between electronic devices by instructing other electronic devices to perform operations using information input by one electronic device.

従来、ハードウェア間の連携では、同一のデバイス(例えば、IC(Integrated Circuit)カード又は携帯情報端末等)を所持していることによりユーザの同一性を判定していた。その結果、ハードウェア間で連携しても、各ハードウェアでの認証操作は必要であった。ソフトウェア連携によるシングルサインオンでは、あるサービスで認証されたユーザが他のサービスにアクセスする場合、同一の装置から操作が行われるため、ユーザの同一性を容易に判定することができる。 Conventionally, in cooperation between hardware, the identity of a user has been determined based on possession of the same device (for example, an IC (Integrated Circuit) card or a mobile information terminal, etc.). As a result, even if the hardware cooperated, authentication operations were required on each piece of hardware. With single sign-on based on software coordination, when a user authenticated in one service accesses another service, the operations are performed from the same device, so the identity of the user can be easily determined.

本実施形態における機器管理システムは、管理装置が、複数の電子機器が設置された空間を撮影した画像に基づいて、電子機器間を移動する人物を追跡する。これにより、管理装置は、ある電子機器を操作したユーザと、他の電子機器の近傍にいるユーザとの同一性を判定することができる。 In the device management system according to the present embodiment, a management device tracks a person who moves between electronic devices based on an image taken of a space where a plurality of electronic devices are installed. Thereby, the management device can determine the identity of a user who operated a certain electronic device and a user who is near another electronic device.

ユーザの同一性を判定できれば、ある電子機器で入力された情報を用いた動作を、他の電子機器に実行させることができる。例えば、ユーザが近傍にいる電子機器で、当該ユーザが他の電子機器で入力した認証情報を用いた認証を行えば、ハードウェア連携によるシングルサインオンを実現することができる。 If the identity of the user can be determined, it is possible to cause another electronic device to perform an operation using information input on one electronic device. For example, if an electronic device near a user performs authentication using authentication information input by the user on another electronic device, single sign-on through hardware cooperation can be achieved.

<機器管理システムの全体構成>
まず、本実施形態における機器管理システムの全体構成について、図1を参照しながら説明する。図1は、本実施形態における機器管理システムの全体構成の一例を示す図である。
<Overall configuration of device management system>
First, the overall configuration of the device management system in this embodiment will be described with reference to FIG. 1. FIG. 1 is a diagram showing an example of the overall configuration of a device management system in this embodiment.

図1に示されているように、本実施形態における機器管理システム1は、管理装置10、1台以上の監視装置20及び複数の電子機器30を含む。管理装置10、監視装置20及び電子機器30は、それぞれ通信ネットワークN1に接続している。 As shown in FIG. 1, the device management system 1 in this embodiment includes a management device 10, one or more monitoring devices 20, and a plurality of electronic devices 30. The management device 10, the monitoring device 20, and the electronic device 30 are each connected to the communication network N1.

通信ネットワークN1は、接続されている各装置が相互に通信可能となるように構成されている。通信ネットワークN1は、例えば、インターネット、LAN(Local Area Network)、又はWAN(Wide Area Network)などの有線通信によるネットワークによって構築されている。 The communication network N1 is configured so that connected devices can communicate with each other. The communication network N1 is constructed, for example, by a wired communication network such as the Internet, a LAN (Local Area Network), or a WAN (Wide Area Network).

通信ネットワークN1は、有線通信だけでなく、例えば、無線LAN、又は近距離無線通信等の無線通信、もしくはWiMAX(Worldwide Interoperability for Microwave Access)、LTE(Long Term Evolution)、又は5G(5th Generation)等の移動体通信によるネットワークが含まれていてもよい。 The communication network N1 includes not only wired communication but also wireless communication such as wireless LAN or short-range wireless communication, WiMAX (Worldwide Interoperability for Microwave Access), LTE (Long Term Evolution), 5G (5th Generation), etc. This may include a mobile communication network.

監視装置20及び電子機器30は、管理対象空間R1に設置される。管理対象空間R1は、建物内の部屋等の1つの空間でもよいし、扉又は廊下等の出入り可能な空間で接続された複数の空間でもよい。 The monitoring device 20 and the electronic device 30 are installed in the managed space R1. The managed space R1 may be a single space such as a room in a building, or may be a plurality of spaces connected by a door, a hallway, or other accessible space.

管理対象空間R1の一例は、オフィスの会議室又は執務室等である。管理対象空間R1の他の一例は、コンビニエンスストア等の小規模店舗における売り場又はバックヤード等である。管理対象空間R1の他の一例は、ホテルのロビー又は客室等である。管理対象空間R1の他の一例は、空港、書店又は工場等である。管理対象空間R1はこれらに限定されず、複数のユーザが操作し得る電子機器が設置される空間であればどのようなものでもよい。 An example of the managed space R1 is an office conference room, an office room, or the like. Another example of the managed space R1 is a sales floor or a backyard in a small-scale store such as a convenience store. Another example of the managed space R1 is a hotel lobby or a guest room. Other examples of the managed space R1 are an airport, a bookstore, a factory, or the like. The managed space R1 is not limited to these, and may be any space in which electronic equipment that can be operated by multiple users is installed.

管理装置10は、電子機器30を管理するPC(Personal Computer)、ワークステーション又はサーバ等の情報処理装置である。管理装置10は、監視装置20が取得した画像に基づいて、電子機器30に動作指示を送信する。管理装置10の一例は、コンピュータである。 The management device 10 is an information processing device such as a PC (Personal Computer), a workstation, or a server that manages the electronic device 30. The management device 10 transmits an operation instruction to the electronic device 30 based on the image acquired by the monitoring device 20. An example of the management device 10 is a computer.

監視装置20は、管理対象空間R1に設置された電子機器30の近傍を含む画像を取得する電子機器である。監視装置20は映像(すなわち、画像の時系列)を取得してもよい。監視装置20は、複数の電子機器30すべてを撮影可能な位置に設置される。 The monitoring device 20 is an electronic device that acquires an image including the vicinity of the electronic device 30 installed in the managed space R1. The monitoring device 20 may acquire video (that is, a time series of images). The monitoring device 20 is installed at a position where it can photograph all of the plurality of electronic devices 30.

監視装置20の一例は、全天球撮影装置である。監視装置20の他の一例は、複数のネットワークカメラである。監視装置20が複数のネットワークカメラである場合、各ネットワークカメラは管理対象空間R1内に死角が生じないように画角を調整して配置される。 An example of the monitoring device 20 is a spherical photographing device. Another example of the monitoring device 20 is a plurality of network cameras. When the monitoring device 20 is a plurality of network cameras, each network camera is arranged with its angle of view adjusted so that no blind spot occurs in the managed space R1.

以降では、監視装置20が複数ある場合に、各々を区別するときは、「監視装置20-1」、「監視装置20-2」等と枝番を用いて記載する。 Hereinafter, when there is a plurality of monitoring devices 20, to distinguish each one, they will be described using branch numbers such as "monitoring device 20-1" and "monitoring device 20-2."

電子機器30は、ユーザが使用する各種の電子機器である。電子機器30は、認証されたユーザのみが使用できるように構成されている。電子機器30は、IC(Integrated Circuit)カード等のハードウェアを用いた認証が可能なように構成されている。 The electronic device 30 is a variety of electronic devices used by users. The electronic device 30 is configured so that only an authenticated user can use it. The electronic device 30 is configured to enable authentication using hardware such as an IC (Integrated Circuit) card.

電子機器30の一例は、画像形成装置(プリンタ、FAX装置、MFP(Multifunction Peripheral/Product/Printer:デジタル複合機)、スキャナ装置等)である。電子機器30の他の一例は、電子黒板(IWB(Interactive White Board:相互通信が可能な電子式の黒板機能を有する白板))である。 An example of the electronic device 30 is an image forming device (a printer, a FAX device, an MFP (Multifunction Peripheral/Product/Printer), a scanner device, etc.). Another example of the electronic device 30 is an electronic whiteboard (IWB: a whiteboard having an electronic blackboard function that allows mutual communication).

以降では、複数の電子機器30について、各々を区別するときは、「電子機器30-1」、「電子機器30-2」等と枝番を用いて記載する。 Hereinafter, when distinguishing each of the plurality of electronic devices 30, they will be described using branch numbers such as "electronic device 30-1" and "electronic device 30-2."

電子機器30は、通信機能を備えた装置であれば、画像形成装置又は電子黒板に限られない。すなわち、電子機器30は、例えば、PJ(Projector:プロジェクタ)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、自動車(Connected Car)、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、デジタルカメラ、ウェアラブルPC又はデスクトップPC等であってもよい。 The electronic device 30 is not limited to an image forming device or an electronic blackboard as long as it is a device with a communication function. That is, the electronic device 30 includes, for example, a projector (PJ), an output device such as a digital signage, a head up display (HUD) device, an industrial machine, an imaging device, a sound collection device, a medical device, a network home appliance, and a connected vehicle. The computer may be a car, a notebook PC (Personal Computer), a mobile phone, a smartphone, a tablet terminal, a game console, a PDA (Personal Digital Assistant), a digital camera, a wearable PC, a desktop PC, or the like.

<機器管理システムのハードウェア構成>
次に、本実施形態における機器管理システムに含まれる各装置のハードウェア構成について、図2から図5を参照しながら説明する。
<Hardware configuration of device management system>
Next, the hardware configuration of each device included in the device management system in this embodiment will be explained with reference to FIGS. 2 to 5.

≪コンピュータのハードウェア構成≫
図2は、管理装置10がコンピュータで実現される場合のハードウェア構成の一例を示す図である。
≪Computer hardware configuration≫
FIG. 2 is a diagram showing an example of a hardware configuration when the management device 10 is implemented by a computer.

図2に示されているように、一実施形態におけるコンピュータは、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、HD(Hard Disk)504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、バスライン510、キーボード511、ポインティング機器512、DVD-RW(Digital Versatile Disk Rewritable)ドライブ514、メディアI/F516を備えている。 As shown in FIG. 2, the computer in one embodiment includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, an HD (Hard Disk) 504, an HDD ( Hard Disk Drive) controller 505, display 506, external device connection I/F (Interface) 508, network I/F 509, bus line 510, keyboard 511, pointing device 512, DVD-RW (Digital Versatile Disk Rewritable) drive 514, media Equipped with I/F516.

これらのうち、CPU501は、コンピュータ全体の動作を制御する。ROM502は、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。 Among these, the CPU 501 controls the operation of the entire computer. The ROM 502 stores programs used to drive the CPU 501, such as IPL (Initial Program Loader). RAM 503 is used as a work area for CPU 501. The HD 504 stores various data such as programs. The HDD controller 505 controls reading and writing of various data to the HD 504 under the control of the CPU 501.

ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。ネットワークI/F509は、通信ネットワークN1を利用してデータ通信をするためのインターフェースである。バスライン510は、図2に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The display 506 displays various information such as a cursor, menu, window, characters, or images. External device connection I/F 508 is an interface for connecting various external devices. The external device in this case is, for example, a USB (Universal Serial Bus) memory, a printer, or the like. The network I/F 509 is an interface for data communication using the communication network N1. The bus line 510 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 501 shown in FIG. 2.

また、キーボード511は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。ポインティング機器512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD-RWドライブ514は、着脱可能な記録媒体の一例としてのDVD-RW513に対する各種データの読み出し又は書き込みを制御する。なお、DVD-RWに限らず、DVD-R等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。 Further, the keyboard 511 is a type of input means that includes a plurality of keys for inputting characters, numerical values, various instructions, and the like. The pointing device 512 is a type of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The DVD-RW drive 514 controls reading and writing of various data on a DVD-RW 513, which is an example of a removable recording medium. Note that it is not limited to DVD-RW, but may be DVD-R or the like. The media I/F 516 controls reading or writing (storage) of data to a recording medium 515 such as a flash memory.

≪全天球撮影装置のハードウェア構成≫
図3は、監視装置20が全天球撮影装置で実現される場合のハードウェア構成の一例を示す図である。以下では、全天球撮影装置は、2つの撮像素子を使用した全天球(全方位)撮影装置とするが、撮像素子は2つ以上であればいくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に全天球撮影装置と同じ機能を有するようにしてもよい。
≪Hardware configuration of spherical imaging device≫
FIG. 3 is a diagram illustrating an example of a hardware configuration when the monitoring device 20 is implemented as an omnidirectional photographing device. In the following, the spherical photographing device is assumed to be a spherical (omnidirectional) photographing device using two image sensors, but any number of image sensors may be used as long as it is two or more. Also, it does not necessarily have to be a device dedicated to omnidirectional photography; by attaching an aftermarket omnidirectional imaging unit to a regular digital camera or smartphone, it can essentially have the same functionality as a omnidirectional photography device. You can.

図3に示されているように、一実施形態における全天球撮影装置は、撮像ユニット601、画像処理ユニット604、撮像制御ユニット605、マイク608、音処理ユニット609、CPU(Central Processing Unit)611、ROM(Read Only Memory)612、SRAM(Static Random Access Memory)613、DRAM(Dynamic Random Access Memory)614、操作部615、外部機器接続I/F616、通信部617、アンテナ617a、加速度・方位センサ618、ジャイロセンサ619、加速度センサ620、及びMicro USB用の凹状の端子621によって構成されている。 As shown in FIG. 3, the omnidirectional imaging device in one embodiment includes an imaging unit 601, an image processing unit 604, an imaging control unit 605, a microphone 608, a sound processing unit 609, and a CPU (Central Processing Unit) 611. , ROM (Read Only Memory) 612, SRAM (Static Random Access Memory) 613, DRAM (Dynamic Random Access Memory) 614, operation unit 615, external device connection I/F 616, communication unit 617, antenna 617a, acceleration/direction sensor 618 , a gyro sensor 619, an acceleration sensor 620, and a concave terminal 621 for Micro USB.

このうち、撮像ユニット601は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)602a,602bと、各広角レンズに対応させて設けられている2つの撮像素子603a,603bを備えている。撮像素子603a,603bは、魚眼レンズ602a,602bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Among these, the imaging unit 601 includes wide-angle lenses (so-called fisheye lenses) 602a and 602b each having an angle of view of 180° or more for forming a hemispherical image, and two imaging units provided corresponding to each wide-angle lens. It includes elements 603a and 603b. The image sensors 603a and 603b are image sensors such as CMOS (Complementary Metal Oxide Semiconductor) sensors and CCD (Charge Coupled Device) sensors that convert optical images formed by fisheye lenses 602a and 602b into electrical signal image data and output the image data. It has a timing generation circuit that generates horizontal or vertical synchronization signals and pixel clocks, and a group of registers in which various commands and parameters necessary for the operation of this image sensor are set.

撮像ユニット601の撮像素子603a,603bは、各々、画像処理ユニット604とパラレルI/Fバスで接続されている。一方、撮像ユニット601の撮像素子603a,603bは、撮像制御ユニット605とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット604、撮像制御ユニット605及び音処理ユニット609は、バス610を介してCPU611と接続される。さらに、バス610には、ROM612、SRAM613、DRAM614、操作部615、外部機器接続I/F(Interface)616、通信部617、及び加速度・方位センサ618なども接続される。 The imaging elements 603a and 603b of the imaging unit 601 are each connected to the image processing unit 604 via a parallel I/F bus. On the other hand, the imaging elements 603a and 603b of the imaging unit 601 are connected to the imaging control unit 605 via a serial I/F bus (such as an I2C bus). The image processing unit 604, the imaging control unit 605, and the sound processing unit 609 are connected to the CPU 611 via a bus 610. Further, the bus 610 is also connected to a ROM 612, an SRAM 613, a DRAM 614, an operation unit 615, an external device connection I/F (Interface) 616, a communication unit 617, an acceleration/direction sensor 618, and the like.

画像処理ユニット604は、撮像素子603a,603bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、正距円筒射影画像のデータを作成する。 The image processing unit 604 takes in image data output from the image sensors 603a and 603b through the parallel I/F bus, performs predetermined processing on each image data, and then synthesizes these image data. , create equirectangular projection image data.

撮像制御ユニット605は、一般に撮像制御ユニット605をマスタデバイス、撮像素子603a,603bをスレーブデバイスとして、I2Cバスを利用して、撮像素子603a,603bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU611から受け取る。また、撮像制御ユニット605は、同じくI2Cバスを利用して、撮像素子603a,603bのレジスタ群のステータスデータ等を取り込み、CPU611に送る。 Generally, the imaging control unit 605 uses the I2C bus to set commands and the like in register groups of the imaging devices 603a and 603b, with the imaging control unit 605 as a master device and the imaging devices 603a and 603b as slave devices. Necessary commands and the like are received from the CPU 611. Further, the imaging control unit 605 also uses the I2C bus to take in status data and the like of the register groups of the imaging elements 603a and 603b, and sends it to the CPU 611.

また、撮像制御ユニット605は、操作部615のシャッターボタンが押下されたタイミングで、撮像素子603a,603bに画像データの出力を指示する。全天球撮影装置によっては、ディスプレイ(例えば、スマートフォンのディスプレイ)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子603a,603bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 Furthermore, the imaging control unit 605 instructs the imaging elements 603a and 603b to output image data at the timing when the shutter button of the operation unit 615 is pressed. Some omnidirectional photography devices may have a preview display function or a function that supports video display on a display (for example, a smartphone display). In this case, image data is output continuously from the image sensors 603a and 603b at a predetermined frame rate (frames/minute).

また、撮像制御ユニット605は、後述するように、CPU611と協働して撮像素子603a,603bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、全天球撮影装置にはディスプレイが設けられていないが、表示部を設けてもよい。 The imaging control unit 605 also functions as a synchronization control unit that synchronizes the output timing of image data of the imaging elements 603a and 603b in cooperation with the CPU 611, as will be described later. Note that in this embodiment, the omnidirectional photographing device is not provided with a display, but may be provided with a display section.

マイク608は、音を音(信号)データに変換する。音処理ユニット609は、マイク608から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 Microphone 608 converts sound into sound (signal) data. The sound processing unit 609 takes in sound data output from the microphone 608 through the I/F bus, and performs predetermined processing on the sound data.

CPU611は、全天球撮影装置の全体の動作を制御すると共に必要な処理を実行する。ROM612は、CPU611のための種々のプログラムを記憶している。SRAM613及びDRAM614はワークメモリであり、CPU611で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM614は、画像処理ユニット604での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。 The CPU 611 controls the overall operation of the omnidirectional photographing apparatus and executes necessary processing. ROM612 stores various programs for CPU611. The SRAM 613 and DRAM 614 are work memories that store programs executed by the CPU 611, data being processed, and the like. In particular, the DRAM 614 stores image data that is currently being processed by the image processing unit 604 and data of processed equirectangular projection images.

操作部615は、シャッターボタン615aなどの操作ボタンの総称である。ユーザは操作部615を操作することで、種々の撮影モードや撮影条件などを入力する。 The operation unit 615 is a general term for operation buttons such as the shutter button 615a. By operating the operation unit 615, the user inputs various shooting modes, shooting conditions, and the like.

外部機器接続I/F616は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやPC(Personal Computer)等である。DRAM614に記憶された正距円筒射影画像のデータは、この外部機器接続I/F616を介して外付けのメディアに記録されたり、必要に応じて外部機器接続I/F616を介してスマートフォン等の外部端末(装置)に送信されたりする。 The external device connection I/F 616 is an interface for connecting various external devices. The external device in this case is, for example, a USB (Universal Serial Bus) memory, a PC (Personal Computer), or the like. The data of the equirectangular projection image stored in the DRAM 614 can be recorded on an external media via this external device connection I/F 616, or transferred to an external device such as a smartphone via the external device connection I/F 616 as necessary. It may be sent to a terminal (device).

通信部617は、全天球撮影装置に設けられたアンテナ617aを介して、Wi-Fi、NFC(Near Field Communication)やBluetooth(登録商標)等の近距離無線通信技術によって、スマートフォン等の外部端末(装置)と通信を行う。この通信部617によっても、正距円筒射影画像のデータをスマートフォン等の外部端末(装置)に送信することができる。 The communication unit 617 communicates with an external terminal such as a smartphone using short-range wireless communication technology such as Wi-Fi, NFC (Near Field Communication), or Bluetooth (registered trademark) via an antenna 617a provided on the spherical photographing device. Communicate with (device). This communication unit 617 can also transmit data of an equirectangular projection image to an external terminal (device) such as a smartphone.

加速度・方位センサ618は、地球の磁気から全天球撮影装置の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。また、加速度・方位センサ618は、全天球撮影装置6の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。 The acceleration/azimuth sensor 618 calculates the azimuth of the omnidirectional imaging device from the earth's magnetism and outputs azimuth information. This orientation information is an example of related information (metadata) in accordance with Exif, and is used for image processing such as image correction of captured images. Note that the related information also includes data such as the date and time when the image was taken and the data capacity of the image data. Further, the acceleration/azimuth sensor 618 is a sensor that detects changes in angle (roll angle, pitch angle, yaw angle) accompanying movement of the omnidirectional photographing device 6. A change in angle is an example of related information (metadata) according to Exif, and is used for image processing such as image correction of a captured image.

更に、加速度・方位センサ618は、3軸方向の加速度を検出するセンサである。全天球撮影装置は、加速度・方位センサ618が検出した加速度に基づいて、自装置(全天球撮影装置)の姿勢(重力方向に対する角度)を算出する。全天球撮影装置に、加速度・方位センサ618が設けられることによって、画像補正の精度が向上する。 Furthermore, the acceleration/direction sensor 618 is a sensor that detects acceleration in three axial directions. The omnidirectional imaging device calculates the attitude (angle with respect to the direction of gravity) of its own device (the omnidirectional imaging device) based on the acceleration detected by the acceleration/azimuth sensor 618. By providing the acceleration/azimuth sensor 618 in the omnidirectional photographing device, the accuracy of image correction is improved.

≪MFPのハードウェア構成≫
図4は、電子機器30がMFPで実現される場合のハードウェア構成の一例を示す図である。
≪Hardware configuration of MFP≫
FIG. 4 is a diagram illustrating an example of a hardware configuration when the electronic device 30 is implemented as an MFP.

図4に示されているように、一実施形態におけるMFPは、コントローラ910、近距離通信回路920、エンジン制御部930、操作パネル940、ネットワークI/F(Interface)950を備えている。 As shown in FIG. 4, the MFP in one embodiment includes a controller 910, a short-range communication circuit 920, an engine control section 930, an operation panel 940, and a network I/F (Interface) 950.

これらのうち、コントローラ910は、コンピュータの主要部であるCPU(Central Processing Unit)901、システムメモリ(MEM-P)902、ノースブリッジ(NB)903、サウスブリッジ(SB)904、ASIC(Application Specific Integrated Circuit)906、記憶部であるローカルメモリ(MEM-C)907、HDD(Hard Disk Drive)コントローラ908、及び、記憶部であるHD(Hard Disk)909を有し、NB903とASIC906との間をAGP(Accelerated Graphics Port)バス921で接続した構成となっている。 Of these, the controller 910 includes a CPU (Central Processing Unit) 901, a system memory (MEM-P) 902, a north bridge (NB) 903, a south bridge (SB) 904, and an ASIC (Application Specific Integrated circuit) 906, a local memory (MEM-C) 907 as a storage unit, an HDD (Hard Disk Drive) controller 908, and an HD (Hard Disk) 909 as a storage unit. (Accelerated Graphics Port) bus 921.

これらのうち、CPU901は、MFPの全体制御を行う制御部である。NB903は、CPU901と、MEM-P902、SB904、及びAGPバス921とを接続するためのブリッジであり、MEM-P902に対する読み書きなどを制御するメモリコントローラと、PCI(Peripheral Component Interconnect)マスタ及びAGPターゲットとを有する。 Among these, the CPU 901 is a control unit that performs overall control of the MFP. NB903 is a bridge for connecting CPU901, MEM-P902, SB904, and AGP bus 921, and is a memory controller that controls reading and writing to MEM-P902, a PCI (Peripheral Component Interconnect) master, and AGP target. has.

MEM-P902は、コントローラ910の各機能を実現させるプログラムやデータの格納用メモリであるROM(Read Only Memory)902a、プログラムやデータの展開、及びメモリ印刷時の描画用メモリなどとして用いるRAM(Random Access Memory)902bとからなる。なお、RAM902bに記憶されているプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 The MEM-P902 includes a ROM (Read Only Memory) 902a, which is a memory for storing programs and data that realizes each function of the controller 910, and a RAM (Random Access Memory) 902b. Note that the program stored in the RAM 902b is configured to be provided as an installable or executable file recorded on a computer-readable recording medium such as a CD-ROM, CD-R, or DVD. You may.

SB904は、NB903とPCI機器、周辺機器とを接続するためのブリッジである。ASIC906は、画像処理用のハードウェア要素を有する画像処理用途向けのIC(Integrated Circuit)であり、AGPバス921、PCIバス922、HDD908およびMEM-C907をそれぞれ接続するブリッジの役割を有する。このASIC906は、PCIターゲットおよびAGPマスタ、ASIC906の中核をなすアービタ(ARB)、MEM-C907を制御するメモリコントローラ、ハードウェアロジックなどにより画像データの回転などを行う複数のDMAC(Direct Memory Access Controller)、並びに、スキャナ部931及びプリンタ部932との間でPCIバス922を介したデータ転送を行うPCIユニットとからなる。なお、ASIC906には、USB(Universal Serial Bus)のインターフェースや、IEEE1394(Institute of Electrical and Electronics Engineers 1394)のインターフェースを接続するようにしてもよい。 The SB904 is a bridge for connecting the NB903 to PCI devices and peripheral devices. The ASIC 906 is an IC (Integrated Circuit) for image processing that includes hardware elements for image processing, and has the role of a bridge that connects the AGP bus 921, the PCI bus 922, the HDD 908, and the MEM-C 907, respectively. This ASIC906 includes a PCI target and an AGP master, an arbiter (ARB) that is the core of the ASIC906, a memory controller that controls the MEM-C907, and multiple DMACs (Direct Memory Access Controllers) that rotate image data using hardware logic, etc. , and a PCI unit that transfers data between the scanner section 931 and the printer section 932 via the PCI bus 922. Note that the ASIC 906 may be connected to a USB (Universal Serial Bus) interface or an IEEE 1394 (Institute of Electrical and Electronics Engineers 1394) interface.

MEM-C907は、コピー用画像バッファ及び符号バッファとして用いるローカルメモリである。HD909は、画像データの蓄積、印刷時に用いるフォントデータの蓄積、フォームの蓄積を行うためのストレージである。HD909は、CPU901の制御にしたがってHD909に対するデータの読出又は書込を制御する。AGPバス921は、グラフィック処理を高速化するために提案されたグラフィックスアクセラレータカード用のバスインタフェースであり、MEM-P902に高スループットで直接アクセスすることにより、グラフィックスアクセラレータカードを高速にすることができる。 MEM-C907 is a local memory used as a copy image buffer and code buffer. The HD 909 is a storage for storing image data, font data used during printing, and forms. The HD 909 controls data reading or writing to the HD 909 under the control of the CPU 901 . AGP bus 921 is a bus interface for graphics accelerator cards proposed to speed up graphics processing, and can speed up graphics accelerator cards by directly accessing MEM-P902 with high throughput. .

また、近距離通信回路920には、近距離通信回路920aが備わっている。近距離通信回路920は、NFC、Bluetooth等の通信回路である。 Further, the short-range communication circuit 920 includes a short-range communication circuit 920a. The short-range communication circuit 920 is a communication circuit such as NFC or Bluetooth.

更に、エンジン制御部930は、スキャナ部931及びプリンタ部932によって構成されている。また、操作パネル940は、現在の設定値や選択画面等を表示させ、操作者からの入力を受け付けるタッチパネル等のパネル表示部940a、並びに、濃度の設定条件などの画像形成に関する条件の設定値を受け付けるテンキー及びコピー開始指示を受け付けるスタートキー等からなる操作パネル940bを備えている。コントローラ910は、MFP全体の制御を行い、例えば、描画、通信、操作パネル940からの入力等を制御する。スキャナ部931又はプリンタ部932には、誤差拡散やガンマ変換などの画像処理部分が含まれている。 Further, the engine control section 930 includes a scanner section 931 and a printer section 932. The operation panel 940 also includes a panel display section 940a such as a touch panel that displays current setting values, a selection screen, etc., and accepts input from the operator, as well as displaying setting values for image forming conditions such as density setting conditions. An operation panel 940b is provided, which includes a numeric keypad for accepting instructions, a start key for accepting copy start instructions, and the like. The controller 910 controls the entire MFP, for example, controls drawing, communication, input from the operation panel 940, and the like. The scanner section 931 or the printer section 932 includes image processing sections such as error diffusion and gamma conversion.

なお、MFPは、操作パネル940のアプリケーション切り替えキーにより、ドキュメントボックス機能、コピー機能、プリンタ機能、およびファクシミリ機能を順次に切り替えて選択することが可能となる。ドキュメントボックス機能の選択時にはドキュメントボックスモードとなり、コピー機能の選択時にはコピーモードとなり、プリンタ機能の選択時にはプリンタモードとなり、ファクシミリモードの選択時にはファクシミリモードとなる。 Note that the MFP can sequentially switch and select a document box function, a copy function, a printer function, and a facsimile function using an application switching key on the operation panel 940. When the document box function is selected, the mode becomes document box mode, when the copy function is selected, the mode becomes copy mode, when the printer function is selected, the mode becomes printer mode, and when the facsimile mode is selected, the mode becomes facsimile mode.

また、ネットワークI/F950は、通信ネットワークN1を利用してデータ通信をするためのインターフェースである。近距離通信回路920及びネットワークI/F950は、PCIバス922を介して、ASIC906に電気的に接続されている。 Further, the network I/F 950 is an interface for data communication using the communication network N1. Near field communication circuit 920 and network I/F 950 are electrically connected to ASIC 906 via PCI bus 922.

≪電子黒板のハードウェア構成≫
図5は、電子機器30が電子黒板で実現される場合のハードウェア構成の一例を示す図である。
≪Hardware configuration of electronic whiteboard≫
FIG. 5 is a diagram illustrating an example of a hardware configuration when the electronic device 30 is implemented as an electronic blackboard.

図5に示されているように、一実施形態における電子黒板は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD(Solid State Drive)204、ネットワークI/F(Interface)205、及び、外部機器接続I/F206を備えている。 As shown in FIG. 5, the electronic blackboard in one embodiment includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an SSD (Solid State Drive) 204, It includes a network I/F (Interface) 205 and an external device connection I/F 206.

これらのうち、CPU201は、電子黒板全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、電子黒板用のプログラム等の各種データを記憶する。ネットワークコントローラ205は、通信ネットワークN1との通信を制御する。外部機器接続I/F206は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ230、外付け機器(マイク240、スピーカ250、カメラ260)である。 Among these, the CPU 201 controls the operation of the entire electronic whiteboard. The ROM 202 stores programs used to drive the CPU 201, such as the CPU 201 and an IPL (Initial Program Loader). RAM 203 is used as a work area for CPU 201. The SSD 204 stores various data such as electronic whiteboard programs. Network controller 205 controls communication with communication network N1. External device connection I/F 206 is an interface for connecting various external devices. The external devices in this case are, for example, a USB (Universal Serial Bus) memory 230 and external devices (microphone 240, speaker 250, camera 260).

また、電子黒板は、キャプチャデバイス211、GPU212、ディスプレイコントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信回路219、及び近距離通信回路219のアンテナ219a、電源スイッチ222及び選択スイッチ類223を備えている。 The electronic blackboard also includes a capture device 211, a GPU 212, a display controller 213, a contact sensor 214, a sensor controller 215, an electronic pen controller 216, a short-range communication circuit 219, an antenna 219a of the short-range communication circuit 219, a power switch 222, and a selector. It is equipped with switches 223.

これらのうち、キャプチャデバイス211は、外付けのPC(Personal Computer)270のディスプレイに対して映像情報を静止画または動画として表示させる。GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。ディスプレイコントローラ213は、GPU212からの出力画像をディスプレイ280等へ出力するために画面表示の制御及び管理を行う。 Among these, the capture device 211 causes the display of an external PC (Personal Computer) 270 to display video information as a still image or a moving image. A GPU (Graphics Processing Unit) 212 is a semiconductor chip that specializes in graphics. The display controller 213 controls and manages screen display in order to output the output image from the GPU 212 to the display 280 or the like.

接触センサ214は、ディスプレイ280上に電子ペン290やユーザの手H等が接触したことを検知する。センサコントローラ215は、接触センサ214の処理を制御する。接触センサ214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ280の上側両端部に設置された2つ受発光装置が、ディスプレイ280に平行して複数の赤外線を放射し、ディスプレイ280の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。 The contact sensor 214 detects when the electronic pen 290, the user's hand H, or the like comes into contact with the display 280. Sensor controller 215 controls processing of contact sensor 214. The contact sensor 214 performs coordinate input and coordinate detection using an infrared cutoff method. This method of inputting and detecting coordinates is such that two light receiving and emitting devices installed at both ends of the upper side of the display 280 emit a plurality of infrared rays in parallel to the display 280. This is a method of receiving light that is reflected by a reflecting member and returns along the same optical path as the light emitted by the light receiving element. The contact sensor 214 outputs the ID of the infrared rays emitted by the two light receiving and emitting devices blocked by the object to the sensor controller 215, and the sensor controller 215 identifies the coordinate position that is the contact position of the object.

電子ペンコントローラ216は、電子ペン290と通信することで、ディスプレイ280へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路219は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。電源スイッチ222は、電子黒板の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類223は、例えば、ディスプレイ280の表示の明暗や色合い等を調整するためのスイッチ群である。 The electronic pen controller 216 communicates with the electronic pen 290 to determine whether or not the display 280 is touched with the tip of the pen or the end of the pen. The near field communication circuit 219 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark). The power switch 222 is a switch for turning ON/OFF the power of the electronic blackboard. The selection switches 223 are, for example, a group of switches for adjusting the brightness, shade, etc. of the display on the display 280.

更に、電子黒板は、バスライン210を備えている。バスライン210は、図5に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the electronic blackboard includes a bus line 210. The bus line 210 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 201 shown in FIG. 5.

なお、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。また、電子ペンコントローラ216が、電子ペン290のペン先及びペン尻だけでなく、電子ペン290のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。 Note that the contact sensor 214 is not limited to the infrared cutoff type, but can also be a capacitive type touch panel that identifies the touch position by detecting changes in capacitance, or a touch sensor that identifies the touch position by voltage changes between two opposing resistive films. Various detection means may be used, such as a resistive touch panel that uses a resistive film, or an electromagnetic induction touch panel that detects electromagnetic induction caused by a contact object coming into contact with the display section to specify the contact position. Furthermore, the electronic pen controller 216 may determine whether or not a portion of the electronic pen 290 that the user grasps or other portions of the electronic pen is touched, in addition to the pen tip and pen tail of the electronic pen 290.

<機器管理システムの機能構成>
次に、本実施形態における機器管理システムの機能構成の一例について、図6を参照しながら説明する。図6は、本実施形態における機器管理システムに含まれる各装置の機能構成を例示するブロック図である。
<Functional configuration of device management system>
Next, an example of the functional configuration of the device management system in this embodiment will be described with reference to FIG. 6. FIG. 6 is a block diagram illustrating the functional configuration of each device included in the device management system in this embodiment.

≪管理装置の機能構成≫
図6に示されているように、本実施形態における管理装置10は、画像受信部11、操作情報受信部12、状態管理部13、動作指示部14及び状態記憶部100を備える。本実施形態における状態管理部13は、物体状態管理部131、機器状態管理部132及び出力情報決定部133を備える。
≪Functional configuration of management device≫
As shown in FIG. 6, the management device 10 in this embodiment includes an image receiving section 11, an operation information receiving section 12, a state managing section 13, an operation instruction section 14, and a state storage section 100. The state management section 13 in this embodiment includes an object state management section 131, a device state management section 132, and an output information determination section 133.

画像受信部11、操作情報受信部12、状態管理部13及び動作指示部14は、例えば、図2に示されているHD504からRAM503上に展開されたプログラムがCPU501及びHDDコントローラ505に実行させる処理によって実現される。 The image receiving unit 11, the operation information receiving unit 12, the state management unit 13, and the operation instruction unit 14 execute processing that causes the CPU 501 and the HDD controller 505 to execute a program that is expanded from the HD 504 to the RAM 503 as shown in FIG. 2, for example. realized by

状態記憶部100は、例えば、図2に示されているHD504を用いて実現される。HD504が記憶するデータの読み込み又は書き込みは、例えば、HDDコントローラ505を介して行われる。 The state storage unit 100 is realized using, for example, the HD 504 shown in FIG. 2. Reading or writing of data stored in the HD 504 is performed, for example, via the HDD controller 505.

状態記憶部100は、管理対象空間R1に存在する機器及び物体の状態を管理する状態管理情報を記憶する。本実施形態における状態管理情報は、登録物体リスト、登録機器リスト及び検出物体リストを含む。 The state storage unit 100 stores state management information for managing the states of devices and objects existing in the managed space R1. The state management information in this embodiment includes a registered object list, a registered device list, and a detected object list.

登録物体リストは、管理対象空間R1に存在する物体に関する情報を管理するリストである。本実施形態における物体は、人物である。 The registered object list is a list that manages information regarding objects existing in the management target space R1. The object in this embodiment is a person.

登録機器リストは、管理対象空間R1に存在する機器に関する情報を管理するリストである。本実施形態における機器は、電子機器30である。 The registered device list is a list that manages information regarding devices existing in the managed space R1. The device in this embodiment is an electronic device 30.

検知物体リストは、管理対象空間R1で検知された物体を管理するリストである。検知物体リストは、登録物体リストを更新するために用いられる一時的なリストである。 The detected object list is a list that manages objects detected in the management target space R1. The detected object list is a temporary list used to update the registered object list.

ここで、本実施形態における状態管理情報について、図7を参照しながら説明する。図7(A)は、登録物体リストの一例を示す概念図である。 Here, the state management information in this embodiment will be explained with reference to FIG. 7. FIG. 7(A) is a conceptual diagram showing an example of a registered object list.

図7(A)に示されているように、本実施形態における登録物体リストは、データ項目として、登録物体ID、グループID、存在確認フラグ、属性情報及び機器操作情報を有する。 As shown in FIG. 7A, the registered object list in this embodiment includes a registered object ID, a group ID, an existence confirmation flag, attribute information, and device operation information as data items.

登録物体IDは、登録物体リストに含まれる物体を識別する識別情報である。 The registered object ID is identification information that identifies an object included in the registered object list.

グループIDは、複数の登録物体が属するグループを識別する識別情報である。グループIDは、登録物体リストに含まれる登録物体の一部が同じグループに属すると判定された場合に付与される。グループに属すると判定されていない登録物体のグループIDは、初期値(例えばゼロ)が設定される。 The group ID is identification information that identifies a group to which a plurality of registered objects belong. A group ID is assigned when it is determined that some of the registered objects included in the registered object list belong to the same group. The group ID of registered objects that are not determined to belong to a group is set to an initial value (for example, zero).

グループとは、例えば同僚、親子又は友人である。グループに属するメンバーは共同で会議又は買い物等のジョブを遂行する。そのため、グループを認識することにより人物の行動をより精度よく把握することが期待できる。例えば、MFP及び電子黒板が設置された会議室で複数の社員が会議をするとき、ある社員がMFPで認証を行えば他の社員が電子黒板を使用するときに認証を省略できると利便性が高い。 A group is, for example, co-workers, parents and children, or friends. Members belonging to a group jointly carry out a job such as a meeting or shopping. Therefore, by recognizing groups, it is expected that the behavior of people can be understood more accurately. For example, when multiple employees hold a meeting in a conference room equipped with an MFP and an electronic whiteboard, it would be convenient if one employee authenticates with the MFP and other employees can omit authentication when using the electronic whiteboard. expensive.

存在確認フラグは、当該登録物体が管理対象空間R1に存在するか否かを示すフラグである。存在確認フラグは、例えば、存在すれば1、存在しなければ0が設定される。 The existence confirmation flag is a flag indicating whether or not the registered object exists in the managed space R1. For example, the presence confirmation flag is set to 1 if it exists, and 0 if it does not exist.

属性情報は、登録物体に付随する情報であって、管理に必要な情報である。本実施形態では、登録物体の位置及び当該位置が確認された時刻(以下、「画像取得時刻」とも呼ぶ)である。登録物体の位置は三次元座標(すなわちX軸、Y軸、Z軸等の直交座標系における各軸上の数値)で表される。 Attribute information is information accompanying a registered object and is information necessary for management. In this embodiment, it is the position of the registered object and the time when the position was confirmed (hereinafter also referred to as "image acquisition time"). The position of the registered object is expressed in three-dimensional coordinates (ie, numerical values on each axis in an orthogonal coordinate system such as the X-axis, Y-axis, Z-axis, etc.).

位置情報を取得する方法は監視装置20の種別によって異なる。例えば、監視装置20がネットワークカメラであれば、物体までの距離をステレオカメラで取得し、方向と併せて三次元座標にマッピングする等、公知の技術を用いることができる。 The method for acquiring position information differs depending on the type of monitoring device 20. For example, if the monitoring device 20 is a network camera, a known technique can be used, such as acquiring the distance to the object with a stereo camera and mapping it along with the direction to three-dimensional coordinates.

なお、属性情報は、登録物体の位置に加えて、登録物体の特徴を示す種々の情報を含んでもよい。例えば、登録物体の色又は形状を用いることができる。物体が人物である場合、形状は姿勢によって変化するため、色を用いると好適である。色の種類の数又は各色の面積も姿勢によって変化するため、物体が同一か否かを判定する際には、少なくとも1つの色が連続しているか否かを条件とすると好適である。 Note that the attribute information may include various information indicating the characteristics of the registered object in addition to the position of the registered object. For example, the color or shape of the registered object can be used. When the object is a person, the shape changes depending on the posture, so it is preferable to use color. Since the number of types of colors or the area of each color also changes depending on the posture, it is preferable to use as a condition whether at least one color is continuous when determining whether objects are the same.

機器操作情報は、登録物体が行なった機器操作に関する情報である。機器操作情報は、当該機器操作においてユーザが入力した入力情報を含むことがある。機器操作情報は、例えば、ユーザが電子機器で実行した機能、操作時刻、操作の対価としての料金情報、使用言語等である。入力情報は、認証操作における認証情報又は機器設定操作における設定情報等である。 The device operation information is information regarding the device operation performed by the registered object. The device operation information may include input information input by a user in operating the device. The device operation information includes, for example, the function executed by the user on the electronic device, the time of operation, charge information as compensation for the operation, language used, and the like. The input information is authentication information in an authentication operation, setting information in a device setting operation, or the like.

管理対象空間R1に存在する物体の数は時々刻々と変化する。そのため、登録物体リストに含まれる登録物体の数は可変である。 The number of objects existing in the managed space R1 changes from moment to moment. Therefore, the number of registered objects included in the registered object list is variable.

図7(B)は、登録機器リストの一例を示す概念図である。図7(B)に示されているように、本実施形態における登録機器リストは、データ項目として、登録機器ID、属性情報、機器入力情報及び機器出力情報を有する。 FIG. 7(B) is a conceptual diagram showing an example of a registered device list. As shown in FIG. 7(B), the registered device list in this embodiment includes a registered device ID, attribute information, device input information, and device output information as data items.

登録機器IDは、登録機器リストに含まれる機器を識別する識別情報である。 The registered device ID is identification information that identifies a device included in the registered device list.

属性情報は、登録機器に付随する情報であって、管理に必要な情報である。本実施形態では、登録機器の位置、電源オン/オフ状況、スリープモード状態か否か、認証要否、オプション搭載状況、メンテナンス中/メンテナンス予定時刻/省エネモード中などの状態情報等である。登録機器の位置は登録物体と同様に三次元座標で表される。 Attribute information is information associated with registered devices and is information necessary for management. In this embodiment, the information includes the location of the registered device, power on/off status, whether or not it is in sleep mode, whether or not authentication is required, option installation status, and status information such as under maintenance/scheduled maintenance time/in energy saving mode. The position of the registered device is expressed in three-dimensional coordinates similarly to the registered object.

機器入力情報(以下、「使用情報」とも呼ぶ)は、登録機器が操作された場合に管理される所定の情報である。機器入力情報は、当該機器操作においてユーザが入力した入力情報を含むことがある。機器入力情報は、例えば、ユーザにより登録機器で実行された機能、操作時刻、操作の対価として請求すべき料金情報等である。機器入力情報は、当該機器操作においてユーザが設定した画面設定情報を含んでもよい。画面設定情報は、例えば、使用言語、使用文字のフォント、使用文字のサイズ等である。 Device input information (hereinafter also referred to as "usage information") is predetermined information that is managed when a registered device is operated. The device input information may include input information input by a user in operating the device. The device input information includes, for example, the function executed by the user on the registered device, the time of operation, information on the fee to be charged as compensation for the operation, and the like. The device input information may include screen setting information set by the user in operating the device. The screen setting information includes, for example, the language used, the font of characters used, the size of characters used, and the like.

機器出力情報は、登録機器に対して予め登録された情報である。機器出力情報は、動作指示を送信する契機となる出力条件、及び当該出力条件が満たされた場合に当該登録機器に送信する動作指示を対応付けるリストである。 The device output information is information registered in advance for the registered device. The device output information is a list that associates output conditions that trigger the transmission of an operation instruction with operation instructions to be transmitted to the registered device when the output conditions are met.

管理対象空間R1に設置される機器の数は変化する可能性がある。そのため、登録機器リストに含まれる登録機器の数は可変である。 The number of devices installed in the managed space R1 may change. Therefore, the number of registered devices included in the registered device list is variable.

図7(C)は、検知物体リストの一例を示す概念図である。図7(C)に示されているように、本実施形態における検知物体リストは、データ項目として、検知物体ID、グループID及び属性情報を有する。 FIG. 7(C) is a conceptual diagram showing an example of a detected object list. As shown in FIG. 7C, the detected object list in this embodiment includes a detected object ID, group ID, and attribute information as data items.

検知物体IDは、検知物体リストに含まれる物体を識別する識別情報である。 The detected object ID is identification information that identifies an object included in the detected object list.

グループIDは、複数の検知物体が含まれるグループを識別する識別情報である。グループIDは、検知物体リストに含まれる検知物体の一部が同じグループに属すると判定された場合に付与される。グループに属すると判定されていない検知物体のグループIDは、初期値(例えばゼロ)が設定される。 The group ID is identification information that identifies a group that includes a plurality of detected objects. A group ID is assigned when it is determined that some of the detected objects included in the detected object list belong to the same group. The group ID of a detected object that is not determined to belong to a group is set to an initial value (for example, zero).

属性情報は、検知物体に付随する情報であって、管理に必要な情報である。本実施形態では、検知物体の位置及び画像取得時刻である。検知物体の位置は登録物体と同様に三次元座標で表される。 Attribute information is information accompanying a detected object and is information necessary for management. In this embodiment, these are the position of the detected object and the image acquisition time. The position of the detected object is expressed in three-dimensional coordinates similarly to the registered object.

管理対象空間R1で検知される物体の数は時々刻々と変化する。そのため、検知物体リストに含まれる検知物体の数は可変である。 The number of objects detected in the managed space R1 changes from moment to moment. Therefore, the number of detected objects included in the detected object list is variable.

図6に戻って説明する。画像受信部11は、監視装置20から画像を受信する。画像受信部11は、状態管理部13の要求に応じて、受信した画像を状態管理部13に送る。 The explanation will be returned to FIG. 6. The image receiving unit 11 receives images from the monitoring device 20. The image receiving section 11 sends the received image to the state managing section 13 in response to a request from the state managing section 13 .

操作情報受信部12は、電子機器30から機器操作情報を受信する。操作情報受信部12は、状態管理部13の要求に応じて、受信した機器操作情報を状態管理部13に送る。 The operation information receiving unit 12 receives device operation information from the electronic device 30. The operation information receiving section 12 sends the received device operation information to the state management section 13 in response to a request from the state management section 13 .

状態管理部13は、物体状態管理部131及び機器状態管理部132を用いて、電子機器30及び物体の状態を管理する。また、状態管理部13は、出力情報決定部133を用いて、電子機器30に送信する動作指示の内容を決定する。 The state management section 13 uses the object state management section 131 and the device state management section 132 to manage the states of the electronic device 30 and the object. Further, the state management unit 13 uses the output information determination unit 133 to determine the content of the operation instruction to be transmitted to the electronic device 30.

物体状態管理部131は、画像受信部11から受け取った画像に基づいて、状態記憶部100に記憶されている登録物体リストを更新する。 The object state management section 131 updates the registered object list stored in the state storage section 100 based on the image received from the image reception section 11.

機器状態管理部132は、操作情報受信部12から受け取った機器操作情報に基づいて、状態記憶部100に記憶されている登録機器リスト及び登録物体リストを更新する。 The device state management section 132 updates the registered device list and the registered object list stored in the state storage section 100 based on the device operation information received from the operation information reception section 12.

出力情報決定部133は、状態記憶部100に記憶されている状態管理情報に基づいて、電子機器30に送信する動作指示の内容を決定する。出力情報決定部133は、決定した動作指示を動作指示部14に送る。 The output information determining unit 133 determines the content of the operation instruction to be transmitted to the electronic device 30 based on the status management information stored in the status storage unit 100. The output information determining section 133 sends the determined operation instruction to the operation instruction section 14.

動作指示部14は、状態管理部13から受け取った動作指示を、電子機器30に送信する。 The operation instruction unit 14 transmits the operation instruction received from the state management unit 13 to the electronic device 30.

≪監視装置の機能構成≫
図6に示されているように、本実施形態における監視装置20は、画像取得部21及び画像送信部22を備える。
≪Functional configuration of monitoring device≫
As shown in FIG. 6, the monitoring device 20 in this embodiment includes an image acquisition section 21 and an image transmission section 22.

画像取得部21は、管理対象空間R1に設置された電子機器30の近傍を含む画像を取得する。画像取得部21は、例えば、図3に示されているROM612からSRAM613上に展開されたプログラムがCPU611及び撮像制御ユニット605に実行させる処理によって実現される。 The image acquisition unit 21 acquires an image including the vicinity of the electronic device 30 installed in the managed space R1. The image acquisition unit 21 is realized, for example, by a process in which a program loaded from the ROM 612 to the SRAM 613 shown in FIG. 3 is executed by the CPU 611 and the imaging control unit 605.

画像送信部22は、画像取得部21が取得した画像を管理装置10に送信する。画像送信部22は、例えば、図3に示されているROM612からSRAM613上に展開されたプログラムがCPU611及び外部機器接続I/F616に実行させる処理によって実現される。 The image transmitting unit 22 transmits the image acquired by the image acquiring unit 21 to the management device 10. The image transmitter 22 is realized, for example, by a process in which a program expanded from the ROM 612 to the SRAM 613 shown in FIG. 3 is executed by the CPU 611 and the external device connection I/F 616.

≪電子機器の機能構成≫
図6に示されているように、本実施形態における電子機器30は、操作情報送信部31及び機器制御部32を備える。
≪Functional configuration of electronic equipment≫
As shown in FIG. 6, the electronic device 30 in this embodiment includes an operation information transmitter 31 and a device controller 32.

操作情報送信部31及び機器制御部32は、例えば、図4に示されているHD909からRAM902b上に展開されたプログラムがCPU901及びHDDコントローラ908に実行させる処理によって実現される。 The operation information transmitting unit 31 and the device control unit 32 are realized, for example, by processing that causes the CPU 901 and the HDD controller 908 to execute a program loaded from the HD 909 onto the RAM 902b shown in FIG.

操作情報送信部31は、ユーザが行った操作に関する機器操作情報を管理装置10に送信する。 The operation information transmitting unit 31 transmits device operation information regarding operations performed by the user to the management device 10.

機器制御部32は、管理装置10から動作指示を受信する。機器制御部32は、受信した動作指示に基づいて、当該電子機器30の動作を制御する。例えば、機器制御部32は、動作指示に含まれる認証情報を用いて、ユーザを認証する。また、例えば、機器制御部32は、動作指示に含まれる設定情報を用いて、当該電子機器30の設定変更を行う。 The device control unit 32 receives operation instructions from the management device 10. The device control unit 32 controls the operation of the electronic device 30 based on the received operation instruction. For example, the device control unit 32 authenticates the user using authentication information included in the operation instruction. Further, for example, the device control unit 32 changes the settings of the electronic device 30 using the setting information included in the operation instruction.

<機器管理方法の処理手順>
次に、本実施形態における機器管理システムが実行する機器管理方法について、図8から図20を参照しながら説明する。
<Processing procedure of device management method>
Next, a device management method executed by the device management system in this embodiment will be described with reference to FIGS. 8 to 20.

≪基本フローチャート≫
本実施形態における機器管理方法では、あるリストに含まれる各データとあるリストに含まれる各データとのすべての組み合わせについて処理を行う2重ループ処理が多く含まれる。そこで、本実施形態では、2重ループ処理の枠組みを示す基本フローチャートを導入し、以降の説明では基本フローチャート中の処理を中心に説明する。なお、基本フローチャート中の各処理は、2つのデータの組み合わせ1つに対して行う処理である。
≪Basic flowchart≫
The device management method in this embodiment includes many double loop processes in which all combinations of data included in a certain list and data included in a certain list are processed. Therefore, in this embodiment, a basic flowchart showing the framework of double loop processing is introduced, and the following explanation will focus on the processing in the basic flowchart. Note that each process in the basic flowchart is a process performed on one combination of two data.

本実施形態における基本フローチャートは、2つの基本フローチャートを含む。第1の基本フローチャートは、異なるリストに含まれる2つのデータを2重ループ処理する場合に使用される。第2の基本フローチャートは、同じリストに含まれる2つのデータを2重ループ処理する場合に使用される。 The basic flowchart in this embodiment includes two basic flowcharts. The first basic flowchart is used when processing two data contained in different lists in a double loop. The second basic flowchart is used when processing two data included in the same list in a double loop.

図8は、本実施形態における第1の基本フローチャートの一例を示すフローチャートである。 FIG. 8 is a flowchart showing an example of the first basic flowchart in this embodiment.

ステップS101において、リストAを読み出す。リストAのデータ数はNとする。ステップS102において、リストBを読み出す。リストBのデータ数はMとする。 In step S101, list A is read. The number of data in list A is assumed to be N. In step S102, list B is read. The number of data in list B is assumed to be M.

ステップS103において、変数nを1に初期化する。ステップS104において、変数mを1に初期化する。ステップS105において、処理A1を実行する。 In step S103, a variable n is initialized to 1. In step S104, a variable m is initialized to 1. In step S105, processing A1 is executed.

ステップS106において、変数mがデータ数Mと等しいか否かを判定する。これは、リストAのn番目のデータについてリストBのすべてのデータとの組み合わせを処理したか否かを意味する。変数mがデータ数Mと異なる場合(NO)、ステップS107に進む。変数mがデータ数Mと等しい場合(YES)、ステップS109に進む。 In step S106, it is determined whether the variable m is equal to the number M of data. This means whether or not combinations of the n-th data in list A with all data in list B have been processed. If the variable m is different from the data number M (NO), the process advances to step S107. If the variable m is equal to the data number M (YES), the process advances to step S109.

ステップS107において、処理A3を実行する。ステップS108において変数mをインクリメントする。その後、ステップS106に戻る。 In step S107, processing A3 is executed. In step S108, variable m is incremented. After that, the process returns to step S106.

ステップS109において、処理A2を実行する。ステップS110において、変数nがデータ数Nと等しいか否かを判定する。これは、リストAのすべてのデータについてリストBのすべてのデータとの組み合わせを処理したか否かを意味する。変数nがデータ数Nと異なる場合(NO)、ステップS111に進む。変数nがデータ数Nと等しい場合(YES)、ステップS113に進む。 In step S109, processing A2 is executed. In step S110, it is determined whether the variable n is equal to the number N of data. This means whether or not all data in list A has been combined with all data in list B. If the variable n is different from the data number N (NO), the process advances to step S111. If the variable n is equal to the data number N (YES), the process advances to step S113.

ステップS111において、処理A5を実行する。ステップS112において変数nをインクリメントする。その後、ステップS104に戻る。 In step S111, processing A5 is executed. In step S112, variable n is incremented. After that, the process returns to step S104.

ステップS113において、処理A4を実行する。以上により、リストA及びリストBに含まれるデータ同士のすべての組み合わせに対する処理が完了する。 In step S113, processing A4 is executed. With the above, processing for all combinations of data included in list A and list B is completed.

図9は、本実施形態における第2の基本フローチャートの一例を示すフローチャートである。 FIG. 9 is a flowchart showing an example of the second basic flowchart in this embodiment.

ステップS201において、リストAを読み出す。リストAのデータ数はNとする。 In step S201, list A is read. The number of data in list A is assumed to be N.

ステップS202において、変数nを1に初期化する。ステップS203において、変数mにn+1を代入する。ステップS204において、処理B1を実行する。 In step S202, a variable n is initialized to 1. In step S203, n+1 is assigned to variable m. In step S204, processing B1 is executed.

ステップS205において、変数mがNと等しいか否かを判定する。これは、リストAのn番目のデータについてリストAのすべてのデータとの組み合わせを処理したか否かを意味する。変数mがNと異なる場合(NO)、ステップS206に進む。変数mがNと等しい場合(YES)、ステップS208に進む。 In step S205, it is determined whether the variable m is equal to N. This means whether or not combinations of the n-th data in list A with all data in list A have been processed. If the variable m is different from N (NO), the process advances to step S206. If the variable m is equal to N (YES), the process advances to step S208.

ステップS206において、処理B3を実行する。ステップS207において変数mをインクリメントする。その後、ステップS204に戻る。 In step S206, processing B3 is executed. In step S207, the variable m is incremented. After that, the process returns to step S204.

ステップS208において、処理B2を実行する。ステップS209において、変数nがN-1と等しいか否かを判定する。これは、リストAのすべてのデータについてリストAの他のすべてのデータとの組み合わせを処理したかを意味する。変数nがN-1と異なる場合(NO)、ステップS210に進む。変数nがN-1と等しい場合(YES)、ステップS212に進む。 In step S208, processing B2 is executed. In step S209, it is determined whether the variable n is equal to N-1. This means whether all data in list A has been combined with all other data in list A. If the variable n is different from N-1 (NO), the process advances to step S210. If the variable n is equal to N-1 (YES), the process advances to step S212.

ステップS210において、処理B5を実行する。ステップS211において変数nをインクリメントする。その後、ステップS203に戻る。 In step S210, processing B5 is executed. In step S211, the variable n is incremented. After that, the process returns to step S203.

ステップS212において、処理B4を実行する。以上により、リストAに含まれるデータ同士のすべての組み合わせに対する処理が完了する。 In step S212, processing B4 is executed. With the above, processing for all combinations of data included in list A is completed.

≪機器管理方法≫
図10は、本実施形態における機器管理システムが実行する機器管理方法の一例を示すフローチャートである。
≪Device management method≫
FIG. 10 is a flowchart illustrating an example of a device management method executed by the device management system in this embodiment.

機器管理システムは、図10に示すフローチャートを所定の時間間隔で繰り返し実行する。時間間隔は任意に設定すればよいが、例えば、3秒である。 The device management system repeatedly executes the flowchart shown in FIG. 10 at predetermined time intervals. Although the time interval may be set arbitrarily, it is, for example, 3 seconds.

ステップS1において、監視装置20が備える画像取得部21は、電子機器30-1の近傍を撮影した第1の画像を取得する。また、画像取得部21は、電子機器30-2の近傍を撮影した第2の画像を取得する。監視装置20は、管理対象空間R1に設置された電子機器30-1及び電子機器30-2の近傍が画角に入るように設置されている。そのため、画像取得部21が取得する第1の画像には、電子機器30-1の近傍が撮影されている。また、画像取得部21が取得する第2の画像には、電子機器30-2の近傍が撮影されている。 In step S1, the image acquisition unit 21 included in the monitoring device 20 acquires a first image of the vicinity of the electronic device 30-1. Furthermore, the image acquisition unit 21 acquires a second image of the vicinity of the electronic device 30-2. The monitoring device 20 is installed so that the vicinity of the electronic devices 30-1 and 30-2 installed in the managed space R1 is included in the angle of view. Therefore, the first image acquired by the image acquisition unit 21 captures the vicinity of the electronic device 30-1. Furthermore, the second image acquired by the image acquisition unit 21 captures the vicinity of the electronic device 30-2.

電子機器30-1又は電子機器30-2の近傍とは、ユーザが当該電子機器30-1又は電子機器30-2を操作可能な位置の範囲(以下、「操作可能位置」とも呼ぶ)である。操作可能位置はユーザが電子機器30-1又は電子機器30-2に手が届く位置である。操作可能位置は例えば電子機器30-1又は電子機器30-2から1メートル以内の位置である。したがって、第1の画像は、電子機器30-1と当該電子機器30-1を利用する利用者とを撮影した画像である。また、第2の画像は、電子機器30-2と当該電子機器30-2を利用する利用者とを撮影した画像である。 The vicinity of the electronic device 30-1 or the electronic device 30-2 is the range of positions where the user can operate the electronic device 30-1 or the electronic device 30-2 (hereinafter also referred to as "operable position"). . The operable position is a position where the user can reach the electronic device 30-1 or the electronic device 30-2. The operable position is, for example, a position within 1 meter from the electronic device 30-1 or the electronic device 30-2. Therefore, the first image is an image of the electronic device 30-1 and the user using the electronic device 30-1. Further, the second image is an image taken of the electronic device 30-2 and the user using the electronic device 30-2.

電子機器30-1及び電子機器30-2それぞれの操作可能位置が、1枚の画像に撮影可能な場合には、1枚の画像に電子機器30-1及び電子機器30-2それぞれの操作可能位置を撮影してもよい。この場合、第1の画像と第2の画像とは、同一の画像となる。 If the operable positions of the electronic device 30-1 and the electronic device 30-2 can be photographed in one image, the operable positions of the electronic device 30-1 and the electronic device 30-2 can be captured in one image. You may also photograph the location. In this case, the first image and the second image are the same image.

画像取得部21が取得する第1の画像及び第2の画像は、静止画に限定されず、動画であってもよい。 The first image and second image acquired by the image acquisition unit 21 are not limited to still images, and may be moving images.

次に、画像取得部21は、取得した第1の画像及び第2の画像を画像送信部22に送る。画像送信部22は、画像取得部21から第1の画像及び第2の画像を受け取る。次に、画像送信部22は、受け取った第1の画像及び第2の画像を管理装置10に送信する。管理装置10では、画像受信部11が、監視装置20から第1の画像及び第2の画像を受信する。 Next, the image acquisition unit 21 sends the acquired first image and second image to the image transmission unit 22. The image transmitter 22 receives the first image and the second image from the image acquirer 21. Next, the image transmitting unit 22 transmits the received first image and second image to the management device 10. In the management device 10, the image receiving unit 11 receives the first image and the second image from the monitoring device 20.

ステップS2において、管理装置10が備える状態管理部13は、画像受信部11に第1の画像及び第2の画像を要求する。次に、状態管理部13は、画像受信部11から受け取った第1の画像及び第2の画像を物体状態管理部131に入力する。 In step S2, the state management unit 13 included in the management device 10 requests the image reception unit 11 for the first image and the second image. Next, the state management section 13 inputs the first image and the second image received from the image reception section 11 to the object state management section 131.

続いて、物体状態管理部131は、後述する物体状態更新処理を実行し、状態記憶部100に記憶されている状態管理情報の登録物体リストを更新する。監視装置20が複数ある場合、物体状態管理部131は、複数の監視装置20それぞれから受信した複数の画像それぞれについて、物体状態更新処理を実行する。 Subsequently, the object state management unit 131 executes an object state update process to be described later, and updates the registered object list of the state management information stored in the state storage unit 100. When there are a plurality of monitoring devices 20, the object state management unit 131 executes object state update processing for each of the plurality of images received from each of the plurality of monitoring devices 20.

≪物体状態更新処理≫
ここで、本実施形態における物体状態更新処理について、図11から図16を参照しながら説明する。図11は、本実施形態における物体状態管理部131が実行する物体状態更新処理(図10のステップS2)の一例を示すフローチャートである。
≪Object state update processing≫
Here, the object state update process in this embodiment will be explained with reference to FIGS. 11 to 16. FIG. 11 is a flowchart illustrating an example of the object state update process (step S2 in FIG. 10) executed by the object state management unit 131 in this embodiment.

ステップS21において、物体状態管理部131は、後述の検知物体リスト作成処理を実行し、状態管理部13から入力された画像に基づいて、検知物体リストを作成する。 In step S<b>21 , the object state management unit 131 executes a detected object list creation process, which will be described later, and creates a detected object list based on the image input from the state management unit 13 .

図12は、本実施形態における物体状態管理部131が実行する検知物体リスト作成処理(図11のステップS21)の一例を示すフローチャートである。 FIG. 12 is a flowchart illustrating an example of the detected object list creation process (step S21 in FIG. 11) executed by the object state management unit 131 in this embodiment.

ステップS21-1において、物体状態管理部131は、状態記憶部100に記憶されている検知物体リストをクリアする。すなわち、検知物体リストに含まれるデータをすべて削除する。 In step S21-1, the object state management section 131 clears the detected object list stored in the state storage section 100. That is, all data included in the detected object list is deleted.

ステップS21-2において、物体状態管理部131は、状態管理部13から入力された画像を取得する。画像は、1台の監視装置20から受信した1つの画像でもよく、複数の監視装置20から受信した複数の画像でもよい。 In step S21-2, the object state management section 131 acquires the image input from the state management section 13. The image may be one image received from one monitoring device 20 or multiple images received from multiple monitoring devices 20.

次に、物体状態管理部131は、画像を所定のブロックに分割する。続いて、物体状態管理部131は、ブロック毎に、画像に撮影されている物体とカメラとの距離を測定する。また、物体状態管理部131は、測定した距離から三次元座標を求める。距離から三次元座標に変換する方法は、公知の方法を利用すればよい。 Next, the object state management unit 131 divides the image into predetermined blocks. Subsequently, the object state management unit 131 measures the distance between the camera and the object photographed in the image for each block. Further, the object state management unit 131 obtains three-dimensional coordinates from the measured distance. A known method may be used to convert the distance into three-dimensional coordinates.

ステップS21-3において、物体状態管理部131は、取得した画像から画像取得時刻Tを取得する。画像から画像取得時刻が取得できない場合は、現在時刻を画像取得時刻Tとして取得すればよい。 In step S21-3, the object state management unit 131 acquires the image acquisition time T from the acquired image. If the image acquisition time cannot be acquired from the image, the current time may be acquired as the image acquisition time T.

ステップS21-4において、物体状態管理部131は、取得した画像を解析し、当該画像に撮影されている物体を検知する。本実施形態では、画像に撮影されている人物を検知する。 In step S21-4, the object state management unit 131 analyzes the acquired image and detects the object photographed in the image. In this embodiment, a person photographed in an image is detected.

人物の検知は、公知の手法を用いることができる。例えば、機械学習モデルを用いたパターンマッチングを用いることができる。具体的には、公知の領域ベース畳み込みニューラルネットワーク(Region Based Convolutional Neural Networks: R-CNN)等を用いて、画像の中から人物を切り出すことができる。 A known method can be used to detect a person. For example, pattern matching using a machine learning model can be used. Specifically, a person can be extracted from an image using a known region-based convolutional neural network (R-CNN) or the like.

さらに、切り出した人物の画像を、予め記憶されている比較画像とパターンマッチングすることで検知の精度を向上することができる。なお、これら以外にも、公知の様々な人物検知手法を用いることができる。 Furthermore, detection accuracy can be improved by pattern matching the cut out image of the person with a comparison image stored in advance. Note that in addition to these methods, various known person detection methods can be used.

ステップS21-5において、物体状態管理部131は、検知した物体を識別する検知物体IDを付与する。 In step S21-5, the object state management unit 131 assigns a detected object ID that identifies the detected object.

ステップS21-6において、物体状態管理部131は、検知物体ID及び属性情報(検知物体の位置及び画像取得時刻)を検知物体リストに登録する。なお、この段階では、グループIDにはグループに属さないことを示す初期値が設定される。 In step S21-6, the object state management unit 131 registers the detected object ID and attribute information (position of the detected object and image acquisition time) in the detected object list. Note that at this stage, the group ID is set to an initial value indicating that it does not belong to a group.

図11に戻って説明する。ステップS22において、物体状態管理部131は、後述の登録物体リスト更新処理を実行し、検知物体リストに基づいて、登録物体リストを更新する。 The explanation will be returned to FIG. 11. In step S22, the object state management unit 131 executes a registered object list update process, which will be described later, and updates the registered object list based on the detected object list.

図13及び図14は、本実施形態における物体状態管理部131が実行する登録物体リスト更新処理(図11のステップS22)の一例を示すフローチャートである。 13 and 14 are flowcharts showing an example of the registered object list update process (step S22 in FIG. 11) executed by the object state management unit 131 in this embodiment.

登録物体リスト更新処理は、第1の基本フローチャート(図8参照)の枠組みで行われる。具体的には、検知物体リストをリストAとし、登録物体リストをリストBとし、検知物体と登録物体のすべての組み合わせについて、処理A1(図13)及び処理A4(図14)を実行する。なお、処理A2、A3及びA5に相当する処理はない。 The registered object list update process is performed within the framework of the first basic flowchart (see FIG. 8). Specifically, the detected object list is set to list A, the registered object list is set to list B, and processing A1 (FIG. 13) and processing A4 (FIG. 14) are executed for all combinations of detected objects and registered objects. Note that there is no process corresponding to processes A2, A3, and A5.

図13は、登録物体リスト更新処理の処理A1の一例を示すフローチャートである。処理A1は、登録物体と検知物体との同一性を判定し、登録物体の位置を更新するための処理である。 FIG. 13 is a flowchart illustrating an example of the process A1 of the registered object list update process. Process A1 is a process for determining the identity of the registered object and the detected object and updating the position of the registered object.

ここでは、検知物体リストのn番目の検知物体と登録物体リストのm番目の登録物体との組み合わせに対して処理を実行するものとする。 Here, it is assumed that the process is performed on a combination of the nth detected object in the detected object list and the mth registered object in the registered object list.

ステップS22-1において、物体状態管理部131は、m番目の登録物体の存在確認フラグをクリアする。すなわち、m番目の登録物体の存在確認フラグに0を設定する。これは、当該登録物体が管理対象空間R1に存在するか否かが不明であることを意味する。 In step S22-1, the object state management unit 131 clears the presence confirmation flag of the m-th registered object. That is, the presence confirmation flag of the m-th registered object is set to 0. This means that it is unclear whether or not the registered object exists in the managed space R1.

ステップS22-2において、物体状態管理部131は、m番目の登録物体の三次元座標とn番目の検知物体の三次元座標との距離Xを計算する。 In step S22-2, the object state management unit 131 calculates the distance X between the three-dimensional coordinates of the m-th registered object and the three-dimensional coordinates of the n-th detected object.

ステップS22-3において、物体状態管理部131は、距離Xが所定の閾値(例えば、1メートル)以下であるか否かを判定する。距離Xが閾値を超えている場合(NO)、物体状態管理部131は、処理A1を終了する。これは、両者の距離が離れているため、同一の人物ではないと判断されたことを意味する。距離Xが閾値以下である場合(YES)、物体状態管理部131は、ステップS22-4に処理を進める。 In step S22-3, the object state management unit 131 determines whether the distance X is less than or equal to a predetermined threshold (for example, 1 meter). If the distance X exceeds the threshold (NO), the object state management unit 131 ends processing A1. This means that it has been determined that they are not the same person because they are far apart. If the distance X is less than or equal to the threshold (YES), the object state management unit 131 advances the process to step S22-4.

ステップS22-4において、物体状態管理部131は、m番目の登録物体の属性情報に、n番目の検知物体の三次元位置及び映像取得時刻を追加する。これは、両者の距離が近いため、同一の人物であり、n番目の検知物体の位置がm番目の登録物体の画像取得時刻Tにおける位置であると判断されたことを意味する。 In step S22-4, the object state management unit 131 adds the three-dimensional position and image acquisition time of the n-th detected object to the attribute information of the m-th registered object. This means that because the distance between them is close, it is determined that they are the same person and that the position of the n-th detected object is the position of the m-th registered object at the image acquisition time T.

登録物体リストの属性情報は、画像から当該登録物体が検知される限り、物体状態更新処理を実行する度に増えていくことになる。逆に言うと、登録物体リストの属性情報は、当該登録物体が管理対象空間内で検知された位置の時系列を表す。したがって、登録物体リストの属性情報により、当該登録物体の移動を追跡することができる。 As long as the registered object is detected from the image, the attribute information in the registered object list will increase each time the object state update process is executed. In other words, the attribute information of the registered object list represents a time series of the positions at which the registered object is detected within the managed space. Therefore, the movement of the registered object can be tracked using the attribute information of the registered object list.

ステップS22-5において、物体状態管理部131は、m番目の登録物体の存在確認フラグをセットする。すなわち、m番目の登録物体の存在確認フラグに1を設定する。これは、ステップS22-3で登録物体と一致する物体が検知されたため、当該登録物体が画像取得時刻Tにおいても管理対象空間R1に存在すると判定されたことを意味する。 In step S22-5, the object state management unit 131 sets the existence confirmation flag of the m-th registered object. That is, the presence confirmation flag of the m-th registered object is set to 1. This means that since an object matching the registered object was detected in step S22-3, it was determined that the registered object is present in the managed space R1 even at the image acquisition time T.

図14は、登録物体リスト更新処理の処理A4の一例を示すフローチャートである。処理A4は、処理A1において存在が確認できなかった登録物体を登録物体リストから削除する処理である。 FIG. 14 is a flowchart illustrating an example of process A4 of the registered object list update process. Process A4 is a process for deleting registered objects whose existence could not be confirmed in process A1 from the registered object list.

ステップS22-6において、物体状態管理部131は、変数mを1に初期化する。 In step S22-6, the object state management unit 131 initializes the variable m to 1.

ステップS22-7において、物体状態管理部131は、m番目の登録物体の存在が確認できたか否かを判定する。具体的には、存在確認フラグが1であるか0であるかを判定する。存在確認フラグが1である場合(YES)、物体状態管理部131は、ステップS22-9に処理を進める。存在確認フラグが0である場合(NO)、物体状態管理部131は、ステップS22-8に処理を進める。 In step S22-7, the object state management unit 131 determines whether the existence of the m-th registered object has been confirmed. Specifically, it is determined whether the presence confirmation flag is 1 or 0. If the presence confirmation flag is 1 (YES), the object state management unit 131 advances the process to step S22-9. If the existence confirmation flag is 0 (NO), the object state management unit 131 advances the process to step S22-8.

ステップS22-8において、物体状態管理部131は、m番目の登録物体を登録物体リストから削除する。 In step S22-8, the object state management unit 131 deletes the m-th registered object from the registered object list.

ステップS22-9において、物体状態管理部131は、変数mがデータ数Mと等しいか否かを判定する。変数mがデータ数Mと異なる場合(NO)、物体状態管理部131は、ステップS22-10に処理を進める。変数mがデータ数Mと等しい場合(YES)、物体状態管理部131は、処理を終了する。 In step S22-9, the object state management unit 131 determines whether the variable m is equal to the number M of data. If the variable m is different from the data number M (NO), the object state management unit 131 advances the process to step S22-10. If the variable m is equal to the data number M (YES), the object state management unit 131 ends the process.

ステップS22-10において、物体状態管理部131は、変数mをインクリメントする。その後、物体状態管理部131は、ステップS22-7に処理を戻す。 In step S22-10, the object state management unit 131 increments the variable m. Thereafter, the object state management unit 131 returns the process to step S22-7.

図11に戻って説明する。ステップS23において、物体状態管理部131は、後述のグループID付与処理を実行し、登録物体リストに含まれる登録物体にグループIDを付与する。 The explanation will be returned to FIG. 11. In step S23, the object state management unit 131 executes group ID assignment processing, which will be described later, and assigns a group ID to the registered objects included in the registered object list.

グループID付与処理は、第2の基本フローチャート(図9参照)の枠組みで行われる。具体的には、登録物体リストをリストAとし、2つの登録物体のすべての組み合わせについて、処理B1(図15又は図16)を実行する。なお、処理B2-B5に相当する処理はない。 The group ID assignment process is performed within the framework of the second basic flowchart (see FIG. 9). Specifically, the registered object list is set as list A, and processing B1 (FIG. 15 or 16) is executed for all combinations of two registered objects. Note that there is no process equivalent to processes B2-B5.

ある物体と他の物体とが同じグループに含まれるか否かを判定する処理は、様々な手法が考えられる。本実施形態では、位置近接によるグループ判定及びグループ行為によるグループ判定を説明する。ただし、グループ判定の手法はこれらに限定されず、画像から物体のグループ判定が可能な技術であれば、どのようなものを用いてもよい。 Various methods can be considered for the process of determining whether a certain object and another object are included in the same group. In this embodiment, group determination based on positional proximity and group determination based on group behavior will be described. However, the method of group determination is not limited to these, and any technique may be used as long as it is possible to determine groups of objects from images.

図15は、本実施形態における物体状態管理部131が実行するグループID付与処理(図11のステップS23)の第1の例を示すフローチャートである。グループID付与処理の第1の例は、位置近接によるグループ判定である。 FIG. 15 is a flowchart showing a first example of the group ID assignment process (step S23 in FIG. 11) executed by the object state management unit 131 in this embodiment. A first example of group ID assignment processing is group determination based on positional proximity.

位置近接によるグループ判定は、直近の所定回数連続して近接した位置で検知された2つの物体をグループとして登録する処理である。所定回数は、例えば5回である。機器管理方法を実行する時間間隔を3秒とすれば、15秒間連続して近接した位置で検知された2つの物体が同じグループとして判定されることになる。 Group determination based on positional proximity is a process of registering two objects that have been detected in close proximity a predetermined number of times as a group. The predetermined number of times is, for example, five times. If the time interval for executing the device management method is 3 seconds, two objects detected at close positions for 15 consecutive seconds will be determined to be in the same group.

ここでは、登録物体リストのm番目の登録物体とn番目の登録物体との組み合わせに対して処理を実行するものとする。 Here, it is assumed that the process is executed for the combination of the m-th registered object and the n-th registered object in the registered object list.

ステップS23A-1において、物体状態管理部131は、変数k及び変数jを1に初期化する。変数kは2つの物体が近接しているか否かを判定した回数を表すカウンタである。変数jは2つの物体が近接していると判定された回数を表すカウンタである。 In step S23A-1, the object state management unit 131 initializes a variable k and a variable j to 1. The variable k is a counter representing the number of times it has been determined whether two objects are close to each other. Variable j is a counter representing the number of times it is determined that two objects are close to each other.

ステップS23A-2において、物体状態管理部131は、m番目の登録物体のk回前の三次元座標とn番目の登録物体のk回前の三次元座標との距離Xを計算する。 In step S23A-2, the object state management unit 131 calculates the distance X between the three-dimensional coordinates of the m-th registered object k times before and the three-dimensional coordinates of the n-th registered object k times before.

ステップS23A-3において、物体状態管理部131は、距離Xが所定の閾値(例えば、1メートル)未満であるか否かを判定する。距離Xが閾値未満である場合(YES)、物体状態管理部131は、ステップS23A-4に処理を進める。距離Xが閾値以上である場合(NO)、物体状態管理部131は、ステップS23A-5に処理を進める。 In step S23A-3, the object state management unit 131 determines whether the distance X is less than a predetermined threshold (for example, 1 meter). If the distance X is less than the threshold (YES), the object state management unit 131 advances the process to step S23A-4. If the distance X is equal to or greater than the threshold (NO), the object state management unit 131 advances the process to step S23A-5.

ステップS23A-4において、物体状態管理部131は、変数jをインクリメントする。 In step S23A-4, the object state management unit 131 increments the variable j.

ステップS23A-5において、物体状態管理部131は、変数kをインクリメントする。 In step S23A-5, the object state management unit 131 increments the variable k.

ステップS23A-6において、物体状態管理部131は、変数kが所定回数Kと等しいか否かを判定する。変数kが所定回数Kと異なる場合(NO)、物体状態管理部131は、ステップS23A-2に処理を戻す。変数kが所定回数Kと等しい場合(YES)、物体状態管理部131は、ステップS23A-7に処理を進める。 In step S23A-6, the object state management unit 131 determines whether the variable k is equal to the predetermined number of times K. If the variable k is different from the predetermined number of times K (NO), the object state management unit 131 returns the process to step S23A-2. If the variable k is equal to the predetermined number of times K (YES), the object state management unit 131 advances the process to step S23A-7.

ステップS23A-7において、物体状態管理部131は、変数jが所定回数Kと等しいか否かを判定する。変数jが所定回数Kと異なる場合(NO)、物体状態管理部131は、処理を終了する。変数jが所定回数Kと等しい場合(YES)、物体状態管理部131は、ステップS23A-8に処理を進める。 In step S23A-7, the object state management unit 131 determines whether the variable j is equal to the predetermined number of times K. If the variable j is different from the predetermined number of times K (NO), the object state management unit 131 ends the process. If the variable j is equal to the predetermined number of times K (YES), the object state management unit 131 advances the process to step S23A-8.

ステップS23A-8において、物体状態管理部131は、m番目の登録物体及びn番目の登録物体のいずれかにグループIDが付与されているか否かを判定する。グループIDが付与されている場合(YES)、物体状態管理部131は、ステップS23A-9に処理を進める。グループIDが付与されていない場合(NO)、物体状態管理部131は、ステップS23A-10に処理を進める。 In step S23A-8, the object state management unit 131 determines whether a group ID is assigned to either the m-th registered object or the n-th registered object. If a group ID has been assigned (YES), the object state management unit 131 advances the process to step S23A-9. If a group ID has not been assigned (NO), the object state management unit 131 advances the process to step S23A-10.

ステップS23A-9において、物体状態管理部131は、m番目の登録物体及びn番目の登録物体に付与されているグループIDのいずれかを、付与するグループIDとして決定する。次に、物体状態管理部131は、登録物体リストにおいて、m番目の登録物体及びn番目の登録物体のグループIDに、決定したグループIDを設定する。 In step S23A-9, the object state management unit 131 determines one of the group IDs assigned to the m-th registered object and the n-th registered object as the group ID to be assigned. Next, the object state management unit 131 sets the determined group ID to the group ID of the m-th registered object and the n-th registered object in the registered object list.

物体状態管理部131は、以下のようにして付与するグループIDを決定する。一方の登録物体のみにグループIDが付与されている場合、当該グループIDを付与するグループIDとする。すなわち、グループIDが付与されていない登録物体が既存のグループのメンバーに追加される。 The object state management unit 131 determines the group ID to be assigned as follows. If a group ID is assigned to only one registered object, the group ID is set as the assigned group ID. That is, registered objects to which no group ID is assigned are added to existing group members.

両方の登録物体にグループIDが付与されている場合、まず、m+1番目以降の登録物体をグループIDでソートしてm番目の登録物体と同じグループIDを持つ登録物体を特定する。次に、m番目の登録物体及び特定された全ての登録物体のグループIDをn番目の登録物体のグループIDで更新する。これにより、m番目の登録物体が属するグループのメンバーすべてがn番目の登録物体と同じグループに属することになる。これにより、3つ以上の登録物体が属するグループも把握できるようになる。 If both registered objects are assigned group IDs, first, the registered objects after the m+1st are sorted by group ID to identify the registered object having the same group ID as the m-th registered object. Next, the group IDs of the m-th registered object and all identified registered objects are updated with the group ID of the n-th registered object. As a result, all members of the group to which the m-th registered object belongs belong to the same group as the n-th registered object. This makes it possible to understand groups to which three or more registered objects belong.

ステップS23A-10において、物体状態管理部131は、他のグループIDと重複しない新たなグループIDを発行する。次に、物体状態管理部131は、登録物体リストにおいて、m番目の登録物体及びn番目の登録物体のグループIDに、発行した新たなグループIDを設定する。 In step S23A-10, the object state management unit 131 issues a new group ID that does not overlap with other group IDs. Next, the object state management unit 131 sets the issued new group ID to the group ID of the m-th registered object and the n-th registered object in the registered object list.

図16は、本実施形態における物体状態管理部131が実行するグループID付与処理(図11のステップS23)の第2の例を示すフローチャートである。グループID付与処理の第2の例は、グループ行為によるグループ判定である。 FIG. 16 is a flowchart showing a second example of the group ID assignment process (step S23 in FIG. 11) executed by the object state management unit 131 in this embodiment. A second example of group ID assignment processing is group determination based on group actions.

グループ行為によるグループ判定は、検知物体リストを作成した後に画像解析によってグループ判定を行う処理である。そのため、グループ行為によるグループ判定を行う場合、ステップS23は、ステップS21とステップS22の間で実行される。 Group determination based on group behavior is a process in which group determination is performed by image analysis after creating a detected object list. Therefore, when performing group determination based on group actions, step S23 is executed between step S21 and step S22.

ここでは、検知物体リストのm番目の検知物体とn番目の検知物体との組み合わせに対して処理を実行するものとする。 Here, it is assumed that the process is executed for a combination of the m-th detected object and the n-th detected object in the detected object list.

ステップS23B-1において、物体状態管理部131は、n番目の検知物体の三次元座標とm番目の検知物体の三次元座標との距離Xを計算する。 In step S23B-1, the object state management unit 131 calculates the distance X between the three-dimensional coordinates of the n-th sensing object and the three-dimensional coordinates of the m-th sensing object.

ステップS23B-2において、物体状態管理部131は、距離Xが所定の閾値(例えば、1メートル)未満であるか否かを判定する。距離Xが閾値以上である場合(NO)、物体状態管理部131は、処理を終了する。距離Xが閾値未満である場合(YES)、物体状態管理部131は、ステップS23B-3に処理を進める。 In step S23B-2, the object state management unit 131 determines whether the distance X is less than a predetermined threshold (for example, 1 meter). If the distance X is equal to or greater than the threshold (NO), the object state management unit 131 ends the process. If the distance X is less than the threshold (YES), the object state management unit 131 advances the process to step S23B-3.

ステップS23B-3において、物体状態管理部131は、n番目の検知物体の三次元座標とm番目の検知物体の三次元座標との中点を計算する。具体的には、物体状態管理部131は、2つの検知物体のX座標、Y座標及びZ座標それぞれの和を2で除算する。 In step S23B-3, the object state management unit 131 calculates the midpoint between the three-dimensional coordinates of the n-th sensing object and the three-dimensional coordinates of the m-th sensing object. Specifically, the object state management unit 131 divides the sum of the X coordinate, Y coordinate, and Z coordinate of the two detected objects by two.

ステップS23B-4において、物体状態管理部131は、中点を中心とした半径Yピクセルの映像Pを抽出する。半径Yは映像の解像度に応じて、映像Pに含まれる範囲が実空間における距離で約1mとなるように設定される。 In step S23B-4, the object state management unit 131 extracts an image P having a radius of Y pixels centered on the midpoint. The radius Y is set according to the resolution of the image so that the range included in the image P is about 1 m in real space.

ステップS23B-5において、物体状態管理部131は、予め記憶されているグループ行為画像を読み出す。グループ行為画像は、同じグループに属すると判定される行為を表す画像の集合である。例えば、2人の人物が挨拶又は握手等を行っている画像等である。 In step S23B-5, the object state management unit 131 reads out the group action image stored in advance. A group action image is a collection of images representing actions determined to belong to the same group. For example, it is an image of two people greeting each other or shaking hands.

ステップS23B-6において、物体状態管理部131は、映像Pとグループ行為画像それぞれとの類似度をパターンマッチング等により計算する。 In step S23B-6, the object state management unit 131 calculates the degree of similarity between the video P and each group action image by pattern matching or the like.

ステップS23B-7において、物体状態管理部131は、計算した類似度の中に所定の閾値を超えるものがあるか否かを判定する。閾値を超える類似度がある場合(YES)、物体状態管理部131は、ステップS23B-8に処理を進める。閾値を超える類似度がない場合(NO)、物体状態管理部131は、処理を終了する。 In step S23B-7, the object state management unit 131 determines whether any of the calculated similarities exceeds a predetermined threshold. If the degree of similarity exceeds the threshold (YES), the object state management unit 131 advances the process to step S23B-8. If there is no similarity exceeding the threshold (NO), the object state management unit 131 ends the process.

ステップS23B-8において、物体状態管理部131は、他のグループIDと重複しない新たなグループIDを発行する。次に、物体状態管理部131は、検知物体リストにおいて、m番目の検知物体及びn番目の検知物体のグループIDに、発行した新たなグループIDを設定する。 In step S23B-8, the object state management unit 131 issues a new group ID that does not overlap with other group IDs. Next, the object state management unit 131 sets the issued new group ID to the group ID of the m-th detected object and the n-th detected object in the detected object list.

その後に実行される登録物体リスト更新処理のステップS22-4(図13参照)において、物体状態管理部131は、登録物体のグループIDに、同一の物体と判定された検知物体のグループIDを設定する。なお、登録物体に既存のグループIDが付与されている場合、グループID付与処理の第1の例のステップS23A-8からステップS23A-10(図15参照)が実行される。 In step S22-4 (see FIG. 13) of the registered object list update process executed thereafter, the object state management unit 131 sets the group ID of the detected objects determined to be the same object to the group ID of the registered objects. do. Note that if an existing group ID is assigned to the registered object, steps S23A-8 to S23A-10 (see FIG. 15) of the first example of group ID assignment processing are executed.

図10に戻って説明する。ステップS3において、電子機器30-1が備える操作情報送信部31は、ユーザが当該電子機器30-1で行った操作に応じて、操作内容が管理装置10に通知すべき情報であるか否かを判定する。この判定は、予め定めた操作内容のいずれかと合致するか否かにより行われる。 The explanation will be returned to FIG. 10. In step S3, the operation information transmitting unit 31 included in the electronic device 30-1 determines whether the operation content is information that should be notified to the management device 10, depending on the operation performed by the user on the electronic device 30-1. Determine. This determination is made based on whether or not the content matches any of the predetermined operation contents.

操作情報送信部31は、通知すべき操作内容であると判定した場合、機器操作に関する機器操作情報を管理装置10に送信する。管理装置10では、操作情報受信部12が、電子機器30-1から機器操作情報を受信する。 When the operation information transmitting unit 31 determines that the operation content should be notified, the operation information transmitting unit 31 transmits device operation information related to the device operation to the management device 10. In the management device 10, the operation information receiving section 12 receives device operation information from the electronic device 30-1.

本実施形態における操作内容及び操作情報を、以下に例示する。 The operation details and operation information in this embodiment are illustrated below.

<例1>
操作内容:機器ログイン
操作情報:登録機器ID、機器認証ID(認証が要求される場合)、ログイン時刻
<Example 1>
Operation details: Device login Operation information: Registered device ID, device authentication ID (if authentication is required), login time

<例2>
操作内容:料金が発生する処理(コピー出力、従量課金型ソフトウェアの使用等)
操作情報:登録機器ID、機器認証ID(認証が要求される場合)、料金、入力データ、使用言語
<Example 2>
Operation details: Processing that incurs charges (copy output, use of pay-as-you-go software, etc.)
Operation information: Registered device ID, device authentication ID (if authentication is required), fee, input data, language used

<例3>
操作内容:無し
操作情報:メンテナンス、省エネモード中などの状態情報
<Example 3>
Operation details: None Operation information: Status information such as maintenance, energy saving mode, etc.

登録機器IDとは、管理装置10の状態記憶部100に記憶されている登録機器リストに含まれる識別情報である。登録機器IDは、管理対象空間R1に設置されている電子機器30それぞれに割り振られている。機器認証IDは、電子機器30のユーザが当該電子機器30を使用するための認証に用いる認証情報である。 The registered device ID is identification information included in the registered device list stored in the status storage unit 100 of the management device 10. A registered device ID is assigned to each electronic device 30 installed in the managed space R1. The device authentication ID is authentication information used for authentication for the user of the electronic device 30 to use the electronic device 30.

ステップS4において、管理装置10が備える状態管理部13は、操作情報受信部12に操作情報を要求する。次に、状態管理部13は、操作情報受信部12から受け取った操作情報を機器状態管理部132に入力する。 In step S4, the state management section 13 included in the management device 10 requests operation information from the operation information reception section 12. Next, the state management section 13 inputs the operation information received from the operation information reception section 12 to the device state management section 132.

続いて、機器状態管理部132は、後述する機器状態更新処理を実行し、状態記憶部100に記憶されている状態管理情報の登録機器リストを更新する。 Subsequently, the device status management unit 132 executes a device status update process to be described later, and updates the registered device list of the status management information stored in the status storage unit 100.

≪機器状態更新処理≫
ここで、本実施形態における機器状態更新処理について、図17を参照しながら説明する。図17は、本実施形態における機器状態管理部132が実行する機器状態更新処理(図10のステップS4)の一例を示すフローチャートである。
≪Device status update processing≫
Here, the device status update process in this embodiment will be described with reference to FIG. 17. FIG. 17 is a flowchart illustrating an example of the device status update process (step S4 in FIG. 10) executed by the device status management unit 132 in this embodiment.

ステップS41において、機器状態管理部132は、機器操作情報に含まれる登録機器IDにより登録機器リストに含まれる登録機器を特定する。次に、機器状態管理部132は、特定された登録機器の機器入力情報に、受け取った機器操作情報を設定する。 In step S41, the device status management unit 132 identifies registered devices included in the registered device list based on the registered device ID included in the device operation information. Next, the device status management unit 132 sets the received device operation information to the device input information of the specified registered device.

ステップS42において、機器状態管理部132は、変数nを1に初期化する。 In step S42, the device state management unit 132 initializes a variable n to 1.

ステップS43において、機器状態管理部132は、特定された登録機器の三次元座標とn番目の登録物体の最新の三次元座標との距離Xを計算する。なお、登録機器の三次元座標は、登録物体の三次元座標と同様の手法により予め設定しておく。登録機器の設置位置が移動される場合もあるため、定期的に登録機器の三次元座標を更新する必要があるが、更新頻度は低くてもよい。 In step S43, the device status management unit 132 calculates the distance X between the three-dimensional coordinates of the specified registered device and the latest three-dimensional coordinates of the nth registered object. Note that the three-dimensional coordinates of the registered device are set in advance using the same method as the three-dimensional coordinates of the registered object. Since the installation position of the registered device may be moved, it is necessary to periodically update the three-dimensional coordinates of the registered device, but the update frequency may be low.

ステップS44において、機器状態管理部132は、距離Xが所定の閾値(例えば、1メートル)未満であるか否かを判定する。距離Xが閾値以上である場合(NO)、機器状態管理部132は、ステップS47に処理を進める。距離Xが閾値未満である場合(YES)、機器状態管理部132は、ステップS45に処理を進める。 In step S44, the device state management unit 132 determines whether the distance X is less than a predetermined threshold (for example, 1 meter). If the distance X is equal to or greater than the threshold (NO), the device state management unit 132 advances the process to step S47. If the distance X is less than the threshold (YES), the device state management unit 132 advances the process to step S45.

ステップS45において、機器状態管理部132は、n番目の登録物体の機器操作情報に、特定された登録機器の機器入力情報を追加する。登録物体リストの機器操作情報は、所定数の機器入力情報を格納可能に構成されている。 In step S45, the device state management unit 132 adds the device input information of the specified registered device to the device operation information of the nth registered object. The device operation information in the registered object list is configured to be able to store a predetermined number of device input information.

ステップS46において、機器状態管理部132は、変数nがデータ数Nと等しいか否かを判定する。変数nがデータ数Nと異なる場合(NO)、機器状態管理部132は、ステップS47に処理を進める。変数nがデータ数Nと等しい場合(YES)、機器状態管理部132は、処理を終了する。 In step S46, the device state management unit 132 determines whether the variable n is equal to the number N of data. If the variable n is different from the data number N (NO), the device state management unit 132 advances the process to step S47. If the variable n is equal to the data number N (YES), the device state management unit 132 ends the process.

ステップS47において、機器状態管理部132は、変数nをインクリメントする。その後、機器状態管理部132は、ステップS43に処理を戻す。 In step S47, the device state management unit 132 increments the variable n. After that, the device status management unit 132 returns the process to step S43.

図10に戻って説明する。ステップS5において、管理装置10が備える出力情報決定部133は、後述する出力情報決定処理を実行し、状態記憶部100に記憶されている状態管理情報に基づいて電子機器30に送信する動作指示を決定する。 The explanation will be returned to FIG. 10. In step S5, the output information determination unit 133 included in the management device 10 executes an output information determination process, which will be described later, and issues an operation instruction to be transmitted to the electronic device 30 based on the status management information stored in the status storage unit 100. decide.

≪出力情報決定処理≫
ここで、本実施形態における出力情報決定処理について、図18及び図19を参照しながら説明する。図18は、本実施形態における出力情報決定部133が実行する出力情報決定処理(図10のステップS5)の一例を示すフローチャートである。
<<Output information determination process>>
Here, the output information determination process in this embodiment will be explained with reference to FIGS. 18 and 19. FIG. 18 is a flowchart illustrating an example of the output information determination process (step S5 in FIG. 10) executed by the output information determination unit 133 in this embodiment.

出力情報決定処理は、第1の基本フローチャート(図8参照)の枠組みで行われる。具体的には、登録機器リストをリストAとし、登録物体リストをリストBとし、登録機器と登録物体のすべての組み合わせについて、処理A1(図18)を実行する。なお、処理A2-A5に相当する処理はない。 The output information determination process is performed within the framework of the first basic flowchart (see FIG. 8). Specifically, the registered device list is set to list A, the registered object list is set to list B, and processing A1 (FIG. 18) is executed for all combinations of registered devices and registered objects. Note that there is no process equivalent to processes A2-A5.

ここでは、登録機器リストのn番目の登録機器と登録物体リストのm番目の登録物体との組み合わせに対して処理を実行するものとする。 Here, it is assumed that the process is executed for the combination of the nth registered device in the registered device list and the mth registered object in the registered object list.

ステップS51において、出力情報決定部133は、n番目の登録機器の最新の三次元座標とm番目の登録物体の最新の三次元座標との距離Xを計算する。 In step S51, the output information determining unit 133 calculates the distance X between the latest three-dimensional coordinates of the n-th registered device and the latest three-dimensional coordinates of the m-th registered object.

ステップS52において、出力情報決定部133は、距離Xが所定の閾値(例えば、1メートル)未満であるか否かを判定する。距離Xが閾値以上である場合(NO)、機器状態管理部132は、処理を終了する。距離Xが閾値未満である場合(YES)、機器状態管理部132は、ステップS53に処理を進める。 In step S52, the output information determining unit 133 determines whether the distance X is less than a predetermined threshold (for example, 1 meter). If the distance X is equal to or greater than the threshold (NO), the device state management unit 132 ends the process. If the distance X is less than the threshold (YES), the device state management unit 132 advances the process to step S53.

ステップS53において、出力情報決定部133は、状態記憶部100に記憶されている登録機器リストから、n番目の登録機器の機器出力情報に含まれる出力条件を取得する。 In step S53, the output information determining unit 133 acquires the output conditions included in the device output information of the nth registered device from the registered device list stored in the status storage unit 100.

ステップS54において、出力情報決定部133は、状態記憶部100に記憶されている登録物体リストから、m番目の登録物体の機器操作情報を取得する。 In step S54, the output information determining unit 133 acquires device operation information for the m-th registered object from the registered object list stored in the state storage unit 100.

ステップS55において、出力情報決定部133は、ステップS54で取得した機器操作情報のいずれかが、ステップS53で取得した出力条件を満たすか否かを判定する。機器操作情報のすべてが出力条件を満たさない場合、(NO)、機器状態管理部132は、処理を終了する。機器操作情報のいずれかが出力条件を満たす場合(YES)、機器状態管理部132は、ステップS56に処理を進める。 In step S55, the output information determining unit 133 determines whether any of the device operation information acquired in step S54 satisfies the output conditions acquired in step S53. If all of the device operation information does not satisfy the output conditions (NO), the device status management unit 132 ends the process. If any of the device operation information satisfies the output conditions (YES), the device status management unit 132 advances the process to step S56.

ステップS56において、出力情報決定部133は、n番目の登録機器の機器出力情報からステップS53で取得した出力条件に対応する動作指示を取得する。なお、登録機器の動作指示には、登録機器の属性情報に応じて適応的に処理を行なうものが含まれていてもよい。例えば、登録機器が動作できない状態であるときは動作指示を送信しないといった条件を含めてもよい。動作できない状態とは、例えば、電源オフ状態又は休止状態等である。 In step S56, the output information determining unit 133 obtains an operation instruction corresponding to the output condition obtained in step S53 from the device output information of the nth registered device. Note that the operation instructions for the registered device may include instructions for adaptively performing processing according to the attribute information of the registered device. For example, a condition such as not transmitting an operation instruction when the registered device is in an inoperable state may be included. The inoperable state is, for example, a power-off state or a hibernation state.

図19は、本実施形態における出力情報決定部133が実行する出力条件判定処理(図18のステップS55)の変形例を示すフローチャートである。 FIG. 19 is a flowchart showing a modification of the output condition determination process (step S55 in FIG. 18) executed by the output information determining unit 133 in this embodiment.

図18に示した出力情報決定処理では、ステップS55においてm番目の登録物体の機器操作情報のみに基づいて出力条件を満たすか否かを判定した。図19に示した出力情報決定処理では、m番目の登録機器以外の機器操作情報を参照し出力条件を満たすか否かを判定する。 In the output information determination process shown in FIG. 18, in step S55, it is determined whether the output condition is satisfied based only on the device operation information of the m-th registered object. In the output information determination process shown in FIG. 19, it is determined whether the output conditions are satisfied by referring to device operation information other than the m-th registered device.

ステップS55-1において、出力情報決定部133は、m番目の登録物体の機器操作情報のいずれかが、n番目の登録機器の出力条件を満たすか否かを判定する。機器操作情報のいずれかが出力条件を満たす場合(YES)、出力情報決定部133は、ステップS55-10に処理を進める。機器操作情報のすべてが出力条件を満たさない場合(NO)、出力情報決定部133は、ステップS55-2に処理を進める。 In step S55-1, the output information determining unit 133 determines whether any of the device operation information of the m-th registered object satisfies the output conditions of the n-th registered device. If any of the device operation information satisfies the output conditions (YES), the output information determining unit 133 advances the process to step S55-10. If all of the device operation information does not satisfy the output conditions (NO), the output information determining unit 133 advances the process to step S55-2.

ステップS55-2において、出力情報決定部133は、n番目の登録機器の出力条件に基づいて、他の登録物体の機器操作情報が必要か否かを判定する。他の登録物体の機器操作情報が必要な場合(YES)、出力情報決定部133は、ステップS55-3に処理を進める。他の登録物体の機器操作情報が不要な場合(NO)、出力情報決定部133は、ステップS55-9に処理を進める。 In step S55-2, the output information determining unit 133 determines whether device operation information for other registered objects is necessary based on the output conditions of the nth registered device. If device operation information for another registered object is required (YES), the output information determining unit 133 advances the process to step S55-3. If device operation information for other registered objects is not required (NO), the output information determining unit 133 advances the process to step S55-9.

ステップS55-3において、出力情報決定部133は、変数kを1に初期化する。 In step S55-3, the output information determining unit 133 initializes a variable k to 1.

ステップS55-4において、出力情報決定部133は、変数kが変数mと等しいか否かを判定する。変数kが変数mと等しい場合(YES)、出力情報決定部133は、ステップS55-5に処理を進める。変数kが変数mと等しくない場合(NO)、出力情報決定部133は、ステップS55-7に処理を進める。 In step S55-4, the output information determining unit 133 determines whether variable k is equal to variable m. If the variable k is equal to the variable m (YES), the output information determining unit 133 advances the process to step S55-5. If the variable k is not equal to the variable m (NO), the output information determining unit 133 advances the process to step S55-7.

ステップS55-5において、出力情報決定部133は、状態記憶部100に記憶されている登録物体リストから、k番目の登録物体の機器操作情報を取得する。 In step S55-5, the output information determining unit 133 acquires the device operation information of the kth registered object from the registered object list stored in the state storage unit 100.

ステップS55-6において、出力情報決定部133は、k番目の登録物体の機器操作情報のいずれかが、n番目の登録機器の出力条件を満たすか否かを判定する。機器操作情報のいずれかが出力条件を満たす場合(YES)、出力情報決定部133は、ステップS55-10に処理を進める。機器操作情報のすべてが出力条件を満たさない場合(NO)、出力情報決定部133は、ステップS55-7に処理を進める。 In step S55-6, the output information determining unit 133 determines whether any of the device operation information of the kth registered object satisfies the output condition of the nth registered device. If any of the device operation information satisfies the output conditions (YES), the output information determining unit 133 advances the process to step S55-10. If all of the device operation information does not satisfy the output conditions (NO), the output information determining unit 133 advances the process to step S55-7.

ステップS55-7において、出力情報決定部133は、変数kがデータ数Mと等しいか否かを判定する。変数kがデータ数Mと異なる場合(NO)、出力情報決定部133は、ステップ55-8に処理を進める。変数mがデータ数Mと等しい場合(YES)、出力情報決定部133は、ステップS55-9に処理を進める。 In step S55-7, the output information determining unit 133 determines whether the variable k is equal to the number M of data. If the variable k is different from the data number M (NO), the output information determining unit 133 advances the process to step 55-8. If the variable m is equal to the data number M (YES), the output information determining unit 133 advances the process to step S55-9.

ステップS55-8において、出力情報決定部133は、変数kをインクリメントする。その後、出力情報決定部133は、ステップS55-4に処理を戻す。 In step S55-8, the output information determining unit 133 increments the variable k. After that, the output information determining unit 133 returns the process to step S55-4.

ステップS55-9において、出力情報決定部133は、ステップS54で取得した機器操作情報が、ステップS53で取得した出力条件を満たさないと判定し、処理を終了する。 In step S55-9, the output information determining unit 133 determines that the device operation information obtained in step S54 does not satisfy the output condition obtained in step S53, and ends the process.

ステップS55-10において、出力情報決定部133は、ステップS54で取得した機器操作情報が、ステップS53で取得した出力条件を満たすと判定し、処理を終了する。 In step S55-10, the output information determining unit 133 determines that the device operation information obtained in step S54 satisfies the output condition obtained in step S53, and ends the process.

図20は、本実施形態における機器出力情報の一例を示す図である。本実施形態における機器出力情報の出力条件の第1の例は、他の登録物体の機器操作情報が不要な出力条件である。本実施形態における機器出力情報の出力条件の第2の例は、他の登録物体の機器操作情報が必要な出力条件である。 FIG. 20 is a diagram showing an example of device output information in this embodiment. A first example of the output condition of device output information in this embodiment is an output condition that does not require device operation information of other registered objects. A second example of the output condition of device output information in this embodiment is an output condition that requires device operation information of another registered object.

図20に示されているように、本実施形態における出力条件の第1の例は、m番目の登録物体(以下、「人物α」とも呼ぶ)が他の電子機器(ここでは、MFPとする)で入力した認証情報が、n番目の電子機器(ここでは、電子黒板とする)で認証可能な認証情報であること、である。 As shown in FIG. 20, the first example of the output condition in this embodiment is that the m-th registered object (hereinafter also referred to as "person α") is connected to another electronic device (here, an MFP). ) is authentication information that can be authenticated by the n-th electronic device (here, an electronic whiteboard).

図20に示されているように、出力条件の第1の例を満たすと判定された場合、以下の動作指示のいずれか又は複数が、当該登録機器に送信する動作指示として決定される。第1の動作指示は、人物αを電子黒板に自動認証することである。この場合、送信する動作指示には、人物αがMFPで入力した認証情報が含まれる。第2の動作指示は、電子黒板に「αさん、自動認証を行ないました」と数秒間表示することである。 As shown in FIG. 20, when it is determined that the first example of the output condition is satisfied, one or more of the following operation instructions are determined as the operation instructions to be transmitted to the registered device. The first operation instruction is to automatically authenticate the person α to the electronic blackboard. In this case, the operation instruction to be transmitted includes the authentication information input by the person α using the MFP. The second operation instruction is to display "Mr. α, automatic authentication has been performed" on the electronic blackboard for a few seconds.

第3の動作指示は、人物αがMFPで情報入力(例えば、スキャン操作)を行っていた場合、「さきほど機器○○(MFPの名称)で入力された情報を表示しますか?」という文言と「はい」又は「いいえ」の選択ボタンを表示することである。このとき、「はい」が選択された場合、スキャナで入力された情報が電子黒板に表示される。 The third action instruction, if person α is inputting information (for example, a scanning operation) on the MFP, will say, "Do you want to display the information you just entered on device ○○ (name of MFP)?" and a "yes" or "no" selection button. At this time, if "Yes" is selected, the information entered with the scanner will be displayed on the electronic blackboard.

第4の動作指示は、人物αの機器操作情報からMFPで設定された使用言語を特定し、電子黒板の表示に反映することである。第5の動作指示は、電子黒板の属性情報が「省エネモード中」等の休止状態であれば、動作指示を送信しないことである。 The fourth operation instruction is to identify the language set in the MFP from the device operation information of the person α, and to reflect it on the display on the electronic blackboard. The fifth operation instruction is not to transmit an operation instruction if the attribute information of the electronic whiteboard is in a dormant state such as "in energy saving mode."

図20に示されているように、本実施形態における出力条件の第2の例は、k番目の登録物体(以下、「人物β」とも呼ぶ)が他の電子機器(ここでは、MFPとする)で入力した認証情報が、n番目の電子機器(ここでは、電子黒板とする)で認証可能な認証情報であること、である。なお、人物βは、人物αと同じグループIDを持つものとする。 As shown in FIG. 20, the second example of the output condition in this embodiment is that the kth registered object (hereinafter also referred to as "person β") is connected to another electronic device (here, an MFP). ) is authentication information that can be authenticated by the n-th electronic device (here, an electronic whiteboard). Note that it is assumed that the person β has the same group ID as the person α.

図20に示されているように、出力条件の第2の例を満たすと判定された場合、以下の動作指示のいずれか又は複数が、当該登録機器に送信する動作指示として決定される。第1の動作指示は、人物αを電子黒板に自動認証することである。この場合、送信する動作指示には、人物βがMFPで入力した認証情報が含まれる。第2の動作指示は、電子黒板に「βさんの認証情報で自動認証を行ないました」と数秒間表示することである。 As shown in FIG. 20, when it is determined that the second example of the output condition is satisfied, one or more of the following operation instructions are determined as the operation instructions to be transmitted to the registered device. The first operation instruction is to automatically authenticate the person α to the electronic blackboard. In this case, the operation instruction to be transmitted includes the authentication information input by the person β using the MFP. The second operation instruction is to display for a few seconds the message "Automatic authentication has been performed using Mr. β's authentication information" on the electronic blackboard.

第3の動作指示は、人物βがMFPで情報入力(例えば、スキャン操作)を行っていた場合、「βさんが機器○○(MFPの名称)で入力された情報を表示しますか?」という文言と「はい」又は「いいえ」の選択ボタンを表示することである。このとき、「はい」が選択された場合、スキャナで入力された情報が電子黒板に表示される。 The third action instruction is "Do you want to display the information that Mr. β entered on device ○○ (name of MFP)" when person β is inputting information (for example, scanning operation) on the MFP? This is to display the words ``Yes'' or ``No'' selection buttons. At this time, if "Yes" is selected, the information entered with the scanner will be displayed on the electronic blackboard.

図10に戻って説明する。ステップS6において、管理装置10が備える出力情報決定部133は、動作指示を表す動作指示情報を動作指示部14に送る。動作指示情報には、決定した動作指示及び送信先の電子機器30-2を示す情報が含まれる。 The explanation will be returned to FIG. 10. In step S6, the output information determining unit 133 included in the management device 10 sends operation instruction information representing an operation instruction to the operation instruction unit 14. The operation instruction information includes information indicating the determined operation instruction and the destination electronic device 30-2.

動作指示部14は、出力情報決定部133から動作指示情報を受け取る。次に、動作指示部14は、動作指示情報に含まれる送信先の電子機器30-2に、動作指示情報に含まれる動作指示を送信する。 The operation instruction section 14 receives operation instruction information from the output information determination section 133. Next, the operation instruction unit 14 transmits the operation instruction included in the operation instruction information to the destination electronic device 30-2 included in the operation instruction information.

電子機器30-2では、機器制御部32が、管理装置10から動作指示を受信する。次に、機器制御部32は、受信した動作指示に従って、当該動作指示に含まれる入力情報を用いた動作を実行する。例えば、機器制御部32は、動作指示に含まれる認証情報を用いて、ユーザを認証する。また、例えば、機器制御部32は、動作指示に含まれる設定情報を用いて、当該電子機器30-2の設定を変更する。 In the electronic device 30-2, the device control unit 32 receives an operation instruction from the management device 10. Next, the device control unit 32 executes an operation according to the received operation instruction using the input information included in the operation instruction. For example, the device control unit 32 authenticates the user using authentication information included in the operation instruction. Further, for example, the device control unit 32 changes the settings of the electronic device 30-2 using the setting information included in the operation instruction.

<実施形態の効果>
本実施形態における機器管理システム1は、電子機器30の近傍を撮影した画像に基づいて人物の移動を追跡することで、ユーザが第1の電子機器30-1で入力した情報を用いた動作指示を、当該ユーザが近傍にいることを検知した第2の電子機器30-2に送信する。したがって、本実施形態における機器管理システム1によれば、第1の電子機器に入力された情報を用いた動作を第2の電子機器に実行させることができる。
<Effects of embodiment>
The device management system 1 according to the present embodiment tracks the movement of a person based on images taken near the electronic device 30, and provides operation instructions using information input by the user on the first electronic device 30-1. is transmitted to the second electronic device 30-2 that has detected that the user is nearby. Therefore, according to the device management system 1 in this embodiment, it is possible to cause the second electronic device to perform an operation using the information input to the first electronic device.

特に、第1の電子機器30-1で認証された認証情報を用いた認証指示を第2の電子機器30-2に送信することで、第1の電子機器30-1で認証されたユーザが第2の電子機器30-2の近傍に移動した際に自動的に認証を行うことができる。すなわち、本実施形態における機器管理システムによれば、ハードウェア連携によるシングルサインオンを実現することができる。 In particular, by sending an authentication instruction using the authentication information authenticated by the first electronic device 30-1 to the second electronic device 30-2, the user authenticated by the first electronic device 30-1 can Authentication can be performed automatically when moving near the second electronic device 30-2. That is, according to the device management system in this embodiment, single sign-on can be realized through hardware cooperation.

[応用例]
上記実施形態では、管理対象空間をオフィスの会議室又は執務室等と想定し、電子機器30をOA(Office Automation)機器として管理する例を中心に説明した。ただし、機器管理システム1を適用可能な利用シーンはこれに限定されず、様々な利用シーンに応用することができる。
[Application example]
In the above embodiment, the management target space is assumed to be an office conference room, an office room, or the like, and an example in which the electronic device 30 is managed as an OA (Office Automation) device has been mainly described. However, the usage scenes to which the device management system 1 can be applied are not limited to this, and can be applied to various usage scenes.

例えば、機器管理システム1を、ホテルに設置される電子機器を管理するように構成することができる。ホテルには、様々な電子機器が設置されている。例えば、ロビーには自動チェックイン機が設置されていることがある。また、客室にはテレビ放送及びオンデマンド動画を再生可能なセットトップボックスが設置されていることがある。機器管理システム1によりこれらの機器を管理することで、ホテルの宿泊客が自動チェックイン機で設定した使用言語をセットトップボックスの使用言語に自動的に設定することが可能となる。 For example, the device management system 1 can be configured to manage electronic devices installed in a hotel. The hotel is equipped with various electronic devices. For example, an automatic check-in machine may be installed in the lobby. In addition, guest rooms may be equipped with set-top boxes that can play television broadcasts and on-demand videos. By managing these devices with the device management system 1, it becomes possible to automatically set the language set by a hotel guest on the automatic check-in machine as the language of the set-top box.

また、例えば、機器管理システム1を、空港に設置される電子機器を管理するように構成することができる。空港では航空機に搭乗するまでに、発券、チェックイン、手荷物検査等の手続きを通過する必要があり、各手続きで搭乗券を専用の電子機器で処理している。機器管理システム1によりこれらの機器を管理することで、前の手続きを行う電子機器で設定した使用言語を次の手続きを行う電子機器の使用言語に自動的に設定することが可能となる。 Further, for example, the device management system 1 can be configured to manage electronic devices installed at an airport. Before boarding an aircraft at the airport, passengers must pass through procedures such as ticketing, check-in, and baggage inspection, and boarding passes are processed using special electronic equipment for each procedure. By managing these devices with the device management system 1, it becomes possible to automatically set the language set in the electronic device performing the previous procedure to the language used in the electronic device performing the next procedure.

また、例えば、機器管理システム1を、書店に設置される検索端末等の電子機器を管理するように構成することができる。顧客が検索端末で行った検索と、その後に移動した本棚の情報とを連携することで、マーケティングの強化に利用することができる。 Further, for example, the device management system 1 can be configured to manage electronic devices such as search terminals installed in a bookstore. By linking searches performed by customers on search terminals with information about bookshelves that have been moved since then, it can be used to strengthen marketing.

また、例えば、機器管理システム1を、工場に設置されるPC等の電子機器を管理するように構成することができる。作業員の行動と、作業現場に設置された機器操作内容とを関連付けて検証することで、作業員の作業妥当性を監視することができる。 Further, for example, the device management system 1 can be configured to manage electronic devices such as PCs installed in a factory. By correlating and verifying the actions of workers and the operation of equipment installed at the work site, it is possible to monitor the validity of workers' work.

また、例えば、機器管理システム1を、コンビニエンスストアの無人店舗に設置される電子機器を管理するように構成することができる。コンビニエンスストアには、MFPや精算装置等の電子機器が設置されている。機器管理システム1によりこれらの機器を管理することで、例えば、顧客がMFPで設定した使用言語を精算装置の使用言語に設定することが可能となる。 Furthermore, for example, the device management system 1 can be configured to manage electronic devices installed in an unmanned convenience store. Convenience stores are equipped with electronic devices such as MFPs and payment devices. By managing these devices with the device management system 1, it becomes possible, for example, to set the language set by the customer on the MFP as the language on the payment device.

[補足]
上記各実施形態において、管理装置10は情報処理装置の一例である。機器管理システム1は情報処理システムの一例である。監視装置20は撮影装置の一例である。状態管理部13はユーザ特定部の一例である。操作情報受信部12は入力情報受信部の一例である。
[supplement]
In each of the above embodiments, the management device 10 is an example of an information processing device. The device management system 1 is an example of an information processing system. The monitoring device 20 is an example of a photographing device. The state management unit 13 is an example of a user identification unit. The operation information receiving section 12 is an example of an input information receiving section.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等の機器を含むものとする。 Each function of the embodiments described above can be realized by one or more processing circuits. Here, the term "processing circuit" as used herein refers to a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, or a processor designed to execute each function explained above. This includes devices such as ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), FPGAs (Field Programmable Gate Arrays), and conventional circuit modules.

実施例に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。ある実施形態では、管理装置10は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。 The devices described in the examples are merely indicative of one of several computing environments for implementing the embodiments disclosed herein. In some embodiments, management apparatus 10 includes multiple computing devices, such as a server cluster. The plurality of computing devices are configured to communicate with each other via any type of communication link, including a network, shared memory, etc., to perform the processes disclosed herein.

以上、本発明の実施の形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to these embodiments, and various modifications or variations can be made within the scope of the gist of the present invention as described in the claims. Changes are possible.

1 機器管理システム
10 管理装置
11 画像受信部
12 操作情報受信部
13 状態管理部
14 動作指示部
100 状態記憶部
131 物体状態管理部
132 機器状態管理部
133 出力情報決定部
20 監視装置
21 画像取得部
22 画像送信部
30 電子機器
31 操作情報送信部
32 機器制御部
1 Equipment management system 10 Management device 11 Image reception unit 12 Operation information reception unit 13 Status management unit 14 Operation instruction unit 100 Status storage unit 131 Object status management unit 132 Equipment status management unit 133 Output information determination unit 20 Monitoring device 21 Image acquisition unit 22 Image transmission section 30 Electronic device 31 Operation information transmission section 32 Device control section

特許第6064636号公報Patent No. 6064636 特許第5238409号公報Patent No. 5238409

Claims (12)

第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能な情報処理装置であって、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信部と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザが前記第1の電子機器で入力した認証情報を前記第1の電子機器から受信する入力情報受信部と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信部と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザ及び前記第2ユーザ特定部によって特定された前記第2のユーザの情報と前記認証情報とに基づいて、前記第2の電子機器に前記認証情報又は前記認証情報中の画面設定情報を送信する動作指示部と、
を備える情報処理装置。
An information processing device capable of communicating with a first electronic device, a second electronic device, and a photographing device via a network,
a first image receiving unit that receives a first image taken of a first user using the first electronic device from the photographing device;
a first user identifying unit that identifies the first user who used the first electronic device based on usage information of the first electronic device and the first image;
an input information receiving unit that receives from the first electronic device authentication information that the first user specified by the first user specifying unit inputs on the first electronic device;
a second image receiving unit that receives a second image of a second user present at an operable position of the second electronic device from the photographing device;
a second user identifying unit that identifies the second user who is present at an operable position of the second electronic device from the second image;
Based on the information of the first user identified by the first user identifying unit and the second user identified by the second user identifying unit, and the authentication information, the second electronic device receives the an operation instruction unit that transmits authentication information or screen setting information in the authentication information;
An information processing device comprising:
第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能な情報処理装置であって、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信部と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザが前記第1の電子機器を使用した使用情報を前記第1の電子機器から受信する入力情報受信部と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信部と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザ及び前記第2ユーザ特定部によって特定された前記第2のユーザの情報と前記使用情報とに基づいて、前記第2の電子機器に前記使用情報を送信する動作指示部と、
を備える情報処理装置。
An information processing device capable of communicating with a first electronic device, a second electronic device, and a photographing device via a network,
a first image receiving unit that receives a first image taken of a first user using the first electronic device from the photographing device;
a first user identifying unit that identifies the first user who used the first electronic device based on usage information of the first electronic device and the first image;
an input information receiving unit that receives usage information on the use of the first electronic device by the first user identified by the first user identifying unit from the first electronic device;
a second image receiving unit that receives a second image of a second user present at an operable position of the second electronic device from the photographing device;
a second user identifying unit that identifies the second user who is present at an operable position of the second electronic device from the second image;
Based on the information on the first user identified by the first user identifying unit and the second user identified by the second user identifying unit, and the usage information, the second electronic device an operation instruction unit that transmits usage information;
An information processing device comprising:
請求項1又は2に記載の情報処理装置であって、
前記撮影装置から受信した前記第1の画像及び前記第2の画像を用いて前記第1のユーザ及び前記第2のユーザの位置情報を時系列に記録する状態管理部をさらに備える、
情報処理装置。
The information processing device according to claim 1 or 2,
further comprising a state management unit that records position information of the first user and the second user in chronological order using the first image and the second image received from the photographing device;
Information processing device.
請求項3に記載の情報処理装置であって、
前記状態管理部は、前記位置情報の時系列に基づいて前記第1の電子機器を操作した前記第1のユーザを特定する、
情報処理装置。
The information processing device according to claim 3,
The state management unit identifies the first user who operated the first electronic device based on the time series of the location information.
Information processing device.
請求項4に記載の情報処理装置であって、
前記状態管理部は、複数の前記撮影装置それぞれから受信した複数の前記第1の画像及び前記第2の画像を用いて、前記位置情報を記録する、
情報処理装置。
The information processing device according to claim 4,
The state management unit records the position information using the plurality of first images and the second images received from each of the plurality of photographing devices.
Information processing device.
請求項1に記載の情報処理装置であって、
前記入力情報受信部は、前記電子機器の状態を表す状態情報をさらに受信し、
前記動作指示部は、前記状態情報が休止状態を表す前記第2の電子機器には前記認証情報又は前記画面設定情報を送信しない、
情報処理装置。
The information processing device according to claim 1,
The input information receiving unit further receives status information representing a status of the electronic device,
The operation instruction unit does not transmit the authentication information or the screen setting information to the second electronic device whose status information indicates a dormant state.
Information processing device.
第1の電子機器、第2の電子機器、撮影装置及び情報処理装置がネットワークを介して通信可能な情報処理システムであって、
前記情報処理装置は、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信部と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザが前記第1の電子機器で入力した認証情報を前記第1の電子機器から受信する入力情報受信部と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信部と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザ及び前記第2ユーザ特定部によって特定された前記第2のユーザの情報と前記認証情報とに基づいて、前記第2の電子機器に前記認証情報又は前記認証情報中の画面設定情報を送信する動作指示部と、
を備える情報処理システム。
An information processing system in which a first electronic device, a second electronic device, a photographing device, and an information processing device can communicate via a network,
The information processing device includes:
a first image receiving unit that receives a first image taken of a first user using the first electronic device from the photographing device;
a first user identifying unit that identifies the first user who used the first electronic device based on usage information of the first electronic device and the first image;
an input information receiving unit that receives from the first electronic device authentication information that the first user specified by the first user specifying unit inputs on the first electronic device;
a second image receiving unit that receives a second image of a second user present at an operable position of the second electronic device from the photographing device;
a second user identifying unit that identifies the second user who is present at an operable position of the second electronic device from the second image;
Based on the information of the first user identified by the first user identifying unit and the second user identified by the second user identifying unit, and the authentication information, the second electronic device receives the an operation instruction unit that transmits authentication information or screen setting information in the authentication information;
An information processing system equipped with.
第1の電子機器、第2の電子機器、撮影装置及び情報処理装置がネットワークを介して通信可能な情報処理システムであって、
前記情報処理装置は、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信部と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザが前記第1の電子機器を使用した使用情報を前記第1の電子機器から受信する入力情報受信部と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信部と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザ及び前記第2ユーザ特定部によって特定された前記第2のユーザの情報と前記使用情報とに基づいて、前記第2の電子機器に前記使用情報を送信する動作指示部と、
を備える情報処理システム。
An information processing system in which a first electronic device, a second electronic device, a photographing device, and an information processing device can communicate via a network,
The information processing device includes:
a first image receiving unit that receives a first image taken of a first user using the first electronic device from the photographing device;
a first user identifying unit that identifies the first user who used the first electronic device based on usage information of the first electronic device and the first image;
an input information receiving unit that receives usage information on the use of the first electronic device by the first user identified by the first user identifying unit from the first electronic device;
a second image receiving unit that receives a second image of a second user present at an operable position of the second electronic device from the photographing device;
a second user identifying unit that identifies the second user who is present at an operable position of the second electronic device from the second image;
Based on the information on the first user identified by the first user identifying unit and the second user identified by the second user identifying unit, and the usage information, the second electronic device an operation instruction unit that transmits usage information;
An information processing system equipped with.
第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能なコンピュータが、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信手順と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザが前記第1の電子機器で入力した認証情報を前記第1の電子機器から受信する入力情報受信手順と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信手順と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザ及び前記第2ユーザ特定手順によって特定された前記第2のユーザの情報と前記認証情報とに基づいて、前記第2の電子機器に前記認証情報又は前記認証情報中の画面設定情報を送信する動作指示手順と、
を実行する機器管理方法。
A computer capable of communicating with the first electronic device, the second electronic device, and the photographing device via a network,
a first image receiving procedure of receiving a first image taken of a first user using the first electronic device from the photographing device;
a first user identification procedure of identifying the first user who used the first electronic device based on usage information of the first electronic device and the first image;
an input information receiving procedure of receiving from the first electronic device authentication information input by the first user identified by the first user identifying procedure using the first electronic device;
a second image receiving procedure of receiving a second image of a second user present at an operable position of the second electronic device from the photographing device;
a second user identification procedure of identifying the second user who is present in an operable position of the second electronic device from the second image;
Based on the information of the first user identified by the first user identification procedure and the second user identified by the second user identification procedure, and the authentication information, the second electronic device receives the an operation instruction procedure for transmitting authentication information or screen setting information in the authentication information;
Equipment management method to perform.
第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能なコンピュータが、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信手順と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザが前記第1の電子機器を使用した使用情報を前記第1の電子機器から受信する入力情報受信手順と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信手順と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザ及び前記第2ユーザ特定手順によって特定された前記第2のユーザの情報と前記使用情報とに基づいて、前記第2の電子機器に前記使用情報を送信する動作指示手順と、
を実行する機器管理方法。
A computer capable of communicating with the first electronic device, the second electronic device, and the photographing device via a network,
a first image receiving procedure of receiving a first image taken of a first user using the first electronic device from the photographing device;
a first user identification procedure of identifying the first user who used the first electronic device based on usage information of the first electronic device and the first image;
an input information receiving procedure of receiving usage information on the use of the first electronic device by the first user identified by the first user identifying procedure from the first electronic device;
a second image receiving procedure of receiving a second image of a second user present at an operable position of the second electronic device from the photographing device;
a second user identification procedure of identifying the second user who is present in an operable position of the second electronic device from the second image;
Based on the information on the first user identified by the first user identification procedure and the second user identified by the second user identification procedure, and the usage information, the second electronic device an operating instruction procedure for transmitting usage information;
Equipment management method to perform.
第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能なコンピュータに、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信手順と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザが前記第1の電子機器で入力した認証情報を前記第1の電子機器から受信する入力情報受信手順と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信手順と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザ及び前記第2ユーザ特定手順によって特定された前記第2のユーザの情報と前記認証情報とに基づいて、前記第2の電子機器に前記認証情報又は前記認証情報中の画面設定情報を送信する動作指示手順と、
を実行させるためのプログラム。
a computer capable of communicating with the first electronic device, the second electronic device, and the photographing device via the network;
a first image receiving procedure of receiving a first image taken of a first user using the first electronic device from the photographing device;
a first user identification procedure of identifying the first user who used the first electronic device based on usage information of the first electronic device and the first image;
an input information receiving procedure of receiving from the first electronic device authentication information input by the first user identified by the first user identifying procedure using the first electronic device;
a second image receiving procedure of receiving a second image of a second user present at an operable position of the second electronic device from the photographing device;
a second user identification procedure of identifying the second user who is present in an operable position of the second electronic device from the second image;
Based on the information of the first user identified by the first user identification procedure and the second user identified by the second user identification procedure, and the authentication information, the second electronic device receives the an operation instruction procedure for transmitting authentication information or screen setting information in the authentication information;
A program to run.
第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能なコンピュータに、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信手順と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザが前記第1の電子機器を使用した使用情報を前記第1の電子機器から受信する入力情報受信手順と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信手順と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザ及び前記第2ユーザ特定手順によって特定された前記第2のユーザの情報と前記使用情報とに基づいて、前記第2の電子機器に前記使用情報を送信する動作指示手順と、
を実行させるためのプログラム。
a computer capable of communicating with the first electronic device, the second electronic device, and the photographing device via the network;
a first image receiving procedure of receiving a first image taken of a first user using the first electronic device from the photographing device;
a first user identification procedure of identifying the first user who used the first electronic device based on usage information of the first electronic device and the first image;
an input information receiving procedure of receiving usage information on the use of the first electronic device by the first user identified by the first user identifying procedure from the first electronic device;
a second image receiving procedure of receiving a second image of a second user present at an operable position of the second electronic device from the photographing device;
a second user identification procedure of identifying the second user who is present in an operable position of the second electronic device from the second image;
Based on the information on the first user identified by the first user identification procedure and the second user identified by the second user identification procedure, and the usage information, the second electronic device an operating instruction procedure for transmitting usage information;
A program to run.
JP2023005177A 2022-03-22 2023-01-17 Information processing apparatus, information processing system, device management method, and program Pending JP2023140285A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023005177A JP2023140285A (en) 2022-03-22 2023-01-17 Information processing apparatus, information processing system, device management method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022045720A JP7215621B1 (en) 2022-03-22 2022-03-22 Information processing device, information processing system, device management method and program
JP2023005177A JP2023140285A (en) 2022-03-22 2023-01-17 Information processing apparatus, information processing system, device management method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022045720A Division JP7215621B1 (en) 2022-03-22 2022-03-22 Information processing device, information processing system, device management method and program

Publications (1)

Publication Number Publication Date
JP2023140285A true JP2023140285A (en) 2023-10-04

Family

ID=85111669

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022045720A Active JP7215621B1 (en) 2022-03-22 2022-03-22 Information processing device, information processing system, device management method and program
JP2023005177A Pending JP2023140285A (en) 2022-03-22 2023-01-17 Information processing apparatus, information processing system, device management method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022045720A Active JP7215621B1 (en) 2022-03-22 2022-03-22 Information processing device, information processing system, device management method and program

Country Status (1)

Country Link
JP (2) JP7215621B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206934A (en) 2006-02-01 2007-08-16 Konica Minolta Holdings Inc Authentication system, authentication control device, and program
JP4293195B2 (en) 2006-03-10 2009-07-08 コニカミノルタビジネステクノロジーズ株式会社 Information processing system, information processing apparatus, and terminal registration method
JP2017062680A (en) 2015-09-25 2017-03-30 キヤノン株式会社 Device information registration system, management apparatus, information processing apparatus, control method of management apparatus, control method of information processing apparatus, and program

Also Published As

Publication number Publication date
JP2023139935A (en) 2023-10-04
JP7215621B1 (en) 2023-01-31

Similar Documents

Publication Publication Date Title
US11509825B2 (en) Image management system, image management method, and computer program product
JP2017187850A (en) Image processing system, information processing device, and program
CN104284064A (en) Method and apparatus for previewing a dual-shot image
US11416202B2 (en) Communication terminal, communication system, method of sharing data, and recording medium
US11743590B2 (en) Communication terminal, image communication system, and method for displaying image
US20180309742A1 (en) Shared terminal, communication method, and non-transitory computer-readable medium
US11736802B2 (en) Communication management apparatus, image communication system, communication management method, and recording medium
US20220019472A1 (en) Method of storing electronic data, resource reservation system, and terminal apparatus
JP2018022478A (en) Shared terminal, communication system, image transmission method, and program
JP6776778B2 (en) Shared terminals, communication systems, communication methods, and programs
JP2023140345A (en) Information processing device, information processing system, charge management method and program
JP2018173951A (en) Sharing terminal, communication system, communication method, and program
JP6115113B2 (en) Predetermined area management system, predetermined area management method, and program
JP7215621B1 (en) Information processing device, information processing system, device management method and program
JP2021013159A (en) Information processing apparatus, telepresence robot, site control system, remote control system, information processing method, and program
CN108513033B (en) Communication terminal, communication system, and communication method
CN108712590B (en) Shared terminal, communication system, communication method, and recording medium
JP7124281B2 (en) Program, information processing device, image processing system
JP2024079370A (en) Information processing device, information processing system, device management method and program
US20230306096A1 (en) Information processing apparatus, information processing system, device management method, and recording medium
JP2023139936A (en) Information processing apparatus, information processing system, fare management method, and program
JP7081195B2 (en) Communication terminals, communication systems, communication methods, and programs
JP6237028B2 (en) Projection apparatus, projection method, and information processing system
JP2018056925A (en) Sharing terminal, communication system, communication method, and program
JP2019012502A (en) Sharing terminal, communication system, image transmitting method, and program