JP7215621B1 - Information processing device, information processing system, device management method and program - Google Patents

Information processing device, information processing system, device management method and program Download PDF

Info

Publication number
JP7215621B1
JP7215621B1 JP2022045720A JP2022045720A JP7215621B1 JP 7215621 B1 JP7215621 B1 JP 7215621B1 JP 2022045720 A JP2022045720 A JP 2022045720A JP 2022045720 A JP2022045720 A JP 2022045720A JP 7215621 B1 JP7215621 B1 JP 7215621B1
Authority
JP
Japan
Prior art keywords
user
electronic device
information
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022045720A
Other languages
Japanese (ja)
Other versions
JP2023139935A (en
Inventor
葵 中村
熱河 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2022045720A priority Critical patent/JP7215621B1/en
Priority to JP2023005177A priority patent/JP2023140285A/en
Application granted granted Critical
Publication of JP7215621B1 publication Critical patent/JP7215621B1/en
Priority to US18/185,706 priority patent/US20230306096A1/en
Publication of JP2023139935A publication Critical patent/JP2023139935A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimiles In General (AREA)

Abstract

【課題】第1の電子機器で使用された情報を用いて第2の電子機器を設定する情報処理装置等を提供する。【解決手段】第1の電子機器30-1、第2の電子機器30-2及び監視装置20とネットワークを介して通信可能な管理装置10は、監視装置から第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信し、第1の電子機器の使用情報と第1の画像とに基づいて、第1の電子機器を使用した第1のユーザを特定し、第1のユーザが第1の電子機器で入力した認証情報を第1の電子機器から受信し、撮影装置から第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信し、第2の画像から第2の電子機器の操作可能位置に存在する第2のユーザを特定する状態管理部と、第1のユーザ及び第2のユーザの情報と認証情報とに基づいて、第2の電子機器に認証情報又は認証情報中の画面設定情報を送信する動作指示部と、を備える。【選択図】図6An information processing apparatus and the like for setting a second electronic device using information used in a first electronic device are provided. A management device 10 capable of communicating with a first electronic device 30-1, a second electronic device 30-2 and a monitoring device 20 via a network uses the first electronic device from the monitoring device. receive a first image of a first user who is using the first electronic device, identify the first user who used the first electronic device based on the usage information of the first electronic device and the first image; A first user receives authentication information input by a first electronic device from the first electronic device, and photographs a second user present at an operable position of the second electronic device from a photographing device. a state management unit that receives the second image and specifies from the second image a second user present at an operable position of the second electronic device; information and authentication information of the first user and the second user; and an operation instructing unit that transmits the authentication information or the screen setting information in the authentication information to the second electronic device based on the above. [Selection drawing] Fig. 6

Description

この発明は、情報処理装置、情報処理システム、機器管理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing system, a device management method, and a program.

クラウドコンピューティングにおいて、ソフトウェアを連携してシングルサインオンを実現する技術がある。例えば、特許文献1には、複数のサービスで共通の認証基盤を利用することで、あるサービスで認証されたユーザが他のサービスでの認証を省略することができる発明が開示されている。 In cloud computing, there is a technology for realizing single sign-on by linking software. For example, Patent Literature 1 discloses an invention in which a user authenticated by one service can omit authentication by another service by using a common authentication infrastructure for a plurality of services.

電子機器等のハードウェアによる認証において、各ハードウェアの認証処理を関連付ける技術がある。例えば、特許文献2には、機密情報を扱う領域への入退室を管理するシステムと、当該領域内にある電子機器とを連携することで、入退室管理システムにおいて認証されたユーザでなければ電子機器での認証を許可しない発明が開示されている。 In authentication by hardware such as electronic equipment, there is a technique for associating authentication processing of each hardware. For example, in Patent Document 2, by linking a system that manages entry/exit to an area where confidential information is handled and an electronic device in the area, an electronic An invention is disclosed that does not allow authentication at the device.

ハードウェア間の連携では、ユーザの同一性を判定することが困難である。特許文献2に開示された発明は、電子機器での認証において入退室管理システムの認証状態を利用しているが、ユーザはそれぞれで認証操作を行う必要がある。例えば、第1の電子機器で認証を行ったユーザと第2の電子機器の近傍にいるユーザとの同一性を判定できれば、ユーザが第1の電子機器で入力した認証情報を用いて、第2の電子機器が認証を行うことが可能となる。 In cooperation between hardware, it is difficult to determine the identity of users. The invention disclosed in Patent Literature 2 utilizes the authentication status of an entry/exit management system in authentication with electronic devices, but each user needs to perform an authentication operation. For example, if it is possible to determine the identity of a user authenticated by the first electronic device and a user near the second electronic device, the authentication information entered by the user on the first electronic device can be used to identify the second electronic device. of electronic devices can perform authentication.

この発明の一実施形態は、第1の電子機器で使用された情報を用いて第2の電子機器を設定することを目的とする。 One embodiment of the present invention aims at configuring a second electronic device using information used in the first electronic device.

上記の課題を解決するために、この発明の一実施形態である情報処理装置は、第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能な情報処理装置であって、撮影装置から第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信部と、第1の電子機器の使用情報と第1の画像とに基づいて、第1の電子機器を使用した第1のユーザを特定する第1ユーザ特定部と、第1ユーザ特定部によって特定された第1のユーザが第1の電子機器で入力した認証情報を第1の電子機器から受信する入力情報受信部と、撮影装置から第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信部と、第2の画像から第2の電子機器の操作可能位置に存在する第2のユーザを特定する第2ユーザ特定部と、第1ユーザ特定部によって特定された第1のユーザ及び第2ユーザ特定部によって特定された第2のユーザの情報と認証情報とに基づいて、第2の電子機器に認証情報又は認証情報中の画面設定情報を送信する動作指示部と、を備える。 In order to solve the above problems, an information processing apparatus according to one embodiment of the present invention is an information processing apparatus capable of communicating with a first electronic device, a second electronic device, and a photographing device via a network. a first image receiving unit that receives a first image of a first user using a first electronic device from a photographing device; usage information of the first electronic device and the first image; a first user identification unit that identifies a first user who uses the first electronic device; An input information receiving unit that receives input information from a first electronic device, and a second image receiving unit that receives a second image of a second user present at an operable position of the second electronic device from a photographing device. a second user specifying unit that specifies a second user present at an operable position of the second electronic device from the second image; and the first user and the second user specified by the first user specifying unit. an operation instructing unit that transmits the authentication information or the screen setting information in the authentication information to the second electronic device based on the second user information and the authentication information specified by the specifying unit.

この発明の一実施形態によれば、第1の電子機器で使用された情報を用いて第2の電子機器を設定することができる。 According to one embodiment of the invention, the information used by the first electronic device can be used to configure the second electronic device.

一実施形態における機器管理システムの全体構成の一例を示す図である。It is a figure showing an example of the whole composition of a device management system in one embodiment. 一実施形態におけるコンピュータのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the computer in one embodiment. 一実施形態における全天球撮影装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the omnidirectional imaging device in one embodiment. 一実施形態におけるMFPのハードウェア構成の一例を示す図である。1 is a diagram showing an example of a hardware configuration of an MFP in one embodiment; FIG. 一実施形態における電子黒板のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the electronic blackboard in one Embodiment. 一実施形態における機器管理システムの機能構成の一例を示す図である。It is a figure showing an example of functional composition of a device management system in one embodiment. 一実施形態における状態管理情報の一例を示す図である。It is a figure which shows an example of the state management information in one Embodiment. 一実施形態における第1の基本フローチャートの一例を示す図である。It is a figure which shows an example of the 1st basic flowchart in one embodiment. 一実施形態における第2の基本フローチャートの一例を示す図である。It is a figure which shows an example of the 2nd basic flowchart in one Embodiment. 一実施形態における機器管理方法の一例を示す図である。It is a figure which shows an example of the device management method in one Embodiment. 一実施形態における物体状態更新処理の一例を示す図である。It is a figure which shows an example of the object state update process in one embodiment. 一実施形態における検知物体リスト作成処理の一例を示す図である。It is a figure which shows an example of the detection object list|wrist creation process in one Embodiment. 一実施形態における登録物体リスト更新処理の一例を示す図である。It is a figure which shows an example of the registered object list|wrist update process in one Embodiment. 一実施形態における登録物体リスト更新処理の一例を示す図である。It is a figure which shows an example of the registered object list|wrist update process in one Embodiment. 一実施形態におけるグループID付与処理の第1の例を示す図である。It is a figure which shows the 1st example of the group ID provision process in one Embodiment. 一実施形態におけるグループID付与処理の第2の例を示す図である。It is a figure which shows the 2nd example of the group ID provision process in one Embodiment. 一実施形態における機器状態更新処理の一例を示す図である。It is a figure which shows an example of the apparatus state update process in one Embodiment. 一実施形態における出力情報決定処理の一例を示す図である。It is a figure showing an example of output information decision processing in one embodiment. 一実施形態における出力条件判定処理の一例を示す図である。It is a figure which shows an example of the output condition determination process in one Embodiment. 一実施形態における機器出力情報の一例を示す図である。It is a figure which shows an example of the apparatus output information in one Embodiment.

以下、図面を参照しながら、この発明の実施の形態について、詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, constituent parts having the same function are denoted by the same numbers, and redundant explanations are omitted.

[実施形態]
本発明の一実施形態は、複数の電子機器を管理する機器管理システムである。本実施形態における機器管理システムは、ある電子機器で入力された情報を用いた動作を他の電子機器に指示することで、電子機器間の連携を実現する。
[Embodiment]
One embodiment of the present invention is a device management system that manages a plurality of electronic devices. The device management system according to the present embodiment realizes cooperation between electronic devices by instructing other electronic devices to operate using information input by one electronic device.

従来、ハードウェア間の連携では、同一のデバイス(例えば、IC(Integrated Circuit)カード又は携帯情報端末等)を所持していることによりユーザの同一性を判定していた。その結果、ハードウェア間で連携しても、各ハードウェアでの認証操作は必要であった。ソフトウェア連携によるシングルサインオンでは、あるサービスで認証されたユーザが他のサービスにアクセスする場合、同一の装置から操作が行われるため、ユーザの同一性を容易に判定することができる。 Conventionally, in cooperation between hardware, the identity of a user has been determined by possessing the same device (for example, an IC (Integrated Circuit) card, a mobile information terminal, or the like). As a result, even if the hardware is linked, the authentication operation is required for each hardware. With single sign-on through software linkage, when a user authenticated by a certain service accesses another service, the user's identity can be easily determined because the operation is performed from the same device.

本実施形態における機器管理システムは、管理装置が、複数の電子機器が設置された空間を撮影した画像に基づいて、電子機器間を移動する人物を追跡する。これにより、管理装置は、ある電子機器を操作したユーザと、他の電子機器の近傍にいるユーザとの同一性を判定することができる。 In the device management system according to the present embodiment, a management device tracks a person who moves between electronic devices based on an image of a space in which a plurality of electronic devices are installed. Thereby, the management device can determine the identity between the user who operated a certain electronic device and the user who is in the vicinity of another electronic device.

ユーザの同一性を判定できれば、ある電子機器で入力された情報を用いた動作を、他の電子機器に実行させることができる。例えば、ユーザが近傍にいる電子機器で、当該ユーザが他の電子機器で入力した認証情報を用いた認証を行えば、ハードウェア連携によるシングルサインオンを実現することができる。 If it is possible to determine the identity of a user, it is possible to cause another electronic device to perform an operation using information input by one electronic device. For example, if an electronic device near the user performs authentication using the authentication information that the user has entered on another electronic device, single sign-on can be achieved through hardware cooperation.

<機器管理システムの全体構成>
まず、本実施形態における機器管理システムの全体構成について、図1を参照しながら説明する。図1は、本実施形態における機器管理システムの全体構成の一例を示す図である。
<Overall configuration of device management system>
First, the overall configuration of the device management system according to this embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of the overall configuration of a device management system according to this embodiment.

図1に示されているように、本実施形態における機器管理システム1は、管理装置10、1台以上の監視装置20及び複数の電子機器30を含む。管理装置10、監視装置20及び電子機器30は、それぞれ通信ネットワークN1に接続している。 As shown in FIG. 1, the device management system 1 in this embodiment includes a management device 10, one or more monitoring devices 20, and a plurality of electronic devices 30. FIG. The management device 10, the monitoring device 20, and the electronic device 30 are each connected to the communication network N1.

通信ネットワークN1は、接続されている各装置が相互に通信可能となるように構成されている。通信ネットワークN1は、例えば、インターネット、LAN(Local Area Network)、又はWAN(Wide Area Network)などの有線通信によるネットワークによって構築されている。 The communication network N1 is configured so that connected devices can communicate with each other. The communication network N1 is constructed by a wired communication network such as the Internet, a LAN (Local Area Network), or a WAN (Wide Area Network).

通信ネットワークN1は、有線通信だけでなく、例えば、無線LAN、又は近距離無線通信等の無線通信、もしくはWiMAX(Worldwide Interoperability for Microwave Access)、LTE(Long Term Evolution)、又は5G(5th Generation)等の移動体通信によるネットワークが含まれていてもよい。 The communication network N1 includes not only wired communication but also wireless LAN, wireless communication such as short-range wireless communication, WiMAX (Worldwide Interoperability for Microwave Access), LTE (Long Term Evolution), or 5G (5th Generation). of mobile communication networks may be included.

監視装置20及び電子機器30は、管理対象空間R1に設置される。管理対象空間R1は、建物内の部屋等の1つの空間でもよいし、扉又は廊下等の出入り可能な空間で接続された複数の空間でもよい。 The monitoring device 20 and the electronic device 30 are installed in the managed space R1. The managed space R1 may be a single space such as a room in a building, or may be a plurality of spaces connected by an accessible space such as a door or corridor.

管理対象空間R1の一例は、オフィスの会議室又は執務室等である。管理対象空間R1の他の一例は、コンビニエンスストア等の小規模店舗における売り場又はバックヤード等である。管理対象空間R1の他の一例は、ホテルのロビー又は客室等である。管理対象空間R1の他の一例は、空港、書店又は工場等である。管理対象空間R1はこれらに限定されず、複数のユーザが操作し得る電子機器が設置される空間であればどのようなものでもよい。 An example of the managed space R1 is an office conference room, office, or the like. Another example of the managed space R1 is a sales floor, backyard, or the like in a small store such as a convenience store. Another example of the managed space R1 is a hotel lobby or guest room. Another example of the managed space R1 is an airport, a bookstore, a factory, or the like. The managed space R1 is not limited to these, and may be any space in which electronic devices that can be operated by a plurality of users are installed.

管理装置10は、電子機器30を管理するPC(Personal Computer)、ワークステーション又はサーバ等の情報処理装置である。管理装置10は、監視装置20が取得した画像に基づいて、電子機器30に動作指示を送信する。管理装置10の一例は、コンピュータである。 The management device 10 is an information processing device such as a PC (Personal Computer), workstation, or server that manages the electronic device 30 . The management device 10 transmits an operation instruction to the electronic device 30 based on the image acquired by the monitoring device 20 . An example of the management device 10 is a computer.

監視装置20は、管理対象空間R1に設置された電子機器30の近傍を含む画像を取得する電子機器である。監視装置20は映像(すなわち、画像の時系列)を取得してもよい。監視装置20は、複数の電子機器30すべてを撮影可能な位置に設置される。 The monitoring device 20 is an electronic device that acquires an image including the vicinity of the electronic device 30 installed in the managed space R1. Monitoring device 20 may acquire video (ie, a time series of images). The monitoring device 20 is installed at a position where all of the electronic devices 30 can be photographed.

監視装置20の一例は、全天球撮影装置である。監視装置20の他の一例は、複数のネットワークカメラである。監視装置20が複数のネットワークカメラである場合、各ネットワークカメラは管理対象空間R1内に死角が生じないように画角を調整して配置される。 An example of the monitoring device 20 is an omnidirectional imaging device. Another example of monitoring device 20 is a plurality of network cameras. When the monitoring device 20 is a plurality of network cameras, each network camera is arranged with its angle of view adjusted so that there is no blind spot in the managed space R1.

以降では、監視装置20が複数ある場合に、各々を区別するときは、「監視装置20-1」、「監視装置20-2」等と枝番を用いて記載する。 Hereinafter, when there are a plurality of monitoring devices 20, when distinguishing between them, they are described using branch numbers such as "monitoring device 20-1" and "monitoring device 20-2".

電子機器30は、ユーザが使用する各種の電子機器である。電子機器30は、認証されたユーザのみが使用できるように構成されている。電子機器30は、IC(Integrated Circuit)カード等のハードウェアを用いた認証が可能なように構成されている。 The electronic device 30 is various electronic devices used by a user. The electronic device 30 is configured so that only authorized users can use it. The electronic device 30 is configured to allow authentication using hardware such as an IC (Integrated Circuit) card.

電子機器30の一例は、画像形成装置(プリンタ、FAX装置、MFP(Multifunction Peripheral/Product/Printer:デジタル複合機)、スキャナ装置等)である。電子機器30の他の一例は、電子黒板(IWB(Interactive White Board:相互通信が可能な電子式の黒板機能を有する白板))である。 An example of the electronic device 30 is an image forming device (printer, FAX device, MFP (Multifunction Peripheral/Product/Printer), scanner device, etc.). Another example of the electronic device 30 is an electronic whiteboard (IWB (Interactive White Board: a whiteboard having an electronic blackboard function capable of mutual communication)).

以降では、複数の電子機器30について、各々を区別するときは、「電子機器30-1」、「電子機器30-2」等と枝番を用いて記載する。 In the following, when distinguishing among the plurality of electronic devices 30, they are described using serial numbers such as “electronic device 30-1” and “electronic device 30-2”.

電子機器30は、通信機能を備えた装置であれば、画像形成装置又は電子黒板に限られない。すなわち、電子機器30は、例えば、PJ(Projector:プロジェクタ)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、自動車(Connected Car)、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、デジタルカメラ、ウェアラブルPC又はデスクトップPC等であってもよい。 The electronic device 30 is not limited to an image forming device or an electronic blackboard as long as it is a device having a communication function. That is, the electronic device 30 includes, for example, a PJ (Projector), an output device such as a digital signage, a HUD (Head Up Display) device, an industrial machine, an imaging device, a sound collector, a medical device, a network appliance, an automobile (Connected Car), notebook PC (Personal Computer), mobile phone, smart phone, tablet terminal, game machine, PDA (Personal Digital Assistant), digital camera, wearable PC, desktop PC, or the like.

<機器管理システムのハードウェア構成>
次に、本実施形態における機器管理システムに含まれる各装置のハードウェア構成について、図2から図5を参照しながら説明する。
<Hardware configuration of device management system>
Next, the hardware configuration of each device included in the device management system according to this embodiment will be described with reference to FIGS. 2 to 5. FIG.

≪コンピュータのハードウェア構成≫
図2は、管理装置10がコンピュータで実現される場合のハードウェア構成の一例を示す図である。
<<Computer hardware configuration>>
FIG. 2 is a diagram showing an example of a hardware configuration when the management device 10 is realized by a computer.

図2に示されているように、一実施形態におけるコンピュータは、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、HD(Hard Disk)504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、バスライン510、キーボード511、ポインティング機器512、DVD-RW(Digital Versatile Disk Rewritable)ドライブ514、メディアI/F516を備えている。 As shown in FIG. 2, the computer in one embodiment includes a CPU (Central Processing Unit) 501, ROM (Read Only Memory) 502, RAM (Random Access Memory) 503, HD (Hard Disk) 504, HDD ( Hard Disk Drive) controller 505, display 506, external device connection I / F (Interface) 508, network I / F 509, bus line 510, keyboard 511, pointing device 512, DVD-RW (Digital Versatile Disk Rewritable) drive 514, media It has I/F516.

これらのうち、CPU501は、コンピュータ全体の動作を制御する。ROM502は、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。 Among these, the CPU 501 controls the operation of the entire computer. The ROM 502 stores programs used to drive the CPU 501, such as an IPL (Initial Program Loader). A RAM 503 is used as a work area for the CPU 501 . The HD 504 stores various data such as programs. The HDD controller 505 controls reading or writing of various data to/from the HD 504 under the control of the CPU 501 .

ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。ネットワークI/F509は、通信ネットワークN1を利用してデータ通信をするためのインターフェースである。バスライン510は、図2に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 A display 506 displays various information such as cursors, menus, windows, characters, or images. The external device connection I/F 508 is an interface for connecting various external devices. The external device in this case is, for example, a USB (Universal Serial Bus) memory, a printer, or the like. A network I/F 509 is an interface for data communication using the communication network N1. A bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501 shown in FIG.

また、キーボード511は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。ポインティング機器512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD-RWドライブ514は、着脱可能な記録媒体の一例としてのDVD-RW513に対する各種データの読み出し又は書き込みを制御する。なお、DVD-RWに限らず、DVD-R等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。 Also, the keyboard 511 is a kind of input means having a plurality of keys for inputting characters, numerical values, various instructions, and the like. The pointing device 512 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. A DVD-RW drive 514 controls reading or writing of various data to a DVD-RW 513 as an example of a removable recording medium. It should be noted that not only DVD-RW but also DVD-R or the like may be used. A media I/F 516 controls reading or writing (storage) of data to a recording medium 515 such as a flash memory.

≪全天球撮影装置のハードウェア構成≫
図3は、監視装置20が全天球撮影装置で実現される場合のハードウェア構成の一例を示す図である。以下では、全天球撮影装置は、2つの撮像素子を使用した全天球(全方位)撮影装置とするが、撮像素子は2つ以上であればいくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に全天球撮影装置と同じ機能を有するようにしてもよい。
≪Hardware configuration of omnidirectional camera≫
FIG. 3 is a diagram showing an example of a hardware configuration when the monitoring device 20 is realized by an omnidirectional imaging device. In the following, the omnidirectional imaging device is assumed to be an omnidirectional (omnidirectional) imaging device using two imaging elements, but the number of imaging elements may be two or more. In addition, it does not necessarily have to be a device dedicated to omnidirectional photography. By attaching an omnidirectional imaging unit to a normal digital camera, smartphone, etc., it can have substantially the same functions as an omnidirectional imaging device. may

図3に示されているように、一実施形態における全天球撮影装置は、撮像ユニット601、画像処理ユニット604、撮像制御ユニット605、マイク608、音処理ユニット609、CPU(Central Processing Unit)611、ROM(Read Only Memory)612、SRAM(Static Random Access Memory)613、DRAM(Dynamic Random Access Memory)614、操作部615、外部機器接続I/F616、通信部617、アンテナ617a、加速度・方位センサ618、ジャイロセンサ619、加速度センサ620、及びMicro USB用の凹状の端子621によって構成されている。 As shown in FIG. 3, the omnidirectional imaging device in one embodiment includes an imaging unit 601, an image processing unit 604, an imaging control unit 605, a microphone 608, a sound processing unit 609, and a CPU (Central Processing Unit) 611. , ROM (Read Only Memory) 612, SRAM (Static Random Access Memory) 613, DRAM (Dynamic Random Access Memory) 614, operation unit 615, external device connection I/F 616, communication unit 617, antenna 617a, acceleration/direction sensor 618 , a gyro sensor 619, an acceleration sensor 620, and a recessed terminal 621 for Micro USB.

このうち、撮像ユニット601は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)602a,602bと、各広角レンズに対応させて設けられている2つの撮像素子603a,603bを備えている。撮像素子603a,603bは、魚眼レンズ602a,602bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Among them, the imaging unit 601 includes wide-angle lenses (so-called fish-eye lenses) 602a and 602b each having an angle of view of 180° or more for forming a hemispherical image, and two imaging units provided corresponding to each wide-angle lens. It has elements 603a and 603b. The imaging elements 603a and 603b are image sensors such as CMOS (Complementary Metal Oxide Semiconductor) sensors and CCD (Charge Coupled Device) sensors that convert optical images by the fisheye lenses 602a and 602b into image data of electric signals and output them. and a timing generation circuit for generating horizontal or vertical synchronizing signals, pixel clocks, etc., and a group of registers for setting various commands and parameters necessary for the operation of this imaging device.

撮像ユニット601の撮像素子603a,603bは、各々、画像処理ユニット604とパラレルI/Fバスで接続されている。一方、撮像ユニット601の撮像素子603a,603bは、撮像制御ユニット605とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット604、撮像制御ユニット605及び音処理ユニット609は、バス610を介してCPU611と接続される。さらに、バス610には、ROM612、SRAM613、DRAM614、操作部615、外部機器接続I/F(Interface)616、通信部617、及び加速度・方位センサ618なども接続される。 The imaging elements 603a and 603b of the imaging unit 601 are each connected to the image processing unit 604 via a parallel I/F bus. On the other hand, the imaging elements 603a and 603b of the imaging unit 601 are connected to the imaging control unit 605 via a serial I/F bus (such as an I2C bus). The image processing unit 604 , imaging control unit 605 and sound processing unit 609 are connected to a CPU 611 via a bus 610 . Furthermore, the bus 610 is also connected with a ROM 612, an SRAM 613, a DRAM 614, an operation unit 615, an external device connection I/F (Interface) 616, a communication unit 617, an acceleration/direction sensor 618, and the like.

画像処理ユニット604は、撮像素子603a,603bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、正距円筒射影画像のデータを作成する。 The image processing unit 604 fetches the image data output from the image sensors 603a and 603b through the parallel I/F bus, performs predetermined processing on each image data, and synthesizes these image data. , to create the equirectangular projection image data.

撮像制御ユニット605は、一般に撮像制御ユニット605をマスタデバイス、撮像素子603a,603bをスレーブデバイスとして、I2Cバスを利用して、撮像素子603a,603bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU611から受け取る。また、撮像制御ユニット605は、同じくI2Cバスを利用して、撮像素子603a,603bのレジスタ群のステータスデータ等を取り込み、CPU611に送る。 The imaging control unit 605 generally uses the I2C bus with the imaging control unit 605 as a master device and the imaging elements 603a and 603b as slave devices to set commands and the like in registers of the imaging elements 603a and 603b. Necessary commands and the like are received from the CPU 611 . The imaging control unit 605 also uses the I2C bus to capture status data and the like of the registers of the imaging elements 603 a and 603 b and sends them to the CPU 611 .

また、撮像制御ユニット605は、操作部615のシャッターボタンが押下されたタイミングで、撮像素子603a,603bに画像データの出力を指示する。全天球撮影装置によっては、ディスプレイ(例えば、スマートフォンのディスプレイ)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子603a,603bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 Also, the imaging control unit 605 instructs the imaging devices 603a and 603b to output image data at the timing when the shutter button of the operation unit 615 is pressed. Some omnidirectional imaging devices have a preview display function and a function corresponding to moving image display on a display (for example, a smartphone display). In this case, the image data is output continuously from the imaging elements 603a and 603b at a predetermined frame rate (frames/minute).

また、撮像制御ユニット605は、後述するように、CPU611と協働して撮像素子603a,603bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、全天球撮影装置にはディスプレイが設けられていないが、表示部を設けてもよい。 In addition, as will be described later, the imaging control unit 605 also functions as synchronization control means for synchronizing the output timing of the image data of the imaging elements 603a and 603b in cooperation with the CPU 611. FIG. In this embodiment, the omnidirectional imaging apparatus is not provided with a display, but may be provided with a display unit.

マイク608は、音を音(信号)データに変換する。音処理ユニット609は、マイク608から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 A microphone 608 converts sound into sound (signal) data. The sound processing unit 609 takes in sound data output from the microphone 608 through the I/F bus and performs predetermined processing on the sound data.

CPU611は、全天球撮影装置の全体の動作を制御すると共に必要な処理を実行する。ROM612は、CPU611のための種々のプログラムを記憶している。SRAM613及びDRAM614はワークメモリであり、CPU611で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM614は、画像処理ユニット604での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。 A CPU 611 controls the overall operation of the omnidirectional imaging apparatus and executes necessary processing. ROM 612 stores various programs for CPU 611 . An SRAM 613 and a DRAM 614 are work memories, and store programs to be executed by the CPU 611, data during processing, and the like. In particular, the DRAM 614 stores image data being processed by the image processing unit 604 and data of the processed equirectangular projection image.

操作部615は、シャッターボタン615aなどの操作ボタンの総称である。ユーザは操作部615を操作することで、種々の撮影モードや撮影条件などを入力する。 The operation unit 615 is a general term for operation buttons such as the shutter button 615a. By operating the operation unit 615, the user inputs various shooting modes, shooting conditions, and the like.

外部機器接続I/F616は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやPC(Personal Computer)等である。DRAM614に記憶された正距円筒射影画像のデータは、この外部機器接続I/F616を介して外付けのメディアに記録されたり、必要に応じて外部機器接続I/F616を介してスマートフォン等の外部端末(装置)に送信されたりする。 The external device connection I/F 616 is an interface for connecting various external devices. The external device in this case is, for example, a USB (Universal Serial Bus) memory, a PC (Personal Computer), or the like. The data of the equirectangular projection image stored in the DRAM 614 is recorded on an external medium via the external device connection I/F 616, or is transmitted to an external device such as a smartphone via the external device connection I/F 616 as necessary. It is sent to a terminal (device).

通信部617は、全天球撮影装置に設けられたアンテナ617aを介して、Wi-Fi、NFC(Near Field Communication)やBluetooth(登録商標)等の近距離無線通信技術によって、スマートフォン等の外部端末(装置)と通信を行う。この通信部617によっても、正距円筒射影画像のデータをスマートフォン等の外部端末(装置)に送信することができる。 The communication unit 617 communicates with an external terminal such as a smart phone by short-range wireless communication technology such as Wi-Fi, NFC (Near Field Communication), or Bluetooth (registered trademark) via an antenna 617a provided in the omnidirectional imaging device. Communicate with (device). The communication unit 617 can also transmit the data of the equirectangular projection image to an external terminal (device) such as a smartphone.

加速度・方位センサ618は、地球の磁気から全天球撮影装置の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。また、加速度・方位センサ618は、全天球撮影装置6の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。 An acceleration/azimuth sensor 618 calculates the azimuth of the omnidirectional imaging apparatus from the magnetism of the earth and outputs azimuth information. This azimuth information is an example of related information (metadata) according to Exif, and is used for image processing such as image correction of a captured image. The related information also includes data such as the date and time when the image was taken and the data volume of the image data. The acceleration/azimuth sensor 618 is a sensor that detects changes in angles (Roll angle, Pitch angle, Yaw angle) accompanying movement of the omnidirectional imaging device 6 . A change in angle is an example of related information (metadata) according to Exif, and is used for image processing such as image correction of a captured image.

更に、加速度・方位センサ618は、3軸方向の加速度を検出するセンサである。全天球撮影装置は、加速度・方位センサ618が検出した加速度に基づいて、自装置(全天球撮影装置)の姿勢(重力方向に対する角度)を算出する。全天球撮影装置に、加速度・方位センサ618が設けられることによって、画像補正の精度が向上する。 Furthermore, the acceleration/direction sensor 618 is a sensor that detects acceleration in three axial directions. Based on the acceleration detected by the acceleration/direction sensor 618, the omnidirectional imaging device calculates the attitude (angle with respect to the direction of gravity) of its own device (omnidirectional imaging device). By providing the omnidirectional imaging device with the acceleration/azimuth sensor 618, the accuracy of image correction is improved.

≪MFPのハードウェア構成≫
図4は、電子機器30がMFPで実現される場合のハードウェア構成の一例を示す図である。
<<Hardware Configuration of MFP>>
FIG. 4 is a diagram showing an example of a hardware configuration when the electronic device 30 is realized by an MFP.

図4に示されているように、一実施形態におけるMFPは、コントローラ910、近距離通信回路920、エンジン制御部930、操作パネル940、ネットワークI/F(Interface)950を備えている。 As shown in FIG. 4, the MFP in one embodiment includes a controller 910, a short-range communication circuit 920, an engine control section 930, an operation panel 940, and a network I/F (Interface) 950.

これらのうち、コントローラ910は、コンピュータの主要部であるCPU(Central Processing Unit)901、システムメモリ(MEM-P)902、ノースブリッジ(NB)903、サウスブリッジ(SB)904、ASIC(Application Specific Integrated Circuit)906、記憶部であるローカルメモリ(MEM-C)907、HDD(Hard Disk Drive)コントローラ908、及び、記憶部であるHD(Hard Disk)909を有し、NB903とASIC906との間をAGP(Accelerated Graphics Port)バス921で接続した構成となっている。 Among them, the controller 910 includes a CPU (Central Processing Unit) 901, a system memory (MEM-P) 902, a north bridge (NB) 903, a south bridge (SB) 904, an ASIC (Application Specific Integrated Circuit) 906, a local memory (MEM-C) 907 that is a storage unit, an HDD (Hard Disk Drive) controller 908, and an HD (Hard Disk) 909 that is a storage unit. (Accelerated Graphics Port) It is configured to be connected by a bus 921 .

これらのうち、CPU901は、MFPの全体制御を行う制御部である。NB903は、CPU901と、MEM-P902、SB904、及びAGPバス921とを接続するためのブリッジであり、MEM-P902に対する読み書きなどを制御するメモリコントローラと、PCI(Peripheral Component Interconnect)マスタ及びAGPターゲットとを有する。 Among these, the CPU 901 is a control unit that performs overall control of the MFP. The NB 903 is a bridge for connecting the CPU 901, the MEM-P 902, the SB 904, and the AGP bus 921, and is a memory controller that controls reading and writing with respect to the MEM-P 902, a PCI (Peripheral Component Interconnect) master, and an AGP target. have

MEM-P902は、コントローラ910の各機能を実現させるプログラムやデータの格納用メモリであるROM(Read Only Memory)902a、プログラムやデータの展開、及びメモリ印刷時の描画用メモリなどとして用いるRAM(Random Access Memory)902bとからなる。なお、RAM902bに記憶されているプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 The MEM-P 902 includes a ROM (Read Only Memory) 902a, which is a memory for storing programs and data that implement each function of the controller 910, and a RAM (Random Access Memory) 902b. The program stored in the RAM 902b is configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM, CD-R, DVD, etc. as a file in an installable format or an executable format. You may

SB904は、NB903とPCI機器、周辺機器とを接続するためのブリッジである。ASIC906は、画像処理用のハードウェア要素を有する画像処理用途向けのIC(Integrated Circuit)であり、AGPバス921、PCIバス922、HDD908およびMEM-C907をそれぞれ接続するブリッジの役割を有する。このASIC906は、PCIターゲットおよびAGPマスタ、ASIC906の中核をなすアービタ(ARB)、MEM-C907を制御するメモリコントローラ、ハードウェアロジックなどにより画像データの回転などを行う複数のDMAC(Direct Memory Access Controller)、並びに、スキャナ部931及びプリンタ部932との間でPCIバス922を介したデータ転送を行うPCIユニットとからなる。なお、ASIC906には、USB(Universal Serial Bus)のインターフェースや、IEEE1394(Institute of Electrical and Electronics Engineers 1394)のインターフェースを接続するようにしてもよい。 The SB 904 is a bridge for connecting the NB 903 with PCI devices and peripheral devices. The ASIC 906 is an image processing IC (Integrated Circuit) having hardware elements for image processing, and serves as a bridge that connects the AGP bus 921, PCI bus 922, HDD 908 and MEM-C 907, respectively. This ASIC 906 includes a PCI target and AGP master, an arbiter (ARB) that forms the core of the ASIC 906, a memory controller that controls the MEM-C 907, and multiple DMACs (Direct Memory Access Controllers) that perform image data rotation, etc. by hardware logic. , and a PCI unit that transfers data between the scanner unit 931 and the printer unit 932 via the PCI bus 922 . Note that the ASIC 906 may be connected to a USB (Universal Serial Bus) interface or an IEEE 1394 (Institute of Electrical and Electronics Engineers 1394) interface.

MEM-C907は、コピー用画像バッファ及び符号バッファとして用いるローカルメモリである。HD909は、画像データの蓄積、印刷時に用いるフォントデータの蓄積、フォームの蓄積を行うためのストレージである。HD909は、CPU901の制御にしたがってHD909に対するデータの読出又は書込を制御する。AGPバス921は、グラフィック処理を高速化するために提案されたグラフィックスアクセラレータカード用のバスインタフェースであり、MEM-P902に高スループットで直接アクセスすることにより、グラフィックスアクセラレータカードを高速にすることができる。 MEM-C 907 is a local memory used as an image buffer for copying and an encoding buffer. The HD 909 is a storage for accumulating image data, accumulating font data used for printing, and accumulating forms. The HD 909 controls reading or writing of data to or from the HD 909 under the control of the CPU 901 . The AGP bus 921 is a bus interface for graphics accelerator cards proposed to speed up graphics processing, and can speed up the graphics accelerator card by directly accessing the MEM-P 902 with high throughput. .

また、近距離通信回路920には、近距離通信回路920aが備わっている。近距離通信回路920は、NFC、Bluetooth等の通信回路である。 The near field communication circuit 920 also includes a near field communication circuit 920a. The short-range communication circuit 920 is a communication circuit for NFC, Bluetooth, or the like.

更に、エンジン制御部930は、スキャナ部931及びプリンタ部932によって構成されている。また、操作パネル940は、現在の設定値や選択画面等を表示させ、操作者からの入力を受け付けるタッチパネル等のパネル表示部940a、並びに、濃度の設定条件などの画像形成に関する条件の設定値を受け付けるテンキー及びコピー開始指示を受け付けるスタートキー等からなる操作パネル940bを備えている。コントローラ910は、MFP全体の制御を行い、例えば、描画、通信、操作パネル940からの入力等を制御する。スキャナ部931又はプリンタ部932には、誤差拡散やガンマ変換などの画像処理部分が含まれている。 Furthermore, the engine control section 930 is configured by a scanner section 931 and a printer section 932 . The operation panel 940 displays a current setting value, a selection screen, and the like, and a panel display unit 940a such as a touch panel for receiving input from an operator, and setting values for image forming conditions such as density setting conditions. An operation panel 940b is provided which includes a numeric keypad for accepting a copy start instruction, a start key for accepting a copy start instruction, and the like. A controller 910 controls the entire MFP, such as drawing, communication, and input from an operation panel 940 . The scanner unit 931 or printer unit 932 includes an image processing part such as error diffusion and gamma conversion.

なお、MFPは、操作パネル940のアプリケーション切り替えキーにより、ドキュメントボックス機能、コピー機能、プリンタ機能、およびファクシミリ機能を順次に切り替えて選択することが可能となる。ドキュメントボックス機能の選択時にはドキュメントボックスモードとなり、コピー機能の選択時にはコピーモードとなり、プリンタ機能の選択時にはプリンタモードとなり、ファクシミリモードの選択時にはファクシミリモードとなる。 The MFP can switch and select the document box function, the copy function, the printer function, and the facsimile function in sequence using the application switching key on the operation panel 940 . The document box mode is set when the document box function is selected, the copy mode is set when the copy function is selected, the printer mode is set when the printer function is selected, and the facsimile mode is set when the facsimile mode is selected.

また、ネットワークI/F950は、通信ネットワークN1を利用してデータ通信をするためのインターフェースである。近距離通信回路920及びネットワークI/F950は、PCIバス922を介して、ASIC906に電気的に接続されている。 A network I/F 950 is an interface for data communication using the communication network N1. A short-range communication circuit 920 and a network I/F 950 are electrically connected to the ASIC 906 via a PCI bus 922 .

≪電子黒板のハードウェア構成≫
図5は、電子機器30が電子黒板で実現される場合のハードウェア構成の一例を示す図である。
≪Hardware configuration of the electronic blackboard≫
FIG. 5 is a diagram showing an example of a hardware configuration when the electronic device 30 is realized by an electronic blackboard.

図5に示されているように、一実施形態における電子黒板は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD(Solid State Drive)204、ネットワークI/F(Interface)205、及び、外部機器接続I/F206を備えている。 As shown in FIG. 5, the electronic blackboard in one embodiment includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an SSD (Solid State Drive) 204, A network I/F (Interface) 205 and an external device connection I/F 206 are provided.

これらのうち、CPU201は、電子黒板全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、電子黒板用のプログラム等の各種データを記憶する。ネットワークコントローラ205は、通信ネットワークN1との通信を制御する。外部機器接続I/F206は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ230、外付け機器(マイク240、スピーカ250、カメラ260)である。 Among these, the CPU 201 controls the operation of the entire electronic blackboard. The ROM 202 stores programs used to drive the CPU 201, such as the CPU 201 and an IPL (Initial Program Loader). A RAM 203 is used as a work area for the CPU 201 . The SSD 204 stores various data such as electronic blackboard programs. A network controller 205 controls communication with the communication network N1. The external device connection I/F 206 is an interface for connecting various external devices. The external devices in this case are, for example, a USB (Universal Serial Bus) memory 230 and external devices (microphone 240, speaker 250, camera 260).

また、電子黒板は、キャプチャデバイス211、GPU212、ディスプレイコントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信回路219、及び近距離通信回路219のアンテナ219a、電源スイッチ222及び選択スイッチ類223を備えている。 In addition, the electronic blackboard includes a capture device 211, a GPU 212, a display controller 213, a contact sensor 214, a sensor controller 215, an electronic pen controller 216, a short-range communication circuit 219, an antenna 219a of the short-range communication circuit 219, a power switch 222 and a selector. Switches 223 are provided.

これらのうち、キャプチャデバイス211は、外付けのPC(Personal Computer)270のディスプレイに対して映像情報を静止画または動画として表示させる。GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。ディスプレイコントローラ213は、GPU212からの出力画像をディスプレイ280等へ出力するために画面表示の制御及び管理を行う。 Among these devices, the capture device 211 causes the display of an external PC (Personal Computer) 270 to display video information as a still image or moving image. A GPU (Graphics Processing Unit) 212 is a semiconductor chip that specializes in graphics. The display controller 213 controls and manages screen display in order to output an output image from the GPU 212 to the display 280 or the like.

接触センサ214は、ディスプレイ280上に電子ペン290やユーザの手H等が接触したことを検知する。センサコントローラ215は、接触センサ214の処理を制御する。接触センサ214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ280の上側両端部に設置された2つ受発光装置が、ディスプレイ280に平行して複数の赤外線を放射し、ディスプレイ280の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。 The contact sensor 214 detects that the electronic pen 290 , the user's hand H, or the like touches the display 280 . A sensor controller 215 controls the processing of the contact sensor 214 . The contact sensor 214 performs coordinate input and coordinate detection using an infrared shielding method. In this coordinate input and coordinate detection method, two light emitting/receiving devices installed at both ends of the upper side of the display 280 radiate a plurality of infrared rays parallel to the display 280, and are provided around the display 280. This is a method of receiving light that is reflected by a reflecting member and returns along the same optical path as that of light emitted by a light receiving element. The contact sensor 214 outputs to the sensor controller 215 the ID of the infrared rays emitted by the two light emitting/receiving devices blocked by the object, and the sensor controller 215 identifies the coordinate position, which is the contact position of the object.

電子ペンコントローラ216は、電子ペン290と通信することで、ディスプレイ280へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路219は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。電源スイッチ222は、電子黒板の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類223は、例えば、ディスプレイ280の表示の明暗や色合い等を調整するためのスイッチ群である。 The electronic pen controller 216 communicates with the electronic pen 290 to determine whether or not the display 280 has been touched with the tip of the pen or the bottom of the pen. The short-range communication circuit 219 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark). The power switch 222 is a switch for switching ON/OFF of the power supply of the electronic blackboard. The selection switches 223 are, for example, a group of switches for adjusting the brightness and color of the display on the display 280 .

更に、電子黒板は、バスライン210を備えている。バスライン210は、図5に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Furthermore, the electronic blackboard has a bus line 210 . A bus line 210 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 201 shown in FIG.

なお、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。また、電子ペンコントローラ216が、電子ペン290のペン先及びペン尻だけでなく、電子ペン290のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。 In addition, the contact sensor 214 is not limited to the infrared blocking type, but is a capacitive type touch panel that identifies the contact position by detecting a change in capacitance, or identifies the contact position by a voltage change of two opposing resistive films. Various detection means may be used, such as a resistive touch panel that detects an electromagnetic induction generated when a contact object touches the display unit and identifies the contact position. Further, the electronic pen controller 216 may determine whether or not the part of the electronic pen 290 gripped by the user or other parts of the electronic pen is touched, in addition to the tip and the pen butt of the electronic pen 290 .

<機器管理システムの機能構成>
次に、本実施形態における機器管理システムの機能構成の一例について、図6を参照しながら説明する。図6は、本実施形態における機器管理システムに含まれる各装置の機能構成を例示するブロック図である。
<Functional configuration of device management system>
Next, an example of the functional configuration of the device management system according to this embodiment will be described with reference to FIG. FIG. 6 is a block diagram illustrating the functional configuration of each device included in the device management system according to this embodiment.

≪管理装置の機能構成≫
図6に示されているように、本実施形態における管理装置10は、画像受信部11、操作情報受信部12、状態管理部13、動作指示部14及び状態記憶部100を備える。本実施形態における状態管理部13は、物体状態管理部131、機器状態管理部132及び出力情報決定部133を備える。
<<Functional configuration of the management device>>
As shown in FIG. 6 , the management device 10 in this embodiment includes an image reception section 11 , an operation information reception section 12 , a state management section 13 , an operation instruction section 14 and a state storage section 100 . The state management unit 13 in this embodiment includes an object state management unit 131 , a device state management unit 132 and an output information determination unit 133 .

画像受信部11、操作情報受信部12、状態管理部13及び動作指示部14は、例えば、図2に示されているHD504からRAM503上に展開されたプログラムがCPU501及びHDDコントローラ505に実行させる処理によって実現される。 The image receiving unit 11, the operation information receiving unit 12, the state management unit 13, and the operation instructing unit 14 perform, for example, the processing that the CPU 501 and the HDD controller 505 execute the program expanded from the HD 504 shown in FIG. 2 onto the RAM 503. realized by

状態記憶部100は、例えば、図2に示されているHD504を用いて実現される。HD504が記憶するデータの読み込み又は書き込みは、例えば、HDDコントローラ505を介して行われる。 The state storage unit 100 is implemented using, for example, the HD 504 shown in FIG. Reading or writing of data stored in the HD 504 is performed via the HDD controller 505, for example.

状態記憶部100は、管理対象空間R1に存在する機器及び物体の状態を管理する状態管理情報を記憶する。本実施形態における状態管理情報は、登録物体リスト、登録機器リスト及び検出物体リストを含む。 The state storage unit 100 stores state management information for managing the states of devices and objects existing in the managed space R1. The state management information in this embodiment includes a registered object list, a registered device list and a detected object list.

登録物体リストは、管理対象空間R1に存在する物体に関する情報を管理するリストである。本実施形態における物体は、人物である。 The registered object list is a list for managing information on objects existing in the managed space R1. The object in this embodiment is a person.

登録機器リストは、管理対象空間R1に存在する機器に関する情報を管理するリストである。本実施形態における機器は、電子機器30である。 The registered device list is a list for managing information on devices existing in the managed space R1. The device in this embodiment is the electronic device 30 .

検知物体リストは、管理対象空間R1で検知された物体を管理するリストである。検知物体リストは、登録物体リストを更新するために用いられる一時的なリストである。 The detected object list is a list for managing objects detected in the managed space R1. The detected object list is a temporary list used to update the registered object list.

ここで、本実施形態における状態管理情報について、図7を参照しながら説明する。図7(A)は、登録物体リストの一例を示す概念図である。 Here, the state management information in this embodiment will be described with reference to FIG. FIG. 7A is a conceptual diagram showing an example of a registered object list.

図7(A)に示されているように、本実施形態における登録物体リストは、データ項目として、登録物体ID、グループID、存在確認フラグ、属性情報及び機器操作情報を有する。 As shown in FIG. 7A, the registered object list in this embodiment has registered object IDs, group IDs, existence confirmation flags, attribute information, and device operation information as data items.

登録物体IDは、登録物体リストに含まれる物体を識別する識別情報である。 The registered object ID is identification information for identifying an object included in the registered object list.

グループIDは、複数の登録物体が属するグループを識別する識別情報である。グループIDは、登録物体リストに含まれる登録物体の一部が同じグループに属すると判定された場合に付与される。グループに属すると判定されていない登録物体のグループIDは、初期値(例えばゼロ)が設定される。 A group ID is identification information for identifying a group to which a plurality of registered objects belong. A group ID is assigned when it is determined that some of the registered objects included in the registered object list belong to the same group. An initial value (for example, zero) is set as the group ID of a registered object that has not been determined to belong to a group.

グループとは、例えば同僚、親子又は友人である。グループに属するメンバーは共同で会議又は買い物等のジョブを遂行する。そのため、グループを認識することにより人物の行動をより精度よく把握することが期待できる。例えば、MFP及び電子黒板が設置された会議室で複数の社員が会議をするとき、ある社員がMFPで認証を行えば他の社員が電子黒板を使用するときに認証を省略できると利便性が高い。 A group is, for example, colleagues, parents and children, or friends. Members belonging to the group jointly perform jobs such as meeting or shopping. Therefore, by recognizing the group, it is expected that the behavior of the person can be grasped more accurately. For example, when a plurality of employees hold a meeting in a conference room in which an MFP and an electronic blackboard are installed, it would be convenient if one employee authenticates with the MFP so that authentication can be omitted when other employees use the electronic blackboard. expensive.

存在確認フラグは、当該登録物体が管理対象空間R1に存在するか否かを示すフラグである。存在確認フラグは、例えば、存在すれば1、存在しなければ0が設定される。 The existence confirmation flag is a flag indicating whether or not the registered object exists in the managed space R1. For example, the existence confirmation flag is set to 1 if it exists and 0 if it does not exist.

属性情報は、登録物体に付随する情報であって、管理に必要な情報である。本実施形態では、登録物体の位置及び当該位置が確認された時刻(以下、「画像取得時刻」とも呼ぶ)である。登録物体の位置は三次元座標(すなわちX軸、Y軸、Z軸等の直交座標系における各軸上の数値)で表される。 Attribute information is information associated with a registered object and is information necessary for management. In the present embodiment, it is the position of the registered object and the time when the position is confirmed (hereinafter also referred to as "image acquisition time"). The position of a registered object is represented by three-dimensional coordinates (that is, numerical values on each axis in an orthogonal coordinate system such as the X-axis, Y-axis, and Z-axis).

位置情報を取得する方法は監視装置20の種別によって異なる。例えば、監視装置20がネットワークカメラであれば、物体までの距離をステレオカメラで取得し、方向と併せて三次元座標にマッピングする等、公知の技術を用いることができる。 The method of acquiring position information differs depending on the type of monitoring device 20 . For example, if the monitoring device 20 is a network camera, a well-known technique can be used such as acquiring the distance to the object with a stereo camera and mapping it together with the direction to three-dimensional coordinates.

なお、属性情報は、登録物体の位置に加えて、登録物体の特徴を示す種々の情報を含んでもよい。例えば、登録物体の色又は形状を用いることができる。物体が人物である場合、形状は姿勢によって変化するため、色を用いると好適である。色の種類の数又は各色の面積も姿勢によって変化するため、物体が同一か否かを判定する際には、少なくとも1つの色が連続しているか否かを条件とすると好適である。 In addition to the position of the registered object, the attribute information may include various types of information indicating features of the registered object. For example, the color or shape of the registered object can be used. If the object is a person, it is preferable to use color because the shape changes depending on the pose. Since the number of types of colors or the area of each color also changes depending on the posture, it is preferable to use the condition of whether or not at least one color is continuous when determining whether or not the objects are the same.

機器操作情報は、登録物体が行なった機器操作に関する情報である。機器操作情報は、当該機器操作においてユーザが入力した入力情報を含むことがある。機器操作情報は、例えば、ユーザが電子機器で実行した機能、操作時刻、操作の対価としての料金情報、使用言語等である。入力情報は、認証操作における認証情報又は機器設定操作における設定情報等である。 The device operation information is information related to the device operation performed by the registered object. The device operation information may include input information input by the user during the device operation. The device operation information includes, for example, a function executed by the user on the electronic device, operation time, charge information as consideration for the operation, language used, and the like. The input information is authentication information in the authentication operation, setting information in the device setting operation, or the like.

管理対象空間R1に存在する物体の数は時々刻々と変化する。そのため、登録物体リストに含まれる登録物体の数は可変である。 The number of objects existing in the managed space R1 changes from moment to moment. Therefore, the number of registered objects included in the registered object list is variable.

図7(B)は、登録機器リストの一例を示す概念図である。図7(B)に示されているように、本実施形態における登録機器リストは、データ項目として、登録機器ID、属性情報、機器入力情報及び機器出力情報を有する。 FIG. 7B is a conceptual diagram showing an example of the registered device list. As shown in FIG. 7B, the registered device list in this embodiment has registered device IDs, attribute information, device input information, and device output information as data items.

登録機器IDは、登録機器リストに含まれる機器を識別する識別情報である。 The registered device ID is identification information for identifying devices included in the registered device list.

属性情報は、登録機器に付随する情報であって、管理に必要な情報である。本実施形態では、登録機器の位置、電源オン/オフ状況、スリープモード状態か否か、認証要否、オプション搭載状況、メンテナンス中/メンテナンス予定時刻/省エネモード中などの状態情報等である。登録機器の位置は登録物体と同様に三次元座標で表される。 The attribute information is information associated with the registered device and necessary for management. In this embodiment, the information includes the position of the registered device, power on/off status, sleep mode status, whether authentication is required, option installation status, status information such as under maintenance/scheduled maintenance time/in energy saving mode. The position of the registered device is represented by three-dimensional coordinates in the same way as the registered object.

機器入力情報(以下、「使用情報」とも呼ぶ)は、登録機器が操作された場合に管理される所定の情報である。機器入力情報は、当該機器操作においてユーザが入力した入力情報を含むことがある。機器入力情報は、例えば、ユーザにより登録機器で実行された機能、操作時刻、操作の対価として請求すべき料金情報等である。機器入力情報は、当該機器操作においてユーザが設定した画面設定情報を含んでもよい。画面設定情報は、例えば、使用言語、使用文字のフォント、使用文字のサイズ等である。 Device input information (hereinafter also referred to as “usage information”) is predetermined information managed when a registered device is operated. The device input information may include input information entered by the user during the device operation. The device input information includes, for example, the function executed by the user on the registered device, operation time, fee information to be charged as consideration for the operation, and the like. The device input information may include screen setting information set by the user in the device operation. The screen setting information includes, for example, language to be used, font of characters to be used, size of characters to be used, and the like.

機器出力情報は、登録機器に対して予め登録された情報である。機器出力情報は、動作指示を送信する契機となる出力条件、及び当該出力条件が満たされた場合に当該登録機器に送信する動作指示を対応付けるリストである。 The device output information is information registered in advance with respect to the registered device. The device output information is a list that associates an output condition that triggers transmission of an operation instruction and an operation instruction that is transmitted to the registered device when the output condition is satisfied.

管理対象空間R1に設置される機器の数は変化する可能性がある。そのため、登録機器リストに含まれる登録機器の数は可変である。 The number of devices installed in the managed space R1 may change. Therefore, the number of registered devices included in the registered device list is variable.

図7(C)は、検知物体リストの一例を示す概念図である。図7(C)に示されているように、本実施形態における検知物体リストは、データ項目として、検知物体ID、グループID及び属性情報を有する。 FIG. 7C is a conceptual diagram showing an example of the detected object list. As shown in FIG. 7C, the detected object list in this embodiment has detected object IDs, group IDs, and attribute information as data items.

検知物体IDは、検知物体リストに含まれる物体を識別する識別情報である。 The detected object ID is identification information for identifying an object included in the detected object list.

グループIDは、複数の検知物体が含まれるグループを識別する識別情報である。グループIDは、検知物体リストに含まれる検知物体の一部が同じグループに属すると判定された場合に付与される。グループに属すると判定されていない検知物体のグループIDは、初期値(例えばゼロ)が設定される。 A group ID is identification information that identifies a group that includes a plurality of sensed objects. A group ID is assigned when some of the detected objects included in the detected object list are determined to belong to the same group. An initial value (for example, zero) is set as the group ID of a detected object that has not been determined to belong to a group.

属性情報は、検知物体に付随する情報であって、管理に必要な情報である。本実施形態では、検知物体の位置及び画像取得時刻である。検知物体の位置は登録物体と同様に三次元座標で表される。 Attribute information is information associated with a detected object and is information necessary for management. In this embodiment, it is the position of the detected object and the image acquisition time. The position of the detected object is represented by three-dimensional coordinates in the same way as the registered object.

管理対象空間R1で検知される物体の数は時々刻々と変化する。そのため、検知物体リストに含まれる検知物体の数は可変である。 The number of objects detected in the managed space R1 changes from moment to moment. Therefore, the number of detected objects included in the detected object list is variable.

図6に戻って説明する。画像受信部11は、監視装置20から画像を受信する。画像受信部11は、状態管理部13の要求に応じて、受信した画像を状態管理部13に送る。 Returning to FIG. 6, description will be made. The image receiving unit 11 receives images from the monitoring device 20 . The image receiving section 11 sends the received image to the state management section 13 in response to a request from the state management section 13 .

操作情報受信部12は、電子機器30から機器操作情報を受信する。操作情報受信部12は、状態管理部13の要求に応じて、受信した機器操作情報を状態管理部13に送る。 The operation information receiving unit 12 receives device operation information from the electronic device 30 . The operation information receiving unit 12 sends the received device operation information to the state management unit 13 in response to a request from the state management unit 13 .

状態管理部13は、物体状態管理部131及び機器状態管理部132を用いて、電子機器30及び物体の状態を管理する。また、状態管理部13は、出力情報決定部133を用いて、電子機器30に送信する動作指示の内容を決定する。 The state management unit 13 uses the object state management unit 131 and the device state management unit 132 to manage the states of the electronic device 30 and the object. The state management unit 13 also uses the output information determination unit 133 to determine the content of the operation instruction to be transmitted to the electronic device 30 .

物体状態管理部131は、画像受信部11から受け取った画像に基づいて、状態記憶部100に記憶されている登録物体リストを更新する。 The object state management section 131 updates the registered object list stored in the state storage section 100 based on the image received from the image reception section 11 .

機器状態管理部132は、操作情報受信部12から受け取った機器操作情報に基づいて、状態記憶部100に記憶されている登録機器リスト及び登録物体リストを更新する。 The device state management section 132 updates the registered device list and the registered object list stored in the state storage section 100 based on the device operation information received from the operation information reception section 12 .

出力情報決定部133は、状態記憶部100に記憶されている状態管理情報に基づいて、電子機器30に送信する動作指示の内容を決定する。出力情報決定部133は、決定した動作指示を動作指示部14に送る。 The output information determination unit 133 determines the content of the operation instruction to be transmitted to the electronic device 30 based on the state management information stored in the state storage unit 100 . The output information determining section 133 sends the determined action instruction to the action instructing section 14 .

動作指示部14は、状態管理部13から受け取った動作指示を、電子機器30に送信する。 The operation instruction unit 14 transmits the operation instruction received from the state management unit 13 to the electronic device 30 .

≪監視装置の機能構成≫
図6に示されているように、本実施形態における監視装置20は、画像取得部21及び画像送信部22を備える。
≪Functional configuration of the monitoring device≫
As shown in FIG. 6 , the monitoring device 20 in this embodiment includes an image acquisition section 21 and an image transmission section 22 .

画像取得部21は、管理対象空間R1に設置された電子機器30の近傍を含む画像を取得する。画像取得部21は、例えば、図3に示されているROM612からSRAM613上に展開されたプログラムがCPU611及び撮像制御ユニット605に実行させる処理によって実現される。 The image acquisition unit 21 acquires an image including the vicinity of the electronic device 30 installed in the managed space R1. The image acquisition unit 21 is implemented by, for example, processing that causes the CPU 611 and the imaging control unit 605 to execute a program developed on the SRAM 613 from the ROM 612 shown in FIG.

画像送信部22は、画像取得部21が取得した画像を管理装置10に送信する。画像送信部22は、例えば、図3に示されているROM612からSRAM613上に展開されたプログラムがCPU611及び外部機器接続I/F616に実行させる処理によって実現される。 The image transmission unit 22 transmits the image acquired by the image acquisition unit 21 to the management device 10 . The image transmission unit 22 is implemented, for example, by a process that causes the CPU 611 and the external device connection I/F 616 to execute a program developed on the SRAM 613 from the ROM 612 shown in FIG.

≪電子機器の機能構成≫
図6に示されているように、本実施形態における電子機器30は、操作情報送信部31及び機器制御部32を備える。
<<Functional configuration of electronic equipment>>
As shown in FIG. 6 , the electronic device 30 in this embodiment includes an operation information transmission section 31 and a device control section 32 .

操作情報送信部31及び機器制御部32は、例えば、図4に示されているHD909からRAM902b上に展開されたプログラムがCPU901及びHDDコントローラ908に実行させる処理によって実現される。 The operation information transmission unit 31 and the device control unit 32 are realized by, for example, processing that causes the CPU 901 and the HDD controller 908 to execute a program developed on the RAM 902b from the HD 909 shown in FIG.

操作情報送信部31は、ユーザが行った操作に関する機器操作情報を管理装置10に送信する。 The operation information transmission unit 31 transmits to the management device 10 device operation information related to the operation performed by the user.

機器制御部32は、管理装置10から動作指示を受信する。機器制御部32は、受信した動作指示に基づいて、当該電子機器30の動作を制御する。例えば、機器制御部32は、動作指示に含まれる認証情報を用いて、ユーザを認証する。また、例えば、機器制御部32は、動作指示に含まれる設定情報を用いて、当該電子機器30の設定変更を行う。 The device control unit 32 receives operation instructions from the management device 10 . The device control section 32 controls the operation of the electronic device 30 based on the received operation instruction. For example, the device control unit 32 authenticates the user using authentication information included in the operation instruction. Also, for example, the device control unit 32 changes the settings of the electronic device 30 using the setting information included in the operation instruction.

<機器管理方法の処理手順>
次に、本実施形態における機器管理システムが実行する機器管理方法について、図8から図20を参照しながら説明する。
<Processing procedure of device management method>
Next, the device management method executed by the device management system in this embodiment will be described with reference to FIGS. 8 to 20. FIG.

≪基本フローチャート≫
本実施形態における機器管理方法では、あるリストに含まれる各データとあるリストに含まれる各データとのすべての組み合わせについて処理を行う2重ループ処理が多く含まれる。そこで、本実施形態では、2重ループ処理の枠組みを示す基本フローチャートを導入し、以降の説明では基本フローチャート中の処理を中心に説明する。なお、基本フローチャート中の各処理は、2つのデータの組み合わせ1つに対して行う処理である。
≪Basic flow chart≫
The device management method of this embodiment includes many double loop processes for processing all combinations of data included in a list and data included in the list. Therefore, in this embodiment, a basic flowchart showing the framework of double loop processing is introduced, and the following description focuses on the processing in the basic flowchart. Each process in the basic flow chart is a process performed on one combination of two data.

本実施形態における基本フローチャートは、2つの基本フローチャートを含む。第1の基本フローチャートは、異なるリストに含まれる2つのデータを2重ループ処理する場合に使用される。第2の基本フローチャートは、同じリストに含まれる2つのデータを2重ループ処理する場合に使用される。 The basic flowchart in this embodiment includes two basic flowcharts. The first basic flow chart is used when double looping two data contained in different lists. The second basic flow chart is used when double looping two data contained in the same list.

図8は、本実施形態における第1の基本フローチャートの一例を示すフローチャートである。 FIG. 8 is a flow chart showing an example of the first basic flow chart in this embodiment.

ステップS101において、リストAを読み出す。リストAのデータ数はNとする。ステップS102において、リストBを読み出す。リストBのデータ数はMとする。 In step S101, list A is read. Assume that the number of data in list A is N. In step S102, list B is read. Assume that the number of data in the list B is M.

ステップS103において、変数nを1に初期化する。ステップS104において、変数mを1に初期化する。ステップS105において、処理A1を実行する。 In step S103, a variable n is initialized to 1. In step S104, a variable m is initialized to 1. In step S105, processing A1 is executed.

ステップS106において、変数mがデータ数Mと等しいか否かを判定する。これは、リストAのn番目のデータについてリストBのすべてのデータとの組み合わせを処理したか否かを意味する。変数mがデータ数Mと異なる場合(NO)、ステップS107に進む。変数mがデータ数Mと等しい場合(YES)、ステップS109に進む。 In step S106, it is determined whether or not the variable m is equal to the number M of data. This means whether or not the combination of the n-th data of list A with all the data of list B has been processed. If the variable m is different from the number of data M (NO), the process proceeds to step S107. If the variable m is equal to the number of data M (YES), the process proceeds to step S109.

ステップS107において、処理A3を実行する。ステップS108において変数mをインクリメントする。その後、ステップS106に戻る。 In step S107, process A3 is executed. The variable m is incremented in step S108. After that, the process returns to step S106.

ステップS109において、処理A2を実行する。ステップS110において、変数nがデータ数Nと等しいか否かを判定する。これは、リストAのすべてのデータについてリストBのすべてのデータとの組み合わせを処理したか否かを意味する。変数nがデータ数Nと異なる場合(NO)、ステップS111に進む。変数nがデータ数Nと等しい場合(YES)、ステップS113に進む。 In step S109, process A2 is executed. In step S110, it is determined whether or not the variable n is equal to the number N of data. This means whether or not all data in list A have been processed in combination with all data in list B. If the variable n is different from the number of data N (NO), the process proceeds to step S111. If the variable n is equal to the number of data N (YES), the process proceeds to step S113.

ステップS111において、処理A5を実行する。ステップS112において変数nをインクリメントする。その後、ステップS104に戻る。 In step S111, process A5 is executed. In step S112, the variable n is incremented. After that, the process returns to step S104.

ステップS113において、処理A4を実行する。以上により、リストA及びリストBに含まれるデータ同士のすべての組み合わせに対する処理が完了する。 In step S113, process A4 is executed. As described above, the processing for all combinations of data included in list A and list B is completed.

図9は、本実施形態における第2の基本フローチャートの一例を示すフローチャートである。 FIG. 9 is a flow chart showing an example of the second basic flow chart in this embodiment.

ステップS201において、リストAを読み出す。リストAのデータ数はNとする。 In step S201, list A is read. Let N be the number of data in list A.

ステップS202において、変数nを1に初期化する。ステップS203において、変数mにn+1を代入する。ステップS204において、処理B1を実行する。 In step S202, a variable n is initialized to 1. In step S203, n+1 is substituted for variable m. In step S204, process B1 is executed.

ステップS205において、変数mがNと等しいか否かを判定する。これは、リストAのn番目のデータについてリストAのすべてのデータとの組み合わせを処理したか否かを意味する。変数mがNと異なる場合(NO)、ステップS206に進む。変数mがNと等しい場合(YES)、ステップS208に進む。 In step S205, it is determined whether or not the variable m is equal to N. This means whether or not the n-th data in list A has been combined with all the data in list A. If the variable m is different from N (NO), the process proceeds to step S206. If the variable m is equal to N (YES), the process proceeds to step S208.

ステップS206において、処理B3を実行する。ステップS207において変数mをインクリメントする。その後、ステップS204に戻る。 In step S206, process B3 is executed. At step S207, the variable m is incremented. After that, the process returns to step S204.

ステップS208において、処理B2を実行する。ステップS209において、変数nがN-1と等しいか否かを判定する。これは、リストAのすべてのデータについてリストAの他のすべてのデータとの組み合わせを処理したかを意味する。変数nがN-1と異なる場合(NO)、ステップS210に進む。変数nがN-1と等しい場合(YES)、ステップS212に進む。 In step S208, process B2 is executed. In step S209, it is determined whether or not the variable n is equal to N-1. This means that for every data in list A, the combination with every other data in list A has been processed. If the variable n is different from N-1 (NO), the process proceeds to step S210. If the variable n is equal to N-1 (YES), the process proceeds to step S212.

ステップS210において、処理B5を実行する。ステップS211において変数nをインクリメントする。その後、ステップS203に戻る。 In step S210, process B5 is executed. In step S211, the variable n is incremented. After that, the process returns to step S203.

ステップS212において、処理B4を実行する。以上により、リストAに含まれるデータ同士のすべての組み合わせに対する処理が完了する。 In step S212, process B4 is executed. As described above, the processing for all combinations of data included in the list A is completed.

≪機器管理方法≫
図10は、本実施形態における機器管理システムが実行する機器管理方法の一例を示すフローチャートである。
≪Device management method≫
FIG. 10 is a flow chart showing an example of a device management method executed by the device management system according to this embodiment.

機器管理システムは、図10に示すフローチャートを所定の時間間隔で繰り返し実行する。時間間隔は任意に設定すればよいが、例えば、3秒である。 The equipment management system repeatedly executes the flowchart shown in FIG. 10 at predetermined time intervals. The time interval may be set arbitrarily, but is, for example, 3 seconds.

ステップS1において、監視装置20が備える画像取得部21は、電子機器30-1の近傍を撮影した第1の画像を取得する。また、画像取得部21は、電子機器30-2の近傍を撮影した第2の画像を取得する。監視装置20は、管理対象空間R1に設置された電子機器30-1及び電子機器30-2の近傍が画角に入るように設置されている。そのため、画像取得部21が取得する第1の画像には、電子機器30-1の近傍が撮影されている。また、画像取得部21が取得する第2の画像には、電子機器30-2の近傍が撮影されている。 In step S1, the image acquiring unit 21 included in the monitoring device 20 acquires a first image of the vicinity of the electronic device 30-1. Also, the image acquisition unit 21 acquires a second image of the vicinity of the electronic device 30-2. The monitoring device 20 is installed so that the vicinity of the electronic device 30-1 and the electronic device 30-2 installed in the managed space R1 is included in the angle of view. Therefore, in the first image acquired by the image acquisition unit 21, the vicinity of the electronic device 30-1 is photographed. Also, the second image acquired by the image acquisition unit 21 captures the vicinity of the electronic device 30-2.

電子機器30-1又は電子機器30-2の近傍とは、ユーザが当該電子機器30-1又は電子機器30-2を操作可能な位置の範囲(以下、「操作可能位置」とも呼ぶ)である。操作可能位置はユーザが電子機器30-1又は電子機器30-2に手が届く位置である。操作可能位置は例えば電子機器30-1又は電子機器30-2から1メートル以内の位置である。したがって、第1の画像は、電子機器30-1と当該電子機器30-1を利用する利用者とを撮影した画像である。また、第2の画像は、電子機器30-2と当該電子機器30-2を利用する利用者とを撮影した画像である。 The vicinity of the electronic device 30-1 or the electronic device 30-2 is a range of positions where the user can operate the electronic device 30-1 or the electronic device 30-2 (hereinafter also referred to as “operable position”). . The operable position is a position where the user can reach the electronic device 30-1 or the electronic device 30-2. The operable position is, for example, a position within 1 meter from the electronic device 30-1 or the electronic device 30-2. Therefore, the first image is an image of the electronic device 30-1 and the user using the electronic device 30-1. A second image is an image of the electronic device 30-2 and the user using the electronic device 30-2.

電子機器30-1及び電子機器30-2それぞれの操作可能位置が、1枚の画像に撮影可能な場合には、1枚の画像に電子機器30-1及び電子機器30-2それぞれの操作可能位置を撮影してもよい。この場合、第1の画像と第2の画像とは、同一の画像となる。 If the operable positions of the electronic devices 30-1 and 30-2 can be captured in one image, the electronic devices 30-1 and 30-2 can be operated in one image. You can take a picture of the position. In this case, the first image and the second image are the same image.

画像取得部21が取得する第1の画像及び第2の画像は、静止画に限定されず、動画であってもよい。 The first image and the second image acquired by the image acquisition unit 21 are not limited to still images, and may be moving images.

次に、画像取得部21は、取得した第1の画像及び第2の画像を画像送信部22に送る。画像送信部22は、画像取得部21から第1の画像及び第2の画像を受け取る。次に、画像送信部22は、受け取った第1の画像及び第2の画像を管理装置10に送信する。管理装置10では、画像受信部11が、監視装置20から第1の画像及び第2の画像を受信する。 Next, the image acquiring section 21 sends the acquired first image and second image to the image transmitting section 22 . The image transmission section 22 receives the first image and the second image from the image acquisition section 21 . Next, the image transmission unit 22 transmits the received first image and second image to the management device 10 . In the management device 10 , the image receiving section 11 receives the first image and the second image from the monitoring device 20 .

ステップS2において、管理装置10が備える状態管理部13は、画像受信部11に第1の画像及び第2の画像を要求する。次に、状態管理部13は、画像受信部11から受け取った第1の画像及び第2の画像を物体状態管理部131に入力する。 In step S2, the state management unit 13 included in the management device 10 requests the image reception unit 11 for the first image and the second image. Next, the state management unit 13 inputs the first image and the second image received from the image reception unit 11 to the object state management unit 131 .

続いて、物体状態管理部131は、後述する物体状態更新処理を実行し、状態記憶部100に記憶されている状態管理情報の登録物体リストを更新する。監視装置20が複数ある場合、物体状態管理部131は、複数の監視装置20それぞれから受信した複数の画像それぞれについて、物体状態更新処理を実行する。 Subsequently, the object state management unit 131 executes object state update processing, which will be described later, and updates the registered object list of the state management information stored in the state storage unit 100 . When there are multiple monitoring devices 20 , the object state management unit 131 executes object state update processing for each of the multiple images received from each of the multiple monitoring devices 20 .

≪物体状態更新処理≫
ここで、本実施形態における物体状態更新処理について、図11から図16を参照しながら説明する。図11は、本実施形態における物体状態管理部131が実行する物体状態更新処理(図10のステップS2)の一例を示すフローチャートである。
≪Object state update processing≫
Here, object state update processing in the present embodiment will be described with reference to FIGS. 11 to 16. FIG. FIG. 11 is a flowchart showing an example of object state update processing (step S2 in FIG. 10) executed by the object state management unit 131 in this embodiment.

ステップS21において、物体状態管理部131は、後述の検知物体リスト作成処理を実行し、状態管理部13から入力された画像に基づいて、検知物体リストを作成する。 In step S<b>21 , the object state management unit 131 executes detection object list creation processing, which will be described later, and creates a detection object list based on the image input from the state management unit 13 .

図12は、本実施形態における物体状態管理部131が実行する検知物体リスト作成処理(図11のステップS21)の一例を示すフローチャートである。 FIG. 12 is a flow chart showing an example of the detected object list creation process (step S21 in FIG. 11) executed by the object state management unit 131 in this embodiment.

ステップS21-1において、物体状態管理部131は、状態記憶部100に記憶されている検知物体リストをクリアする。すなわち、検知物体リストに含まれるデータをすべて削除する。 In step S21-1, the object state management unit 131 clears the detected object list stored in the state storage unit 100. FIG. That is, all data included in the detected object list are deleted.

ステップS21-2において、物体状態管理部131は、状態管理部13から入力された画像を取得する。画像は、1台の監視装置20から受信した1つの画像でもよく、複数の監視装置20から受信した複数の画像でもよい。 In step S21-2, the object state management section 131 acquires the image input from the state management section 13. FIG. The image may be one image received from one monitoring device 20 or a plurality of images received from a plurality of monitoring devices 20 .

次に、物体状態管理部131は、画像を所定のブロックに分割する。続いて、物体状態管理部131は、ブロック毎に、画像に撮影されている物体とカメラとの距離を測定する。また、物体状態管理部131は、測定した距離から三次元座標を求める。距離から三次元座標に変換する方法は、公知の方法を利用すればよい。 Next, the object state management unit 131 divides the image into predetermined blocks. Subsequently, the object state management unit 131 measures the distance between the object captured in the image and the camera for each block. Also, the object state management unit 131 obtains three-dimensional coordinates from the measured distance. A known method may be used as a method of converting the distance into three-dimensional coordinates.

ステップS21-3において、物体状態管理部131は、取得した画像から画像取得時刻Tを取得する。画像から画像取得時刻が取得できない場合は、現在時刻を画像取得時刻Tとして取得すればよい。 In step S21-3, the object state management unit 131 acquires the image acquisition time T from the acquired image. If the image acquisition time cannot be obtained from the image, the current time may be obtained as the image acquisition time T. FIG.

ステップS21-4において、物体状態管理部131は、取得した画像を解析し、当該画像に撮影されている物体を検知する。本実施形態では、画像に撮影されている人物を検知する。 In step S21-4, the object state management unit 131 analyzes the acquired image and detects the object captured in the image. In this embodiment, a person photographed in an image is detected.

人物の検知は、公知の手法を用いることができる。例えば、機械学習モデルを用いたパターンマッチングを用いることができる。具体的には、公知の領域ベース畳み込みニューラルネットワーク(Region Based Convolutional Neural Networks: R-CNN)等を用いて、画像の中から人物を切り出すことができる。 A known method can be used to detect a person. For example, pattern matching using machine learning models can be used. Specifically, a person can be extracted from an image using a known Region Based Convolutional Neural Network (R-CNN) or the like.

さらに、切り出した人物の画像を、予め記憶されている比較画像とパターンマッチングすることで検知の精度を向上することができる。なお、これら以外にも、公知の様々な人物検知手法を用いることができる。 Furthermore, the accuracy of detection can be improved by performing pattern matching on the clipped image of the person with a pre-stored comparative image. In addition to these, various well-known person detection methods can be used.

ステップS21-5において、物体状態管理部131は、検知した物体を識別する検知物体IDを付与する。 In step S21-5, the object state management unit 131 assigns a detected object ID for identifying the detected object.

ステップS21-6において、物体状態管理部131は、検知物体ID及び属性情報(検知物体の位置及び画像取得時刻)を検知物体リストに登録する。なお、この段階では、グループIDにはグループに属さないことを示す初期値が設定される。 In step S21-6, the object state management unit 131 registers the detected object ID and attribute information (position and image acquisition time of the detected object) in the detected object list. At this stage, the group ID is set to an initial value indicating that it does not belong to any group.

図11に戻って説明する。ステップS22において、物体状態管理部131は、後述の登録物体リスト更新処理を実行し、検知物体リストに基づいて、登録物体リストを更新する。 Returning to FIG. 11, description will be made. In step S22, the object state management unit 131 executes registered object list update processing, which will be described later, and updates the registered object list based on the detected object list.

図13及び図14は、本実施形態における物体状態管理部131が実行する登録物体リスト更新処理(図11のステップS22)の一例を示すフローチャートである。 13 and 14 are flowcharts showing an example of the registered object list update process (step S22 in FIG. 11) executed by the object state management unit 131 in this embodiment.

登録物体リスト更新処理は、第1の基本フローチャート(図8参照)の枠組みで行われる。具体的には、検知物体リストをリストAとし、登録物体リストをリストBとし、検知物体と登録物体のすべての組み合わせについて、処理A1(図13)及び処理A4(図14)を実行する。なお、処理A2、A3及びA5に相当する処理はない。 The registered object list update process is performed within the framework of the first basic flow chart (see FIG. 8). Specifically, the detected object list is set to list A, the registered object list is set to list B, and processing A1 (FIG. 13) and processing A4 (FIG. 14) are executed for all combinations of detected objects and registered objects. There is no process corresponding to the processes A2, A3 and A5.

図13は、登録物体リスト更新処理の処理A1の一例を示すフローチャートである。処理A1は、登録物体と検知物体との同一性を判定し、登録物体の位置を更新するための処理である。 FIG. 13 is a flowchart showing an example of processing A1 of the registered object list update processing. Processing A1 is processing for determining the identity between a registered object and a detected object and updating the position of the registered object.

ここでは、検知物体リストのn番目の検知物体と登録物体リストのm番目の登録物体との組み合わせに対して処理を実行するものとする。 Here, it is assumed that processing is executed for a combination of the n-th detected object in the detected object list and the m-th registered object in the registered object list.

ステップS22-1において、物体状態管理部131は、m番目の登録物体の存在確認フラグをクリアする。すなわち、m番目の登録物体の存在確認フラグに0を設定する。これは、当該登録物体が管理対象空間R1に存在するか否かが不明であることを意味する。 In step S22-1, the object state management unit 131 clears the existence confirmation flag of the m-th registered object. That is, 0 is set to the existence confirmation flag of the m-th registered object. This means that it is unknown whether or not the registered object exists in the managed space R1.

ステップS22-2において、物体状態管理部131は、m番目の登録物体の三次元座標とn番目の検知物体の三次元座標との距離Xを計算する。 In step S22-2, the object state management unit 131 calculates the distance X between the three-dimensional coordinates of the m-th registered object and the three-dimensional coordinates of the n-th detected object.

ステップS22-3において、物体状態管理部131は、距離Xが所定の閾値(例えば、1メートル)以下であるか否かを判定する。距離Xが閾値を超えている場合(NO)、物体状態管理部131は、処理A1を終了する。これは、両者の距離が離れているため、同一の人物ではないと判断されたことを意味する。距離Xが閾値以下である場合(YES)、物体状態管理部131は、ステップS22-4に処理を進める。 In step S22-3, the object state management unit 131 determines whether or not the distance X is less than or equal to a predetermined threshold value (eg, 1 meter). If the distance X exceeds the threshold (NO), the object state management unit 131 terminates the processing A1. This means that it is determined that they are not the same person because they are far apart. If the distance X is equal to or less than the threshold (YES), the object state management section 131 advances the process to step S22-4.

ステップS22-4において、物体状態管理部131は、m番目の登録物体の属性情報に、n番目の検知物体の三次元位置及び映像取得時刻を追加する。これは、両者の距離が近いため、同一の人物であり、n番目の検知物体の位置がm番目の登録物体の画像取得時刻Tにおける位置であると判断されたことを意味する。 In step S22-4, the object state management unit 131 adds the three-dimensional position and video acquisition time of the n-th detected object to the attribute information of the m-th registered object. This means that it is determined that they are the same person and that the position of the n-th detected object is the position at the image acquisition time T of the m-th registered object because the distance between the two is close.

登録物体リストの属性情報は、画像から当該登録物体が検知される限り、物体状態更新処理を実行する度に増えていくことになる。逆に言うと、登録物体リストの属性情報は、当該登録物体が管理対象空間内で検知された位置の時系列を表す。したがって、登録物体リストの属性情報により、当該登録物体の移動を追跡することができる。 The attribute information of the registered object list increases each time the object state update process is executed as long as the registered object is detected from the image. Conversely, the attribute information of the registered object list represents the time series of positions at which the registered object is detected within the managed space. Therefore, it is possible to trace the movement of the registered object using the attribute information of the registered object list.

ステップS22-5において、物体状態管理部131は、m番目の登録物体の存在確認フラグをセットする。すなわち、m番目の登録物体の存在確認フラグに1を設定する。これは、ステップS22-3で登録物体と一致する物体が検知されたため、当該登録物体が画像取得時刻Tにおいても管理対象空間R1に存在すると判定されたことを意味する。 In step S22-5, the object state management unit 131 sets the presence confirmation flag of the m-th registered object. That is, 1 is set to the existence confirmation flag of the m-th registered object. This means that since an object matching the registered object was detected in step S22-3, it was determined that the registered object existed in the managed space R1 at the image acquisition time T as well.

図14は、登録物体リスト更新処理の処理A4の一例を示すフローチャートである。処理A4は、処理A1において存在が確認できなかった登録物体を登録物体リストから削除する処理である。 FIG. 14 is a flowchart showing an example of processing A4 of the registered object list update processing. A process A4 is a process of deleting a registered object whose existence could not be confirmed in the process A1 from the registered object list.

ステップS22-6において、物体状態管理部131は、変数mを1に初期化する。 In step S22-6, the object state management unit 131 initializes the variable m to 1.

ステップS22-7において、物体状態管理部131は、m番目の登録物体の存在が確認できたか否かを判定する。具体的には、存在確認フラグが1であるか0であるかを判定する。存在確認フラグが1である場合(YES)、物体状態管理部131は、ステップS22-9に処理を進める。存在確認フラグが0である場合(NO)、物体状態管理部131は、ステップS22-8に処理を進める。 In step S22-7, the object state management unit 131 determines whether or not the existence of the m-th registered object has been confirmed. Specifically, whether the presence confirmation flag is 1 or 0 is determined. If the existence confirmation flag is 1 (YES), the object state management unit 131 advances the process to step S22-9. If the existence confirmation flag is 0 (NO), the object state management unit 131 advances the process to step S22-8.

ステップS22-8において、物体状態管理部131は、m番目の登録物体を登録物体リストから削除する。 In step S22-8, the object state management unit 131 deletes the m-th registered object from the registered object list.

ステップS22-9において、物体状態管理部131は、変数mがデータ数Mと等しいか否かを判定する。変数mがデータ数Mと異なる場合(NO)、物体状態管理部131は、ステップS22-10に処理を進める。変数mがデータ数Mと等しい場合(YES)、物体状態管理部131は、処理を終了する。 In step S22-9, the object state management unit 131 determines whether or not the variable m is equal to the number M of data. If the variable m is different from the number of data M (NO), the object state management unit 131 advances the process to step S22-10. If the variable m is equal to the number of data M (YES), the object state management unit 131 terminates the process.

ステップS22-10において、物体状態管理部131は、変数mをインクリメントする。その後、物体状態管理部131は、ステップS22-7に処理を戻す。 At step S22-10, the object state manager 131 increments the variable m. After that, the object state management unit 131 returns the process to step S22-7.

図11に戻って説明する。ステップS23において、物体状態管理部131は、後述のグループID付与処理を実行し、登録物体リストに含まれる登録物体にグループIDを付与する。 Returning to FIG. 11, description will be made. In step S23, the object state management unit 131 executes group ID assignment processing, which will be described later, and assigns group IDs to registered objects included in the registered object list.

グループID付与処理は、第2の基本フローチャート(図9参照)の枠組みで行われる。具体的には、登録物体リストをリストAとし、2つの登録物体のすべての組み合わせについて、処理B1(図15又は図16)を実行する。なお、処理B2-B5に相当する処理はない。 The group ID assigning process is performed within the framework of the second basic flow chart (see FIG. 9). Specifically, the registered object list is set to list A, and processing B1 (FIG. 15 or 16) is executed for all combinations of two registered objects. Note that there is no process corresponding to the processes B2-B5.

ある物体と他の物体とが同じグループに含まれるか否かを判定する処理は、様々な手法が考えられる。本実施形態では、位置近接によるグループ判定及びグループ行為によるグループ判定を説明する。ただし、グループ判定の手法はこれらに限定されず、画像から物体のグループ判定が可能な技術であれば、どのようなものを用いてもよい。 Various methods are conceivable for the process of determining whether a certain object and another object are included in the same group. In this embodiment, group determination based on positional proximity and group determination based on group actions will be described. However, the method of group determination is not limited to these, and any technique may be used as long as it enables group determination of objects from an image.

図15は、本実施形態における物体状態管理部131が実行するグループID付与処理(図11のステップS23)の第1の例を示すフローチャートである。グループID付与処理の第1の例は、位置近接によるグループ判定である。 FIG. 15 is a flow chart showing a first example of the group ID assigning process (step S23 in FIG. 11) executed by the object state management unit 131 in this embodiment. A first example of group ID assignment processing is group determination based on positional proximity.

位置近接によるグループ判定は、直近の所定回数連続して近接した位置で検知された2つの物体をグループとして登録する処理である。所定回数は、例えば5回である。機器管理方法を実行する時間間隔を3秒とすれば、15秒間連続して近接した位置で検知された2つの物体が同じグループとして判定されることになる。 Group determination based on positional proximity is a process of registering as a group two objects that have been detected at positions that have been close to each other for a predetermined number of times in a row. The predetermined number of times is, for example, five times. Assuming that the time interval for executing the device management method is 3 seconds, two objects detected at close positions continuously for 15 seconds are determined to belong to the same group.

ここでは、登録物体リストのm番目の登録物体とn番目の登録物体との組み合わせに対して処理を実行するものとする。 Here, it is assumed that the processing is executed for the combination of the m-th registered object and the n-th registered object in the registered object list.

ステップS23A-1において、物体状態管理部131は、変数k及び変数jを1に初期化する。変数kは2つの物体が近接しているか否かを判定した回数を表すカウンタである。変数jは2つの物体が近接していると判定された回数を表すカウンタである。 In step S23A-1, the object state management unit 131 initializes variables k and j to one. Variable k is a counter representing the number of times it is determined whether two objects are close to each other. Variable j is a counter representing the number of times two objects are determined to be close.

ステップS23A-2において、物体状態管理部131は、m番目の登録物体のk回前の三次元座標とn番目の登録物体のk回前の三次元座標との距離Xを計算する。 In step S23A-2, the object state management unit 131 calculates the distance X between the three-dimensional coordinates of the m-th registered object k times before and the three-dimensional coordinates of the n-th registered object k times ago.

ステップS23A-3において、物体状態管理部131は、距離Xが所定の閾値(例えば、1メートル)未満であるか否かを判定する。距離Xが閾値未満である場合(YES)、物体状態管理部131は、ステップS23A-4に処理を進める。距離Xが閾値以上である場合(NO)、物体状態管理部131は、ステップS23A-5に処理を進める。 At step S23A-3, the object state management unit 131 determines whether or not the distance X is less than a predetermined threshold value (eg, 1 meter). If the distance X is less than the threshold (YES), the object state management section 131 advances the process to step S23A-4. If the distance X is equal to or greater than the threshold (NO), the object state management section 131 advances the process to step S23A-5.

ステップS23A-4において、物体状態管理部131は、変数jをインクリメントする。 At step S23A-4, the object state manager 131 increments the variable j.

ステップS23A-5において、物体状態管理部131は、変数kをインクリメントする。 At step S23A-5, the object state manager 131 increments the variable k.

ステップS23A-6において、物体状態管理部131は、変数kが所定回数Kと等しいか否かを判定する。変数kが所定回数Kと異なる場合(NO)、物体状態管理部131は、ステップS23A-2に処理を戻す。変数kが所定回数Kと等しい場合(YES)、物体状態管理部131は、ステップS23A-7に処理を進める。 In step S23A-6, the object state management unit 131 determines whether or not the variable k is equal to the predetermined number of times K. If the variable k is different from the predetermined number of times K (NO), the object state management section 131 returns the process to step S23A-2. If the variable k is equal to the predetermined number of times K (YES), the object state management unit 131 advances the process to step S23A-7.

ステップS23A-7において、物体状態管理部131は、変数jが所定回数Kと等しいか否かを判定する。変数jが所定回数Kと異なる場合(NO)、物体状態管理部131は、処理を終了する。変数jが所定回数Kと等しい場合(YES)、物体状態管理部131は、ステップS23A-8に処理を進める。 At step S23A-7, the object state management unit 131 determines whether or not the variable j is equal to the predetermined number of times K. If the variable j is different from the predetermined number of times K (NO), the object state management unit 131 terminates the process. If the variable j is equal to the predetermined number of times K (YES), the object state management unit 131 advances the process to step S23A-8.

ステップS23A-8において、物体状態管理部131は、m番目の登録物体及びn番目の登録物体のいずれかにグループIDが付与されているか否かを判定する。グループIDが付与されている場合(YES)、物体状態管理部131は、ステップS23A-9に処理を進める。グループIDが付与されていない場合(NO)、物体状態管理部131は、ステップS23A-10に処理を進める。 In step S23A-8, the object state management unit 131 determines whether or not a group ID is assigned to either the m-th registered object or the n-th registered object. If a group ID has been assigned (YES), the object state management unit 131 advances the process to step S23A-9. If no group ID has been assigned (NO), the object state management unit 131 advances the process to step S23A-10.

ステップS23A-9において、物体状態管理部131は、m番目の登録物体及びn番目の登録物体に付与されているグループIDのいずれかを、付与するグループIDとして決定する。次に、物体状態管理部131は、登録物体リストにおいて、m番目の登録物体及びn番目の登録物体のグループIDに、決定したグループIDを設定する。 In step S23A-9, the object state management unit 131 determines one of the group IDs assigned to the m-th registered object and the n-th registered object as the group ID to be assigned. Next, the object state management unit 131 sets the determined group IDs as the group IDs of the m-th registered object and the n-th registered object in the registered object list.

物体状態管理部131は、以下のようにして付与するグループIDを決定する。一方の登録物体のみにグループIDが付与されている場合、当該グループIDを付与するグループIDとする。すなわち、グループIDが付与されていない登録物体が既存のグループのメンバーに追加される。 The object state management unit 131 determines group IDs to be assigned as follows. If a group ID is assigned to only one registered object, the group ID is assigned as the group ID. That is, a registered object to which a group ID is not assigned is added as a member of an existing group.

両方の登録物体にグループIDが付与されている場合、まず、m+1番目以降の登録物体をグループIDでソートしてm番目の登録物体と同じグループIDを持つ登録物体を特定する。次に、m番目の登録物体及び特定された全ての登録物体のグループIDをn番目の登録物体のグループIDで更新する。これにより、m番目の登録物体が属するグループのメンバーすべてがn番目の登録物体と同じグループに属することになる。これにより、3つ以上の登録物体が属するグループも把握できるようになる。 When group IDs are assigned to both registered objects, first, the registered objects after the (m+1)th registered object are sorted by group ID to identify the registered object having the same group ID as the m-th registered object. Next, the group IDs of the m-th registered object and all identified registered objects are updated with the group ID of the n-th registered object. As a result, all members of the group to which the m-th registered object belongs belong to the same group as the n-th registered object. This makes it possible to grasp groups to which three or more registered objects belong.

ステップS23A-10において、物体状態管理部131は、他のグループIDと重複しない新たなグループIDを発行する。次に、物体状態管理部131は、登録物体リストにおいて、m番目の登録物体及びn番目の登録物体のグループIDに、発行した新たなグループIDを設定する。 At step S23A-10, the object state management unit 131 issues a new group ID that does not overlap with other group IDs. Next, the object state management unit 131 sets the issued new group IDs to the group IDs of the m-th registered object and the n-th registered object in the registered object list.

図16は、本実施形態における物体状態管理部131が実行するグループID付与処理(図11のステップS23)の第2の例を示すフローチャートである。グループID付与処理の第2の例は、グループ行為によるグループ判定である。 FIG. 16 is a flow chart showing a second example of the group ID assigning process (step S23 in FIG. 11) executed by the object state management unit 131 in this embodiment. A second example of group ID assignment processing is group determination based on group actions.

グループ行為によるグループ判定は、検知物体リストを作成した後に画像解析によってグループ判定を行う処理である。そのため、グループ行為によるグループ判定を行う場合、ステップS23は、ステップS21とステップS22の間で実行される。 Group determination by group action is a process of performing group determination by image analysis after creating a detection object list. Therefore, when performing group determination by group action, step S23 is performed between step S21 and step S22.

ここでは、検知物体リストのm番目の検知物体とn番目の検知物体との組み合わせに対して処理を実行するものとする。 Here, it is assumed that processing is executed for a combination of the m-th detected object and the n-th detected object in the detected object list.

ステップS23B-1において、物体状態管理部131は、n番目の検知物体の三次元座標とm番目の検知物体の三次元座標との距離Xを計算する。 In step S23B-1, the object state management unit 131 calculates the distance X between the three-dimensional coordinates of the n-th detected object and the m-th detected object.

ステップS23B-2において、物体状態管理部131は、距離Xが所定の閾値(例えば、1メートル)未満であるか否かを判定する。距離Xが閾値以上である場合(NO)、物体状態管理部131は、処理を終了する。距離Xが閾値未満である場合(YES)、物体状態管理部131は、ステップS23B-3に処理を進める。 In step S23B-2, the object state management unit 131 determines whether or not the distance X is less than a predetermined threshold value (eg, 1 meter). If the distance X is greater than or equal to the threshold (NO), the object state management section 131 terminates the process. If the distance X is less than the threshold (YES), the object state management section 131 advances the process to step S23B-3.

ステップS23B-3において、物体状態管理部131は、n番目の検知物体の三次元座標とm番目の検知物体の三次元座標との中点を計算する。具体的には、物体状態管理部131は、2つの検知物体のX座標、Y座標及びZ座標それぞれの和を2で除算する。 In step S23B-3, the object state management unit 131 calculates the midpoint between the three-dimensional coordinates of the n-th detected object and the three-dimensional coordinates of the m-th detected object. Specifically, the object state management unit 131 divides the sum of the X coordinates, Y coordinates, and Z coordinates of the two detected objects by two.

ステップS23B-4において、物体状態管理部131は、中点を中心とした半径Yピクセルの映像Pを抽出する。半径Yは映像の解像度に応じて、映像Pに含まれる範囲が実空間における距離で約1mとなるように設定される。 In step S23B-4, the object state management section 131 extracts the image P with a radius of Y pixels centered on the midpoint. The radius Y is set according to the resolution of the image so that the range included in the image P is approximately 1 m in real space.

ステップS23B-5において、物体状態管理部131は、予め記憶されているグループ行為画像を読み出す。グループ行為画像は、同じグループに属すると判定される行為を表す画像の集合である。例えば、2人の人物が挨拶又は握手等を行っている画像等である。 In step S23B-5, the object state management section 131 reads out a pre-stored group action image. A group action image is a set of images representing actions determined to belong to the same group. For example, it is an image of two people greeting or shaking hands.

ステップS23B-6において、物体状態管理部131は、映像Pとグループ行為画像それぞれとの類似度をパターンマッチング等により計算する。 In step S23B-6, the object state management section 131 calculates the degree of similarity between the video P and each group action image by pattern matching or the like.

ステップS23B-7において、物体状態管理部131は、計算した類似度の中に所定の閾値を超えるものがあるか否かを判定する。閾値を超える類似度がある場合(YES)、物体状態管理部131は、ステップS23B-8に処理を進める。閾値を超える類似度がない場合(NO)、物体状態管理部131は、処理を終了する。 In step S23B-7, the object state management unit 131 determines whether or not any of the calculated similarities exceeds a predetermined threshold. If there is a degree of similarity exceeding the threshold (YES), the object state management unit 131 advances the process to step S23B-8. If the degree of similarity does not exceed the threshold (NO), the object state management unit 131 terminates the process.

ステップS23B-8において、物体状態管理部131は、他のグループIDと重複しない新たなグループIDを発行する。次に、物体状態管理部131は、検知物体リストにおいて、m番目の検知物体及びn番目の検知物体のグループIDに、発行した新たなグループIDを設定する。 In step S23B-8, the object state management unit 131 issues a new group ID that does not overlap with other group IDs. Next, the object state management unit 131 sets the issued new group IDs to the group IDs of the m-th detected object and the n-th detected object in the detected object list.

その後に実行される登録物体リスト更新処理のステップS22-4(図13参照)において、物体状態管理部131は、登録物体のグループIDに、同一の物体と判定された検知物体のグループIDを設定する。なお、登録物体に既存のグループIDが付与されている場合、グループID付与処理の第1の例のステップS23A-8からステップS23A-10(図15参照)が実行される。 In step S22-4 (see FIG. 13) of the registered object list update process executed thereafter, the object state management unit 131 sets the group ID of the detected object determined to be the same object as the group ID of the registered object. do. Note that when an existing group ID is assigned to the registered object, steps S23A-8 to S23A-10 (see FIG. 15) of the first example of the group ID assignment process are executed.

図10に戻って説明する。ステップS3において、電子機器30-1が備える操作情報送信部31は、ユーザが当該電子機器30-1で行った操作に応じて、操作内容が管理装置10に通知すべき情報であるか否かを判定する。この判定は、予め定めた操作内容のいずれかと合致するか否かにより行われる。 Returning to FIG. 10, description will be made. In step S3, the operation information transmission unit 31 provided in the electronic device 30-1 determines whether or not the operation content is information to be notified to the management device 10 in accordance with the operation performed by the user on the electronic device 30-1. judge. This determination is made based on whether or not it matches with any of the predetermined operation contents.

操作情報送信部31は、通知すべき操作内容であると判定した場合、機器操作に関する機器操作情報を管理装置10に送信する。管理装置10では、操作情報受信部12が、電子機器30-1から機器操作情報を受信する。 When the operation information transmission unit 31 determines that the operation content should be notified, the operation information transmission unit 31 transmits the device operation information related to the device operation to the management device 10 . In the management device 10, the operation information receiving section 12 receives the device operation information from the electronic device 30-1.

本実施形態における操作内容及び操作情報を、以下に例示する。 Operation details and operation information in this embodiment are exemplified below.

<例1>
操作内容:機器ログイン
操作情報:登録機器ID、機器認証ID(認証が要求される場合)、ログイン時刻
<Example 1>
Operation details: Device login Operation information: Registered device ID, device authentication ID (if authentication is required), login time

<例2>
操作内容:料金が発生する処理(コピー出力、従量課金型ソフトウェアの使用等)
操作情報:登録機器ID、機器認証ID(認証が要求される場合)、料金、入力データ、使用言語
<Example 2>
Operation details: Processing that incurs charges (copy output, usage of pay-as-you-go software, etc.)
Operation information: registered device ID, device authentication ID (if authentication is required), fee, input data, language used

<例3>
操作内容:無し
操作情報:メンテナンス、省エネモード中などの状態情報
<Example 3>
Operation details: None Operation information: Status information such as maintenance and energy saving mode

登録機器IDとは、管理装置10の状態記憶部100に記憶されている登録機器リストに含まれる識別情報である。登録機器IDは、管理対象空間R1に設置されている電子機器30それぞれに割り振られている。機器認証IDは、電子機器30のユーザが当該電子機器30を使用するための認証に用いる認証情報である。 A registered device ID is identification information included in a registered device list stored in the state storage unit 100 of the management device 10 . A registered device ID is assigned to each electronic device 30 installed in the managed space R1. The device authentication ID is authentication information used for authentication for the user of the electronic device 30 to use the electronic device 30 .

ステップS4において、管理装置10が備える状態管理部13は、操作情報受信部12に操作情報を要求する。次に、状態管理部13は、操作情報受信部12から受け取った操作情報を機器状態管理部132に入力する。 In step S4, the state management unit 13 included in the management device 10 requests the operation information reception unit 12 for operation information. Next, the state management section 13 inputs the operation information received from the operation information reception section 12 to the device state management section 132 .

続いて、機器状態管理部132は、後述する機器状態更新処理を実行し、状態記憶部100に記憶されている状態管理情報の登録機器リストを更新する。 Subsequently, the device state management unit 132 executes device state update processing, which will be described later, and updates the registered device list of the state management information stored in the state storage unit 100 .

≪機器状態更新処理≫
ここで、本実施形態における機器状態更新処理について、図17を参照しながら説明する。図17は、本実施形態における機器状態管理部132が実行する機器状態更新処理(図10のステップS4)の一例を示すフローチャートである。
≪Device status update processing≫
Here, device status update processing in this embodiment will be described with reference to FIG. 17 . FIG. 17 is a flow chart showing an example of the device status update process (step S4 in FIG. 10) executed by the device status management unit 132 in this embodiment.

ステップS41において、機器状態管理部132は、機器操作情報に含まれる登録機器IDにより登録機器リストに含まれる登録機器を特定する。次に、機器状態管理部132は、特定された登録機器の機器入力情報に、受け取った機器操作情報を設定する。 In step S41, the device status management unit 132 identifies the registered device included in the registered device list by the registered device ID included in the device operation information. Next, the device state management unit 132 sets the received device operation information to the device input information of the specified registered device.

ステップS42において、機器状態管理部132は、変数nを1に初期化する。 In step S42, the device state management unit 132 initializes the variable n to 1.

ステップS43において、機器状態管理部132は、特定された登録機器の三次元座標とn番目の登録物体の最新の三次元座標との距離Xを計算する。なお、登録機器の三次元座標は、登録物体の三次元座標と同様の手法により予め設定しておく。登録機器の設置位置が移動される場合もあるため、定期的に登録機器の三次元座標を更新する必要があるが、更新頻度は低くてもよい。 In step S43, the device state management unit 132 calculates the distance X between the three-dimensional coordinates of the identified registered device and the latest three-dimensional coordinates of the n-th registered object. Note that the three-dimensional coordinates of the registered device are set in advance by the same method as for the three-dimensional coordinates of the registered object. Since the installation position of the registered device may be moved, it is necessary to periodically update the three-dimensional coordinates of the registered device, but the update frequency may be low.

ステップS44において、機器状態管理部132は、距離Xが所定の閾値(例えば、1メートル)未満であるか否かを判定する。距離Xが閾値以上である場合(NO)、機器状態管理部132は、ステップS47に処理を進める。距離Xが閾値未満である場合(YES)、機器状態管理部132は、ステップS45に処理を進める。 In step S44, the device state management unit 132 determines whether or not the distance X is less than a predetermined threshold (for example, 1 meter). When the distance X is equal to or greater than the threshold (NO), the device state management section 132 advances the processing to step S47. If the distance X is less than the threshold (YES), the device state management unit 132 advances the process to step S45.

ステップS45において、機器状態管理部132は、n番目の登録物体の機器操作情報に、特定された登録機器の機器入力情報を追加する。登録物体リストの機器操作情報は、所定数の機器入力情報を格納可能に構成されている。 In step S45, the device state management unit 132 adds the device input information of the specified registered device to the device operation information of the n-th registered object. The device operation information of the registered object list is configured to be able to store a predetermined number of device input information.

ステップS46において、機器状態管理部132は、変数nがデータ数Nと等しいか否かを判定する。変数nがデータ数Nと異なる場合(NO)、機器状態管理部132は、ステップS47に処理を進める。変数nがデータ数Nと等しい場合(YES)、機器状態管理部132は、処理を終了する。 In step S46, the device state management unit 132 determines whether or not the variable n is equal to the number N of data. If the variable n is different from the number of data N (NO), the device state management unit 132 advances the process to step S47. If the variable n is equal to the number of data N (YES), the device state management unit 132 terminates the process.

ステップS47において、機器状態管理部132は、変数nをインクリメントする。その後、機器状態管理部132は、ステップS43に処理を戻す。 In step S47, the device state management unit 132 increments the variable n. After that, the device state management unit 132 returns the processing to step S43.

図10に戻って説明する。ステップS5において、管理装置10が備える出力情報決定部133は、後述する出力情報決定処理を実行し、状態記憶部100に記憶されている状態管理情報に基づいて電子機器30に送信する動作指示を決定する。 Returning to FIG. 10, description will be made. In step S5, the output information determination unit 133 included in the management device 10 executes output information determination processing, which will be described later, and issues an operation instruction to be transmitted to the electronic device 30 based on the state management information stored in the state storage unit 100. decide.

≪出力情報決定処理≫
ここで、本実施形態における出力情報決定処理について、図18及び図19を参照しながら説明する。図18は、本実施形態における出力情報決定部133が実行する出力情報決定処理(図10のステップS5)の一例を示すフローチャートである。
<<Output information determination process>>
Here, the output information determination process in this embodiment will be described with reference to FIGS. 18 and 19. FIG. FIG. 18 is a flowchart showing an example of output information determination processing (step S5 in FIG. 10) executed by the output information determination unit 133 in this embodiment.

出力情報決定処理は、第1の基本フローチャート(図8参照)の枠組みで行われる。具体的には、登録機器リストをリストAとし、登録物体リストをリストBとし、登録機器と登録物体のすべての組み合わせについて、処理A1(図18)を実行する。なお、処理A2-A5に相当する処理はない。 The output information determination process is performed within the framework of the first basic flow chart (see FIG. 8). Specifically, the registered device list is set to list A, the registered object list is set to list B, and processing A1 (FIG. 18) is executed for all combinations of registered devices and registered objects. Note that there is no process corresponding to the processes A2-A5.

ここでは、登録機器リストのn番目の登録機器と登録物体リストのm番目の登録物体との組み合わせに対して処理を実行するものとする。 Here, it is assumed that the processing is executed for the combination of the n-th registered device in the registered device list and the m-th registered object in the registered object list.

ステップS51において、出力情報決定部133は、n番目の登録機器の最新の三次元座標とm番目の登録物体の最新の三次元座標との距離Xを計算する。 In step S51, the output information determination unit 133 calculates the distance X between the latest three-dimensional coordinates of the n-th registered device and the latest three-dimensional coordinates of the m-th registered object.

ステップS52において、出力情報決定部133は、距離Xが所定の閾値(例えば、1メートル)未満であるか否かを判定する。距離Xが閾値以上である場合(NO)、機器状態管理部132は、処理を終了する。距離Xが閾値未満である場合(YES)、機器状態管理部132は、ステップS53に処理を進める。 In step S52, the output information determination unit 133 determines whether or not the distance X is less than a predetermined threshold (for example, 1 meter). If the distance X is greater than or equal to the threshold (NO), the device state management section 132 terminates the process. If the distance X is less than the threshold (YES), the device state management unit 132 advances the process to step S53.

ステップS53において、出力情報決定部133は、状態記憶部100に記憶されている登録機器リストから、n番目の登録機器の機器出力情報に含まれる出力条件を取得する。 In step S<b>53 , the output information determination unit 133 acquires the output condition included in the device output information of the n-th registered device from the registered device list stored in the state storage unit 100 .

ステップS54において、出力情報決定部133は、状態記憶部100に記憶されている登録物体リストから、m番目の登録物体の機器操作情報を取得する。 In step S<b>54 , the output information determination unit 133 acquires the device operation information of the m-th registered object from the registered object list stored in the state storage unit 100 .

ステップS55において、出力情報決定部133は、ステップS54で取得した機器操作情報のいずれかが、ステップS53で取得した出力条件を満たすか否かを判定する。機器操作情報のすべてが出力条件を満たさない場合、(NO)、機器状態管理部132は、処理を終了する。機器操作情報のいずれかが出力条件を満たす場合(YES)、機器状態管理部132は、ステップS56に処理を進める。 In step S55, the output information determination unit 133 determines whether or not any of the device operation information acquired in step S54 satisfies the output condition acquired in step S53. If none of the device operation information satisfies the output condition (NO), the device state management unit 132 terminates the process. If any of the device operation information satisfies the output condition (YES), the device state management unit 132 advances the process to step S56.

ステップS56において、出力情報決定部133は、n番目の登録機器の機器出力情報からステップS53で取得した出力条件に対応する動作指示を取得する。なお、登録機器の動作指示には、登録機器の属性情報に応じて適応的に処理を行なうものが含まれていてもよい。例えば、登録機器が動作できない状態であるときは動作指示を送信しないといった条件を含めてもよい。動作できない状態とは、例えば、電源オフ状態又は休止状態等である。 In step S56, the output information determination unit 133 acquires an operation instruction corresponding to the output condition acquired in step S53 from the device output information of the n-th registered device. It should be noted that the operation instruction of the registered device may include an adaptive process according to the attribute information of the registered device. For example, a condition may be included such that the operation instruction is not transmitted when the registered device is in an inoperable state. The inoperable state is, for example, a power-off state, a resting state, or the like.

図19は、本実施形態における出力情報決定部133が実行する出力条件判定処理(図18のステップS55)の変形例を示すフローチャートである。 FIG. 19 is a flow chart showing a modification of the output condition determination process (step S55 in FIG. 18) executed by the output information determination unit 133 in this embodiment.

図18に示した出力情報決定処理では、ステップS55においてm番目の登録物体の機器操作情報のみに基づいて出力条件を満たすか否かを判定した。図19に示した出力情報決定処理では、m番目の登録機器以外の機器操作情報を参照し出力条件を満たすか否かを判定する。 In the output information determination process shown in FIG. 18, in step S55, it is determined whether or not the output condition is satisfied based only on the device operation information of the m-th registered object. In the output information determination process shown in FIG. 19, it is determined whether or not the output condition is satisfied by referring to the device operation information of devices other than the m-th registered device.

ステップS55-1において、出力情報決定部133は、m番目の登録物体の機器操作情報のいずれかが、n番目の登録機器の出力条件を満たすか否かを判定する。機器操作情報のいずれかが出力条件を満たす場合(YES)、出力情報決定部133は、ステップS55-10に処理を進める。機器操作情報のすべてが出力条件を満たさない場合(NO)、出力情報決定部133は、ステップS55-2に処理を進める。 In step S55-1, the output information determination unit 133 determines whether or not any of the device operation information of the m-th registered object satisfies the output condition of the n-th registered device. If any of the device operation information satisfies the output condition (YES), the output information determining section 133 advances the process to step S55-10. If none of the device operation information satisfies the output condition (NO), the output information determination unit 133 advances the process to step S55-2.

ステップS55-2において、出力情報決定部133は、n番目の登録機器の出力条件に基づいて、他の登録物体の機器操作情報が必要か否かを判定する。他の登録物体の機器操作情報が必要な場合(YES)、出力情報決定部133は、ステップS55-3に処理を進める。他の登録物体の機器操作情報が不要な場合(NO)、出力情報決定部133は、ステップS55-9に処理を進める。 In step S55-2, the output information determination unit 133 determines whether device operation information of another registered object is necessary based on the output condition of the n-th registered device. If the device operation information of another registered object is required (YES), the output information determination unit 133 advances the process to step S55-3. If the device operation information of other registered objects is unnecessary (NO), the output information determination unit 133 advances the process to step S55-9.

ステップS55-3において、出力情報決定部133は、変数kを1に初期化する。 In step S55-3, the output information determination unit 133 initializes the variable k to one.

ステップS55-4において、出力情報決定部133は、変数kが変数mと等しいか否かを判定する。変数kが変数mと等しい場合(YES)、出力情報決定部133は、ステップS55-5に処理を進める。変数kが変数mと等しくない場合(NO)、出力情報決定部133は、ステップS55-7に処理を進める。 In step S55-4, the output information determination unit 133 determines whether or not the variable k is equal to the variable m. If the variable k is equal to the variable m (YES), the output information determination unit 133 advances the process to step S55-5. If the variable k is not equal to the variable m (NO), the output information determination unit 133 advances the process to step S55-7.

ステップS55-5において、出力情報決定部133は、状態記憶部100に記憶されている登録物体リストから、k番目の登録物体の機器操作情報を取得する。 In step S55-5, the output information determination unit 133 acquires the device operation information of the k-th registered object from the registered object list stored in the state storage unit 100. FIG.

ステップS55-6において、出力情報決定部133は、k番目の登録物体の機器操作情報のいずれかが、n番目の登録機器の出力条件を満たすか否かを判定する。機器操作情報のいずれかが出力条件を満たす場合(YES)、出力情報決定部133は、ステップS55-10に処理を進める。機器操作情報のすべてが出力条件を満たさない場合(NO)、出力情報決定部133は、ステップS55-7に処理を進める。 In step S55-6, the output information determination unit 133 determines whether or not any of the device operation information of the k-th registered object satisfies the output condition of the n-th registered device. If any of the device operation information satisfies the output condition (YES), the output information determining section 133 advances the process to step S55-10. If none of the device operation information satisfies the output condition (NO), the output information determination unit 133 advances the process to step S55-7.

ステップS55-7において、出力情報決定部133は、変数kがデータ数Mと等しいか否かを判定する。変数kがデータ数Mと異なる場合(NO)、出力情報決定部133は、ステップ55-8に処理を進める。変数mがデータ数Mと等しい場合(YES)、出力情報決定部133は、ステップS55-9に処理を進める。 In step S55-7, the output information determination unit 133 determines whether or not the variable k is equal to the number M of data. If the variable k is different from the number of data M (NO), the output information determining section 133 advances the process to step 55-8. If the variable m is equal to the number of data M (YES), the output information determination unit 133 advances the process to step S55-9.

ステップS55-8において、出力情報決定部133は、変数kをインクリメントする。その後、出力情報決定部133は、ステップS55-4に処理を戻す。 In step S55-8, the output information determination unit 133 increments the variable k. After that, the output information determination unit 133 returns the process to step S55-4.

ステップS55-9において、出力情報決定部133は、ステップS54で取得した機器操作情報が、ステップS53で取得した出力条件を満たさないと判定し、処理を終了する。 In step S55-9, the output information determining unit 133 determines that the device operation information acquired in step S54 does not satisfy the output condition acquired in step S53, and terminates the process.

ステップS55-10において、出力情報決定部133は、ステップS54で取得した機器操作情報が、ステップS53で取得した出力条件を満たすと判定し、処理を終了する。 In step S55-10, the output information determination unit 133 determines that the device operation information acquired in step S54 satisfies the output condition acquired in step S53, and terminates the process.

図20は、本実施形態における機器出力情報の一例を示す図である。本実施形態における機器出力情報の出力条件の第1の例は、他の登録物体の機器操作情報が不要な出力条件である。本実施形態における機器出力情報の出力条件の第2の例は、他の登録物体の機器操作情報が必要な出力条件である。 FIG. 20 is a diagram showing an example of device output information in this embodiment. A first example of the output condition for the device output information in this embodiment is an output condition that does not require device operation information for other registered objects. A second example of the output condition of the device output information in this embodiment is an output condition that requires device operation information of another registered object.

図20に示されているように、本実施形態における出力条件の第1の例は、m番目の登録物体(以下、「人物α」とも呼ぶ)が他の電子機器(ここでは、MFPとする)で入力した認証情報が、n番目の電子機器(ここでは、電子黒板とする)で認証可能な認証情報であること、である。 As shown in FIG. 20, the first example of the output condition in this embodiment is that the m-th registered object (hereinafter also referred to as "person α") is another electronic device (here, an MFP). ) is authentication information that can be authenticated by the n-th electronic device (here, an electronic blackboard).

図20に示されているように、出力条件の第1の例を満たすと判定された場合、以下の動作指示のいずれか又は複数が、当該登録機器に送信する動作指示として決定される。第1の動作指示は、人物αを電子黒板に自動認証することである。この場合、送信する動作指示には、人物αがMFPで入力した認証情報が含まれる。第2の動作指示は、電子黒板に「αさん、自動認証を行ないました」と数秒間表示することである。 As shown in FIG. 20, when it is determined that the first example of the output condition is satisfied, one or more of the following operation instructions are determined as operation instructions to be transmitted to the registered device. The first operation instruction is to automatically authenticate the person α to the electronic blackboard. In this case, the transmitted operation instruction includes the authentication information input by the person α through the MFP. The second operation instruction is to display "Mr. α, automatic authentication has been performed" on the electronic blackboard for several seconds.

第3の動作指示は、人物αがMFPで情報入力(例えば、スキャン操作)を行っていた場合、「さきほど機器○○(MFPの名称)で入力された情報を表示しますか?」という文言と「はい」又は「いいえ」の選択ボタンを表示することである。このとき、「はい」が選択された場合、スキャナで入力された情報が電子黒板に表示される。 The third operation instruction is, when the person α is inputting information (for example, scanning operation) on the MFP, the text "Do you want to display the information input by the device XX (name of MFP) earlier?" and "Yes" or "No" selection buttons. At this time, if "yes" is selected, the information input by the scanner is displayed on the electronic blackboard.

第4の動作指示は、人物αの機器操作情報からMFPで設定された使用言語を特定し、電子黒板の表示に反映することである。第5の動作指示は、電子黒板の属性情報が「省エネモード中」等の休止状態であれば、動作指示を送信しないことである。 The fourth operation instruction is to specify the language set in the MFP from the device operation information of the person α and reflect it in the display of the electronic blackboard. A fifth operation instruction is not to transmit an operation instruction if the attribute information of the electronic blackboard is in a sleep state such as "in energy saving mode".

図20に示されているように、本実施形態における出力条件の第2の例は、k番目の登録物体(以下、「人物β」とも呼ぶ)が他の電子機器(ここでは、MFPとする)で入力した認証情報が、n番目の電子機器(ここでは、電子黒板とする)で認証可能な認証情報であること、である。なお、人物βは、人物αと同じグループIDを持つものとする。 As shown in FIG. 20, the second example of the output condition in this embodiment is that the k-th registered object (hereinafter also referred to as "person β") is another electronic device (here, MFP). ) is authentication information that can be authenticated by the n-th electronic device (here, an electronic blackboard). It is assumed that person β has the same group ID as person α.

図20に示されているように、出力条件の第2の例を満たすと判定された場合、以下の動作指示のいずれか又は複数が、当該登録機器に送信する動作指示として決定される。第1の動作指示は、人物αを電子黒板に自動認証することである。この場合、送信する動作指示には、人物βがMFPで入力した認証情報が含まれる。第2の動作指示は、電子黒板に「βさんの認証情報で自動認証を行ないました」と数秒間表示することである。 As shown in FIG. 20, when it is determined that the second example of the output condition is satisfied, one or more of the following operation instructions are determined as operation instructions to be transmitted to the registered device. The first operation instruction is to automatically authenticate the person α to the electronic blackboard. In this case, the operation instruction to be transmitted includes the authentication information input by the person β through the MFP. The second operation instruction is to display for several seconds on the electronic blackboard the message "Automatic authentication has been performed using the authentication information of Mr. β".

第3の動作指示は、人物βがMFPで情報入力(例えば、スキャン操作)を行っていた場合、「βさんが機器○○(MFPの名称)で入力された情報を表示しますか?」という文言と「はい」又は「いいえ」の選択ボタンを表示することである。このとき、「はい」が選択された場合、スキャナで入力された情報が電子黒板に表示される。 When the person β is inputting information (for example, scanning operation) on the MFP, the third operation instruction is "Do you want to display the information that Mr. β has input on the device XX (name of MFP)?" and a "yes" or "no" selection button. At this time, if "yes" is selected, the information input by the scanner is displayed on the electronic blackboard.

図10に戻って説明する。ステップS6において、管理装置10が備える出力情報決定部133は、動作指示を表す動作指示情報を動作指示部14に送る。動作指示情報には、決定した動作指示及び送信先の電子機器30-2を示す情報が含まれる。 Returning to FIG. 10, description will be made. In step S<b>6 , the output information determination unit 133 included in the management device 10 sends action instruction information representing an action instruction to the action instruction unit 14 . The operation instruction information includes information indicating the determined operation instruction and the destination electronic device 30-2.

動作指示部14は、出力情報決定部133から動作指示情報を受け取る。次に、動作指示部14は、動作指示情報に含まれる送信先の電子機器30-2に、動作指示情報に含まれる動作指示を送信する。 The operation instruction unit 14 receives operation instruction information from the output information determination unit 133 . Next, the operation instruction unit 14 transmits the operation instruction included in the operation instruction information to the destination electronic device 30-2 included in the operation instruction information.

電子機器30-2では、機器制御部32が、管理装置10から動作指示を受信する。次に、機器制御部32は、受信した動作指示に従って、当該動作指示に含まれる入力情報を用いた動作を実行する。例えば、機器制御部32は、動作指示に含まれる認証情報を用いて、ユーザを認証する。また、例えば、機器制御部32は、動作指示に含まれる設定情報を用いて、当該電子機器30-2の設定を変更する。 In the electronic device 30 - 2 , the device control section 32 receives the operation instruction from the management device 10 . Next, the device control section 32 executes an operation using the input information included in the received operation instruction, according to the received operation instruction. For example, the device control unit 32 authenticates the user using authentication information included in the operation instruction. Also, for example, the device control unit 32 changes the settings of the electronic device 30-2 using the setting information included in the operation instruction.

<実施形態の効果>
本実施形態における機器管理システム1は、電子機器30の近傍を撮影した画像に基づいて人物の移動を追跡することで、ユーザが第1の電子機器30-1で入力した情報を用いた動作指示を、当該ユーザが近傍にいることを検知した第2の電子機器30-2に送信する。したがって、本実施形態における機器管理システム1によれば、第1の電子機器に入力された情報を用いた動作を第2の電子機器に実行させることができる。
<Effects of Embodiment>
The device management system 1 according to the present embodiment tracks the movement of a person based on an image of the vicinity of the electronic device 30, thereby giving an operation instruction using information input by the user through the first electronic device 30-1. is transmitted to the second electronic device 30-2 that has detected that the user is nearby. Therefore, according to the device management system 1 of the present embodiment, it is possible to cause the second electronic device to perform an operation using information input to the first electronic device.

特に、第1の電子機器30-1で認証された認証情報を用いた認証指示を第2の電子機器30-2に送信することで、第1の電子機器30-1で認証されたユーザが第2の電子機器30-2の近傍に移動した際に自動的に認証を行うことができる。すなわち、本実施形態における機器管理システムによれば、ハードウェア連携によるシングルサインオンを実現することができる。 In particular, by transmitting an authentication instruction using the authentication information authenticated by the first electronic device 30-1 to the second electronic device 30-2, the user authenticated by the first electronic device 30-1 can Authentication can be automatically performed when the user moves to the vicinity of the second electronic device 30-2. That is, according to the device management system of the present embodiment, single sign-on can be realized through hardware cooperation.

[応用例]
上記実施形態では、管理対象空間をオフィスの会議室又は執務室等と想定し、電子機器30をOA(Office Automation)機器として管理する例を中心に説明した。ただし、機器管理システム1を適用可能な利用シーンはこれに限定されず、様々な利用シーンに応用することができる。
[Application example]
In the above embodiment, the space to be managed is assumed to be an office conference room, office, or the like, and an example in which the electronic device 30 is managed as an OA (Office Automation) device has been mainly described. However, the usage scene to which the device management system 1 can be applied is not limited to this, and can be applied to various usage scenes.

例えば、機器管理システム1を、ホテルに設置される電子機器を管理するように構成することができる。ホテルには、様々な電子機器が設置されている。例えば、ロビーには自動チェックイン機が設置されていることがある。また、客室にはテレビ放送及びオンデマンド動画を再生可能なセットトップボックスが設置されていることがある。機器管理システム1によりこれらの機器を管理することで、ホテルの宿泊客が自動チェックイン機で設定した使用言語をセットトップボックスの使用言語に自動的に設定することが可能となる。 For example, the equipment management system 1 can be configured to manage electronic equipment installed in a hotel. The hotel is equipped with various electronic devices. For example, the lobby may have an automatic check-in machine. In addition, some guest rooms are equipped with set-top boxes capable of reproducing television broadcasts and on-demand videos. By managing these devices with the device management system 1, it becomes possible to automatically set the language used by the hotel guest at the automatic check-in machine as the language used for the set-top box.

また、例えば、機器管理システム1を、空港に設置される電子機器を管理するように構成することができる。空港では航空機に搭乗するまでに、発券、チェックイン、手荷物検査等の手続きを通過する必要があり、各手続きで搭乗券を専用の電子機器で処理している。機器管理システム1によりこれらの機器を管理することで、前の手続きを行う電子機器で設定した使用言語を次の手続きを行う電子機器の使用言語に自動的に設定することが可能となる。 Further, for example, the equipment management system 1 can be configured to manage electronic equipment installed at an airport. At airports, it is necessary to go through procedures such as ticketing, check-in, and baggage inspection before boarding an aircraft, and boarding passes are processed by dedicated electronic devices in each procedure. By managing these devices with the device management system 1, it is possible to automatically set the language used by the electronic device that performs the previous procedure to the language that is used by the electronic device that performs the next procedure.

また、例えば、機器管理システム1を、書店に設置される検索端末等の電子機器を管理するように構成することができる。顧客が検索端末で行った検索と、その後に移動した本棚の情報とを連携することで、マーケティングの強化に利用することができる。 Further, for example, the device management system 1 can be configured to manage electronic devices such as search terminals installed in bookstores. By linking the search performed by the customer with the search terminal and the information on the bookshelf that was moved after that, it can be used to strengthen marketing.

また、例えば、機器管理システム1を、工場に設置されるPC等の電子機器を管理するように構成することができる。作業員の行動と、作業現場に設置された機器操作内容とを関連付けて検証することで、作業員の作業妥当性を監視することができる。 Further, for example, the device management system 1 can be configured to manage electronic devices such as PCs installed in factories. By correlating and verifying the worker's actions and the operation details of equipment installed at the work site, it is possible to monitor the worker's work validity.

また、例えば、機器管理システム1を、コンビニエンスストアの無人店舗に設置される電子機器を管理するように構成することができる。コンビニエンスストアには、MFPや精算装置等の電子機器が設置されている。機器管理システム1によりこれらの機器を管理することで、例えば、顧客がMFPで設定した使用言語を精算装置の使用言語に設定することが可能となる。 Further, for example, the device management system 1 can be configured to manage electronic devices installed in an unmanned convenience store. Electronic devices such as MFPs and settlement devices are installed in convenience stores. By managing these devices by the device management system 1, for example, it is possible to set the language that the customer has set in the MFP as the language used in the settlement device.

[補足]
上記各実施形態において、管理装置10は情報処理装置の一例である。機器管理システム1は情報処理システムの一例である。監視装置20は撮影装置の一例である。状態管理部13はユーザ特定部の一例である。操作情報受信部12は入力情報受信部の一例である。
[supplement]
In each of the embodiments described above, the management device 10 is an example of an information processing device. The device management system 1 is an example of an information processing system. The monitoring device 20 is an example of an imaging device. The state management unit 13 is an example of a user identification unit. The operation information receiving section 12 is an example of an input information receiving section.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等の機器を含むものとする。 Each function of the embodiments described above may be implemented by one or more processing circuits. Here, the "processing circuit" in this specification means a processor programmed by software to perform each function, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), FPGAs (Field Programmable Gate Arrays), and devices such as conventional circuit modules.

実施例に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。ある実施形態では、管理装置10は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。 The devices described in the examples are merely representative of one of several computing environments for implementing the embodiments disclosed herein. In some embodiments, management device 10 includes multiple computing devices, such as server clusters. Multiple computing devices are configured to communicate with each other over any type of communication link, including a network, shared memory, etc., to perform the processes disclosed herein.

以上、本発明の実施の形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to these embodiments, and various modifications or Change is possible.

1 機器管理システム
10 管理装置
11 画像受信部
12 操作情報受信部
13 状態管理部
14 動作指示部
100 状態記憶部
131 物体状態管理部
132 機器状態管理部
133 出力情報決定部
20 監視装置
21 画像取得部
22 画像送信部
30 電子機器
31 操作情報送信部
32 機器制御部
1 Device Management System 10 Management Apparatus 11 Image Receiving Section 12 Operation Information Receiving Section 13 State Management Section 14 Operation Instruction Section 100 State Storage Section 131 Object State Management Section 132 Device State Management Section 133 Output Information Determination Section 20 Monitoring Device 21 Image Acquisition Section 22 image transmission unit 30 electronic device 31 operation information transmission unit 32 device control unit

特許第6064636号公報Japanese Patent No. 6064636 特許第5238409号公報Japanese Patent No. 5238409

Claims (12)

第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能な情報処理装置であって、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信部と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザが前記第1の電子機器で入力した認証情報を前記第1の電子機器から受信する入力情報受信部と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信部と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザ及び前記第2ユーザ特定部によって特定された前記第2のユーザの情報と前記認証情報とに基づいて、前記第2の電子機器に前記認証情報又は前記認証情報中の画面設定情報を送信する動作指示部と、
を備える情報処理装置。
An information processing device capable of communicating with a first electronic device, a second electronic device, and a photographing device via a network,
a first image receiving unit that receives a first image of a first user using the first electronic device from the imaging device;
a first user identification unit that identifies the first user who used the first electronic device based on the usage information of the first electronic device and the first image;
an input information receiving unit configured to receive, from the first electronic device, authentication information input by the first user specified by the first user specifying unit using the first electronic device;
a second image receiving unit that receives a second image of a second user present at an operable position of the second electronic device from the imaging device;
a second user identifying unit that identifies the second user present at an operable position of the second electronic device from the second image;
Based on the information and the authentication information of the first user specified by the first user specifying unit and the second user specified by the second user specifying unit, the an operation instruction unit that transmits authentication information or screen setting information in the authentication information;
Information processing device.
第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能な情報処理装置であって、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信部と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザが前記第1の電子機器を使用した使用情報を前記第1の電子機器から受信する入力情報受信部と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信部と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザ及び前記第2ユーザ特定部によって特定された前記第2のユーザの情報と前記使用情報とに基づいて、前記第2の電子機器に前記使用情報を送信する動作指示部と、
を備える情報処理装置。
An information processing device capable of communicating with a first electronic device, a second electronic device, and a photographing device via a network,
a first image receiving unit that receives a first image of a first user using the first electronic device from the imaging device;
a first user identification unit that identifies the first user who used the first electronic device based on the usage information of the first electronic device and the first image;
an input information receiving unit configured to receive, from the first electronic device, information on usage of the first electronic device by the first user identified by the first user identifying unit;
a second image receiving unit that receives a second image of a second user present at an operable position of the second electronic device from the imaging device;
a second user identifying unit that identifies the second user present at an operable position of the second electronic device from the second image;
Based on the information of the first user specified by the first user specifying unit and the second user specified by the second user specifying unit and the usage information, the an operation instruction unit that transmits usage information;
Information processing device.
請求項1又は2に記載の情報処理装置であって、
前記撮影装置から受信した前記第1の画像及び前記第2の画像を用いて前記第1のユーザ及び前記第2のユーザの位置情報を時系列に記録する状態管理部をさらに備える、
情報処理装置。
The information processing device according to claim 1 or 2,
Further comprising a state management unit that records position information of the first user and the second user in chronological order using the first image and the second image received from the imaging device,
Information processing equipment.
請求項3に記載の情報処理装置であって、
前記状態管理部は、前記位置情報の時系列に基づいて前記第1の電子機器を操作した前記第1のユーザを特定する、
情報処理装置。
The information processing device according to claim 3,
The state management unit identifies the first user who has operated the first electronic device based on the time series of the position information.
Information processing equipment.
請求項4に記載の情報処理装置であって、
前記状態管理部は、複数の前記撮影装置それぞれから受信した複数の前記第1の画像及び前記第2の画像を用いて、前記位置情報を記録する、
情報処理装置。
The information processing device according to claim 4,
The state management unit records the position information using a plurality of the first images and the second images received from each of the plurality of imaging devices.
Information processing equipment.
請求項1に記載の情報処理装置であって、
前記入力情報受信部は、前記第2の電子機器の状態を表す状態情報をさらに受信し、
前記動作指示部は、前記状態情報が休止状態を表す前記第2の電子機器には前記認証情報又は前記画面設定情報を送信しない、
情報処理装置。
The information processing device according to claim 1,
The input information receiving unit further receives state information representing a state of the second electronic device,
wherein the operation instructing unit does not transmit the authentication information or the screen setting information to the second electronic device in which the state information indicates a hibernation state;
Information processing equipment.
第1の電子機器、第2の電子機器、撮影装置及び情報処理装置がネットワークを介して通信可能な情報処理システムであって、
前記情報処理装置は、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信部と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザが前記第1の電子機器で入力した認証情報を前記第1の電子機器から受信する入力情報受信部と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信部と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザ及び前記第2ユーザ特定部によって特定された前記第2のユーザの情報と前記認証情報とに基づいて、前記第2の電子機器に前記認証情報又は前記認証情報中の画面設定情報を送信する動作指示部と、
を備える情報処理システム。
An information processing system in which a first electronic device, a second electronic device, a photographing device, and an information processing device can communicate via a network,
The information processing device is
a first image receiving unit that receives a first image of a first user using the first electronic device from the imaging device;
a first user identification unit that identifies the first user who used the first electronic device based on the usage information of the first electronic device and the first image;
an input information receiving unit configured to receive, from the first electronic device, authentication information input by the first user specified by the first user specifying unit using the first electronic device;
a second image receiving unit that receives a second image of a second user present at an operable position of the second electronic device from the imaging device;
a second user identifying unit that identifies the second user present at an operable position of the second electronic device from the second image;
Based on the information and the authentication information of the first user specified by the first user specifying unit and the second user specified by the second user specifying unit, the an operation instruction unit that transmits authentication information or screen setting information in the authentication information;
An information processing system comprising
第1の電子機器、第2の電子機器、撮影装置及び情報処理装置がネットワークを介して通信可能な情報処理システムであって、
前記情報処理装置は、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信部と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザが前記第1の電子機器を使用した使用情報を前記第1の電子機器から受信する入力情報受信部と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信部と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定部と、
前記第1ユーザ特定部によって特定された前記第1のユーザ及び前記第2ユーザ特定部によって特定された前記第2のユーザの情報と前記使用情報とに基づいて、前記第2の電子機器に前記使用情報を送信する動作指示部と、
を備える情報処理システム。
An information processing system in which a first electronic device, a second electronic device, a photographing device, and an information processing device can communicate via a network,
The information processing device is
a first image receiving unit that receives a first image of a first user using the first electronic device from the imaging device;
a first user identification unit that identifies the first user who used the first electronic device based on the usage information of the first electronic device and the first image;
an input information receiving unit configured to receive, from the first electronic device, information on usage of the first electronic device by the first user identified by the first user identifying unit;
a second image receiving unit that receives a second image of a second user present at an operable position of the second electronic device from the imaging device;
a second user identifying unit that identifies the second user present at an operable position of the second electronic device from the second image;
Based on the information of the first user specified by the first user specifying unit and the second user specified by the second user specifying unit and the usage information, the an operation instruction unit that transmits usage information;
An information processing system comprising
第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能なコンピュータが、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信手順と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザが前記第1の電子機器で入力した認証情報を前記第1の電子機器から受信する入力情報受信手順と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信手順と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザ及び前記第2ユーザ特定手順によって特定された前記第2のユーザの情報と前記認証情報とに基づいて、前記第2の電子機器に前記認証情報又は前記認証情報中の画面設定情報を送信する動作指示手順と、
を実行する機器管理方法。
A computer capable of communicating with the first electronic device, the second electronic device and the imaging device via a network,
a first image receiving procedure for receiving, from the imaging device, a first image of a first user using the first electronic device;
a first user identification procedure for identifying the first user who used the first electronic device based on usage information of the first electronic device and the first image;
an input information receiving procedure for receiving, from the first electronic device, authentication information that the first user specified by the first user specifying procedure has entered in the first electronic device;
a second image receiving procedure for receiving, from the photographing device, a second image of a second user present at an operable position of the second electronic device;
a second user identification step of identifying the second user present at an operable position of the second electronic device from the second image;
Based on the authentication information and information of the first user identified by the first user identification procedure and the second user identified by the second user identification procedure, the an operation instruction procedure for transmitting authentication information or screen setting information in the authentication information;
A device management method that implements
第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能なコンピュータが、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信手順と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザが前記第1の電子機器を使用した使用情報を前記第1の電子機器から受信する入力情報受信手順と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信手順と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザ及び前記第2ユーザ特定手順によって特定された前記第2のユーザの情報と前記使用情報とに基づいて、前記第2の電子機器に前記使用情報を送信する動作指示手順と、
を実行する機器管理方法。
A computer capable of communicating with the first electronic device, the second electronic device and the imaging device via a network,
a first image receiving procedure for receiving, from the imaging device, a first image of a first user using the first electronic device;
a first user identification procedure for identifying the first user who used the first electronic device based on usage information of the first electronic device and the first image;
an input information receiving procedure for receiving, from the first electronic device, usage information that the first user identified by the first user identifying procedure uses the first electronic device;
a second image receiving procedure for receiving, from the photographing device, a second image of a second user present at an operable position of the second electronic device;
a second user identification step of identifying the second user present at an operable position of the second electronic device from the second image;
Based on the information of the first user identified by the first user identification procedure and the second user identified by the second user identification procedure and the usage information, the an operation instruction procedure for transmitting usage information;
A device management method that implements
第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能なコンピュータに、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信手順と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザが前記第1の電子機器で入力した認証情報を前記第1の電子機器から受信する入力情報受信手順と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信手順と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザ及び前記第2ユーザ特定手順によって特定された前記第2のユーザの情報と前記認証情報とに基づいて、前記第2の電子機器に前記認証情報又は前記認証情報中の画面設定情報を送信する動作指示手順と、
を実行させるためのプログラム。
A computer capable of communicating with the first electronic device, the second electronic device and the imaging device via a network,
a first image receiving procedure for receiving, from the imaging device, a first image of a first user using the first electronic device;
a first user identification procedure for identifying the first user who used the first electronic device based on usage information of the first electronic device and the first image;
an input information receiving procedure for receiving, from the first electronic device, authentication information that the first user specified by the first user specifying procedure has entered in the first electronic device;
a second image receiving procedure for receiving, from the photographing device, a second image of a second user present at an operable position of the second electronic device;
a second user identification step of identifying the second user present at an operable position of the second electronic device from the second image;
Based on the authentication information and information of the first user identified by the first user identification procedure and the second user identified by the second user identification procedure, the an operation instruction procedure for transmitting authentication information or screen setting information in the authentication information;
program to run the
第1の電子機器、第2の電子機器及び撮影装置とネットワークを介して通信可能なコンピュータに、
前記撮影装置から前記第1の電子機器を使用している第1のユーザを撮影した第1の画像を受信する第1画像受信手順と、
前記第1の電子機器の使用情報と前記第1の画像とに基づいて、前記第1の電子機器を使用した前記第1のユーザを特定する第1ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザが前記第1の電子機器を使用した使用情報を前記第1の電子機器から受信する入力情報受信手順と、
前記撮影装置から前記第2の電子機器の操作可能位置に存在している第2のユーザを撮影した第2の画像を受信する第2画像受信手順と、
前記第2の画像から前記第2の電子機器の操作可能位置に存在する前記第2のユーザを特定する第2ユーザ特定手順と、
前記第1ユーザ特定手順によって特定された前記第1のユーザ及び前記第2ユーザ特定手順によって特定された前記第2のユーザの情報と前記使用情報とに基づいて、前記第2の電子機器に前記使用情報を送信する動作指示手順と、
を実行させるためのプログラム。
A computer capable of communicating with the first electronic device, the second electronic device and the imaging device via a network,
a first image receiving procedure for receiving, from the imaging device, a first image of a first user using the first electronic device;
a first user identification procedure for identifying the first user who used the first electronic device based on usage information of the first electronic device and the first image;
an input information receiving procedure for receiving, from the first electronic device, usage information that the first user identified by the first user identifying procedure uses the first electronic device;
a second image receiving procedure for receiving, from the photographing device, a second image of a second user present at an operable position of the second electronic device;
a second user identification step of identifying the second user present at an operable position of the second electronic device from the second image;
Based on the information of the first user identified by the first user identification procedure and the second user identified by the second user identification procedure and the usage information, the an operation instruction procedure for transmitting usage information;
program to run the
JP2022045720A 2022-03-22 2022-03-22 Information processing device, information processing system, device management method and program Active JP7215621B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022045720A JP7215621B1 (en) 2022-03-22 2022-03-22 Information processing device, information processing system, device management method and program
JP2023005177A JP2023140285A (en) 2022-03-22 2023-01-17 Information processing apparatus, information processing system, device management method, and program
US18/185,706 US20230306096A1 (en) 2022-03-22 2023-03-17 Information processing apparatus, information processing system, device management method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022045720A JP7215621B1 (en) 2022-03-22 2022-03-22 Information processing device, information processing system, device management method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023005177A Division JP2023140285A (en) 2022-03-22 2023-01-17 Information processing apparatus, information processing system, device management method, and program

Publications (2)

Publication Number Publication Date
JP7215621B1 true JP7215621B1 (en) 2023-01-31
JP2023139935A JP2023139935A (en) 2023-10-04

Family

ID=85111669

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022045720A Active JP7215621B1 (en) 2022-03-22 2022-03-22 Information processing device, information processing system, device management method and program
JP2023005177A Pending JP2023140285A (en) 2022-03-22 2023-01-17 Information processing apparatus, information processing system, device management method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023005177A Pending JP2023140285A (en) 2022-03-22 2023-01-17 Information processing apparatus, information processing system, device management method, and program

Country Status (1)

Country Link
JP (2) JP7215621B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206934A (en) 2006-02-01 2007-08-16 Konica Minolta Holdings Inc Authentication system, authentication control device, and program
JP2007243845A (en) 2006-03-10 2007-09-20 Konica Minolta Business Technologies Inc Information processing system, information processing apparatus, and terminal registration method
JP2017062680A (en) 2015-09-25 2017-03-30 キヤノン株式会社 Device information registration system, management apparatus, information processing apparatus, control method of management apparatus, control method of information processing apparatus, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206934A (en) 2006-02-01 2007-08-16 Konica Minolta Holdings Inc Authentication system, authentication control device, and program
JP2007243845A (en) 2006-03-10 2007-09-20 Konica Minolta Business Technologies Inc Information processing system, information processing apparatus, and terminal registration method
JP2017062680A (en) 2015-09-25 2017-03-30 キヤノン株式会社 Device information registration system, management apparatus, information processing apparatus, control method of management apparatus, control method of information processing apparatus, and program

Also Published As

Publication number Publication date
JP2023140285A (en) 2023-10-04
JP2023139935A (en) 2023-10-04

Similar Documents

Publication Publication Date Title
JP2017187850A (en) Image processing system, information processing device, and program
JP6733393B2 (en) Shared terminal, communication system, image transmission method, and program
CN104284064A (en) Method and apparatus for previewing a dual-shot image
JP6992293B2 (en) Shared terminals, communication systems, image transmission methods, and programs
US11394757B2 (en) Communication terminal, communication system, and method of sharing data
EP3396578B1 (en) Shared terminal, communication method, and carrier means
JP6776778B2 (en) Shared terminals, communication systems, communication methods, and programs
JP7043913B2 (en) Shared terminals, communication systems, communication methods, and programs
JP7276542B1 (en) Information processing device, information processing system, charge management method and program
JP6919432B2 (en) Shared terminals, communication systems, communication methods, and programs
JP2022147309A (en) Management system, communication system, processing method and program
JP7215621B1 (en) Information processing device, information processing system, device management method and program
US11163866B2 (en) Shared terminal, display control method, and non-transitory computer-readable medium
CN108513033B (en) Communication terminal, communication system, and communication method
US20230306096A1 (en) Information processing apparatus, information processing system, device management method, and recording medium
JP7081195B2 (en) Communication terminals, communication systems, communication methods, and programs
JP2024079370A (en) Information processing device, information processing system, device management method and program
JP6761207B2 (en) Shared terminals, communication systems, communication methods, and programs
JP6822341B2 (en) Shared terminals, communication systems, image transmission methods, and programs
JP2023139936A (en) Information processing apparatus, information processing system, fare management method, and program
US20180285042A1 (en) Communication terminal, communication system, communication control method, and non-transitory computer-readable medium
JP7147334B2 (en) Shared terminal, communication system, display method, and program
JP7056285B2 (en) Shared terminals, communication systems, communication methods, and programs
JP7040248B2 (en) Shared terminals, communication systems, communication methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220512

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230102

R151 Written notification of patent or utility model registration

Ref document number: 7215621

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151