JP2022110291A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2022110291A
JP2022110291A JP2021005596A JP2021005596A JP2022110291A JP 2022110291 A JP2022110291 A JP 2022110291A JP 2021005596 A JP2021005596 A JP 2021005596A JP 2021005596 A JP2021005596 A JP 2021005596A JP 2022110291 A JP2022110291 A JP 2022110291A
Authority
JP
Japan
Prior art keywords
image
spatial
physical object
information processing
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021005596A
Other languages
Japanese (ja)
Other versions
JP7344570B2 (en
Inventor
健介 安間
Kensuke Yasuma
想 西村
So Nishimura
一平 多田
Ippei TADA
優輝 望月
Yuki Mochizuki
駿之介 片岡
Shunnosuke Kataoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixie Dust Technologies Inc
Original Assignee
Pixie Dust Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixie Dust Technologies Inc filed Critical Pixie Dust Technologies Inc
Priority to JP2021005596A priority Critical patent/JP7344570B2/en
Publication of JP2022110291A publication Critical patent/JP2022110291A/en
Application granted granted Critical
Publication of JP7344570B2 publication Critical patent/JP7344570B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To determine whether a physical object is present in a monitored area.SOLUTION: An information processing apparatus according to one aspect of the present disclosure includes means of acquiring a space image relating to a target space, means of extracting an object image included in the space image from the space image, means of identifying a position of a physical object corresponding to the object image in a reference coordinate system of a space model relating to the target space by aligning the space image with the space mode, and means of determining whether the identified position of the physical object is included in a target area defined in the reference coordinate system.SELECTED DRAWING: Figure 3

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。 The present disclosure relates to an information processing device, an information processing method, and a program.

従来、監視カメラを用いて、立ち入り禁止領域への人の侵入を監視することがある。 Conventionally, surveillance cameras are sometimes used to monitor human intrusion into restricted areas.

特許文献1には、時間的な変化をもとにして映像中の変化検出領域を決定し、変化検出領域の幾何学的特徴量が侵入者に対応するかどうかを判断し、侵入者が存在すると判断された場合、侵入者の画像中の位置を特定することが記載されている。 In Patent Document 1, a change detection area in an image is determined based on temporal changes, and it is determined whether or not the geometric feature value of the change detection area corresponds to an intruder. If so, it describes locating the intruder in the image.

特開2006-252248号公報Japanese Patent Application Laid-Open No. 2006-252248

特許文献1によれば、侵入者の画像中の位置が特定される。しかしながら、画像中の位置と実空間における位置との関係は明らかではない。故に、カメラの視野が立ち入り禁止領域に比べて広範囲である場合に、侵入者の画像中の位置を特定したとしても立ち入り禁止領域に侵入者が存在するか否かを直ちに判別することができない。 According to Patent Document 1, the position of the intruder in the image is specified. However, the relationship between the position in the image and the position in real space is not clear. Therefore, when the visual field of the camera is wider than the restricted area, even if the position of the intruder in the image is specified, it cannot be determined immediately whether the intruder exists in the restricted area.

本開示の目的は、監視領域に物理オブジェクトが存在するか否かを判別することである。 An object of the present disclosure is to determine whether a physical object exists in a monitored area.

本開示の一態様に係る情報処理装置は、対象空間に関する空間画像を取得する手段と、空間画像に含まれるオブジェクト画像を空間画像から抽出する手段と、空間画像と対象空間に関する空間モデルとの位置合わせを行うことで、空間モデルの基準座標系におけるオブジェクト画像に対応する物理オブジェクトの位置を特定する手段と、特定された物理オブジェクトの位置が、基準座標系で定義された対象領域に含まれるか否かを判定する手段とを具備する。 An information processing apparatus according to an aspect of the present disclosure includes means for obtaining a spatial image regarding a target space, means for extracting an object image included in the spatial image from the spatial image, and position of the spatial image and a spatial model regarding the target space. Alignment includes means for identifying a position of a physical object corresponding to the object image in a reference coordinate system of the spatial model and whether the identified physical object position falls within a region of interest defined by the reference coordinate system. means for determining whether or not

本実施形態の情報処理システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing system according to an embodiment; FIG. 本実施形態のクライアント装置およびサーバの構成を示すブロック図である。2 is a block diagram showing configurations of a client device and a server according to this embodiment; FIG. 本実施形態の概要の説明図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an explanatory diagram of the outline of this embodiment; 本実施形態の対象領域データベースのデータ構造を示す図である。It is a figure which shows the data structure of the target area|region database of this embodiment. 本実施形態の情報処理の全体フローを示す図である。It is a figure which shows the whole flow of information processing of this embodiment. 本実施形態の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of this embodiment. 変形例1の対象領域データベースのデータ構造を示す図である。FIG. 10 is a diagram showing a data structure of a target area database of modification 1; 変形例1の情報処理の全体フローを示す図である。FIG. 10 is a diagram showing an overall flow of information processing according to modification 1;

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 An embodiment of the present invention will be described in detail below with reference to the drawings. In the drawings for describing the embodiments, in principle, the same constituent elements are denoted by the same reference numerals, and repeated description thereof will be omitted.

(1)情報処理システムの構成
本実施形態の情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
(1) Configuration of information processing system The configuration of the information processing system of this embodiment will be described. FIG. 1 is a block diagram showing the configuration of the information processing system of this embodiment.

図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIG. 1 , the information processing system 1 includes a client device 10 and a server 30 .
The client device 10 and server 30 are connected via a network (for example, the Internet or an intranet) NW.

クライアント装置10は、情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The client device 10 is an example of an information processing device. The client device 10 is, for example, a smart phone, a tablet terminal, or a personal computer.

サーバ30は、情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。サーバ30は、対象となる空間(「対象空間」と称する)に関する画像(空間画像)と、対象空間に関する空間モデルとを参照し、対象空間において物理オブジェクトが存在するか否かを監視すべき領域(「監視領域」と称する)に物理オブジェクトが存在するか否かを判定する。サーバ30は、判定結果に応じて、クライアント装置10を介してユーザに通知を行う。 The server 30 is an example of an information processing device. Server 30 is, for example, a web server. The server 30 refers to an image (spatial image) of a target space (referred to as a “target space”) and a spatial model of the target space, and monitors an area to be monitored for the existence of a physical object in the target space. (referred to as a "monitoring area") determines whether a physical object exists. The server 30 notifies the user via the client device 10 according to the determination result.

空間画像は、対象空間に設置されたセンサ(図示しない)によって生成される。ここで、画像とは、光学的なセンシング結果を意味する。以降の説明において、画像は、イメージセンサによって生成された2次元画像であることとする。しかしながら、画像は、デプスカメラによって生成された点群(カラー点群を含み得る)であってもよい。 Spatial images are generated by sensors (not shown) placed in the target space. Here, an image means an optical sensing result. In the following description, images are assumed to be two-dimensional images generated by an image sensor. However, the image may also be a point cloud (which may include color point clouds) generated by a depth camera.

センサは、対象空間に設置される。センサは、センシングを行い、画像を生成する。センサは、画像をサーバ30または図示しない画像サーバに送信する。センサは、任意の種別の光学センサ装置である。センサは、以下のいずれかであってよい。
・カメラ
・デプスカメラ
・LIDAR(Light Detection And Ranging)
・ToF(Time of Flight)カメラ
・レーザスキャナ
A sensor is installed in the target space. A sensor performs sensing and generates an image. The sensor transmits the image to server 30 or an image server (not shown). A sensor is any type of optical sensor device. A sensor may be any of the following:
・Camera ・Depth camera ・LIDAR (Light Detection And Ranging)
・ToF (Time of Flight) camera ・Laser scanner

(1-1)クライアント装置の構成
本実施形態のクライアント装置の構成について説明する。図2は、本実施形態のクライアント装置およびサーバの構成を示すブロック図である。
(1-1) Configuration of Client Apparatus The configuration of the client apparatus according to this embodiment will be described. FIG. 2 is a block diagram showing configurations of a client device and a server according to this embodiment.

図1に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。 As shown in FIG. 1, the client device 10 includes a storage device 11, a processor 12, an input/output interface 13, and a communication interface .

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 Storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of ROM (Read Only Memory), RAM (Random Access Memory), and storage (eg, flash memory or hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
Programs include, for example, the following programs.
・OS (Operating System) program ・Application (for example, web browser) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータ及びデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
・Data and databases referenced in information processing ・Data obtained by executing information processing (that is, execution results of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動してデータを処理することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。記憶装置11により記憶されるプログラム及びデータは、ネットワークを介して提供されてもよいし、コンピュータにより読み取り可能な記録媒体に記録して提供されてもよい。なお、クライアント装置10の機能の少なくとも一部が、1又は複数の専用のハードウェアにより実現されていてもよい。 The processor 12 is configured to implement the functions of the client device 10 by activating programs stored in the storage device 11 and processing data. Processor 12 is an example of a computer. The programs and data stored in the storage device 11 may be provided via a network, or may be provided by being recorded on a computer-readable recording medium. At least part of the functions of the client device 10 may be realized by one or more pieces of dedicated hardware.

入出力インタフェース13は、クライアント装置10に接続される入力デバイスから信号(例えば、ユーザの指示)を取得し、かつ、クライアント装置10に接続される出力デバイスに信号(例えば、画像信号)を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input/output interface 13 acquires a signal (for example, a user's instruction) from an input device connected to the client device 10 and outputs a signal (for example, an image signal) to an output device connected to the client device 10. configured as
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
An output device is, for example, a display.

通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 Communication interface 14 is configured to control communications between client device 10 and server 30 .

(1-2)サーバの構成
図2を参照して、サーバ30の構成について説明する。
(1-2) Server Configuration The configuration of the server 30 will be described with reference to FIG.

図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 2, the server 30 includes a storage device 31, a processor 32, an input/output interface 33, and a communication interface .

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 Storage device 31 is configured to store programs and data. Storage device 31 is, for example, a combination of ROM, RAM, and storage (eg, flash memory or hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
Programs include, for example, the following programs.
・OS program ・Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータ及びデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・Data and databases referenced in information processing ・Execution results of information processing

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。記憶装置31により記憶されるプログラム及びデータは、ネットワークを介して提供されてもよいし、コンピュータにより読み取り可能な記録媒体に記録して提供されてもよい。なお、サーバ30の機能の少なくとも一部が、1又は複数の専用のハードウェアにより実現されていてもよい。 The processor 32 is configured to implement the functions of the server 30 by activating programs stored in the storage device 31 . Processor 32 is an example of a computer. The programs and data stored by the storage device 31 may be provided via a network, or may be provided by being recorded on a computer-readable recording medium. At least part of the functions of the server 30 may be realized by one or more pieces of dedicated hardware.

入出力インタフェース33は、サーバ30に接続される入力デバイスから信号(例えば、ユーザの指示)を取得し、かつ、サーバ30に接続される出力デバイスに信号(例えば、画像信号)を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input/output interface 33 acquires a signal (for example, a user's instruction) from an input device connected to the server 30 and outputs a signal (for example, an image signal) to an output device connected to the server 30. Configured.
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
An output device is, for example, a display.

通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。 Communication interface 34 is configured to control communications between server 30 and client device 10 .

(2)実施形態の概要
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
(2) Outline of Embodiment An outline of the present embodiment will be described. FIG. 3 is an explanatory diagram of the outline of this embodiment.

図3に示すように、対象空間SPに設置されたセンサ50は、例えば対象空間SPを撮影し、対象空間SPに関する空間画像SI1を生成する。空間画像SI1には、撮影時に対象空間SPに存在した物理オブジェクトOBJ1に対応するオブジェクト画像OBI1が含まれる。ここで、物理オブジェクトは、人間、物体、人間以外の生物、またはこれらの組み合わせである。 As shown in FIG. 3, the sensor 50 installed in the target space SP captures, for example, the target space SP and generates a spatial image SI1 regarding the target space SP. The spatial image SI1 includes an object image OBI1 corresponding to the physical object OBJ1 that existed in the target space SP at the time of shooting. Here, the physics object is a person, an object, a non-human creature, or a combination thereof.

記憶装置31には、対象空間SPに関する空間モデルSMが格納されている。空間モデルは、例えば、以下の少なくとも1つを含む。
・3次元モデル(一例として、BIM(Building Information Modeling)データ)
・時系列に沿って変化する3次元モデルに関する4次元モデル(一例として、時間情報が付与されたBIMデータ)
The storage device 31 stores a space model SM regarding the target space SP. Spatial models include, for example, at least one of the following:
・3D model (BIM (Building Information Modeling) data as an example)
・ 4D model related to 3D model that changes along time series (as an example, BIM data with time information added)

サーバ30は、空間画像SI1を取得し、空間画像SI1からオブジェクト画像OBI1を抽出する。サーバ30は、空間画像SI1と、空間モデルSMとの位置合わせを行う。一例として、サーバ30は、オブジェクト画像OBI1に含まれる各情報要素(画素、または点)の位置を基準座標系における位置へ変換する。これにより、サーバ30は、空間モデルSMに対応する座標系(「基準座標系」と称する)における物理オブジェクトの位置を特定する。 The server 30 acquires the spatial image SI1 and extracts the object image OBI1 from the spatial image SI1. The server 30 aligns the spatial image SI1 and the spatial model SM. As an example, the server 30 converts the position of each information element (pixel or point) included in the object image OBI1 to a position in the reference coordinate system. Thereby, the server 30 identifies the position of the physical object in a coordinate system (referred to as a "reference coordinate system") corresponding to the space model SM.

対象空間SPには、物理オブジェクトが存在するか否かを監視すべき領域(「監視領域」)が存在する。空間モデルSMは対象空間SPにおけるいずれかの構成要素と位置合わせすることが可能である(つまり、空間モデルSMの基準座標系と対象空間SPの座標系(「グローバル座標系」)とを対応付けることができる)から、対象空間SPにおける任意の領域は、基準座標系で表現された領域に変換可能である。監視領域を基準座標系で表現した領域を「対象領域」と称する。設定者は例えば空間モデルSMの3次元ビューを閲覧しながら基準座標系における所望の場所を対象領域として直感的に設定可能である。対象空間を設定することで、対象空間SPにおける対応する場所が監視領域として特定される。また、センサ50の視野(例えば、センサ50の位置、姿勢、焦点距離、またはそれらの組み合わせ)が変更される場合であっても、対象領域TR1および監視領域は不変である。図3の例では、対象領域TR1が、空間モデルSMに設定されている。サーバ30は、基準座標系における物理オブジェクトOBJ1の位置が対象領域TR1に含まれるか否かを判定することで、対象空間SPにおいて物理オブジェクトOBJ1が監視領域に存在するか否かを判定できる。 In the target space SP, there is an area (“monitoring area”) to monitor whether or not a physical object exists. The spatial model SM can be aligned with any component in the object space SP (i.e., matching the reference coordinate system of the spatial model SM with the coordinate system of the object space SP (“global coordinate system”). ), any region in the object space SP can be transformed into a region expressed in the reference coordinate system. A region obtained by expressing the monitoring region in the reference coordinate system is called a “target region”. A setting person can, for example, intuitively set a desired location in the reference coordinate system as a target area while viewing a three-dimensional view of the space model SM. By setting the target space, the corresponding location in the target space SP is specified as the monitoring area. Moreover, even when the field of view of the sensor 50 (for example, the position, orientation, focal length, or combination thereof) of the sensor 50 is changed, the target region TR1 and the monitoring region remain unchanged. In the example of FIG. 3, the target area TR1 is set in the space model SM. The server 30 can determine whether the physical object OBJ1 exists in the monitoring area in the target space SP by determining whether the position of the physical object OBJ1 in the reference coordinate system is included in the target area TR1.

サーバ30は、基準座標系における物理オブジェクトOBJ1の位置が対象領域TR1に含まれると判定した場合に、ユーザUSに対して通知を行う。具体的には、サーバ30は、物理オブジェクトOBJ1が対象領域TR1に対応する監視領域に存在することをユーザUSに通知するための通知データ(例えば、画像、テキスト、音声、またはこれらの組み合わせ)をクライアント装置10へ送信する。クライアント装置10は、サーバ30から受信した通知データに応じて、ユーザUSに通知を行う。一例として、クライアント装置10は、出力画像OI1をディスプレイに表示させる。 When the server 30 determines that the position of the physical object OBJ1 in the reference coordinate system is included in the target region TR1, the server 30 notifies the user US. Specifically, the server 30 transmits notification data (for example, image, text, voice, or a combination thereof) for notifying the user US that the physical object OBJ1 exists in the monitoring area corresponding to the target area TR1. Send to the client device 10 . The client device 10 notifies the user US according to the notification data received from the server 30 . As an example, the client device 10 causes the display to display the output image OI1.

このように、サーバ30は、対象空間SPにおいて物理オブジェクトが監視領域に存在するか否かを空間画像から判別可能である。つまり、このサーバ30によれば、例えば、立ち入り禁止の場所、または危険な場所に人間が居ることを検知したり、備品が定位置でない場所に放置されていることを検知したりすることができる。 Thus, the server 30 can determine from the spatial image whether or not a physical object exists in the monitoring area in the target space SP. In other words, according to this server 30, for example, it is possible to detect that a person is in a place where entry is prohibited or in a dangerous place, or that equipment is left in an unfixed position. .

(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3) Database The database of this embodiment will be described. The following databases are stored in the storage device 31.

(3-1)対象領域データベース
本実施形態の対象領域データベースについて説明する。図4は、本実施形態の対象領域データベースのデータ構造を示す図である。
(3-1) Target Area Database The target area database of this embodiment will be described. FIG. 4 is a diagram showing the data structure of the target area database of this embodiment.

対象領域データベースには、対象領域情報が格納される。対象領域情報は、対象領域に関する情報である。対象領域情報を参照することで、基準座標系における対象領域の位置を特定することができる。 The target area database stores target area information. The target area information is information about the target area. By referring to the target area information, the position of the target area in the reference coordinate system can be specified.

図4に示すように、対象領域データベースは、「領域ID」フィールドと、「領域定義」フィールドとを含む。各フィールドは、互いに関連付けられている。 As shown in FIG. 4, the target area database includes an "area ID" field and an "area definition" field. Each field is associated with each other.

「領域ID」フィールドには、領域IDが格納される。領域IDは、対象領域を識別する情報である。 An area ID is stored in the "area ID" field. The area ID is information that identifies the target area.

「領域定義」フィールドには、領域定義情報が格納される。領域定義情報は、対象領域の定義に関する情報である。一例として、領域定義情報は、領域形状情報と座標情報とを含む。 The "area definition" field stores area definition information. The area definition information is information relating to the definition of the target area. As an example, the area definition information includes area shape information and coordinate information.

領域形状情報は、対象領域の形状に関する情報である。対象領域は、3次元形状(例えば、対象領域の水平面形状(一例として、幅及び奥行き)、並びに、対象領域の垂直方向の形状(一例として、高さ))であってもよいし、2次元形状(例えば、対象領域の水平面形状)であってもよい。 The area shape information is information about the shape of the target area. The target area may be a three-dimensional shape (for example, a horizontal shape of the target area (width and depth as an example) and a vertical shape of the target area (height as an example)), or two-dimensional. It may be a shape (for example, a horizontal plane shape of the region of interest).

座標情報は、対象領域の所定の点の基準座標系における座標に関する情報である。一例として、座標情報は、対象領域を構成する各頂点の基準座標系における座標に関する情報を含む。 The coordinate information is information about the coordinates of a predetermined point in the target area in the reference coordinate system. As an example, the coordinate information includes information on the coordinates of each vertex forming the target area in the reference coordinate system.

(4)情報処理
本実施形態の情報処理について説明する。図5は、本実施形態の情報処理の全体フローを示す図である。図6は、本実施形態の情報処理において表示される画面例を示す図である。
(4) Information processing Information processing according to the present embodiment will be described. FIG. 5 is a diagram showing the overall flow of information processing according to this embodiment. FIG. 6 is a diagram showing an example of a screen displayed during information processing according to this embodiment.

図5の処理は、開始条件が成立したことに応じて開始する。開始条件は、例えば以下の少なくとも1つを含むことができる。
・クライアント装置10に対してユーザにより情報処理の開始指示が入力され、サーバ30がクライアント装置10から情報処理の開始リクエストを受信した
・所定の日時が到来した
The processing in FIG. 5 starts when the start condition is satisfied. Entry conditions can include, for example, at least one of the following:
- The user has input an instruction to start information processing to the client device 10, and the server 30 has received a request to start information processing from the client device 10. -A predetermined date and time has arrived.

図5に示すように、サーバ30は、空間画像の取得(S110)を実行する。
具体的には、プロセッサ32は、図示しないセンサまたは画像サーバから空間画像を取得する。
As shown in FIG. 5, the server 30 acquires a spatial image (S110).
Specifically, processor 32 acquires a spatial image from a sensor or image server (not shown).

ステップS110の後に、サーバ30は、オブジェクト画像の抽出(S120)を実行する。
具体的には、プロセッサ32は、ステップS110において取得した空間画像からオブジェクト画像を抽出する。一例として、プロセッサ32は、空間画像に対して画像認識処理を行うことで、空間画像の撮影時に対象空間に存在した物理オブジェクトに対応するオブジェクト画像を特定する。例えば、物理オブジェクトは、監視対象となる物理オブジェクト(一例として、人物)である。
After step S110, the server 30 extracts an object image (S120).
Specifically, processor 32 extracts an object image from the spatial image acquired in step S110. As an example, the processor 32 identifies an object image corresponding to a physical object that existed in the target space when the spatial image was captured by performing image recognition processing on the spatial image. For example, the physical object is a physical object to be monitored (a person, for example).

ステップS120の後に、サーバ30は、物理オブジェクトの位置の特定(S130)を実行する。
具体的には、プロセッサ32は、ステップS110において取得した空間画像と対象空間に関する空間モデルとの位置合わせを行う。一例として、プロセッサ32は、空間画像に含まれるオブジェクト画像の各情報要素の位置を基準座標系における位置へ変換する。これにより、プロセッサ32は、空間モデルに対応する基準座標系における物理オブジェクトの位置を特定する。
After step S120, the server 30 performs physical object location determination (S130).
Specifically, the processor 32 aligns the spatial image acquired in step S110 with the spatial model of the target space. As an example, the processor 32 transforms the position of each information element of the object image included in the spatial image to a position in the reference coordinate system. Processor 32 thereby locates the physical object in the reference coordinate system corresponding to the spatial model.

物理オブジェクトの位置の特定(S130)の第1例では、プロセッサ32は、空間画像の撮影条件および基準座標系を参照して空間画像の撮影方向を基準座標系で再現することで、空間画像と空間モデルとの位置合わせを行う。ここで、撮影条件は、空間画像を撮影したカメラの位置、姿勢、焦点距離、またはそれらの組み合わせである。撮影条件は、空間画像とともにカメラによって送信されてもよいし、既知情報として記憶装置31に格納されていてもよい。例えば、プロセッサ32は、空間画像を撮影したカメラの現実空間の位置および姿勢に対応する基準座標系における位置および姿勢を特定する。
プロセッサ32は、特定した基準座標系における位置および姿勢と、カメラの焦点距離とを参照し、基準座標系に仮想カメラを設定する。
プロセッサ32は、設定したカメラにより空間モデルを撮影したモデル画像と、空間画像とを比較する。一例として、プロセッサ32は、モデル画像から抽出した特徴量(例えばエッジ)と、空間画像から抽出した特徴量とを比較することにより、空間画像の任意の画素の基準座標系における位置を決定する。
In the first example of specifying the position of the physical object (S130), the processor 32 refers to the shooting conditions of the spatial image and the reference coordinate system, and reproduces the shooting direction of the spatial image in the reference coordinate system. Align with the spatial model. Here, the imaging condition is the position, orientation, focal length, or a combination thereof of the camera that captured the spatial image. The imaging conditions may be transmitted by the camera together with the spatial image, or may be stored in the storage device 31 as known information. For example, the processor 32 identifies the position and orientation in the reference coordinate system corresponding to the position and orientation in the physical space of the camera that captured the spatial image.
The processor 32 refers to the specified position and orientation in the reference coordinate system and the focal length of the camera, and sets the virtual camera in the reference coordinate system.
The processor 32 compares the model image of the spatial model photographed by the set camera with the spatial image. As an example, the processor 32 determines the position of an arbitrary pixel of the spatial image in the reference coordinate system by comparing the feature quantity (eg edge) extracted from the model image and the feature quantity extracted from the spatial image.

物理オブジェクトの位置の特定(S130)の第2例では、プロセッサ32は、空間モデルを特定の視点から撮影したモデル画像を空間画像と比較し、空間画像と空間モデルとの位置合わせを行う。例えば、プロセッサ32は、視点を選択することと、選択した視点から仮想カメラで空間モデルを撮影したモデル画像と空間画像とを比較することとを、視点を変更しながら繰り返す。これにより、プロセッサ32は、空間画像と最もマッチする(例えば、特徴量が最もマッチする)モデル画像を探索する。
プロセッサ32は、モデル画像の任意の画素(「対象画素」)の基準座標系における位置を当該対象画素に対応する空間画像の画素の基準座標系における位置として決定する。
In a second example of locating the physical object (S130), the processor 32 compares a model image of the spatial model taken from a particular viewpoint with the spatial image, and aligns the spatial image and the spatial model. For example, the processor 32 repeats selecting a viewpoint and comparing a model image obtained by photographing the spatial model with a virtual camera from the selected viewpoint and the spatial image while changing the viewpoint. Thereby, the processor 32 searches for a model image that best matches the spatial image (for example, the feature amount matches best).
Processor 32 determines the position in the reference coordinate system of any pixel (“target pixel”) of the model image as the position in the reference coordinate system of the pixel in the spatial image corresponding to the target pixel.

ステップS130の後に、サーバ30は、オブジェクト位置判定(S140)を実行する。
具体的には、プロセッサ32は、ステップS130において特定した物理オブジェクトの位置が、基準座標系で定義された対象領域に含まれるか否かを判定する。
After step S130, the server 30 executes object position determination (S140).
Specifically, the processor 32 determines whether the position of the physical object identified in step S130 is included in the target area defined by the reference coordinate system.

ステップS140において物理オブジェクトの位置が対象領域に含まれると判定した場合に、サーバ30は、物理オブジェクトの存在の通知(S150)を実行する。
具体的には、プロセッサ32は、物理オブジェクトが監視領域に存在することをユーザに通知する。一例として、プロセッサ32は、物理オブジェクトが監視領域に存在することをユーザに通知するための通知データ(例えば、画像、テキスト、音声、またはこれらの組み合わせ)をクライアント装置10へ送信する。
When it is determined in step S140 that the position of the physical object is included in the target area, the server 30 executes notification of the existence of the physical object (S150).
Specifically, processor 32 notifies the user that a physical object exists in the monitored area. As an example, processor 32 sends notification data (eg, image, text, sound, or a combination thereof) to client device 10 to notify the user that a physical object is present in the monitored area.

ステップS150の後、クライアント装置10は、通知(S160)を実行する。
具体的には、プロセッサ12は、サーバ30から受信した通知データに応じて、ユーザに通知を行う。一例として、プロセッサ12は、図6の画面P10をディスプレイに表示する。
After step S150, the client device 10 performs notification (S160).
Specifically, the processor 12 notifies the user according to the notification data received from the server 30 . As an example, the processor 12 displays the screen P10 of FIG. 6 on the display.

画面P10は、通知オブジェクトN10を含む。通知オブジェクトN10は、通知データに対応するメッセージ(例えば、物理オブジェクトが監視領域に存在することを示すメッセージ)に関するオブジェクトである。 Screen P10 includes a notification object N10. The notification object N10 is an object related to a message corresponding to notification data (for example, a message indicating that a physical object exists in the monitoring area).

ステップS140において物理オブジェクトの位置が対象領域に含まれないと判定した場合に、サーバ30は空間画像の取得(S110)を実行し、未処理の空間画像を取得する(つまり、物理オブジェクトに対する監視を継続する)。 When it is determined in step S140 that the position of the physical object is not included in the target area, the server 30 executes spatial image acquisition (S110) to acquire an unprocessed spatial image (that is, monitor the physical object). continue).

(5)小括
以上説明したように、本実施形態のサーバ30は、空間画像からオブジェクト画像を抽出し、空間画像と空間モデルとの位置合わせを行うことで基準座標系における物理オブジェクトの位置を特定し、特定した位置が対象領域に含まれるか否かを判定する。故に、このサーバは、対象空間において物理オブジェクトが監視領域に存在するか否かを空間画像から判別可能である。これにより、例えば、立ち入り禁止の場所、または危険な場所に人間が居ること、又は、備品が定位置でない場所に放置されていることを検知することができる。
(5) Summary As described above, the server 30 of this embodiment extracts the object image from the spatial image, and aligns the spatial image with the spatial model to determine the position of the physical object in the reference coordinate system. It is determined whether or not the specified position is included in the target area. Therefore, this server can determine from the spatial image whether or not a physical object exists in the monitored area in the target space. This makes it possible, for example, to detect that a person is in an off-limits or dangerous place, or that equipment is left out of place.

サーバ30は、物理オブジェクトの位置が対象領域に含まれる場合に、通知を行ってもよい。これにより、ユーザに、監視領域に物理オブジェクトが存在することを認識させることができる。 The server 30 may notify when the position of the physical object is included in the target area. This allows the user to recognize that a physical object exists in the monitored area.

(6)変形例
本実施形態の変形例について説明する。
(6) Modification A modification of the present embodiment will be described.

(6-1)変形例1
変形例1について説明する。変形例1は、オブジェクト画像に対応する物理オブジェクトが例外オブジェクトに該当する場合に、当該物理オブジェクトが監視領域内に存在したとしても通知を行わない例である。
(6-1) Modification 1
Modification 1 will be described. Modification 1 is an example in which, when a physical object corresponding to an object image corresponds to an exceptional object, no notification is made even if the physical object exists within the monitoring area.

(6-1-1)データベース
変形例1のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(6-1-1) Database The database of modification 1 will be described. The following databases are stored in the storage device 31.

(6-1-1-1)対象領域データベース
変形例1の対象領域データベースについて説明する。図7は、変形例1の対象領域データベースのデータ構造を示す図である。
(6-1-1-1) Target Area Database The target area database of Modification 1 will be described. FIG. 7 is a diagram showing the data structure of the target area database of Modification 1. As shown in FIG.

対象領域データベースには、対象領域情報が格納される。対象領域情報は、対象領域に関する情報である。対象領域情報を参照することで、基準座標系における対象領域の位置と、対象領域に関連付けられる例外オブジェクトを特定することができる。変形例1のサーバ30は、物理オブジェクトが対象領域内に存在すると判定した場合であっても、当該物理オブジェクトが例外オブジェクトに該当すると判定した場合には、物理オブジェクトが対象領域内に存在することをユーザに通知しない。 The target area database stores target area information. The target area information is information about the target area. By referring to the target area information, it is possible to identify the position of the target area in the reference coordinate system and the exception object associated with the target area. Even if the server 30 of Modification 1 determines that the physical object exists within the target area, if it determines that the physical object corresponds to the exception object, it determines that the physical object exists within the target area. is not notified to the user.

図7に示すように、対象領域データベースは、「領域ID」フィールドと、「領域定義」フィールドと、「例外オブジェクトID」フィールドとを含む。各フィールドは、互いに関連付けられている。 As shown in FIG. 7, the subject area database includes a "area ID" field, a "area definition" field, and an "exception object ID" field. Each field is associated with each other.

「領域ID」フィールドおよび「領域定義」フィールドは、実施形態において説明したとおりである。 The "region ID" field and "region definition" field are as described in the embodiment.

「例外オブジェクトID」フィールドには、例外オブジェクトIDが格納される。例外オブジェクトIDは、所定の例外条件を満たす物理オブジェクト(以下「例外オブジェクト」という)を識別する情報である。例外条件は、例えば、以下の少なくとも1つを含む。
・対象領域に対応する監視領域に出入りする権限が与えられた物理オブジェクトである。
・対象領域に対応する監視領域への持ち込みが許可されたた物理オブジェクトである。
The "exception object ID" field stores an exception object ID. The exception object ID is information that identifies a physical object that satisfies a predetermined exception condition (hereinafter referred to as "exception object"). Exceptional conditions include, for example, at least one of the following:
- It is a physical object authorized to enter and exit the monitoring area corresponding to the target area.
- It is a physical object that is permitted to be brought into the monitoring area corresponding to the target area.

(6-1-2)情報処理
変形例1の情報処理について説明する。図8は、変形例1の情報処理の全体フローを示す図である。
(6-1-2) Information Processing The information processing of Modification 1 will be described. FIG. 8 is a diagram showing the overall flow of information processing according to Modification 1. As shown in FIG.

図8の処理は、クライアント装置10に対してユーザにより情報処理の開始指示が入力され、サーバ30がクライアント装置10から情報処理の開始リクエストを受信したこと、または他の開始条件が成立したことに応じて開始する。 The processing in FIG. 8 is performed when the user inputs an information processing start instruction to the client device 10 and the server 30 receives an information processing start request from the client device 10 or when another start condition is satisfied. start accordingly.

図8に示すように、サーバ30は図5と同様に、空間画像の取得(S110)、およびオブジェクト画像の抽出(S120)を実行する。 As shown in FIG. 8, the server 30 acquires a spatial image (S110) and extracts an object image (S120), as in FIG.

ステップS120の後に、サーバ30は、例外オブジェクト判定(S230)を実行する。
具体的には、プロセッサ32は、ステップS120において抽出したオブジェクト画像に対応する物理オブジェクトが、対象領域に関連付けられる例外オブジェクトに該当するか否かを判定する。ステップS120において複数のオブジェクト画像を抽出した場合には、プロセッサ32は、全物理オブジェクトが例外オブジェクトに該当するか否か(つまり、少なくとも1つの物理オブジェクトが例外オブジェクトに該当しないか否か)を判定する。
After step S120, the server 30 executes exception object determination (S230).
Specifically, the processor 32 determines whether or not the physical object corresponding to the object image extracted in step S120 corresponds to the exception object associated with the target area. If a plurality of object images are extracted in step S120, the processor 32 determines whether or not all physical objects correspond to exception objects (that is, whether or not at least one physical object corresponds to an exception object). do.

例外オブジェクト判定(S230)の第1例では、プロセッサ32は、オブジェクト画像に対して画像認識処理を行うことで、物理オブジェクトが例外オブジェクトに該当するか否かを判定する。 In a first example of exceptional object determination (S230), the processor 32 determines whether or not a physical object corresponds to an exceptional object by performing image recognition processing on an object image.

例外オブジェクト判定(S230)の第2例では、プロセッサ32は、物理オブジェクトが携行するタグの識別情報を元に、物理オブジェクトが例外オブジェクトに該当するか否かを判定する。プロセッサ32は、タグから識別情報を取得してもよいし、タグの識別情報を読み取るように構成されたリーダ(不図示)から識別情報を取得してもよい。 In a second example of exceptional object determination (S230), the processor 32 determines whether the physical object corresponds to an exceptional object based on the identification information of the tag carried by the physical object. Processor 32 may obtain the identification information from the tag or may obtain the identification information from a reader (not shown) configured to read the identification information of the tag.

ステップS230において物理オブジェクトが例外オブジェクトに該当しない判定した場合に、サーバ30は図5と同様に、物理オブジェクトの位置の特定(S130)、およびオブジェクト位置判定(S140)を実行する。 When it is determined in step S230 that the physical object does not correspond to the exception object, the server 30 specifies the position of the physical object (S130) and determines the object position (S140), as in FIG.

ステップS140において物理オブジェクトの位置が対象領域に含まれると判定した場合に、サーバ30は図5と同様に、物理オブジェクトの存在の通知(S150)を実行する。 When it is determined in step S140 that the position of the physical object is included in the target area, the server 30 performs notification of the existence of the physical object (S150), as in FIG.

ステップS150の後、クライアント装置10は図5と同様に、通知(S160)を実行する。 After step S150, the client device 10 performs notification (S160), as in FIG.

ステップS230において物理オブジェクトが例外オブジェクトに該当すると判定した場合に、サーバ30は空間画像の取得(S110)を実行し、未処理の空間画像を取得する(つまり、物理オブジェクトに対する監視を継続する)。 If it is determined in step S230 that the physical object corresponds to the exception object, the server 30 executes spatial image acquisition (S110) to acquire an unprocessed spatial image (that is, continue monitoring the physical object).

ステップS140において物理オブジェクトの位置が対象領域に含まれないと判定した場合に、サーバ30は空間画像の取得(S110)を実行し、未処理の空間画像を取得する(つまり、物理オブジェクトに対する監視を継続する)。 When it is determined in step S140 that the position of the physical object is not included in the target area, the server 30 executes spatial image acquisition (S110) to acquire an unprocessed spatial image (that is, monitor the physical object). continue).

(6-1-3)小括
以上説明したように、変形例1のサーバ30は、空間画像からオブジェクト画像を抽出し、物理オブジェクトが例外オブジェクトに該当するか否かを判定する。サーバ30は、空間画像と空間モデルとの位置合わせを行うことで基準座標系における物理オブジェクトの位置を特定し、特定した位置が対象領域に含まれるか否かを判定する。故に、このサーバ30は、対象空間において物理オブジェクトが監視領域に存在するか否か、および当該物理オブジェクトが例外オブジェクトに該当するか否かを空間画像から判別可能である。これにより、例えば、立ち入り禁止の場所、若しくは危険な場所に立ち入りの許可されていない人間が居ること、又は、持ち込みの許可されていない物品が対象領域に持ち込まれたことを検知することができる。
(6-1-3) Summary As described above, the server 30 of Modification 1 extracts the object image from the spatial image and determines whether or not the physical object corresponds to the exceptional object. The server 30 identifies the position of the physical object in the reference coordinate system by aligning the spatial image and the spatial model, and determines whether or not the identified position is included in the target area. Therefore, this server 30 can determine from the space image whether or not a physical object exists in the monitored area in the target space and whether or not the physical object corresponds to an exception object. As a result, it is possible to detect, for example, that an unauthorized person is present in an off-limits or dangerous area, or that an unauthorized article is brought into the target area.

サーバ30は、物理オブジェクトが例外オブジェクトに該当せず、かつ物理オブジェクトの位置が対象領域に含まれる場合に、通知を行ってもよい。これにより、ユーザに、監視領域に例外オブジェクト以外の物理オブジェクトが存在することを認識させることができる。 The server 30 may give notification when the physical object does not correspond to the exception object and the position of the physical object is included in the target area. This allows the user to recognize that physical objects other than exception objects exist in the monitored area.

(6-2)変形例2
変形例2について説明する。変形例2は、空間画像から空間パーツに対応する空間パーツ画像を抽出し、空間パーツと物理オブジェクトとの位置関係を元に基準座標系における物理オブジェクトの位置を特定する例である。
(6-2) Modification 2
Modification 2 will be described. Modification 2 is an example in which a spatial part image corresponding to the spatial part is extracted from the spatial image, and the position of the physical object in the reference coordinate system is specified based on the positional relationship between the spatial part and the physical object.

サーバ30は、図5または図8の物理オブジェクトの位置の特定(S130)を以下に説明するように実行する。 The server 30 performs the locating (S130) of the physical object of FIG. 5 or 8 as described below.

具体的には、プロセッサ32は、空間モデルに含まれる空間パーツに対応する空間パーツ画像を空間画像から抽出する。空間パーツは、空間の構成要素(例えば、床、または壁)である。
プロセッサ32は、本実施形態または変形例1において説明したように、空間画像と空間モデルとの位置合わせを行う。これにより、プロセッサ32は、基準座標系における空間パーツ画像の各情報要素の位置を特定する。
プロセッサ32は、空間パーツと物理オブジェクトとの位置関係と、基準座標系における空間パーツ画像の各情報要素の位置とを参照し、基準座標系における物理オブジェクトの位置を特定する。
Specifically, the processor 32 extracts spatial part images corresponding to spatial parts included in the spatial model from the spatial image. Spatial parts are components of a space (eg, floors or walls).
The processor 32 aligns the spatial image and the spatial model as described in the present embodiment or modification 1. FIG. Thereby, the processor 32 identifies the position of each information element of the spatial parts image in the reference coordinate system.
Processor 32 identifies the position of the physical object in the reference coordinate system by referring to the positional relationship between the spatial part and the physical object and the position of each information element of the spatial part image in the reference coordinate system.

一例として、プロセッサ32は、物理オブジェクトの鉛直下方向の端部(例えば人間の足)が、空間の鉛直下方向の面の少なくとも一部を構成する(つまり、物理オブジェクトの鉛直下方向の端部が接触していると仮定できる)空間パーツ(例えば床)に接しているとの仮定の下で、物理オブジェクトの位置を特定する。この例では、プロセッサ32は、空間パーツのうち物理オブジェクトの鉛直下方向の端部に接触している部分の基準座標系における位置に基づいて、物理オブジェクトの鉛直下方向の端部の基準座標系における位置を決定する。ここで、空間パーツと物理オブジェクトとの位置関係は、接触に限られない。例えば、プロセッサ32は、物理オブジェクトの鉛直上方向の端部(例えば人間の頭部)が空間の鉛直下方向の面に位置する空間パーツから鉛直上方向に所定の距離(例えば、物理オブジェクトの身長)離れているとの仮定の下で、物理オブジェクトの位置を特定してもよい。 As an example, the processor 32 determines that the vertically downward edge of the physical object (for example, a human foot) constitutes at least a part of the vertically downward surface of the space (that is, the vertically downward edge of the physical object Physics objects are located under the assumption that they are in contact with a spatial part (e.g., the floor). In this example, the processor 32 calculates the reference coordinate system of the downward vertical end of the physical object based on the position of the part of the space part that is in contact with the downward vertical end of the physical object in the reference coordinate system. determine the position in Here, the positional relationship between the spatial parts and the physical object is not limited to contact. For example, the processor 32 moves the vertically upward end of the physical object (eg, a human head) vertically upward by a predetermined distance (eg, the height of the physical object) from the spatial part located on the vertically downward plane of the space. ) may locate physics objects under the assumption that they are at a distance.

以上説明したように、変形例2のサーバ30は、空間画像から空間パーツに対応する空間パーツ画像を抽出し、空間パーツと物理オブジェクトとの位置関係を元に基準座標系における物理オブジェクトの位置を特定する。これにより、基準座標系における物理オブジェクトの位置をより高精度に特定することができる。 As described above, the server 30 of Modification 2 extracts the spatial parts image corresponding to the spatial part from the spatial image, and calculates the position of the physical object in the reference coordinate system based on the positional relationship between the spatial part and the physical object. Identify. This makes it possible to specify the position of the physical object in the reference coordinate system with higher accuracy.

(6-3)変形例3
変形例3について説明する。変形例3は、オブジェクト画像のうち物理オブジェクトの少なくとも一部(「対象部位」)に対応する部分画像の寸法(例えば画素数)と、当該対象部位の寸法(例えば実寸法)とを元に基準座標系における物理オブジェクトの位置を特定する例である。
(6-3) Modification 3
Modification 3 will be described. Modification 3 is based on the size (eg, the number of pixels) of a partial image corresponding to at least a portion of the physical object (“target portion”) in the object image and the size (eg, actual size) of the target portion. It is an example of identifying the position of a physical object in a coordinate system.

サーバ30は、図5または図8の物理オブジェクトの位置の特定(S130)を以下に説明するように実行する。 The server 30 performs the locating (S130) of the physical object of FIG. 5 or 8 as described below.

具体的には、プロセッサ32は、空間画像の撮影条件(例えば、センサの基準座標系における位置姿勢、およびセンサの焦点距離)を参照し、センサから、空間画像のうち対象部位(例えば、人間の頭部)に向かうベクトル(「対象ベクトル」)の基準座標系における向きを特定する。プロセッサ32は、対象ベクトルの向きと、対象部位に対応する部分画像の空間画像における寸法と、対象部位の寸法とを参照し、対象ベクトルの大きさを特定する。プロセッサ32は、センサの位置と、対象ベクトルの向きおよび大きさとを参照し、基準座標系における対象部位の位置を特定する。 Specifically, the processor 32 refers to the shooting conditions of the spatial image (for example, the position and orientation of the sensor in the reference coordinate system and the focal length of the sensor), and extracts the target part (for example, the human body) from the spatial image from the sensor. Determine the orientation in the reference coordinate system of the vector (the "target vector") directed toward the head). The processor 32 refers to the direction of the target vector, the dimension of the partial image corresponding to the target region in the spatial image, and the dimension of the target region to identify the magnitude of the target vector. Processor 32 refers to the position of the sensor and the direction and magnitude of the target vector to identify the position of the target site in the reference coordinate system.

以上説明したように、変形例3のサーバ30は、オブジェクト画像のうち物理オブジェクトの対象部位に対応する部分画像の寸法と、当該対象部位の寸法とを元に基準座標系における物理オブジェクトの位置を特定する。これにより、基準座標系における物理オブジェクトの位置をより高精度に特定することができる。 As described above, the server 30 of Modification 3 calculates the position of the physical object in the reference coordinate system based on the dimensions of the partial image corresponding to the target portion of the physical object in the object image and the dimensions of the target portion. Identify. This makes it possible to specify the position of the physical object in the reference coordinate system with higher accuracy.

(7)その他の変形例
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
(7) Other Modifications The storage device 11 may be connected to the client device 10 via the network NW. Storage device 31 may be connected to server 30 via network NW.

上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。 Each step of the information processing described above can be executed by either the client device 10 or the server 30 .

サーバ30は、所定のアルゴリズムに従って、対象領域を特定してもよい。
一例として、サーバ30は、空間モデルと、空間画像の撮影時刻とを参照し、当該撮影時刻に対応する対象領域を特定してもよい。ここで、空間モデルは、時刻に対して可変に対象領域を定義する4次元モデルであってよい。これにより、時刻ベースで対象領域を設定することができる。例えばある空間パーツに対する施工期間中には当該空間パーツの周辺を対象領域に含め、かつ施工期間終了後には当該空間パーツの周辺を対象領域から除外することができる。同様に、例外オブジェクトIDが、時刻に関して可変に定義されてもよい。
The server 30 may identify the target area according to a predetermined algorithm.
As an example, the server 30 may refer to the spatial model and the shooting time of the spatial image, and identify the target area corresponding to the shooting time. Here, the spatial model may be a four-dimensional model that variably defines the target area with respect to time. Thereby, the target area can be set on a time basis. For example, it is possible to include the surroundings of a certain space part in the target area during the construction period for the space part, and exclude the surroundings of the space part from the target area after the construction period ends. Similarly, exception object IDs may be defined variably with respect to time.

サーバ30は、ユーザの指示に応じて、対象領域を特定してもよい。第1の例として、ユーザは、クライアント装置10のディスプレイに表示された空間モデルを確認しながら、基準座標系における領域を対象領域として設定する。第2の例として、第2の例として、ユーザは、クライアント装置10のディスプレイに表示された点群データを確認しながら、基準座標系における領域を対象領域として設定する。点群データは、例えばデプスカメラによって生成された空間画像(点群)データであってもよいし、複数の空間画像(2次元画像)データに対してSfM(Structure from Motion)処理を行うことで作成されてもよい。例えば、サーバ30は、ユーザの指示に応じて対象領域情報を生成し、対象領域データベース(図4または図7)に格納してもよい。これにより、ユーザに課される物理オブジェクトの監視業務の内容に応じて対象領域を柔軟かつ正確に設定することができる。 The server 30 may specify the target area according to the user's instruction. As a first example, the user sets an area in the reference coordinate system as the target area while checking the space model displayed on the display of the client device 10 . As a second example, the user sets an area in the reference coordinate system as the target area while checking the point cloud data displayed on the display of the client device 10 . The point cloud data may be, for example, spatial image (point cloud) data generated by a depth camera, or by performing SfM (Structure from Motion) processing on a plurality of spatial image (two-dimensional image) data. may be created. For example, the server 30 may generate target area information according to a user's instruction and store it in the target area database (FIG. 4 or FIG. 7). This makes it possible to flexibly and accurately set the target area in accordance with the contents of the physical object monitoring task imposed on the user.

実施形態では、物理オブジェクトの位置が対象領域に含まれると判定した場合に、物理オブジェクトが監視領域に存在することをユーザに通知する例を示した。しかしながら、サーバ30は、物理オブジェクトの位置が対象領域に含まれないと判定した場合に、物理オブジェクトが監視領域に存在しないことをユーザに通知してもよい。 In the embodiment, an example is given in which the user is notified that the physical object exists in the monitored area when it is determined that the position of the physical object is included in the target area. However, when the server 30 determines that the position of the physical object is not included in the target area, the server 30 may notify the user that the physical object does not exist in the monitored area.

変形例1では、物理オブジェクトが例外オブジェクトに該当せず、かつ物理オブジェクトの位置が対象領域に含まれると判定した場合に、物理オブジェクトが監視領域に存在することをユーザに通知する例を示した。しかしながら、サーバ30は、物理オブジェクトが例外オブジェクトに該当せず、かつ物理オブジェクトの位置が対象領域に含まれないと判定した場合に、物理オブジェクトが監視領域に存在しないことをユーザに通知してもよい。
或いは、サーバ30は、物理オブジェクトが例外オブジェクトに該当し、かつ物理オブジェクトの位置が対象領域に含まれないと判定した場合に、物理オブジェクトが監視領域に存在しないことをユーザに通知してもよい。
或いは、サーバ30は、物理オブジェクトが例外オブジェクトに該当し、かつ物理オブジェクトの位置が対象領域に含まれると判定した場合に、物理オブジェクトが監視領域に存在することをユーザに通知してもよい。
In Modified Example 1, when it is determined that the physical object does not correspond to the exception object and the position of the physical object is included in the target area, the user is notified that the physical object exists in the monitoring area. . However, if the server 30 determines that the physical object does not correspond to the exception object and the position of the physical object is not included in the target area, the server 30 notifies the user that the physical object does not exist in the monitored area. good.
Alternatively, the server 30 may notify the user that the physical object does not exist in the monitoring area when determining that the physical object corresponds to the exception object and the position of the physical object is not included in the target area. .
Alternatively, the server 30 may notify the user that the physical object exists in the monitoring area when determining that the physical object corresponds to the exception object and the position of the physical object is included in the target area.

実施形態および変形例では、物理オブジェクトの存在を通知した後に、情報処理を終了する例を示した。しかしながら、物理オブジェクトを通知した後に、サーバ30は空間画像の取得(S110)を実行し、未処理の空間画像を取得してもよい(つまり、物理オブジェクトに対する監視の継続)。 In the embodiment and the modified example, the example of ending the information processing after notifying the existence of the physical object has been shown. However, after notifying the physical object, the server 30 may perform spatial image acquisition (S110) to acquire the unprocessed spatial image (ie, continue monitoring the physical object).

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Also, the above embodiments can be modified and modified in various ways without departing from the gist of the present invention. Also, the above embodiments and modifications can be combined.

(8)付記
実施形態および変形例で説明した事項を、以下に付記する。
(8) Supplementary notes The matters explained in the embodiment and the modified example are additionally noted below.

(付記1)
対象空間に関する空間画像を取得する手段(S110)と、
空間画像に含まれるオブジェクト画像を空間画像から抽出する手段(S120)と、
空間画像と対象空間に関する空間モデルとの位置合わせを行うことで、空間モデルの基準座標系におけるオブジェクト画像に対応する物理オブジェクトの位置を特定する手段(S130)と、
特定された物理オブジェクトの位置が、基準座標系で定義された対象領域に含まれるか否かを判定する手段(S140)と
を具備する、情報処理装置(30)。
(Appendix 1)
means for acquiring a spatial image of the target space (S110);
means for extracting an object image included in the spatial image from the spatial image (S120);
means for identifying the position of the physical object corresponding to the object image in the reference coordinate system of the spatial model by aligning the spatial image with the spatial model for the target space (S130);
An information processing apparatus (30) comprising: means (S140) for determining whether or not the specified position of the physical object is included in a target area defined by a reference coordinate system.

(付記2)
特定された物理オブジェクトの位置が対象領域に含まれる場合に、通知を行う手段(S150)をさらに具備する、
付記1に記載の情報処理装置。
(Appendix 2)
Further comprising means for notifying (S150) when the position of the specified physical object is included in the target area,
The information processing device according to appendix 1.

(付記3)
物理オブジェクトが所定の例外条件を満たす例外オブジェクトに該当するか否かを判定する手段(S230)をさらに具備する、
付記1または付記2に記載の情報処理装置。
(Appendix 3)
further comprising means (S230) for determining whether the physical object corresponds to an exception object that satisfies a predetermined exception condition;
The information processing apparatus according to appendix 1 or appendix 2.

(付記4)
物理オブジェクトが例外オブジェクトに該当せず、かつ特定された物理オブジェクトの位置が対象領域に含まれる場合に、通知を行う手段(S150)をさらに具備する、
付記3に記載の情報処理装置。
(Appendix 4)
Further comprising means (S150) for notifying when the physical object does not correspond to the exception object and the position of the specified physical object is included in the target area,
The information processing device according to appendix 3.

(付記5)
物理オブジェクトの位置を特定する手段は、
空間モデルに含まれる空間パーツに対応する空間パーツ画像を空間画像から抽出し、
空間パーツと物理オブジェクトとの位置関係と、基準座標系における空間パーツの位置とを参照し、基準座標系における物理オブジェクトの位置を特定する、
付記1乃至付記4のいずれかに記載の情報処理装置。
(Appendix 5)
A means of determining the position of a physical object is
A spatial part image corresponding to the spatial part included in the spatial model is extracted from the spatial image,
Identifying the position of the physical object in the reference coordinate system by referring to the positional relationship between the spatial part and the physical object and the position of the spatial part in the reference coordinate system;
The information processing apparatus according to any one of appendices 1 to 4.

(付記6)
空間パーツは、対象空間の鉛直下方向の面の少なくとも一部を構成する、
付記5に記載の情報処理装置。
(Appendix 6)
The space part constitutes at least a part of the vertically downward surface of the target space,
The information processing device according to appendix 5.

(付記7)
物理オブジェクトの位置を特定する手段は、オブジェクト画像のうち物理オブジェクトの少なくとも一部である対象部位に対応する部分画像の寸法と、対象部位の寸法とをさらに参照し、基準座標系における物理オブジェクトの位置を特定する、
付記1乃至付記6のいずれかに記載の情報処理装置。
(Appendix 7)
The means for specifying the position of the physical object further refers to the dimensions of a partial image corresponding to the target portion, which is at least a part of the physical object, in the object image and the dimensions of the target portion to determine the position of the physical object in the reference coordinate system. locate,
The information processing apparatus according to any one of appendices 1 to 6.

(付記8)
空間モデルと、空間画像の撮影時刻とを参照し、撮影時刻に対応する対象領域を特定する手段をさらに具備し、
空間モデルは、時系列に沿って変化し、かつ対象空間に関するモデルである、
付記1乃至付記7のいずれかに記載の情報処理装置。
(Appendix 8)
further comprising means for referring to the spatial model and the shooting time of the spatial image, and specifying a target area corresponding to the shooting time;
The spatial model changes along the time series and is a model for the target space,
The information processing apparatus according to any one of appendices 1 to 7.

(付記9)
ユーザの指示に応じて、対象領域を特定する手段
をさらに具備する、付記1乃至付記7のいずれかに記載の情報処理装置。
(Appendix 9)
8. The information processing apparatus according to any one of appendices 1 to 7, further comprising means for specifying a target area according to a user's instruction.

(付記10)
コンピュータ(30)が、
対象空間に関する空間画像を取得すること(S110)と、
空間画像に含まれるオブジェクト画像を空間画像から抽出すること(S120)と、
空間画像と対象空間に関する空間モデルとの位置合わせを行うことで、空間モデルの基準座標系におけるオブジェクト画像に対応する物理オブジェクトの位置を特定すること(S130)と、
特定された物理オブジェクトの位置が、基準座標系で定義された対象領域に含まれるか否かを判定すること(S140)と
を具備する、情報処理方法。
(Appendix 10)
a computer (30)
obtaining a spatial image of the target space (S110);
extracting an object image included in the spatial image from the spatial image (S120);
locating a physical object corresponding to the object image in a reference coordinate system of the spatial model by aligning the spatial image with the spatial model for the target space (S130);
Determining whether or not the position of the specified physical object is included in a target area defined by a reference coordinate system (S140).

(付記11)
コンピュータ(30)に、付記1~付記9の何れかに記載の各手段を実現させるためのプログラム。
(Appendix 11)
A program for causing a computer (30) to implement each means according to any one of Appendices 1 to 9.

1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
50 :センサ
1: Information processing system 10 : Client device 11 : Storage device 12 : Processor 13 : Input/output interface 14 : Communication interface 30 : Server 31 : Storage device 32 : Processor 33 : Input/output interface 34 : Communication interface 50 : Sensor

Claims (11)

対象空間に関する空間画像を取得する手段と、
前記空間画像に含まれるオブジェクト画像を前記空間画像から抽出する手段と、
前記空間画像と前記対象空間に関する空間モデルとの位置合わせを行うことで、前記空間モデルの基準座標系における前記オブジェクト画像に対応する物理オブジェクトの位置を特定する手段と、
前記特定された物理オブジェクトの位置が、前記基準座標系で定義された対象領域に含まれるか否かを判定する手段と
を具備する、情報処理装置。
means for obtaining a spatial image of a target space;
means for extracting an object image included in the spatial image from the spatial image;
means for locating a physical object corresponding to the object image in a reference coordinate system of the spatial model by aligning the spatial image with a spatial model for the target space;
and means for determining whether or not the specified position of the physical object is included in a target area defined by the reference coordinate system.
前記特定された物理オブジェクトの位置が前記対象領域に含まれる場合に、通知を行う手段をさらに具備する、
請求項1に記載の情報処理装置。
further comprising means for notifying when the position of the identified physical object is included in the target area;
The information processing device according to claim 1 .
前記物理オブジェクトが所定の例外条件を満たす例外オブジェクトに該当するか否かを判定する手段をさらに具備する、
請求項1または請求項2に記載の情報処理装置。
further comprising means for determining whether the physical object corresponds to an exception object that satisfies a predetermined exception condition;
The information processing apparatus according to claim 1 or 2.
前記物理オブジェクトが前記例外オブジェクトに該当せず、かつ前記特定された物理オブジェクトの位置が前記対象領域に含まれる場合に、通知を行う手段をさらに具備する、
請求項3に記載の情報処理装置。
further comprising means for notifying when the physical object does not correspond to the exception object and the position of the identified physical object is included in the target area;
The information processing apparatus according to claim 3.
前記物理オブジェクトの位置を特定する手段は、
前記空間モデルに含まれる空間パーツに対応する空間パーツ画像を前記空間画像から抽出し、
前記空間パーツと前記物理オブジェクトとの位置関係と、前記基準座標系における前記空間パーツの位置とを参照し、前記基準座標系における前記物理オブジェクトの位置を特定する、
請求項1乃至請求項4のいずれかに記載の情報処理装置。
The means for locating the physical object comprises:
extracting a spatial part image corresponding to the spatial part included in the spatial model from the spatial image;
identifying the position of the physical object in the reference coordinate system by referring to the positional relationship between the spatial part and the physical object and the position of the spatial part in the reference coordinate system;
The information processing apparatus according to any one of claims 1 to 4.
前記空間パーツは、前記対象空間の鉛直下方向の面の少なくとも一部を構成する、
請求項5に記載の情報処理装置。
The spatial parts constitute at least part of a vertically downward surface of the target space,
The information processing device according to claim 5 .
前記物理オブジェクトの位置を特定する手段は、前記オブジェクト画像のうち前記物理オブジェクトの少なくとも一部である対象部位に対応する部分画像の寸法と、前記対象部位の寸法とをさらに参照し、前記基準座標系における前記物理オブジェクトの位置を特定する、
請求項1乃至請求項6のいずれかに記載の情報処理装置。
The means for specifying the position of the physical object further refers to the size of a partial image corresponding to a target portion that is at least a part of the physical object in the object image and the size of the target portion, and further refers to the reference coordinates. identifying the position of the physics object in a system;
The information processing apparatus according to any one of claims 1 to 6.
前記空間モデルと、前記空間画像の撮影時刻とを参照し、前記撮影時刻に対応する対象領域を特定する手段をさらに具備し、
前記空間モデルは、時系列に沿って変化し、かつ前記対象空間に関するモデルである、
請求項1乃至請求項7のいずれかに記載の情報処理装置。
further comprising means for referring to the spatial model and the shooting time of the spatial image and specifying a target area corresponding to the shooting time;
The spatial model changes along a time series and is a model for the target space,
The information processing apparatus according to any one of claims 1 to 7.
ユーザの指示に応じて、前記対象領域を特定する手段
をさらに具備する、請求項1乃至請求項7のいずれかに記載の情報処理装置。
8. The information processing apparatus according to any one of claims 1 to 7, further comprising means for specifying said target area according to a user's instruction.
コンピュータが、
対象空間に関する空間画像を取得することと、
前記空間画像に含まれるオブジェクト画像を前記空間画像から抽出することと、
前記空間画像と前記対象空間に関する空間モデルとの位置合わせを行うことで、前記空間モデルの基準座標系における前記オブジェクト画像に対応する物理オブジェクトの位置を特定することと、
前記特定された物理オブジェクトの位置が、前記基準座標系で定義された対象領域に含まれるか否かを判定することと
を具備する、情報処理方法。
the computer
obtaining a spatial image of the target space;
extracting an object image included in the spatial image from the spatial image;
locating a physical object corresponding to the object image in a reference coordinate system of the spatial model by aligning the spatial image with a spatial model for the target space;
and determining whether or not the identified position of the physical object is included in a target area defined by the reference coordinate system.
コンピュータに、請求項1~請求項9の何れかに記載の各手段を実現させるためのプログラム。 A program for causing a computer to implement each means according to any one of claims 1 to 9.
JP2021005596A 2021-01-18 2021-01-18 Information processing device, information processing method, and program Active JP7344570B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021005596A JP7344570B2 (en) 2021-01-18 2021-01-18 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021005596A JP7344570B2 (en) 2021-01-18 2021-01-18 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2022110291A true JP2022110291A (en) 2022-07-29
JP7344570B2 JP7344570B2 (en) 2023-09-14

Family

ID=82570404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021005596A Active JP7344570B2 (en) 2021-01-18 2021-01-18 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7344570B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249722A (en) * 2006-03-17 2007-09-27 Hitachi Ltd Object detector
JP2017091063A (en) * 2015-11-05 2017-05-25 キヤノン株式会社 Object detector, information processor, and method of the processor
WO2020174634A1 (en) * 2019-02-27 2020-09-03 株式会社 テクノミライ Accurate digital security system, method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249722A (en) * 2006-03-17 2007-09-27 Hitachi Ltd Object detector
JP2017091063A (en) * 2015-11-05 2017-05-25 キヤノン株式会社 Object detector, information processor, and method of the processor
WO2020174634A1 (en) * 2019-02-27 2020-09-03 株式会社 テクノミライ Accurate digital security system, method, and program

Also Published As

Publication number Publication date
JP7344570B2 (en) 2023-09-14

Similar Documents

Publication Publication Date Title
JP7282851B2 (en) Apparatus, method and program
JP6534499B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
US11410415B2 (en) Processing method for augmented reality scene, terminal device, system, and computer storage medium
WO2018107910A1 (en) Method and device for fusing panoramic video images
JP6700580B2 (en) Situation determination system, situation determination method, and situation determination program
KR101467663B1 (en) Method and system of providing display in display monitoring system
JP6841608B2 (en) Behavior detection system
JP2013242812A (en) Information processing device and information processing method
WO2016031314A1 (en) Individual identification device, individual identification method, and individual identification program
JP2011060058A (en) Imaging apparatus and monitoring system
CN106937532A (en) System and method for detecting actual user
JP2019174920A (en) Article management system and article management program
JP2020052822A (en) Information processing apparatus, authentication system, control method thereof, and program
JP7344570B2 (en) Information processing device, information processing method, and program
CN113228117B (en) Authoring apparatus, authoring method, and recording medium having an authoring program recorded thereon
JP6393409B2 (en) Image recognition system, camera state estimation device, and program
JP2009301242A (en) Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program
CN110036406B (en) Collection system, recording medium storing terminal program, and collection method
JP2020088840A (en) Monitoring device, monitoring system, monitoring method, and monitoring program
WO2020111053A1 (en) Monitoring device, monitoring system, monitoring method, and monitoring program
JP7152651B2 (en) Program, information processing device, and information processing method
JP2017028688A (en) Image managing device, image managing method and program
JPWO2016152182A1 (en) Abnormal state detection device, abnormal state detection method, and abnormal state detection program
Jacobsen et al. Real-time lidar for monitoring construction worker presence near hazards and in work areas in a virtual reality environment
JP6213106B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230214

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230828

R150 Certificate of patent or registration of utility model

Ref document number: 7344570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150