JP2022110291A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2022110291A JP2022110291A JP2021005596A JP2021005596A JP2022110291A JP 2022110291 A JP2022110291 A JP 2022110291A JP 2021005596 A JP2021005596 A JP 2021005596A JP 2021005596 A JP2021005596 A JP 2021005596A JP 2022110291 A JP2022110291 A JP 2022110291A
- Authority
- JP
- Japan
- Prior art keywords
- image
- spatial
- physical object
- information processing
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 54
- 238000003672 processing method Methods 0.000 title description 2
- 238000012986 modification Methods 0.000 description 25
- 230000004048 modification Effects 0.000 description 25
- 238000012544 monitoring process Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 239000000284 extract Substances 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 108091007871 OBI1 Proteins 0.000 description 3
- 102100035702 ORC ubiquitin ligase 1 Human genes 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本開示は、情報処理装置、情報処理方法、およびプログラムに関する。 The present disclosure relates to an information processing device, an information processing method, and a program.
従来、監視カメラを用いて、立ち入り禁止領域への人の侵入を監視することがある。 Conventionally, surveillance cameras are sometimes used to monitor human intrusion into restricted areas.
特許文献1には、時間的な変化をもとにして映像中の変化検出領域を決定し、変化検出領域の幾何学的特徴量が侵入者に対応するかどうかを判断し、侵入者が存在すると判断された場合、侵入者の画像中の位置を特定することが記載されている。
In
特許文献1によれば、侵入者の画像中の位置が特定される。しかしながら、画像中の位置と実空間における位置との関係は明らかではない。故に、カメラの視野が立ち入り禁止領域に比べて広範囲である場合に、侵入者の画像中の位置を特定したとしても立ち入り禁止領域に侵入者が存在するか否かを直ちに判別することができない。
According to
本開示の目的は、監視領域に物理オブジェクトが存在するか否かを判別することである。 An object of the present disclosure is to determine whether a physical object exists in a monitored area.
本開示の一態様に係る情報処理装置は、対象空間に関する空間画像を取得する手段と、空間画像に含まれるオブジェクト画像を空間画像から抽出する手段と、空間画像と対象空間に関する空間モデルとの位置合わせを行うことで、空間モデルの基準座標系におけるオブジェクト画像に対応する物理オブジェクトの位置を特定する手段と、特定された物理オブジェクトの位置が、基準座標系で定義された対象領域に含まれるか否かを判定する手段とを具備する。 An information processing apparatus according to an aspect of the present disclosure includes means for obtaining a spatial image regarding a target space, means for extracting an object image included in the spatial image from the spatial image, and position of the spatial image and a spatial model regarding the target space. Alignment includes means for identifying a position of a physical object corresponding to the object image in a reference coordinate system of the spatial model and whether the identified physical object position falls within a region of interest defined by the reference coordinate system. means for determining whether or not
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 An embodiment of the present invention will be described in detail below with reference to the drawings. In the drawings for describing the embodiments, in principle, the same constituent elements are denoted by the same reference numerals, and repeated description thereof will be omitted.
(1)情報処理システムの構成
本実施形態の情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
(1) Configuration of information processing system The configuration of the information processing system of this embodiment will be described. FIG. 1 is a block diagram showing the configuration of the information processing system of this embodiment.
図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIG. 1 , the
The
クライアント装置10は、情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
The
サーバ30は、情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。サーバ30は、対象となる空間(「対象空間」と称する)に関する画像(空間画像)と、対象空間に関する空間モデルとを参照し、対象空間において物理オブジェクトが存在するか否かを監視すべき領域(「監視領域」と称する)に物理オブジェクトが存在するか否かを判定する。サーバ30は、判定結果に応じて、クライアント装置10を介してユーザに通知を行う。
The
空間画像は、対象空間に設置されたセンサ(図示しない)によって生成される。ここで、画像とは、光学的なセンシング結果を意味する。以降の説明において、画像は、イメージセンサによって生成された2次元画像であることとする。しかしながら、画像は、デプスカメラによって生成された点群(カラー点群を含み得る)であってもよい。 Spatial images are generated by sensors (not shown) placed in the target space. Here, an image means an optical sensing result. In the following description, images are assumed to be two-dimensional images generated by an image sensor. However, the image may also be a point cloud (which may include color point clouds) generated by a depth camera.
センサは、対象空間に設置される。センサは、センシングを行い、画像を生成する。センサは、画像をサーバ30または図示しない画像サーバに送信する。センサは、任意の種別の光学センサ装置である。センサは、以下のいずれかであってよい。
・カメラ
・デプスカメラ
・LIDAR(Light Detection And Ranging)
・ToF(Time of Flight)カメラ
・レーザスキャナ
A sensor is installed in the target space. A sensor performs sensing and generates an image. The sensor transmits the image to server 30 or an image server (not shown). A sensor is any type of optical sensor device. A sensor may be any of the following:
・Camera ・Depth camera ・LIDAR (Light Detection And Ranging)
・ToF (Time of Flight) camera ・Laser scanner
(1-1)クライアント装置の構成
本実施形態のクライアント装置の構成について説明する。図2は、本実施形態のクライアント装置およびサーバの構成を示すブロック図である。
(1-1) Configuration of Client Apparatus The configuration of the client apparatus according to this embodiment will be described. FIG. 2 is a block diagram showing configurations of a client device and a server according to this embodiment.
図1に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。
As shown in FIG. 1, the
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
Programs include, for example, the following programs.
・OS (Operating System) program ・Application (for example, web browser) program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータ及びデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
・Data and databases referenced in information processing ・Data obtained by executing information processing (that is, execution results of information processing)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動してデータを処理することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。記憶装置11により記憶されるプログラム及びデータは、ネットワークを介して提供されてもよいし、コンピュータにより読み取り可能な記録媒体に記録して提供されてもよい。なお、クライアント装置10の機能の少なくとも一部が、1又は複数の専用のハードウェアにより実現されていてもよい。
The
入出力インタフェース13は、クライアント装置10に接続される入力デバイスから信号(例えば、ユーザの指示)を取得し、かつ、クライアント装置10に接続される出力デバイスに信号(例えば、画像信号)を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input/output interface 13 acquires a signal (for example, a user's instruction) from an input device connected to the
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
An output device is, for example, a display.
通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
Communication interface 14 is configured to control communications between
(1-2)サーバの構成
図2を参照して、サーバ30の構成について説明する。
(1-2) Server Configuration The configuration of the
図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
As shown in FIG. 2, the
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
Programs include, for example, the following programs.
・OS program ・Application program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータ及びデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・Data and databases referenced in information processing ・Execution results of information processing
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。記憶装置31により記憶されるプログラム及びデータは、ネットワークを介して提供されてもよいし、コンピュータにより読み取り可能な記録媒体に記録して提供されてもよい。なお、サーバ30の機能の少なくとも一部が、1又は複数の専用のハードウェアにより実現されていてもよい。
The
入出力インタフェース33は、サーバ30に接続される入力デバイスから信号(例えば、ユーザの指示)を取得し、かつ、サーバ30に接続される出力デバイスに信号(例えば、画像信号)を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input/
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
An output device is, for example, a display.
通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。
Communication interface 34 is configured to control communications between
(2)実施形態の概要
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
(2) Outline of Embodiment An outline of the present embodiment will be described. FIG. 3 is an explanatory diagram of the outline of this embodiment.
図3に示すように、対象空間SPに設置されたセンサ50は、例えば対象空間SPを撮影し、対象空間SPに関する空間画像SI1を生成する。空間画像SI1には、撮影時に対象空間SPに存在した物理オブジェクトOBJ1に対応するオブジェクト画像OBI1が含まれる。ここで、物理オブジェクトは、人間、物体、人間以外の生物、またはこれらの組み合わせである。
As shown in FIG. 3, the
記憶装置31には、対象空間SPに関する空間モデルSMが格納されている。空間モデルは、例えば、以下の少なくとも1つを含む。
・3次元モデル(一例として、BIM(Building Information Modeling)データ)
・時系列に沿って変化する3次元モデルに関する4次元モデル(一例として、時間情報が付与されたBIMデータ)
The
・3D model (BIM (Building Information Modeling) data as an example)
・ 4D model related to 3D model that changes along time series (as an example, BIM data with time information added)
サーバ30は、空間画像SI1を取得し、空間画像SI1からオブジェクト画像OBI1を抽出する。サーバ30は、空間画像SI1と、空間モデルSMとの位置合わせを行う。一例として、サーバ30は、オブジェクト画像OBI1に含まれる各情報要素(画素、または点)の位置を基準座標系における位置へ変換する。これにより、サーバ30は、空間モデルSMに対応する座標系(「基準座標系」と称する)における物理オブジェクトの位置を特定する。
The
対象空間SPには、物理オブジェクトが存在するか否かを監視すべき領域(「監視領域」)が存在する。空間モデルSMは対象空間SPにおけるいずれかの構成要素と位置合わせすることが可能である(つまり、空間モデルSMの基準座標系と対象空間SPの座標系(「グローバル座標系」)とを対応付けることができる)から、対象空間SPにおける任意の領域は、基準座標系で表現された領域に変換可能である。監視領域を基準座標系で表現した領域を「対象領域」と称する。設定者は例えば空間モデルSMの3次元ビューを閲覧しながら基準座標系における所望の場所を対象領域として直感的に設定可能である。対象空間を設定することで、対象空間SPにおける対応する場所が監視領域として特定される。また、センサ50の視野(例えば、センサ50の位置、姿勢、焦点距離、またはそれらの組み合わせ)が変更される場合であっても、対象領域TR1および監視領域は不変である。図3の例では、対象領域TR1が、空間モデルSMに設定されている。サーバ30は、基準座標系における物理オブジェクトOBJ1の位置が対象領域TR1に含まれるか否かを判定することで、対象空間SPにおいて物理オブジェクトOBJ1が監視領域に存在するか否かを判定できる。
In the target space SP, there is an area (“monitoring area”) to monitor whether or not a physical object exists. The spatial model SM can be aligned with any component in the object space SP (i.e., matching the reference coordinate system of the spatial model SM with the coordinate system of the object space SP (“global coordinate system”). ), any region in the object space SP can be transformed into a region expressed in the reference coordinate system. A region obtained by expressing the monitoring region in the reference coordinate system is called a “target region”. A setting person can, for example, intuitively set a desired location in the reference coordinate system as a target area while viewing a three-dimensional view of the space model SM. By setting the target space, the corresponding location in the target space SP is specified as the monitoring area. Moreover, even when the field of view of the sensor 50 (for example, the position, orientation, focal length, or combination thereof) of the
サーバ30は、基準座標系における物理オブジェクトOBJ1の位置が対象領域TR1に含まれると判定した場合に、ユーザUSに対して通知を行う。具体的には、サーバ30は、物理オブジェクトOBJ1が対象領域TR1に対応する監視領域に存在することをユーザUSに通知するための通知データ(例えば、画像、テキスト、音声、またはこれらの組み合わせ)をクライアント装置10へ送信する。クライアント装置10は、サーバ30から受信した通知データに応じて、ユーザUSに通知を行う。一例として、クライアント装置10は、出力画像OI1をディスプレイに表示させる。
When the
このように、サーバ30は、対象空間SPにおいて物理オブジェクトが監視領域に存在するか否かを空間画像から判別可能である。つまり、このサーバ30によれば、例えば、立ち入り禁止の場所、または危険な場所に人間が居ることを検知したり、備品が定位置でない場所に放置されていることを検知したりすることができる。
Thus, the
(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3) Database The database of this embodiment will be described. The following databases are stored in the
(3-1)対象領域データベース
本実施形態の対象領域データベースについて説明する。図4は、本実施形態の対象領域データベースのデータ構造を示す図である。
(3-1) Target Area Database The target area database of this embodiment will be described. FIG. 4 is a diagram showing the data structure of the target area database of this embodiment.
対象領域データベースには、対象領域情報が格納される。対象領域情報は、対象領域に関する情報である。対象領域情報を参照することで、基準座標系における対象領域の位置を特定することができる。 The target area database stores target area information. The target area information is information about the target area. By referring to the target area information, the position of the target area in the reference coordinate system can be specified.
図4に示すように、対象領域データベースは、「領域ID」フィールドと、「領域定義」フィールドとを含む。各フィールドは、互いに関連付けられている。 As shown in FIG. 4, the target area database includes an "area ID" field and an "area definition" field. Each field is associated with each other.
「領域ID」フィールドには、領域IDが格納される。領域IDは、対象領域を識別する情報である。 An area ID is stored in the "area ID" field. The area ID is information that identifies the target area.
「領域定義」フィールドには、領域定義情報が格納される。領域定義情報は、対象領域の定義に関する情報である。一例として、領域定義情報は、領域形状情報と座標情報とを含む。 The "area definition" field stores area definition information. The area definition information is information relating to the definition of the target area. As an example, the area definition information includes area shape information and coordinate information.
領域形状情報は、対象領域の形状に関する情報である。対象領域は、3次元形状(例えば、対象領域の水平面形状(一例として、幅及び奥行き)、並びに、対象領域の垂直方向の形状(一例として、高さ))であってもよいし、2次元形状(例えば、対象領域の水平面形状)であってもよい。 The area shape information is information about the shape of the target area. The target area may be a three-dimensional shape (for example, a horizontal shape of the target area (width and depth as an example) and a vertical shape of the target area (height as an example)), or two-dimensional. It may be a shape (for example, a horizontal plane shape of the region of interest).
座標情報は、対象領域の所定の点の基準座標系における座標に関する情報である。一例として、座標情報は、対象領域を構成する各頂点の基準座標系における座標に関する情報を含む。 The coordinate information is information about the coordinates of a predetermined point in the target area in the reference coordinate system. As an example, the coordinate information includes information on the coordinates of each vertex forming the target area in the reference coordinate system.
(4)情報処理
本実施形態の情報処理について説明する。図5は、本実施形態の情報処理の全体フローを示す図である。図6は、本実施形態の情報処理において表示される画面例を示す図である。
(4) Information processing Information processing according to the present embodiment will be described. FIG. 5 is a diagram showing the overall flow of information processing according to this embodiment. FIG. 6 is a diagram showing an example of a screen displayed during information processing according to this embodiment.
図5の処理は、開始条件が成立したことに応じて開始する。開始条件は、例えば以下の少なくとも1つを含むことができる。
・クライアント装置10に対してユーザにより情報処理の開始指示が入力され、サーバ30がクライアント装置10から情報処理の開始リクエストを受信した
・所定の日時が到来した
The processing in FIG. 5 starts when the start condition is satisfied. Entry conditions can include, for example, at least one of the following:
- The user has input an instruction to start information processing to the
図5に示すように、サーバ30は、空間画像の取得(S110)を実行する。
具体的には、プロセッサ32は、図示しないセンサまたは画像サーバから空間画像を取得する。
As shown in FIG. 5, the
Specifically,
ステップS110の後に、サーバ30は、オブジェクト画像の抽出(S120)を実行する。
具体的には、プロセッサ32は、ステップS110において取得した空間画像からオブジェクト画像を抽出する。一例として、プロセッサ32は、空間画像に対して画像認識処理を行うことで、空間画像の撮影時に対象空間に存在した物理オブジェクトに対応するオブジェクト画像を特定する。例えば、物理オブジェクトは、監視対象となる物理オブジェクト(一例として、人物)である。
After step S110, the
Specifically,
ステップS120の後に、サーバ30は、物理オブジェクトの位置の特定(S130)を実行する。
具体的には、プロセッサ32は、ステップS110において取得した空間画像と対象空間に関する空間モデルとの位置合わせを行う。一例として、プロセッサ32は、空間画像に含まれるオブジェクト画像の各情報要素の位置を基準座標系における位置へ変換する。これにより、プロセッサ32は、空間モデルに対応する基準座標系における物理オブジェクトの位置を特定する。
After step S120, the
Specifically, the
物理オブジェクトの位置の特定(S130)の第1例では、プロセッサ32は、空間画像の撮影条件および基準座標系を参照して空間画像の撮影方向を基準座標系で再現することで、空間画像と空間モデルとの位置合わせを行う。ここで、撮影条件は、空間画像を撮影したカメラの位置、姿勢、焦点距離、またはそれらの組み合わせである。撮影条件は、空間画像とともにカメラによって送信されてもよいし、既知情報として記憶装置31に格納されていてもよい。例えば、プロセッサ32は、空間画像を撮影したカメラの現実空間の位置および姿勢に対応する基準座標系における位置および姿勢を特定する。
プロセッサ32は、特定した基準座標系における位置および姿勢と、カメラの焦点距離とを参照し、基準座標系に仮想カメラを設定する。
プロセッサ32は、設定したカメラにより空間モデルを撮影したモデル画像と、空間画像とを比較する。一例として、プロセッサ32は、モデル画像から抽出した特徴量(例えばエッジ)と、空間画像から抽出した特徴量とを比較することにより、空間画像の任意の画素の基準座標系における位置を決定する。
In the first example of specifying the position of the physical object (S130), the
The
The
物理オブジェクトの位置の特定(S130)の第2例では、プロセッサ32は、空間モデルを特定の視点から撮影したモデル画像を空間画像と比較し、空間画像と空間モデルとの位置合わせを行う。例えば、プロセッサ32は、視点を選択することと、選択した視点から仮想カメラで空間モデルを撮影したモデル画像と空間画像とを比較することとを、視点を変更しながら繰り返す。これにより、プロセッサ32は、空間画像と最もマッチする(例えば、特徴量が最もマッチする)モデル画像を探索する。
プロセッサ32は、モデル画像の任意の画素(「対象画素」)の基準座標系における位置を当該対象画素に対応する空間画像の画素の基準座標系における位置として決定する。
In a second example of locating the physical object (S130), the
ステップS130の後に、サーバ30は、オブジェクト位置判定(S140)を実行する。
具体的には、プロセッサ32は、ステップS130において特定した物理オブジェクトの位置が、基準座標系で定義された対象領域に含まれるか否かを判定する。
After step S130, the
Specifically, the
ステップS140において物理オブジェクトの位置が対象領域に含まれると判定した場合に、サーバ30は、物理オブジェクトの存在の通知(S150)を実行する。
具体的には、プロセッサ32は、物理オブジェクトが監視領域に存在することをユーザに通知する。一例として、プロセッサ32は、物理オブジェクトが監視領域に存在することをユーザに通知するための通知データ(例えば、画像、テキスト、音声、またはこれらの組み合わせ)をクライアント装置10へ送信する。
When it is determined in step S140 that the position of the physical object is included in the target area, the
Specifically,
ステップS150の後、クライアント装置10は、通知(S160)を実行する。
具体的には、プロセッサ12は、サーバ30から受信した通知データに応じて、ユーザに通知を行う。一例として、プロセッサ12は、図6の画面P10をディスプレイに表示する。
After step S150, the
Specifically, the
画面P10は、通知オブジェクトN10を含む。通知オブジェクトN10は、通知データに対応するメッセージ(例えば、物理オブジェクトが監視領域に存在することを示すメッセージ)に関するオブジェクトである。 Screen P10 includes a notification object N10. The notification object N10 is an object related to a message corresponding to notification data (for example, a message indicating that a physical object exists in the monitoring area).
ステップS140において物理オブジェクトの位置が対象領域に含まれないと判定した場合に、サーバ30は空間画像の取得(S110)を実行し、未処理の空間画像を取得する(つまり、物理オブジェクトに対する監視を継続する)。
When it is determined in step S140 that the position of the physical object is not included in the target area, the
(5)小括
以上説明したように、本実施形態のサーバ30は、空間画像からオブジェクト画像を抽出し、空間画像と空間モデルとの位置合わせを行うことで基準座標系における物理オブジェクトの位置を特定し、特定した位置が対象領域に含まれるか否かを判定する。故に、このサーバは、対象空間において物理オブジェクトが監視領域に存在するか否かを空間画像から判別可能である。これにより、例えば、立ち入り禁止の場所、または危険な場所に人間が居ること、又は、備品が定位置でない場所に放置されていることを検知することができる。
(5) Summary As described above, the
サーバ30は、物理オブジェクトの位置が対象領域に含まれる場合に、通知を行ってもよい。これにより、ユーザに、監視領域に物理オブジェクトが存在することを認識させることができる。
The
(6)変形例
本実施形態の変形例について説明する。
(6) Modification A modification of the present embodiment will be described.
(6-1)変形例1
変形例1について説明する。変形例1は、オブジェクト画像に対応する物理オブジェクトが例外オブジェクトに該当する場合に、当該物理オブジェクトが監視領域内に存在したとしても通知を行わない例である。
(6-1)
(6-1-1)データベース
変形例1のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(6-1-1) Database The database of
(6-1-1-1)対象領域データベース
変形例1の対象領域データベースについて説明する。図7は、変形例1の対象領域データベースのデータ構造を示す図である。
(6-1-1-1) Target Area Database The target area database of
対象領域データベースには、対象領域情報が格納される。対象領域情報は、対象領域に関する情報である。対象領域情報を参照することで、基準座標系における対象領域の位置と、対象領域に関連付けられる例外オブジェクトを特定することができる。変形例1のサーバ30は、物理オブジェクトが対象領域内に存在すると判定した場合であっても、当該物理オブジェクトが例外オブジェクトに該当すると判定した場合には、物理オブジェクトが対象領域内に存在することをユーザに通知しない。
The target area database stores target area information. The target area information is information about the target area. By referring to the target area information, it is possible to identify the position of the target area in the reference coordinate system and the exception object associated with the target area. Even if the
図7に示すように、対象領域データベースは、「領域ID」フィールドと、「領域定義」フィールドと、「例外オブジェクトID」フィールドとを含む。各フィールドは、互いに関連付けられている。 As shown in FIG. 7, the subject area database includes a "area ID" field, a "area definition" field, and an "exception object ID" field. Each field is associated with each other.
「領域ID」フィールドおよび「領域定義」フィールドは、実施形態において説明したとおりである。 The "region ID" field and "region definition" field are as described in the embodiment.
「例外オブジェクトID」フィールドには、例外オブジェクトIDが格納される。例外オブジェクトIDは、所定の例外条件を満たす物理オブジェクト(以下「例外オブジェクト」という)を識別する情報である。例外条件は、例えば、以下の少なくとも1つを含む。
・対象領域に対応する監視領域に出入りする権限が与えられた物理オブジェクトである。
・対象領域に対応する監視領域への持ち込みが許可されたた物理オブジェクトである。
The "exception object ID" field stores an exception object ID. The exception object ID is information that identifies a physical object that satisfies a predetermined exception condition (hereinafter referred to as "exception object"). Exceptional conditions include, for example, at least one of the following:
- It is a physical object authorized to enter and exit the monitoring area corresponding to the target area.
- It is a physical object that is permitted to be brought into the monitoring area corresponding to the target area.
(6-1-2)情報処理
変形例1の情報処理について説明する。図8は、変形例1の情報処理の全体フローを示す図である。
(6-1-2) Information Processing The information processing of
図8の処理は、クライアント装置10に対してユーザにより情報処理の開始指示が入力され、サーバ30がクライアント装置10から情報処理の開始リクエストを受信したこと、または他の開始条件が成立したことに応じて開始する。
The processing in FIG. 8 is performed when the user inputs an information processing start instruction to the
図8に示すように、サーバ30は図5と同様に、空間画像の取得(S110)、およびオブジェクト画像の抽出(S120)を実行する。
As shown in FIG. 8, the
ステップS120の後に、サーバ30は、例外オブジェクト判定(S230)を実行する。
具体的には、プロセッサ32は、ステップS120において抽出したオブジェクト画像に対応する物理オブジェクトが、対象領域に関連付けられる例外オブジェクトに該当するか否かを判定する。ステップS120において複数のオブジェクト画像を抽出した場合には、プロセッサ32は、全物理オブジェクトが例外オブジェクトに該当するか否か(つまり、少なくとも1つの物理オブジェクトが例外オブジェクトに該当しないか否か)を判定する。
After step S120, the
Specifically, the
例外オブジェクト判定(S230)の第1例では、プロセッサ32は、オブジェクト画像に対して画像認識処理を行うことで、物理オブジェクトが例外オブジェクトに該当するか否かを判定する。
In a first example of exceptional object determination (S230), the
例外オブジェクト判定(S230)の第2例では、プロセッサ32は、物理オブジェクトが携行するタグの識別情報を元に、物理オブジェクトが例外オブジェクトに該当するか否かを判定する。プロセッサ32は、タグから識別情報を取得してもよいし、タグの識別情報を読み取るように構成されたリーダ(不図示)から識別情報を取得してもよい。
In a second example of exceptional object determination (S230), the
ステップS230において物理オブジェクトが例外オブジェクトに該当しない判定した場合に、サーバ30は図5と同様に、物理オブジェクトの位置の特定(S130)、およびオブジェクト位置判定(S140)を実行する。
When it is determined in step S230 that the physical object does not correspond to the exception object, the
ステップS140において物理オブジェクトの位置が対象領域に含まれると判定した場合に、サーバ30は図5と同様に、物理オブジェクトの存在の通知(S150)を実行する。
When it is determined in step S140 that the position of the physical object is included in the target area, the
ステップS150の後、クライアント装置10は図5と同様に、通知(S160)を実行する。
After step S150, the
ステップS230において物理オブジェクトが例外オブジェクトに該当すると判定した場合に、サーバ30は空間画像の取得(S110)を実行し、未処理の空間画像を取得する(つまり、物理オブジェクトに対する監視を継続する)。
If it is determined in step S230 that the physical object corresponds to the exception object, the
ステップS140において物理オブジェクトの位置が対象領域に含まれないと判定した場合に、サーバ30は空間画像の取得(S110)を実行し、未処理の空間画像を取得する(つまり、物理オブジェクトに対する監視を継続する)。
When it is determined in step S140 that the position of the physical object is not included in the target area, the
(6-1-3)小括
以上説明したように、変形例1のサーバ30は、空間画像からオブジェクト画像を抽出し、物理オブジェクトが例外オブジェクトに該当するか否かを判定する。サーバ30は、空間画像と空間モデルとの位置合わせを行うことで基準座標系における物理オブジェクトの位置を特定し、特定した位置が対象領域に含まれるか否かを判定する。故に、このサーバ30は、対象空間において物理オブジェクトが監視領域に存在するか否か、および当該物理オブジェクトが例外オブジェクトに該当するか否かを空間画像から判別可能である。これにより、例えば、立ち入り禁止の場所、若しくは危険な場所に立ち入りの許可されていない人間が居ること、又は、持ち込みの許可されていない物品が対象領域に持ち込まれたことを検知することができる。
(6-1-3) Summary As described above, the
サーバ30は、物理オブジェクトが例外オブジェクトに該当せず、かつ物理オブジェクトの位置が対象領域に含まれる場合に、通知を行ってもよい。これにより、ユーザに、監視領域に例外オブジェクト以外の物理オブジェクトが存在することを認識させることができる。
The
(6-2)変形例2
変形例2について説明する。変形例2は、空間画像から空間パーツに対応する空間パーツ画像を抽出し、空間パーツと物理オブジェクトとの位置関係を元に基準座標系における物理オブジェクトの位置を特定する例である。
(6-2) Modification 2
Modification 2 will be described. Modification 2 is an example in which a spatial part image corresponding to the spatial part is extracted from the spatial image, and the position of the physical object in the reference coordinate system is specified based on the positional relationship between the spatial part and the physical object.
サーバ30は、図5または図8の物理オブジェクトの位置の特定(S130)を以下に説明するように実行する。
The
具体的には、プロセッサ32は、空間モデルに含まれる空間パーツに対応する空間パーツ画像を空間画像から抽出する。空間パーツは、空間の構成要素(例えば、床、または壁)である。
プロセッサ32は、本実施形態または変形例1において説明したように、空間画像と空間モデルとの位置合わせを行う。これにより、プロセッサ32は、基準座標系における空間パーツ画像の各情報要素の位置を特定する。
プロセッサ32は、空間パーツと物理オブジェクトとの位置関係と、基準座標系における空間パーツ画像の各情報要素の位置とを参照し、基準座標系における物理オブジェクトの位置を特定する。
Specifically, the
The
一例として、プロセッサ32は、物理オブジェクトの鉛直下方向の端部(例えば人間の足)が、空間の鉛直下方向の面の少なくとも一部を構成する(つまり、物理オブジェクトの鉛直下方向の端部が接触していると仮定できる)空間パーツ(例えば床)に接しているとの仮定の下で、物理オブジェクトの位置を特定する。この例では、プロセッサ32は、空間パーツのうち物理オブジェクトの鉛直下方向の端部に接触している部分の基準座標系における位置に基づいて、物理オブジェクトの鉛直下方向の端部の基準座標系における位置を決定する。ここで、空間パーツと物理オブジェクトとの位置関係は、接触に限られない。例えば、プロセッサ32は、物理オブジェクトの鉛直上方向の端部(例えば人間の頭部)が空間の鉛直下方向の面に位置する空間パーツから鉛直上方向に所定の距離(例えば、物理オブジェクトの身長)離れているとの仮定の下で、物理オブジェクトの位置を特定してもよい。
As an example, the
以上説明したように、変形例2のサーバ30は、空間画像から空間パーツに対応する空間パーツ画像を抽出し、空間パーツと物理オブジェクトとの位置関係を元に基準座標系における物理オブジェクトの位置を特定する。これにより、基準座標系における物理オブジェクトの位置をより高精度に特定することができる。
As described above, the
(6-3)変形例3
変形例3について説明する。変形例3は、オブジェクト画像のうち物理オブジェクトの少なくとも一部(「対象部位」)に対応する部分画像の寸法(例えば画素数)と、当該対象部位の寸法(例えば実寸法)とを元に基準座標系における物理オブジェクトの位置を特定する例である。
(6-3) Modification 3
Modification 3 will be described. Modification 3 is based on the size (eg, the number of pixels) of a partial image corresponding to at least a portion of the physical object (“target portion”) in the object image and the size (eg, actual size) of the target portion. It is an example of identifying the position of a physical object in a coordinate system.
サーバ30は、図5または図8の物理オブジェクトの位置の特定(S130)を以下に説明するように実行する。
The
具体的には、プロセッサ32は、空間画像の撮影条件(例えば、センサの基準座標系における位置姿勢、およびセンサの焦点距離)を参照し、センサから、空間画像のうち対象部位(例えば、人間の頭部)に向かうベクトル(「対象ベクトル」)の基準座標系における向きを特定する。プロセッサ32は、対象ベクトルの向きと、対象部位に対応する部分画像の空間画像における寸法と、対象部位の寸法とを参照し、対象ベクトルの大きさを特定する。プロセッサ32は、センサの位置と、対象ベクトルの向きおよび大きさとを参照し、基準座標系における対象部位の位置を特定する。
Specifically, the
以上説明したように、変形例3のサーバ30は、オブジェクト画像のうち物理オブジェクトの対象部位に対応する部分画像の寸法と、当該対象部位の寸法とを元に基準座標系における物理オブジェクトの位置を特定する。これにより、基準座標系における物理オブジェクトの位置をより高精度に特定することができる。
As described above, the
(7)その他の変形例
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
(7) Other Modifications The
上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
Each step of the information processing described above can be executed by either the
サーバ30は、所定のアルゴリズムに従って、対象領域を特定してもよい。
一例として、サーバ30は、空間モデルと、空間画像の撮影時刻とを参照し、当該撮影時刻に対応する対象領域を特定してもよい。ここで、空間モデルは、時刻に対して可変に対象領域を定義する4次元モデルであってよい。これにより、時刻ベースで対象領域を設定することができる。例えばある空間パーツに対する施工期間中には当該空間パーツの周辺を対象領域に含め、かつ施工期間終了後には当該空間パーツの周辺を対象領域から除外することができる。同様に、例外オブジェクトIDが、時刻に関して可変に定義されてもよい。
The
As an example, the
サーバ30は、ユーザの指示に応じて、対象領域を特定してもよい。第1の例として、ユーザは、クライアント装置10のディスプレイに表示された空間モデルを確認しながら、基準座標系における領域を対象領域として設定する。第2の例として、第2の例として、ユーザは、クライアント装置10のディスプレイに表示された点群データを確認しながら、基準座標系における領域を対象領域として設定する。点群データは、例えばデプスカメラによって生成された空間画像(点群)データであってもよいし、複数の空間画像(2次元画像)データに対してSfM(Structure from Motion)処理を行うことで作成されてもよい。例えば、サーバ30は、ユーザの指示に応じて対象領域情報を生成し、対象領域データベース(図4または図7)に格納してもよい。これにより、ユーザに課される物理オブジェクトの監視業務の内容に応じて対象領域を柔軟かつ正確に設定することができる。
The
実施形態では、物理オブジェクトの位置が対象領域に含まれると判定した場合に、物理オブジェクトが監視領域に存在することをユーザに通知する例を示した。しかしながら、サーバ30は、物理オブジェクトの位置が対象領域に含まれないと判定した場合に、物理オブジェクトが監視領域に存在しないことをユーザに通知してもよい。
In the embodiment, an example is given in which the user is notified that the physical object exists in the monitored area when it is determined that the position of the physical object is included in the target area. However, when the
変形例1では、物理オブジェクトが例外オブジェクトに該当せず、かつ物理オブジェクトの位置が対象領域に含まれると判定した場合に、物理オブジェクトが監視領域に存在することをユーザに通知する例を示した。しかしながら、サーバ30は、物理オブジェクトが例外オブジェクトに該当せず、かつ物理オブジェクトの位置が対象領域に含まれないと判定した場合に、物理オブジェクトが監視領域に存在しないことをユーザに通知してもよい。
或いは、サーバ30は、物理オブジェクトが例外オブジェクトに該当し、かつ物理オブジェクトの位置が対象領域に含まれないと判定した場合に、物理オブジェクトが監視領域に存在しないことをユーザに通知してもよい。
或いは、サーバ30は、物理オブジェクトが例外オブジェクトに該当し、かつ物理オブジェクトの位置が対象領域に含まれると判定した場合に、物理オブジェクトが監視領域に存在することをユーザに通知してもよい。
In Modified Example 1, when it is determined that the physical object does not correspond to the exception object and the position of the physical object is included in the target area, the user is notified that the physical object exists in the monitoring area. . However, if the
Alternatively, the
Alternatively, the
実施形態および変形例では、物理オブジェクトの存在を通知した後に、情報処理を終了する例を示した。しかしながら、物理オブジェクトを通知した後に、サーバ30は空間画像の取得(S110)を実行し、未処理の空間画像を取得してもよい(つまり、物理オブジェクトに対する監視の継続)。
In the embodiment and the modified example, the example of ending the information processing after notifying the existence of the physical object has been shown. However, after notifying the physical object, the
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Also, the above embodiments can be modified and modified in various ways without departing from the gist of the present invention. Also, the above embodiments and modifications can be combined.
(8)付記
実施形態および変形例で説明した事項を、以下に付記する。
(8) Supplementary notes The matters explained in the embodiment and the modified example are additionally noted below.
(付記1)
対象空間に関する空間画像を取得する手段(S110)と、
空間画像に含まれるオブジェクト画像を空間画像から抽出する手段(S120)と、
空間画像と対象空間に関する空間モデルとの位置合わせを行うことで、空間モデルの基準座標系におけるオブジェクト画像に対応する物理オブジェクトの位置を特定する手段(S130)と、
特定された物理オブジェクトの位置が、基準座標系で定義された対象領域に含まれるか否かを判定する手段(S140)と
を具備する、情報処理装置(30)。
(Appendix 1)
means for acquiring a spatial image of the target space (S110);
means for extracting an object image included in the spatial image from the spatial image (S120);
means for identifying the position of the physical object corresponding to the object image in the reference coordinate system of the spatial model by aligning the spatial image with the spatial model for the target space (S130);
An information processing apparatus (30) comprising: means (S140) for determining whether or not the specified position of the physical object is included in a target area defined by a reference coordinate system.
(付記2)
特定された物理オブジェクトの位置が対象領域に含まれる場合に、通知を行う手段(S150)をさらに具備する、
付記1に記載の情報処理装置。
(Appendix 2)
Further comprising means for notifying (S150) when the position of the specified physical object is included in the target area,
The information processing device according to
(付記3)
物理オブジェクトが所定の例外条件を満たす例外オブジェクトに該当するか否かを判定する手段(S230)をさらに具備する、
付記1または付記2に記載の情報処理装置。
(Appendix 3)
further comprising means (S230) for determining whether the physical object corresponds to an exception object that satisfies a predetermined exception condition;
The information processing apparatus according to
(付記4)
物理オブジェクトが例外オブジェクトに該当せず、かつ特定された物理オブジェクトの位置が対象領域に含まれる場合に、通知を行う手段(S150)をさらに具備する、
付記3に記載の情報処理装置。
(Appendix 4)
Further comprising means (S150) for notifying when the physical object does not correspond to the exception object and the position of the specified physical object is included in the target area,
The information processing device according to appendix 3.
(付記5)
物理オブジェクトの位置を特定する手段は、
空間モデルに含まれる空間パーツに対応する空間パーツ画像を空間画像から抽出し、
空間パーツと物理オブジェクトとの位置関係と、基準座標系における空間パーツの位置とを参照し、基準座標系における物理オブジェクトの位置を特定する、
付記1乃至付記4のいずれかに記載の情報処理装置。
(Appendix 5)
A means of determining the position of a physical object is
A spatial part image corresponding to the spatial part included in the spatial model is extracted from the spatial image,
Identifying the position of the physical object in the reference coordinate system by referring to the positional relationship between the spatial part and the physical object and the position of the spatial part in the reference coordinate system;
The information processing apparatus according to any one of
(付記6)
空間パーツは、対象空間の鉛直下方向の面の少なくとも一部を構成する、
付記5に記載の情報処理装置。
(Appendix 6)
The space part constitutes at least a part of the vertically downward surface of the target space,
The information processing device according to appendix 5.
(付記7)
物理オブジェクトの位置を特定する手段は、オブジェクト画像のうち物理オブジェクトの少なくとも一部である対象部位に対応する部分画像の寸法と、対象部位の寸法とをさらに参照し、基準座標系における物理オブジェクトの位置を特定する、
付記1乃至付記6のいずれかに記載の情報処理装置。
(Appendix 7)
The means for specifying the position of the physical object further refers to the dimensions of a partial image corresponding to the target portion, which is at least a part of the physical object, in the object image and the dimensions of the target portion to determine the position of the physical object in the reference coordinate system. locate,
The information processing apparatus according to any one of
(付記8)
空間モデルと、空間画像の撮影時刻とを参照し、撮影時刻に対応する対象領域を特定する手段をさらに具備し、
空間モデルは、時系列に沿って変化し、かつ対象空間に関するモデルである、
付記1乃至付記7のいずれかに記載の情報処理装置。
(Appendix 8)
further comprising means for referring to the spatial model and the shooting time of the spatial image, and specifying a target area corresponding to the shooting time;
The spatial model changes along the time series and is a model for the target space,
The information processing apparatus according to any one of
(付記9)
ユーザの指示に応じて、対象領域を特定する手段
をさらに具備する、付記1乃至付記7のいずれかに記載の情報処理装置。
(Appendix 9)
8. The information processing apparatus according to any one of
(付記10)
コンピュータ(30)が、
対象空間に関する空間画像を取得すること(S110)と、
空間画像に含まれるオブジェクト画像を空間画像から抽出すること(S120)と、
空間画像と対象空間に関する空間モデルとの位置合わせを行うことで、空間モデルの基準座標系におけるオブジェクト画像に対応する物理オブジェクトの位置を特定すること(S130)と、
特定された物理オブジェクトの位置が、基準座標系で定義された対象領域に含まれるか否かを判定すること(S140)と
を具備する、情報処理方法。
(Appendix 10)
a computer (30)
obtaining a spatial image of the target space (S110);
extracting an object image included in the spatial image from the spatial image (S120);
locating a physical object corresponding to the object image in a reference coordinate system of the spatial model by aligning the spatial image with the spatial model for the target space (S130);
Determining whether or not the position of the specified physical object is included in a target area defined by a reference coordinate system (S140).
(付記11)
コンピュータ(30)に、付記1~付記9の何れかに記載の各手段を実現させるためのプログラム。
(Appendix 11)
A program for causing a computer (30) to implement each means according to any one of
1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
50 :センサ
1: Information processing system 10 : Client device 11 : Storage device 12 : Processor 13 : Input/output interface 14 : Communication interface 30 : Server 31 : Storage device 32 : Processor 33 : Input/output interface 34 : Communication interface 50 : Sensor
Claims (11)
前記空間画像に含まれるオブジェクト画像を前記空間画像から抽出する手段と、
前記空間画像と前記対象空間に関する空間モデルとの位置合わせを行うことで、前記空間モデルの基準座標系における前記オブジェクト画像に対応する物理オブジェクトの位置を特定する手段と、
前記特定された物理オブジェクトの位置が、前記基準座標系で定義された対象領域に含まれるか否かを判定する手段と
を具備する、情報処理装置。 means for obtaining a spatial image of a target space;
means for extracting an object image included in the spatial image from the spatial image;
means for locating a physical object corresponding to the object image in a reference coordinate system of the spatial model by aligning the spatial image with a spatial model for the target space;
and means for determining whether or not the specified position of the physical object is included in a target area defined by the reference coordinate system.
請求項1に記載の情報処理装置。 further comprising means for notifying when the position of the identified physical object is included in the target area;
The information processing device according to claim 1 .
請求項1または請求項2に記載の情報処理装置。 further comprising means for determining whether the physical object corresponds to an exception object that satisfies a predetermined exception condition;
The information processing apparatus according to claim 1 or 2.
請求項3に記載の情報処理装置。 further comprising means for notifying when the physical object does not correspond to the exception object and the position of the identified physical object is included in the target area;
The information processing apparatus according to claim 3.
前記空間モデルに含まれる空間パーツに対応する空間パーツ画像を前記空間画像から抽出し、
前記空間パーツと前記物理オブジェクトとの位置関係と、前記基準座標系における前記空間パーツの位置とを参照し、前記基準座標系における前記物理オブジェクトの位置を特定する、
請求項1乃至請求項4のいずれかに記載の情報処理装置。 The means for locating the physical object comprises:
extracting a spatial part image corresponding to the spatial part included in the spatial model from the spatial image;
identifying the position of the physical object in the reference coordinate system by referring to the positional relationship between the spatial part and the physical object and the position of the spatial part in the reference coordinate system;
The information processing apparatus according to any one of claims 1 to 4.
請求項5に記載の情報処理装置。 The spatial parts constitute at least part of a vertically downward surface of the target space,
The information processing device according to claim 5 .
請求項1乃至請求項6のいずれかに記載の情報処理装置。 The means for specifying the position of the physical object further refers to the size of a partial image corresponding to a target portion that is at least a part of the physical object in the object image and the size of the target portion, and further refers to the reference coordinates. identifying the position of the physics object in a system;
The information processing apparatus according to any one of claims 1 to 6.
前記空間モデルは、時系列に沿って変化し、かつ前記対象空間に関するモデルである、
請求項1乃至請求項7のいずれかに記載の情報処理装置。 further comprising means for referring to the spatial model and the shooting time of the spatial image and specifying a target area corresponding to the shooting time;
The spatial model changes along a time series and is a model for the target space,
The information processing apparatus according to any one of claims 1 to 7.
をさらに具備する、請求項1乃至請求項7のいずれかに記載の情報処理装置。 8. The information processing apparatus according to any one of claims 1 to 7, further comprising means for specifying said target area according to a user's instruction.
対象空間に関する空間画像を取得することと、
前記空間画像に含まれるオブジェクト画像を前記空間画像から抽出することと、
前記空間画像と前記対象空間に関する空間モデルとの位置合わせを行うことで、前記空間モデルの基準座標系における前記オブジェクト画像に対応する物理オブジェクトの位置を特定することと、
前記特定された物理オブジェクトの位置が、前記基準座標系で定義された対象領域に含まれるか否かを判定することと
を具備する、情報処理方法。 the computer
obtaining a spatial image of the target space;
extracting an object image included in the spatial image from the spatial image;
locating a physical object corresponding to the object image in a reference coordinate system of the spatial model by aligning the spatial image with a spatial model for the target space;
and determining whether or not the identified position of the physical object is included in a target area defined by the reference coordinate system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021005596A JP7344570B2 (en) | 2021-01-18 | 2021-01-18 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021005596A JP7344570B2 (en) | 2021-01-18 | 2021-01-18 | Information processing device, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022110291A true JP2022110291A (en) | 2022-07-29 |
JP7344570B2 JP7344570B2 (en) | 2023-09-14 |
Family
ID=82570404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021005596A Active JP7344570B2 (en) | 2021-01-18 | 2021-01-18 | Information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7344570B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007249722A (en) * | 2006-03-17 | 2007-09-27 | Hitachi Ltd | Object detector |
JP2017091063A (en) * | 2015-11-05 | 2017-05-25 | キヤノン株式会社 | Object detector, information processor, and method of the processor |
WO2020174634A1 (en) * | 2019-02-27 | 2020-09-03 | 株式会社 テクノミライ | Accurate digital security system, method, and program |
-
2021
- 2021-01-18 JP JP2021005596A patent/JP7344570B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007249722A (en) * | 2006-03-17 | 2007-09-27 | Hitachi Ltd | Object detector |
JP2017091063A (en) * | 2015-11-05 | 2017-05-25 | キヤノン株式会社 | Object detector, information processor, and method of the processor |
WO2020174634A1 (en) * | 2019-02-27 | 2020-09-03 | 株式会社 テクノミライ | Accurate digital security system, method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7344570B2 (en) | 2023-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7282851B2 (en) | Apparatus, method and program | |
JP6534499B1 (en) | MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD | |
US11410415B2 (en) | Processing method for augmented reality scene, terminal device, system, and computer storage medium | |
WO2018107910A1 (en) | Method and device for fusing panoramic video images | |
JP6700580B2 (en) | Situation determination system, situation determination method, and situation determination program | |
KR101467663B1 (en) | Method and system of providing display in display monitoring system | |
JP6841608B2 (en) | Behavior detection system | |
JP2013242812A (en) | Information processing device and information processing method | |
WO2016031314A1 (en) | Individual identification device, individual identification method, and individual identification program | |
JP2011060058A (en) | Imaging apparatus and monitoring system | |
CN106937532A (en) | System and method for detecting actual user | |
JP2019174920A (en) | Article management system and article management program | |
JP2020052822A (en) | Information processing apparatus, authentication system, control method thereof, and program | |
JP7344570B2 (en) | Information processing device, information processing method, and program | |
CN113228117B (en) | Authoring apparatus, authoring method, and recording medium having an authoring program recorded thereon | |
JP6393409B2 (en) | Image recognition system, camera state estimation device, and program | |
JP2009301242A (en) | Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program | |
CN110036406B (en) | Collection system, recording medium storing terminal program, and collection method | |
JP2020088840A (en) | Monitoring device, monitoring system, monitoring method, and monitoring program | |
WO2020111053A1 (en) | Monitoring device, monitoring system, monitoring method, and monitoring program | |
JP7152651B2 (en) | Program, information processing device, and information processing method | |
JP2017028688A (en) | Image managing device, image managing method and program | |
JPWO2016152182A1 (en) | Abnormal state detection device, abnormal state detection method, and abnormal state detection program | |
Jacobsen et al. | Real-time lidar for monitoring construction worker presence near hazards and in work areas in a virtual reality environment | |
JP6213106B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230214 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230828 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7344570 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |