JP2019179524A - Article management system - Google Patents
Article management system Download PDFInfo
- Publication number
- JP2019179524A JP2019179524A JP2018070183A JP2018070183A JP2019179524A JP 2019179524 A JP2019179524 A JP 2019179524A JP 2018070183 A JP2018070183 A JP 2018070183A JP 2018070183 A JP2018070183 A JP 2018070183A JP 2019179524 A JP2019179524 A JP 2019179524A
- Authority
- JP
- Japan
- Prior art keywords
- article
- unit
- data
- person
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 39
- 239000000284 extract Substances 0.000 claims abstract description 19
- 238000007726 management method Methods 0.000 description 117
- 238000000605 extraction Methods 0.000 description 63
- 238000004891 communication Methods 0.000 description 32
- 238000000034 method Methods 0.000 description 28
- 238000012986 modification Methods 0.000 description 23
- 230000004048 modification Effects 0.000 description 23
- 238000013500 data storage Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 18
- 238000013528 artificial neural network Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 8
- 238000009434 installation Methods 0.000 description 7
- 239000003507 refrigerant Substances 0.000 description 6
- 238000004378 air conditioning Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 239000000470 constituent Substances 0.000 description 2
- 238000001816 cooling Methods 0.000 description 2
- 238000010438 heat treatment Methods 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 235000010585 Ammi visnaga Nutrition 0.000 description 1
- 244000153158 Ammi visnaga Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000005057 refrigeration Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本開示は、物品管理システムに関する。 The present disclosure relates to an article management system.
従来、例えば特許文献1(特開2017−45373号公報)に開示されるように、対象空間(例えば会社内や学校内等)において、複数の撮影機器の画像を用いて人物の所在情報を把握するシステムが知られている。特許文献1では、人物が装着する帽子に貼付されたコードを撮影機器の画像から取得することで人物を識別している。 Conventionally, as disclosed in, for example, Patent Document 1 (Japanese Patent Laid-Open No. 2017-45373), in a target space (for example, in a company or a school), the location information of a person is grasped using images of a plurality of photographing devices. Systems that do this are known. In Patent Document 1, a person is identified by acquiring a code affixed to a hat worn by the person from an image of a photographing device.
ここで、特定の空間において、人以外の物品の所在位置を適宜把握することが望まれるケース(例えば落し物や共用備品の所在位置を特定したいケース等)が想定される。この点、人手による物品の探索では、労力や時間の増大が懸念される。また、特許文献1では、人以外の物品について把握されない。 Here, a case where it is desired to appropriately grasp the location of an article other than a person in a specific space (for example, a case where the location of a lost item or shared equipment is desired) is assumed. In this regard, there is a concern that labor and time increase in manual search for articles. Moreover, in patent document 1, it is not grasped | ascertained about articles other than a person.
特定の空間において物品の所在を適宜把握可能なシステムを提供する。 A system capable of appropriately grasping the location of an article in a specific space is provided.
第1観点の物品管理システムは、複数の撮影機器と、データ生成部と、記憶部と、検索部と、受付部と、を備える。撮影機器は、対象空間に設置される。データ生成部は、撮影機器が撮影した画像に含まれる物品を抽出する。データ生成部は、物品データを生成する。物品データは、抽出した物品を特定するデータである。記憶部は、データ生成部が生成した物品データを記憶する。検索部は、記憶部に記憶されている物品データにおいて、特定の物品に関して情報検索を行う。受付部は、検索部によって情報検索させる物品に関して要求を受け付ける。 An article management system according to a first aspect includes a plurality of photographing devices, a data generation unit, a storage unit, a search unit, and a reception unit. The photographing device is installed in the target space. A data generation part extracts the articles | goods contained in the image image | photographed with the imaging device. The data generation unit generates article data. The article data is data for specifying the extracted article. The storage unit stores the article data generated by the data generation unit. The search unit searches for information on a specific article in the article data stored in the storage unit. The reception unit receives a request regarding an article whose information is to be searched by the search unit.
これにより、対象空間に設置される複数の撮影機器の撮影画像を用いて物品の所在に関するデータ(物品データ)を生成するとともに生成された物品データに基づき物品の所在管理を行うことが可能となる。その結果、対象空間において物品の情報(所在の有無、所在場所、所在履歴、関連人物等)を把握することが容易に可能となる。 Accordingly, it is possible to generate the data (article data) related to the location of the article using the captured images of the plurality of imaging devices installed in the target space and to manage the location of the article based on the generated article data. . As a result, it is possible to easily grasp information on the article (the presence / absence of the location, the location, the location history, the related person, etc.) in the target space.
なお、ここでの「画像」については、静止画像及び/又は動画が含まれる。また、ここでの「記憶部」には、物品データを一時的に記憶する主記憶部、及び/又は物品データを蓄積する大容量の補助記憶部が含まれる。 The “image” here includes a still image and / or a moving image. The “storage unit” herein includes a main storage unit that temporarily stores article data and / or a large-capacity auxiliary storage unit that stores article data.
第2観点の物品管理システムは、第1観点の物品管理システムであって、データ生成部は、撮影機器が撮影した画像に含まれている物品に関して所在位置を抽出する。物品データは、物品の所在位置を特定する情報を含む。 The article management system according to the second aspect is the article management system according to the first aspect, and the data generation unit extracts the location of the article included in the image captured by the imaging device. The article data includes information for specifying the location of the article.
第3観点の物品管理システムは、第1観点又は第2観点の物品管理システムであって、データ生成部は、撮影機器が撮影した画像に含まれている物品に関して、所在時刻を抽出する。物品データは、抽出した物品に関して所在時刻を特定する情報を含む。これにより、特定の物品の所在履歴を管理することが可能となる。 The article management system according to the third aspect is the article management system according to the first aspect or the second aspect, and the data generation unit extracts a location time with respect to an article included in an image photographed by the photographing device. The article data includes information specifying the location time for the extracted article. Thereby, the location history of a specific article can be managed.
第4観点の物品管理システムは、第1観点から第3観点のいずれかの物品管理システムであって、データ生成部は、撮影機器が撮影した画像に含まれている物品に関して、周囲に存在する人を抽出する。物品データは、抽出した物品に関して抽出した人を特定する情報を含む。これにより、各物品に関して関連度が大きいと推定される人物(例えば所有者や使用者等)を管理することが可能となる。 An article management system according to a fourth aspect is the article management system according to any one of the first to third aspects, and the data generation unit is present in the vicinity of the article included in the image captured by the imaging device. Extract people. The article data includes information that identifies the person who has extracted the extracted article. Thereby, it is possible to manage a person (for example, an owner, a user, etc.) that is estimated to have a high degree of association with respect to each article.
なお、ここでの「周囲に存在する人」については、抽出される物品に関して関連度が大きいと推定される所定範囲に存在する人である。係る「所定範囲」は、設置環境等に応じて設定される。例えば、「周囲に存在する人」は、物品を中心として半径1m以内(所定範囲)に存在する人である。 Note that the “person around” is a person existing in a predetermined range that is estimated to have a high degree of relevance with respect to the extracted article. The “predetermined range” is set according to the installation environment or the like. For example, “a person existing around” is a person existing within a radius of 1 m (predetermined range) around the article.
第5観点の物品管理システムは、第1観点から第4観点のいずれかの物品管理システムであって、データ生成部は、学習部を含む。学習部は、撮影機器が撮影した画像に基づき、物品が有する特徴を学習する。これにより、物品の抽出を高精度に行うことが可能となる。 An article management system according to a fifth aspect is the article management system according to any one of the first to fourth aspects, and the data generation unit includes a learning unit. The learning unit learns the characteristics of the article based on the image photographed by the photographing device. This makes it possible to extract articles with high accuracy.
第6観点の物品管理システムは、第1観点から第5観点のいずれかの物品管理システムであって、記憶部は、データ生成部が生成した物品データを蓄積する。 An article management system according to a sixth aspect is the article management system according to any one of the first to fifth aspects, and the storage unit stores the article data generated by the data generation unit.
第7観点の物品管理システムは、第1観点から第6観点のいずれかの物品管理システムであって、出力部をさらに備える。出力部は、検索部による情報検索の結果を出力するための機能部である。 An article management system according to a seventh aspect is the article management system according to any one of the first to sixth aspects, and further includes an output unit. The output unit is a functional unit for outputting a result of information search by the search unit.
第8観点の物品管理システムは、第1観点から第7観点のいずれかの物品管理システムであって、いずれか/全ての撮影機器は、空気調和機に配置される。空気調和機は、対象空間に設置される。空気調和機に撮影機器が配置されることにより、対象空間内で広範囲において物品を抽出することが可能となる。 The article management system according to the eighth aspect is the article management system according to any one of the first to seventh aspects, and any / all of the imaging devices are arranged in the air conditioner. The air conditioner is installed in the target space. By arranging the photographing device in the air conditioner, it is possible to extract articles in a wide range within the target space.
以下、本開示の一実施形態に係る管理システム100(物品管理システム)について説明する。なお、以下の実施形態は、具体例であって、技術的範囲を限定するものではなく、趣旨を逸脱しない範囲で適宜変更可能である。 Hereinafter, a management system 100 (article management system) according to an embodiment of the present disclosure will be described. The following embodiment is a specific example, does not limit the technical scope, and can be changed as appropriate without departing from the scope of the invention.
(1)管理システム100
図1は、管理システム100の概略構成図である。図2は、対象施設1における各機器の設置態様の一例を示した模式図である。管理システム100は、特定の空間(対象空間SP)において存在する物品OBに関して個別にデータ(後述の所在履歴データD3)を生成し、生成したデータに基づいて各物品OBの情報管理(例えば所在管理、持ち主や使用者の管理、及び所在検索等)を行うためのシステムである。
(1)
FIG. 1 is a schematic configuration diagram of the
本実施形態において、管理システム100は、対象施設1に適用されている。対象施設1は、対象空間SPを含む。本実施形態において、対象施設1は、複数の対象空間SP(SP1、SP2、SP3、SP4、SP5、SP6・・・)を含んでいる。対象空間SPは、例えば図3に示されるように人物PSが活動する空間であり、例えばオフィスとして使用される空間である。ただし、これに限定されるものではなく、対象空間SPは、例えばデパート等の商業施設、学校、工場、病院又は住居等として用いられてもよい。ここでの人物PSは、対象施設1で勤務・学習・生活する人や、対象施設1を訪問した来訪者等である。また、ここでの物品OBは、人物PSの私物及び共用物、及び対象施設1の備品等である。
In the present embodiment, the
管理システム100は、主として、空気調和装置10と、複数の撮影ユニット40と、管理装置60と、を有している。
The
(1−1)空気調和装置10
空気調和装置10は、対象空間SPにおいて冷房や暖房等の空気調和を実現する装置である。空気調和装置10は、冷媒回路において蒸気圧縮方式の冷凍サイクルを行うことにより、対象空間SPの冷房又は暖房を行う。
(1-1)
The
空気調和装置10は、主として、熱源ユニットとしての室外ユニット15と、利用ユニットとしての複数台(ここでは6台以上)の室内ユニット20(20a、20b、20c、20d、20e、20f、・・・)と、複数(ここでは室内ユニット20と同数)のリモコン30(30a、30b、30c、30d、30e、30f、・・・)と、を備えている。
The
本実施形態において、室内ユニット20aは対象空間SP1に設置され、室内ユニット20bは対象空間SP2に設置され、室内ユニット20cは対象空間SP3に設置され、室内ユニット20dは対象空間SP4に設置され、室内ユニット20eは対象空間SP5に設置され、室内ユニット20fは対象空間SP6に設置されている。空気調和装置10では、室外ユニット15と各室内ユニット20とがガス連絡配管GP及び液連絡配管LPで接続されることで冷媒回路が構成されている。
In the present embodiment, the indoor unit 20a is installed in the target space SP1, the
(1−1−1)室外ユニット15
室外ユニット15は、対象空間SPの外部に設置される。室外ユニット15は、主として、冷媒回路を構成する要素として、複数の冷媒配管、圧縮機、室外熱交換器、膨張弁等を有している(図示省略)。また、温度センサ及び圧力センサ等の各種センサや、送風機等の機器を有している。
(1-1-1)
The
また、室外ユニット15は、室外ユニット15内の各種アクチュエータの動作を制御する室外ユニット制御部18を有している。室外ユニット制御部18は、RAMやROM等のメモリやCPUを含むマイクロコンピュータ、通信モジュール、各種電子部品及び電気部品を有する。室外ユニット制御部18は、各種アクチュエータや各種センサと、配線を介して電気的に接続されている。
The
室外ユニット制御部18は、室内ユニット20の室内ユニット制御部25(後述)と、通信線cb1を介して接続されており、互いに信号の送受信を行う。また、室外ユニット制御部18は、インターネット等のWAN(Wide Area Network)を含む広域ネットワークNW1に通信線cb2を介して接続されており、広域ネットワークNW1に接続される機器(例えばサーバ50)と互いに信号の送受信を行う。室外ユニット制御部18は、後述の室内ユニット制御部25、リモコン制御部35及びサーバ50と、管理装置60を構成する。
The outdoor
(1−1−2)室内ユニット20
室内ユニット20は、対象空間SPの天井CIに設置される天井埋込型、又は天井CI付近に設置される天井吊下型の空調室内機である。図4は、対象空間SPにおける室内ユニット20、リモコン30及び撮影ユニット40の設置態様の一例を示した模式図である。図4では、対象空間SPにおいて、各室内ユニット20はその本体部分の一部(吸気口及び排気口)が天井CIから露出するように設置されている。室内ユニット20は、冷媒回路を構成する要素として室内熱交換器や室内膨張弁等を有している。また、室内ユニット20は、対象空間SP内の温度や、冷媒の温度を検出する温度センサや圧力センサ等の各種センサを有している。
(1-1-2)
The
また、室内ユニット20は、室内ユニット20内の各種アクチュエータ(送風機や膨張弁等)の動作を制御する室内ユニット制御部25を有している。室内ユニット制御部25は、RAMやROM等のメモリやCPUを含むマイクロコンピュータ、通信モジュール、各種電子部品及び電気部品を有する。室内ユニット制御部25は、各種アクチュエータ及び各種センサと、配線を介して電気的に接続されており、互いに信号の送受信を行う。室内ユニット制御部25は、室外ユニット制御部18又は他の室内ユニット制御部25と、通信線cb1を介して接続されており、互いに信号の送受信を行う。また、室内ユニット制御部25は、通信線cb3を介して、対応するリモコン30のリモコン制御部35(後述)と接続されており、互いに信号の送受信を行う。また、室内ユニット制御部25は、通信線cb4を介して、対応する撮影ユニット40と接続されており、互いに信号の送受信を行う。
The
室内ユニット制御部25は、室外ユニット制御部18、他の室内ユニット制御部25、リモコン制御部35及びサーバ50とともに、管理装置60を構成する。
The indoor
(1−1−3)リモコン30
リモコン30は、いずれかの室内ユニット20と対応付けられており、対応する室内ユニット20と同一の対象空間SPの側壁SWに設置されている。具体的に、リモコン30aは、室内ユニット20aと対応付けられている。また、リモコン30bは室内ユニット20bと対応付けられ、リモコン30cは室内ユニット20cと対応付けられ、リモコン30dは室内ユニット20dと対応付けられ、リモコン30eは室内ユニット20eと対応付けられ、リモコン30fは室内ユニット20fと対応付けられている。 各リモコン30は、いわゆる有線式のリモートコントロール装置であって、通信線cb3を介して、対応する室内ユニット20(室内ユニット制御部25)と接続されている。
(1-1-3)
The
各リモコン30は、各種設定に係るコマンドを、空気調和装置10に入力するための入力装置として機能する。また、リモコン30は、空気調和装置10の運転状態や設定項目を表示する表示装置としても機能する。
Each
各リモコン30は、リモコン30の動作を制御するリモコン制御部35を有している。リモコン制御部35は、室外ユニット制御部18、室内ユニット制御部25及びサーバ50とともに、管理装置60を構成する。
Each
(1−2)撮影ユニット40(撮影機器)
管理システム100は、複数(ここでは6以上)の撮影ユニット40(40a、40b、40c、40d、40e、40f・・・)を有している。撮影ユニット40は、対応する対象空間SP内を撮影し、撮影結果を含むデータ(撮影データD1)を生成し出力するユニットである。撮影ユニット40は、対応する対象空間SPに配置される。本実施形態において、撮影ユニット40は、対応する対象空間SPの天井CI(又は天井付近)に設置される室内ユニット20に配置されている。すなわち、撮影ユニット40は、天井CI又は天井付近(床面よりも天井CIに近い部分)に設置されている。
(1-2) Imaging unit 40 (imaging device)
The
本実施形態において、撮影ユニット40aは対象空間SP1(室内ユニット20a)に配置され、撮影ユニット40bは対象空間SP2(室内ユニット20b)に配置され、撮影ユニット40cは対象空間SP3(室内ユニット20c)に配置され、撮影ユニット40dは対象空間SP4(室内ユニット20d)に配置され、撮影ユニット40eは対象空間SP5(室内ユニット20e)に配置され、撮影ユニット40fは対象空間SP6(室内ユニット20f)に配置されている。
In the present embodiment, the photographing unit 40a is disposed in the target space SP1 (indoor unit 20a), the photographing
撮影ユニット40は、撮影部41と、撮影データ生成部42と、撮影データ出力部43と、を有している。撮影部41は、対応する対象空間SPの所定範囲を撮影するためのレンズ(特に限定されないが例えば魚眼レンズや固定焦点レンズ等)及び撮像素子を含む。撮影データ生成部42は、撮影部41の撮像素子によって出力された電気信号をA/D変換し、所定のフォーマットに沿った撮影データD1を生成する。撮影データD1は、対象空間SPの所定範囲を所定のピクセルで表わした画像データ(動画データ)を含む。撮影データ出力部43は、生成された撮影データD1を圧縮して管理装置60(直接的には室内ユニット制御部25)に出力する。
The photographing
(1−3)管理装置60
管理装置60は、管理システム100の動作を統括的に管理するコンピュータである。本実施形態において、管理装置60は、図5に示されるように、室外ユニット制御部18、室内ユニット制御部25、リモコン制御部35及びサーバ50が通信ネットワークを介して接続されることで構成される。
(1-3)
The
サーバ50は、管理システム100において、室外ユニット制御部18、室内ユニット制御部25及びリモコン制御部35とともに管理装置60を構成するコンピュータである。サーバ50は、対象空間SPから離れた遠隔地に配置されている。サーバ50は、通信線によって広域ネットワークNW1に接続されており、広域ネットワークNW1を介して室外ユニット制御部18、室内ユニット制御部25及びリモコン制御部35と通信可能に構成されている。
The
管理装置60は、撮影ユニット40及び端末90と、互いにデータの送受信を行う。管理装置60は、撮影データD1に基づいて処理を行う。より具体的に、管理装置60は、撮影データD1に含まれる人物PS及び物品OBを個別に抽出して、抽出した人物PS及び物品OBに対応するデータ(所在履歴データD3)を生成して蓄積する。所在履歴データD3は、抽出された一の人物PS及び物品OBの対象施設1における所在履歴を特定するデータである。所在履歴データD3の詳細については後述する。
The
また、管理装置60は、ユーザによって入力されたコマンドに応じて処理を行い、処理結果を出力する。例えば、管理装置60は、特定の人物PS又は物品OBの所在履歴を出力することを要求するコマンド(出力要求コマンド)を入力された場合には、当該コマンドにおいて指定された人物PS又は物品OBに関して、所在履歴データD3に基づき、所在に関する情報を特定するデータ(後述の表示データD4)を生成して出力する。
In addition, the
(1−4)端末90
端末90は、管理者や利用者が保持する情報端末である。端末90は、スマートフォンやタブレットPC等の携帯端末や、ラップトップパソコン等のパーソナルコンピュータが想定されるが、他の情報処理機器であってもよい。
(1-4)
The terminal 90 is an information terminal held by an administrator or a user. The terminal 90 is assumed to be a mobile terminal such as a smartphone or a tablet PC, or a personal computer such as a laptop personal computer, but may be another information processing device.
端末90は、通信モジュールを有しており、広域ネットワークNW1を介して、他のユニット(室外ユニット制御部18、室内ユニット制御部25、リモコン制御部35、サーバ50)と通信可能に構成されている。端末90は、無線通信及び有線通信のいずれか又は双方によって広域ネットワークNW1に接続される。
The terminal 90 has a communication module, and is configured to be able to communicate with other units (the outdoor
端末90は、コマンドを入力するための入力部を有している。管理システム100においては、端末90を、コマンドを入力するための「コマンド入力部」として機能させることが可能である。ユーザは、端末90を用いてコマンドを入力することで、撮影ユニット40や管理装置60の動作を適宜制御可能である。
The terminal 90 has an input unit for inputting a command. In the
また、端末90は、情報を表示(出力)する表示部を有している。管理システム100においては、端末90を、情報を出力する「出力部」として機能させることが可能である。ユーザは、端末90によって、管理システム100の動作状況や処理結果を把握可能である。
The terminal 90 has a display unit that displays (outputs) information. In the
端末90は、所定のアプリケーションプログラムをインストールすることで、管理装置60に対してコマンドを入力し、管理装置60の応答結果を表示することが可能となる。
The terminal 90 can input a command to the
(2)管理装置60の詳細
図1に示されるように、管理装置60は、主として、記憶部61、取得部62、データ生成部63、所在管理部64、受付部65、情報検索部66及び出力制御部67等の機能部を含んでいる。各機能部は、管理装置60の構成機器(ここでは、室外ユニット制御部18、各室内ユニット制御部25、各リモコン制御部35及びサーバ50)のいずれか又は全てが動作することによって実現される。管理装置60は、独自に或いは他の装置から時刻をリアルタイムに取得可能に構成される。
(2) Details of
(2−1)記憶部61
記憶部61は、管理装置60の構成機器のいずれか又は全てに含まれるROM、RAM、フラッシュメモリ、及びハードディスク等のメモリによって構成される。記憶部61は、複数の記憶領域を含み、情報を一時的に記憶する揮発性の記憶領域や、各種情報を蓄積する不揮発性の記憶領域を有している。具体的に、記憶部61には、図6に示されるように、プログラム情報記憶領域M1、環境情報記憶領域M2、システム情報記憶領域M3、人物情報記憶領域M4、物品情報記憶領域M5、撮影データ記憶領域M6、抽出データ記憶領域M7、所在履歴データ記憶領域M8、入力情報記憶領域M9、出力情報記憶領域M10及び特徴データ記憶領域M11等の記憶領域が含まれている。各記憶領域に記憶されている各種情報は、適宜更新が可能である。
(2-1)
The
プログラム情報記憶領域M1には、管理装置60の各部において実行される各種処理を定義した制御プログラムや、各ユニット間における通信に使用される通信プロトコル等が記憶されている。
The program information storage area M1 stores a control program that defines various processes executed by each unit of the
環境情報記憶領域M2には、対象施設1に関する情報(環境情報)が記憶されている。環境情報には、例えば対象施設1に含まれる各対象空間SPの数、位置、大きさ等を個別に特定する情報が含まれる。 Information (environment information) related to the target facility 1 is stored in the environment information storage area M2. The environment information includes, for example, information that individually specifies the number, position, size, and the like of each target space SP included in the target facility 1.
システム情報記憶領域M3には、管理システム100に含まれる各機器に関する情報が記憶されている。例えば、システム情報記憶領域M3には、対象施設1に配置される撮影ユニット40に関する情報(撮影ユニット情報)が記憶されている。撮影ユニット情報には、対象施設1に配置される撮影ユニット40のID、通信アドレス、配置位置及び配置態様等を特定する情報が含まれる。撮影ユニット情報は、例えば図7に示されるような撮影ユニット情報テーブルTB1として記憶される。図7の撮影ユニット情報テーブルTB1では、IDが「0120」の撮影ユニット40の通信アドレスが「172.16.**.01」であり、配置位置が「(対象空間)SP1」であり、配置態様として「室内ユニット20aに内蔵」されること等が特定されている。
Information related to each device included in the
人物情報記憶領域M4には、対象施設1において予め登録されている人物PS及び過去に検出された人物PSに関する情報(人物情報)が記憶されている。人物情報には、各人物PSのID(任意又は自動的に付与されるID)、氏名、及び所属グループ等を特定する情報が含まれる。人物情報は、例えば図8に示されるような人物情報テーブルTB2として記憶される。図8の人物情報テーブルTB2では、例えばIDが「01139」の人物PSに関して、氏名が「田中 ○○」であり、所属グループが「G3」であり、最新の所在空間が「(対象空間)SP2」であり、最新の所在時刻が「2018/03/05/17:55」であること等が特定されている。 In the person information storage area M4, information (person information) related to the person PS registered in advance in the target facility 1 and the person PS detected in the past is stored. The person information includes information for specifying the ID (arbitrary or automatically assigned ID), name, affiliation group, and the like of each person PS. The person information is stored as a person information table TB2 as shown in FIG. 8, for example. In the person information table TB2 of FIG. 8, for example, for the person PS whose ID is “01139”, the name is “Tanaka XX”, the group to which the affiliation belongs is “G3”, and the latest location space is “(target space) SP2. It is specified that the latest location time is “2018/03/05/17: 55”.
物品情報記憶領域M5には、対象施設1において予め登録されている物品OB及び過去に検出された物品OBに関する情報(物品情報)が記憶されている。物品情報には、各物品OBのID(任意又は自動的に付与されるID)、名称(任意又は自動的に付与される名称)、品目(種類)、属性、最新の所在情報(所在空間、所在位置、所在日時)、及び最新(直近)の関連人物に関する情報等を特定する情報が含まれる。物品OBに関する「関連人物」は、抽出される物品OBに関して関連度が大きいと推定される人物である。本実施形態において、物品OBの関連人物は、物品OBの周囲に存在する人であり、抽出される物品OBに関して関連度が大きいと推定される所定範囲(例えば物品OBを中心として半径1m以内)に存在する人である。物品情報は、例えば図9に示されるような物品情報テーブルTB3として記憶される。図9の物品情報テーブルTB3では、例えばIDが「3586912」の物品OBに関して、名称が「第2ノートPC」であり、品目が「ラップトップPC」であり、属性が「備品」であり、最新(直近)の所在空間が「(対象空間)SP2」であり、最新所在位置が「(192,113,65)」であり、最新の所在時刻が「2018/03/05/17:55」であり、最新関連人物のIDが「01139」であること等が特定されている。 The article information storage area M5 stores articles OB registered in advance in the target facility 1 and information (article information) related to articles OB detected in the past. In the item information, each item OB ID (arbitrarily or automatically assigned ID), name (arbitrary or automatically assigned name), item (type), attribute, latest location information (location space, The location information, the location date and time), and information related to the latest (most recent) related person are included. The “related person” related to the article OB is a person who is estimated to have a high degree of relation regarding the extracted article OB. In the present embodiment, the related person of the article OB is a person existing around the article OB, and a predetermined range in which the degree of association is estimated to be large with respect to the extracted article OB (for example, within a radius of 1 m around the article OB). Someone who exists in The article information is stored as an article information table TB3 as shown in FIG. 9, for example. In the article information table TB3 of FIG. 9, for example, for the article OB with ID “35869912”, the name is “second notebook PC”, the item is “laptop PC”, the attribute is “equipment”, and the latest The (most recent) location space is “(target space) SP2,” the latest location location is “(192,113,65)”, and the latest location time is “2018/03/05/17: 55” It is specified that the latest related person ID is “01139”.
撮影データ記憶領域M6には、各撮影ユニット40から出力された撮影データD1が記憶されている。撮影データ記憶領域M6においては、撮影ユニット40毎に撮影データD1が蓄積される。
In the shooting data storage area M6, shooting data D1 output from each
抽出データ記憶領域M7には、撮影ユニット40から出力された撮影データD1から抽出された人物PS及び物品OBを特定するデータ(抽出データD2)が記憶されている。抽出データD2は、撮影データD1の送信元である撮影ユニット40毎に生成される。より詳細には、抽出データD2は、受信した撮影データD1毎に生成される。抽出データD2は、抽出した人物PS及び物品OBの所在位置を特定する情報、及び抽出した人物PS及び物品OBに関して所在時刻を特定する情報を含んでいる。抽出データD2は、例えば図10に示されるように、送信元撮影ユニット40のIDとその撮影場所、撮影データD1の受信日時、受信した撮影データD1において抽出された人物PS及び物品OBのID、位置(座標)、及び抽出された物品OBに関連する人物PS(関連人物)のID等を特定する情報である。図10では、例えば、IDが「0121」の撮影ユニット40から送信され撮影された場所が「(対象空間)SP2」であり撮影された日時が「2018/03/06/17:55」である撮影データD1に関して、抽出された人物PSのIDが「01139」、「01564」であってそれぞれの位置が「(120,100,60)」、「(238,201,58)」であること等が特定されている。さらに、抽出された物品OBのIDが「3586912」、「5922038」、「5766598」であってそれぞれの位置が「(192,113,65)」、「(250,240,61)」、「(125,110,69)」であり、それぞれの関連人物のIDが「01139」、「01564」、「01139」であること等が特定されている。
The extracted data storage area M7 stores data (extracted data D2) for specifying the person PS and the article OB extracted from the shooting data D1 output from the
所在履歴データ記憶領域M8には、対象施設1における人物PS又は物品OBに関する所在履歴を特定するデータ(所在履歴データD3)が個別に記憶されている。所在履歴データD3(特許請求の範囲記載の「物品データ」に相当)は、人物PS又は物品OBの対象施設1における所在履歴を特定する情報である。所在履歴データD3は、人物PS又は物品OB毎に生成される。所在履歴データD3は、撮影データD1から抽出された人物PS又は物品OBを個別に特定するデータであって、抽出した人物PS及び物品OBの所在位置を時系列的に特定する情報、及び抽出した人物PS及び物品OBに関して所在時刻を時系列的に特定する情報を含んでいる。 In the location history data storage area M8, data (location history data D3) for specifying the location history regarding the person PS or the article OB in the target facility 1 is individually stored. The location history data D3 (corresponding to “article data” described in the claims) is information for specifying the location history of the person PS or the article OB in the target facility 1. The location history data D3 is generated for each person PS or article OB. The location history data D3 is data that individually specifies the person PS or the article OB extracted from the photographing data D1, and is information that specifies the location of the extracted person PS and the article OB in time series, and is extracted. It includes information for specifying the location time in time series with respect to the person PS and the article OB.
人物PSに関する所在履歴データD3は、例えば図11に示されるように、人物PSのID、撮影した撮影ユニット40のID、所在空間(撮影された場所)及び所在日時(撮影された日時)等を含む情報である。図11に示される所在履歴データD3では、例えば、IDが「01139」の人物PSに関する5分毎の所在履歴が特定されている。
The location history data D3 related to the person PS includes, for example, as shown in FIG. 11, the ID of the person PS, the ID of the imaged photographing
物品OBに関する所在履歴データD3は、例えば図12に示されるように、物品OBのID、撮影した撮影ユニット40のID、所在空間(撮影された場所)、所在位置(座標)、所在日時(撮影された日時)及び関連人物のID等を含む情報である。図12に示される所在履歴データD3では、例えば、IDが「3586912」の物品OBに関する5分毎の所在履歴が特定されている。なお、所在履歴データD3において特定される所在履歴は、必ずしも5分毎である必要はなく、所在履歴に係る日時については適宜変更が可能である。
The location history data D3 related to the article OB includes, as shown in FIG. 12, for example, the ID of the article OB, the ID of the photographing
入力情報記憶領域M9には、管理装置60に入力された情報が記憶されている。例えば、入力情報記憶領域M9には、端末90を介して入力されたコマンドが記憶されている。
Information input to the
出力情報記憶領域M10には、管理装置60から他の装置へ出力される情報が記憶されている。例えば、出力情報記憶領域M10には、端末90に表示させる表示データD4(図14、図15)が記憶されている。
In the output information storage area M10, information output from the
特徴データ記憶領域M11は、人物PS及び各物品OBの一般的な特徴、並びに対象空間SPで抽出された各人物PS及び各物品OBの固有の特徴が個別に特定された特徴データD5が記憶されている。特徴データD5は、人物PS又は物品OB毎に作成される。ここでの「特徴」は、人物PS又は物品OBを一意に特定するのに利用される情報である。人物PSの「特徴」は、様々であり、例えば人物PSの部位(例えば頭、つむじ、顔、肩、腕、脚等)の形状、寸法、色、又は動作(動作速度、動作範囲、動作角度)等である。また、物品OBの「特徴」は、様々であり、例えば物品OBの形状、寸法、色、又は動作等である。 The feature data storage area M11 stores the feature data D5 in which the general features of the person PS and each article OB and the unique features of each person PS and each article OB extracted in the target space SP are individually specified. ing. The feature data D5 is created for each person PS or article OB. The “feature” here is information used to uniquely identify the person PS or the article OB. “Characteristics” of the person PS vary, and for example, the shape, size, color, or motion (motion speed, motion range, motion angle) of the part of the character PS (eg, head, toothpick, face, shoulder, arm, leg, etc.) ) Etc. Further, the “feature” of the article OB varies, for example, the shape, size, color, or operation of the article OB.
(2−2)取得部62
取得部62は、各撮影ユニット40から出力される撮影データD1を取得して撮影データ記憶領域M6に適宜格納する機能部である。
(2-2)
The
(2−3)データ生成部63
データ生成部63は、撮影データ記憶領域M6に記憶されている撮影データD1に含まれる人物PS及び物品OBを抽出して抽出データD2を生成する機能部である。データ生成部63は、抽出部631と、抽出データ生成部633と、を有している。
(2-3)
The
抽出部631は、撮影データ記憶領域M6に記憶されている撮影データD1を取得して、取得した撮影データD1に含まれている人物PS及び物品OBを個別に抽出する処理(抽出処理)を行う。抽出部631は、毎時、抽出処理を行う。抽出処理は、撮影データD1毎に(すなわち撮影データD1の送信元の撮影ユニット40毎に)行われる。
The
抽出部631は、学習部632を有しており、機械学習を行えるように構成されている。ここでの学習部632は、「ニューラルネットワーク」や「ディープラーニング」等の手段を用いて機械学習を行う。係る学習はいわゆる教師あり学習及び教師なし学習のいずれであってもよい。
The
抽出部631による抽出処理は、所定の手段(公知技術を含む)を用いて行われる。例えば、抽出部631は、人物PS又は物品OBが持つ特徴を予め定義される特徴データD5に基づいて人物PS又は物品OBを抽出する(検出して特定する)。例えば、抽出部631は、撮影データD1において、人物PS又は物品OBが持つ特徴を識別することで人物PS又は物品OBを検出し、識別される特徴と特徴データD5に定義される特徴とを比較することで人物PS又は物品OBを一意に特定する。
The extraction process by the
抽出部631による抽出処理の一例を、図13に示す。図13では、抽出部631が、複数のニューラルネットワーク(N1、N2、N3、N4)を用いて、対象空間SPにおける人物PS又は物品OBを抽出する例が示されている。
An example of the extraction process by the
図13では、まず、撮影データD1が第1ニューラルネットワークN1に入力される。第1ニューラルネットワークN1は、撮影データD1に含まれる各要素間の距離をそれぞれ検出(推定)する処理P1を実行する。 In FIG. 13, first, the photographing data D1 is input to the first neural network N1. The first neural network N1 executes a process P1 for detecting (estimating) the distance between each element included in the captured data D1.
また、第2ニューラルネットワークN2には、撮影データD1とともに処理P1の結果が入力される。第2ニューラルネットワークN2は、処理P1の結果に基づき、撮影データD1に含まれる人物PS又は物品OBの範囲を検出(推定)する処理P2を実行する。人物PS又は物品OBの範囲の検出が可能な場合、人物PS又は物品OBの移動を検出可能であり、後述の処理P3において当該人物PS又は物品OBが有する特徴を取得可能である。 Further, the result of the process P1 is input to the second neural network N2 together with the photographing data D1. The second neural network N2 executes a process P2 for detecting (estimating) the range of the person PS or the article OB included in the shooting data D1 based on the result of the process P1. When the range of the person PS or the article OB can be detected, the movement of the person PS or the article OB can be detected, and the characteristics of the person PS or the article OB can be acquired in the process P3 described later.
さらに、第3ニューラルネットワークN3には、処理P1の結果とともに処理P2の結果が入力される。第3ニューラルネットワークN3は、処理P1及び処理P2の結果に基づき、撮影データD1に含まれる人物PS及び物品OBの特徴を検出し特定する処理P3を実行する。処理P3では、検出される人物PS又は物品OBの特徴と、特徴データ記憶領域M11に記憶される特徴データD5と、に基づいて人物PS又は物品OBが一意に特定される。例えば、処理P3では、検出される人物PS又は物品OBの各特徴と、特徴データ記憶領域M11に記憶されている各特徴データD5と、の類似度が算出され、算出された類似度が所定の閾値以上となる特徴データD5の対象人物PS又は対象物品OBが検出された特徴に一致する人物PS又は物品OBとして抽出され、人物PS又は物品OBが一意に特定される。また、検出される人物PS又は物品OBの特徴と、類似度が所定の閾値以上である特徴データD5が特徴データ記憶領域M11に記憶されていない場合には、当該特徴を有する人物PS又は物品OBに関して新たに特徴データD5を生成して新規に検出された人物PS又は物品OBとして記憶する。処理P3の結果、生成される特徴データD5は、例えば100次元のベクトルデータである。 Furthermore, the result of the process P2 is input to the third neural network N3 together with the result of the process P1. The third neural network N3 executes a process P3 for detecting and specifying the characteristics of the person PS and the article OB included in the shooting data D1 based on the results of the processes P1 and P2. In the process P3, the person PS or the article OB is uniquely specified based on the detected feature of the person PS or the article OB and the feature data D5 stored in the feature data storage area M11. For example, in the process P3, the similarity between each feature of the detected person PS or article OB and each feature data D5 stored in the feature data storage area M11 is calculated, and the calculated similarity is a predetermined value. The target person PS or target article OB in the feature data D5 that is equal to or greater than the threshold is extracted as a person PS or article OB that matches the detected feature, and the person PS or article OB is uniquely identified. In addition, when the feature data D5 having the feature of the detected person PS or the article OB and the feature data D5 having a similarity greater than or equal to a predetermined threshold value are not stored in the feature data storage area M11, the person PS or the article OB having the feature. Is newly generated and stored as a newly detected person PS or article OB. The feature data D5 generated as a result of the process P3 is, for example, 100-dimensional vector data.
さらに、第4ニューラルネットワークN4には、処理P1の結果とともに処理P2の結果が入力される。第4ニューラルネットワークN4は、処理P1及び処理P2の結果に基づき、撮影データD1に含まれる人物PS及び物品OBの対象空間SPにおける位置(座標)を検出する処理P4を実行する。 Further, the result of the process P2 is input to the fourth neural network N4 together with the result of the process P1. The fourth neural network N4 executes a process P4 for detecting positions (coordinates) in the target space SP of the person PS and the article OB included in the shooting data D1 based on the results of the processes P1 and P2.
このような態様で抽出処理が行われる場合、データ生成部63は、抽出処理において撮影データD1から各要素間の距離を推定し、推定した距離に基づき人物PS又は物品OBを抽出しているといえる。
When the extraction process is performed in such a manner, the
学習部632は、各種情報(例えば撮影データD1や広域ネットワークNW1を介して取得可能な情報)を用いて、各人物PS及び物品OBの特徴を適宜学習する。例えば、学習部632は、撮影データD1に含まれる人物PS及び物品OBの特徴を個別具体的に学習し、対応する特徴データD5を適宜更新する。これにより、人物PS又は物品OBの特徴の変動(例えば服装や髪型の変化や、物体の色の劣化等)に因る検出結果のゆらぎが抑制される。
The
抽出データ生成部633は、抽出部631による抽出処理の結果に基づき、抽出データD2(図10)を生成する。抽出データ生成部633は、抽出データD2において、抽出された人物PS又は物品OBのID、検出された場所(所在場所)、検出された時刻(所在時刻)、及び抽出された物品OBの関連人物PSを特定する情報を組み入れる。抽出データ生成部633は、撮影データD1の送信元の撮影ユニット40毎に抽出データD2を生成する。
The extraction
このような抽出部631及び抽出データ生成部633を含むデータ生成部63は、撮影データD1(撮影ユニット40が撮影した画像)に含まれている人物PS又は物品OBに関して所在位置及びその所在時刻を抽出する機能部といえる。
The
(2−4)所在管理部64
所在管理部64は、抽出データD2に基づき、対象空間SPに存在する人物PS又は物品OBの情報を管理する機能部である。所在管理部64は、定期的に(例えば5分周期で)処理を行う。例えば、所在管理部64は、抽出データ記憶領域M7に記憶されている各抽出データD2に基づき、抽出された人物PS又は物品OB毎に所在履歴データD3(図11、図12)を生成して所在履歴データ記憶領域M8に格納する。また、例えば、所在管理部64は、人物情報テーブルTB2を作成・更新して人物情報記憶領域M4に格納する。また、例えば、所在管理部64は、物品情報テーブルTB3を作成・更新して物品情報記憶領域M5に格納する。
(2-4)
The
(2−5)受付部65
受付部65は、管理装置に入力される情報を取得して入力情報記憶領域M9に格納する。例えば、受付部65は、端末90を介して入力されるコマンドを取得して、入力情報記憶領域M9に格納する。管理装置60に対して入力されるコマンドは、例えば、特定の人物PS又は物品OBの所在に関する情報(所在場所、所在位置、又は所定期間における所在履歴等を特定する情報)の出力を指示する出力要求コマンドである。人物PSの所在に関する情報を要求する出力要求コマンドにおいては、人物PSのID、氏名又は所属グループ等の情報を用いて対象となる人物PSが指定される。物品OBの所在に関する情報を要求する出力要求コマンドにおいては、物品OBのID、名称、品目、及び関連する人物PSのIDや氏名等の情報を用いて対象となる物品OBが指定される。
(2-5)
The receiving
(2−6)情報検索部66(検索部)
情報検索部66は、入力情報記憶領域M9に格納された出力要求コマンド(検索要求)に基づき、処理を実行する。情報検索部66は、出力要求コマンドにおいて指定される人物PS又は物品OBに関し、記憶部61に記憶されている各データ(所在履歴データD3、人物情報又は物品情報等)を参照して検索し、当該人物PS又は物品OBの所在に関する情報(例えば最新の所在空間、所在位置又は所在履歴等)を示す表示データD4を検索結果として生成する。
(2-6) Information search unit 66 (search unit)
The
人物PSに関する出力要求コマンドに対する表示データD4は、例えば図14のような態様で生成される。図14に示される表示データD4では、出力要求コマンドにおいて指定される人物PSのIDが「01139」であり氏名が「田中 ○○」であり所属グループ「G3」であって、「2018/03/05/18:00」から「2018/03/06/18:00」までの期間(指定期間)における所在履歴が特定されている。情報検索部66は、生成した表示データD4を出力情報記憶領域M10に格納する。
The display data D4 for the output request command related to the person PS is generated, for example, in a manner as shown in FIG. In the display data D4 shown in FIG. 14, the ID of the person PS specified in the output request command is “01139”, the name is “Tanaka XX”, the belonging group “G3”, and “2018/03 / The location history in the period (designated period) from “05/18: 00” to “2018/03/06/18: 00” is specified. The
物品OBに関する出力要求コマンドに対する表示データD4は、例えば図15のような態様で生成される。図15に示される表示データD4では、出力要求コマンドにおいて指定される物品OBのIDが「3586912」であり名称が「第2ノートPC」であり品目が「ラップトップPC」であり属性が「備品」であって、「2018/03/05/18:00」から「2018/03/06/18:00」までの期間(指定期間)における所在情報(所在空間、所在位置、所在日時)、及び関連人物のID等が特定されている。 The display data D4 for the output request command related to the article OB is generated in a manner as shown in FIG. 15, for example. In the display data D4 shown in FIG. 15, the ID of the article OB specified in the output request command is “35869912”, the name is “second notebook PC”, the item is “laptop PC”, and the attribute is “equipment”. , Where location information (location space, location, date and time) from “2018/03/05/18: 00” to “2018/03/06/18: 00” (designated period), and The ID of the related person is specified.
(2−7)出力制御部67
出力制御部67は、出力情報記憶領域M10に記憶されているデータを宛先となっている機器へ送信(出力)する。例えば、出力制御部67は、出力情報記憶領域M10に格納された表示データD4を、出力要求コマンドの送信元の端末90へ送信する。これにより、情報検索部66によって生成された表示データD4(検索結果)が、出力要求コマンドの送信元の端末90へ送信され、当該端末90において表示される。
(2-7)
The
(3)管理装置60による処理の流れ
以下、図16を参照して、管理装置60の処理の流れの一例を説明する。図16は、管理装置60の処理の流れの一例を示したフローチャートである。
(3) Process Flow by
管理装置60は、図16のステップS101からステップS106に示すような流れで処理を実行する。なお、図16に示す処理の流れは、適宜変更が可能であり、処理が適正に行われる限り、いずれかのステップの順序を入れ換えてもよいし、いずれかのステップが同時に実行されてもよいし、図示しない他のステップが追加されてもよい。
The
ステップS101において、管理装置60は、撮影データD1を受信していない場合(つまり記憶部61に新たな撮影データD1が記憶されない)場合(すなわちNOの場合)には、ステップS105へ進む。一方、管理装置60は、撮影データD1を受信している場合(つまり記憶部61に新たな撮影データD1が記憶されている)場合(すなわちYESの場合)には、ステップS102へ進む。
In step S101, the
ステップS102において、管理装置60は、記憶部61から撮影データD1を取得し、取得した撮影データD1に含まれる人物PS及び物品OBを抽出する抽出処理を実行して、抽出データD2を生成する。その後、ステップS103へ進む。
In step S102, the
ステップS103において、管理装置60は、抽出処理の結果、人物PS又は物品OBが抽出可能でない場合(撮影データD1において人物PS又は物品OBが検出されない場合)、すなわちNOの場合には、ステップS105へ進む。一方、管理装置60は、抽出処理の結果、人物PS又は物品OBが抽出可能である場合(撮影データD1において人物PS又は物品OBが検出された場合)、すなわちYESの場合には、ステップS104へ進む。
In step S103, when the person PS or the article OB cannot be extracted as a result of the extraction process (when the person PS or the article OB is not detected in the shooting data D1), that is, in the case of NO, the
ステップS104において、管理装置60は、抽出処理において抽出された人物PS又は物品OBに関して、所定処理を実行する。例えば、管理装置60は、抽出処理において抽出された人物PS又は物品OBに関して、所在履歴データD3を生成又は更新する。また、例えば、管理装置60は、抽出処理において抽出された人物PSに関して、人物情報テーブルTB2を生成又は更新する。また、例えば、管理装置60は、抽出処理において抽出された物品OBに関して、物品情報テーブルTB3を生成又は更新する。また、例えば、管理装置60は、抽出処理において抽出された人物PS又は物品OBに関して、特徴を学習する。また、例えば、管理装置60は、抽出処理において抽出された人物PS又は物品OBに関して、特徴データD5を生成又は更新する。管理装置60は、処理を適宜行った後、ステップS105へ進む。
In step S104, the
ステップS105において、管理装置60は、出力要求コマンドを受信していない場合(すなわちNOの場合)には、ステップS101に戻る。一方、管理装置60は、出力要求コマンドを受信している場合(すなわちYESの場合)には、ステップS106へ進む。
In step S105, when the
ステップS106において、管理装置60は、出力要求コマンドにおいて指定される人物PS又は物品OBに関して指定される期間の所在履歴を特定する表示データD4を生成する。管理装置60は、生成した表示データD4を、出力要求コマンドの送信元の端末90に出力する。これにより、生成された表示データD4が、出力要求コマンドの送信元の端末90において表示される。
In step S <b> 106, the
(4)特徴
(4−1)
上記実施形態に係る管理システム100は、対象空間SPに設置される複数の撮影ユニット40と、撮影データD1(撮影ユニット40が撮影した画像)に含まれる物品OBを抽出して抽出データD2(抽出した物品OBを特定するデータ)を生成するするデータ生成部63と、データ生成部63が生成した抽出データD2を記憶する記憶部61と、記憶部61に記憶されている抽出データD2において特定の物品OBに関して情報検索を行う情報検索部66と、情報検索部66によって情報検索させる物品OBに関して要求を受け付ける受付部65と、を備えている。
(4) Features (4-1)
The
これにより、対象空間SPに設置される複数の撮影ユニット40の撮影データD1(撮影画像)を用いて物品OBの所在に関するデータ(抽出データD2)を生成するとともに生成された抽出データD2に基づき物品OBの管理を行うことが可能となっている。その結果、対象空間SPにおいて物品OBの情報(所在の有無、所在場所、所在履歴、関連人物等)を把握することが容易に可能となっている。
Thereby, the data (extraction data D2) relating to the location of the article OB is generated using the shooting data D1 (captured images) of the plurality of shooting
(4−2)
上記実施形態において、データ生成部63は撮影データD1に含まれている物品OBに関して所在位置を抽出しており、抽出データD2は物品OBの所在位置を特定する情報を含む。これにより、各物品OBの所在履歴を管理することが容易となっている。
(4-2)
In the above embodiment, the
(4−3)
上記実施形態において、データ生成部63は撮影データD1に含まれている物品OBに関して所在時刻を抽出しており、抽出データD2は抽出した物品OBに関して所在時刻を特定する情報を含む。これにより、各物品OBの所在履歴を管理することが可能となっている。
(4-3)
In the above embodiment, the
(4−4)
上記実施形態において、データ生成部63は撮影データD1(撮影ユニット40が撮影した画像)に含まれている物品OBに関して、関連人物PS(周囲に存在する人)を抽出しており、抽出データD2は抽出した物品OBに関して抽出した関連人物PSを特定する情報を含む。
(4-4)
In the above-described embodiment, the
これにより、各物品OBに関して関連人物PS(関連度が大きいと推定される人、例えば所有者や使用者等)を管理することが可能となっている。 Thereby, it is possible to manage the related person PS (a person who is estimated to have a high degree of association, such as an owner or a user) for each article OB.
(4−5)
上記実施形態において、データ生成部63は、撮影データD1(撮影ユニット40が撮影した画像)に基づき物品OBが有する特徴を学習する学習部632を含む。これにより、物品OBの抽出を高精度に行うことが可能となっている。
(4-5)
In the embodiment described above, the
(4−6)
上記実施形態において、記憶部61は、データ生成部63が生成した抽出データD2を蓄積している。これにより、物品OBの所在履歴を長期的に管理することが可能となっている。
(4-6)
In the above embodiment, the
(4−7)
上記実施形態に係る管理システム100は、情報検索部66による情報検索の結果を出力するための出力部として機能する端末90を有している。これにより、ユーザは、管理装置60の処理結果を容易に把握可能となっている。
(4-7)
The
(4−8)
上記実施形態に係る管理システム100において、撮影ユニット40は、対象空間SPに設置される室内ユニット20(空気調和機)に配置されている。撮影ユニット40が、天井又は天井付近に設置される室内ユニット20に配置されることにより、対象空間SP内で広範囲において物品OBを抽出することが可能となっている。
(4-8)
In the
(5)変形例
上記実施形態は、以下の変形例に示すように適宜変形が可能である。なお、各変形例は、矛盾が生じない範囲で他の変形例と組み合わせて適用されてもよい。
(5) Modifications The above embodiment can be appropriately modified as shown in the following modifications. Each modification may be applied in combination with another modification as long as no contradiction occurs.
(5−1)変形例1
上記実施形態では、撮影ユニット40は、対象空間SPの天井CIに埋めこまれる天井埋込型の室内ユニット20内に配置されている。しかし、撮影ユニット40の配置態様は、必ずしもこれに限定されず、適宜変更が可能である。例えば、いずれか/全ての撮影ユニット40は、対象空間SPの天井から吊り下げられる天井吊下型の室内ユニット20内に配置されてもよいし、対象空間SPの側壁SWに設置される壁掛型の室内ユニット20内に配置されてもよい。また、例えば、いずれか/全ての撮影ユニット40は、必ずしも室内ユニット20内に配置される必要はなく、他の機器内に配置されてもよいし、独立して設置されてもよい。
(5-1) Modification 1
In the above embodiment, the photographing
(5−2)変形例2
上記実施形態では、抽出処理が図13に示すような態様で行われる例について説明した。しかし、抽出処理は、他の態様によって行われてもよいことはもちろんである。例えば、抽出処理は、ニューラルネットワーク以外の手段を用いて実行されてもよい。例えば、管理者等によって予め登録されている人物PS及び物品OBの特徴を定義したデータに基づいて、係る特徴が撮影データD1から抽出されることで人物PS及び物品OBが抽出・特定されてもよい。また、抽出処理において用いられる人物PS又は物品OBの特徴については適宜変更が可能である。
(5-2) Modification 2
In the above-described embodiment, the example in which the extraction process is performed in the manner illustrated in FIG. 13 has been described. However, it goes without saying that the extraction process may be performed according to other modes. For example, the extraction process may be executed using means other than the neural network. For example, even if the person PS and the article OB are extracted and specified by extracting the characteristics from the shooting data D1 based on the data defining the characteristics of the person PS and the article OB registered in advance by the administrator or the like. Good. Further, the characteristics of the person PS or the article OB used in the extraction process can be changed as appropriate.
また、抽出処理は、必ずしも毎時行われる必要はなく、所定のタイミングで行われてもよい。例えば、抽出処理は、定期的に(例えば5分周期で)行われてもよい。 Further, the extraction process is not necessarily performed every hour, and may be performed at a predetermined timing. For example, the extraction process may be performed periodically (for example, at a cycle of 5 minutes).
また、抽出処理においては、必ずしも人物PSが抽出される必要はなく、物品OBのみが抽出されてもよい。 In the extraction process, the person PS does not necessarily have to be extracted, and only the article OB may be extracted.
(5−3)変形例3
上記実施形態では、撮影データD1は、対象空間SPの所定範囲を所定のピクセルで表わした画像データ(動画データ)を含んでいた。しかし、撮影データD1の形式については設置環境や設計仕様等に応じて適宜変更が可能である。例えば、撮影データD1は、対象空間SPの所定範囲を所定のピクセルで表わした画像データ(静止画)であってもよい。
(5-3) Modification 3
In the above embodiment, the shooting data D1 includes image data (moving image data) in which a predetermined range of the target space SP is represented by predetermined pixels. However, the format of the photographing data D1 can be changed as appropriate according to the installation environment, design specifications, and the like. For example, the shooting data D1 may be image data (still image) representing a predetermined range of the target space SP with predetermined pixels.
(5−4)変形例4
上記実施形態では、一の対象空間SPに1台の撮影ユニット40が配置されている。しかし、撮影ユニット40の配置態様については、必ずしもこれに限定されず、適宜変更が可能である。例えば、一の対象空間SPに複数台の撮影ユニット40が配置されてもよい。係る場合、複数の撮影ユニット40が撮影した各撮影データD1に基づき人物PSの特徴が識別される。すなわち、一の対象空間SPにおいて異なる撮影角度で撮影された撮影データD1に基づいて抽出処理が行われることから、人物PSの抽出及び個人の特定を高精度に行うことが可能である。
(5-4) Modification 4
In the above embodiment, one photographing
(5−5)変形例5
上記実施形態では、撮影ユニット情報が図7に示されるような撮影ユニット情報テーブルTB1として生成されている。撮影ユニット情報は、必ずしも係る態様で生成される必要はなく、撮影ユニット情報の生成態様については適宜変更が可能である。
(5-5) Modification 5
In the above embodiment, the photographing unit information is generated as the photographing unit information table TB1 as shown in FIG. The shooting unit information does not necessarily have to be generated in this manner, and the shooting unit information generation mode can be changed as appropriate.
(5−6)変形例6
上記実施形態では、人物情報は、例えば図8に示されるような人物情報テーブルTB2として生成されている。人物情報は、必ずしも係る態様で生成される必要はなく、人物情報の生成態様については適宜変更が可能である。すなわち、人物情報テーブルTB2は、図8に含まれる情報のいずれかに代えて他の情報(例えば人物PSの寸法、人物PSの状態、及び人物PS間の関係性等の情報)を含んでいてもよい。
(5-6) Modification 6
In the above embodiment, the person information is generated as a person information table TB2 as shown in FIG. 8, for example. The person information does not necessarily have to be generated in such a mode, and the generation mode of the person information can be changed as appropriate. That is, the person information table TB2 includes other information (for example, information such as the dimensions of the person PS, the state of the person PS, and the relationship between the persons PS) instead of any of the information included in FIG. Also good.
(5−7)変形例7
上記実施形態では、物品情報は、例えば図9に示されるような物品情報テーブルTB3として生成されている。物品情報は、必ずしも係る態様で生成される必要はなく、物品情報の生成態様については適宜変更が可能である。すなわち、物品情報テーブルTB3は、図9に含まれる情報のいずれかに代えて他の情報(例えば物品OBの寸法、物品OBの状態、物品OB間の関係性、及び物品OBと人物PSの関係性等の情報)を含んでいてもよい。
(5-7) Modification 7
In the above embodiment, the article information is generated as an article information table TB3 as shown in FIG. 9, for example. The article information does not necessarily have to be generated in such a mode, and the generation mode of the article information can be changed as appropriate. That is, the item information table TB3 is replaced with any of the information included in FIG. 9 (for example, the size of the item OB, the state of the item OB, the relationship between the items OB, and the relationship between the item OB and the person PS). Information such as sex).
(5−8)変形例8
上記実施形態では、抽出データD2が図10に示されるような態様で生成されている。しかし、抽出データD2は、必ずしも係る態様で生成される必要はなく、抽出データD2の生成態様については適宜変更が可能である。例えば、抽出データD2は、図10に含まれる情報のいずれかに代えて他の情報を含んでいてもよい。
(5-8) Modification 8
In the above embodiment, the extraction data D2 is generated in a manner as shown in FIG. However, the extraction data D2 does not necessarily have to be generated in such a manner, and the generation mode of the extraction data D2 can be changed as appropriate. For example, the extracted data D2 may include other information instead of any of the information included in FIG.
(5−9)変形例9
上記実施形態では、所在履歴データD3が図11、図12に示されるような態様で生成されている。しかし、所在履歴データD3は、必ずしも係る態様で生成される必要はなく、所在履歴データD3の生成態様については適宜変更が可能である。例えば、所在履歴データD3は、図11、図12に含まれる情報のいずれかに代えて他の情報を含んでいてもよい。
(5-9) Modification 9
In the above embodiment, the location history data D3 is generated in a manner as shown in FIGS. However, the location history data D3 does not necessarily have to be generated in such a manner, and the generation mode of the location history data D3 can be changed as appropriate. For example, the location history data D3 may include other information instead of any of the information included in FIGS.
(5−10)変形例10
上記実施形態では、表示データD4が図14に示されるような態様で生成されている。しかし、表示データD4は、必ずしも係る態様で生成される必要はなく、表示データD4の生成態様については適宜変更が可能である。例えば、表示データD4は、図14又は図15に含まれる情報のいずれかに代えて他の情報を含んでいてもよい。また、例えば、出力要求コマンドが物品OBの所在位置を要求するものである場合には、表示データD4は、当該物品OBの最新の所在空間と所在位置のみを単に特定するものであってもよい。また、例えば、出力要求コマンドが物品OBの所在位置(所在場所)を要求するものである場合には、指定された物品OBが存在する対象空間SPの様子が端末90において表示されるように、当該対象空間SPを撮影する撮影ユニット40の撮影データD1を表示データD4として出力させてもよい。
(5-10)
In the above embodiment, the display data D4 is generated in a manner as shown in FIG. However, the display data D4 does not necessarily have to be generated in such a manner, and the generation mode of the display data D4 can be changed as appropriate. For example, the display data D4 may include other information instead of any of the information included in FIG. Further, for example, when the output request command requests the location of the article OB, the display data D4 may simply specify only the latest location space and location of the article OB. . For example, when the output request command is a request for the location (location) of the article OB, the state of the target space SP where the designated article OB exists is displayed on the terminal 90. The photographing data D1 of the photographing
(5−11)変形例11
上記実施形態では、管理装置60は、撮影データD1において人物PS又は物品OBを抽出した後、抽出された人物PS又は物品OBに関して、所定処理を実行している(図16のステップS104)。ここで、図16のステップS104の処理のいずれかについては適宜省略されてもよい。例えば、管理装置60は、必ずしも抽出処理において抽出された人物PS又は物品OBに関して特徴を学習する必要はない。また、例えば、管理装置60は、必ずしも抽出処理において抽出された人物PS又は物品OBに関して特徴データD5を生成又は更新する必要はない。
(5-11) Modification 11
In the embodiment described above, the
(5−12)変形例12
上記実施形態では、管理装置60は、撮影データD1に基づいて生成された抽出データD2に基づいて所在履歴データD3を生成し、所在履歴データD3に基づいて出力要求コマンド(検索要求)に対する処理結果(表示データD4)を生成していた。しかし、管理装置60は、所在履歴データD3に代えて抽出データD2に基づいて出力要求コマンド(検索要求)に対する処理結果(表示データD4)を生成してもよい。係る場合、抽出データD2が特許請求の範囲記載の「物品データ」に相当する。
(5-12) Modification 12
In the above embodiment, the
(5−13)変形例13
上記実施形態では、物品OBに関する「関連人物」(抽出される物品OBに関して関連度が大きいと推定される人物)が、物品OBの周囲に存在する人であり、抽出される物品OBに関して関連度が大きいと推定される所定範囲に存在する人である場合について説明した。しかし、「関連人物」の設定態様については、必ずしもこれに限定されず、設置環境等に応じて適宜変更が可能である。
(5-13) Modification 13
In the above embodiment, the “related person” related to the article OB (a person estimated to have a high degree of relation regarding the extracted article OB) is a person existing around the article OB, and the degree of relevance regarding the extracted article OB. A case has been described in which the person is present in a predetermined range in which is estimated to be large. However, the setting mode of the “related person” is not necessarily limited to this, and can be appropriately changed according to the installation environment or the like.
(5−14)変形例14
上記実施形態では、データ生成部63は、撮影データD1に基づき人物PS及び物品OBの特徴を学習する学習部632を有している。しかし、データ生成部63は、必ずしも学習部632を有している必要はない。
(5-14) Modification 14
In the embodiment described above, the
(5−15)変形例15
上記実施形態では、端末90が管理装置60に対して出力要求コマンドを入力する「入力部」として機能している。しかし、必ずしもこれに限定されず、端末90以外の装置を係る「入力部」として機能させてもよい。例えばリモコン30、サーバ50又は他の装置を係る「入力部」として機能させてもよい。
(5-15)
In the above embodiment, the terminal 90 functions as an “input unit” for inputting an output request command to the
また、上記実施形態では、端末90が出力要求コマンドに対する処理結果(表示データD4)を出力する「出力部」として機能している。しかし、必ずしもこれに限定されず、端末90以外の装置を係る「出力部」として機能させてもよい。例えばリモコン30、サーバ50又は他の装置を係る「出力部」として機能させてもよい。
In the above embodiment, the terminal 90 functions as an “output unit” that outputs a processing result (display data D4) for the output request command. However, the present invention is not necessarily limited to this, and a device other than the terminal 90 may function as the “output unit”. For example, the
また、「出力部」における情報の出力態様としては、必ずしもデータの表示には限定されない。例えば、「出力部」が音声を出力可能なスピーカを有している場合には、音声データを出力させることで出力要求コマンドに対する処理結果が出力されるように構成されてもよい。 The information output mode in the “output unit” is not necessarily limited to data display. For example, when the “output unit” has a speaker capable of outputting sound, the processing result for the output request command may be output by outputting sound data.
(5−16)変形例16
上記実施形態では、管理システム100が、複数(6つ)の対象空間SPを含む対象施設1において適用されている。しかし、管理システム100が適用される対象施設1における対象空間SPの数については適宜変更が可能である。例えば、管理システム100は、7以上又は5以下の対象空間SPを含む対象施設に適用されてもよい。また、例えば、管理システム100は、単一の対象空間SPを含む対象施設に適用されてもよい。
(5-16)
In the above embodiment, the
(5−17)変形例17
上記実施形態では、各ユニット間(例えば、室外ユニット制御部18―室内ユニット制御部25間、室内ユニット制御部25―室内ユニット制御部25間、室内ユニット制御部25―リモコン制御部35間、及び室内ユニット制御部25―撮影ユニット40間)において、通信線を用いて通信ネットワークが構成されていた。しかし、各ユニット間においては、通信線に加えて/通信線に代えて、電波や赤外線を用いた無線通信によって通信ネットワークが構成されてもよいことはもちろんである。また、室外ユニット制御部18又はサーバ50は、通信線に加えて/通信線に代えて、無線通信によって広域ネットワークNW1に接続されてもよい。
(5-17) Modification 17
In the above embodiment, between each unit (for example, between the
(5−18)変形例18
上記実施形態では、サーバ50は、広域ネットワークNW1を介して室外ユニット制御部18、室内ユニット制御部25及びリモコン制御部35と通信可能に構成されていたが、LAN(ローカル・エリア・ネットワーク)を介してこれらのユニットと通信可能に構成されてもよい。
(5-18)
In the above embodiment, the
(5−19)変形例19
上記実施形態では、管理装置60は、室外ユニット制御部18、室内ユニット制御部25、リモコン制御部35及びサーバ50が通信ネットワークを介して接続されることで構成されている。しかし、管理装置60の構成態様は、必ずしもこれに限定されず、他の態様で構成されてもよい。例えば、管理装置60の構成機器として、室外ユニット制御部18、室内ユニット制御部25、リモコン制御部35及びサーバ50のいずれかが省略されてもよい。また、例えば、室外ユニット制御部18、室内ユニット制御部25、リモコン制御部35及びサーバ50、のいずれかに代えて/とともに、別の機器が通信ネットワークを介して接続されることで管理装置60が構成されてもよい。また、管理装置60は、必ずしも広域ネットワークNW1に跨って構成される必要はなく、LANに接続される機器のみで構成されてもよい。
(5-19) Modification 19
In the said embodiment, the
(6)
以上、実施形態を説明したが、特許請求の範囲に記載の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
(6)
Although the embodiments have been described above, it will be understood that various changes in form and details can be made without departing from the spirit and scope described in the claims.
本開示は、物品管理システムに利用可能である。 The present disclosure can be used for an article management system.
1 :対象施設
10 :空気調和装置
15 :室外ユニット
18 :室外ユニット制御部
20、(20a―20f):室内ユニット(空気調和機)
25 :室内ユニット制御部
30、(30a―30f):リモコン
35 :リモコン制御部
40、(40a―40f):撮影ユニット(撮影機器)
41 :撮影部
42 :撮影データ生成部
43 :撮影データ出力部
50 :サーバ
60 :管理装置
61 :記憶部
62 :取得部
63 :データ生成部
64 :所在管理部
65 :受付部
66 :情報検索部(検索部)
67 :出力制御部
90 :端末(出力部)
100 :管理システム(物品管理システム)
631 :抽出部
632 :学習部
633 :抽出データ生成部
CI :天井
D1 :撮影データ
D2 :抽出データ(物品データ)
D3 :所在履歴データ(物品データ)
D4 :表示データ
D5 :特徴データ
GP :ガス連絡配管
LP :液連絡配管
M1 :プログラム情報記憶領域
M2 :環境情報記憶領域
M3 :システム情報記憶領域
M4 :人物情報記憶領域
M5 :物品情報記憶領域
M6 :撮影データ記憶領域
M7 :抽出データ記憶領域
M8 :所在履歴データ記憶領域
M9 :入力情報記憶領域
M10 :出力情報記憶領域
M11 :特徴データ記憶領域
N1 :第1ニューラルネットワーク
N2 :第2ニューラルネットワーク
N3 :第3ニューラルネットワーク
N4 :第4ニューラルネットワーク
NW1 :広域ネットワーク
OB :物品
PS :人物
SP、(SP1―SP6):対象空間
SW :側壁
TB1 :撮影ユニット情報テーブル
TB2 :人物情報テーブル
cb1―cb4 :通信線
1: target facility 10: air conditioner 15: outdoor unit 18: outdoor
25: Indoor
41: Shooting unit 42: Shooting data generation unit 43: Shooting data output unit 50: Server 60: Management device 61: Storage unit 62: Acquisition unit 63: Data generation unit 64: Location management unit 65: Reception unit 66: Information search unit (Search part)
67: Output control unit 90: Terminal (output unit)
100: Management system (article management system)
631: Extraction unit 632: Learning unit 633: Extraction data generation unit CI: Ceiling D1: Shooting data D2: Extraction data (article data)
D3: Location history data (article data)
D4: Display data D5: Feature data GP: Gas communication pipe LP: Liquid communication pipe M1: Program information storage area M2: Environmental information storage area M3: System information storage area M4: Person information storage area M5: Article information storage area M6: Shooting data storage area M7: Extraction data storage area M8: Location history data storage area M9: Input information storage area M10: Output information storage area M11: Feature data storage area N1: First neural network N2: Second neural network N3: First 3 neural network N4: 4th neural network NW1: wide area network OB: article PS: person SP, (SP1-SP6): target space SW: sidewall TB1: photographing unit information table TB2: person information table cb1-cb4: communication line
Claims (8)
前記撮影機器が撮影した画像(D1)に含まれる物品(OB)を抽出し、抽出した前記物品を特定する物品データ(D2、D3)を生成するデータ生成部(63)と、
前記データ生成部が生成した前記物品データを記憶する記憶部(61)と、
前記記憶部に記憶されている前記物品データにおいて特定の前記物品に関して情報検索を行う検索部(66)と、
前記検索部によって情報検索させる前記物品に関して要求を受け付ける受付部(65)と、
を備える、
物品管理システム(100)。 A plurality of imaging devices (40) installed in the target space (SP);
A data generation unit (63) for extracting an article (OB) included in an image (D1) photographed by the photographing device and generating article data (D2, D3) for specifying the extracted article;
A storage unit (61) for storing the article data generated by the data generation unit;
A search unit (66) for performing information search on the specific product in the product data stored in the storage unit;
A receiving unit (65) for receiving a request regarding the article whose information is to be searched by the search unit;
Comprising
Article management system (100).
前記物品データは、前記物品の所在位置を特定する情報を含む、
請求項1に記載の物品管理システム(100)。 The data generation unit extracts a location of the article included in the image captured by the imaging device,
The article data includes information for specifying a location of the article.
The article management system (100) of claim 1.
前記物品データは、抽出した前記物品に関して所在時刻を特定する情報を含む、
請求項1又は2に記載の物品管理システム(100)。 The data generation unit extracts a location time with respect to the article included in the image captured by the imaging device,
The article data includes information for specifying a location time with respect to the extracted article.
The article management system (100) according to claim 1 or 2.
前記物品データは、抽出した前記物品に関して前記抽出した人を特定する情報を含む、
請求項1から3のいずれか1項に記載の物品管理システム(100)。 The data generation unit extracts a person (PS) present in the surroundings with respect to the article included in the image captured by the imaging device,
The article data includes information for identifying the extracted person with respect to the extracted article.
The article management system (100) according to any one of claims 1 to 3.
請求項1から4のいずれか1項に記載の物品管理システム(100)。 The data generation unit includes a learning unit (632) that learns characteristics of the article based on an image captured by the imaging device.
The article management system (100) according to any one of claims 1 to 4.
請求項1から5のいずれか1項に記載の物品管理システム(100)。 The storage unit stores the article data generated by the data generation unit.
The article management system (100) according to any one of claims 1 to 5.
請求項1から6のいずれか1項に記載の物品管理システム(100)。 An output unit (90) for outputting a result of the information search by the search unit;
The article management system (100) according to any one of claims 1 to 6.
請求項1から7のいずれか1項に記載の物品管理システム(100)。 Any / all of the imaging devices are arranged in an air conditioner (20) installed in the target space.
The article management system (100) according to any one of claims 1 to 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070183A JP2019179524A (en) | 2018-03-30 | 2018-03-30 | Article management system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070183A JP2019179524A (en) | 2018-03-30 | 2018-03-30 | Article management system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019179524A true JP2019179524A (en) | 2019-10-17 |
Family
ID=68278816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018070183A Pending JP2019179524A (en) | 2018-03-30 | 2018-03-30 | Article management system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019179524A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007079918A (en) * | 2005-09-14 | 2007-03-29 | Matsushita Electric Ind Co Ltd | Article retrieval system and method |
JP2015069561A (en) * | 2013-09-30 | 2015-04-13 | ダイキン工業株式会社 | Air conditioning cum service providing system |
JP2017052649A (en) * | 2015-09-08 | 2017-03-16 | 株式会社シーネット | Warehouse management system |
JP2018041261A (en) * | 2016-09-07 | 2018-03-15 | 東芝テック株式会社 | Information processor and program |
-
2018
- 2018-03-30 JP JP2018070183A patent/JP2019179524A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007079918A (en) * | 2005-09-14 | 2007-03-29 | Matsushita Electric Ind Co Ltd | Article retrieval system and method |
JP2015069561A (en) * | 2013-09-30 | 2015-04-13 | ダイキン工業株式会社 | Air conditioning cum service providing system |
JP2017052649A (en) * | 2015-09-08 | 2017-03-16 | 株式会社シーネット | Warehouse management system |
JP2018041261A (en) * | 2016-09-07 | 2018-03-15 | 東芝テック株式会社 | Information processor and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6828713B2 (en) | Mental and physical condition recognition system | |
CN109672720B (en) | Electronic device for controlling IoT devices and method of operating the same | |
CN112639370B (en) | Air supply control device | |
CN105446162A (en) | Intelligent home system and intelligent home control method of robot | |
WO2013114761A1 (en) | Information processing device, method for processing information, and program | |
US9779275B2 (en) | Control system, terminal, information setting method, and program | |
WO2019189179A1 (en) | Information management system | |
JP2019185724A (en) | Information management system | |
US11391483B2 (en) | Automatic assignment between flow control devices, sensor devices and control devices in an HVAC application | |
WO2018203368A1 (en) | Air-conditioner, air-conditioning system, air-conditioning method, and program | |
JP2014183553A (en) | Device, method and program for estimating probability of presence in room | |
CN112013513A (en) | Air conditioning equipment, automatic control method thereof and terminal control equipment | |
KR20150018663A (en) | A system and method for personalized living services by identification and positioning by image processing | |
JP2019179524A (en) | Article management system | |
WO2017208344A1 (en) | Air conditioning system | |
JP7099092B2 (en) | Information processing equipment and programs | |
US20220207289A1 (en) | Device selection apparatus, data set selection apparatus, method for selecting device, and program | |
KR102203206B1 (en) | A controller and air conditioning system comprising the same | |
JP2022117761A (en) | Sensor system, image sensor, server device, sensing method, and program | |
JP7212500B2 (en) | Remote control device and remote control system | |
JPWO2020115791A1 (en) | Equipment control device and equipment control method | |
WO2019167366A1 (en) | Metadata generation device, metadata generation method, and program | |
US11113828B2 (en) | Determining sensor installation characteristics from camera image | |
KR101599673B1 (en) | Smart monitoring system | |
JP2020135405A (en) | Information processing device, air-conditioner controller, mobile device and production control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190821 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210406 |