JP2015155345A - storage management system - Google Patents

storage management system Download PDF

Info

Publication number
JP2015155345A
JP2015155345A JP2014030689A JP2014030689A JP2015155345A JP 2015155345 A JP2015155345 A JP 2015155345A JP 2014030689 A JP2014030689 A JP 2014030689A JP 2014030689 A JP2014030689 A JP 2014030689A JP 2015155345 A JP2015155345 A JP 2015155345A
Authority
JP
Japan
Prior art keywords
user
storage
camera
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014030689A
Other languages
Japanese (ja)
Other versions
JP6238783B2 (en
Inventor
亜矢子 伊東
Ayako Ito
亜矢子 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
Original Assignee
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiwa House Industry Co Ltd filed Critical Daiwa House Industry Co Ltd
Priority to JP2014030689A priority Critical patent/JP6238783B2/en
Publication of JP2015155345A publication Critical patent/JP2015155345A/en
Application granted granted Critical
Publication of JP6238783B2 publication Critical patent/JP6238783B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a storage management system with which a storage position of a storage object can be easily recognized, in a storage where a user himself/herself can go in and out.
SOLUTION: A storage management system includes: a camera arranged in a storage inside which a storage object 3 can be stored, to capture an image inside the storage; a control device which stores an image captured by the camera, calculates a change with time of a face width of a user 2 in the stored image, detects that the user 2 stops and stands on the basis of the change with time of the face width of the user 2, estimates a position where the user 2 stops and stands, on the basis of the face width at the time the user 2 stops and stands in the stored image, estimates the storage position of the storage object 3 on the basis of the position where the user 2 stops and stands, and stores the storage position; and a portable terminal capable of searching the storage position stored by the control device.
COPYRIGHT: (C)2015,JPO&INPIT

Description

本発明は、収納庫に収納された収納物を管理する収納管理システムの技術に関し、より詳細には、収納物の収納位置を容易に把握することができるように管理する収納管理システムの技術に関する。   The present invention relates to a technology of a storage management system that manages storage items stored in a storage, and more particularly to a technology of a storage management system that manages so that the storage position of storage items can be easily grasped. .

従来、収納庫に収納された収納物を管理する収納管理システムの技術は公知となっている。例えば、特許文献1に記載の如くである。   Conventionally, the technology of a storage management system for managing stored items stored in a storage is well known. For example, as described in Patent Document 1.

特許文献1には、収納物(物品)を収納する複数の引出しと、所定位置に移動した引出しの内部を撮影するカメラと、カメラによって撮影された引出しの内部画像を画像情報として記憶する記憶手段と、記憶手段に記憶された画像情報を表示するディスプレイ装置と、を具備する収納管理システム(検索機能付き収納庫)が記載されている。   Patent Document 1 discloses a plurality of drawers that store stored items (articles), a camera that captures the interior of the drawer that has moved to a predetermined position, and a storage unit that stores an internal image of the drawer captured by the camera as image information. And a storage management system (storage with search function) including a display device that displays image information stored in a storage unit.

このように構成された収納管理システムにおいては、収納物を出し入れした引出しの内部をカメラで撮影し、その内部画像を画像情報として記憶する。これによって、後日当該画像情報に基づいて所望の収納物が収納されている引出しを検索し、収納物の収納位置を容易に把握することができる。   In the storage management system configured as described above, the inside of the drawer in which the stored items are taken in and out is photographed by the camera, and the internal image is stored as image information. Thereby, a drawer in which a desired storage item is stored can be searched based on the image information at a later date, and the storage position of the storage item can be easily grasped.

しかしながら、特許文献1に記載の技術を適用することができるのは、比較的小さな収納物を収納する収納庫に限られる。すなわち、収納物の出し入れを行う使用者自身が出入り可能な大型の収納庫(いわゆる、ウォークインクローゼット等)に適用することはできない。このため、このような使用者自身が出入り可能な大型の収納庫では、収納物の管理(収納物の収納位置の把握)が困難であった。   However, the technique described in Patent Document 1 can be applied only to a storage that stores relatively small storage items. That is, it cannot be applied to a large storage (so-called walk-in closet or the like) in which a user who takes in and out the stored items can enter and exit. For this reason, in such a large storage where the user himself can go in and out, it is difficult to manage the stored items (ascertain the storage position of the stored items).

特開2006−103852号公報JP 2006-103852 A

本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、使用者自身が出入り可能な収納庫において、収納物の収納位置を容易に把握することが可能な収納管理システムを提供することである。   The present invention has been made in view of the above situation, and the problem to be solved is storage in which the user can easily grasp the storage position of the stored item in a storage that can be accessed by the user himself / herself. It is to provide a management system.

本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。   The problem to be solved by the present invention is as described above. Next, means for solving the problem will be described.

即ち、請求項1においては、収納物を内部に収納可能な収納庫に設けられ、前記収納庫内を撮影するカメラと、前記カメラにより撮影された画像を記憶し、記憶された画像の中における使用者の顔の大きさの時間変化を算出し、前記使用者の顔の大きさの時間変化に基づいて前記使用者が立ち止まったことを検出し、前記記憶された画像の中における前記使用者の立ち止まった時の顔の大きさに基づいて、当該使用者が立ち止まった位置を推定し、前記使用者が立ち止まった位置に基づいて、前記収納物の収納位置を推定して記憶する制御装置と、前記制御装置に記憶された前記収納位置を検索可能な検索装置と、を具備するものである。   That is, according to the first aspect of the present invention, the camera is provided in a storage that can store the storage items therein, the camera that captures the inside of the storage, and the image that is captured by the camera are stored. Calculating a temporal change in the size of the user's face, detecting that the user has stopped based on the temporal change in the size of the user's face, and detecting the user in the stored image A control device that estimates the position where the user has stopped based on the size of the face when the user stops, and estimates and stores the storage position of the stored item based on the position where the user stopped And a search device capable of searching for the storage position stored in the control device.

請求項2においては、前記制御装置は、前記使用者が立ち止まった位置を推定する際に、当該使用者の顔の向きに関する情報も考慮するものである。   According to a second aspect of the present invention, when the position where the user has stopped is estimated, the control device also considers information regarding the orientation of the user's face.

請求項3においては、前記制御装置は、前記カメラにより撮影された使用者を特定して記憶し、前記検索装置は、特定された使用者に基づいて前記制御装置に記憶された前記収納位置を検索可能なものである。   In Claim 3, the said control apparatus specifies and memorize | stores the user image | photographed with the said camera, The said search apparatus stores the said storage position memorize | stored in the said control apparatus based on the specified user. It is searchable.

請求項4においては、前記カメラは、前記収納庫において互いに異なる位置に複数設けられ、前記制御装置は、前記カメラにより撮影された画像の中の使用者の顔が、正面に対して左右に所定角度以上回転している場合には、当該画像を記憶しないものである。   According to a fourth aspect of the present invention, a plurality of the cameras are provided at different positions in the storage, and the control device is configured such that a user's face in an image photographed by the camera is predetermined on the left and right with respect to the front. When the image is rotated by an angle or more, the image is not stored.

請求項5においては、前記検索装置は、持ち運び可能な携帯型端末であるものである。   According to a fifth aspect of the present invention, the search device is a portable terminal that can be carried.

本発明の効果として、以下に示すような効果を奏する。   As effects of the present invention, the following effects can be obtained.

請求項1においては、収納物の収納位置を容易に把握することができる。   According to the first aspect, the storage position of the storage item can be easily grasped.

請求項2においては、収納物の収納位置をより正確に推定することができる。   According to the second aspect, the storage position of the stored item can be estimated more accurately.

請求項3においては、使用者を特定して収納位置を検索することができ、検索の効率を向上させることができる。   According to the third aspect of the present invention, it is possible to search the storage position by specifying the user, and the search efficiency can be improved.

請求項4においては、必要性の高い画像のみを記憶することができ、無駄な記憶容量の使用を防止することができる。   According to the fourth aspect of the present invention, it is possible to store only images that are highly necessary, and to prevent useless storage capacity from being used.

請求項5においては、収納庫の近傍に限らず任意の場所で検索装置を使用することができ、検索の利便性を向上させることができる。   According to the fifth aspect, the search device can be used not only in the vicinity of the storage but also in an arbitrary place, and the convenience of the search can be improved.

本発明の一実施形態に係る収納管理システム及び収納庫の全体的な構成を示した側面断面模式図。The side surface cross-sectional schematic diagram which showed the whole structure of the storage management system and storage which concerns on one Embodiment of this invention. 同じく、平面断面模式図。Similarly, a plane cross-sectional schematic diagram. 収納管理システムを示したブロック図。The block diagram which showed the storage management system. 使用者が入室した直後を示した側面断面模式図。The side surface cross-section schematic diagram which showed immediately after the user entered the room. 同じく、平面断面模式図。Similarly, a plane cross-sectional schematic diagram. 使用者が収納庫内を移動している様子を示した平面断面模式図。The plane cross-sectional schematic diagram which showed a mode that the user is moving in the storage. 使用者が退室した直後を示した側面断面模式図。The side surface cross-sectional schematic diagram which showed immediately after the user left the room. 同じく、平面断面模式図。Similarly, a plane cross-sectional schematic diagram. (a)使用者の顔の幅を示した模式図。(b)使用者の顔の幅の時間変化を示した図。(A) The schematic diagram which showed the width | variety of the user's face. (B) The figure which showed the time change of the width | variety of a user's face. カメラから使用者までの距離の算出の様子を示した平面模式図。The plane schematic diagram which showed the mode of calculation of the distance from a camera to a user. カメラから使用者までの距離から推定される当該使用者の立ち止まった位置を示した平面模式図。The plane schematic diagram which showed the position where the said user stopped estimated from the distance from a camera to a user. 使用者の顔の向きから推定される当該使用者の立ち止まった位置を示した平面模式図。The plane schematic diagram which showed the position where the said user stopped estimated from direction of a user's face. 推定された使用者の立ち止まった位置、並びに収納位置を示した平面模式図。The plane schematic diagram which showed the estimated position where the user stopped and the storage position. 携帯型端末に表示された情報を示した図。The figure which showed the information displayed on the portable terminal. 収納庫の変形例を示した平面断面模式図。The plane cross-sectional schematic diagram which showed the modification of the storage. 使用者の顔の幅の時間変化の他の例を示した図。The figure which showed the other example of the time change of the width | variety of a user's face. (a)入室直後の使用者の画像の一例を示した図。(b)退室直前の使用者の画像の一例を示した図。(A) The figure which showed an example of the user's image immediately after entering a room. (B) The figure which showed an example of the user's image just before leaving.

以下では、図中に示した矢印に基づいて、上下方向、前後方向及び左右方向を定義して説明を行う。   Below, based on the arrow shown in the figure, it demonstrates by defining the up-down direction, the front-back direction, and the left-right direction.

以下では、図1から図3までを用いて、本発明の実施の一形態に係る収納管理システム5の構成について説明する。収納管理システム5は、収納庫1に収納された収納物3の収納位置を容易に把握することができるように管理するものである。   Below, the structure of the storage management system 5 which concerns on one Embodiment of this invention is demonstrated using FIGS. 1-3. The storage management system 5 performs management so that the storage position of the storage items 3 stored in the storage 1 can be easily grasped.

ここで、図1及び図2に示す収納庫1は、種々の物(収納物)を収納するための空間である。収納庫1は、住宅内の一室に設けられる収納部(いわゆる、ウォークインクローゼット)である。収納庫1は、前後方向に長く延びるような略直方体箱状に形成される。収納庫1の後側面の左右中央部には入口1aが形成される。当該入口1aを介して、収納庫1を使用する人(使用者)2が当該収納庫1に出入りすることができる。収納庫1内には、第一収納棚1b及び第二収納棚1cが形成される。第一収納棚1bは、収納庫1の右側面に沿うように形成される。第二収納棚1cは、収納庫1の左側面に沿うように形成される。収納庫1内の左右中央部(第一収納棚1bと第二収納棚1cとの間)には、使用者2が移動可能な空間が確保される。   Here, the storage 1 shown in FIGS. 1 and 2 is a space for storing various items (stored items). The storage 1 is a storage unit (a so-called walk-in closet) provided in a room in a house. The storage 1 is formed in a substantially rectangular parallelepiped box shape that extends long in the front-rear direction. An entrance 1a is formed in the left and right central portion of the rear side of the storage 1. A person (user) 2 who uses the storage 1 can enter and exit the storage 1 through the entrance 1a. In the storage 1, a first storage shelf 1 b and a second storage shelf 1 c are formed. The first storage shelf 1 b is formed along the right side surface of the storage 1. The second storage shelf 1 c is formed along the left side surface of the storage 1. A space in which the user 2 can move is secured in the left and right central portion (between the first storage shelf 1 b and the second storage shelf 1 c) in the storage 1.

なお、使用者2とは収納庫1を使用する人であり、ある特定の人(一人)に限定するものではなく、複数の人を意味するものであっても良い。例えば、使用者2とは、前記住宅に住む複数の人(例えば、お父さん、お母さん、長男、長女等)を意味するものであっても良い。   The user 2 is a person who uses the storage 1 and is not limited to a specific person (one person) but may mean a plurality of persons. For example, the user 2 may mean a plurality of people who live in the house (for example, a father, a mother, an eldest son, an eldest daughter, etc.).

図1から図3までに示す収納管理システム5は、主として複数のカメラ10(第一カメラ11、第二カメラ12、第三カメラ13、第四カメラ14及び第五カメラ15)、制御装置20及び携帯型端末30を具備する。   1 to 3 mainly includes a plurality of cameras 10 (first camera 11, second camera 12, third camera 13, fourth camera 14 and fifth camera 15), control device 20 and A portable terminal 30 is provided.

複数のカメラ10は、収納庫1内を撮影するためのものである。複数のカメラ10は、収納庫1内の天井付近に配置される。
第一カメラ11は、収納庫1内の前側面近傍に配置される。第一カメラ11は、収納庫1内の左右中央部に配置される。第一カメラ11は、後方に向けて(すなわち、入口1aに向けて)配置される。
第二カメラ12は、収納庫1内の右前端部近傍に配置される。第二カメラ12は、左後方かつ斜め下方に向けて配置される。
第三カメラ13は、収納庫1内の右後端部近傍に配置される。第三カメラ13は、左前方かつ斜め下方に向けて配置される。
第四カメラ14は、収納庫1内の左前端部近傍に配置される。第四カメラ14は、右後方かつ斜め下方に向けて配置される。
第五カメラ15は、収納庫1内の左後端部近傍に配置される。第五カメラ15は、右前方かつ斜め下方に向けて配置される。
The plurality of cameras 10 are for photographing the inside of the storage 1. The plurality of cameras 10 are arranged near the ceiling in the storage 1.
The first camera 11 is disposed near the front side surface in the storage 1. The first camera 11 is arranged at the left and right center part in the storage 1. The first camera 11 is disposed rearward (that is, toward the entrance 1a).
The second camera 12 is disposed in the vicinity of the right front end in the storage 1. The 2nd camera 12 is arrange | positioned toward the left back and diagonally downward.
The third camera 13 is disposed in the vicinity of the right rear end in the storage 1. The 3rd camera 13 is arrange | positioned toward the left front and diagonally downward.
The fourth camera 14 is disposed in the vicinity of the left front end in the storage 1. The fourth camera 14 is disposed rearward right and obliquely downward.
The fifth camera 15 is arranged in the vicinity of the left rear end in the storage 1. The fifth camera 15 is disposed right front and obliquely downward.

なお、本実施形態においては、複数のカメラ10は全て同じ性能(仕様)であるものとする。また、複数のカメラ10によって撮影される「画像」とは、「動画」を意味するものとする。   In the present embodiment, the plurality of cameras 10 all have the same performance (specification). Further, “images” taken by a plurality of cameras 10 mean “moving images”.

図3に示す制御装置20は、複数のカメラ10によって撮影された収納庫1内の画像から収納物3の位置を推定し、記憶するためのものである。制御装置20は、実体的にはCPU、ROM、RAM、HDD等がバスで接続される構成であっても良く、あるいはワンチップのLSI等からなる構成であっても良い。制御装置20は、機能的には記憶部21、録画指示部22、顔認識部23、顔認証部24、収納位置推定部25及び検索部26を具備する。   The control device 20 shown in FIG. 3 is for estimating and storing the position of the storage item 3 from the images in the storage 1 photographed by the plurality of cameras 10. The control device 20 may actually be configured such that a CPU, ROM, RAM, HDD, or the like is connected by a bus, or may be configured by a one-chip LSI or the like. Functionally, the control device 20 includes a storage unit 21, a recording instruction unit 22, a face recognition unit 23, a face authentication unit 24, a storage position estimation unit 25, and a search unit 26.

記憶部21は、種々の情報を記憶するためのものである。記憶部21は、他の部分から受信した情報を記憶すると共に、必要に応じて記憶された情報を送信することができる。   The storage unit 21 is for storing various information. The memory | storage part 21 can transmit the memorize | stored information as needed while memorize | storing the information received from the other part.

録画指示部22は、複数のカメラ10によって撮影された画像を、記憶部21に記憶(録画)させるか否かの指示を出すものである。録画指示部22は複数のカメラ10にそれぞれ対応するように複数設けられ、当該対応するカメラ10に接続される。録画指示部22によって画像を録画させる指示が出された場合に限り、当該録画指示部22に対応するカメラ10によって撮影された画像が記憶部21に記憶される。   The recording instruction unit 22 gives an instruction as to whether or not to store (record) images taken by the plurality of cameras 10 in the storage unit 21. A plurality of recording instruction units 22 are provided so as to correspond to the plurality of cameras 10, respectively, and are connected to the corresponding cameras 10. Only when an instruction to record an image is issued by the recording instruction unit 22, an image taken by the camera 10 corresponding to the recording instruction unit 22 is stored in the storage unit 21.

顔認識部23は、画像の中から使用者2の顔を検出するものである。また、顔認識部23は、画像の中における使用者2の顔の向き及び大きさを検出する。当該使用者2の顔の検出、並びに顔の向き及び大きさの検出は、一般的なプログラムを用いて行うことができる。顔認識部23は複数のカメラ10にそれぞれ対応するように複数設けられ、当該対応するカメラ10に接続される。また顔認識部23は、所定の場合に、当該顔認識部23と同一のカメラ10に接続された録画指示部22に制御信号を送信する。   The face recognition unit 23 detects the face of the user 2 from the image. Further, the face recognition unit 23 detects the orientation and size of the face of the user 2 in the image. The detection of the face of the user 2 and the detection of the orientation and size of the face can be performed using a general program. A plurality of face recognition units 23 are provided to correspond to the plurality of cameras 10, respectively, and are connected to the corresponding cameras 10. Further, the face recognition unit 23 transmits a control signal to the recording instruction unit 22 connected to the same camera 10 as the face recognition unit 23 in a predetermined case.

顔認証部24は、画像の中の使用者2の顔から当該使用者2(個人)を特定するものである。当該使用者2の特定は、一般的なプログラムを用いて行うことができる。顔認証部24は、第一カメラ11に対応するように設けられ、当該第一カメラ11に接続される。   The face authentication unit 24 identifies the user 2 (individual) from the face of the user 2 in the image. The user 2 can be identified using a general program. The face authentication unit 24 is provided to correspond to the first camera 11 and is connected to the first camera 11.

なお、本実施形態においては、顔認証部24には、予め前記住宅に住む複数の人(例えば、お父さん、お母さん、長男、長女等)の顔がそれぞれデータベースとして記憶されている。顔認証部24は、画像の中の使用者2の顔が、当該データベースの中のどの人に該当するか判断し、当該データベースの中から一人を選択することにより、当該使用者2を特定する。   In the present embodiment, the face authentication unit 24 stores in advance the faces of a plurality of people who live in the house (for example, father, mother, eldest son, eldest daughter, etc.) as databases. The face authentication unit 24 determines to which person in the database the face of the user 2 in the image corresponds, and identifies the user 2 by selecting one from the database. .

収納位置推定部25は、記憶部21に記憶された種々の情報から、収納庫1内において収納物3が配置された位置(収納位置)を推定するものである。   The storage position estimation unit 25 estimates the position (storage position) where the storage item 3 is arranged in the storage 1 from various information stored in the storage unit 21.

検索部26は、記憶部21に記憶された種々の情報から、所定の条件(検索条件)に基づいて所望の情報を検索するものである。検索部26は、後述する携帯型端末30と接続される。   The search unit 26 searches for desired information from various information stored in the storage unit 21 based on a predetermined condition (search condition). The search unit 26 is connected to a portable terminal 30 described later.

上述の如く構成された制御装置20においては、予め当該制御装置20に記憶されたプログラムやルールに従って各部が作動する。   In the control device 20 configured as described above, each unit operates according to programs and rules stored in advance in the control device 20.

携帯型端末30は、本発明に係る検索装置の実施の一形態であり、収納庫1に収納された収納物3の収納位置を検索可能なものである。携帯型端末30には、表示装置と入力装置を組み合わせたタッチパネル等が設けられる。携帯型端末30は制御装置20の検索部26と無線で接続される。携帯型端末30は、所定の場所に固定されておらず、使用者2は所望の場所に持ち運ぶことができる。   The portable terminal 30 is an embodiment of the search device according to the present invention, and is capable of searching for the storage position of the storage item 3 stored in the storage 1. The portable terminal 30 is provided with a touch panel that combines a display device and an input device. The portable terminal 30 is wirelessly connected to the search unit 26 of the control device 20. The portable terminal 30 is not fixed at a predetermined place, and the user 2 can carry it to a desired place.

以下では、図1から図14までを用いて、上述の如く構成された収納管理システム5の動作の様子について説明する。より具体的には、使用者2が収納物3を収納庫1内に収納する際の、収納管理システム5の動作の様子について説明する。   Hereinafter, the operation of the storage management system 5 configured as described above will be described with reference to FIGS. 1 to 14. More specifically, the operation of the storage management system 5 when the user 2 stores the storage item 3 in the storage 1 will be described.

図1及び図2に示すように、使用者2が収納庫1に入室していない状態では、制御装置20は第一カメラ11に対応する顔認識部23及び顔認証部24のみを作動させると共に、録画指示部22並びにその他のカメラ10に対応する顔認識部23の作動を停止させている(以下、この状態を「待機状態」と記す)。   As shown in FIGS. 1 and 2, when the user 2 is not in the storage 1, the control device 20 operates only the face recognition unit 23 and the face authentication unit 24 corresponding to the first camera 11. The operation of the face recognition unit 23 corresponding to the recording instruction unit 22 and the other cameras 10 is stopped (hereinafter, this state is referred to as “standby state”).

このように、使用者2が収納庫1に入室していない状態では、可能な限り録画指示部22及び顔認識部23の作動を停止させることで、省エネを図ることができる。一方、使用者2が収納庫1に入室してきた場合に当該使用者2の入室を検出するために、第一カメラ11に対応する顔認識部23及び顔認証部24だけは常時作動させている。   Thus, in a state where the user 2 is not in the storage room 1, energy saving can be achieved by stopping the operations of the recording instruction unit 22 and the face recognition unit 23 as much as possible. On the other hand, when the user 2 enters the storage 1, only the face recognition unit 23 and the face authentication unit 24 corresponding to the first camera 11 are always operated in order to detect the entry of the user 2. .

なお、前記待機状態において、さらに第二カメラ12、第三カメラ13、第四カメラ14及び第五カメラ15による画像の撮影も停止させて、より省エネを図ることも可能である。   In the standby state, it is also possible to further save energy by stopping image capturing by the second camera 12, the third camera 13, the fourth camera 14, and the fifth camera 15.

図4及び図5に示すように、使用者2が入口1aから収納庫1に入室してきた場合、第一カメラ11によって撮影された画像の中に当該使用者2が現れる。この場合、第一カメラ11に対応する顔認識部23によって、当該第一カメラ11によって撮影された画像の中から人(使用者2)の顔が検出される。当該顔認識部23によって使用者2の顔が検出されると、制御装置20は停止させていたその他の顔認識部23並びに録画指示部22を作動させる。   As shown in FIGS. 4 and 5, when the user 2 enters the storage 1 from the entrance 1 a, the user 2 appears in the image taken by the first camera 11. In this case, the face recognition unit 23 corresponding to the first camera 11 detects the face of the person (user 2) from the image photographed by the first camera 11. When the face of the user 2 is detected by the face recognition unit 23, the control device 20 activates the other face recognition unit 23 and the recording instruction unit 22 that have been stopped.

またこの際、顔認証部24によって使用者2が特定される。すなわち、顔認証部24は、第一カメラ11によって撮影された画像の中の使用者2の顔が、予め記憶されたデータベースの中のどの人に該当するか判断する。顔認証部24は、特定された使用者2を記憶部21に記憶させる。例えば、顔認証部24は、使用者2が「お母さん」であると判断した場合、その旨を記憶部21に記憶させる。   At this time, the user 2 is specified by the face authentication unit 24. That is, the face authentication unit 24 determines to which person in the database stored in advance the face of the user 2 in the image photographed by the first camera 11 corresponds. The face authentication unit 24 stores the specified user 2 in the storage unit 21. For example, when the face authentication unit 24 determines that the user 2 is “mother”, the face authentication unit 24 stores the fact in the storage unit 21.

図6に示すように、使用者2が収納庫1内を移動している場合、複数のカメラ10によって撮影された画像が録画指示部22によってそれぞれ記憶部21に記憶(録画)される。   As shown in FIG. 6, when the user 2 is moving in the storage 1, images taken by the plurality of cameras 10 are stored (recorded) in the storage unit 21 by the recording instruction unit 22.

ここで、記憶部21に記憶される画像は、使用者2の顔の正面から左右に50度以内の範囲(図6の範囲S)に配置されているカメラ10(図6の状態では、第一カメラ11及び第二カメラ12)の画像のみである。各カメラ10が当該範囲Sに配置されているか否かは、顔認識部23によって判断される。   Here, the image stored in the storage unit 21 is the camera 10 (in the state of FIG. 6, the first image in the state of FIG. 6) arranged within a range of 50 degrees to the left and right from the front of the face of the user 2. Only images from one camera 11 and second camera 12). Whether or not each camera 10 is arranged in the range S is determined by the face recognition unit 23.

すなわち、カメラ10によって撮影された画像の中の使用者2の顔の向きが、真正面に対して左右いずれかに50度以上回転していると顔認識部23が判断した場合には、当該顔認識部23は対応する録画指示部22に画像を録画しない旨の制御信号を送信する。
一方、カメラ10によって撮影された画像の中の使用者2の顔の向きが、真正面に対して左右いずれかに50度未満だけ回転していると顔認識部23が判断した場合には、当該顔認識部23は対応する録画指示部22に画像を録画する旨の制御信号を送信する。当該制御信号を受信した録画指示部22は、対応するカメラ10によって撮影された画像を記憶部21に録画させる。
That is, when the face recognition unit 23 determines that the orientation of the face of the user 2 in the image photographed by the camera 10 is rotated at least 50 degrees to the left or right with respect to the front, The recognizing unit 23 transmits a control signal not to record an image to the corresponding recording instruction unit 22.
On the other hand, when the face recognizing unit 23 determines that the orientation of the face of the user 2 in the image captured by the camera 10 is rotated by less than 50 degrees to the left or right with respect to the front, The face recognition unit 23 transmits a control signal for recording an image to the corresponding recording instruction unit 22. The recording instruction unit 22 that has received the control signal causes the storage unit 21 to record an image captured by the corresponding camera 10.

使用者2は動いているため、当該使用者2の顔の向きは動きに合わせて変化する。このため、範囲Sに含まれていたカメラ10が範囲Sから外れることや、範囲Sから外れていたカメラ10が範囲Sに含まれることもある。範囲Sからカメラ10が外れた場合には、当該カメラ10の画像の録画は停止される。また、カメラ10が範囲Sに含まれた場合には、当該カメラ10の画像の録画が開始される。このように、範囲Sの変化に合わせて、画像の録画と当該録画の停止が繰り返される。   Since the user 2 is moving, the orientation of the face of the user 2 changes according to the movement. For this reason, the camera 10 included in the range S may be out of the range S, or the camera 10 out of the range S may be included in the range S. When the camera 10 is out of the range S, the recording of the image of the camera 10 is stopped. When the camera 10 is included in the range S, recording of an image of the camera 10 is started. As described above, the recording of the image and the stop of the recording are repeated in accordance with the change of the range S.

このように、使用者2の正面に近い位置に配置されたカメラ10の画像のみを記憶部21に記憶させることで、効率的な画像の記憶を行うことができる。すなわち、通常、使用者2は当該使用者2の背中側(背面側)に収納物3を持っていることはない。このため、使用者2の正面側のカメラ10の画像を記憶部21に記憶させることで、当該使用者2が持っている収納物3が何なのか、並びに当該使用者2が収納物3をどこに置いているのかが分かる画像を取得することができる。また、不要な画像(使用者2を背中側から撮影した画像)は記憶部21に記憶させないため、無駄な記憶容量の使用を防止することができる。   In this manner, by storing only the image of the camera 10 arranged at a position close to the front of the user 2 in the storage unit 21, it is possible to efficiently store the image. That is, normally, the user 2 does not have the stored item 3 on the back side (back side) of the user 2. For this reason, by storing the image of the camera 10 on the front side of the user 2 in the storage unit 21, what is the stored item 3 that the user 2 has and what the user 2 has stored the stored item 3. It is possible to acquire an image that shows where it is placed. In addition, unnecessary images (images of the user 2 taken from the back side) are not stored in the storage unit 21, so useless storage capacity can be prevented from being used.

またこのように使用者2が収納庫1内を移動している場合、顔認識部23は、対応するカメラ10によって撮影された画像の中の使用者2の顔の向き(真正面に対する左右への角度)の時間変化を、全て記憶部21に記憶させる。   Further, when the user 2 is moving in the storage 1 in this way, the face recognition unit 23 determines the orientation of the face of the user 2 in the image captured by the corresponding camera 10 (to the left and right with respect to the front in front). All changes in angle) are stored in the storage unit 21.

図7及び図8に示すように、使用者2が収納庫1から退室した場合、複数のカメラ10によって撮影された画像のいずれからも使用者2の顔が検出されることはない。このように、どの顔認識部23も使用者2の顔を検出できなくなった場合には、使用者2は収納庫1から退室したと考えられるため、制御装置20は再び前記待機状態に戻る。   As shown in FIGS. 7 and 8, when the user 2 leaves the storage 1, the face of the user 2 is not detected from any of the images taken by the plurality of cameras 10. As described above, when any face recognition unit 23 cannot detect the face of the user 2, it is considered that the user 2 has left the storage 1, and the control device 20 returns to the standby state again.

使用者2が収納庫1から退室した後、制御装置20は、当該使用者2が収納物3を配置した位置(収納位置)を推定する。以下、当該収納位置を推定する方法について詳細に説明する。   After the user 2 leaves the storage 1, the control device 20 estimates the position (storage position) where the user 2 has placed the stored item 3. Hereinafter, a method for estimating the storage position will be described in detail.

まず、各顔認識部23は、対応するカメラ10によって録画された画像の中における使用者2の顔の大きさの変化を時系列にまとめて、記憶部21に記憶させる。本実施形態においては、図9(a)に示すように、使用者2の顔の大きさとは画像の中の使用者2の顔の幅Wを意味する。使用者2がカメラ10に近づくほど、当該カメラ10によって撮影された画像の中における使用者2の顔の幅Wは大きくなる。また、使用者2がカメラ10から離れるほど、当該カメラ10によって撮影された画像の中における使用者2の顔の幅Wは小さくなる。   First, each face recognizing unit 23 stores changes in the size of the face of the user 2 in the image recorded by the corresponding camera 10 in time series in the storage unit 21. In the present embodiment, as shown in FIG. 9A, the size of the face of the user 2 means the width W of the face of the user 2 in the image. As the user 2 approaches the camera 10, the width W of the face of the user 2 in the image taken by the camera 10 increases. Further, as the user 2 moves away from the camera 10, the width W of the face of the user 2 in the image captured by the camera 10 becomes smaller.

次に、収納位置推定部25は、図9(b)に示すように、各顔認識部23によって時系列にまとめられた使用者2の顔の大きさ(顔の幅W)の変化を比較する。   Next, as shown in FIG. 9B, the storage position estimation unit 25 compares changes in the size of the face of the user 2 (face width W) summarized in time series by each face recognition unit 23. To do.

ここで、本実施形態においては、各カメラ10は全て同じ性能(仕様)であるため、単純に顔の幅Wを比較することができる。もしカメラ10の仕様が互いに異なる場合には、各カメラ10から得られた画像における顔の幅Wを互いに比較できるように標準化する必要がある。   Here, in this embodiment, since all the cameras 10 have the same performance (specification), the face width W can be simply compared. If the specifications of the cameras 10 are different from each other, it is necessary to standardize so that the face widths W in the images obtained from the cameras 10 can be compared with each other.

図中に示した時間t1から時間t2までの時間帯Pでは、第二カメラ12によって撮影された(第二カメラ12に対応する顔認識部23によって検出された)使用者2の顔の幅Wが概ね一定の値となっていることが分かる。使用者2の顔の幅Wが一定であるということは、当該使用者2は収納庫1内を移動しておらず、その時に収納物3を収納庫1内に置いたものと推測することができる。   In the time zone P from time t1 to time t2 shown in the figure, the width W of the face of the user 2 captured by the second camera 12 (detected by the face recognition unit 23 corresponding to the second camera 12). It can be seen that is substantially constant. The fact that the width W of the face of the user 2 is constant means that the user 2 is not moving in the storage 1 and the stored item 3 is placed in the storage 1 at that time. Can do.

そこで、収納位置推定部25は、当該第二カメラ12により撮影された画像を用いて、使用者2が立ち止まった位置を推定する。   Therefore, the storage position estimation unit 25 estimates the position where the user 2 has stopped using the image captured by the second camera 12.

具体的には、まず収納位置推定部25は、図10に示すように、使用者2が収納庫1に入室した直後に第二カメラ12によって撮影された画像における当該使用者2(使用者2a)の顔の幅Wと、上記時間帯Pにおいて第二カメラ12によって撮影された画像における使用者2(使用者2b)の顔の幅Wとを比較することで、当該使用者2が立ち止まった位置から第二カメラ12までの距離を推定する。   Specifically, first, the storage position estimation unit 25, as shown in FIG. 10, the user 2 (user 2a) in the image taken by the second camera 12 immediately after the user 2 enters the storage 1. ) And the face width W of the user 2 (user 2b) in the image taken by the second camera 12 in the time period P, the user 2 is stopped. The distance from the position to the second camera 12 is estimated.

図10に示す例では、使用者2が収納庫1に入室した直後に第二カメラ12によって撮影された画像の幅4Wに対して、使用者2aの顔の幅Wは1/4である。一方、使用者2が立ち止まった際に第二カメラ12によって撮影された画像の幅2Wに対して、使用者2bの顔の幅Wは1/2である。このことから、第二カメラ12から使用者2bまでの距離Lは、第二カメラ12から使用者2aまでの距離2Lの1/2に縮まったと考えられる。   In the example shown in FIG. 10, the width W of the face of the user 2a is 1/4 with respect to the width 4W of the image taken by the second camera 12 immediately after the user 2 enters the storage 1. On the other hand, the width W of the face of the user 2b is ½ of the width 2W of the image taken by the second camera 12 when the user 2 stops. From this, it is considered that the distance L from the second camera 12 to the user 2b is reduced to ½ of the distance 2L from the second camera 12 to the user 2a.

第二カメラ12から収納庫1に入室した直後の使用者2a(すなわち、収納庫1の入口1a近傍)までの距離2Lは、収納庫1の寸法及び第二カメラ12が配置された位置から予め分かっている。従って、第二カメラ12から使用者2bまでの距離Lを算出(推定)することができる。   The distance 2L from the second camera 12 to the user 2a immediately after entering the storage 1 (that is, the vicinity of the entrance 1a of the storage 1) is determined in advance from the dimensions of the storage 1 and the position where the second camera 12 is disposed. I know. Accordingly, the distance L from the second camera 12 to the user 2b can be calculated (estimated).

距離Lが算出されると、図11に示すように、平面視において第二カメラ12を中心とする半径Lの円弧の近傍の範囲Rのどこかで、使用者2(使用者2b)が立ち止まったと推定することができる。   When the distance L is calculated, as shown in FIG. 11, the user 2 (user 2b) stops somewhere in the range R in the vicinity of the arc having the radius L centered on the second camera 12 in plan view. Can be estimated.

次に収納位置推定部25は、使用者2が立ち止まった時(図9(b)における時間帯P)の当該使用者2の顔の向きに基づいて、当該使用者2が第二カメラ12から見てどの範囲(後述する範囲D1、範囲D2又は範囲D3)に立っているかを推定する。   Next, the storage position estimator 25 determines that the user 2 moves from the second camera 12 based on the face orientation of the user 2 when the user 2 stops (time zone P in FIG. 9B). It is estimated which range (range D1, range D2, or range D3 described later) is being viewed.

図12に示す例では、第二カメラ12から見て左寄りの範囲D1に使用者2が立っている場合、当該使用者2は第一収納棚1b側を向いている可能性が高い。この場合、第二カメラ12によって撮影された画像の中の使用者2の顔は、左に向いている。
言い換えれば、第二カメラ12によって撮影された画像の中の使用者2の顔が左を向いている場合、当該使用者2は範囲D1に立っていると推定することができる。
In the example illustrated in FIG. 12, when the user 2 is standing in the leftward range D <b> 1 when viewed from the second camera 12, there is a high possibility that the user 2 is facing the first storage shelf 1 b side. In this case, the face of the user 2 in the image taken by the second camera 12 is facing left.
In other words, when the face of the user 2 in the image captured by the second camera 12 is facing left, it can be estimated that the user 2 is standing in the range D1.

第二カメラ12から見て右寄りの範囲D3に使用者2が立っている場合、当該使用者2は第二収納棚1c側(より詳細には、当該第二収納棚1cの前後中央から前端部まで)を向いている可能性が高い。この場合、第二カメラ12によって撮影された画像の中の使用者2の顔は、右に向いている。
言い換えれば、第二カメラ12によって撮影された画像の中の使用者2の顔が右を向いている場合、当該使用者2は範囲D3に立っていると推定することができる。
When the user 2 stands in a rightward range D3 when viewed from the second camera 12, the user 2 is on the second storage shelf 1c side (more specifically, the front end portion from the front and rear center of the second storage shelf 1c). It is highly possible that In this case, the face of the user 2 in the image photographed by the second camera 12 is facing right.
In other words, when the face of the user 2 in the image photographed by the second camera 12 is facing the right, it can be estimated that the user 2 is standing in the range D3.

第二カメラ12から見て左右中央付近の範囲D2に使用者2が立っている場合、当該使用者2は第二収納棚1c側(より詳細には、当該第二収納棚1cの前後中央から後端部まで)を向いている可能性が高い。この場合、第二カメラ12によって撮影された画像の中の使用者2の顔は、後ろに向いている。
言い換えれば、第二カメラ12によって撮影された画像の中の使用者2の顔が後ろを向いている場合、当該使用者2は範囲D3に立っていると推定することができる。
なお本実施形態においては、前述の如く、使用者2の顔が後ろを向いている(真正面に対して左右いずれかに50度以上回転している)場合には、第二カメラ12によって撮影された画像が記憶部21に記憶(録画)されることはない。
When the user 2 stands in a range D2 near the left and right center when viewed from the second camera 12, the user 2 is on the second storage shelf 1c side (more specifically, from the front and rear center of the second storage shelf 1c). There is a high possibility that it is facing the rear end). In this case, the face of the user 2 in the image photographed by the second camera 12 faces backward.
In other words, when the face of the user 2 in the image photographed by the second camera 12 is facing backward, it can be estimated that the user 2 is standing in the range D3.
In the present embodiment, as described above, when the face of the user 2 is facing backward (rotated to the left or right by 50 degrees or more with respect to the front), the image is taken by the second camera 12. The recorded image is not stored (recorded) in the storage unit 21.

このように、第二カメラ12によって撮影された画像の中の使用者2の顔の向きから、当該使用者2が立っている範囲を推定することができる。そこで収納位置推定部25は、記憶部21に記憶された使用者2の顔の向きの時間変化に関する情報から、使用者2が立ち止まった時(図9(b)における時間帯P)の当該使用者2の顔の向きを検索する。   Thus, the range in which the user 2 is standing can be estimated from the orientation of the face of the user 2 in the image captured by the second camera 12. Therefore, the storage position estimation unit 25 uses the information when the user 2 stops (time zone P in FIG. 9B) based on the information about the time change of the face direction of the user 2 stored in the storage unit 21. The direction of the face of the person 2 is searched.

本実施形態においては、使用者2が立ち止まった時に第二カメラ12によって撮影された画像の中の使用者2の顔は左を向いているものとする。すなわち、収納位置推定部25は、使用者2は範囲D1に立っていると推定する。   In the present embodiment, it is assumed that the face of the user 2 in the image taken by the second camera 12 when the user 2 stops is facing left. That is, the storage position estimation unit 25 estimates that the user 2 is standing in the range D1.

最後に収納位置推定部25は、図13に示すように、上述の如く求められた範囲Rと範囲D1とが重複する範囲Fを、使用者2が立ち止まった位置であると推定する。さらに当該収納位置推定部25は、使用者2が立ち止まった際に収納物3を収納庫1内に置いたと考えられることから、範囲Fに最も近い収納棚(第一収納棚1b及び第二収納棚1c)、すなわち図13の例では第一収納棚1bの前後略中央部Gに収納物3が配置(収納)されたと推定する。   Finally, as shown in FIG. 13, the storage position estimation unit 25 estimates that the range F where the range R and the range D1 obtained as described above overlap is the position where the user 2 has stopped. Further, since the storage position estimation unit 25 is considered to have placed the storage 3 in the storage 1 when the user 2 stops, the storage shelf (the first storage shelf 1b and the second storage shelf 1b closest to the range F). In the example of FIG. 13, that is, the shelf 1 c), that is, it is presumed that the stored item 3 is arranged (stored) in the front and rear central portion G of the first storage shelf 1 b.

このように、第二カメラ12から使用者2までの距離Lに加えて、当該使用者2の顔の向きも考慮することで、使用者2が立ち止まった位置をより正確に推定することができる。   As described above, in addition to the distance L from the second camera 12 to the user 2, the position of the user 2 can be estimated more accurately by taking into account the orientation of the face of the user 2. .

使用者2が収納物3を配置した位置(収納位置)が推定された後、収納位置推定部25は、当該収納物3に関する情報をまとめて記憶部21に記憶させる。当該収納物3に関する情報とは、具体的には、図14に示すように、使用者2が収納庫1に入室した日時(情報M1)、当該使用者2が誰であるか(情報M2)、推定された収納物3の収納位置(情報M3)、当該使用者2が入室した直後に第一カメラ11によって録画された画像(情報M4)、各カメラ10によって録画された画像(情報M5)等である。   After the position (storage position) at which the user 2 has placed the storage item 3 is estimated, the storage position estimation unit 25 collectively stores information on the storage item 3 in the storage unit 21. Specifically, as shown in FIG. 14, the information about the stored item 3 is the date and time when the user 2 entered the storage 1 (information M1) and who the user 2 is (information M2). The estimated storage position of the stored item 3 (information M3), an image recorded by the first camera 11 immediately after the user 2 enters the room (information M4), and an image recorded by each camera 10 (information M5) Etc.

このようにして収納管理システム5は、使用者2が収納庫1に入退室するたびに、上述のような収納物3に関する情報を、記憶部21に記憶させる。   In this way, the storage management system 5 causes the storage unit 21 to store the information related to the stored items 3 as described above every time the user 2 enters or leaves the storage 1.

以下では、図3及び図14を用いて、上述の如く記憶部21に記憶された収納物3に関する情報(具体的には、所望の収納物3の収納位置)を検索する際の様子について説明する。   In the following, with reference to FIG. 3 and FIG. 14, a description will be given of a state when searching for information (specifically, a storage position of a desired storage item 3) related to the storage item 3 stored in the storage unit 21 as described above. To do.

使用者2(例えば、収納庫1に収納物3を収納した「お母さん」)が、後日収納物3の収納位置を検索する場合、携帯型端末30を用いて当該検索を行うことができる。具体的には、携帯型端末30に予めインストールされた収納物3の収納位置を検索するためのアプリケーションを起動させ、検索条件を入力する。   When the user 2 (for example, “mother” who stores the stored item 3 in the storage 1) searches for the storage position of the stored item 3 at a later date, the search can be performed using the portable terminal 30. Specifically, an application for searching for the storage position of the storage item 3 installed in advance in the portable terminal 30 is activated, and a search condition is input.

本実施形態においては、検索条件として情報M1及び情報M2が用いられる。すなわち携帯型端末30を操作する使用者2は、検索対称となる収納物3が「誰が(情報M2)」「いつ(情報M1)」収納庫1に収納したものか、携帯型端末30に入力する。本実施形態においては、「お母さん」が「2013年9月30日」に収納した収納物3を検索するものとする。   In the present embodiment, information M1 and information M2 are used as search conditions. That is, the user 2 who operates the portable terminal 30 inputs to the portable terminal 30 whether the stored item 3 that is symmetric to the search is stored in the storage 1 for “who (information M2)” and “when (information M1)”. To do. In the present embodiment, it is assumed that the stored item 3 stored by “Mom” on “September 30, 2013” is retrieved.

携帯型端末30に前記検索条件が入力されると、当該検索条件は制御装置20の検索部26に送信される。検索部26は、記憶部21に記憶された収納物3に関する情報から、前記検索条件を満たす情報を検索し、当該情報を携帯型端末30へと送信する。携帯型端末30は、図14に示すように、検索部26から送信された収納物3に関する情報をタッチパネルに表示させる。以下では、当該表示された各情報について説明する。   When the search condition is input to the portable terminal 30, the search condition is transmitted to the search unit 26 of the control device 20. The search unit 26 searches for information satisfying the search condition from information regarding the stored items 3 stored in the storage unit 21, and transmits the information to the portable terminal 30. As shown in FIG. 14, the portable terminal 30 displays information on the stored item 3 transmitted from the search unit 26 on the touch panel. Below, each displayed information is demonstrated.

前記タッチパネルの最上部には、使用者2が収納庫1に入室した日時(情報M1)が表示される。情報M1の下方には、収納庫1に入室した使用者2が誰であったか(情報M2)が表示される。   At the top of the touch panel, the date and time (information M1) when the user 2 entered the storage 1 is displayed. Below the information M1 is displayed who is the user 2 who entered the storage 1 (information M2).

情報M2の下方には、収納位置推定部25によって推定された収納物3の収納位置(情報M3)が表示される。具体的には、情報M3の欄には、収納庫1を平面視した模式図が表示される。そして、当該収納庫1の模式図の中に、推定された収納物3の収納位置が丸印によって示される。当該情報M2を見ることで、使用者2は所望の収納物3の収納位置を知ることができる。   Below the information M2, the storage position (information M3) of the storage item 3 estimated by the storage position estimation unit 25 is displayed. Specifically, a schematic diagram of the storage 1 in plan view is displayed in the field for information M3. Then, in the schematic diagram of the storage 1, the estimated storage position of the storage item 3 is indicated by a circle. By looking at the information M2, the user 2 can know the storage position of the desired storage item 3.

情報M3の下方には、使用者2が入室した直後に第一カメラ11によって録画された画像(情報M4)が表示される。使用者2が入室した直後において、第一カメラ11は使用者2を正面から録画している。従って、当該第一カメラ11によって録画された画像(動画)には、当該使用者2が運んでいた収納物3も写っていると考えられる。この画像(情報M4)の内容を確認することで、収納物3の内容を確認することができる。   Below the information M3, an image (information M4) recorded by the first camera 11 immediately after the user 2 enters the room is displayed. Immediately after the user 2 enters the room, the first camera 11 records the user 2 from the front. Accordingly, it is considered that the stored item 3 carried by the user 2 is also reflected in the image (moving image) recorded by the first camera 11. By confirming the contents of the image (information M4), the contents of the storage item 3 can be confirmed.

情報M4の下方には、各カメラ10によって録画された画像(情報M5)が表示される。各カメラ10によって録画された画像(動画)をそれぞれ確認することで、収納物3の内容や収納位置を確認することができる。   Below the information M4, an image (information M5) recorded by each camera 10 is displayed. By confirming each image (moving image) recorded by each camera 10, it is possible to confirm the contents and storage position of the storage item 3.

このように、携帯型端末30に検索条件を入力するだけで、容易に収納物3の収納位置を検索することができる。また、画像によって当該収納物3の内容や収納位置等も併せて確認することができるため、より確実に収納物3の収納位置を把握することができる。   Thus, the storage position of the storage item 3 can be easily searched by simply inputting the search condition to the portable terminal 30. In addition, since the contents, storage position, and the like of the stored item 3 can be confirmed from the image, the stored position of the stored item 3 can be grasped more reliably.

以上の如く、本実施形態に係る収納管理システム5は、
収納物3を内部に収納可能な収納庫1に設けられ、収納庫1内を撮影するカメラ10と、
カメラ10により撮影された画像を記憶し、
記憶された画像の中における使用者2の顔の幅W(顔の大きさ)の時間変化を算出し、
使用者2の顔の幅Wの時間変化に基づいて使用者2が立ち止まったことを検出し、
前記記憶された画像の中における使用者2の立ち止まった時の顔の幅Wに基づいて、当該使用者2が立ち止まった位置を推定し、
使用者2が立ち止まった位置に基づいて、収納物3の収納位置を推定して記憶する制御装置20と、
制御装置20に記憶された前記収納位置を検索可能な携帯型端末30(検索装置)と、
を具備するものである。
このように構成することにより、収納物3の収納位置を容易に把握することができる。
また、収納物3の収納位置は自動的に記憶されるため、使用者2は特別な作業を行う必要がない。
As described above, the storage management system 5 according to the present embodiment is
A camera 10 provided in the storage 1 capable of storing the storage 3 therein, and photographing the inside of the storage 1;
Store the image taken by the camera 10,
Calculating a temporal change in the width W (face size) of the user 2 in the stored image;
Detecting that the user 2 has stopped based on the temporal change in the width W of the user 2's face;
Based on the width W of the face when the user 2 stops in the stored image, the position where the user 2 stopped is estimated,
A control device 20 that estimates and stores the storage position of the storage item 3 based on the position where the user 2 stops;
A portable terminal 30 (search device) capable of searching for the storage position stored in the control device 20;
It comprises.
By comprising in this way, the storage position of the stored item 3 can be grasped | ascertained easily.
Further, since the storage position of the storage item 3 is automatically stored, the user 2 does not need to perform any special work.

また、制御装置20は、
使用者2が立ち止まった位置を推定する際に、当該使用者2の顔の向きに関する情報も考慮するものである。
このように構成することにより、使用者2が立ち止まった位置をより正確に推定することができ、ひいては収納物3の収納位置をより正確に推定することができる。
In addition, the control device 20
When estimating the position where the user 2 has stopped, information regarding the orientation of the face of the user 2 is also taken into consideration.
By comprising in this way, the position where the user 2 stopped can be estimated more correctly, and by extension, the storage position of the stored item 3 can be estimated more accurately.

また、制御装置20は、
カメラ10により撮影された使用者2を特定して記憶し、
携帯型端末30は、
特定された使用者2に基づいて制御装置20に記憶された前記収納位置を検索可能である。
このように構成することにより、使用者2を特定して収納位置を検索することができ、検索の効率を向上させることができる。
In addition, the control device 20
The user 2 photographed by the camera 10 is specified and stored,
The portable terminal 30
The storage position stored in the control device 20 can be searched based on the specified user 2.
By comprising in this way, the user 2 can be specified and a storage position can be searched, and the search efficiency can be improved.

また、カメラ10は、
収納庫1において互いに異なる位置に複数設けられ、
制御装置20は、
カメラ10により撮影された画像の中の使用者2の顔が、正面に対して左右に所定角度(50度)以上回転している場合には、当該画像を記憶しないものである。
このように構成することにより、必要性の高い画像のみを記憶することができ、無駄な記憶容量の使用を防止することができる。
The camera 10
A plurality of different positions are provided in the storage 1.
The control device 20
When the face of the user 2 in the image photographed by the camera 10 is rotated by a predetermined angle (50 degrees) or more to the left and right with respect to the front, the image is not stored.
With this configuration, it is possible to store only images that are highly necessary, and it is possible to prevent useless storage capacity from being used.

また、前記検索装置は、
持ち運び可能な携帯型端末30である。
このように構成することにより、収納庫1の近傍に限らず任意の場所で携帯型端末30を使用することができ、検索の利便性を向上させることができる。
Further, the search device includes:
This is a portable terminal 30 that can be carried.
By comprising in this way, the portable terminal 30 can be used not only in the vicinity of the storage 1 but in arbitrary places, and the convenience of search can be improved.

なお、本実施形態においては、収納庫1は住宅内に設けられる収納部(ウォークインクローゼット)であるものとして説明を行ったが、本発明はこれに限るものではない。すなわち、収納庫1は、使用者2が出入りできる収納空間を形成するものであれば良く、住宅内に設けられるものに限るものではない。例えば収納庫1は、住宅から独立して屋外に設けられる倉庫等であっても良い。   In the present embodiment, the storage 1 has been described as a storage unit (walk-in closet) provided in the house, but the present invention is not limited to this. That is, the storage 1 is not limited to the one provided in the house as long as it forms a storage space where the user 2 can enter and exit. For example, the storage 1 may be a warehouse or the like provided outside independently from a house.

また、本実施形態においては、カメラ10は5つ設けられる構成としたが、本発明はこれに限るものではなく、カメラ10の個数は限定するものではない。但し、収納庫1内に死角が生じないよう、必要十分な数のカメラ10を配置することが望ましい。   In the present embodiment, five cameras 10 are provided. However, the present invention is not limited to this, and the number of cameras 10 is not limited. However, it is desirable to arrange a necessary and sufficient number of cameras 10 so that no blind spots are generated in the storage 1.

また、本実施形態においては説明の便宜上、制御装置20を機能的に記憶部21、録画指示部22、顔認識部23、顔認証部24、収納位置推定部25及び検索部26に分類して説明したが、本発明はこれに限るものではない。すなわち、制御装置20が本実施形態で説明した処理を行うことが可能であれば、上述の機能的な分類に限定するものではない。   In the present embodiment, for convenience of explanation, the control device 20 is functionally classified into a storage unit 21, a recording instruction unit 22, a face recognition unit 23, a face authentication unit 24, a storage position estimation unit 25, and a search unit 26. Although described, the present invention is not limited to this. That is, as long as the control device 20 can perform the processing described in this embodiment, the functional classification is not limited to the above.

また、本実施形態においては、携帯型端末30はタッチパネルを備えるものとしたが、本発明はこれに限るものではなく、表示装置としての液晶画面等と、入力装置としての操作具(ボタン等)とを組み合わせたものであっても良い。また、本発明に係る検索装置は持ち運び可能な携帯型端末30に限るものではなく、例えば収納庫1の入口1a近傍に固定されていても良い。   In the present embodiment, the portable terminal 30 includes a touch panel. However, the present invention is not limited to this, and a liquid crystal screen or the like as a display device and an operation tool (button or the like) as an input device. It may be a combination of In addition, the search device according to the present invention is not limited to the portable terminal 30 that can be carried, but may be fixed near the entrance 1 a of the storage 1, for example.

また、本実施形態においては、携帯型端末30に表示される情報M4及び情報M5は動画であるものとしたが、本発明はこれに限るものではなく、静止画を表示させることも可能である。   In the present embodiment, the information M4 and the information M5 displayed on the portable terminal 30 are moving images. However, the present invention is not limited to this, and still images can be displayed. .

また、本実施形態においては、顔認識部23は使用者2の顔の大きさとして、顔の幅Wを検出するものとしたが、本発明はこれに限るものではない。すなわち、顔認識部23は、顔の大きさを比較することができるものであれば、顔のその他の部分の寸法(例えば、上下の幅等)を検出するものでも良い。   In the present embodiment, the face recognition unit 23 detects the face width W as the size of the face of the user 2, but the present invention is not limited to this. That is, the face recognizing unit 23 may detect the dimensions of other parts of the face (for example, the vertical width) as long as the face sizes can be compared.

また、本実施形態においては、顔認証部24は、使用者2の顔が予め記憶されたデータベースの中のどの人に該当するかを判断することにより、当該使用者2を特定するものとしたが、本発明はこれに限るものではない。例えば、前記データベースを用いない構成とすることも可能である。この場合顔認証部24は、収納庫1に入室した使用者2の顔から当該使用者2個人を特定し、「Aさん」、「Bさん」・・・と適宜名前を付けて分類する。これによって、新たに使用者2(例えば、前記住宅に住む人)が増えた場合であってもデータベースを更新する作業が必要なくなる。   Moreover, in this embodiment, the face authentication part 24 shall identify the said user 2 by judging who the user 2's face corresponds to in the database memorize | stored previously. However, the present invention is not limited to this. For example, a configuration in which the database is not used is also possible. In this case, the face authentication unit 24 identifies the user 2 individual from the face of the user 2 who has entered the storage 1 and classifies them by appropriately naming “Mr. A”, “Mr. B”,. This eliminates the need to update the database even when the number of users 2 (for example, people living in the house) newly increases.

また、本実施形態においては、カメラ10(第二カメラ12)から使用者2までの距離Lに加えて、使用者2の顔の向きも考慮して、当該使用者2が立ち止まった位置を推定するものとしたが、本発明はこれに限るものではない。すなわち、カメラ10から使用者2までの距離Lだけに基づいて、当該使用者2が立ち止まった位置を推定する構成とすることも可能である。例えば、図15に示すように、収納庫1が前後に細長い形状であり、当該収納庫1の一側面(右側面)にのみ収納棚(第一収納棚1b)が形成されている場合には、使用者2は左右方向にほとんど移動することはない。このような場合には、カメラ10から使用者2までの距離Lだけで、当該使用者2が立ち止まった位置を推定することができる。また、第一収納棚1bは収納庫1の一側面にのみ形成されているため、当該使用者2の立ち止まった位置から、収納物3の収納位置も推定することができる。   In the present embodiment, in addition to the distance L from the camera 10 (second camera 12) to the user 2, the position of the user 2 is estimated in consideration of the orientation of the user 2's face. However, the present invention is not limited to this. That is, based on only the distance L from the camera 10 to the user 2, the position where the user 2 stops can be estimated. For example, as shown in FIG. 15, when the storage case 1 has a long and narrow shape, and the storage shelf (first storage shelf 1 b) is formed only on one side surface (right side surface) of the storage case 1. The user 2 hardly moves in the left-right direction. In such a case, the position where the user 2 has stopped can be estimated only by the distance L from the camera 10 to the user 2. Moreover, since the 1st storage shelf 1b is formed only in the one side of the storage 1, the storage position of the stored item 3 can also be estimated from the position where the user 2 stopped.

また、本実施形態においては、時間帯Pにおいて使用者2の顔の幅Wが概ね一定となったことが検出されたのは第二カメラ12によって撮影された画像だけであったが(図9(b)参照)、複数のカメラ10で同時に使用者2の顔の幅Wが一定となったことが検出される場合もあり得る。例えば、図16には、時間帯Pにおいて第一カメラ11及び第二カメラ12で使用者2の顔の幅Wが概ね一定となったことが検出された例を示している。このような場合には、使用者2から最も近いカメラ10、すなわち顔の幅Wの値が最も大きい第二カメラ12に着目し、当該第二カメラ12から使用者2までの距離L、並びに当該第二カメラ12により撮影された画像における使用者2の顔の向きに基づいて、使用者2が立ち止まった位置を推定する。このように、出来る限り使用者2に近いカメラ10を用いて当該使用者2の立ち止まった位置を推定することで、当該推定の精度の向上を図ることができる。   Further, in the present embodiment, only the image taken by the second camera 12 is detected that the face width W of the user 2 is substantially constant in the time zone P (FIG. 9). (See (b)), it may be detected by the plurality of cameras 10 that the width W of the face of the user 2 becomes constant at the same time. For example, FIG. 16 shows an example in which the first camera 11 and the second camera 12 detect that the width W of the face of the user 2 is substantially constant in the time zone P. In such a case, paying attention to the camera 10 closest to the user 2, that is, the second camera 12 having the largest face width W, the distance L from the second camera 12 to the user 2, and the Based on the orientation of the face of the user 2 in the image photographed by the second camera 12, the position where the user 2 has stopped is estimated. Thus, the estimation accuracy can be improved by estimating the position where the user 2 has stopped using the camera 10 as close to the user 2 as possible.

また、本実施形態に係る収納管理システム5においては、収納物3を持って収納庫1に入室してくる使用者2(収納物3を収納庫1に収納しようとする使用者2)と、収納物3を持たずに収納庫1に入室してくる使用者2(収納物3を収納する意図がない使用者2)と、を区別することができない。そこで、以下で説明する方法を用いて当該使用者2を区別することが可能である。   In addition, in the storage management system 5 according to the present embodiment, a user 2 who enters the storage 1 with the storage 3 (a user 2 who intends to store the storage 3 in the storage 1), It cannot be distinguished from a user 2 (user 2 who does not intend to store the stored item 3) who enters the storage 1 without holding the stored item 3. Therefore, it is possible to distinguish the user 2 using the method described below.

すなわち、制御装置20によって、収納庫1に入室した直後の使用者2の画像(図17(a)参照)と、収納庫1から退室する直前の使用者2の画像(図17(b)参照)と、を比較する。具体的には、制御装置20は、当該使用者2の顔の下方の一定の範囲U(概ね使用者2の胸近辺)のテクスチャ(色、模様等)を比較する。通常、使用者2が収納物3を運ぶ際には、当該使用者2の胸の前辺りに当該収納物3を持っていると予想される。従って、当該2つの画像における範囲Uのテクスチャに一定以上の差が生じている場合には、使用者2は収納物3を収納庫1内に収納したと推定することができる。   That is, the image of the user 2 immediately after entering the storage 1 by the control device 20 (see FIG. 17A) and the image of the user 2 immediately before leaving the storage 1 (see FIG. 17B). ) And. Specifically, the control device 20 compares the texture (color, pattern, etc.) of a certain range U (generally near the chest of the user 2) below the face of the user 2. Usually, when the user 2 carries the storage item 3, it is expected that the storage item 3 is held in front of the chest of the user 2. Therefore, when there is a certain difference or more in the texture of the range U in the two images, the user 2 can estimate that the stored item 3 is stored in the storage 1.

一方、当該2つの画像における範囲Uのテクスチャに一定以上の差が生じていない場合には、使用者2は収納物3を収納庫1内に収納していない(そもそも収納物3を持って収納庫1に入室していない、若しくは収納物3を持って入室したものの、そのまま収納物3を持って退室した)と推定することができる。この場合には、制御装置20は、当該使用者2を録画した画像や当該使用者2の入退室に関して取得したデータを全て削除する。これによって、不要なデータが蓄積されるのを防止することができる。   On the other hand, if the difference between the textures of the range U in the two images does not exceed a certain level, the user 2 does not store the storage item 3 in the storage unit 1 (stores the storage item 3 in the first place). It can be estimated that the user has not entered the storage room 1 or has entered the room with the storage item 3 but has left the room with the storage item 3 as it is. In this case, the control device 20 deletes all the images obtained by recording the user 2 and the data acquired regarding the entry / exit of the user 2. Thereby, unnecessary data can be prevented from being accumulated.

1 収納庫
2 使用者
3 収納物
5 収納管理システム
10 カメラ
20 制御装置
30 携帯型端末(検索装置)
DESCRIPTION OF SYMBOLS 1 Storage 2 User 3 Storage 5 Storage management system 10 Camera 20 Control apparatus 30 Portable terminal (search apparatus)

Claims (5)

収納物を内部に収納可能な収納庫に設けられ、前記収納庫内を撮影するカメラと、
前記カメラにより撮影された画像を記憶し、
記憶された画像の中における使用者の顔の大きさの時間変化を算出し、
前記使用者の顔の大きさの時間変化に基づいて前記使用者が立ち止まったことを検出し、
前記記憶された画像の中における前記使用者の立ち止まった時の顔の大きさに基づいて、当該使用者が立ち止まった位置を推定し、
前記使用者が立ち止まった位置に基づいて、前記収納物の収納位置を推定して記憶する制御装置と、
前記制御装置に記憶された前記収納位置を検索可能な検索装置と、
を具備する収納管理システム。
A camera that is provided in a storage capable of storing storage items therein, and that photographs the inside of the storage;
Storing an image taken by the camera;
Calculate the time change of the user's face size in the stored image,
Detecting that the user has stopped based on a temporal change in the size of the user's face;
Based on the size of the face when the user stops in the stored image, estimate the position where the user stopped,
A control device for estimating and storing the storage position of the storage object based on the position where the user has stopped;
A search device capable of searching the storage position stored in the control device;
A storage management system comprising:
前記制御装置は、
前記使用者が立ち止まった位置を推定する際に、当該使用者の顔の向きに関する情報も考慮する、
請求項1に記載の収納管理システム。
The controller is
When estimating the position where the user has stopped, also consider information regarding the orientation of the user's face,
The storage management system according to claim 1.
前記制御装置は、
前記カメラにより撮影された使用者を特定して記憶し、
前記検索装置は、
特定された使用者に基づいて前記制御装置に記憶された前記収納位置を検索可能である、
請求項1又は請求項2に記載の収納管理システム。
The controller is
Identify and store the user photographed by the camera,
The search device includes:
The storage position stored in the control device can be searched based on the identified user.
The storage management system according to claim 1 or 2.
前記カメラは、
前記収納庫において互いに異なる位置に複数設けられ、
前記制御装置は、
前記カメラにより撮影された画像の中の使用者の顔が、正面に対して左右に所定角度以上回転している場合には、当該画像を記憶しない、
請求項1から請求項3までのいずれか一項に記載の収納管理システム。
The camera
A plurality of different locations are provided in the storage,
The controller is
When the face of the user in the image photographed by the camera is rotated by a predetermined angle or more to the left and right with respect to the front, the image is not stored.
The storage management system according to any one of claims 1 to 3.
前記検索装置は、
持ち運び可能な携帯型端末である、
請求項1から請求項4までのいずれか一項に記載の収納管理システム。
The search device includes:
A portable device that can be carried around.
The storage management system according to any one of claims 1 to 4.
JP2014030689A 2014-02-20 2014-02-20 Storage management system Expired - Fee Related JP6238783B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014030689A JP6238783B2 (en) 2014-02-20 2014-02-20 Storage management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014030689A JP6238783B2 (en) 2014-02-20 2014-02-20 Storage management system

Publications (2)

Publication Number Publication Date
JP2015155345A true JP2015155345A (en) 2015-08-27
JP6238783B2 JP6238783B2 (en) 2017-11-29

Family

ID=54774939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014030689A Expired - Fee Related JP6238783B2 (en) 2014-02-20 2014-02-20 Storage management system

Country Status (1)

Country Link
JP (1) JP6238783B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018155061A1 (en) * 2017-02-23 2018-08-30 パナソニックIpマネジメント株式会社 Housing management system, housing management method, and program
JP2020067691A (en) * 2018-10-22 2020-04-30 株式会社ミツトヨ Data recording system
EP3748577A4 (en) * 2018-01-31 2021-03-24 NEC Corporation Information processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004323135A (en) * 2003-04-22 2004-11-18 Matsushita Electric Ind Co Ltd Article management system
JP2005037365A (en) * 2003-06-23 2005-02-10 National Institute Of Information & Communication Technology Method for drawing object layout, its program and storage medium, and object layout drawing system
WO2006109423A1 (en) * 2005-04-01 2006-10-19 Matsushita Electric Industrial Co., Ltd. Article position estimation device, article position estimation method, article search system, and program for article position estimation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004323135A (en) * 2003-04-22 2004-11-18 Matsushita Electric Ind Co Ltd Article management system
JP2005037365A (en) * 2003-06-23 2005-02-10 National Institute Of Information & Communication Technology Method for drawing object layout, its program and storage medium, and object layout drawing system
WO2006109423A1 (en) * 2005-04-01 2006-10-19 Matsushita Electric Industrial Co., Ltd. Article position estimation device, article position estimation method, article search system, and program for article position estimation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018155061A1 (en) * 2017-02-23 2018-08-30 パナソニックIpマネジメント株式会社 Housing management system, housing management method, and program
EP3748577A4 (en) * 2018-01-31 2021-03-24 NEC Corporation Information processing device
JP2020067691A (en) * 2018-10-22 2020-04-30 株式会社ミツトヨ Data recording system
JP7193303B2 (en) 2018-10-22 2022-12-20 株式会社ミツトヨ data recording system

Also Published As

Publication number Publication date
JP6238783B2 (en) 2017-11-29

Similar Documents

Publication Publication Date Title
US11816897B2 (en) Information processing apparatus, information processing method, and information processing program
JP6249021B2 (en) Security system, security method, and security program
JP6707940B2 (en) Information processing device and program
JP6550696B2 (en) Judgment apparatus and judgment method
JP6885682B2 (en) Monitoring system, management device, and monitoring method
JP2018198056A5 (en)
US20150103178A1 (en) Surveillance camera control device and video surveillance system
US20140254940A1 (en) Image processing apparatus and image processing method
CN107045631A (en) Facial feature points detection method, device and equipment
JP6238783B2 (en) Storage management system
JP6568476B2 (en) Information processing apparatus, information processing method, and program
JP2019219853A (en) Image processing device
JP2009282915A (en) Temperature monitoring method for server computer and its device
KR102145607B1 (en) Electric product
JP2012237569A (en) Person management device and person management method
KR101969262B1 (en) System and method for managing warehouse based on internet of things
JP2016015579A (en) Information processing apparatus,information processing method and program
JP6067527B2 (en) Mobile object information management method, apparatus, and program
JP2009140360A (en) Behavior analysis device and method
JP2021096633A (en) Information processing system, control method for information processing system, and program
JP2021026724A (en) Information processing system, information processing device, information processing method and information processing program
JP7430362B2 (en) Abnormal behavior detection system
US12106566B2 (en) Image processing apparatus that manages checking work performed on articles and image processing method thereof
JP2006165729A (en) Photographing program, photographing method and photographing system
JP6702434B2 (en) Information processing apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171031

R150 Certificate of patent or registration of utility model

Ref document number: 6238783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees