JP7161920B2 - store equipment - Google Patents

store equipment Download PDF

Info

Publication number
JP7161920B2
JP7161920B2 JP2018211504A JP2018211504A JP7161920B2 JP 7161920 B2 JP7161920 B2 JP 7161920B2 JP 2018211504 A JP2018211504 A JP 2018211504A JP 2018211504 A JP2018211504 A JP 2018211504A JP 7161920 B2 JP7161920 B2 JP 7161920B2
Authority
JP
Japan
Prior art keywords
notification
store
person
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018211504A
Other languages
Japanese (ja)
Other versions
JP2020077328A (en
Inventor
久史 沙魚川
辰徳 佐々木
学 小南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2018211504A priority Critical patent/JP7161920B2/en
Publication of JP2020077328A publication Critical patent/JP2020077328A/en
Application granted granted Critical
Publication of JP7161920B2 publication Critical patent/JP7161920B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、店舗を監視する店舗装置に関する。 The present invention relates to a store device for monitoring a store.

従来、店舗に設置された店舗装置が、店舗内を撮影した撮影画像を解析し、撮影画像から検出した人物への対処が必要である場合、監視センタに設置された監視装置に通報を行う画像監視システムが利用されている。 Conventionally, a store device installed in a store analyzes a photographed image of the inside of the store, and when it is necessary to deal with a person detected from the photographed image, an image for reporting to a monitoring device installed in a monitoring center. A monitoring system is used.

例えば、特許文献1には、監視対象の状況を監視センタで画像により監視する画像監視システムが開示されている。この画像監視システムにおいて、画像監視装置は、利用者により非常通報操作があったときは、監視センタへの非常通報及び現画像の送出を行う。 For example, Patent Literature 1 discloses an image monitoring system that monitors the status of a monitoring target using an image at a monitoring center. In this image monitoring system, an image monitoring device sends an emergency report to a monitoring center and a current image when an emergency report operation is performed by a user.

また、特許文献2には、監視領域の画像から検知した人物の姿勢が記憶手段に記憶された姿勢と一致した場合に、強盗発生状況要因に基づいて非常通報の要否を判定する通報装置が開示されている。 In addition, Patent Document 2 discloses a reporting device that determines whether or not an emergency report is necessary based on a robbery occurrence situation factor when the posture of a person detected from an image of a monitoring area matches the posture stored in a storage means. disclosed.

特開2001-109973号公報JP-A-2001-109973 特開2012-3595号公報JP 2012-3595 A

店舗を監視する店舗装置では、店舗内を撮影した撮影画像から検出された人物への対処が必要であるか否かをより高精度に判定することが求められている。 A store device that monitors a store is required to more accurately determine whether or not it is necessary to deal with a person detected from a photographed image of the inside of the store.

本発明の目的は、撮影画像から検出された人物への対処の必要性の度合いを高精度に算出することができる店舗装置を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a store apparatus capable of calculating with high accuracy the degree of necessity of dealing with a person detected from a photographed image.

かかる課題を解決するため本発明は、店舗を監視する店舗装置であって、店舗内を撮影した撮影画像を取得する画像取得部と、撮影画像から人物を検出する人物検出部と、予め設定されたモデルを用いて、撮影画像から、検出された人物への対処の必要性の度合いを示す要対処度を算出する要対処度算出部と、要対処度が閾値以上である場合、監視装置に自動通報を送信する自動通報部と、店舗の店員による通報指示に従って、監視装置に手動通報を送信する手動通報部と、手動通報部が手動通報を送信した場合、通報指示が実行される前の所定期間に撮影された撮影画像に基づいてモデルを更新する更新部と、を有する店舗装置を提供する。 In order to solve such problems, the present invention provides a store apparatus for monitoring a store, comprising: an image acquiring section for acquiring a photographed image of the inside of the store; a person detecting section for detecting a person from the photographed image; a handling requirement calculation unit that calculates a handling requirement level indicating the degree of necessity of handling the detected person from the photographed image using the model obtained from the model; An automatic notification unit that transmits an automatic notification, a manual notification unit that transmits a manual notification to the monitoring device according to the notification instruction by the store clerk, and when the manual notification unit transmits the manual notification, before the notification instruction is executed An update unit for updating a model based on a photographed image photographed in a predetermined period is provided.

この店舗装置において、自動通報部は、要対処度が閾値未満であり、且つ、閾値より小さい第2閾値以上である場合、店舗の店員に通報指示の実行を促し、更新部は、通報指示の実行が促されて手動通報が送信された場合と通報指示の実行が促されずに手動通報が送信された場合とでモデルの更新方法を変更することが好適である。 In this store device, the automatic notification unit prompts the store clerk to execute the notification instruction when the degree of required action is less than the threshold and is equal to or greater than the second threshold smaller than the threshold, and the update unit issues the notification instruction. It is preferable to change the method of updating the model depending on whether the manual notification is sent after prompting execution or when the manual notification is sent without prompting execution of the notification instruction.

この店舗装置において、更新部は、自動通報部が店舗の店員に通報指示の実行を促し且つ手動通報部が手動通報を送信していない場合、検出された人物への対処が必要でないとみなして、通報指示の実行が促される際に使用された撮影画像に基づいてモデルを更新することが好適である。 In this store device, the updating unit considers that it is not necessary to deal with the detected person when the automatic notification unit urges the store clerk to execute the notification instruction and the manual notification unit does not send the manual notification. Preferably, the model is updated based on the captured image used when prompting execution of the notification instruction.

この店舗装置において、店舗が混雑しているか否かを判定する混雑判定部をさらに有し、更新部は、自動通報部が、店舗の店員に通報指示の実行を促し、且つ、手動通報部が、手動通報を送信していない場合、混雑判定部が店舗が混雑していないと判定したときに限り、モデルを更新することが好適である。 The store apparatus further includes a congestion determination unit that determines whether the store is crowded, the update unit, the automatic notification unit prompting the store clerk to execute a notification instruction, and the manual notification unit If no manual notification is sent, it is preferable to update the model only when the congestion determination unit determines that the store is not congested.

本発明に係る店舗装置は、撮影画像から検出された人物への対処の必要性の度合いを高精度に算出することが可能となる。 The store apparatus according to the present invention can calculate with high accuracy the degree of necessity of dealing with a person detected from a photographed image.

画像監視システム1の全体システム構成を示す図である。1 is a diagram showing an overall system configuration of an image monitoring system 1; FIG. 監視処理の動作を示すフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which shows operation|movement of a monitoring process. 画像監視システム1の動作シーケンスの一例を示す図である。4 is a diagram showing an example of an operation sequence of the image monitoring system 1; FIG. 監視装置30に表示される表示画面の一例である。It is an example of a display screen displayed on the monitoring device 30 .

以下、実施形態に係る画像監視システムについて図を参照しつつ説明する。 An image monitoring system according to an embodiment will be described below with reference to the drawings.

図1は、実施形態に係る画像監視システム1の全体システム構成を示す図である。図1に示すように、画像監視システム1は、一又は複数の店舗のそれぞれに設置される一又は複数の店舗装置10と、構内LAN又はインターネット等の通信ネットワークを介して各店舗装置10と接続される監視装置30とを有する。また、各店舗装置10には、一又は複数の撮像装置21と、音出力装置22と、操作装置23と、一又は複数の端末装置24とが接続される。 FIG. 1 is a diagram showing the overall system configuration of an image monitoring system 1 according to an embodiment. As shown in FIG. 1, an image monitoring system 1 connects one or more store devices 10 installed in one or more stores, and each store device 10 via a communication network such as a local LAN or the Internet. and a monitoring device 30 . In addition, one or a plurality of imaging devices 21 , a sound output device 22 , an operation device 23 , and one or a plurality of terminal devices 24 are connected to each store device 10 .

店舗装置10は、例えばパーソナルコンピュータ等であり、インタフェース部11と、第1通信部12と、第1記憶部13と、第1制御部14とを有する。 The store apparatus 10 is, for example, a personal computer or the like, and has an interface section 11 , a first communication section 12 , a first storage section 13 and a first control section 14 .

インタフェース部11は、例えばUSB等のシリアルバス規格に準じるインタフェース回路を有し、撮像装置21、音出力装置22、操作装置23及び/又は端末装置24と通信接続して各種の情報を送受信する。なお、インタフェース部11は、シリアルバス規格に準じるインタフェース回路の代わりに、WiFi、Bluetooth(登録商標)、NFC等の近距離無線通信規格に準じるインタフェース回路を有してもよい。 The interface unit 11 has an interface circuit conforming to a serial bus standard such as USB, and communicates with the imaging device 21, the sound output device 22, the operation device 23 and/or the terminal device 24 to transmit and receive various information. Note that the interface unit 11 may have an interface circuit conforming to a short-range wireless communication standard such as WiFi, Bluetooth (registered trademark), NFC, etc., instead of the interface circuit conforming to the serial bus standard.

第1通信部12は、イーサネット(登録商標)などの各種の通信インタフェース回路を有し、通信ネットワークを介して監視装置30と各種の信号を送受信する。 The first communication unit 12 has various communication interface circuits such as Ethernet (registered trademark), and transmits and receives various signals to and from the monitoring device 30 via a communication network.

第1記憶部13は、ROM、RAM等の半導体メモリ、磁気ディスク(HDD)、又はCD-ROM、DVD-RAM等の光ディスクドライブ及びその記録媒体を有する。第1記憶部13は、店舗装置10を制御するためのコンピュータプログラム及び各種データを記憶し、第1制御部14との間でこれらの情報を入出力する。コンピュータプログラムは、CD-ROM、DVD-ROM等のコンピュータ読み取り可能な可搬型記録媒体から公知のセットアッププログラム等を用いて第1記憶部13にインストールされてもよい。また、記憶部15は、データとして、モデル131及び背景画像132等を記憶する。
モデル131は、店舗内を撮影した撮影画像から検出された人物への対処の必要性の度合いを示す要対処度を算出するために使用される判定モデルであり、予め設定される。対処が必要な人物とは、例えば不審人物、又は、困っている人物等である。不審人物とは、例えば長時間滞留している人物、刃物等の凶器を所持している人物、奇声を発する人物、サングラスもしくはマスク等で顔を覆っている人物、又は、万引き等の窃盗行為を画策して周辺を観察している人物等である。困っている人物とは、例えば何かを探してうろうろしている人物、又は、体調不良等のため、うずくまっている人物等である。
背景画像132は、各撮像装置21が、動物体が存在しないときに店舗内を撮影した画像である。
The first storage unit 13 has a semiconductor memory such as ROM and RAM, a magnetic disk (HDD), or an optical disk drive such as CD-ROM and DVD-RAM and recording media thereof. The first storage unit 13 stores computer programs and various data for controlling the store apparatus 10 and inputs/outputs such information to/from the first control unit 14 . The computer program may be installed in the first storage unit 13 from a computer-readable portable recording medium such as CD-ROM, DVD-ROM, etc. using a known setup program or the like. The storage unit 15 also stores a model 131, a background image 132, and the like as data.
The model 131 is a determination model that is set in advance and is used to calculate a degree of need to deal with a person detected from a captured image of the inside of the store. A person who needs to be dealt with is, for example, a suspicious person or a person in trouble. Suspicious people include, for example, people who have stayed for a long time, people who have weapons such as knives, people who make strange noises, people who cover their faces with sunglasses or masks, or people who have committed theft such as shoplifting. It is a person or the like who is observing the surroundings by plotting. A person in need is, for example, a person who is looking for something, or a person who is crouched due to poor physical condition or the like.
The background image 132 is an image captured inside the store by each imaging device 21 when there is no moving object.

第1制御部14は、CPU、MPU等のプロセッサと、ROM、RAM等のメモリと、その周辺回路とを有し、店舗装置10の各種信号処理を実行する。第1制御部14は、プロセッサ上で動作するプログラムの機能モジュールとして実装される手動通報手段141、画像取得手段142、人物検出手段143、要対処度算出手段144、自動通報手段145、更新手段146及び混雑判定手段147等を有する。なお、第1制御部14として、DSP、LSI、ASIC、FPGA等が用いられてもよい。 The first control unit 14 has processors such as CPU and MPU, memories such as ROM and RAM, and their peripheral circuits, and executes various signal processing of the store apparatus 10 . The first control unit 14 includes manual notification means 141, image acquisition means 142, person detection means 143, response level calculation means 144, automatic notification means 145, update means 146, which are implemented as functional modules of a program that operates on the processor. and congestion determination means 147 and the like. A DSP, LSI, ASIC, FPGA, or the like may be used as the first control unit 14 .

撮像装置21は、店舗装置10が設置される店舗に固定設置され、店舗内を撮影するカメラである。撮像装置21は、CCD素子またはC-MOS素子など、可視光に感度を有する光電変換素子と、その光電変換素子上に像を結像する結像光学系と、光電変換素子から出力された電気信号を増幅し、アナログ/デジタル(A/D)変換するA/D変換器とを有する。撮像装置21は、撮影したRGB各色の画像を各画素が0~255の範囲の輝度値を有するデジタルの撮影画像に変換して店舗装置10へ出力する。 The imaging device 21 is a camera that is fixedly installed in the store where the store device 10 is installed and captures the inside of the store. The imaging device 21 includes a photoelectric conversion element sensitive to visible light, such as a CCD element or a C-MOS element, an imaging optical system that forms an image on the photoelectric conversion element, and an electric current output from the photoelectric conversion element. and an A/D converter that amplifies and analog-to-digital (A/D) converts the signal. The imaging device 21 converts the captured RGB color image into a digital captured image in which each pixel has a luminance value in the range of 0 to 255, and outputs the digital captured image to the store device 10 .

音出力装置22は、店舗装置10が設置される店舗に設置され、店舗内に音声を出力するスピーカである。音出力装置22は、店舗装置10から音声信号を受信し、受信した音声信号に従って、店員又は客等の店舗内の人物に音声を出力する。 The sound output device 22 is a speaker that is installed in the store where the store device 10 is installed and that outputs sound inside the store. The sound output device 22 receives an audio signal from the store device 10 and outputs audio to a person in the store, such as a salesclerk or a customer, according to the received audio signal.

操作装置23は、店舗装置10が設置される店舗内の、特に店員が操作するレジの周辺等に設置され、店員の通報指示を受け付けるボタンである。操作装置23は、受け付けた通報指示に応じた通報指示信号を店舗装置10へ出力する。本実施形態では、操作装置23は、通報ボタンであり、店員により押下されると、通報指示信号を店舗装置10へ出力する。 The operation device 23 is a button that is installed in the store where the store device 10 is installed, particularly around a cash register operated by a store clerk, and receives a notification instruction from the store clerk. The operation device 23 outputs to the store device 10 a notification instruction signal corresponding to the received notification instruction. In this embodiment, the operation device 23 is a report button, and outputs a report instruction signal to the store device 10 when pressed by the store clerk.

端末装置24は、店舗装置10の店員により携帯される端末であり、例えばインカム(インターコミュニケーション)、スマートフォン等である。端末装置24は、店舗装置10と接続するためのインタフェースと、店員に通知を行うための表示装置及び/又は音声出力装置等の通知部と、それらを制御するためのプロセッサとを有する。端末装置24は、店舗装置10から通知信号を受信し、受信した通知信号に従って、店員に画像又は音声による通知を行う。 The terminal device 24 is a terminal carried by a store clerk of the store device 10, and is, for example, an intercom (intercommunication), a smart phone, or the like. The terminal device 24 has an interface for connecting with the store device 10, a notification unit such as a display device and/or an audio output device for notifying the store clerk, and a processor for controlling them. The terminal device 24 receives the notification signal from the store device 10 and notifies the store clerk by image or sound according to the received notification signal.

なお、撮像装置21、音出力装置22、操作装置23及び/又は端末装置24は、店舗装置10と別個に設けられるのでなく、店舗装置10と一体に設けられてもよい。 Note that the imaging device 21 , the sound output device 22 , the operation device 23 and/or the terminal device 24 may not be provided separately from the store device 10 but may be provided integrally with the store device 10 .

監視装置30は、例えばサーバ等であり、第2通信部31と、操作部32と、表示部33と、第2記憶部34と、第2制御部35とを有する。 The monitoring device 30 is, for example, a server or the like, and has a second communication section 31 , an operation section 32 , a display section 33 , a second storage section 34 and a second control section 35 .

第2通信部31は、第1通信部12と同様の通信インタフェース回路を有し、通信ネットワークを介して店舗装置10と各種の信号を送受信する。 The second communication section 31 has a communication interface circuit similar to that of the first communication section 12, and transmits/receives various signals to/from the store apparatus 10 via the communication network.

操作部32は、例えばタッチパネル、マウス、キーボード等であり、監視センタの監視員による操作を受け付け、受け付けた操作に応じた信号を第2制御部35に送る。 The operation unit 32 is, for example, a touch panel, a mouse, a keyboard, etc., receives operations by the monitoring staff of the monitoring center, and sends signals corresponding to the received operations to the second control unit 35 .

表示部33は、例えば液晶ディスプレイ、有機ELディスプレイ等であり、第2制御部35からの指示に従って、店舗装置10から受信した通報、撮影画像等を表示する。 The display unit 33 is, for example, a liquid crystal display, an organic EL display, or the like, and displays information, captured images, and the like received from the store device 10 according to instructions from the second control unit 35 .

第2記憶部34は、第1記憶部13と同様の半導体メモリ、磁気ディスク又は光ディスクドライブ及びその記録媒体を有する。第2記憶部34は、監視装置30を制御するためのコンピュータプログラム及び各種データを記憶し、第2制御部35との間でこれらの情報を入出力する。コンピュータプログラムは、CD-ROM、DVD-ROM等のコンピュータ読み取り可能な可搬型記録媒体から公知のセットアッププログラム等を用いて第2記憶部34にインストールされてもよい。 The second storage section 34 has a semiconductor memory similar to that of the first storage section 13, a magnetic disk or an optical disk drive, and its recording medium. The second storage unit 34 stores computer programs and various data for controlling the monitoring device 30 and inputs/outputs such information to/from the second control unit 35 . The computer program may be installed in the second storage unit 34 from a computer-readable portable recording medium such as CD-ROM, DVD-ROM, etc. using a known setup program or the like.

第2制御部35は、第1制御部14と同様のプロセッサ、メモリ及び周辺回路を有し、監視装置30の各種信号処理を実行する。第2制御部35は、プロセッサ上で動作するプログラムの機能モジュールとして実装される評価手段351等を有する。 The second control unit 35 has the same processor, memory and peripheral circuits as those of the first control unit 14 and executes various signal processing of the monitoring device 30 . The second control unit 35 has evaluation means 351 and the like implemented as functional modules of a program that runs on the processor.

図2は、店舗装置10による監視処理の動作を示すフローチャートの一例を示す図である。以下、図2に示したフローチャートを参照しつつ、本実施形態による登録処理の動作を説明する。なお、以下に説明する動作のフローは、第1記憶部13に予め記憶されているプログラムに基づいて、主に第1制御部14により、店舗装置10の各部と協同して実行される。 FIG. 2 is a diagram showing an example of a flowchart showing the operation of monitoring processing by the store apparatus 10. As shown in FIG. The operation of the registration process according to this embodiment will be described below with reference to the flowchart shown in FIG. The operation flow described below is executed mainly by the first control unit 14 in cooperation with each unit of the store apparatus 10 based on a program pre-stored in the first storage unit 13 .

まず、手動通報手段141は、インタフェース部11を介して操作装置23から店舗の店員による通報指示が入力されたか否かを判定する(ステップS101)。店舗の店員による通報指示が入力された場合、手動通報手段141は、店員により通報が指示されたことを示す手動通報を監視装置30に送信することを決定し(ステップS102)、処理をステップS101へ戻す。手動通報には、入力店舗の識別情報が含まれる。さらに、手動通報には、通報を指示した店員の勤務スケジュール情報等に基づく識別情報が含まれてもよい。この場合、手動通報手段141は、後述する処理において、監視装置30に手動通報を送信する。このように、手動通報手段141は、店舗の店員による指示に従って、監視装置30に手動通報を送信する。 First, the manual notification means 141 determines whether or not a notification instruction is input from the store clerk from the operation device 23 via the interface section 11 (step S101). When the notification instruction is input by the store clerk, the manual notification means 141 determines to transmit a manual notification indicating that the notification has been instructed by the store clerk to the monitoring device 30 (step S102), and the process proceeds to step S101. back to The manual notification includes the identification information of the input store. Furthermore, the manual notification may include identification information based on the work schedule information of the clerk who instructed the notification. In this case, the manual notification means 141 transmits a manual notification to the monitoring device 30 in a process to be described later. In this manner, the manual reporting means 141 transmits manual reporting to the monitoring device 30 in accordance with instructions from the store clerk.

一方、操作装置23から店舗の店員による通報指示が入力されていない場合、画像取得手段142は、撮像装置21が店舗内を撮影した撮影画像をインタフェース部11を介して撮像装置21から取得する(ステップS103)。本実施形態では、画像取得手段142は、直前の所定期間(例えば10秒間)に撮影された複数の撮影画像を取得する。 On the other hand, when the store clerk has not input a notification instruction from the operation device 23, the image acquiring means 142 acquires the image captured by the image capturing device 21 of the inside of the store from the image capturing device 21 via the interface unit 11 ( step S103). In this embodiment, the image acquisition unit 142 acquires a plurality of captured images captured during the immediately preceding predetermined period (for example, 10 seconds).

次に、人物検出手段143は、撮影画像から人物を検出する(ステップS104)。人物検出手段143は、撮影画像と、その撮影画像を撮影した撮像装置21が撮影した背景画像132との間で、対応画素間の輝度差を求め、各画素の画素値がその輝度差の絶対値で表される差分画像を生成する。人物検出手段143は、撮影画像において、対応する差分画像内の画素値が所定の閾値以上となる領域を動物体領域として検出する。例えば、所定の閾値は、差分画像の各画素値の平均値とすることができる。人物検出手段143は、検出した動物体領域が、人物に対応する所定範囲の大きさを有する場合、その動物体領域を人物が写っている人物領域として検出する。
また、人物検出手段143は、画像取得手段142が順次取得した撮影画像において、検出した各人物領域に対して公知のトラッキング技術を用いて追跡処理を実行する。人物検出手段143は、例えば、最新の撮影画像内の人物領域のそれぞれについて、その人物領域の重心位置と、直前の撮影画像から検出された人物領域の重心位置との距離を算出し、距離が所定の閾値以下である人物領域を同一人物による人物領域として対応付ける。なお、人物検出手段143は、オプティカルフロー、パーティクルフィルタ等の方法を用いて追跡処理を実行してもよい。
撮影画像から人物が検出されなかった場合、人物検出手段143は、処理をステップS101へ戻す。
Next, the person detection means 143 detects a person from the photographed image (step S104). The person detection means 143 obtains the luminance difference between corresponding pixels between the photographed image and the background image 132 photographed by the imaging device 21 that photographed the photographed image, and the pixel value of each pixel is the absolute value of the luminance difference. Generates a difference image represented by a value. The person detection unit 143 detects, in the captured image, an area in which the pixel value in the corresponding difference image is equal to or greater than a predetermined threshold as a moving object area. For example, the predetermined threshold can be the average value of each pixel value of the difference image. When the detected moving object area has a size within a predetermined range corresponding to a person, the person detecting means 143 detects the moving object area as a person area containing a person.
Further, the person detection unit 143 executes tracking processing using a known tracking technique for each person region detected in the photographed images sequentially acquired by the image acquisition unit 142 . For example, for each person area in the latest captured image, the person detection unit 143 calculates the distance between the centroid position of the person area and the centroid position of the person area detected from the immediately preceding captured image. A person area that is equal to or less than a predetermined threshold value is associated as a person area of the same person. Note that the person detection unit 143 may perform tracking processing using methods such as optical flow and particle filtering.
If a person is not detected from the captured image, the person detection unit 143 returns the process to step S101.

一方、撮影画像から人物が検出された場合、要対処度算出手段144は、予め設定されたモデル131を用いて、撮影画像から、検出した各人物の要対処度を算出する(ステップS105)。 On the other hand, when a person is detected from the photographed image, the handling requirement calculating means 144 calculates the handling requirement level of each detected person from the photographed image using the preset model 131 (step S105).

店舗装置10は、モデル131として、強化学習により事前に学習された学習モデルを使用する。店舗装置10は、例えば、強化学習としてQ学習を使用し、学習モデルとして行動価値関数を使用する。Q学習では、環境の状態sと、その状態sで選択される行動aとを独立変数として、状態sで行動aを選択した場合の行動の価値を表す行動価値関数Q(s,a)が学習される。Q学習では、状態sと行動aとの相関性が未知の状態で学習が開始され、任意の状態sで種々の行動aを選択する試行錯誤を繰り返すことにより、行動価値関数Qが反復して更新される。また、Q学習では、ある状態sである行動aが選択された場合に、報酬rが得られるように構成され、より高い報酬rが得られる行動aが選択されるように、行動価値関数Qが学習される。
行動価値関数Qの更新式は、以下の式(1)のように表される。

Figure 0007161920000001
式(1)において、st及びatはそれぞれ時刻tにおける状態及び行動であり、行動atにより状態はstからst+1に変化する。rt+1は、状態がstからst+1に変化したことで得られる報酬である。maxQの項は、時刻t+1で最大の価値Qになる(と時刻tで考えられている)行動aを行ったときのQを意味する。α及びγはそれぞれ学習係数及び割引率であり、0<α≦1、0<γ≦1で任意に設定される。 As the model 131, the store apparatus 10 uses a learning model learned in advance by reinforcement learning. The store apparatus 10 uses, for example, Q-learning as reinforcement learning and an action-value function as a learning model. In Q-learning, the action value function Q(s, a) representing the action value when the action a is selected in the state s is obtained by using the environmental state s and the action a selected in the state s as independent variables. be learned. In Q-learning, learning is started in a state where the correlation between state s and action a is unknown, and by repeating trial and error to select various actions a in arbitrary state s, action-value function Q repeats Updated. In addition, in Q-learning, when an action a in a certain state s is selected, a reward r is obtained, and an action value function Q is learned.
An update formula for the action-value function Q is expressed as the following formula (1).
Figure 0007161920000001
In equation (1), s t and a t are the state and action at time t, respectively, and the state changes from s t to s t+1 by action a t . r t+1 is the reward obtained by changing the state from s t to s t+1 . The term maxQ means the Q when the action a that becomes the maximum value Q at the time t+1 (considered at the time t) is performed. α and γ are a learning coefficient and a discount rate, respectively, and are arbitrarily set within 0<α≦1 and 0<γ≦1.

店舗装置10には、対処が必要である人物が写っている画像に対する行動価値関数Q1と、対処が必要である人物が写っていない画像に対する行動価値関数Q2とが設定される。行動価値関数Q1は、対処が必要である人物が写っているサンプル画像群を複数用いて事前に学習され、行動価値関数Q2は、対処が必要である人物が写っていないサンプル画像群を複数用いて事前に学習される。各サンプル画像群は、各撮像装置21により所定期間に撮影された連続する撮影画像のセットである。店舗装置10は、各撮影画像が撮影された時刻を時刻tとし、時刻tにおける撮影画像から検出された人物領域の重心位置を状態stとし、各人物領域の重心位置が、時刻tにおける撮影画像から検出された人物領域の重心位置から時刻t+1における撮影画像から検出された人物領域の重心位置へ移動したことを行動atとして使用する。また、店舗装置10は、サンプル画像群における最後の行動aの報酬rとして0より大きい値を設定し、他の行動aの報酬rとして0を設定する。 The store device 10 is set with an action value function Q1 for an image containing a person who needs to be dealt with, and an action value function Q2 for an image without a person who needs to be dealt with. The action-value function Q 1 is learned in advance using a plurality of sample image groups in which a person requiring action is shown, and the action-value function Q 2 is learned in advance by using a group of sample images in which a person requiring action is not shown. Pre-learned using multiple. Each sample image group is a set of consecutive captured images captured by each imaging device 21 during a predetermined period. The shop apparatus 10 sets the time when each photographed image was photographed to be time t, the barycentric position of the person region detected from the photographed image at time t to state s t , and the barycentric position of each person region to be the photographed at time t. The movement from the centroid position of the human region detected from the image to the centroid position of the human region detected from the captured image at time t +1 is used as the action at. Also, the store apparatus 10 sets a value greater than 0 as the reward r for the last action a in the sample image group, and sets 0 as the reward r for the other actions a.

店舗装置10は、全ての状態sと各状態sにおいて取り得る行動aとの全組合せについて、Q(s,a)の初期値をランダムに設定する。店舗装置10は、一つのサンプル画像群に含まれる各画像を時刻順に参照し、各画像から検出された人物領域に対応するQ(s,a)を、上記の式(1)に従って更新していく。店舗装置10は、対処が必要である人物が写っている全てのサンプル画像群を用いて、行動価値関数Q1(s,a)を更新し、最終的に更新された各Q1(s,a)の値(行動価値)の組合せをモデル131として第1記憶部13に記憶する。同様に、店舗装置10は、対処が必要である人物が写っていない全てのサンプル画像群を用いて、行動価値関数Q2(s,a)を更新し、最終的に更新された各Q2(s,a)の値(行動価値)の組合せをモデル131として第1記憶部13に記憶する。 The store device 10 randomly sets the initial value of Q(s, a) for all combinations of all states s and actions a that can be taken in each state s. The shop apparatus 10 refers to each image included in one sample image group in chronological order, and updates Q(s, a) corresponding to the human region detected from each image according to the above equation (1). go. The shop device 10 updates the action value function Q 1 (s, a) using all the sample image groups showing the person who needs to be dealt with, and finally updates each Q 1 (s, A combination of a) values (behavioral values) is stored in the first storage unit 13 as a model 131 . Similarly, the store device 10 updates the action-value function Q 2 (s, a) using all the sample image groups that do not include a person who needs to be dealt with, and finally updates each Q 2 A combination of (s, a) values (behavior value) is stored in the first storage unit 13 as a model 131 .

要対処度算出手段144は、画像取得手段142が取得した各撮影画像から検出された各人物の人物領域の重心位置を状態sとし、その重心位置から、次の撮影画像から検出されたその人物の人物領域の重心位置へ移動したことを行動aとして特定する。要対処度算出手段144は、モデル131を参照し、特定した状態sと行動aとの組合せに対応するQ1(s,a)の値(行動価値)と、Q2(s,a)の値(行動価値)とを特定する。要対処度算出手段144は、特定したQ1(s,a)の値(行動価値)からQ2(s,a)の値(行動価値)を減算した値を、その組合せに対応する行動価値として算出する。要対処度算出手段144は、検出された人物毎に、各撮影画像について算出したその人物に対する行動価値の総和を算出し、算出した総和の中の最大値を要対処度として算出する。即ち、要対処度は、撮影画像に対処が必要である人物が写っている可能性が高い程、高くなるように算出される。 The degree-of-measures-required calculation means 144 sets the barycenter position of the person region of each person detected from each captured image acquired by the image acquisition means 142 to state s, and uses the barycentric position to determine the person detected from the next captured image. movement to the position of the center of gravity of the person region is identified as action a. The action required degree calculation means 144 refers to the model 131, the value (action value) of Q 1 (s, a) corresponding to the combination of the identified state s and the action a, and the value of Q 2 (s, a) Identify value (behavioral value). The action required degree calculation means 144 subtracts the value of Q 2 (s, a) (action value) from the identified value of Q 1 (s, a) (action value), and calculates the value as the action value corresponding to the combination. Calculate as The handling requirement calculating means 144 calculates, for each detected person, the sum of the action values for the person calculated for each photographed image, and calculates the maximum value among the calculated sums as the handling requirement level. That is, the degree of need to be dealt with is calculated so as to be higher as the probability that a person who needs to be dealt with is shown in the photographed image is higher.

次に、自動通報手段145は、算出された要対処度が閾値以上であるか否かを判定する(ステップS106)。閾値は、事前の実験による実験結果に基づいて予め設定される。何れかの人物について算出された要対処度が閾値以上である場合、自動通報手段145は、店舗装置10が撮影画像に基づいて通報が必要であると判定したことを示す自動通報を監視装置30に送信することを決定し(ステップS107)、処理をステップS101へ戻す。自動通報には、入力店舗の識別情報が含まれる。さらに、自動通報には、行動価値の総和が閾値又は第2閾値以上である人物の識別情報(例えば、撮影画像における人物領域の座標)が含まれてもよい。この場合、自動通報手段145は、後述する処理において、監視装置30に自動通報を送信する。
一方、全ての人物について算出された要対処度が閾値未満である場合、自動通報手段145は、要対処度が、閾値より小さい第2閾値以上であるか否かを判定する(ステップS108)。第2閾値は、事前の実験による実験結果に基づいて予め設定される。全ての人物について算出された要対処度が第2閾値未満である場合、自動通報手段145は、通報を監視装置30に送信しないことを決定し(ステップS109)、処理をステップS101へ戻す。
一方、何れかの人物について算出された要対処度が第2閾値以上である場合、自動通報手段145は、店舗の各店員に通報指示の実行を促すメッセージを、インタフェース部11を介して各店員が所持する端末装置24に送信し、通知する(ステップS110)。各端末装置24は、通報指示の実行を促すメッセージを受信すると、受信したメッセージを表示又は音声出力し、各店員に通知する。このように、自動通報手段145は、要対処度が第2閾値以上である場合、所定の基準に従って、監視センタの監視装置30に自動通報を送信すること、及び、店舗の店員の端末装置24に通報指示の実行を促すことの内の何れか一方を選択して実行する。特に、自動通報手段145は、要対処度が閾値以上である場合、監視装置30に自動通報を送信することを選択し、要対処度が閾値未満である場合、店舗の店員の端末装置24に通報指示の実行を促すことを選択する。
Next, the automatic notification means 145 determines whether or not the calculated degree of need for action is equal to or greater than a threshold (step S106). The threshold is set in advance based on experimental results from previous experiments. If the degree of required action calculated for any person is equal to or greater than the threshold, the automatic notification means 145 sends an automatic notification to the monitoring device 30 indicating that the store device 10 has determined that a notification is necessary based on the photographed image. (step S107), and the process returns to step S101. The automatic notification includes the identification information of the input store. Furthermore, the automatic notification may include identification information (for example, the coordinates of the person area in the captured image) of the person whose total behavioral value is equal to or greater than the threshold or the second threshold. In this case, the automatic notification means 145 transmits an automatic notification to the monitoring device 30 in a process to be described later.
On the other hand, when the degree of action required calculated for all persons is less than the threshold, the automatic reporting means 145 determines whether or not the degree of action required is equal to or larger than a second threshold, which is smaller than the threshold (step S108). The second threshold is set in advance based on experimental results from previous experiments. If the degree of need for action calculated for all persons is less than the second threshold, the automatic notification means 145 determines not to transmit the notification to the monitoring device 30 (step S109), and returns the process to step S101.
On the other hand, if the degree of required action calculated for any person is equal to or higher than the second threshold, the automatic notification means 145 sends a message to each store clerk prompting execution of the notification instruction to each store clerk via the interface unit 11. is transmitted to the terminal device 24 possessed by and notified (step S110). When each terminal device 24 receives the message prompting execution of the notification instruction, it displays or outputs the received message by voice, and notifies each store clerk. In this way, the automatic notification means 145 transmits an automatic notification to the monitoring device 30 of the monitoring center according to a predetermined standard when the level of action required is equal to or higher than the second threshold, and the terminal device 24 of the store clerk prompting the user to execute the notification instruction. In particular, the automatic notification means 145 selects to send an automatic notification to the monitoring device 30 when the degree of action required is equal to or higher than the threshold, and to the terminal device 24 of the store clerk when the degree of action required is less than the threshold. Select to prompt execution of notification instructions.

次に、自動通報手段145は、インタフェース部11を介して操作装置23又は端末装置24から通報指示信号を受信したか否かを判定する(ステップS111)。通報指示信号を受信した場合、自動通報手段145は、手動通報を監視装置30に送信することを決定し(ステップS112)、処理をステップS101へ戻す。この場合、手動通報手段141は、後述する処理において、監視装置30に手動通報を送信する。この場合の手動通報には、行動価値の総和が第2閾値以上である人物の識別情報が含まれてもよい。
一方、通報指示信号を受信していない場合、自動通報手段145は、端末装置24にメッセージを送信してから所定時間(例えば10秒間)が経過したか否かを判定する(ステップS113)。所定時間が経過していない場合、自動通報手段145は、処理をステップS111に戻し、再度、通報指示信号を受信したか否かを判定する。
Next, the automatic notification means 145 determines whether or not a notification instruction signal has been received from the operation device 23 or the terminal device 24 via the interface section 11 (step S111). When the notification instruction signal is received, the automatic notification means 145 determines to transmit a manual notification to the monitoring device 30 (step S112), and returns the process to step S101. In this case, the manual notification means 141 transmits a manual notification to the monitoring device 30 in a process to be described later. The manual notification in this case may include the identification information of the person whose total behavioral value is equal to or greater than the second threshold.
On the other hand, if the notification instruction signal has not been received, the automatic notification means 145 determines whether or not a predetermined time (for example, 10 seconds) has passed since the message was sent to the terminal device 24 (step S113). If the predetermined time has not elapsed, the automatic notification means 145 returns the process to step S111 and determines again whether or not the notification instruction signal has been received.

一方、所定時間が経過した場合、即ち店員が通報指示を実行しなかった場合、混雑判定手段147は、撮影画像から、店舗が混雑している度合いを示す混雑度を算出する(ステップS114)。例えば、混雑判定手段147は、人物検出手段143により撮影画像から検出された人物の数を混雑度として算出する。なお、混雑判定手段147は、撮影画像から検出された人物の内、レジ前等の予め設定された所定範囲内に位置する人物の数を混雑度として算出してもよい。また、混雑判定手段147は、所定範囲内に位置する人物の重みが大きくなるように、撮影画像から検出された各人物を重み付けして混雑度を算出してもよい。
次に、混雑判定手段147は、算出した混雑度に基づいて、店舗が混雑しているか否かを判定する(ステップS115)。混雑判定手段147は、混雑度が所定閾値以上である場合、店舗が混雑していると判定し、混雑度が所定閾値未満である場合、店舗が混雑していないと判定する。
On the other hand, when the predetermined time has passed, that is, when the store clerk does not execute the notification instruction, the congestion determination means 147 calculates the degree of congestion indicating the degree of congestion in the store from the photographed image (step S114). For example, the congestion determination unit 147 calculates the number of persons detected from the photographed image by the person detection unit 143 as the degree of congestion. Note that the congestion determination unit 147 may calculate the number of people who are located within a preset range, such as in front of a cash register, among the people detected from the photographed image, as the degree of congestion. Further, the congestion determination unit 147 may calculate the degree of congestion by weighting each person detected from the captured image so that the weight of the person located within the predetermined range is increased.
Next, the congestion determining means 147 determines whether the store is crowded based on the calculated congestion degree (step S115). The congestion determining means 147 determines that the store is crowded when the degree of congestion is equal to or greater than a predetermined threshold, and determines that the store is not crowded when the degree of congestion is less than the predetermined threshold.

店舗が混雑していると判定された場合、更新手段146は、処理をステップS101へ戻す。一方、店舗が混雑していないと判定された場合、更新手段146は、通報指示の実行が促される際に使用された撮影画像に基づいて、第1記憶部13に記憶されたモデル131を更新し(ステップS116)、処理をステップS101に戻す。
即ち、更新手段146は、自動通報手段145が店舗の店員に通報指示の実行を促し且つ手動通報手段141が監視装置30に手動通報を送信していない場合、撮影画像から検出された人物への対処が不要であるとみなして、モデル131を更新する。但し、自動通報手段145が店舗の店員に通報指示の実行を促し且つ手動通報手段141が手動通報を送信していない場合、混雑判定手段147が店舗が混雑していないと判定したときに限り、モデル131を更新する。これにより、更新手段146は、店員が多忙であるために通報指示を実行できなかった場合に、モデル131を誤って更新することを抑制できる。
When it is determined that the store is crowded, the updating means 146 returns the process to step S101. On the other hand, when it is determined that the store is not crowded, the updating means 146 updates the model 131 stored in the first storage unit 13 based on the photographed image used when prompting the execution of the notification instruction. (step S116), and the process returns to step S101.
That is, when the automatic notification means 145 prompts the store clerk to execute a notification instruction and the manual notification means 141 does not send a manual notification to the monitoring device 30, the update means 146 updates the person detected from the captured image. The model 131 is updated assuming no action is required. However, only when the congestion determination means 147 determines that the store is not congested when the automatic notification means 145 urges the store clerk to execute the notification instruction and the manual notification means 141 does not transmit the manual notification. Update the model 131. As a result, the updating means 146 can prevent the model 131 from being erroneously updated when the clerk is too busy to execute the notification instruction.

更新手段146は、モデル131の初期設定時と同様にして、モデル131を更新する。但し、更新手段146は、店舗の各店員に通報指示の実行を促すメッセージが端末装置24に送信された時及びその直前の所定期間に撮影された撮影画像を用いてモデル131を更新する。なお、更新手段146は、行動価値の総和が第2閾値以上である人物の人物領域のみを用いてモデル131を更新してもよい。
更新手段146は、各撮影画像が撮影された時刻を時刻tとし、時刻tにおける撮影画像から検出された人物領域の重心位置を状態stとし、各人物領域の重心位置が、時刻tにおける撮影画像から検出された人物領域の重心位置から、時刻t+1における撮影画像から検出された人物領域の重心位置へ移動したことを行動atとして使用する。更新手段146は、受信した判定結果に対応する各撮影画像の内の最後の撮影画像に係る行動aの報酬rとして0より大きい値を設定し、他の行動aの報酬rとして0を設定する。
更新手段146は、受信した判定結果に対応する各撮影画像を時刻順に参照し、各撮影画像から検出された人物領域に対応するQ(s,a)を、上記の式(1)に従って更新していく。撮影画像に写っている人物に対する対処が不要であるとみなされているため、更新手段146は、行動価値関数Q2(s,a)を更新し、モデル131を、最終的に更新された各Q2(s,a)の値(行動価値)の組合せに更新する。
これにより、更新手段146は、対処が必要な人物が写っていない撮影画像について通報が送信されにくくなるように、モデル131を更新することが可能となる。
The updating means 146 updates the model 131 in the same way as when the model 131 is initialized. However, the updating means 146 updates the model 131 by using the photographed images photographed during a predetermined period immediately before and when a message prompting each store clerk to execute the notification instruction is sent to the terminal device 24 . Note that the updating unit 146 may update the model 131 using only the person regions of persons whose total behavior value is equal to or greater than the second threshold.
The update unit 146 sets the time when each photographed image was photographed to be time t, the barycentric position of the person region detected from the photographed image at time t to state s t , and the barycentric position of each person region to be the photographed at time t. The movement from the centroid position of the human region detected from the image to the centroid position of the human region detected from the captured image at time t +1 is used as the action at. The updating means 146 sets a value greater than 0 as the reward r for the action a related to the last photographed image among the respective photographed images corresponding to the received determination result, and sets 0 as the reward r for the other action a. .
The updating means 146 refers to each photographed image corresponding to the received determination result in chronological order, and updates Q(s, a) corresponding to the human region detected from each photographed image according to the above equation (1). To go. Since it is deemed unnecessary to deal with the person appearing in the photographed image, the updating means 146 updates the action value function Q 2 (s, a), and the model 131 is finally updated to each Update to a combination of Q 2 (s, a) values (action values).
As a result, the updating unit 146 can update the model 131 so that it is difficult for a report to be sent for a photographed image in which a person who needs to be dealt with is not shown.

図3は、画像監視システム1の動作シーケンスの一例を示す図である。この動作シーケンスは、予め各装置の各記憶部に記憶されているプログラムに基づいて、主に各装置の各制御部により、店舗装置10及び監視装置30の各要素と協働して実行される。この動作シーケンスは、店舗装置10が、監視処理において手動通報又は自動通報を監視装置30に送信することを決定した場合に実行される。 FIG. 3 is a diagram showing an example of an operation sequence of the image monitoring system 1. As shown in FIG. This operation sequence is executed mainly by each control unit of each device in cooperation with each element of the store device 10 and the monitoring device 30, based on a program stored in advance in each storage unit of each device. . This operation sequence is executed when the store device 10 decides to transmit a manual report or an automatic report to the monitor device 30 in the monitoring process.

まず、店舗装置10の自動通報手段145は、図2のステップS109において自動通報を送信することが決定された場合、自動通報と、自動通報を送信することを決定する際に使用された撮影画像とを第1通信部12を介して監視装置30に送信する(ステップS201)。その場合、撮影画像として、自動通報が送信された時及びその直前の所定期間に撮影された画像と、ライブ画像とが合わせて送信される。 First, when the automatic notification means 145 of the store device 10 determines to transmit the automatic notification in step S109 of FIG. to the monitoring device 30 via the first communication unit 12 (step S201). In this case, as the photographed images, images photographed during a predetermined period immediately before and when the automatic notification was transmitted, and live images are transmitted together.

次に、監視装置30の評価手段351は、第2通信部31を介して店舗装置10から自動通報及び撮影画像を受信した場合、受信した通報を示す情報及び撮影画像を表示部33に表示する(ステップS202)。 Next, when the evaluation unit 351 of the monitoring device 30 receives the automatic notification and the captured image from the store device 10 via the second communication unit 31, the information indicating the received notification and the captured image are displayed on the display unit 33. (Step S202).

図4は、監視装置30に表示される表示画面の一例である。
図4に示すように、表示画面400には、受信した通報を示す情報401、自動通報或いは手動通報による通報時の撮影画像402、ライブ映像を表示するライブ画像403、音声通知ボタン404、通報ボタン405及び終了ボタン406等が表示される。
情報401には、通報を送信した店舗装置10が設置された店舗の識別情報と、その店舗装置10から受信した通報が手動通報であるか自動通報であるかとが表示される。なお、店舗装置10から受信した通報が手動通報である場合、情報401には、さらに通報を指示した店員もしくは端末装置24の識別情報が表示されてもよい。また、店舗装置10から受信した通報に、行動価値の総和が閾値又は第2閾値以上である人物の識別情報が含まれている場合、情報401には、さらにその人物の識別情報が表示されてもよい。
監視員は、音声通知ボタン404を押下することにより、店舗装置10を介して音出力装置22に所定の音声を出力させることができる。
監視員は、通報ボタン405を押下することにより、監視装置30から、警察等に設置された他の装置(不図示)に通報を送信させることができる。
監視員は、終了ボタン406を押下することにより、表示画面400の表示を終了させることができる。
FIG. 4 is an example of a display screen displayed on the monitoring device 30. As shown in FIG.
As shown in FIG. 4, the display screen 400 includes information 401 indicating the received report, an image 402 photographed at the time of report by automatic report or manual report, a live image 403 displaying a live image, a voice notification button 404, a report button 405, an end button 406, and the like are displayed.
The information 401 displays the identification information of the shop where the store device 10 that sent the report is installed, and whether the report received from the store device 10 is a manual report or an automatic report. When the report received from the store device 10 is a manual report, the information 401 may further display the identification information of the clerk or the terminal device 24 who instructed the report. Further, when the report received from the store device 10 includes the identification information of a person whose total behavioral value is equal to or greater than the threshold or the second threshold, the information 401 further displays the identification information of the person. good too.
By pressing the voice notification button 404 , the surveillance staff can cause the sound output device 22 to output a predetermined voice via the store device 10 .
By pressing the report button 405, the surveillance staff can cause the monitoring device 30 to send a report to another device (not shown) installed in the police or the like.
The observer can terminate the display of the display screen 400 by pressing the end button 406 .

店舗装置10の手動通報手段141は、図2のステップS102又はS112において手動通報を送信することが決定された場合、手動通報と、手動通報を送信することを決定する際に使用された撮影画像とを第1通信部12を介して監視装置30に送信する(ステップS203)。ステップS102において手動通報を送信することが決定された場合、撮影画像として、手動通報前に撮影され且つ人物が検出された画像が送信される。ステップS112において手動通報を送信することが決定された場合、撮影画像として、店舗の各店員に通報指示の実行を促すメッセージが端末装置24に送信された時及びその直前の所定期間に撮影された画像が送信される。 The manual notification means 141 of the store device 10, when it is determined to transmit the manual notification in step S102 or S112 of FIG. to the monitoring device 30 via the first communication unit 12 (step S203). If it is determined in step S102 to transmit the manual notification, an image in which a person is detected and photographed before the manual notification is transmitted as the photographed image. If it is determined in step S112 that the manual report is to be sent, the photographed image is taken at the time when a message prompting each store clerk to execute the report instruction was sent to the terminal device 24 and for a predetermined period immediately before that. Image is sent.

次に、監視装置30の評価手段351は、第2通信部31を介して店舗装置10から手動通報及び撮影画像を受信した場合、受信した通報を示す情報及び撮影画像を含む表示画面400を表示部33に表示する(ステップS204)。 Next, when the evaluation unit 351 of the monitoring device 30 receives the manual report and the photographed image from the store device 10 via the second communication unit 31, the display screen 400 including the information indicating the received report and the photographed image is displayed. It is displayed on the unit 33 (step S204).

店舗装置10の更新手段146は、監視装置30へ手動通報を送信した場合、撮影画像から検出された人物への対処が必要であるとみなして、手動通報に対応する撮影画像に基づいて、第1記憶部13に記憶されたモデル131を更新する(ステップS205)。
図2のステップS112で手動通報を送信することが決定された場合、通報指示の実行が促されて手動通報が送信された場合、更新手段146は、モデル131を更新する度合いとして第1度合いを設定する。また、更新手段146は、モデル131の更新に使用する画像として、店舗の各店員に通報指示の実行を促すメッセージが端末装置24に送信された時及びその直前の所定期間に撮影された撮影画像を設定する。更新手段146は、モデル131の更新に使用する画像として、行動価値の総和が第2閾値以上である人物の人物領域のみを設定してもよい。
図2のステップS102で手動通報を送信することが決定された場合、即ち通報指示の実行が促されずに手動通報が送信された場合、更新手段146は、モデル131を更新する度合いとして第2度合いを設定する。第2度合いは、第1度合いより大きい。また、更新手段146は、モデル131の更新に使用する画像として、通報指示が実行される前、即ち手動通報前に撮影され且つ人物が検出された撮影画像を設定する。
このように、評価結果が手動通報に対応する場合、更新手段146は、モデル131の更新に使用する画像として、通報指示が実行される前の所定期間に撮影された撮影画像を設定する。
When the manual notification is transmitted to the monitoring device 30, the updating means 146 of the store device 10 considers that the person detected from the captured image needs to be dealt with, and based on the captured image corresponding to the manual notification, updates the 1 The model 131 stored in the storage unit 13 is updated (step S205).
If it is decided to send a manual report in step S112 of FIG. set. Further, the updating means 146 uses, as images to be used for updating the model 131, photographed images photographed during a predetermined period immediately before and at the time when a message prompting each store clerk to execute a notification instruction is transmitted to the terminal device 24. set. The updating means 146 may set only the human region of the person whose total behavioral value is equal to or greater than the second threshold as the image used for updating the model 131 .
If it is decided to send a manual report in step S102 of FIG. Set degree. The second degree is greater than the first degree. Further, the updating means 146 sets, as an image used for updating the model 131, a photographed image in which a person is detected and photographed before the notification instruction is executed, that is, before the manual notification.
In this way, when the evaluation result corresponds to manual notification, the updating means 146 sets the captured image captured during the predetermined period before the notification instruction is executed as the image used for updating the model 131 .

更新手段146は、図2のステップS116の処理と同様にして、モデル131を更新する。但し、更新手段146は、設定した度合い、及び、手動通報に対応する撮影画像に基づいてモデル131を更新する。この場合、撮影画像に写っている人物に対する対処が必要であるとみなされているため、更新手段146は、行動価値関数Q1(s,a)を更新し、モデル131を、最終的に更新された各Q1(s,a)の値(行動価値)の組合せに更新する。
また、更新手段146は、モデル131を更新する度合いを第1度合いに設定した場合、評価結果に対応する各撮影画像の内の最後の撮影画像に係る行動aの報酬rとして第1値を設定する。また、更新手段146は、モデル131を更新する度合いを第2度合いに設定した場合、評価結果に対応する各撮影画像の内の最後の撮影画像に係る行動aの報酬rとして第1値より大きい第2値を設定する。
The update means 146 updates the model 131 in the same manner as the process of step S116 in FIG. However, the updating means 146 updates the model 131 based on the set degree and the photographed image corresponding to the manual notification. In this case, since it is considered necessary to deal with the person appearing in the photographed image, the updating means 146 updates the action-value function Q 1 (s, a), and finally updates the model 131. update to the combination of each Q 1 (s, a) value (behavior value) obtained.
Further, when the degree of updating the model 131 is set to the first degree, the updating means 146 sets the first value as the reward r for the action a related to the last photographed image among the photographed images corresponding to the evaluation result. do. Further, when the degree of updating the model 131 is set to the second degree, the updating means 146 sets the reward r of the action a related to the last photographed image among the photographed images corresponding to the evaluation result to be larger than the first value. Sets the second value.

このように、更新手段146は、通報指示の実行が促されて手動通報が送信された場合と通報指示の実行が促されずに手動通報が送信された場合とでモデル131の更新方法を変更する。特に、更新手段146は、評価結果が、通報指示の実行が促されずに手動通報が送信された場合は、通報指示の実行が促されて手動通報が送信された場合より、モデル131を更新する度合いを大きくする。通報指示の実行が促されていないにも関わらず、店員により自発的に手動通報が送信される場合、店舗内に対処が必要な人物が存在している可能性が高い。したがって、更新手段146は、モデル131を適切に更新することが可能となる。
なお、更新手段146は、通報指示の実行が促されて手動通報が送信された場合に、通報指示の実行が促されずに手動通報が送信された場合より、モデル131を更新する度合いを大きくしてもよい。その場合、第2度合いは、第1度合いより小さい値に設定される。モデル131が十分に学習されると、通報指示の実行が促されている場合の方が、撮影画像に対処が必要な人物が写っている可能性が高くなる。したがって、更新手段146は、モデル131を適切に更新することが可能となる。
In this way, the updating means 146 changes the updating method of the model 131 depending on whether the execution of the notification instruction is prompted and the manual notification is sent or when the manual notification is sent without prompting the execution of the notification instruction. do. In particular, the updating means 146 updates the model 131 more than the case where the execution of the notification instruction is prompted and the manual notification is sent when the evaluation result indicates that the manual notification is sent without prompting the execution of the notification instruction. increase the degree to which If a manual report is voluntarily sent by the store clerk even though the execution of the report instruction is not prompted, there is a high possibility that there is someone in the store who needs to be dealt with. Therefore, the updating means 146 can update the model 131 appropriately.
Note that the updating means 146 updates the model 131 to a greater extent than when the manual notification is sent without prompting the execution of the notification instruction when the manual notification is sent with the execution of the notification instruction being prompted. You may In that case, the second degree is set to a value smaller than the first degree. When the model 131 is sufficiently learned, it is more likely that a person who needs to be dealt with is shown in the captured image when the execution of the notification instruction is prompted. Therefore, the updating means 146 can update the model 131 appropriately.

以上により、画像監視システム1の動作シーケンスは終了する。
なお、店舗装置10は、図2のステップS108~S116の処理を省略し、要対処度が閾値未満である場合、監視装置30に通報を送信しないことを決定してもよい。また、店舗装置10は、図2のステップS114~S115の処理を省略し、店舗が混雑しているか否かに関わらずモデル103を更新してもよい。
Thus, the operation sequence of the image monitoring system 1 ends.
Note that the store device 10 may omit the processing of steps S108 to S116 of FIG. Alternatively, the store apparatus 10 may omit the processing of steps S114 to S115 in FIG. 2 and update the model 103 regardless of whether the store is crowded.

また、監視装置30は、図2のステップS203において店舗装置10から手動通報がなされたとき、監視時間を店舗装置10に送信してもよい。その場合、ステップS205において、更新手段146は、監視装置から受信した監視時間に基づいて、モデル131を更新する度合いを変更してもよい。監視時間が長い場合、監視員は撮影画像に写っている人物に対して対処が必要であるか否かを判定するために長時間を要しており、その撮影画像には人物の行動が顕著に表れていない可能性が高い。逆に、監視時間が短い場合、監視員は撮影画像に写っている人物に対して対処が必要であるか否かを短時間で判定しており、撮影画像には人物の行動が顕著に表れている可能性が高い。
そこで、更新手段146は、監視時間が短い程、モデル131を更新する度合いを大きくし、監視時間が長い程、モデル131を更新する度合いを小さくする。例えば、更新手段146は、監視時間が短い程、判定結果に対応する各撮影画像の内の最後の撮影画像に係る行動aの報酬rとして大きい値を設定し、監視時間が長い程、判定結果に対応する各撮影画像の内の最後の撮影画像に係る行動aの報酬rとして小さい値を設定する。
これにより、更新手段146は、モデル131をより効率良く更新することができる。
Further, the monitoring device 30 may transmit the monitoring time to the store device 10 when the store device 10 manually reports in step S203 of FIG. In that case, in step S205, the updating means 146 may change the degree of updating the model 131 based on the monitoring time received from the monitoring device. When the monitoring time is long, it takes a long time for the monitor to determine whether or not the person in the photographed image needs to be dealt with, and the person's behavior is conspicuous in the photographed image. It is highly likely that it is not reflected in Conversely, if the monitoring time is short, the monitor quickly determines whether or not the person in the captured image needs to be dealt with. likely to be
Therefore, the updating means 146 increases the degree of updating the model 131 as the monitoring time becomes shorter, and decreases the degree of updating the model 131 as the monitoring time becomes longer. For example, the updating unit 146 sets a larger value as the reward r for the action a related to the last captured image among the captured images corresponding to the determination result as the monitoring time becomes shorter, A small value is set as the reward r for the action a related to the last captured image among the captured images corresponding to .
Thereby, the updating means 146 can update the model 131 more efficiently.

以上説明してきたように、本発明に係る店舗装置10は、モデル131を用いて撮影画像から算出した要対処度に基づいて自動通報を監視装置30に送信するとともに、店舗の店員による通報指示に従って手動通報を監視装置30に送信する。店舗装置10は、手動通報を送信した場合、撮影画像から検出された人物への対処が必要であるとみなしてモデル131を更新する。これにより、店舗装置10は、モデル131を適切に更新することが可能となり、その結果、要対処度を高精度に算出することが可能となる。 As described above, the store apparatus 10 according to the present invention transmits an automatic notification to the monitoring apparatus 30 based on the degree of action required calculated from the photographed image using the model 131, and according to the notification instruction from the store clerk. A manual notification is sent to the monitoring device 30 . When the store device 10 transmits the manual notification, it considers that the person detected from the captured image needs to be dealt with, and updates the model 131 . As a result, the store apparatus 10 can appropriately update the model 131, and as a result, can calculate the required action level with high accuracy.

以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されない。本実施形態では、モデル131が店舗装置10に記憶される例について説明したが、モデル131は、外部装置に記憶され、クラウドコンピューティングの形態で利用されてもよい。その場合、要対処度算出手段144は、人物領域を含む画像を第1通信部12を介して外部装置に送信し、外部装置により算出された要対処度を第1通信部12を介して外部装置から受信する。また、更新手段146は、撮影画像を第1通信部12を介して外部装置に送信し、モデル131を外部装置に更新させる。これにより、画像監視システムは、十分な処理速度及び記憶容量を有さない装置を店舗装置10として利用することができる。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments. In this embodiment, an example in which the model 131 is stored in the store device 10 has been described, but the model 131 may be stored in an external device and used in the form of cloud computing. In that case, the handling level calculation means 144 transmits the image including the person area to the external device via the first communication unit 12, and sends the handling level calculated by the external device to the external device via the first communication unit 12. Receive from device. In addition, the updating means 146 transmits the captured image to the external device via the first communication unit 12 and causes the external device to update the model 131 . As a result, the image monitoring system can use a device that does not have sufficient processing speed and storage capacity as the store device 10 .

また、図2のステップS106において、自動通報手段145は、要対処度が閾値以上であるか否かでなく、撮影画像に写っている人物が不審人物であるか困っている人物であるかを判定してもよい。
その場合、店舗装置10には、不審人物が写っている画像に対する行動価値関数Q3と、困っている人物が写っている画像に対する行動価値関数Q4とが設定される。行動価値関数Q3は、不審人物が写っているサンプル画像群を複数用いて事前に学習され、行動価値関数Q4は、困っている人物が写っているサンプル画像群を複数用いて事前に学習される。行動価値関数Q3及びQ4は、行動価値関数Q1及びQ2と同様にして、設定される。要対処度算出手段144は、各撮影画像から検出された各人物領域について、Q3(s,a)の値(行動価値)と、Q4(s,a)の値(行動価値)とを特定する。要対処度算出手段144は、各撮影画像について算出した各人物に対するQ3(s,a)の値(行動価値)の総和がQ4(s,a)の値(行動価値)の総和以上である場合、その人物は不審人物であると判定する。一方、要対処度算出手段144は、Q3(s,a)の値(行動価値)の総和がQ4(s,a)の値(行動価値)の総和未満である場合、その人物は困っている人物であると判定する。
自動通報手段145は、撮影画像に写っている人物が不審人物である場合、ステップS107において自動通報を監視装置30に送信することを決定し、撮影画像に写っている人物が困っている人物である場合、処理をステップS108へ移行し、要対処度が第2閾値以上であるか否かを判定する。
これにより、撮影画像に不審人物が写っていると推定される場合には、自動的に監視装置30に通報され、監視員により適切な対処が行われる。一方、撮影画像に困っている人物が写っていると推定される場合には、まず店員に通知されて店員により対処が行われ、店員が必要と判断した場合には、さらに監視装置30に通報される。したがって、画像監視システムでは、対処の必要がないにも関わらず、監視装置30に通報されて監視員に負担をかけることが抑制される。
In addition, in step S106 of FIG. 2, the automatic notification means 145 determines whether the person appearing in the photographed image is a suspicious person or a person in need, not whether or not the degree of need to be dealt with is equal to or greater than the threshold. You can judge.
In this case, the store device 10 is set with an action value function Q3 for an image containing a suspicious person and an action value function Q4 for an image containing a troubled person. The action value function Q3 is learned in advance using a plurality of sample image groups showing suspicious persons, and the action value function Q4 is learned in advance using a plurality of sample image groups showing troubled persons. be done. Action-value functions Q3 and Q4 are set in the same manner as action-value functions Q1 and Q2 . The action required degree calculation means 144 calculates the value of Q 3 (s, a) (behavioral value) and the value of Q 4 (s,a) (behavioral value) for each human region detected from each photographed image. Identify. If the sum of Q 3 (s, a) values (behavior value) for each person calculated for each photographed image is equal to or greater than the sum of Q 4 (s, a) values (behavior value). If there is, the person is determined to be a suspicious person. On the other hand, if the sum of the values of Q 3 (s, a) (behavioral value) is less than the sum of the values of Q 4 (s, a) (behavioral value), the handling requirement level calculating means 144 determines that the person is in trouble. It is determined that the person is
If the person appearing in the photographed image is a suspicious person, the automatic notification means 145 determines in step S107 to transmit an automatic notification to the monitoring device 30, and the person appearing in the photographed image is a person in trouble. If so, the process proceeds to step S108, and it is determined whether or not the degree of need for action is equal to or greater than the second threshold.
As a result, when it is estimated that a suspicious person appears in the photographed image, it is automatically reported to the monitoring device 30, and appropriate measures are taken by the monitoring staff. On the other hand, when it is presumed that a person in trouble is shown in the photographed image, the clerk is first notified, and the clerk takes measures. be done. Therefore, in the image monitoring system, it is possible to prevent the monitoring device from being notified to the monitoring device 30 and placing a burden on the monitoring personnel even though there is no need for countermeasures.

また、店舗装置10は、学習モデルを事前に設定せずに、運用中に撮像された撮影画像、手動通報の実行結果、及び、監視装置30から送信された評価結果のみに基づいて、モデル131を生成及び更新してもよい。画像監視システムの管理者は、新たに画像監視システムを構築する際に、学習モデルを事前学習しておく必要がないため、短期間且つ容易に画像監視システムを構築することができる。 In addition, the store device 10 does not set the learning model in advance, but based only on the photographed image captured during operation, the execution result of the manual notification, and the evaluation result transmitted from the monitoring device 30, the model 131 may be generated and updated. When building a new image monitoring system, the administrator of the image monitoring system does not need to learn the learning model in advance, so the image monitoring system can be built easily in a short period of time.

また、図3のステップS203において、評価手段351は、評価結果、撮影画像及び/又は通報の種別(手動通報か自動通報か)を、通報を送信した店舗装置10と異なる他の店舗装置10に送信してもよい。その場合、他の店舗装置10の更新手段146は、受信した評価結果、撮影画像及び通報の種別に基づいて、自装置が記憶するモデル131を更新する。これにより、画像監視システムは、店舗として全国展開する複数のチェーン店等を有する場合に、各店舗の店舗装置10により取得されたデータを一元管理して水平展開し、各店舗装置10が使用するモデル131を効率よく更新することができる。 Further, in step S203 of FIG. 3, the evaluation means 351 sends the evaluation result, the photographed image and/or the type of report (manual report or automatic report) to another store apparatus 10 different from the store apparatus 10 that transmitted the report. You may send. In that case, the updating means 146 of the other shop device 10 updates the model 131 stored in the own device based on the received evaluation result, photographed image, and report type. As a result, when the image monitoring system has a plurality of nationwide chain stores as stores, the data acquired by the store devices 10 of each store is centrally managed and horizontally deployed, and the data is used by each store device 10. The model 131 can be updated efficiently.

また、図2のステップS105において、店舗装置10は、強化学習により決定された学習モデル(行動価値関数)の代わりに、教師あり学習等の他の学習方式により決定された学習モデル(識別器)を使用して、撮影画像に対処の必要がある人物が写っているか否かを判定してもよい。
その場合、要対処度算出手段144は、画像が入力された場合に要対処度を出力するように事前学習された識別器により、要対処度を算出する。この識別器は、例えばディープラーニング等により、対処が必要である人物が写っている複数のサンプル画像、及び、対処が必要である人物が写っていない複数のサンプル画像を用いて事前学習され、モデル131として予め第1記憶部13に記憶される。要対処度算出手段144は、人物検出手段143が検出した人物領域を含む画像を識別器に入力し、識別器から出力された要対処度を取得することにより、要対処度を算出する。
一方、図2のステップS116、図3のステップS205において、更新手段146は、モデル131として記憶された識別器を更新する。撮影画像に写っている人物に対する対処が必要である場合、更新手段146は、その撮影画像内の人物領域を、対処が必要である人物が写っているサンプル画像に追加して、識別器を再学習する。一方、撮影画像に写っている人物に対する対処が不要である場合、更新手段146は、その撮影画像内の人物領域を、対処が不要である人物が写っているサンプル画像に追加して、識別器を再学習する。
この場合も、画像監視システムは、モデル131を適切に更新することが可能となり、その結果、要対処度を高精度に算出することが可能となる。
Further, in step S105 of FIG. 2, the store device 10 uses a learning model (discriminator) determined by another learning method such as supervised learning instead of the learning model (action value function) determined by reinforcement learning. may be used to determine whether the captured image contains a person that needs to be addressed.
In this case, the handling requirement calculation unit 144 calculates the handling requirement level using a discriminator pre-trained to output the handling requirement level when an image is input. This discriminator is pre-learned, for example, by deep learning, etc., using a plurality of sample images containing a person who needs to be dealt with, and a plurality of sample images not containing a person who needs to be dealt with. 131 is stored in advance in the first storage unit 13 . The handling requirement calculation unit 144 calculates the handling requirement level by inputting the image including the person region detected by the person detection unit 143 into the classifier and obtaining the handling level output from the classifier.
On the other hand, in step S116 of FIG. 2 and step S205 of FIG. When a person appearing in the captured image needs to be dealt with, the updating means 146 adds the person area in the captured image to the sample image showing the person who needs to be dealt with, and re-identifies the classifier. learn. On the other hand, if the person in the captured image does not need to be dealt with, the updating means 146 adds the person area in the captured image to the sample image showing the person who does not need to be dealt with. to relearn.
In this case as well, the image monitoring system can appropriately update the model 131, and as a result, can calculate the degree of action required with high accuracy.

または、店舗装置10は、パターンマッチングにより撮影画像に対処の必要がある人物が写っているか否かを判定してもよい。
その場合、店舗装置10は、対処が必要である人物が写っている複数の第1画像パターンと、対処が不要である人物が写っている複数の第2画像パターンとをモデル131として第1記憶部13に記憶しておく。要対処度算出手段144は、撮影画像から検出した人物領域と、モデル131として記憶しておいた各画像パターンとの類似度を算出する。類似度は、例えば、人物領域と、画像パターンを人物領域と同じサイズに拡大/縮小した画像との正規化相互相関値とすることができる。要対処度算出手段144は、人物領域と各第1画像パターンの類似度の内の最大値を、人物領域と各第2画像パターンの類似度の内の最大値で除算した値を要対処度として算出する。
一方、図2のステップS116、図3のステップS205において、更新手段146は、モデル131として記憶された画像パターンを更新する。撮影画像に写っている人物に対する対処が必要である場合、更新手段146は、その撮影画像内の人物領域を第1画像パターンに追加する。一方、評価結果が、撮影画像に写っている人物に対する対処が不要である場合、更新手段146は、その撮影画像内の人物領域を第2画像パターンに追加する。
この場合も、画像監視システムは、モデル131を適切に更新することが可能となり、その結果、要対処度を高精度に算出することが可能となる。
Alternatively, the shop apparatus 10 may determine whether or not a person who needs to be dealt with is shown in the captured image by pattern matching.
In this case, the shop apparatus 10 first stores, as models 131, a plurality of first image patterns showing a person who needs to be dealt with and a plurality of second image patterns showing a person who does not need to be dealt with. Store in section 13 . The action required degree calculation means 144 calculates the degree of similarity between the human region detected from the photographed image and each image pattern stored as the model 131 . The degree of similarity can be, for example, a normalized cross-correlation value between the person area and an image obtained by enlarging/reducing the image pattern to the same size as the person area. The handling requirement calculating means 144 calculates the handling requirement level by dividing the maximum value of similarities between the person region and each first image pattern by the maximum value of similarities between the person region and each second image pattern. Calculate as
On the other hand, in step S116 of FIG. 2 and step S205 of FIG. When the person appearing in the photographed image needs to be dealt with, the updating means 146 adds the person area in the photographed image to the first image pattern. On the other hand, if the evaluation result indicates that no action is required for the person appearing in the photographed image, the updating means 146 adds the person area in the photographed image to the second image pattern.
In this case as well, the image monitoring system can appropriately update the model 131, and as a result, can calculate the degree of action required with high accuracy.

以上のように、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, various modifications can be made within the scope of the present invention according to the embodiment.

10 店舗装置、141 手動通報手段、142 画像取得手段、143 人物検出手段、144 要対処度算出手段、145 自動通報手段、146 更新手段、147 混雑判定手段、30 監視装置、351 評価手段 10 store device, 141 manual notification means, 142 image acquisition means, 143 person detection means, 144 response level calculation means, 145 automatic notification means, 146 update means, 147 congestion determination means, 30 monitoring device, 351 evaluation means

Claims (4)

店舗を監視する店舗装置であって、
店舗内を撮影した撮影画像を取得する画像取得部と、
前記撮影画像から人物を検出する人物検出部と、
予め設定されたモデルを用いて、前記撮影画像から、前記検出された人物への対処の必要性の度合いを示す要対処度を算出する要対処度算出部と、
前記要対処度が閾値以上である場合、監視装置に自動通報を送信する自動通報部と、
店舗の店員による通報指示に従って、監視装置に手動通報を送信する手動通報部と、
前記手動通報部が前記手動通報を送信した場合、前記通報指示が実行される前の所定期間に撮影された撮影画像に基づいて前記モデルを更新する更新部と、
を有することを特徴とする店舗装置。
A store device for monitoring a store,
an image acquisition unit that acquires a photographed image of the inside of the store;
a person detection unit that detects a person from the captured image;
a handling requirement level calculation unit that calculates a handling requirement level indicating the degree of necessity of handling the detected person from the captured image using a preset model;
an automatic notification unit that transmits an automatic notification to a monitoring device when the degree of action required is equal to or greater than a threshold;
A manual report unit that transmits a manual report to a monitoring device according to a report instruction by a store clerk;
an updating unit that, when the manual notification unit transmits the manual notification, updates the model based on a captured image captured during a predetermined period before the notification instruction is executed;
A store device characterized by having:
前記自動通報部は、前記要対処度が前記閾値未満であり、且つ、前記閾値より小さい第2閾値以上である場合、店舗の店員に前記通報指示の実行を促し、
前記更新部は、前記通報指示の実行が促されて前記手動通報が送信された場合と前記通報指示の実行が促されずに前記手動通報が送信された場合とで前記モデルの更新方法を変更する、請求項1に記載の店舗装置。
The automatic notification unit prompts a store clerk to execute the notification instruction when the degree of need to be dealt with is less than the threshold and is equal to or greater than a second threshold smaller than the threshold,
The updating unit changes a method of updating the model depending on whether the manual notification is sent after prompting execution of the notification instruction or when the manual notification is sent without prompting execution of the notification instruction. The store device according to claim 1, wherein
前記更新部は、前記自動通報部が店舗の店員に前記通報指示の実行を促し且つ前記手動通報部が手動通報を送信していない場合、前記検出された人物への対処が必要でないとみなして、前記通報指示の実行が促される際に使用された撮影画像に基づいて前記モデルを更新する、請求項2に記載の店舗装置。 When the automatic notification unit urges the store clerk to execute the notification instruction and the manual notification unit does not send the manual notification, the update unit determines that it is not necessary to deal with the detected person. 3. The store apparatus according to claim 2, wherein said model is updated based on a photographed image used when execution of said notification instruction is prompted. 店舗が混雑しているか否かを判定する混雑判定部をさらに有し、
前記更新部は、前記自動通報部が店舗の店員に前記通報指示の実行を促し且つ前記手動通報部が前記手動通報を送信していない場合、前記混雑判定部が店舗が混雑していないと判定したときに限り、前記モデルを更新する、請求項3に記載の店舗装置。
It further has a congestion determination unit that determines whether the store is crowded,
The update unit determines that the store is not congested when the automatic notification unit urges the store clerk to execute the notification instruction and the manual notification unit does not send the manual notification. 4. The store apparatus according to claim 3, wherein said model is updated only when said model is updated.
JP2018211504A 2018-11-09 2018-11-09 store equipment Active JP7161920B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018211504A JP7161920B2 (en) 2018-11-09 2018-11-09 store equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018211504A JP7161920B2 (en) 2018-11-09 2018-11-09 store equipment

Publications (2)

Publication Number Publication Date
JP2020077328A JP2020077328A (en) 2020-05-21
JP7161920B2 true JP7161920B2 (en) 2022-10-27

Family

ID=70725041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018211504A Active JP7161920B2 (en) 2018-11-09 2018-11-09 store equipment

Country Status (1)

Country Link
JP (1) JP7161920B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006325164A (en) 2005-05-20 2006-11-30 Sumitomo Osaka Cement Co Ltd Monitoring device and software program
WO2015033576A1 (en) 2013-09-06 2015-03-12 日本電気株式会社 Security system, security method, and non-temporary computer-readable medium
WO2016139940A1 (en) 2015-03-02 2016-09-09 日本電気株式会社 Image processing system, image processing method, and program storage medium
WO2017057135A1 (en) 2015-09-30 2017-04-06 日本電気株式会社 Information processing device, determination device, notification system, information transmission method, and program
JP2017076171A (en) 2015-10-13 2017-04-20 日本電信電話株式会社 Shoplifting detection system, shoplifting detection method, and shoplifting detection program
JP2018033050A (en) 2016-08-25 2018-03-01 株式会社知能フレームワーク研究所 State monitoring system
JP2018073024A (en) 2016-10-27 2018-05-10 ホーチキ株式会社 Monitoring system
JP2018072881A (en) 2016-10-24 2018-05-10 ホーチキ株式会社 Fire disaster monitoring system
WO2018173478A1 (en) 2017-03-23 2018-09-27 日本電気株式会社 Learning device, learning method, and learning program
JP2018173914A (en) 2017-03-31 2018-11-08 綜合警備保障株式会社 Image processing system, imaging apparatus, learning model creation method, and information processing device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040025149A (en) * 2002-09-18 2004-03-24 에스엘투(주) Security apparatus using an image and a sound of an environmental object
US8587662B1 (en) * 2008-11-06 2013-11-19 Target Brands, Inc. Theft trend analysis and response

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006325164A (en) 2005-05-20 2006-11-30 Sumitomo Osaka Cement Co Ltd Monitoring device and software program
WO2015033576A1 (en) 2013-09-06 2015-03-12 日本電気株式会社 Security system, security method, and non-temporary computer-readable medium
WO2016139940A1 (en) 2015-03-02 2016-09-09 日本電気株式会社 Image processing system, image processing method, and program storage medium
WO2017057135A1 (en) 2015-09-30 2017-04-06 日本電気株式会社 Information processing device, determination device, notification system, information transmission method, and program
JP2017076171A (en) 2015-10-13 2017-04-20 日本電信電話株式会社 Shoplifting detection system, shoplifting detection method, and shoplifting detection program
JP2018033050A (en) 2016-08-25 2018-03-01 株式会社知能フレームワーク研究所 State monitoring system
JP2018072881A (en) 2016-10-24 2018-05-10 ホーチキ株式会社 Fire disaster monitoring system
JP2018073024A (en) 2016-10-27 2018-05-10 ホーチキ株式会社 Monitoring system
WO2018173478A1 (en) 2017-03-23 2018-09-27 日本電気株式会社 Learning device, learning method, and learning program
JP2018173914A (en) 2017-03-31 2018-11-08 綜合警備保障株式会社 Image processing system, imaging apparatus, learning model creation method, and information processing device

Also Published As

Publication number Publication date
JP2020077328A (en) 2020-05-21

Similar Documents

Publication Publication Date Title
US11710075B2 (en) Hazard recognition
JP6914699B2 (en) Information processing equipment, information processing methods and programs
JP2004021495A (en) Monitoring system and monitoring method
JP2018085597A (en) Person behavior monitoring device and person behavior monitoring system
JP7355674B2 (en) Video monitoring system and video monitoring method
CN111767888A (en) Object state detection method, computer device, storage medium, and electronic device
KR100822476B1 (en) Remote emergency monitoring system and method
CN110506277B (en) Filter reuse mechanism for constructing robust deep convolutional neural networks
CN115984967A (en) Human body falling detection method, device and system based on deep learning
JP2018151834A (en) Lost child detection apparatus and lost child detection method
JP6912890B2 (en) Information processing equipment, information processing method, system
JP7198052B2 (en) image surveillance system
JP2022003526A (en) Information processor, detection system, method for processing information, and program
JP7161920B2 (en) store equipment
JP7246166B2 (en) image surveillance system
JP7220057B2 (en) image surveillance system
JP7197334B2 (en) image surveillance system
JP7138547B2 (en) store equipment
JP2021196741A (en) Image processing device, image processing method and program
JP2020187389A (en) Mobile body locus analysis apparatus, mobile body locus analysis program, and mobile body locus analysis method
JP6905849B2 (en) Image processing system, information processing device, program
JP5743646B2 (en) Anomaly detection device
WO2022059223A1 (en) Video analyzing system and video analyzing method
WO2021241293A1 (en) Action-subject specifying system
KR101704471B1 (en) Fall detection apparatus and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7161920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150