JP2023122673A - Image processing system, image processing method, and computer program - Google Patents
Image processing system, image processing method, and computer program Download PDFInfo
- Publication number
- JP2023122673A JP2023122673A JP2022026311A JP2022026311A JP2023122673A JP 2023122673 A JP2023122673 A JP 2023122673A JP 2022026311 A JP2022026311 A JP 2022026311A JP 2022026311 A JP2022026311 A JP 2022026311A JP 2023122673 A JP2023122673 A JP 2023122673A
- Authority
- JP
- Japan
- Prior art keywords
- notification
- image
- image processing
- processing system
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 48
- 238000004590 computer program Methods 0.000 title claims description 7
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000012544 monitoring process Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 21
- 238000000034 method Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 230000006399 behavior Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、画像処理システム、画像処理方法、及びコンピュータプログラムに関する。 The present invention relates to an image processing system, an image processing method, and a computer program.
近年、小売店舗や大規模な商業店舗といった様々な施設における万引き被害が深刻化しており、万引きの被害を軽減したいという店舗側のニーズがある。このニーズに対して、監視カメラで撮影した映像をリアルタイムで解析して万引きの疑いがある不審行動を検出し、店員や警備員に代わり自動で音声による報知をすることで万引きを未然に防ぐ技術がある。 In recent years, shoplifting damage in various facilities such as retail stores and large-scale commercial stores has become serious, and there is a need on the store side to reduce the damage caused by shoplifting. In response to this need, technology to prevent shoplifting by analyzing video captured by a surveillance camera in real time, detecting suspicious behavior suspected of shoplifting, and automatically issuing voice alerts instead of store clerks and security guards. There is
不審行動を検出する技術としては、例えば特許文献1に記載の方法がある。特許文献1では、カメラで撮影した映像から得られる画像データから人物の位置、向き、視線方向といった特徴値を抽出し、それらの特徴値を分析して万引きの疑いがある人物を検出する。又、万引きの疑いがある人物を検出した場合は店舗の店員や警備員に通知し、店員や警備員が対象人物に声掛けすることで万引きを抑制する。 Techniques for detecting suspicious behavior include, for example, the method described in Patent Document 1. In Patent Document 1, feature values such as the position, orientation, and line-of-sight direction of a person are extracted from image data obtained from video captured by a camera, and those feature values are analyzed to detect a person suspected of shoplifting. When a person who is suspected of shoplifting is detected, a store clerk or security guard is notified, and the shopkeeper or security guard calls out to the target person to suppress shoplifting.
又、特許文献2には、検出された不審人物の画像内の位置に応じて、複数の報知装置のなかから、報知装置の決定を行う方法が開示されている。 Further, Patent Literature 2 discloses a method of determining a notification device from among a plurality of notification devices according to the position of a detected suspicious person in an image.
又、特許文献3では、万引きの疑いがある人物を検出した場合に店舗の店員に通知する例が開示されている。この例では店舗の店員が持つ携帯端末に検知情報を通知する。又、携帯端末で通知を受けた店員がその不審者に対する対応を完了した場合、対応完了情報を管理サーバに送信する。 Further, Patent Document 3 discloses an example of notifying a store clerk when a person suspected of shoplifting is detected. In this example, detection information is notified to a mobile terminal held by a store clerk. In addition, when the clerk who received the notification on the mobile terminal completes the response to the suspicious person, the response completion information is transmitted to the management server.
特許文献1~3のように、万引きの疑いがある人物を検出した場合、店員にその情報を通知することが一般的である。通知を受けた店員は、万引きを防ぐために対象となる不審人物に近づいて様子を見る、或いは直接声掛けをすることが求められる。一方で、店員は本来、商品の品出しやレジ対応など別の作業を行う必要があるため、不審人物の対応にかかる時間・負荷は出来るだけ小さいことが望ましい。 As in Patent Documents 1 to 3, when a person suspected of shoplifting is detected, it is common to notify the store clerk of the information. In order to prevent shoplifting, the shop clerk who has received the notification is required to approach the target suspicious person and see how he is doing, or to call out to him directly. On the other hand, it is desirable that the time and burden required to deal with the suspicious person should be as small as possible, because the store clerk is originally required to perform other tasks such as stocking products and dealing with the cash register.
そこで本発明の目的は、監視をするユーザの負荷を軽減可能な画像処理システムを提供することである。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an image processing system capable of reducing the burden on a monitoring user.
本発明の画像処理システムは、
画像を取得する画像取得手段と、
前記画像を表示する表示制御手段と、
前記画像における、対象物を指定する対象物指定手段と、
複数の報知手段の中から一部の報知手段を選択する選択手段と、
前記対象物の位置を示すマークを前記対象物の前記画像に重畳して表示させると共に、前記一部の報知手段によって報知を行わせる制御手段と、
前記報知を行うのに伴い、前記画像と、前記マーク又は前記対象物の情報と、前記一部の報知手段の情報を記憶する記憶手段と、を備えることを特徴とする。
The image processing system of the present invention is
an image acquisition means for acquiring an image;
display control means for displaying the image;
an object designation means for designating an object in the image;
A selection means for selecting a part of notification means from among a plurality of notification means;
a control means for superimposing and displaying a mark indicating the position of the object on the image of the object, and for performing notification by the part of the notification means;
It is characterized by comprising storage means for storing the image, the information of the mark or the object, and the information of the part of the notification means in accordance with the notification.
本発明によれば、監視をするユーザの負荷を軽減可能な画像処理システムを実現することができる。 According to the present invention, it is possible to realize an image processing system that can reduce the burden on a monitoring user.
以下、図面を参照して本発明の実施形態を、実施例を用いて説明する。ただし、本発明は以下の実施形態に限定されるものではない。なお、各図において、同一の部材または要素については同一の参照番号を付し、重複する説明は省略または簡略化する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described using examples with reference to the drawings. However, the present invention is not limited to the following embodiments. In each figure, the same members or elements are denoted by the same reference numerals, and overlapping descriptions are omitted or simplified.
(実施例1)
実施例1においては、ユーザにより指定された対象人物を特定するための枠等のマークを画像に重畳(付加)して記録する。尚、以下の実施例の説明では、指定された対象人物を特定するためのマークとして枠の例を説明するが、実施例におけるマークは枠に限定されず、例えばカーソルのようなものであっても良い。
(Example 1)
In the first embodiment, a mark such as a frame for specifying a target person specified by the user is superimposed (added) on the image and recorded. In the following description of the embodiments, an example of a frame will be described as a mark for specifying a designated target person. Also good.
図1は、実施例1に係る画像処理装置のハードウェア構成例を示すブロック図である。画像処理装置100は、コンピュータとしてのCPU101、記憶媒体としてのROM102やRAM103、HDD104、通信部105、入力装置106及び表示装置107等を有する。
FIG. 1 is a block diagram illustrating a hardware configuration example of an image processing apparatus according to the first embodiment. The
通信部105は有線又は無線のネットワーク108に接続されており画像処理装置の外部のサーバ等と双方向通信が可能である。CPU101は、ROM102に記録されたコンピュータプログラムを読みだして各種処理を実行する。RAM103は主メモリやワークエリア等の一時記憶領域として用いられる。HDD(Hard Disk Drive)104は、画像データの保存等に用いる。
A
尚、CPU101は、ネットワーク108を介して例えば監視カメラ等の映像取得装置から画像データを取得することができる。又、外部のサーバに保存された画像データをダウンロードすることで画像データの取得を行うこともできる。又、HDD104に保存された画像データを読出すことで画像データを取得することもできる。
Note that the
表示装置107は、画像データや不審人物検出の結果を表示する液晶ディスプレイ等の表示用デバイスである。入力装置106はキーボードやマウス、タッチパネルなど、画像データの選択や、画像データ上の音源位置の設定や、各種指示などをユーザが手動で入力するためのデバイスを含む。尚、図1に示される夫々のハードウェアは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成しても良い。
The
以上のように、画像処理装置100のハードウェア構成は、パーソナルコンピュータ(PC)に搭載されているハードウェア構成と同様のハードウェア構成要素を有している。そのため、画像処理装置100で実現される各種機能は、PC上で動作するソフトウエアとして実装することが可能である。画像処理装置100は、CPU101がプログラムを実行することにより、図2に示されるような画像処理装置100の種々の機能や後述の図8のフローチャートに示される処理を実現することができる。
As described above, the hardware configuration of the
図2は、実施例1に係る画像処理システムの機能ブロック図である。尚、図2に示される機能ブロックの一部は、画像処理装置100に含まれるコンピュータとしてのCPU101に、記憶媒体としての例えばROM102等のメモリに記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
FIG. 2 is a functional block diagram of the image processing system according to the first embodiment. Some of the functional blocks shown in FIG. 2 are realized by causing the
又、図2に示される夫々の機能ブロックをハードウェアで実現する場合には、夫々のハードウェアは同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置として構成しても良い。 Also, when implementing the respective functional blocks shown in FIG. 2 by hardware, the respective hardware need not be built in the same housing, but separate devices connected to each other via signal paths. It may be configured as
画像処理装置100は、画像取得部202、表示部203、設定部204、操作入力部205、ユーザ入力受付部206、報知指示部207、記憶部208等を有する。又、画像処理装置100は、監視カメラなどの映像取得装置201及び報知装置209と、インターネットなどのネットワーク108を介して接続される。尚、映像取得装置201の数及び報知装置209の数は図2の例に限定されない。
The
次に各部について説明する。画像取得部202は、画像を取得する画像取得手段として機能しており、映像取得装置201から送られる映像から得られる画像データを取得するための画像取得ステップを実行する。ここで、映像とはAVIファイル、MOVファイル等の画像フォーマットの映像ファイルでも良いし、webカメラからで送られてくるようなリアルタイム映像でも良い。又、その種類は1つでも複数でも良い。映像取得装置201は、例えば図3に示されるように複数の監視カメラ303、304、305等を含む。
Next, each part will be explained. The
図3は、実施例1の画像処理装置100を用いて監視する店舗のレイアウト例を示す模式図である。店舗300には、バックヤードに設置された端末301とバックヤードで作業中の店員302がいる。画像取得手段としての複数の監視カメラ303、304、305と、複数の報知装置402~404と、商品棚405~409が配置されている。ここで報知装置は報知手段として機能しており、例えばスピーカなどを含む。又、バックヤードは店舗から離れた場所に設けられていても良い。尚、端末301には、実施例の画像処理装置100が含まれているものとする。
FIG. 3 is a schematic diagram showing a layout example of a store monitored using the
設定部204は、表示部203が表示する画像データ上の人体サイズを指定する。指定する方法は、数値入力をユーザから受け付けることによる座標の指定でも良いし、UIを用いた座標の指定をユーザから受け付けても良い。尚、表示部203は、画像を表示する表示制御ステップを行うための表示制御手段として機能している。
A
図4は、実施例1に係る画像処理装置100の表示装置107に表示される画面例を示す図であり、人体サイズアイコン422、423を用いて画像データ上の人体サイズを設定する例を示す図である。図4において、400は、画像処理装置100の表示装置107に表示される画面を示し、画像取得部202が取得した画像401を含む。
FIG. 4 is a diagram showing an example of a screen displayed on the
ユーザは、画像401内に含まれる人体の大きさに合わせて人体サイズアイコンを拡大縮小することで、奥行情報を考慮して、人体サイズの最大値と最小値を設定する。人体サイズアイコン422は、画像データ内で最も小さく映る人体に合わせてサイズを指定する。人体サイズアイコン423は、画像データ内で最も大きく映る人体に合わせてサイズを指定する。
The user scales the human body size icon according to the size of the human body included in the
操作入力部205は、入力装置106を用いてユーザ操作を入力するためのブロックである。本実施例では、設定部204やユーザ入力受付部206において、操作入力部205の操作結果が用いられる。
ユーザ入力受付部206は、操作入力部205でユーザが画像データ上の報知対象を選択したことを受け付ける。又、ユーザが選択した報知対象の人物を特定するための枠データを生成し、表示部203に表示される画像データに重畳する。
The
A user
報知指示部207は、ユーザ入力受付部206における報知対象の選択に基づき報知装置209へ報知指示を行う。
記憶部208は、ユーザ入力受付部206から出力される、枠等のマークが重畳された画像データを保存する。尚、実施例における重畳とは、例えば枠等のマークを画像に対して合成するものに限らず、枠等のマークの座標等の情報をメタデータとして画像ファイルに付加するものなどを含む。
The
The
図5は、実施例1における、画像処理装置が、報知装置を決定する処理の流れを示すフローチャートである。尚、コンピュータとしてのCPU101が例えばROM102等のメモリに記憶されたコンピュータプログラムを実行することによって図5のフローチャートの各ステップの動作が行われる。
FIG. 5 is a flowchart showing the flow of processing for determining a notification device by the image processing device according to the first embodiment. The
ステップS501で、ユーザが入力装置106を用いて、画像データ上に映る人物に合わせて人体サイズアイコン422、423を拡大縮小することで、人体サイズを指定する。すると、設定部204により、画像データ上に映る人体の最大値、最小値が設定される。
In step S501, the user uses the
次に、ステップS502で、ユーザが入力装置106を用いて、画像内の人物から報知対象となる人物を選択する。ここで、ステップS502は、画像における、対象物を指定する対象物指定ステップ(対象物指定手段)として機能している。
図6は、ユーザ操作により、対象人物を選択する例を示す図である。図6において、画像401は、人物603を含み、ユーザ操作602は、タッチパネルに指をタッチして、人物603を選択していることを示す。その後、報知対象の選択に応じてステップS503とステップS505を並行して実行する。
Next, in step S502, the user uses the
FIG. 6 is a diagram showing an example of selecting a target person by user operation. In FIG. 6, an
ステップS503で、設定部204に設定された人体サイズから、報知対象としての人物を特定するための枠のサイズを決定する。
図7は、ステップS501で設定された人体サイズとユーザの入力座標から画像データに重畳する枠のサイズを決定する例を示す図である。図7において、補助線701は、人体サイズアイコン422、423から、ユーザの入力座標における枠のサイズを決定する処理を表している。即ち、マークとしての枠のサイズを対象物の位置に応じて変更している。
In step S<b>503 , the size of the frame for specifying the person as the notification target is determined from the human body size set in the
FIG. 7 is a diagram showing an example of determining the size of the frame superimposed on the image data from the human body size set in step S501 and the user's input coordinates. In FIG. 7, an auxiliary line 701 represents processing for determining the size of the frame at the coordinates input by the user from the human body size icons 422 and 423 . That is, the size of the frame as the mark is changed according to the position of the object.
人体サイズアイコン422、423に外接する枠の画像401のY軸(図7の画面400の上下方向の軸)方向に沿った人体サイズの変化から、ユーザがタッチした画面400のY軸座標に基づき枠のサイズを推定する。枠702はユーザ操作602によって、タッチされたY軸座標に基づき、人体サイズアイコン422、423から推定された、報知対象の人物603を特定するための枠を示す。尚、枠の形状や大きさを決定する方法は上記の方法に限定されない。例えば人物603を画像認識してその大きさに合わせ枠の大きさを決定しても良い。
Based on the change in the human body size along the Y-axis (vertical axis of the
そして、ステップS504で、記憶部208は、ステップS503で決定した枠702を画像データに重畳して画像データを保存する。ここで、ステップS504は、報知を行うのに伴い、画像と、マーク(枠)又は対象物の位置情報と、一部の報知装置の情報を記憶する記憶ステップ(記憶手段)として機能している。
図8は、実施例1において、枠702を画像データ上に重畳した画像800を保存する例を示す図である。
Then, in step S504, the
FIG. 8 is a diagram illustrating an example of saving an image 800 in which a
一方、ステップS505において、ステップS502で選択された報知対象の人物に対して、その人物に近い位置の報知装置209を用いて報知指示を行う。ここで、ステップS504、ステップS505等は、対象物の位置を示すマーク(枠)を対象物の画像に重畳して表示させると共に、一部の報知手段によって報知を行わせる制御ステップ(制御手段)として機能している。
On the other hand, in step S505, a notification instruction is given to the person selected in step S502 as a notification target using the
尚、図5のフローにおいてステップS505は、ステップS503、ステップS504と並列に実行されるようになっているが、ステップS505の処理を、例えばステップS504の次に行っても良い。 In the flow of FIG. 5, step S505 is executed in parallel with steps S503 and S504, but step S505 may be executed after step S504, for example.
次にステップS506で、システムが終了したか否かを判別し、NoであればステップS502に戻り、ステップS502~ステップS506の処理を繰り返す。ステップS506でYesと判別された場合には、図5のフローを終了する。
このように実施例1によれば、画像処理装置100は、ユーザが選択した人物に対してその人物を特定するための枠を付加して保存することができると共に、その人物に対して報知を行うことができる。
Next, in step S506, it is determined whether or not the system has ended. If Yes in step S506, the flow of FIG. 5 ends.
As described above, according to the first embodiment, the
尚、実施例1では枠等のマークを画像に重畳して保存しているが、枠の代わりに枠の座標又は選択された人物の座標を画像ファイルにメタデータとして付加して保存しても良い。前述のように、本実施例における重畳とは、画像合成だけでなく、例えばメタデータとして付加して保存するものを含む。 In the first embodiment, a mark such as a frame is superimposed on the image and saved. However, instead of the frame, the coordinates of the frame or the coordinates of the selected person may be added to the image file as metadata and saved. good. As described above, superimposition in the present embodiment includes not only image synthesis but also adding and saving as metadata, for example.
(実施例2)
実施例1では、図8の画像データ800には、報知対象の人物を特定するための枠を重畳して保存している。一方、報知装置209は、図3で示すように店舗300に複数台設置されている場合がある。そこで、実施例2では、ユーザ操作により報知対象の人物が選択された場合に、複数の報知装置の中から、対象の人物へ報知を行うための報知装置を選択する。そして、選択された報知装置に関する情報も画像データに重畳して保存する。
(Example 2)
In the first embodiment, the image data 800 in FIG. 8 is stored with a frame for identifying the person to be notified superimposed. On the other hand, as shown in FIG. 3, a plurality of
実施例2において、設定部204は、表示部203が表示する画像データ上の報知装置毎の座標を予め設定する。設定する方法は、画面内における報知装置の座標をユーザが数値入力しても良いし、画面上のUIを用いて報知装置のアイコンを画面上の所定の位置(設置位置)にドラッグアンドドロップすることで、その報知装置の設置位置の座標を設定するようにしても良い。
In the second embodiment, the
図9は、画像中の報知装置の設定の例を示す図であり、設定画面400は、画像取得部202が取得した画像401と、報知装置リスト908を含む。尚、画像401は店舗300の一部のレイアウトが拡大表示されている。
報知装置リスト908には、ユーザによって予め登録された、店舗300に設置されている複数の報知装置402~404がSP1~SP3として夫々表示されている。
FIG. 9 is a diagram showing an example of settings for notification devices in an image. A
In the
実施例2では、画像データ上に含まれる商品棚406に報知装置402、商品棚407に報知装置403が設置されているものとし、画像データ上の対応する位置に報知装置アイコン4021、4031を配置し、座標を設定する。複数の報知装置の座標を設定する場合は、各報知装置アイコンの横にSP1、SP2などのタグを表示しても良い。
In the second embodiment, it is assumed that the notification device 402 is installed on the
尚、実施例2では、複数の報知装置の中から、対象となる人物に対して報知を行う報知装置を少なくとも1つ選択するために、ユーザが画面上で指定した人物の座標と、複数の報知装置の座標に基づき、指定された人物に相対的に近い座標の報知装置を選ぶ。 In addition, in the second embodiment, in order to select at least one notification device that notifies a target person from among a plurality of notification devices, the coordinates of the person specified on the screen by the user and a plurality of Based on the coordinates of the notification device, the notification device with coordinates relatively close to the designated person is selected.
即ち、報知指示部207は、ユーザが選択した人物の位置(座標)と、予め登録された報知装置402、403等の位置(座標)に基づき、選択された人物の座標と各報知装置までの距離を夫々算出する。そして、選択された人物の座標から最も近い、或いは相対的に近い一部の報知装置を、対象人物に報知を行うための報知装置として選択する。ここで、報知指示部207は、複数の報知手段の中から一部の報知手段を選択する選択ステップを実行する選択手段として機能している。
That is, based on the position (coordinates) of the person selected by the user and the positions (coordinates) of the pre-registered notification devices 402, 403, etc., the
更に報知装置位置と、対象物の位置との間に遮蔽物が存在するか否かを判別し、その判別の結果に応じて、複数の報知装置の中の一部の報知装置を選択しても良い。
即ち、報知指示部207は、設定部204で予め設定された複数の報知装置の座標と、ユーザ操作により指定された人物の座標の他に、その間に存在する遮蔽物の座標に基づき、遮蔽物の影響を考慮した報知装置とその人物の距離を算定しても良い。
Furthermore, it is determined whether or not there is a shield between the position of the notification device and the position of the object, and depending on the result of the determination, a part of the notification devices is selected from among the plurality of notification devices. Also good.
That is, the
そして、報知装置402、403等の中から、蔽物の影響を考慮した報知装置と指定した人物の距離が相対的に短い少なくとも1つの報知装置を、報知用の報知装置として選択しても良い。尚、遮蔽物の座標は予めユーザ等が登録しておいても良い。 Then, from among the notification devices 402, 403, etc., at least one notification device in which the distance between the notification device considering the influence of the shield and the designated person is relatively short may be selected as the notification device for notification. . Note that the coordinates of the shielding object may be registered in advance by the user or the like.
具体的には、例えば指定した人物の座標と報知装置とを結ぶ直線の間に遮蔽物が存在する場合には、その直線方向の遮蔽物の厚さに応じた係数を距離情報に乗ずる。例えば2点を結ぶ直線方向の遮蔽物の厚さが0mの場合には2点間の距離に乗じる係数を1、0.5mの場合には、2点間の距離に乗じる係数を1.5、厚さが1mの場合には係数を3とするなど、前記の厚さが大きい程、係数を大きくすれば良い。 Specifically, for example, when a shield exists between a straight line connecting the coordinates of the designated person and the notification device, the distance information is multiplied by a coefficient corresponding to the thickness of the shield in the straight line direction. For example, if the thickness of the shield in the straight line connecting the two points is 0m, the coefficient for multiplying the distance between the two points is 1, and if it is 0.5m, the coefficient for multiplying the distance between the two points is 1.5. For example, when the thickness is 1 m, the coefficient is set to 3. The greater the thickness, the larger the coefficient.
そして各報知装置と人物の座標の距離に対して、遮蔽物の厚みに応じた係数を乗ずることによって重み付けをしたうえで、複数の報知装置と人物の座標の距離を比較し、相対的に近い報知装置を決定すれば良い。即ち、報知装置位置と、対象位置との間に存在する遮蔽物の厚さに応じて、複数の報知装置の中の一部の報知装置を選択すれば良い。 Then, after weighting the coordinate distance between each notification device and the person by multiplying it by a coefficient according to the thickness of the obstructing object, the coordinate distances between multiple notification devices and the person are compared to determine which is relatively close. All that is necessary is to determine the notification device. That is, it is only necessary to select a part of the notification devices among the plurality of notification devices according to the thickness of the shield existing between the position of the notification device and the target position.
尚、上記においては2次元マップにおける報知装置と人物の距離について説明したが、3次元マップにおける報知装置と人物の距離を計算することが望ましい。その場合人物の耳の高さを例えば1.5mなどに設定し、遮蔽物の高さも3次元マップに登録しておく。そしてその3次元マップにおける報知装置の座標と人物の耳の高さの座標の間の直線における遮蔽物の厚さを求めて、その厚さに応じた係数を距離に乗じれば良い。 Although the distance between the notification device and the person on the two-dimensional map has been described above, it is desirable to calculate the distance between the notification device and the person on the three-dimensional map. In that case, the height of the person's ears is set to, for example, 1.5 m, and the height of the shield is also registered in the three-dimensional map. Then, the thickness of the shield on a straight line between the coordinates of the notification device and the coordinates of the person's ear height on the three-dimensional map is obtained, and the distance is multiplied by a coefficient corresponding to the thickness.
尚、本実施例における遮蔽物は報知装置と対象物の間を3次元空間において、遮るような位置関係にあるものを指す。例えば報知装置が天井に配置され、商品棚などよりも十分に高い位置にあれば、対象物と報知装置との間を遮らない場合もある。或いは商品棚等が例えば対象物の耳の高さよりも低い位置にある場合も同様である。そのような場合にはそれらの商品棚等は3次元マップにおいては遮蔽物にはならないので、実施例における距離や遮蔽物の厚さ等は3次元マップにおいて計算することが望ましい。尚、報知装置を選択する方法は上記の方法に限定されない。 In addition, the shielding object in this embodiment refers to an object having a positional relationship such as blocking in the three-dimensional space between the notification device and the target object. For example, if the notification device is installed on the ceiling and positioned sufficiently higher than the product shelf, it may not block the distance between the object and the notification device. Alternatively, the same applies when the product shelf or the like is located at a position lower than the height of the ear of the object. In such a case, those product shelves do not become shields in the three-dimensional map, so it is desirable to calculate the distance, the thickness of the shields, etc. in the embodiment in the three-dimensional map. Note that the method of selecting the notification device is not limited to the above method.
尚、報知装置毎に所定以上の面積を有する報知エリアを設定し、ユーザ操作で指定された人物の座標情報がいずれの報知エリアに含まれるかに応じて、その報知エリアに紐づけられた報知装置から報知を行っても良い。即ち、複数の報知手段の位置に基づき夫々設定された複数領域と、対象物の位置の関係に基づき、対象物の位置が含まれる領域に対応する一部の報知装置を選択するようにしても良い。 In addition, a notification area having a predetermined area or more is set for each notification device, and depending on which notification area contains the coordinate information of the person specified by the user operation, notification linked to the notification area Notification may be made from the device. That is, based on the relationship between a plurality of areas respectively set based on the positions of the plurality of notification means and the position of the object, some of the notification devices corresponding to the area containing the position of the object may be selected. good.
図10は、実施例2において、保存される画像データの例を説明するための図であり、報知対象の人物を特定する枠702に加えて、報知のために選択した報知装置の座標情報を示す報知装置アイコン4021を重畳した画像データを保存する。
即ち、画像401には、枠702に加えて、報知のために選択した報知装置を示す報知装置アイコン4021が重畳されて保存される。
FIG. 10 is a diagram for explaining an example of image data stored in the second embodiment. In addition to a
That is, on the
このように、実施例2では、報知のために選択した報知装置の情報を重畳し保存することで、対象の人物へ報知した報知装置や報知内容等の確認が容易になる。尚、報知のために選択した報知装置の情報としては、上述のようなアイコンの代わりにその報知装置のID(識別情報)や選択した報知装置の位置情報や報知装置の音源に関する情などであっても良い。 As described above, in the second embodiment, by superimposing and saving the information of the notification device selected for notification, it becomes easy to confirm the notification device that notified the target person, the content of the notification, and the like. The information of the notification device selected for notification may be ID (identification information) of the notification device, position information of the selected notification device, information on the sound source of the notification device, etc. instead of the icon as described above. can be
(実施例3)
実施例3では、各報知装置について、報知対象の人物へ報知するための音源等を複数用意する。そして、ユーザ操作により選択された人物の枠(の座標又は人物の座標)に関する情報と、報知を行うために選択された報知装置に関する情報として、その報知装置によって報知した内容も画像データに付加して保存する。
(Example 3)
In the third embodiment, for each notification device, a plurality of sound sources and the like are prepared for notifying a person to be notified. Then, as information on the frame of the person selected by the user operation (coordinates of the person or the coordinates of the person) and information on the notification device selected for notification, the content notified by the notification device is also added to the image data. to save.
又、実施例3においては、報知装置402には、報知を行う際に使用可能な音源A、音源B、音源C、が登録され、報知装置403には、音源D、音源E、音源F、が登録され、選択可能となっている。 In the third embodiment, the notification device 402 registers sound sources A, B, and C that can be used for notification, and the notification device 403 registers sound sources D, E, F, is registered and selectable.
図11は、実施例3における、報知装置に登録された複数の音源から音源を選択する例を示す図である。図11では、ユーザ操作602により、対象の人物へ報知をする報知装置402が選択された状態において、報知のための音源を選択するための、選択アイコン1101が表示されている。選択アイコン1101はタッチパネルであれば、フリック入力などによって選択可能である。尚、報知装置が使用可能な音源の表示方法や、音源の選択方法はこれに限定されない。
FIG. 11 is a diagram showing an example of selecting a sound source from a plurality of sound sources registered in the notification device according to the third embodiment. In FIG. 11, a
尚、図11においては、報知をするための報知装置402を選択した後で、画面内の人物603の位置をタッチすることによって選択アイコン1101が複数表示され、所望の選択アイコン1101の上で指を離すことによってその音源が選択される。しかし、例えば報知装置402に対応した報知装置アイコン4021にタッチすることによって選択アイコン1101が複数表示されるようにし、所望の選択アイコン1101の上で指を離すことによってその音源が選択されるようにしても良い。
In FIG. 11, after selecting the notification device 402 for notification, a plurality of
図12は、実施例3において、保存される画像データの例を説明するための図であり、報知対象の人物を特定する枠702、報知のために選択された報知装置の座標情報を示す報知装置アイコン4021に加えて、報知した音声の内容を重畳した例を示している。
即ち、画像401には、枠702、報知装置アイコン4021に加えて、音源情報(報知した内容等)を示すアイコン1201が重畳されており、実施例3では、このような画像401が保存される。
FIG. 12 is a diagram for explaining an example of image data to be saved in the third embodiment, and includes a
That is, in addition to the
尚、本実施例における報知装置の音源情報は、音の種類(例えば男性の声や女性の声や音のピッチなど)に限定されず、例えば報知音のパターン(ビープ音やチャイムなどの音のパターン)の種類、報知内容(メッセージの種類)、音量や報知回数などを含む。即ち、音源に関する情報は、音の種類、音のパターン、報知内容、音量、報知回数の少なくとも1つを含む。又、音源情報はそれらの種類に関する識別情報であっても良いし、音声自体であっても良い。 Note that the sound source information of the notification device in this embodiment is not limited to the type of sound (for example, male voice, female voice, pitch of sound, etc.). pattern), content of notification (type of message), sound volume, number of times of notification, and the like. That is, the information about the sound source includes at least one of the type of sound, pattern of sound, content of notification, volume, and number of times of notification. Also, the sound source information may be identification information relating to the types of the sounds, or may be the sound itself.
以上のように、実施例3によれば、報知装置の情報として、報知装置により報知した内容などの音源情報を画像に重畳し保存することで、対象の人物へどのような報知がなされたか報知内容の確認が容易になる。
尚、前述のように、実施例3等においても、重畳とは、画像合成による重畳に限定されず、メタデータなどとして画像に重畳或いは付加されるものを含む。
As described above, according to the third embodiment, by superimposing sound source information such as the content notified by the notification device on an image and storing it as information of the notification device, it is possible to notify what kind of notification was made to the target person. Confirmation of contents becomes easy.
As described above, superimposition is not limited to superimposition by image synthesis in the third embodiment and the like, and includes superimposition or addition to an image as metadata or the like.
尚、以上の実施例においては複数の報知装置の中から1つの報知装置を選択しているが、1つに限定されない。例えば複数の報知装置の中の対象物に対して相対的に近い2つ以上の報知装置を選択するようにしても良い。即ち、複数の報知装置の中の一部の報知装置を選択すれば良い。又、複数の報知装置の中の一部の報知装置を選択する場合、それ以外の報知装置を完全にオフにする必要はなく、音量を相対的に下げるようにするだけでも良い。 Although one notification device is selected from a plurality of notification devices in the above embodiment, the number of notification devices is not limited to one. For example, two or more notification devices relatively close to the object may be selected from a plurality of notification devices. That is, it is sufficient to select a part of the notification devices among the plurality of notification devices. Also, when selecting a part of the notification devices out of a plurality of notification devices, it is not necessary to completely turn off the other notification devices, and it is only necessary to relatively lower the volume.
尚、上記の実施例では、対象物として不審人物などをユーザが画面上で指定する例を説明したが、対象物は人間でなくても例えば動物などでも良い。即ち、上記の実施例の構成を、例えば家畜などの行動を監視したり誘導したりするシステムに適用しても良い。 In the above embodiment, an example in which the user designates a suspicious person or the like as a target object on the screen has been described, but the target object may be, for example, an animal instead of a human being. That is, the configuration of the above embodiment may be applied to a system that monitors or guides the behavior of domestic animals, for example.
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
尚、本実施例における制御の一部又は全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理装置等に供給するようにしてもよい。そしてその画像処理装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
Although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to the above embodiments, and various modifications are possible based on the gist of the present invention. They are not excluded from the scope of the invention.
It should be noted that a computer program that implements the functions of the above-described embodiments for part or all of the control in this embodiment may be supplied to an image processing apparatus or the like via a network or various storage media. A computer (or CPU, MPU, etc.) in the image processing apparatus or the like may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.
100 画像処理装置
201 映像取得装置
204 設定部
207 報知指示部
100
Claims (13)
前記画像を表示する表示制御手段と、
前記画像における、対象物を指定する対象物指定手段と、
複数の報知手段の中から一部の報知手段を選択する選択手段と、
前記対象物の位置を示すマークを前記対象物の前記画像に重畳して表示させると共に、前記一部の報知手段によって報知を行わせる制御手段と、
前記報知を行うのに伴い、前記画像と、前記マーク又は前記対象物の情報と、前記一部の報知手段の情報を記憶する記憶手段と、を備えることを特徴とする画像処理システム。 an image acquisition means for acquiring an image;
display control means for displaying the image;
an object designation means for designating an object in the image;
A selection means for selecting a part of notification means from among a plurality of notification means;
a control means for superimposing and displaying a mark indicating the position of the object on the image of the object, and for performing notification by the part of the notification means;
An image processing system, comprising: storage means for storing the image, the information of the mark or the object, and the information of the part of the notification means in accordance with the notification.
前記マークのサイズを前記対象物の位置に応じて変更することを特徴とする請求項1に記載の画像処理システム。 The control means is
2. The image processing system according to claim 1, wherein the size of said mark is changed according to the position of said object.
前記画像を表示する表示制御ステップと、
前記画像における、対象物を指定する対象物指定ステップと、
複数の報知装置の中から一部の報知装置を選択する選択ステップと、
前記対象物の位置を示すマークを前記対象物の前記画像に重畳して表示させると共に、前記所定の報知装置によって報知を行わせる制御ステップと、
前記報知を行うのに伴い、前記画像と、前記マーク又は前記対象物の情報と、前記一部の報知装置の情報を記憶する記憶ステップと、を備えることを特徴とする画像処理方法。 an image acquisition step of acquiring an image;
a display control step of displaying the image;
an object designation step of designating an object in the image;
A selection step of selecting a part of the notification devices from among the plurality of notification devices;
a control step of superimposing and displaying a mark indicating the position of the object on the image of the object, and causing the predetermined notification device to perform notification;
An image processing method, comprising: a storage step of storing the image, the information of the mark or the object, and the information of the part of the informing devices in association with the informing.
A computer program for controlling each means of the image processing system according to any one of claims 1 to 11 by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022026311A JP2023122673A (en) | 2022-02-24 | 2022-02-24 | Image processing system, image processing method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022026311A JP2023122673A (en) | 2022-02-24 | 2022-02-24 | Image processing system, image processing method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023122673A true JP2023122673A (en) | 2023-09-05 |
Family
ID=87885715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022026311A Pending JP2023122673A (en) | 2022-02-24 | 2022-02-24 | Image processing system, image processing method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023122673A (en) |
-
2022
- 2022-02-24 JP JP2022026311A patent/JP2023122673A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6171374B2 (en) | Information processing apparatus, information processing method, program, and information processing system | |
JP6332833B2 (en) | Image processing system, image processing method, and program | |
US20200175298A1 (en) | Mobile surveillance apparatus, program, and control method | |
US9298987B2 (en) | Information processing apparatus, information processing method, program, and information processing system | |
CN105373331A (en) | Information processing apparatus and display control method | |
JP5555044B2 (en) | Camera control device and camera system | |
JPWO2018163547A1 (en) | Product monitoring device, product monitoring system, output destination device, product monitoring method, display method, and program | |
JP2021072475A (en) | Monitoring system and monitoring system setting program | |
JP6602067B2 (en) | Display control apparatus, display control method, and program | |
EP2538354A1 (en) | Terminal and method for displaying data thereof | |
JP6817792B2 (en) | Information processing equipment, control methods and programs | |
JP2015130105A (en) | Operator monitoring control device and operator monitoring control method | |
JP2014174507A (en) | Augmented reality display device, information terminal, multi display system, and program | |
JP6268497B2 (en) | Security system and person image display method | |
JP2023122673A (en) | Image processing system, image processing method, and computer program | |
JP2009176131A (en) | Client terminal monitoring system | |
JP2013247461A (en) | Camera control device and camera control method | |
JP2021072474A (en) | Server device and alarm check image generation method | |
JP2023122463A (en) | Image processing device, image processing method, and computer program | |
JP2017168885A (en) | Imaging control device and camera | |
JP7120337B2 (en) | Control method, program and system | |
US11009991B2 (en) | Display control apparatus and control method for the display control apparatus | |
JP2022080161A (en) | Image processing device, control method of image processing device, and program | |
US20230252753A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP3263008B2 (en) | Disaster prevention display device |