JP2023122673A - Image processing system, image processing method, and computer program - Google Patents

Image processing system, image processing method, and computer program Download PDF

Info

Publication number
JP2023122673A
JP2023122673A JP2022026311A JP2022026311A JP2023122673A JP 2023122673 A JP2023122673 A JP 2023122673A JP 2022026311 A JP2022026311 A JP 2022026311A JP 2022026311 A JP2022026311 A JP 2022026311A JP 2023122673 A JP2023122673 A JP 2023122673A
Authority
JP
Japan
Prior art keywords
notification
image
image processing
processing system
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022026311A
Other languages
Japanese (ja)
Inventor
祐也 渡辺
Yuya Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022026311A priority Critical patent/JP2023122673A/en
Publication of JP2023122673A publication Critical patent/JP2023122673A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To achieve an image processing system that can reduce a burden on a user who performs monitoring.SOLUTION: An image processing system comprises: image acquisition means that acquires an image; display control means that displays the image; object designation means that designates an object in the image; selection means that selects some notification means from a plurality of notification means; control means that displays a mark indicating the position of the object superimposed on the object in the image, and causes some of the notification means to perform notification; and storage means that, in association with performing the notification, stores the image, information on the mark or the object, and information on some of the notification means.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理システム、画像処理方法、及びコンピュータプログラムに関する。 The present invention relates to an image processing system, an image processing method, and a computer program.

近年、小売店舗や大規模な商業店舗といった様々な施設における万引き被害が深刻化しており、万引きの被害を軽減したいという店舗側のニーズがある。このニーズに対して、監視カメラで撮影した映像をリアルタイムで解析して万引きの疑いがある不審行動を検出し、店員や警備員に代わり自動で音声による報知をすることで万引きを未然に防ぐ技術がある。 In recent years, shoplifting damage in various facilities such as retail stores and large-scale commercial stores has become serious, and there is a need on the store side to reduce the damage caused by shoplifting. In response to this need, technology to prevent shoplifting by analyzing video captured by a surveillance camera in real time, detecting suspicious behavior suspected of shoplifting, and automatically issuing voice alerts instead of store clerks and security guards. There is

不審行動を検出する技術としては、例えば特許文献1に記載の方法がある。特許文献1では、カメラで撮影した映像から得られる画像データから人物の位置、向き、視線方向といった特徴値を抽出し、それらの特徴値を分析して万引きの疑いがある人物を検出する。又、万引きの疑いがある人物を検出した場合は店舗の店員や警備員に通知し、店員や警備員が対象人物に声掛けすることで万引きを抑制する。 Techniques for detecting suspicious behavior include, for example, the method described in Patent Document 1. In Patent Document 1, feature values such as the position, orientation, and line-of-sight direction of a person are extracted from image data obtained from video captured by a camera, and those feature values are analyzed to detect a person suspected of shoplifting. When a person who is suspected of shoplifting is detected, a store clerk or security guard is notified, and the shopkeeper or security guard calls out to the target person to suppress shoplifting.

又、特許文献2には、検出された不審人物の画像内の位置に応じて、複数の報知装置のなかから、報知装置の決定を行う方法が開示されている。 Further, Patent Literature 2 discloses a method of determining a notification device from among a plurality of notification devices according to the position of a detected suspicious person in an image.

又、特許文献3では、万引きの疑いがある人物を検出した場合に店舗の店員に通知する例が開示されている。この例では店舗の店員が持つ携帯端末に検知情報を通知する。又、携帯端末で通知を受けた店員がその不審者に対する対応を完了した場合、対応完了情報を管理サーバに送信する。 Further, Patent Document 3 discloses an example of notifying a store clerk when a person suspected of shoplifting is detected. In this example, detection information is notified to a mobile terminal held by a store clerk. In addition, when the clerk who received the notification on the mobile terminal completes the response to the suspicious person, the response completion information is transmitted to the management server.

特開2017-076171号公報JP 2017-076171 A 特開2020-140520号公報Japanese Patent Application Laid-Open No. 2020-140520 特開2015-187869号公報JP 2015-187869 A

特許文献1~3のように、万引きの疑いがある人物を検出した場合、店員にその情報を通知することが一般的である。通知を受けた店員は、万引きを防ぐために対象となる不審人物に近づいて様子を見る、或いは直接声掛けをすることが求められる。一方で、店員は本来、商品の品出しやレジ対応など別の作業を行う必要があるため、不審人物の対応にかかる時間・負荷は出来るだけ小さいことが望ましい。 As in Patent Documents 1 to 3, when a person suspected of shoplifting is detected, it is common to notify the store clerk of the information. In order to prevent shoplifting, the shop clerk who has received the notification is required to approach the target suspicious person and see how he is doing, or to call out to him directly. On the other hand, it is desirable that the time and burden required to deal with the suspicious person should be as small as possible, because the store clerk is originally required to perform other tasks such as stocking products and dealing with the cash register.

そこで本発明の目的は、監視をするユーザの負荷を軽減可能な画像処理システムを提供することである。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an image processing system capable of reducing the burden on a monitoring user.

本発明の画像処理システムは、
画像を取得する画像取得手段と、
前記画像を表示する表示制御手段と、
前記画像における、対象物を指定する対象物指定手段と、
複数の報知手段の中から一部の報知手段を選択する選択手段と、
前記対象物の位置を示すマークを前記対象物の前記画像に重畳して表示させると共に、前記一部の報知手段によって報知を行わせる制御手段と、
前記報知を行うのに伴い、前記画像と、前記マーク又は前記対象物の情報と、前記一部の報知手段の情報を記憶する記憶手段と、を備えることを特徴とする。
The image processing system of the present invention is
an image acquisition means for acquiring an image;
display control means for displaying the image;
an object designation means for designating an object in the image;
A selection means for selecting a part of notification means from among a plurality of notification means;
a control means for superimposing and displaying a mark indicating the position of the object on the image of the object, and for performing notification by the part of the notification means;
It is characterized by comprising storage means for storing the image, the information of the mark or the object, and the information of the part of the notification means in accordance with the notification.

本発明によれば、監視をするユーザの負荷を軽減可能な画像処理システムを実現することができる。 According to the present invention, it is possible to realize an image processing system that can reduce the burden on a monitoring user.

実施例1に係る画像処理装置のハードウェア構成例を示すブロック図である。2 is a block diagram showing a hardware configuration example of an image processing apparatus according to Embodiment 1; FIG. 実施例1に係る画像処理システムの機能ブロック図である。1 is a functional block diagram of an image processing system according to Example 1; FIG. 実施例1の画像処理装置100を用いて監視する店舗のレイアウト例を示す模式図である。1 is a schematic diagram showing a layout example of a store monitored using the image processing apparatus 100 of Embodiment 1. FIG. 実施例1に係る画像処理装置100の表示装置107に表示される画面例を示す図である。4A and 4B are diagrams showing examples of screens displayed on the display device 107 of the image processing apparatus 100 according to the first embodiment; FIG. 実施例1における、画像処理装置が、報知装置を決定する処理の流れを示すフローチャートである。4 is a flow chart showing the flow of processing for determining an informing device by the image processing device in Embodiment 1. FIG. ユーザ操作により、対象人物を選択する例を示す図である。It is a figure which shows the example which selects a target person by user operation. 人体サイズの設定とユーザの入力座標から画像データに重畳する枠のサイズを決定する例を示す図である。FIG. 10 is a diagram showing an example of determining the size of a frame to be superimposed on image data based on setting of human body size and user's input coordinates; 実施例1において、枠702を画像データ上に重畳した画像800を保存する例を示す図である。8 is a diagram showing an example of saving an image 800 in which a frame 702 is superimposed on image data in Embodiment 1. FIG. 画像中の報知装置の設定の例を示す図である。It is a figure which shows the example of a setting of the alerting|reporting apparatus in an image. 実施例2において、保存される画像データの例を説明するための図である。FIG. 10 is a diagram for explaining an example of image data saved in Example 2; FIG. 実施例3における、報知装置に登録された複数の音源から音源を選択する例を示す図である。FIG. 12 is a diagram showing an example of selecting a sound source from a plurality of sound sources registered in the notification device in Example 3; 実施例3において、保存される画像データの例を説明するための図である。FIG. 11 is a diagram for explaining an example of image data saved in Example 3;

以下、図面を参照して本発明の実施形態を、実施例を用いて説明する。ただし、本発明は以下の実施形態に限定されるものではない。なお、各図において、同一の部材または要素については同一の参照番号を付し、重複する説明は省略または簡略化する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described using examples with reference to the drawings. However, the present invention is not limited to the following embodiments. In each figure, the same members or elements are denoted by the same reference numerals, and overlapping descriptions are omitted or simplified.

(実施例1)
実施例1においては、ユーザにより指定された対象人物を特定するための枠等のマークを画像に重畳(付加)して記録する。尚、以下の実施例の説明では、指定された対象人物を特定するためのマークとして枠の例を説明するが、実施例におけるマークは枠に限定されず、例えばカーソルのようなものであっても良い。
(Example 1)
In the first embodiment, a mark such as a frame for specifying a target person specified by the user is superimposed (added) on the image and recorded. In the following description of the embodiments, an example of a frame will be described as a mark for specifying a designated target person. Also good.

図1は、実施例1に係る画像処理装置のハードウェア構成例を示すブロック図である。画像処理装置100は、コンピュータとしてのCPU101、記憶媒体としてのROM102やRAM103、HDD104、通信部105、入力装置106及び表示装置107等を有する。 FIG. 1 is a block diagram illustrating a hardware configuration example of an image processing apparatus according to the first embodiment. The image processing apparatus 100 has a CPU 101 as a computer, a ROM 102 and a RAM 103 as storage media, an HDD 104, a communication unit 105, an input device 106, a display device 107, and the like.

通信部105は有線又は無線のネットワーク108に接続されており画像処理装置の外部のサーバ等と双方向通信が可能である。CPU101は、ROM102に記録されたコンピュータプログラムを読みだして各種処理を実行する。RAM103は主メモリやワークエリア等の一時記憶領域として用いられる。HDD(Hard Disk Drive)104は、画像データの保存等に用いる。 A communication unit 105 is connected to a wired or wireless network 108 and is capable of two-way communication with an external server or the like of the image processing apparatus. The CPU 101 reads computer programs recorded in the ROM 102 and executes various processes. A RAM 103 is used as a temporary storage area such as a main memory or a work area. A HDD (Hard Disk Drive) 104 is used for storing image data.

尚、CPU101は、ネットワーク108を介して例えば監視カメラ等の映像取得装置から画像データを取得することができる。又、外部のサーバに保存された画像データをダウンロードすることで画像データの取得を行うこともできる。又、HDD104に保存された画像データを読出すことで画像データを取得することもできる。 Note that the CPU 101 can acquire image data from a video acquisition device such as a surveillance camera via the network 108 . Image data can also be acquired by downloading image data stored in an external server. Image data can also be obtained by reading image data stored in HDD 104 .

表示装置107は、画像データや不審人物検出の結果を表示する液晶ディスプレイ等の表示用デバイスである。入力装置106はキーボードやマウス、タッチパネルなど、画像データの選択や、画像データ上の音源位置の設定や、各種指示などをユーザが手動で入力するためのデバイスを含む。尚、図1に示される夫々のハードウェアは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成しても良い。 The display device 107 is a display device such as a liquid crystal display that displays image data and suspicious person detection results. The input device 106 includes devices such as a keyboard, a mouse, and a touch panel for the user to manually input selection of image data, setting of a sound source position on the image data, various instructions, and the like. Note that each piece of hardware shown in FIG. 1 may not be built in the same housing, and may be configured by separate devices connected to each other via signal paths.

以上のように、画像処理装置100のハードウェア構成は、パーソナルコンピュータ(PC)に搭載されているハードウェア構成と同様のハードウェア構成要素を有している。そのため、画像処理装置100で実現される各種機能は、PC上で動作するソフトウエアとして実装することが可能である。画像処理装置100は、CPU101がプログラムを実行することにより、図2に示されるような画像処理装置100の種々の機能や後述の図8のフローチャートに示される処理を実現することができる。 As described above, the hardware configuration of the image processing apparatus 100 has the same hardware components as those installed in a personal computer (PC). Therefore, various functions realized by the image processing apparatus 100 can be implemented as software operating on a PC. The image processing apparatus 100 can realize various functions of the image processing apparatus 100 as shown in FIG. 2 and processing shown in a flowchart of FIG. 8 described later by the CPU 101 executing a program.

図2は、実施例1に係る画像処理システムの機能ブロック図である。尚、図2に示される機能ブロックの一部は、画像処理装置100に含まれるコンピュータとしてのCPU101に、記憶媒体としての例えばROM102等のメモリに記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。 FIG. 2 is a functional block diagram of the image processing system according to the first embodiment. Some of the functional blocks shown in FIG. 2 are realized by causing the CPU 101 as a computer included in the image processing apparatus 100 to execute a computer program stored in a memory such as the ROM 102 as a storage medium. there is However, some or all of them may be realized by hardware. As hardware, a dedicated circuit (ASIC), a processor (reconfigurable processor, DSP), or the like can be used.

又、図2に示される夫々の機能ブロックをハードウェアで実現する場合には、夫々のハードウェアは同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置として構成しても良い。 Also, when implementing the respective functional blocks shown in FIG. 2 by hardware, the respective hardware need not be built in the same housing, but separate devices connected to each other via signal paths. It may be configured as

画像処理装置100は、画像取得部202、表示部203、設定部204、操作入力部205、ユーザ入力受付部206、報知指示部207、記憶部208等を有する。又、画像処理装置100は、監視カメラなどの映像取得装置201及び報知装置209と、インターネットなどのネットワーク108を介して接続される。尚、映像取得装置201の数及び報知装置209の数は図2の例に限定されない。 The image processing apparatus 100 has an image acquisition unit 202, a display unit 203, a setting unit 204, an operation input unit 205, a user input reception unit 206, a notification instruction unit 207, a storage unit 208, and the like. The image processing apparatus 100 is also connected to a video acquisition device 201 such as a surveillance camera and a notification device 209 via a network 108 such as the Internet. Note that the number of video acquisition devices 201 and the number of notification devices 209 are not limited to the example in FIG.

次に各部について説明する。画像取得部202は、画像を取得する画像取得手段として機能しており、映像取得装置201から送られる映像から得られる画像データを取得するための画像取得ステップを実行する。ここで、映像とはAVIファイル、MOVファイル等の画像フォーマットの映像ファイルでも良いし、webカメラからで送られてくるようなリアルタイム映像でも良い。又、その種類は1つでも複数でも良い。映像取得装置201は、例えば図3に示されるように複数の監視カメラ303、304、305等を含む。 Next, each part will be explained. The image acquisition unit 202 functions as an image acquisition unit that acquires an image, and executes an image acquisition step for acquiring image data obtained from the video sent from the video acquisition device 201 . Here, the video may be a video file in an image format such as an AVI file or MOV file, or may be a real-time video sent from a web camera. Also, the number of types may be one or plural. The video acquisition device 201 includes a plurality of surveillance cameras 303, 304, 305, etc., as shown in FIG. 3, for example.

図3は、実施例1の画像処理装置100を用いて監視する店舗のレイアウト例を示す模式図である。店舗300には、バックヤードに設置された端末301とバックヤードで作業中の店員302がいる。画像取得手段としての複数の監視カメラ303、304、305と、複数の報知装置402~404と、商品棚405~409が配置されている。ここで報知装置は報知手段として機能しており、例えばスピーカなどを含む。又、バックヤードは店舗から離れた場所に設けられていても良い。尚、端末301には、実施例の画像処理装置100が含まれているものとする。 FIG. 3 is a schematic diagram showing a layout example of a store monitored using the image processing apparatus 100 of the first embodiment. A store 300 has a terminal 301 installed in the backyard and a salesclerk 302 working in the backyard. A plurality of surveillance cameras 303, 304, 305 as image acquisition means, a plurality of notification devices 402-404, and product shelves 405-409 are arranged. Here, the notification device functions as notification means and includes, for example, a speaker. Also, the backyard may be provided at a location away from the store. It is assumed that the terminal 301 includes the image processing apparatus 100 of the embodiment.

設定部204は、表示部203が表示する画像データ上の人体サイズを指定する。指定する方法は、数値入力をユーザから受け付けることによる座標の指定でも良いし、UIを用いた座標の指定をユーザから受け付けても良い。尚、表示部203は、画像を表示する表示制御ステップを行うための表示制御手段として機能している。 A setting unit 204 specifies the human body size on the image data displayed by the display unit 203 . As for the method of specifying, the coordinates may be specified by receiving numerical input from the user, or the coordinates may be specified by the user using a UI. Note that the display unit 203 functions as display control means for performing a display control step for displaying an image.

図4は、実施例1に係る画像処理装置100の表示装置107に表示される画面例を示す図であり、人体サイズアイコン422、423を用いて画像データ上の人体サイズを設定する例を示す図である。図4において、400は、画像処理装置100の表示装置107に表示される画面を示し、画像取得部202が取得した画像401を含む。 FIG. 4 is a diagram showing an example of a screen displayed on the display device 107 of the image processing apparatus 100 according to the first embodiment, showing an example of setting the human body size on the image data using the human body size icons 422 and 423. It is a diagram. In FIG. 4 , 400 denotes a screen displayed on the display device 107 of the image processing apparatus 100 and includes an image 401 acquired by the image acquisition unit 202 .

ユーザは、画像401内に含まれる人体の大きさに合わせて人体サイズアイコンを拡大縮小することで、奥行情報を考慮して、人体サイズの最大値と最小値を設定する。人体サイズアイコン422は、画像データ内で最も小さく映る人体に合わせてサイズを指定する。人体サイズアイコン423は、画像データ内で最も大きく映る人体に合わせてサイズを指定する。 The user scales the human body size icon according to the size of the human body included in the image 401 to set the maximum and minimum values of the human body size in consideration of the depth information. The human body size icon 422 designates a size according to the smallest human body in the image data. The human body size icon 423 designates a size according to the largest human body in the image data.

操作入力部205は、入力装置106を用いてユーザ操作を入力するためのブロックである。本実施例では、設定部204やユーザ入力受付部206において、操作入力部205の操作結果が用いられる。
ユーザ入力受付部206は、操作入力部205でユーザが画像データ上の報知対象を選択したことを受け付ける。又、ユーザが選択した報知対象の人物を特定するための枠データを生成し、表示部203に表示される画像データに重畳する。
The operation input unit 205 is a block for inputting user operations using the input device 106 . In this embodiment, the operation result of the operation input unit 205 is used in the setting unit 204 and the user input reception unit 206 .
A user input reception unit 206 receives that the user has selected a notification target on the image data using the operation input unit 205 . Further, frame data for specifying the person to be notified selected by the user is generated and superimposed on the image data displayed on the display unit 203 .

報知指示部207は、ユーザ入力受付部206における報知対象の選択に基づき報知装置209へ報知指示を行う。
記憶部208は、ユーザ入力受付部206から出力される、枠等のマークが重畳された画像データを保存する。尚、実施例における重畳とは、例えば枠等のマークを画像に対して合成するものに限らず、枠等のマークの座標等の情報をメタデータとして画像ファイルに付加するものなどを含む。
The notification instruction unit 207 issues a notification instruction to the notification device 209 based on the selection of the notification target by the user input reception unit 206 .
The storage unit 208 stores image data superimposed with a mark such as a frame output from the user input reception unit 206 . Note that superimposition in the embodiment is not limited to, for example, synthesizing a mark such as a frame with an image, but includes adding information such as coordinates of a mark such as a frame to an image file as metadata.

図5は、実施例1における、画像処理装置が、報知装置を決定する処理の流れを示すフローチャートである。尚、コンピュータとしてのCPU101が例えばROM102等のメモリに記憶されたコンピュータプログラムを実行することによって図5のフローチャートの各ステップの動作が行われる。 FIG. 5 is a flowchart showing the flow of processing for determining a notification device by the image processing device according to the first embodiment. The CPU 101 as a computer executes a computer program stored in a memory such as the ROM 102, for example, to perform the operation of each step in the flow chart of FIG.

ステップS501で、ユーザが入力装置106を用いて、画像データ上に映る人物に合わせて人体サイズアイコン422、423を拡大縮小することで、人体サイズを指定する。すると、設定部204により、画像データ上に映る人体の最大値、最小値が設定される。 In step S501, the user uses the input device 106 to enlarge or reduce the human body size icons 422 and 423 according to the person appearing on the image data, thereby specifying the human body size. Then, the setting unit 204 sets the maximum and minimum values of the human body appearing on the image data.

次に、ステップS502で、ユーザが入力装置106を用いて、画像内の人物から報知対象となる人物を選択する。ここで、ステップS502は、画像における、対象物を指定する対象物指定ステップ(対象物指定手段)として機能している。
図6は、ユーザ操作により、対象人物を選択する例を示す図である。図6において、画像401は、人物603を含み、ユーザ操作602は、タッチパネルに指をタッチして、人物603を選択していることを示す。その後、報知対象の選択に応じてステップS503とステップS505を並行して実行する。
Next, in step S502, the user uses the input device 106 to select a person to be notified from the persons in the image. Here, step S502 functions as an object designating step (object designating means) for designating the object in the image.
FIG. 6 is a diagram showing an example of selecting a target person by user operation. In FIG. 6, an image 401 includes a person 603, and a user operation 602 indicates that the person 603 is selected by touching the touch panel with a finger. After that, step S503 and step S505 are executed in parallel according to the selection of the notification target.

ステップS503で、設定部204に設定された人体サイズから、報知対象としての人物を特定するための枠のサイズを決定する。
図7は、ステップS501で設定された人体サイズとユーザの入力座標から画像データに重畳する枠のサイズを決定する例を示す図である。図7において、補助線701は、人体サイズアイコン422、423から、ユーザの入力座標における枠のサイズを決定する処理を表している。即ち、マークとしての枠のサイズを対象物の位置に応じて変更している。
In step S<b>503 , the size of the frame for specifying the person as the notification target is determined from the human body size set in the setting unit 204 .
FIG. 7 is a diagram showing an example of determining the size of the frame superimposed on the image data from the human body size set in step S501 and the user's input coordinates. In FIG. 7, an auxiliary line 701 represents processing for determining the size of the frame at the coordinates input by the user from the human body size icons 422 and 423 . That is, the size of the frame as the mark is changed according to the position of the object.

人体サイズアイコン422、423に外接する枠の画像401のY軸(図7の画面400の上下方向の軸)方向に沿った人体サイズの変化から、ユーザがタッチした画面400のY軸座標に基づき枠のサイズを推定する。枠702はユーザ操作602によって、タッチされたY軸座標に基づき、人体サイズアイコン422、423から推定された、報知対象の人物603を特定するための枠を示す。尚、枠の形状や大きさを決定する方法は上記の方法に限定されない。例えば人物603を画像認識してその大きさに合わせ枠の大きさを決定しても良い。 Based on the change in the human body size along the Y-axis (vertical axis of the screen 400 in FIG. 7) direction of the frame image 401 circumscribing the human body size icons 422 and 423, the Y-axis coordinate of the screen 400 touched by the user is calculated. Estimate the frame size. A frame 702 indicates a frame for specifying a person 603 to be notified, which is estimated from the human body size icons 422 and 423 based on the Y-axis coordinates touched by the user operation 602 . The method for determining the shape and size of the frame is not limited to the above method. For example, the image of the person 603 may be recognized and the size of the frame may be determined according to its size.

そして、ステップS504で、記憶部208は、ステップS503で決定した枠702を画像データに重畳して画像データを保存する。ここで、ステップS504は、報知を行うのに伴い、画像と、マーク(枠)又は対象物の位置情報と、一部の報知装置の情報を記憶する記憶ステップ(記憶手段)として機能している。
図8は、実施例1において、枠702を画像データ上に重畳した画像800を保存する例を示す図である。
Then, in step S504, the storage unit 208 superimposes the frame 702 determined in step S503 on the image data and stores the image data. Here, step S504 functions as a storage step (storage means) for storing the image, the position information of the mark (frame) or the target object, and the information of a part of the notification device along with the notification. .
FIG. 8 is a diagram illustrating an example of saving an image 800 in which a frame 702 is superimposed on image data in the first embodiment.

一方、ステップS505において、ステップS502で選択された報知対象の人物に対して、その人物に近い位置の報知装置209を用いて報知指示を行う。ここで、ステップS504、ステップS505等は、対象物の位置を示すマーク(枠)を対象物の画像に重畳して表示させると共に、一部の報知手段によって報知を行わせる制御ステップ(制御手段)として機能している。 On the other hand, in step S505, a notification instruction is given to the person selected in step S502 as a notification target using the notification device 209 located near the person. Here, steps S504, S505, etc. are control steps (control means) for superimposing and displaying a mark (frame) indicating the position of the object on the image of the object, and for performing notification by a part of the notification means. functioning as

尚、図5のフローにおいてステップS505は、ステップS503、ステップS504と並列に実行されるようになっているが、ステップS505の処理を、例えばステップS504の次に行っても良い。 In the flow of FIG. 5, step S505 is executed in parallel with steps S503 and S504, but step S505 may be executed after step S504, for example.

次にステップS506で、システムが終了したか否かを判別し、NoであればステップS502に戻り、ステップS502~ステップS506の処理を繰り返す。ステップS506でYesと判別された場合には、図5のフローを終了する。
このように実施例1によれば、画像処理装置100は、ユーザが選択した人物に対してその人物を特定するための枠を付加して保存することができると共に、その人物に対して報知を行うことができる。
Next, in step S506, it is determined whether or not the system has ended. If Yes in step S506, the flow of FIG. 5 ends.
As described above, according to the first embodiment, the image processing apparatus 100 can store a person selected by the user by adding a frame for specifying the person, and can notify the person. It can be carried out.

尚、実施例1では枠等のマークを画像に重畳して保存しているが、枠の代わりに枠の座標又は選択された人物の座標を画像ファイルにメタデータとして付加して保存しても良い。前述のように、本実施例における重畳とは、画像合成だけでなく、例えばメタデータとして付加して保存するものを含む。 In the first embodiment, a mark such as a frame is superimposed on the image and saved. However, instead of the frame, the coordinates of the frame or the coordinates of the selected person may be added to the image file as metadata and saved. good. As described above, superimposition in the present embodiment includes not only image synthesis but also adding and saving as metadata, for example.

(実施例2)
実施例1では、図8の画像データ800には、報知対象の人物を特定するための枠を重畳して保存している。一方、報知装置209は、図3で示すように店舗300に複数台設置されている場合がある。そこで、実施例2では、ユーザ操作により報知対象の人物が選択された場合に、複数の報知装置の中から、対象の人物へ報知を行うための報知装置を選択する。そして、選択された報知装置に関する情報も画像データに重畳して保存する。
(Example 2)
In the first embodiment, the image data 800 in FIG. 8 is stored with a frame for identifying the person to be notified superimposed. On the other hand, as shown in FIG. 3, a plurality of notification devices 209 may be installed in a store 300 . Therefore, in the second embodiment, when a person to be notified is selected by a user operation, a notification device for notifying the target person is selected from among a plurality of notification devices. Information related to the selected notification device is also superimposed on the image data and stored.

実施例2において、設定部204は、表示部203が表示する画像データ上の報知装置毎の座標を予め設定する。設定する方法は、画面内における報知装置の座標をユーザが数値入力しても良いし、画面上のUIを用いて報知装置のアイコンを画面上の所定の位置(設置位置)にドラッグアンドドロップすることで、その報知装置の設置位置の座標を設定するようにしても良い。 In the second embodiment, the setting unit 204 presets the coordinates of each notification device on the image data displayed by the display unit 203 . As for the setting method, the user may numerically input the coordinates of the notification device on the screen, or the icon of the notification device may be dragged and dropped to a predetermined position (installation position) on the screen using the UI on the screen. By doing so, the coordinates of the installation position of the notification device may be set.

図9は、画像中の報知装置の設定の例を示す図であり、設定画面400は、画像取得部202が取得した画像401と、報知装置リスト908を含む。尚、画像401は店舗300の一部のレイアウトが拡大表示されている。
報知装置リスト908には、ユーザによって予め登録された、店舗300に設置されている複数の報知装置402~404がSP1~SP3として夫々表示されている。
FIG. 9 is a diagram showing an example of settings for notification devices in an image. A setting screen 400 includes an image 401 acquired by the image acquisition unit 202 and a notification device list 908 . Note that the image 401 is an enlarged display of a part of the layout of the store 300 .
In the notification device list 908, a plurality of notification devices 402 to 404 installed in the store 300 and registered in advance by the user are displayed as SP1 to SP3, respectively.

実施例2では、画像データ上に含まれる商品棚406に報知装置402、商品棚407に報知装置403が設置されているものとし、画像データ上の対応する位置に報知装置アイコン4021、4031を配置し、座標を設定する。複数の報知装置の座標を設定する場合は、各報知装置アイコンの横にSP1、SP2などのタグを表示しても良い。 In the second embodiment, it is assumed that the notification device 402 is installed on the product shelf 406 and the notification device 403 is installed on the product shelf 407 included in the image data, and the notification device icons 4021 and 4031 are arranged at the corresponding positions on the image data. and set the coordinates. When setting the coordinates of a plurality of notification devices, tags such as SP1 and SP2 may be displayed next to each notification device icon.

尚、実施例2では、複数の報知装置の中から、対象となる人物に対して報知を行う報知装置を少なくとも1つ選択するために、ユーザが画面上で指定した人物の座標と、複数の報知装置の座標に基づき、指定された人物に相対的に近い座標の報知装置を選ぶ。 In addition, in the second embodiment, in order to select at least one notification device that notifies a target person from among a plurality of notification devices, the coordinates of the person specified on the screen by the user and a plurality of Based on the coordinates of the notification device, the notification device with coordinates relatively close to the designated person is selected.

即ち、報知指示部207は、ユーザが選択した人物の位置(座標)と、予め登録された報知装置402、403等の位置(座標)に基づき、選択された人物の座標と各報知装置までの距離を夫々算出する。そして、選択された人物の座標から最も近い、或いは相対的に近い一部の報知装置を、対象人物に報知を行うための報知装置として選択する。ここで、報知指示部207は、複数の報知手段の中から一部の報知手段を選択する選択ステップを実行する選択手段として機能している。 That is, based on the position (coordinates) of the person selected by the user and the positions (coordinates) of the pre-registered notification devices 402, 403, etc., the notification instruction unit 207 determines the coordinates of the selected person and the distance to each notification device. Calculate the distances respectively. Then, some notification devices closest or relatively close to the coordinates of the selected person are selected as notification devices for notifying the target person. Here, the notification instruction unit 207 functions as selection means for executing a selection step of selecting a part of the notification means from among the plurality of notification means.

更に報知装置位置と、対象物の位置との間に遮蔽物が存在するか否かを判別し、その判別の結果に応じて、複数の報知装置の中の一部の報知装置を選択しても良い。
即ち、報知指示部207は、設定部204で予め設定された複数の報知装置の座標と、ユーザ操作により指定された人物の座標の他に、その間に存在する遮蔽物の座標に基づき、遮蔽物の影響を考慮した報知装置とその人物の距離を算定しても良い。
Furthermore, it is determined whether or not there is a shield between the position of the notification device and the position of the object, and depending on the result of the determination, a part of the notification devices is selected from among the plurality of notification devices. Also good.
That is, the notification instructing unit 207 selects the coordinates of a plurality of notification devices set in advance by the setting unit 204, the coordinates of a person specified by a user operation, and the coordinates of shields existing between them. The distance between the notification device and the person may be calculated considering the influence of

そして、報知装置402、403等の中から、蔽物の影響を考慮した報知装置と指定した人物の距離が相対的に短い少なくとも1つの報知装置を、報知用の報知装置として選択しても良い。尚、遮蔽物の座標は予めユーザ等が登録しておいても良い。 Then, from among the notification devices 402, 403, etc., at least one notification device in which the distance between the notification device considering the influence of the shield and the designated person is relatively short may be selected as the notification device for notification. . Note that the coordinates of the shielding object may be registered in advance by the user or the like.

具体的には、例えば指定した人物の座標と報知装置とを結ぶ直線の間に遮蔽物が存在する場合には、その直線方向の遮蔽物の厚さに応じた係数を距離情報に乗ずる。例えば2点を結ぶ直線方向の遮蔽物の厚さが0mの場合には2点間の距離に乗じる係数を1、0.5mの場合には、2点間の距離に乗じる係数を1.5、厚さが1mの場合には係数を3とするなど、前記の厚さが大きい程、係数を大きくすれば良い。 Specifically, for example, when a shield exists between a straight line connecting the coordinates of the designated person and the notification device, the distance information is multiplied by a coefficient corresponding to the thickness of the shield in the straight line direction. For example, if the thickness of the shield in the straight line connecting the two points is 0m, the coefficient for multiplying the distance between the two points is 1, and if it is 0.5m, the coefficient for multiplying the distance between the two points is 1.5. For example, when the thickness is 1 m, the coefficient is set to 3. The greater the thickness, the larger the coefficient.

そして各報知装置と人物の座標の距離に対して、遮蔽物の厚みに応じた係数を乗ずることによって重み付けをしたうえで、複数の報知装置と人物の座標の距離を比較し、相対的に近い報知装置を決定すれば良い。即ち、報知装置位置と、対象位置との間に存在する遮蔽物の厚さに応じて、複数の報知装置の中の一部の報知装置を選択すれば良い。 Then, after weighting the coordinate distance between each notification device and the person by multiplying it by a coefficient according to the thickness of the obstructing object, the coordinate distances between multiple notification devices and the person are compared to determine which is relatively close. All that is necessary is to determine the notification device. That is, it is only necessary to select a part of the notification devices among the plurality of notification devices according to the thickness of the shield existing between the position of the notification device and the target position.

尚、上記においては2次元マップにおける報知装置と人物の距離について説明したが、3次元マップにおける報知装置と人物の距離を計算することが望ましい。その場合人物の耳の高さを例えば1.5mなどに設定し、遮蔽物の高さも3次元マップに登録しておく。そしてその3次元マップにおける報知装置の座標と人物の耳の高さの座標の間の直線における遮蔽物の厚さを求めて、その厚さに応じた係数を距離に乗じれば良い。 Although the distance between the notification device and the person on the two-dimensional map has been described above, it is desirable to calculate the distance between the notification device and the person on the three-dimensional map. In that case, the height of the person's ears is set to, for example, 1.5 m, and the height of the shield is also registered in the three-dimensional map. Then, the thickness of the shield on a straight line between the coordinates of the notification device and the coordinates of the person's ear height on the three-dimensional map is obtained, and the distance is multiplied by a coefficient corresponding to the thickness.

尚、本実施例における遮蔽物は報知装置と対象物の間を3次元空間において、遮るような位置関係にあるものを指す。例えば報知装置が天井に配置され、商品棚などよりも十分に高い位置にあれば、対象物と報知装置との間を遮らない場合もある。或いは商品棚等が例えば対象物の耳の高さよりも低い位置にある場合も同様である。そのような場合にはそれらの商品棚等は3次元マップにおいては遮蔽物にはならないので、実施例における距離や遮蔽物の厚さ等は3次元マップにおいて計算することが望ましい。尚、報知装置を選択する方法は上記の方法に限定されない。 In addition, the shielding object in this embodiment refers to an object having a positional relationship such as blocking in the three-dimensional space between the notification device and the target object. For example, if the notification device is installed on the ceiling and positioned sufficiently higher than the product shelf, it may not block the distance between the object and the notification device. Alternatively, the same applies when the product shelf or the like is located at a position lower than the height of the ear of the object. In such a case, those product shelves do not become shields in the three-dimensional map, so it is desirable to calculate the distance, the thickness of the shields, etc. in the embodiment in the three-dimensional map. Note that the method of selecting the notification device is not limited to the above method.

尚、報知装置毎に所定以上の面積を有する報知エリアを設定し、ユーザ操作で指定された人物の座標情報がいずれの報知エリアに含まれるかに応じて、その報知エリアに紐づけられた報知装置から報知を行っても良い。即ち、複数の報知手段の位置に基づき夫々設定された複数領域と、対象物の位置の関係に基づき、対象物の位置が含まれる領域に対応する一部の報知装置を選択するようにしても良い。 In addition, a notification area having a predetermined area or more is set for each notification device, and depending on which notification area contains the coordinate information of the person specified by the user operation, notification linked to the notification area Notification may be made from the device. That is, based on the relationship between a plurality of areas respectively set based on the positions of the plurality of notification means and the position of the object, some of the notification devices corresponding to the area containing the position of the object may be selected. good.

図10は、実施例2において、保存される画像データの例を説明するための図であり、報知対象の人物を特定する枠702に加えて、報知のために選択した報知装置の座標情報を示す報知装置アイコン4021を重畳した画像データを保存する。
即ち、画像401には、枠702に加えて、報知のために選択した報知装置を示す報知装置アイコン4021が重畳されて保存される。
FIG. 10 is a diagram for explaining an example of image data stored in the second embodiment. In addition to a frame 702 specifying a person to be notified, coordinate information of the notification device selected for notification is displayed. image data superimposed with the indicated notification device icon 4021 is saved.
That is, on the image 401, in addition to the frame 702, the notification device icon 4021 indicating the notification device selected for notification is superimposed and saved.

このように、実施例2では、報知のために選択した報知装置の情報を重畳し保存することで、対象の人物へ報知した報知装置や報知内容等の確認が容易になる。尚、報知のために選択した報知装置の情報としては、上述のようなアイコンの代わりにその報知装置のID(識別情報)や選択した報知装置の位置情報や報知装置の音源に関する情などであっても良い。 As described above, in the second embodiment, by superimposing and saving the information of the notification device selected for notification, it becomes easy to confirm the notification device that notified the target person, the content of the notification, and the like. The information of the notification device selected for notification may be ID (identification information) of the notification device, position information of the selected notification device, information on the sound source of the notification device, etc. instead of the icon as described above. can be

(実施例3)
実施例3では、各報知装置について、報知対象の人物へ報知するための音源等を複数用意する。そして、ユーザ操作により選択された人物の枠(の座標又は人物の座標)に関する情報と、報知を行うために選択された報知装置に関する情報として、その報知装置によって報知した内容も画像データに付加して保存する。
(Example 3)
In the third embodiment, for each notification device, a plurality of sound sources and the like are prepared for notifying a person to be notified. Then, as information on the frame of the person selected by the user operation (coordinates of the person or the coordinates of the person) and information on the notification device selected for notification, the content notified by the notification device is also added to the image data. to save.

又、実施例3においては、報知装置402には、報知を行う際に使用可能な音源A、音源B、音源C、が登録され、報知装置403には、音源D、音源E、音源F、が登録され、選択可能となっている。 In the third embodiment, the notification device 402 registers sound sources A, B, and C that can be used for notification, and the notification device 403 registers sound sources D, E, F, is registered and selectable.

図11は、実施例3における、報知装置に登録された複数の音源から音源を選択する例を示す図である。図11では、ユーザ操作602により、対象の人物へ報知をする報知装置402が選択された状態において、報知のための音源を選択するための、選択アイコン1101が表示されている。選択アイコン1101はタッチパネルであれば、フリック入力などによって選択可能である。尚、報知装置が使用可能な音源の表示方法や、音源の選択方法はこれに限定されない。 FIG. 11 is a diagram showing an example of selecting a sound source from a plurality of sound sources registered in the notification device according to the third embodiment. In FIG. 11, a selection icon 1101 for selecting a sound source for notification is displayed in a state in which the notification device 402 for notifying a target person is selected by user operation 602 . The selection icon 1101 can be selected by flick input or the like if it is a touch panel. It should be noted that the method of displaying the sound sources that can be used by the notification device and the method of selecting the sound sources are not limited to this.

尚、図11においては、報知をするための報知装置402を選択した後で、画面内の人物603の位置をタッチすることによって選択アイコン1101が複数表示され、所望の選択アイコン1101の上で指を離すことによってその音源が選択される。しかし、例えば報知装置402に対応した報知装置アイコン4021にタッチすることによって選択アイコン1101が複数表示されるようにし、所望の選択アイコン1101の上で指を離すことによってその音源が選択されるようにしても良い。 In FIG. 11, after selecting the notification device 402 for notification, a plurality of selection icons 1101 are displayed by touching the position of the person 603 in the screen, and a desired selection icon 1101 is touched. By releasing , the sound source is selected. However, for example, by touching the notification device icon 4021 corresponding to the notification device 402, a plurality of selection icons 1101 are displayed, and by releasing the finger on the desired selection icon 1101, the sound source is selected. can be

図12は、実施例3において、保存される画像データの例を説明するための図であり、報知対象の人物を特定する枠702、報知のために選択された報知装置の座標情報を示す報知装置アイコン4021に加えて、報知した音声の内容を重畳した例を示している。
即ち、画像401には、枠702、報知装置アイコン4021に加えて、音源情報(報知した内容等)を示すアイコン1201が重畳されており、実施例3では、このような画像401が保存される。
FIG. 12 is a diagram for explaining an example of image data to be saved in the third embodiment, and includes a frame 702 for specifying a person to be notified and a notification indicating coordinate information of the notification device selected for notification. In addition to the device icon 4021, an example is shown in which the content of the notified voice is superimposed.
That is, in addition to the frame 702 and the notification device icon 4021, the image 401 is superimposed with an icon 1201 indicating sound source information (notified content, etc.), and in the third embodiment, such an image 401 is saved. .

尚、本実施例における報知装置の音源情報は、音の種類(例えば男性の声や女性の声や音のピッチなど)に限定されず、例えば報知音のパターン(ビープ音やチャイムなどの音のパターン)の種類、報知内容(メッセージの種類)、音量や報知回数などを含む。即ち、音源に関する情報は、音の種類、音のパターン、報知内容、音量、報知回数の少なくとも1つを含む。又、音源情報はそれらの種類に関する識別情報であっても良いし、音声自体であっても良い。 Note that the sound source information of the notification device in this embodiment is not limited to the type of sound (for example, male voice, female voice, pitch of sound, etc.). pattern), content of notification (type of message), sound volume, number of times of notification, and the like. That is, the information about the sound source includes at least one of the type of sound, pattern of sound, content of notification, volume, and number of times of notification. Also, the sound source information may be identification information relating to the types of the sounds, or may be the sound itself.

以上のように、実施例3によれば、報知装置の情報として、報知装置により報知した内容などの音源情報を画像に重畳し保存することで、対象の人物へどのような報知がなされたか報知内容の確認が容易になる。
尚、前述のように、実施例3等においても、重畳とは、画像合成による重畳に限定されず、メタデータなどとして画像に重畳或いは付加されるものを含む。
As described above, according to the third embodiment, by superimposing sound source information such as the content notified by the notification device on an image and storing it as information of the notification device, it is possible to notify what kind of notification was made to the target person. Confirmation of contents becomes easy.
As described above, superimposition is not limited to superimposition by image synthesis in the third embodiment and the like, and includes superimposition or addition to an image as metadata or the like.

尚、以上の実施例においては複数の報知装置の中から1つの報知装置を選択しているが、1つに限定されない。例えば複数の報知装置の中の対象物に対して相対的に近い2つ以上の報知装置を選択するようにしても良い。即ち、複数の報知装置の中の一部の報知装置を選択すれば良い。又、複数の報知装置の中の一部の報知装置を選択する場合、それ以外の報知装置を完全にオフにする必要はなく、音量を相対的に下げるようにするだけでも良い。 Although one notification device is selected from a plurality of notification devices in the above embodiment, the number of notification devices is not limited to one. For example, two or more notification devices relatively close to the object may be selected from a plurality of notification devices. That is, it is sufficient to select a part of the notification devices among the plurality of notification devices. Also, when selecting a part of the notification devices out of a plurality of notification devices, it is not necessary to completely turn off the other notification devices, and it is only necessary to relatively lower the volume.

尚、上記の実施例では、対象物として不審人物などをユーザが画面上で指定する例を説明したが、対象物は人間でなくても例えば動物などでも良い。即ち、上記の実施例の構成を、例えば家畜などの行動を監視したり誘導したりするシステムに適用しても良い。 In the above embodiment, an example in which the user designates a suspicious person or the like as a target object on the screen has been described, but the target object may be, for example, an animal instead of a human being. That is, the configuration of the above embodiment may be applied to a system that monitors or guides the behavior of domestic animals, for example.

以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
尚、本実施例における制御の一部又は全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理装置等に供給するようにしてもよい。そしてその画像処理装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
Although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to the above embodiments, and various modifications are possible based on the gist of the present invention. They are not excluded from the scope of the invention.
It should be noted that a computer program that implements the functions of the above-described embodiments for part or all of the control in this embodiment may be supplied to an image processing apparatus or the like via a network or various storage media. A computer (or CPU, MPU, etc.) in the image processing apparatus or the like may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.

100 画像処理装置
201 映像取得装置
204 設定部
207 報知指示部
100 image processing device 201 video acquisition device 204 setting unit 207 notification instruction unit

Claims (13)

画像を取得する画像取得手段と、
前記画像を表示する表示制御手段と、
前記画像における、対象物を指定する対象物指定手段と、
複数の報知手段の中から一部の報知手段を選択する選択手段と、
前記対象物の位置を示すマークを前記対象物の前記画像に重畳して表示させると共に、前記一部の報知手段によって報知を行わせる制御手段と、
前記報知を行うのに伴い、前記画像と、前記マーク又は前記対象物の情報と、前記一部の報知手段の情報を記憶する記憶手段と、を備えることを特徴とする画像処理システム。
an image acquisition means for acquiring an image;
display control means for displaying the image;
an object designation means for designating an object in the image;
A selection means for selecting a part of notification means from among a plurality of notification means;
a control means for superimposing and displaying a mark indicating the position of the object on the image of the object, and for performing notification by the part of the notification means;
An image processing system, comprising: storage means for storing the image, the information of the mark or the object, and the information of the part of the notification means in accordance with the notification.
前記選択手段は、前記複数の報知手段の位置と、前記対象物の位置に基づき前記一部の報知手段を選択することを特徴とする請求項1に記載の画像処理システム。 2. The image processing system according to claim 1, wherein said selection means selects said part of notification means based on the positions of said plurality of notification means and the position of said object. 前記選択手段は、複数の前記報知手段の位置に基づき夫々設定された複数の領域と、前記対象物の位置の関係に基づき、前記一部の報知装置を選択することを特徴とする請求項1に記載の画像処理システム。 2. The selection means selects the some of the notification devices based on a relationship between a plurality of areas respectively set based on the positions of the plurality of notification means and the position of the object. The image processing system described in . 前記選択手段は、前記対象物の位置が含まれる前記領域に対応する前記一部の報知装置を選択することを特徴とする請求項3に記載の画像処理システム。 4. The image processing system according to claim 3, wherein said selection means selects said part of notification devices corresponding to said region including the position of said object. 前記選択手段は、前記報知手段の位置と、前記対象物の位置との間に遮蔽物が存在するか否かを判別し、その判別の結果に応じて、前記複数の報知装置の中の一部の報知装置を選択することを特徴とする請求項1~4のいずれか1項に記載の画像処理システム。 The selection means determines whether or not a shield exists between the position of the notification means and the position of the object, and selects one of the plurality of notification devices according to the determination result. 5. The image processing system according to any one of claims 1 to 4, wherein the notification device of the department is selected. 前記選択手段は、前記報知装置位置と、前記対象位置との間に存在する前記遮蔽物の厚さに応じて、前記複数の報知装置の中の一部の報知装置を選択することを特徴とする請求項5に記載の画像処理システム。 The selection means selects a part of the plurality of notification devices according to the thickness of the shield existing between the position of the notification device and the target position. 6. The image processing system according to claim 5. 前記制御手段は、
前記マークのサイズを前記対象物の位置に応じて変更することを特徴とする請求項1に記載の画像処理システム。
The control means is
2. The image processing system according to claim 1, wherein the size of said mark is changed according to the position of said object.
前記マーク又は前記対象物の情報は、前記マーク又は前記対象物の位置情報を含むことを特徴とする請求項1~7のいずれか1項に記載の画像処理システム。 8. The image processing system according to any one of claims 1 to 7, wherein the information of the mark or the object includes position information of the mark or the object. 前記一部の報知手段の情報は、前記一部の報知手段の前記位置情報又は前記一部の報知手段の音源に関する情報を含むことを特徴とする請求項1~8のいずれか1項に記載の画像処理システム。 9. The information of any one of claims 1 to 8, wherein the information of the part of the notification means includes the position information of the part of the notification means or the information on the sound source of the part of the notification means. image processing system. 前記音源に関する情報は、音の種類、音のパターン、報知内容、音量、報知回数の少なくとも1つを含むことを特徴とする請求項9に記載の画像処理システム。 10. The image processing system according to claim 9, wherein the information about the sound source includes at least one of a type of sound, a pattern of sound, content of notification, volume, and number of times of notification. 前記マークは枠を含むことを特徴とする請求項1~10のいずれか1項に記載の画像処理システム。 11. The image processing system according to claim 1, wherein said mark includes a frame. 画像を取得する画像取得ステップと、
前記画像を表示する表示制御ステップと、
前記画像における、対象物を指定する対象物指定ステップと、
複数の報知装置の中から一部の報知装置を選択する選択ステップと、
前記対象物の位置を示すマークを前記対象物の前記画像に重畳して表示させると共に、前記所定の報知装置によって報知を行わせる制御ステップと、
前記報知を行うのに伴い、前記画像と、前記マーク又は前記対象物の情報と、前記一部の報知装置の情報を記憶する記憶ステップと、を備えることを特徴とする画像処理方法。
an image acquisition step of acquiring an image;
a display control step of displaying the image;
an object designation step of designating an object in the image;
A selection step of selecting a part of the notification devices from among the plurality of notification devices;
a control step of superimposing and displaying a mark indicating the position of the object on the image of the object, and causing the predetermined notification device to perform notification;
An image processing method, comprising: a storage step of storing the image, the information of the mark or the object, and the information of the part of the informing devices in association with the informing.
請求項1~11のいずれか1項に記載の画像処理システムの各手段をコンピュータにより制御するためのコンピュータプログラム。

A computer program for controlling each means of the image processing system according to any one of claims 1 to 11 by a computer.

JP2022026311A 2022-02-24 2022-02-24 Image processing system, image processing method, and computer program Pending JP2023122673A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022026311A JP2023122673A (en) 2022-02-24 2022-02-24 Image processing system, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022026311A JP2023122673A (en) 2022-02-24 2022-02-24 Image processing system, image processing method, and computer program

Publications (1)

Publication Number Publication Date
JP2023122673A true JP2023122673A (en) 2023-09-05

Family

ID=87885715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022026311A Pending JP2023122673A (en) 2022-02-24 2022-02-24 Image processing system, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP2023122673A (en)

Similar Documents

Publication Publication Date Title
JP6171374B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP6332833B2 (en) Image processing system, image processing method, and program
US20200175298A1 (en) Mobile surveillance apparatus, program, and control method
US9298987B2 (en) Information processing apparatus, information processing method, program, and information processing system
CN105373331A (en) Information processing apparatus and display control method
JP5555044B2 (en) Camera control device and camera system
JPWO2018163547A1 (en) Product monitoring device, product monitoring system, output destination device, product monitoring method, display method, and program
JP2021072475A (en) Monitoring system and monitoring system setting program
JP6602067B2 (en) Display control apparatus, display control method, and program
EP2538354A1 (en) Terminal and method for displaying data thereof
JP6817792B2 (en) Information processing equipment, control methods and programs
JP2015130105A (en) Operator monitoring control device and operator monitoring control method
JP2014174507A (en) Augmented reality display device, information terminal, multi display system, and program
JP6268497B2 (en) Security system and person image display method
JP2023122673A (en) Image processing system, image processing method, and computer program
JP2009176131A (en) Client terminal monitoring system
JP2013247461A (en) Camera control device and camera control method
JP2021072474A (en) Server device and alarm check image generation method
JP2023122463A (en) Image processing device, image processing method, and computer program
JP2017168885A (en) Imaging control device and camera
JP7120337B2 (en) Control method, program and system
US11009991B2 (en) Display control apparatus and control method for the display control apparatus
JP2022080161A (en) Image processing device, control method of image processing device, and program
US20230252753A1 (en) Image processing apparatus, image processing method, and storage medium
JP3263008B2 (en) Disaster prevention display device