JP7302088B1 - system and program - Google Patents
system and program Download PDFInfo
- Publication number
- JP7302088B1 JP7302088B1 JP2022211834A JP2022211834A JP7302088B1 JP 7302088 B1 JP7302088 B1 JP 7302088B1 JP 2022211834 A JP2022211834 A JP 2022211834A JP 2022211834 A JP2022211834 A JP 2022211834A JP 7302088 B1 JP7302088 B1 JP 7302088B1
- Authority
- JP
- Japan
- Prior art keywords
- target
- threshold
- moving speed
- residence time
- measuring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 32
- 230000035945 sensitivity Effects 0.000 claims description 16
- 238000004891 communication Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 230000010365 information processing Effects 0.000 description 14
- 238000012790 confirmation Methods 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000004040 coloring Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011896 sensitive detection Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】カメラにより撮影された映像から人の滞留を検出する精度を向上させる。【解決手段】本開示の一例としてのシステムは、カメラにより撮影された映像を解析するシステムであって、映像において対象を検知し、対象の滞留時間を計測し、対象の移動速度を計測し、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行う。【選択図】図2An object of the present invention is to improve the accuracy of detecting a stagnation of people from images captured by a camera. A system as an example of the present disclosure is a system for analyzing video captured by a camera, detecting an object in the video, measuring the residence time of the object, measuring the moving speed of the object, When the residence time of the target is equal to or greater than the first threshold and the moving speed of the target is equal to or greater than the second threshold, it is detected that the target is staying, and an output indicating that the target is staying is output. [Selection drawing] Fig. 2
Description
本開示は、システムおよびプログラムに関する。 The present disclosure relates to systems and programs.
従来、カメラにより撮影した映像を解析し、当該映像内の人を検知する技術が知られている。このような技術では、たとえば、所定エリア内に人が所定時間以上継続して滞留した場合に、その旨を通知するアラームが出力される。 2. Description of the Related Art Conventionally, there is known a technique of analyzing an image captured by a camera and detecting a person in the image. With such a technique, for example, when a person stays in a predetermined area continuously for a predetermined time or longer, an alarm is output to notify that effect.
しかしながら、所定エリア内に滞留した時間のみを根拠として人の滞留の検出を行うと、たとえば夜間などのような、人の滞留が検出しにくい場合において、検出の精度が低下しやすい。 However, if the presence of people is detected based only on the time spent in a predetermined area, the accuracy of detection tends to decrease when the presence of people is difficult to detect, such as at night.
そこで、本開示が解決しようとする課題の一つは、カメラにより撮影された映像から人の滞留を検出する精度を向上させることが可能なシステムおよびプログラムを提供することである。 Therefore, one of the problems to be solved by the present disclosure is to provide a system and a program capable of improving the accuracy of detecting people's stagnation from images captured by cameras.
本開示の一例としてのシステムは、カメラにより撮影された映像を解析するシステムであって、映像において対象を検知し、対象の滞留時間を計測し、対象の移動速度を計測し、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行う。 An example system of the present disclosure is a system that analyzes video captured by a camera, detects a target in the video, measures the dwell time of the target, measures the moving speed of the target, measures the dwell time of the target, is greater than or equal to the first threshold and the moving speed of the target is greater than or equal to the second threshold, it is detected that the target is staying, and an output indicating that the target is staying is provided.
また、本開示の他の一例としてのシステムは、カメラにより撮影された映像を解析するシステムであって、映像において対象を検知し、対象の滞留時間を計測し、対象の移動速度を計測し、対象の移動速度が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行い、閾値は、対象の滞留時間が大きいほど小さくなるように変化する。 In addition, a system as another example of the present disclosure is a system that analyzes video captured by a camera, detects a target in the video, measures the residence time of the target, measures the moving speed of the target, When the moving speed of the object exceeds the threshold, it is detected that the object is staying, and an output indicating the staying of the object is performed, and the threshold changes so as to decrease as the staying time of the object increases.
また、本開示のさらに他の一例としてのシステムは、カメラにより撮影された映像を解析するシステムであって、映像において対象を検知し、対象の滞留時間を計測し、対象の移動速度を計測し、対象の滞留時間が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行い、閾値は、対象の移動速度が大きいほど小さくなるように変化する。 Further, a system as still another example of the present disclosure is a system that analyzes video captured by a camera, detects a target in the video, measures the residence time of the target, and measures the moving speed of the target. , when the residence time of the object exceeds the threshold, it detects that the object is staying and outputs an output indicating that the object is staying. .
また、本開示のさらに他の一例としての方法は、カメラにより撮影された映像を解析するシステムで実行される方法であって、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を含む。 Yet another exemplary method of the present disclosure is a method performed by a system for analyzing video captured by a camera, comprising detecting an object in the video and measuring dwell time of the object. and measuring the moving speed of the target, detecting that the target is staying when the target staying time is equal to or greater than the first threshold and the target moving speed is equal to or greater than the second threshold, and providing an output indicating dwell of the object.
また、本開示のさらに他の一例としての方法は、カメラにより撮影された映像を解析するシステムで実行される方法であって、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の移動速度が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を含み、閾値は、対象の滞留時間が大きいほど小さくなるように変化する。 Yet another exemplary method of the present disclosure is a method performed by a system for analyzing video captured by a camera, comprising detecting an object in the video and measuring dwell time of the object. and measuring the moving speed of the target, detecting that the target is staying when the moving speed of the target is equal to or higher than the threshold value, and outputting an output indicating the staying of the target, The threshold changes so that it becomes smaller as the residence time of the object increases.
また、本開示のさらに他の一例としての方法は、カメラにより撮影された映像を解析するシステムで実行される方法であって、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の滞留時間が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を含み、閾値は、対象の移動速度が大きいほど小さくなるように変化する。 Yet another exemplary method of the present disclosure is a method performed by a system for analyzing video captured by a camera, comprising detecting an object in the video and measuring dwell time of the object. and measuring the movement speed of the target, detecting that the target is staying when the target staying time is equal to or greater than the threshold, and outputting an output indicating the staying of the target, The threshold changes so that it becomes smaller as the movement speed of the target increases.
また、本開示のさらに他の一例としてのプログラムは、カメラにより撮影された映像を解析するシステムを構成するコンピュータに、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を実行させるための、プログラムである。 In addition, a program as still another example of the present disclosure causes a computer that configures a system for analyzing video captured by a camera to detect a target in the video, measure the dwell time of the target, and measuring the moving speed of the target, and detecting that the target is staying when the target staying time is equal to or greater than the first threshold and the target moving speed is equal to or greater than the second threshold, and the target staying It is a program for outputting and executing.
また、本開示のさらに他の一例としてのプログラムは、カメラにより撮影された映像を解析するシステムを構成するコンピュータに、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の移動速度が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を実行させるためのプログラムであって、閾値は、対象の滞留時間が大きいほど小さくなるように変化する。 In addition, a program as still another example of the present disclosure causes a computer that configures a system for analyzing video captured by a camera to detect a target in the video, measure the dwell time of the target, and , detecting that the object is staying when the moving speed of the object exceeds a threshold value, and outputting an output indicating that the object is staying. , and the threshold changes so as to decrease as the residence time of the object increases.
また、本開示のさらに他の一例としてのプログラムは、カメラにより撮影された映像を解析するシステムを構成するコンピュータに、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の滞留時間が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を実行させるためのプログラムであって、閾値は、対象の移動速度が大きいほど小さくなるように変化する。 In addition, a program as still another example of the present disclosure causes a computer that configures a system for analyzing video captured by a camera to detect a target in the video, measure the dwell time of the target, and , detecting that the object is staying when the staying time of the object is equal to or greater than a threshold value, and outputting an output indicating the staying of the object. , and the threshold changes so as to decrease as the movement speed of the object increases.
以下、本開示の実施形態および変形例を図面に基づいて説明する。以下に記載する実施形態および変形例の構成、ならびに当該構成によってもたらされる作用および効果は、あくまで一例であって、以下の記載内容に制限されるものではない。 Hereinafter, embodiments and modifications of the present disclosure will be described based on the drawings. The configurations of the embodiments and modifications described below, as well as the actions and effects brought about by the configurations, are merely examples, and are not limited to the following description.
図1は、実施形態にかかるシステム100の機能的構成を示した例示的かつ模式的なブロック図である。
FIG. 1 is an exemplary and schematic block diagram showing the functional configuration of a
図1に示されるように、実施形態にかかるシステム100は、カメラ110と、クラウドプラットフォーム120と、ユーザ端末130と、を含む。
As shown in FIG. 1 ,
カメラ110は、機能モジュールとして、撮影部111と、検知部112と、通信部113と、を含む。また、クラウドプラットフォーム120は、機能モジュールとして、通信部121と、記録部122と、画像情報生成部123と、を含む。また、ユーザ端末130は、機能モジュールとして、入力受付部131と、通信部132と、表示再生部133と、を含む。
The
カメラ110は、たとえば店舗などに設置され、ネットワーク経由でクラウドプラットフォーム120と通信可能に接続される。また、クラウドプラットフォーム120は、ネットワーク経由でユーザ端末130と通信可能に接続される。これにより、カメラ110により撮影された映像(および当該映像に基づいて検出される情報)は、クラウドプラットフォーム120を介してユーザ端末130に提供されうる。
Camera 110 is installed, for example, in a store, and is communicably connected to
ここで、カメラ110により撮影された映像を解析すれば、当該映像内に写っている人を検知することが可能である。このような技術として、従来、映像の所定エリア内に人が所定時間以上継続して滞留した場合に、その旨を通知するアラームを出力する技術が知られている。
Here, by analyzing the image captured by the
しかしながら、所定エリア内に滞在した時間のみを根拠として人の滞留の検出を行うと、たとえば夜間などのような、人の滞留が検出しにくい場合において、検出の精度が低下しやすい。 However, if the presence of people is detected based only on the length of time they stayed within the predetermined area, the accuracy of detection tends to decrease when it is difficult to detect the presence of people, such as at night.
そこで、実施形態では、以下に説明するような構成および処理により、カメラ110により撮影された映像から人の滞留を検出する精度を向上させることが実現される。
Therefore, in the embodiment, it is possible to improve the accuracy of detecting the presence of people from the image captured by the
図2は、実施形態にかかるシステム100において実行される処理の流れを示した例示的かつ模式的なシーケンス図である。なお、図2では、簡単化のため、クラウドプラットフォーム120が単にクラウド120として表現されている。
FIG. 2 is an exemplary and schematic sequence diagram showing the flow of processing executed in the
まず、ユーザ端末130を用いてカメラ110に対して各種の条件の設定を行うための設定処理について説明する。詳細は後述するが、条件とは、たとえば、人の検出をどのような基準(感度)で行うか、カメラ110の撮影範囲のうちのどのエリアを対象として人の検出を行うか、人が検出されたことの通知をどのような形で行うか、などに関する条件である。
First, setting processing for setting various conditions for the
設定処理においては、まず、ステップS201において、ユーザ端末130の入力受付部131は、下記の図3~図5に示されるようなUI(ユーザインターフェース)を介したユーザの操作に基づく条件の設定を受け付ける。
In the setting process, first, in step S201, the
図3は、実施形態にかかる条件の設定の一例としての感度の設定を説明するための例示的かつ模式的な図である。 FIG. 3 is an exemplary and schematic diagram for explaining sensitivity setting as an example of condition setting according to the embodiment.
図3に示される画像300は、各種の設定を行うためのユーザの操作を受け付けるUIの一例である。ユーザは、画像300において、左側の設定ボタン310の選択に応じて右側に表示される領域320内の各項目を設定することで、人の検出をどのような基準(感度)で行うかの設定を行うことができる。領域320には、人の検出を行うか否かのオンオフを切り替えるためのインターフェース321と、人の検出をどのような感度で行うかをLOW、MIDDLE、HIGH(LOW<MIDDLE<HIGHという順番で感度が高くなる、すなわちより敏感に人を検出するようになる)の3つのレベルの中から選択するためのインターフェース322と、人の検出を行う対象のエリアを設定するためのインターフェース323と、を含む。ここで、何れかの感度(LOW、MIDDLE、HIGH)が選択されると、それに対応して人の滞留時間の閾値と人の移動速度の閾値とが設定される。これらの閾値は、図6を用いて後述するように、固定値としてもよい。その場合、感度が高いほど、各閾値を低くすればよい。また、図7を用いて後述するように、可変値としてもよい。その場合、感度が高いほど、可変値を示すカーブの勾配を急にしたり、その基準となる人の移動速度の閾値の最小値や人の滞留時間の閾値の最小値を小さくしたりすればよい。なお、この図ではデフォルトとしてHIGHが選択されている状態を示しているが、デフォルトはLOWやMIDDLEとしてもよく、ユーザにより選択可能としてもよい。また、そもそも人の滞留時間の閾値と人の移動速度の閾値は、このように感度を介した設定に限らず、ユーザによりそれぞれ直接設定可能としてもよい。ユーザによりインターフェース323が操作されると、たとえば次の図4に示されるような画像400が出力される。
An
図4は、実施形態にかかる条件の設定の一例としてのエリアの設定を説明するための例示的かつ模式的な図である。 FIG. 4 is an exemplary and schematic diagram for explaining area setting as an example of condition setting according to the embodiment.
図4に示される画像401は、ユーザによるエリアの設定に関する操作を受け付けるUIの一例である。
An
この画像401において、左側には、設定済のエリア名が記載された領域402が一覧表示されるとともに、設定可能なエリア数の上限値と現在設定済のエリア数を示す情報、および新たなエリアを登録するための新規作成ボタン403が表示される。各領域402において、左側にある色が付されたアイコンは、領域401Aに表示された画像400内に設定されたエリアの色と連動しており、これをクリックして色を選択することで、エリア毎に所望の色を設定することが可能である。また、各領域402の右側にある削除ボタンは、これをクリックすることで、対応するエリアを削除することが可能である。領域402の中から1つをクリックして選択すると、その名称と、領域401Aに表示された画像400内の対応するエリアが共に強調表示され、選択されていることが識別可能となる。エリアが選択された状態で、画像400内の対応するエリアをクリック/ドラッグ等すると、そのエリアの位置や形を変更することが可能である。
In this
たとえば、図4に示される例では、設定済のエリアとして、6つのエリア411~416が存在している。ユーザは、新規作成ボタン403をクリックした後、領域401Aに表示された画像400上でドラッグ&ドロップ操作などを行うことにより、所望の位置、大きさ、および形のエリアを設定することが可能である。たとえば、エリアの頂点を順次クリックしていき、最後の頂点でダブルクリックすることにより、それらの頂点を結ぶエリアを設定することが可能である。
For example, in the example shown in FIG. 4, there are six
なお、上記のように設定されたエリア内で人が検出されたことの通知をどのような形で行うかは、次の図5に示されるようなUIを用いて設定される。 It should be noted that the manner in which the notification that a person is detected in the area set as described above is to be set is set using the UI shown in FIG. 5 below.
図5は、実施形態にかかる条件の設定の一例としての通知の設定を説明するための例示的かつ模式的な図である。 FIG. 5 is an exemplary and schematic diagram for explaining notification setting as an example of condition setting according to the embodiment.
図5に示される画像300は、各種の設定を行うためのユーザの操作を受け付けるUIの一例である。ユーザは、画像300において、左側の通知ボタン340の選択に応じて右側に表示される領域350、360、および370を用いて、人が検出されたことの通知をどのような形で行うかの設定を行うことができる。領域350は、「モーション」、「サウンド」、「接続・切断」、「人検知」などといった各項目についての電子メールまたはプッシュ通知による通知を各曜日で行うか否かをスケジュール形式で設定および確認可能なインターフェースである。領域360には、電子メールで通知を行うか否かのオンオフと、プッシュ通知で通知を行うか否かのオンオフと、を切り替えるためのインターフェースが表示される。また、領域370は、人が検出されたことの通知を行うか否かのオンオフを切り替えるためのインターフェースが表示される。ユーザは、領域350を利用したり、領域360および370を利用したりすることで、人が検出されたことの通知を各曜日で行うか否か、および当該通知を電子メールで行うかプッシュ通知で行うか、を設定することが可能である。
An
図2に戻り、ステップS201における条件の設定が終了すると、ステップS202において、ユーザ端末130の通信部132は、設定された条件をクラウドプラットフォーム120に送信する。そして、クラウドプラットフォーム120の通信部121は、ユーザ端末130により送信された条件を受信する。
Returning to FIG. 2, after setting the conditions in step S201, the
そして、ステップS203において、クラウドプラットフォーム120の通信部121は、ユーザ端末130から受信した条件をカメラ110に転送する。そして、カメラ110の通信部113は、クラウドプラットフォーム120により送信された条件を受信する。
Then, in step S<b>203 , the
そして、ステップS204において、カメラ110の検知部112は、クラウドプラットフォーム120から受信した条件を、以下で説明する撮影処理に利用するために保存する。このようにして、設定処理が終了する。
Then, in step S204, the
次に、カメラ110による映像の撮影と、当該映像に基づく各種の情報の検知と、を含む撮影処理について説明する。
Next, a description will be given of a photographing process including photographing of an image by the
撮影処理においては、まず、ステップS211において、カメラ110の撮影部111は、映像を撮影する。そして、ステップS212において、カメラ110の検知部112は、上述した設定処理において行われた設定に基づいて、映像から人を検知する検知処理を実行する。検知処理は、たとえば下記の図6Aおよび図6B、または図7に示されるようなロジックで実行される。
In the shooting process, first, in step S211, the
図6Aは、実施形態にかかる検知処理で使用されるロジックの一例を説明するための例示的かつ模式的な図である。 FIG. 6A is an exemplary schematic diagram for explaining an example of logic used in detection processing according to the embodiment.
図6Aに示される例において、曲線L601は、検知された人の移動速度の時間遷移の一例を示している。横軸は、人が検知されてからの経過時間(滞留時間)に対応し、縦軸は、検知された人の移動速度に対応する。 In the example shown in FIG. 6A, a curve L601 shows an example of temporal transition of the detected moving speed of a person. The horizontal axis corresponds to the elapsed time (residence time) after the person was detected, and the vertical axis corresponds to the moving speed of the detected person.
ここで、実施形態では、人の滞留を検出するにあたり、人の滞留時間と、人の移動速度と、の2つの指標が考慮される。したがって、図6Aに示される例では、人の滞留時間に関する閾値(第1閾値)tthreshだけでなく、人の移動速度に関する閾値(第2閾値)Vthreshが設けられている。 Here, in the embodiment, two indicators, ie, the residence time of a person and the speed of movement of a person, are taken into consideration when detecting the stay of a person. Therefore, in the example shown in FIG. 6A, not only the threshold (first threshold) t thresh regarding the residence time of people but also the threshold (second threshold) V thresh regarding the moving speed of people are provided.
すなわち、実施形態では、人の滞留時間が閾値tthresh以上となっただけでは、人の滞留が検出されず、人の滞留時間が閾値tthresh以上となり、かつ人の移動速度が閾値Vthresh以上となった場合(図6Aに示されるポイントP601参照)に、人の滞留が検出される。これにより、たとえば人の滞留時間だけを考慮して人の滞留を検出する場合に比べて、人の滞留の検出の精度を向上させることができる。 That is, in the embodiment, the presence of a person is not detected only when the residence time of a person exceeds the threshold value t thresh . When it becomes (refer to point P601 shown in FIG. 6A), stagnation of people is detected. As a result, it is possible to improve the accuracy of detection of the presence of people, for example, as compared with the case where the presence of people is detected by considering only the dwell time of people.
図6Bは、実施形態にかかる検知処理で使用されるロジックの一例を説明するための例示的かつ模式的な図である。図6Bは、図6Aを用いて説明した上記のロジックを別の例に基づいて再度説明するためのものである。 FIG. 6B is an exemplary schematic diagram for explaining an example of logic used in detection processing according to the embodiment. FIG. 6B is for re-explaining the above logic explained using FIG. 6A based on another example.
すなわち、図6Bに示される例において、曲線L602は、検知された人の移動速度の時間遷移の一例を示している。横軸は、人が検知されてからの経過時間(滞留時間)に対応し、縦軸は、検知された人の移動速度に対応する。 That is, in the example shown in FIG. 6B, the curve L602 shows an example of the temporal transition of the moving speed of the detected person. The horizontal axis corresponds to the elapsed time (residence time) after the person was detected, and the vertical axis corresponds to the moving speed of the detected person.
ここで、図6Bで示されるロジックは、図6Aで示されるロジックと同様である。したがって、図6Bに示される例では、人の滞留時間が閾値tthresh以上となり、かつ人の移動速度が閾値Vthresh以上となったポイントP602で、人の滞留が検出される。 Here, the logic shown in FIG. 6B is similar to the logic shown in FIG. 6A. Therefore, in the example shown in FIG. 6B, a person's stay is detected at a point P602 where the person's stay time is equal to or greater than the threshold t thresh and the person's moving speed is equal to or greater than the threshold V thresh .
なお、上述した2つの閾値は、ユーザの指示に応じて互いに別々に設定されてもよいし、2つの閾値が一体で設定されてもよい。後者の場合、たとえば、2つの閾値の複数の組み合わせを予め設定しておき、当該複数の組み合わせの中から、ユーザが設定した上記の感度に応じた1つの組み合わせを決定する、といった構成が採用されうる。 Note that the two thresholds described above may be set separately from each other according to a user's instruction, or the two thresholds may be integrally set. In the latter case, for example, a configuration is adopted in which a plurality of combinations of two thresholds are set in advance, and one combination is determined from among the plurality of combinations according to the sensitivity set by the user. sell.
ところで、上記では、滞留時間の閾値および移動速度の閾値が固定の場合が例示されているが、実施形態では、次の図7に示されるように、滞留時間の閾値と移動速度の閾値とが連動して変化してもよい。 By the way, in the above description, the case where the threshold for the staying time and the threshold for the moving speed are fixed is exemplified. However, in the embodiment, as shown in FIG. They may change in conjunction with each other.
図7は、実施形態にかかる検知処理で使用されるロジックの他の一例を説明するための例示的かつ模式的な図である。 FIG. 7 is an exemplary schematic diagram for explaining another example of logic used in the detection process according to the embodiment;
図7に示される例において、曲線L701およびL702は、2人の人の移動速度の時間遷移の例を示している。横軸は、人が検知されてからの経過時間(滞留時間)に対応し、縦軸は、検知された人の移動速度に対応する。 In the example shown in FIG. 7, curves L701 and L702 show an example of the time transition of the moving speeds of two people. The horizontal axis corresponds to the elapsed time (residence time) after the person was detected, and the vertical axis corresponds to the moving speed of the detected person.
ここで、図7に示される例では、滞留時間の閾値と移動速度の閾値とが、曲線L700で示されるように連動して変化する。すなわち、図7に示される例では、滞留時間の閾値が、移動速度が大きいほど小さくなるように設定されている。あるいは、移動速度の閾値が、滞留時間が大きいほど小さくなるように設定されている。なお、移動速度の閾値は、最低限、Vthresh_minよりも大きい値になるように設定される。このような曲線L700を式で表すと、たとえば、移動速度の閾値Vthresh=(所定のパラメータa/滞留時間t)+Vthresh_minとなる。なお、移動速度の閾値の代わりに、滞留時間の閾値について、最低限、Tthresh_minよりも大きい値になるように設定してもよい。このような曲線L700を式で表すと、たとえば、滞留時間の閾値Tthresh=(所定のパラメータb/移動速度v)+Tthresh_minとなる。 Here, in the example shown in FIG. 7, the threshold for the residence time and the threshold for the moving speed change in conjunction with each other as indicated by the curve L700. That is, in the example shown in FIG. 7, the threshold value of the residence time is set so as to decrease as the moving speed increases. Alternatively, the moving speed threshold is set so as to decrease as the residence time increases. Note that the moving speed threshold is set to a value at least greater than V thresh_min . If such a curve L700 is represented by a formula, for example, the movement speed threshold V thresh =(predetermined parameter a/residence time t)+V thresh_min . Note that instead of the moving speed threshold, the dwell time threshold may be set to a value at least greater than T thresh_min . If such a curve L700 is represented by a formula, for example, the threshold for the residence time T thresh =(predetermined parameter b/moving speed v)+T thresh_min .
これにより、図7に示される例では、人の滞留時間および移動速度が共に曲線L700を超えたポイントP701およびP702で、人の滞留が検出される。一般に、滞留時間が小さくても移動速度が大きければ対象が人である可能性が高く、また、滞留時間が大きければ移動速度が小さくても対象が人である可能性が高いため、図7に示されるロジックによれば、人の滞留を精度よく検出することができる。 As a result, in the example shown in FIG. 7, the presence of people is detected at points P701 and P702 where both the dwell time and moving speed of people exceed the curve L700. In general, even if the residence time is short, if the movement speed is high, there is a high possibility that the target is a person. According to the shown logic, it is possible to accurately detect the stagnation of people.
図2に戻り、ステップS212が終了すると、ステップS213において、カメラ110の通信部113は、ステップS211において撮影された映像と、ステップS212における検知処理の結果とを、クラウドプラットフォーム120に送信する。ここで、映像には、撮影した時刻が対応付けられ、検知結果には、少なくとも上記の検知ロジックにより人の滞留が検出された時刻が含まれる。なお、検知結果は、ステップS201で設定された条件を満たすときのみ送信しても、それ以外のときにも送信してもよい。そして、クラウドプラットフォーム120の通信部121は、カメラ110により送信された情報を受信する。
Returning to FIG. 2, when step S212 ends, the
そして、ステップS214において、クラウドプラットフォーム120の記録部122は、カメラ110から受信した映像および検知結果を記録する。そして、ステップS215において、クラウドプラットフォーム120の画像情報生成部123は、人の滞留の検出結果を示す情報として、たとえば次の図8に示されるような、タイムラインと呼ばれる画像情報を生成する。このようにして、撮影処理が終了する。
Then, in step S<b>214 , the
図8は、実施形態にかかるタイムラインの表示態様の一例を示した例示的かつ模式的な図である。 FIG. 8 is an exemplary schematic diagram showing an example of a display mode of a timeline according to the embodiment;
図8に示される画像800は、クラウドプラットフォーム120により生成されるタイムラインを含むUIの一例である。このUIは、後述する確認処理において、人の滞留の検出結果を示す情報としてユーザ端末130に提供されうる。
図8に示される画像800は、タイムラインが表示される領域801を含む。このタイムラインは、たとえば上記の検知ロジックにより人の滞留が検出された場合などのような、上述した設定処理において設定された各種の条件を満たす映像のタイミングを時系列で識別可能に示すものである。ここでいう識別可能とは、たとえばタイムラインにおいて前述の条件を満たすタイミングに色付きの帯やフラグなどのオブジェクトを付けて表示する態様を意味する。色を付ける場合、その色は前述したエリアの設定(図4参照)において設定した色と同じ色に対応させてもよい。図8において、人の滞留が検出されたケースが「人検知」のイベントとして分類され、他のイベント「サウンド」「モーション」「スナップショット」、「立ち入り検知」に対して識別可能な色で、タイムライン上に色付きの帯が表示される。そして、その中からユーザが所望の時刻を指定すると、その時刻に対応する映像が上部に表示される。このようなタイムラインをユーザ端末130に提供すれば、映像において着目すべきタイミングを適切に絞り込むことが可能になる。
なお、実施形態において、人の滞留の検出結果を示す情報を出力する形式は、上記のタイムラインのような形式に限られない。たとえば、実施形態では、人の滞留が検出されたタイミングの映像を示すサムネイルが時系列で並んだものが、人の滞留の検出結果を示す情報として出力されてもよい。 In addition, in the embodiment, the format for outputting the information indicating the detection result of the presence of people is not limited to the above format such as the timeline. For example, in the embodiment, a time-series list of thumbnails showing images of timings at which people's stay was detected may be output as information indicating the result of people's stay detection.
図2に戻り、上述した撮影処理において撮影される映像および検知される情報を確認するための確認処理について説明する。 Returning to FIG. 2, confirmation processing for confirming the image captured and the information detected in the above-described image capture processing will be described.
確認処理においては、まず、ステップS221において、ユーザ端末130の入力受付部131は、上述した撮影処理において撮影される映像および検知される情報を確認するためのユーザの操作に基づく確認要求を受け付ける。
In the confirmation process, first, in step S221, the
そして、ステップS222において、ユーザ端末130の通信部132は、受け付けた確認要求をクラウドプラットフォーム120に送信する。そして、クラウドプラットフォーム120の通信部121は、ユーザ端末130により送信された確認要求を受信する。
Then, in step S<b>222 , the
そして、ステップS223において、クラウドプラットフォーム120の画像情報生成部223は、ユーザ端末130から受信した確認要求に応じて、上述した撮影処理において生成した画像情報(タイムライン)を読み出す。
In step S<b>223 , the image information generation unit 223 of the
そして、ステップS224において、クラウドプラットフォーム120の通信部121は、ステップS223において読み出された画像情報をユーザ端末130に送信する。そして、ユーザ端末130の通信部132は、クラウドプラットフォーム120により送信された画像情報を受信する。
Then, in step S224, the
そして、ステップS225において、ユーザ端末130の表示再生部133は、クラウドプラットフォーム120から受信した画像情報をディスプレイ(不図示)に表示する。画像情報は、たとえば上述した図8に示されるような態様で表示される。
Then, in step S225, the display/
そして、ステップS226において、ユーザ端末130の入力受付部131は、上述した画像情報に基づいてユーザが所望のタイミングの映像を選択(指定)する操作としての選択指示を受け付ける。具体的には、上述した図8におけるタイムライン上の時刻の指定が、選択指示に当たる。
Then, in step S226, the
そして、ステップS227において、ユーザ端末130の通信部132は、受け付けた選択指示をクラウドプラットフォーム120に送信する。そして、クラウドプラットフォーム120の通信部121は、ユーザ端末130により送信された選択指示を受信する。
Then, in step S<b>227 , the
そして、ステップS228において、クラウドプラットフォーム120の画像情報生成部223は、ユーザ端末130から受信した選択指示に応じて、上述した撮影処理において記録した映像を読み出す。すなわち、ステップS226で選択(指定)されたものに対応する時刻の映像を読み出す。
Then, in step S<b>228 , the image information generation unit 223 of the
そして、ステップS229において、クラウドプラットフォーム120の通信部121は、ステップS228において読み出された映像をユーザ端末130に送信する。そして、ユーザ端末130の通信部132は、クラウドプラットフォーム120により送信された映像を受信する。
Then, in step S229, the
そして、ステップS230において、ユーザ端末130の表示再生部133は、クラウドプラットフォーム120から受信した映像をディスプレイ(不図示)上で再生する。このようにして、確認処理が終了する。
Then, in step S230, the display/
なお、実施形態において、人の滞留の検出結果は、ユーザが手動で行った確認要求に応じてユーザに通知されるだけでなく、ステップS221で設定した通知の条件に従って自動でユーザに通知されることもありうる。このような自動での通知は、たとえば次の図9に示されるような電子メールをユーザ端末に送信する態様で行われる。また、このような自動での通知は、たとえばユーザ端末においてOSまたは映像確認用のアプリ等を利用中にそれらを介してプッシュ通知を出力するという態様で行われてもよい。 In addition, in the embodiment, the user is automatically notified of the detection result of the presence of people not only in response to the confirmation request manually made by the user, but also according to the notification conditions set in step S221. It is possible. Such automatic notification is performed, for example, by sending an e-mail as shown in FIG. 9 below to the user terminal. Further, such automatic notification may be performed, for example, by outputting a push notification via an OS or an application for video confirmation on the user terminal while the user is using the OS or the like.
図9は、実施形態にかかる電子メールを用いた通知の態様の一例を示した例示的かつ模式的な図である。 FIG. 9 is an exemplary and schematic diagram showing an example of a form of notification using e-mail according to the embodiment.
図9に示される画像900は、人の滞留の検出結果が電子メールで通知される場合に当該電子メール内に表示されるUIの一例である。ユーザは、画像900の上部に設けられた領域910内に表示された画像により、人の滞留が検出されたタイミングでの映像を確認することができ、画像900の下部に設けられた領域910内に表示された内容により、人の滞留がどのエリアに設置されたどのデバイスにより検出されたかを確認することができる。
An
以上説明したように、実施形態にかかるシステム100は、カメラ110により撮影された映像を解析する。システム100は、映像において対象(たとえば人)を検知し、対象の滞留時間を計測し、対象の移動速度を計測する。システム100は、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力(たとえば通知)を行う。このような構成によれば、たとえば夜間のような人の滞留が検出しにくい場合において、人の滞留時間だけを考慮して人の滞留を検出する場合に比べて、人の滞留の検出の精度を向上させることができる。
As explained above, the
なお、実施形態では、上記の第1閾値および第2閾値の複数の組み合わせが予め設定されうる。この場合、システム100は、ユーザの指示に応じて、対象の滞留の検出の感度を設定し、当該感度に応じて、上記の複数の組み合わせの中から、対象の滞留の検出に使用する第1閾値および第2閾値の1つの組み合わせを決定しうる。このような構成によれば、第1閾値および第2閾値という2つの閾値を感度という1つの指標を用いて簡単に設定することができる。
In addition, in the embodiment, a plurality of combinations of the first threshold and the second threshold can be set in advance. In this case, the
また、実施形態において、システム100は、ユーザの指示に応じて、上記の第1閾値および第2閾値を別々に設定しうる。このような構成によれば、第1閾値および第2閾値を別々に設定することで、対象の滞留を検出する基準をより細かく設定することができる。
Also, in an embodiment, the
また、実施形態において、上記の第2閾値は、対象の滞留時間が大きいほど小さくなるように変化しうるし、上記の第1閾値は、対象の移動速度が大きいほど小さくなるように変化しうる。一般に、滞留時間が小さくても移動速度が大きければ対象の滞留を検出すべき状況である可能性が高く、また、滞留時間が大きければ移動速度が小さくても対象の滞留を検出すべき状況である可能性が高いため、このような構成によれば、対象の滞留を精度よく検出することができる。 Also, in the embodiment, the second threshold may decrease as the residence time of the target increases, and the first threshold may decrease as the moving speed of the target increases. In general, even if the residence time is short, if the moving speed is high, there is a high possibility that the target should be detected. Since there is a high possibility that there is a stagnation, according to such a configuration, the stagnation of the target can be detected with high accuracy.
また、実施形態において、システム100は、対象を検知するエリアを設定する。このような構成によれば、映像に映っている全エリアではなく、設定したエリアに絞って対象を検知することができるので、対象を検知する処理の負担を軽減することができる。
Also, in an embodiment, the
さらに、実施形態において、システム100は、対象の滞留を示す出力は、対象の滞留を検出したタイミングをタイムラインで識別可能に表示することを含む(図8参照)。このような構成によれば、対象の滞留を検出したタイミングを視覚的に分かりやすくユーザに通知することができる。
Furthermore, in the embodiment, the
また、実施形態にかかるシステム100は、対象の滞留を示す出力は、対象の滞留を検出したことを電子メールで通知することを含む(図9参照)。このような構成によれば、電子メールを用いて、対象の滞留を検出したことをユーザに容易に通知することができる。
In addition, in the
最後に、上述した実施形態にかかるシステム100を構成するカメラ110、クラウドプラットフォーム120、およびユーザ端末130に含まれるハードウェア構成について説明する。実施形態において、カメラ110、クラウドプラットフォーム120、およびユーザ端末130は、たとえば次の図10に示されるようなハードウェア構成を有する情報処理装置(コンピュータ)1100を含むように構成される。
Finally, hardware configurations included in the
図10は、実施形態にかかるカメラ110、クラウドプラットフォーム120、およびユーザ端末130に含まれる情報処理装置1100のハードウェア構成を示した例示的かつ模式的なブロック図である。
FIG. 10 is an exemplary and schematic block diagram showing the hardware configuration of the
なお、図10は、カメラ110、クラウドプラットフォーム120、およびユーザ端末130において実質的に共通するハードウェア構成のみを示したものである。このため、カメラ110、クラウドプラットフォーム120、およびユーザ端末130の実際のハードウェア構成は、図10に示されている以外の部分で様々に異なる点について留意されたい。
Note that FIG. 10 shows only the hardware configuration substantially common among the
図10に示されるように、情報処理装置1000は、プロセッサ1010と、メモリ1020と、ストレージ1030と、入出力インターフェース(I/F)1040と、通信インターフェース(I/F)1050と、を備えている。これらのハードウェアは、バス1060に接続されている。
As shown in FIG. 10, the
プロセッサ1010は、たとえばCPU(Central Processing Unit)として構成され、情報処理装置1000の各部の動作を統括的に制御する。
メモリ1020は、たとえばROM(Read Only Memory)およびRAM(Random Access Memory)を含み、プロセッサ1010により実行されるプログラムなどの各種のデータの揮発的または不揮発的な記憶、およびプロセッサ1010がプログラムを実行するための作業領域の提供などを実現する。
ストレージ1030は、たとえばHDD(Hard Disk Drive)またはSSD(Solid State Drive)を含み、各種のデータを不揮発的に記憶する。
入出力インターフェース1040は、たとえばキーボードおよびマウスなどのような入力装置(不図示)から情報処理装置1000へのデータの入力と、たとえば情報処理装置1000からディスプレイおよびスピーカなどのような出力装置(不図示)へのデータの出力と、を制御する。
The input/
通信インターフェース1050は、情報処理装置1000が他の装置と通信を実行することを可能にする。
実施形態にかかるカメラ110、クラウドプラットフォーム120、およびユーザ端末130が有する各機能モジュール(図1参照)は、それぞれの情報処理装置1000のプロセッサ1010がメモリ1020またはストレージ1030に予め記憶された情報処理プログラムを実行した結果として、ハードウェアとソフトウェアとの協働による機能モジュール群として実現される。ただし、実施形態では、図1に示される機能モジュール群のうち一部または全部が、専用に設計された回路のようなハードウェアのみによって実現されてもよい。
Each functional module (see FIG. 1) of the
なお、上述した情報処理プログラムは、必ずしもメモリ1020またはストレージ1030に予め記憶されている必要はない。たとえば、上述した情報処理プログラムは、フレキシブルディスク(FD)のような各種の磁気ディスク、またはDVD(Digital Versatile Disk)のような各種の光ディスクなどといった、コンピュータで読み取り可能な媒体にインストール可能な形式または実行可能な形式で記録されたコンピュータプログラムプロダクトとして提供されてもよい。
Note that the information processing program described above does not necessarily have to be pre-stored in
また、上述した情報処理プログラムは、インターネットなどのネットワーク経由で提供または配布されてもよい。すなわち、上述した情報処理プログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納された状態で、ネットワーク経由でのダウンロードを受け付ける、といった形で提供されてもよい。 Further, the information processing program described above may be provided or distributed via a network such as the Internet. That is, the information processing program described above may be provided in a form of being stored on a computer connected to a network such as the Internet, and being downloaded via the network.
以上、本開示の実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態およびその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments of the present disclosure have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and their equivalents.
100 システム
110 カメラ
111 撮影部
112 検知部
113 通信部
120 クラウドプラットフォーム
121 通信部
122 記録部
123 画像情報生成部
130 ユーザ端末
131 入力受付部
132 通信部
133 表示再生部
100
Claims (17)
前記映像において対象を検知し、
前記対象の滞留時間を計測し、
前記対象の移動速度を計測し、
前記対象の滞留時間が第1閾値以上であり、かつ前記対象の移動速度が第2閾値以上である場合に、前記対象を検知したことを示す出力を行う、
システム。 A system for analyzing video captured by a camera,
detecting an object in the image;
measuring the residence time of the target;
measuring the moving speed of the target;
When the residence time of the target is greater than or equal to a first threshold and the moving speed of the target is greater than or equal to a second threshold, an output indicating that the target has been detected is performed.
system.
ユーザの指示に応じて、前記対象の検知の感度を設定し、
前記感度に応じて、前記複数の組み合わせの中から、使用する前記第1閾値及び前記第2閾値の1つの組み合わせを決定する、
請求項1に記載のシステム。 A plurality of combinations of the first threshold and the second threshold are set in advance,
setting the sensitivity of detection of the object according to a user's instruction;
Determining one combination of the first threshold and the second threshold to be used from among the plurality of combinations according to the sensitivity;
The system of claim 1.
請求項1に記載のシステム。 Setting the first threshold and the second threshold separately according to a user's instruction;
The system of claim 1.
請求項1に記載のシステム。 The second threshold changes so as to decrease as the residence time of the target increases.
The system of claim 1.
請求項1に記載のシステム。 The first threshold changes so as to decrease as the movement speed of the target increases.
The system of claim 1.
前記映像において対象を検知し、
前記対象の滞留時間を計測し、
前記対象の移動速度を計測し、
前記対象の移動速度が閾値以上となった場合に、前記対象を検知したことを示す出力を行い、
前記閾値は、前記対象の滞留時間が大きいほど小さくなるように変化する、
システム。 A system for analyzing video captured by a camera,
detecting an object in the image;
measuring the residence time of the target;
measuring the moving speed of the target;
When the movement speed of the target is equal to or greater than a threshold, outputting an output indicating that the target has been detected ,
The threshold changes so as to decrease as the residence time of the target increases.
system.
前記映像において対象を検知し、
前記対象の滞留時間を計測し、
前記対象の移動速度を計測し、
前記対象の滞留時間が閾値以上となった場合に、前記対象を検知したことを示す出力を行い、
前記閾値は、前記対象の移動速度が大きいほど小さくなるように変化する、
システム。 A system for analyzing video captured by a camera,
detecting an object in the image;
measuring the residence time of the target;
measuring the moving speed of the target;
When the residence time of the target is equal to or greater than a threshold, outputting an output indicating that the target has been detected ,
The threshold changes so as to decrease as the moving speed of the target increases.
system.
請求項1~7のうちいずれか1項に記載のシステム。 setting an area for detecting the target;
System according to any one of claims 1-7.
請求項1~7のうちいずれか1項に記載のシステム。 The output is to display the timing at which the target is detected in an identifiable manner on a timeline.
System according to any one of claims 1-7.
請求項1~7のうちいずれか1項に記載のシステム。 the output is to notify by email that the object has been detected ;
System according to any one of claims 1-7.
請求項1~7のうちいずれか1項に記載のシステム。 The output is to display an image of the timing when the target is detected as a thumbnail,
System according to any one of claims 1-7.
前記映像において対象を検知することと、
前記対象の滞留時間を計測することと、
前記対象の移動速度を計測することと、
前記対象の滞留時間が第1閾値以上であり、かつ前記対象の移動速度が第2閾値以上である場合に、前記対象を検知したことを示す出力を行うことと、
を含む、方法。 A method performed by a system for analyzing video captured by a camera, comprising:
detecting an object in the video;
measuring the residence time of the object;
measuring the moving speed of the object;
performing an output indicating that the target has been detected when the residence time of the target is equal to or greater than a first threshold and the moving speed of the target is equal to or greater than a second threshold;
A method, including
前記映像において対象を検知することと、
前記対象の滞留時間を計測することと、
前記対象の移動速度を計測することと、
前記対象の移動速度が閾値以上となった場合に、前記対象を検知したことを示す出力を行うことと、
を含み、
前記閾値は、前記対象の滞留時間が大きいほど小さくなるように変化する、
方法。 A method performed by a system for analyzing video captured by a camera, comprising:
detecting an object in the video;
measuring the residence time of the object;
measuring the moving speed of the object;
outputting an output indicating that the target has been detected when the moving speed of the target is greater than or equal to a threshold;
including
The threshold changes so as to decrease as the residence time of the target increases.
Method.
前記映像において対象を検知することと、
前記対象の滞留時間を計測することと、
前記対象の移動速度を計測することと、
前記対象の滞留時間が閾値以上となった場合に、前記対象を検知したことを示す出力を行うことと、
を含み、
前記閾値は、前記対象の移動速度が大きいほど小さくなるように変化する、
方法。 A method performed by a system for analyzing video captured by a camera, comprising:
detecting an object in the video;
measuring the residence time of the object;
measuring the moving speed of the object;
When the residence time of the target is equal to or greater than a threshold, outputting an output indicating that the target has been detected ;
including
The threshold changes so as to decrease as the moving speed of the target increases.
Method.
前記映像において対象を検知することと、
前記対象の滞留時間を計測することと、
前記対象の移動速度を計測することと、
前記対象の滞留時間が第1閾値以上であり、かつ前記対象の移動速度が第2閾値以上である場合に、前記対象を検知したことを示す出力を行うことと、
を実行させるための、プログラム。 The computer that makes up the system that analyzes the video taken by the camera,
detecting an object in the video;
measuring the residence time of the object;
measuring the moving speed of the object;
performing an output indicating that the target has been detected when the residence time of the target is equal to or greater than a first threshold and the moving speed of the target is equal to or greater than a second threshold;
A program to run the
前記映像において対象を検知することと、
前記対象の滞留時間を計測することと、
前記対象の移動速度を計測することと、
前記対象の移動速度が閾値以上となった場合に、前記対象を検知したことを示す出力を行うことと、
を実行させるためのプログラムであって、
前記閾値は、前記対象の滞留時間が大きいほど小さくなるように変化する、
プログラム。 The computer that makes up the system that analyzes the video taken by the camera,
detecting an object in the video;
measuring the residence time of the object;
measuring the moving speed of the object;
outputting an output indicating that the target has been detected when the moving speed of the target is greater than or equal to a threshold;
A program for executing
The threshold changes so as to decrease as the residence time of the target increases.
program.
前記映像において対象を検知することと、
前記対象の滞留時間を計測することと、
前記対象の移動速度を計測することと、
前記対象の滞留時間が閾値以上となった場合に、前記対象を検知したことを示す出力を行うことと、
を実行させるためのプログラムであって、
前記閾値は、前記対象の移動速度が大きいほど小さくなるように変化する、
プログラム。 The computer that makes up the system that analyzes the video taken by the camera,
detecting an object in the video;
measuring the residence time of the object;
measuring the moving speed of the object;
When the residence time of the target is equal to or greater than a threshold, outputting an output indicating that the target has been detected ;
A program for executing
The threshold changes so as to decrease as the moving speed of the target increases.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022211834A JP7302088B1 (en) | 2022-12-28 | 2022-12-28 | system and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022211834A JP7302088B1 (en) | 2022-12-28 | 2022-12-28 | system and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7302088B1 true JP7302088B1 (en) | 2023-07-03 |
Family
ID=86996670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022211834A Active JP7302088B1 (en) | 2022-12-28 | 2022-12-28 | system and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7302088B1 (en) |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006019845A (en) * | 2004-06-30 | 2006-01-19 | Canon Sales Co Inc | Image processing apparatus, image processing system, image processing method, and program |
JP2010258704A (en) * | 2009-04-23 | 2010-11-11 | Canon Inc | Reproducing unit and reproduction method |
JP2010277547A (en) * | 2009-06-01 | 2010-12-09 | Chuo Electronics Co Ltd | Congestion situation detecting device, method, and program |
JP2012123460A (en) * | 2010-12-06 | 2012-06-28 | Toshiba Corp | Video retrieval device and video retrieval method |
WO2014129042A1 (en) * | 2013-02-21 | 2014-08-28 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2015040929A1 (en) * | 2013-09-19 | 2015-03-26 | 日本電気株式会社 | Image processing system, image processing method, and program |
WO2017026155A1 (en) * | 2015-08-11 | 2017-02-16 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017188023A (en) * | 2016-04-08 | 2017-10-12 | パナソニックIpマネジメント株式会社 | Institutional activity analysis device, institutional activity analysis system, and institutional activity analysis method |
JP2020091649A (en) * | 2018-12-05 | 2020-06-11 | キヤノン株式会社 | Image processing device, image processing system, control method of image processing device, and program |
JP2020166590A (en) * | 2019-03-29 | 2020-10-08 | グローリー株式会社 | Monitoring system, monitoring device, monitoring method, and monitoring program |
JP2020178149A (en) * | 2019-04-15 | 2020-10-29 | シャープ株式会社 | Monitoring device and monitoring method |
JP2021072475A (en) * | 2019-10-29 | 2021-05-06 | パナソニックIpマネジメント株式会社 | Monitoring system and monitoring system setting program |
JP2021100173A (en) * | 2019-12-20 | 2021-07-01 | シャープ株式会社 | Monitoring system and monitoring method |
JP2021136656A (en) * | 2020-02-28 | 2021-09-13 | パナソニックi−PROセンシングソリューションズ株式会社 | Face detection system |
JP2021145243A (en) * | 2020-03-12 | 2021-09-24 | パナソニックIpマネジメント株式会社 | Monitoring camera management device, monitoring camera management system, monitoring camera management method, and program |
JP2022053126A (en) * | 2020-09-24 | 2022-04-05 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Congestion status estimation device, method, and program |
-
2022
- 2022-12-28 JP JP2022211834A patent/JP7302088B1/en active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006019845A (en) * | 2004-06-30 | 2006-01-19 | Canon Sales Co Inc | Image processing apparatus, image processing system, image processing method, and program |
JP2010258704A (en) * | 2009-04-23 | 2010-11-11 | Canon Inc | Reproducing unit and reproduction method |
JP2010277547A (en) * | 2009-06-01 | 2010-12-09 | Chuo Electronics Co Ltd | Congestion situation detecting device, method, and program |
JP2012123460A (en) * | 2010-12-06 | 2012-06-28 | Toshiba Corp | Video retrieval device and video retrieval method |
WO2014129042A1 (en) * | 2013-02-21 | 2014-08-28 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2015040929A1 (en) * | 2013-09-19 | 2015-03-26 | 日本電気株式会社 | Image processing system, image processing method, and program |
WO2017026155A1 (en) * | 2015-08-11 | 2017-02-16 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017188023A (en) * | 2016-04-08 | 2017-10-12 | パナソニックIpマネジメント株式会社 | Institutional activity analysis device, institutional activity analysis system, and institutional activity analysis method |
JP2020091649A (en) * | 2018-12-05 | 2020-06-11 | キヤノン株式会社 | Image processing device, image processing system, control method of image processing device, and program |
JP2020166590A (en) * | 2019-03-29 | 2020-10-08 | グローリー株式会社 | Monitoring system, monitoring device, monitoring method, and monitoring program |
JP2020178149A (en) * | 2019-04-15 | 2020-10-29 | シャープ株式会社 | Monitoring device and monitoring method |
JP2021072475A (en) * | 2019-10-29 | 2021-05-06 | パナソニックIpマネジメント株式会社 | Monitoring system and monitoring system setting program |
JP2021100173A (en) * | 2019-12-20 | 2021-07-01 | シャープ株式会社 | Monitoring system and monitoring method |
JP2021136656A (en) * | 2020-02-28 | 2021-09-13 | パナソニックi−PROセンシングソリューションズ株式会社 | Face detection system |
JP2021145243A (en) * | 2020-03-12 | 2021-09-24 | パナソニックIpマネジメント株式会社 | Monitoring camera management device, monitoring camera management system, monitoring camera management method, and program |
JP2022053126A (en) * | 2020-09-24 | 2022-04-05 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Congestion status estimation device, method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10313627B2 (en) | Apparatus for playing back recorded video images related to event, and method thereof | |
US10120536B2 (en) | Monitoring method | |
JP4739397B2 (en) | REPRODUCTION METHOD, SERVER DEVICE, TRANSMISSION METHOD, AND DISPLAY DEVICE | |
US10332561B2 (en) | Multi-source video input | |
US20180061065A1 (en) | Information processing apparatus, method thereof, and computer-readable storage medium | |
JP2006148260A (en) | Automatic tracking device, image abnormality detector, automatic tracking method, image abnormality detecting method, program and storage medium | |
US10359819B2 (en) | Imaging device | |
KR20110093040A (en) | Apparatus and method for monitoring an object | |
JP6602067B2 (en) | Display control apparatus, display control method, and program | |
US20200045242A1 (en) | Display control device, display control method, and program | |
JP7302088B1 (en) | system and program | |
CN112449159B (en) | Monitoring video display control method and device, electronic equipment and storage medium | |
US7496212B2 (en) | Change detecting method and apparatus | |
JP2021027579A (en) | Image determination device and image determination system | |
JP7279241B1 (en) | system and program | |
US11361797B2 (en) | Moving image reproduction apparatus, moving image reproduction method, moving image reproduction system, and storage medium | |
CN112307882A (en) | Image determination device and image determination system | |
JP2022076241A (en) | Information processing device, information processing method, and program | |
JP2017174152A (en) | Monitor system | |
JP7361233B1 (en) | Systems, methods, and programs | |
CN113727067B (en) | Alarm display method and device, electronic equipment and machine-readable storage medium | |
US9785656B2 (en) | Data processing apparatus for clustering time-series data based on generated reference values and data processing method for same | |
US20230171382A1 (en) | Image capturing apparatus, method of controlling the same, and storage medium | |
KR20140066560A (en) | Method and apparatus for setting object area for use in video monitoring device | |
US11570367B2 (en) | Method and electronic device for intelligent camera zoom |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230217 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230621 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7302088 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |