JP7302088B1 - system and program - Google Patents

system and program Download PDF

Info

Publication number
JP7302088B1
JP7302088B1 JP2022211834A JP2022211834A JP7302088B1 JP 7302088 B1 JP7302088 B1 JP 7302088B1 JP 2022211834 A JP2022211834 A JP 2022211834A JP 2022211834 A JP2022211834 A JP 2022211834A JP 7302088 B1 JP7302088 B1 JP 7302088B1
Authority
JP
Japan
Prior art keywords
target
threshold
moving speed
residence time
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022211834A
Other languages
Japanese (ja)
Inventor
勇輝 木村
貴博 橋本
Original Assignee
セーフィー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by セーフィー株式会社 filed Critical セーフィー株式会社
Priority to JP2022211834A priority Critical patent/JP7302088B1/en
Application granted granted Critical
Publication of JP7302088B1 publication Critical patent/JP7302088B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】カメラにより撮影された映像から人の滞留を検出する精度を向上させる。【解決手段】本開示の一例としてのシステムは、カメラにより撮影された映像を解析するシステムであって、映像において対象を検知し、対象の滞留時間を計測し、対象の移動速度を計測し、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行う。【選択図】図2An object of the present invention is to improve the accuracy of detecting a stagnation of people from images captured by a camera. A system as an example of the present disclosure is a system for analyzing video captured by a camera, detecting an object in the video, measuring the residence time of the object, measuring the moving speed of the object, When the residence time of the target is equal to or greater than the first threshold and the moving speed of the target is equal to or greater than the second threshold, it is detected that the target is staying, and an output indicating that the target is staying is output. [Selection drawing] Fig. 2

Description

本開示は、システムおよびプログラムに関する。 The present disclosure relates to systems and programs.

従来、カメラにより撮影した映像を解析し、当該映像内の人を検知する技術が知られている。このような技術では、たとえば、所定エリア内に人が所定時間以上継続して滞留した場合に、その旨を通知するアラームが出力される。 2. Description of the Related Art Conventionally, there is known a technique of analyzing an image captured by a camera and detecting a person in the image. With such a technique, for example, when a person stays in a predetermined area continuously for a predetermined time or longer, an alarm is output to notify that effect.

特開2021-72475号公報JP 2021-72475 A

しかしながら、所定エリア内に滞留した時間のみを根拠として人の滞留の検出を行うと、たとえば夜間などのような、人の滞留が検出しにくい場合において、検出の精度が低下しやすい。 However, if the presence of people is detected based only on the time spent in a predetermined area, the accuracy of detection tends to decrease when the presence of people is difficult to detect, such as at night.

そこで、本開示が解決しようとする課題の一つは、カメラにより撮影された映像から人の滞留を検出する精度を向上させることが可能なシステムおよびプログラムを提供することである。 Therefore, one of the problems to be solved by the present disclosure is to provide a system and a program capable of improving the accuracy of detecting people's stagnation from images captured by cameras.

本開示の一例としてのシステムは、カメラにより撮影された映像を解析するシステムであって、映像において対象を検知し、対象の滞留時間を計測し、対象の移動速度を計測し、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行う。 An example system of the present disclosure is a system that analyzes video captured by a camera, detects a target in the video, measures the dwell time of the target, measures the moving speed of the target, measures the dwell time of the target, is greater than or equal to the first threshold and the moving speed of the target is greater than or equal to the second threshold, it is detected that the target is staying, and an output indicating that the target is staying is provided.

また、本開示の他の一例としてのシステムは、カメラにより撮影された映像を解析するシステムであって、映像において対象を検知し、対象の滞留時間を計測し、対象の移動速度を計測し、対象の移動速度が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行い、閾値は、対象の滞留時間が大きいほど小さくなるように変化する。 In addition, a system as another example of the present disclosure is a system that analyzes video captured by a camera, detects a target in the video, measures the residence time of the target, measures the moving speed of the target, When the moving speed of the object exceeds the threshold, it is detected that the object is staying, and an output indicating the staying of the object is performed, and the threshold changes so as to decrease as the staying time of the object increases.

また、本開示のさらに他の一例としてのシステムは、カメラにより撮影された映像を解析するシステムであって、映像において対象を検知し、対象の滞留時間を計測し、対象の移動速度を計測し、対象の滞留時間が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行い、閾値は、対象の移動速度が大きいほど小さくなるように変化する。 Further, a system as still another example of the present disclosure is a system that analyzes video captured by a camera, detects a target in the video, measures the residence time of the target, and measures the moving speed of the target. , when the residence time of the object exceeds the threshold, it detects that the object is staying and outputs an output indicating that the object is staying. .

また、本開示のさらに他の一例としての方法は、カメラにより撮影された映像を解析するシステムで実行される方法であって、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を含む。 Yet another exemplary method of the present disclosure is a method performed by a system for analyzing video captured by a camera, comprising detecting an object in the video and measuring dwell time of the object. and measuring the moving speed of the target, detecting that the target is staying when the target staying time is equal to or greater than the first threshold and the target moving speed is equal to or greater than the second threshold, and providing an output indicating dwell of the object.

また、本開示のさらに他の一例としての方法は、カメラにより撮影された映像を解析するシステムで実行される方法であって、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の移動速度が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を含み、閾値は、対象の滞留時間が大きいほど小さくなるように変化する。 Yet another exemplary method of the present disclosure is a method performed by a system for analyzing video captured by a camera, comprising detecting an object in the video and measuring dwell time of the object. and measuring the moving speed of the target, detecting that the target is staying when the moving speed of the target is equal to or higher than the threshold value, and outputting an output indicating the staying of the target, The threshold changes so that it becomes smaller as the residence time of the object increases.

また、本開示のさらに他の一例としての方法は、カメラにより撮影された映像を解析するシステムで実行される方法であって、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の滞留時間が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を含み、閾値は、対象の移動速度が大きいほど小さくなるように変化する。 Yet another exemplary method of the present disclosure is a method performed by a system for analyzing video captured by a camera, comprising detecting an object in the video and measuring dwell time of the object. and measuring the movement speed of the target, detecting that the target is staying when the target staying time is equal to or greater than the threshold, and outputting an output indicating the staying of the target, The threshold changes so that it becomes smaller as the movement speed of the target increases.

また、本開示のさらに他の一例としてのプログラムは、カメラにより撮影された映像を解析するシステムを構成するコンピュータに、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を実行させるための、プログラムである。 In addition, a program as still another example of the present disclosure causes a computer that configures a system for analyzing video captured by a camera to detect a target in the video, measure the dwell time of the target, and measuring the moving speed of the target, and detecting that the target is staying when the target staying time is equal to or greater than the first threshold and the target moving speed is equal to or greater than the second threshold, and the target staying It is a program for outputting and executing.

また、本開示のさらに他の一例としてのプログラムは、カメラにより撮影された映像を解析するシステムを構成するコンピュータに、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の移動速度が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を実行させるためのプログラムであって、閾値は、対象の滞留時間が大きいほど小さくなるように変化する。 In addition, a program as still another example of the present disclosure causes a computer that configures a system for analyzing video captured by a camera to detect a target in the video, measure the dwell time of the target, and , detecting that the object is staying when the moving speed of the object exceeds a threshold value, and outputting an output indicating that the object is staying. , and the threshold changes so as to decrease as the residence time of the object increases.

また、本開示のさらに他の一例としてのプログラムは、カメラにより撮影された映像を解析するシステムを構成するコンピュータに、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の滞留時間が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を実行させるためのプログラムであって、閾値は、対象の移動速度が大きいほど小さくなるように変化する。 In addition, a program as still another example of the present disclosure causes a computer that configures a system for analyzing video captured by a camera to detect a target in the video, measure the dwell time of the target, and , detecting that the object is staying when the staying time of the object is equal to or greater than a threshold value, and outputting an output indicating the staying of the object. , and the threshold changes so as to decrease as the movement speed of the object increases.

図1は、実施形態にかかるシステムの機能的構成を示した例示的かつ模式的なブロック図である。FIG. 1 is an exemplary and schematic block diagram showing the functional configuration of the system according to the embodiment. 図2は、実施形態にかかるシステムにおいて実行される処理の流れを示した例示的かつ模式的なシーケンス図である。FIG. 2 is an exemplary and schematic sequence diagram showing the flow of processing executed in the system according to the embodiment; 図3は、実施形態にかかる条件の設定の一例としての感度の設定を説明するための例示的かつ模式的な図である。FIG. 3 is an exemplary and schematic diagram for explaining sensitivity setting as an example of condition setting according to the embodiment. 図4は、実施形態にかかる条件の設定の一例としてのエリアの設定を説明するための例示的かつ模式的な図である。FIG. 4 is an exemplary and schematic diagram for explaining area setting as an example of condition setting according to the embodiment. 図5は、実施形態にかかる条件の設定の一例としての通知の設定を説明するための例示的かつ模式的な図である。FIG. 5 is an exemplary and schematic diagram for explaining notification setting as an example of condition setting according to the embodiment. 図6Aは、実施形態にかかる検知処理で使用されるロジックの一例を説明するための例示的かつ模式的な図である。FIG. 6A is an exemplary schematic diagram for explaining an example of logic used in detection processing according to the embodiment. 図6Bは、実施形態にかかる検知処理で使用されるロジックの一例を説明するための例示的かつ模式的な図である。FIG. 6B is an exemplary schematic diagram for explaining an example of logic used in detection processing according to the embodiment. 図7は、実施形態にかかる検知処理で使用されるロジックの他の一例を説明するための例示的かつ模式的な図である。FIG. 7 is an exemplary schematic diagram for explaining another example of logic used in the detection process according to the embodiment; 図8は、実施形態にかかるタイムラインの表示態様の他の一例を示した例示的かつ模式的な図である。FIG. 8 is an exemplary schematic diagram showing another example of the display mode of the timeline according to the embodiment; 図9は、実施形態にかかる電子メールを用いた通知の態様の一例を示した例示的かつ模式的な図である。FIG. 9 is an exemplary and schematic diagram showing an example of a form of notification using e-mail according to the embodiment. 図10は、実施形態にかかるカメラ、クラウドプラットフォーム、およびユーザ端末に含まれる情報処理装置のハードウェア構成を示した例示的かつ模式的なブロック図である。10 is an exemplary and schematic block diagram showing the hardware configuration of the camera, cloud platform, and information processing apparatus included in the user terminal according to the embodiment; FIG.

以下、本開示の実施形態および変形例を図面に基づいて説明する。以下に記載する実施形態および変形例の構成、ならびに当該構成によってもたらされる作用および効果は、あくまで一例であって、以下の記載内容に制限されるものではない。 Hereinafter, embodiments and modifications of the present disclosure will be described based on the drawings. The configurations of the embodiments and modifications described below, as well as the actions and effects brought about by the configurations, are merely examples, and are not limited to the following description.

図1は、実施形態にかかるシステム100の機能的構成を示した例示的かつ模式的なブロック図である。 FIG. 1 is an exemplary and schematic block diagram showing the functional configuration of a system 100 according to an embodiment.

図1に示されるように、実施形態にかかるシステム100は、カメラ110と、クラウドプラットフォーム120と、ユーザ端末130と、を含む。 As shown in FIG. 1 , system 100 according to an embodiment includes camera 110 , cloud platform 120 and user terminal 130 .

カメラ110は、機能モジュールとして、撮影部111と、検知部112と、通信部113と、を含む。また、クラウドプラットフォーム120は、機能モジュールとして、通信部121と、記録部122と、画像情報生成部123と、を含む。また、ユーザ端末130は、機能モジュールとして、入力受付部131と、通信部132と、表示再生部133と、を含む。 The camera 110 includes an imaging unit 111, a detection unit 112, and a communication unit 113 as functional modules. The cloud platform 120 also includes a communication unit 121, a recording unit 122, and an image information generation unit 123 as functional modules. Further, the user terminal 130 includes an input reception unit 131, a communication unit 132, and a display/playback unit 133 as functional modules.

カメラ110は、たとえば店舗などに設置され、ネットワーク経由でクラウドプラットフォーム120と通信可能に接続される。また、クラウドプラットフォーム120は、ネットワーク経由でユーザ端末130と通信可能に接続される。これにより、カメラ110により撮影された映像(および当該映像に基づいて検出される情報)は、クラウドプラットフォーム120を介してユーザ端末130に提供されうる。 Camera 110 is installed, for example, in a store, and is communicably connected to cloud platform 120 via a network. Also, the cloud platform 120 is communicably connected to the user terminal 130 via a network. Accordingly, images captured by the camera 110 (and information detected based on the images) can be provided to the user terminal 130 via the cloud platform 120 .

ここで、カメラ110により撮影された映像を解析すれば、当該映像内に写っている人を検知することが可能である。このような技術として、従来、映像の所定エリア内に人が所定時間以上継続して滞留した場合に、その旨を通知するアラームを出力する技術が知られている。 Here, by analyzing the image captured by the camera 110, it is possible to detect the person appearing in the image. As such a technique, there is conventionally known a technique of outputting an alarm to notify that when a person stays in a predetermined area of a video continuously for a predetermined time or longer.

しかしながら、所定エリア内に滞在した時間のみを根拠として人の滞留の検出を行うと、たとえば夜間などのような、人の滞留が検出しにくい場合において、検出の精度が低下しやすい。 However, if the presence of people is detected based only on the length of time they stayed within the predetermined area, the accuracy of detection tends to decrease when it is difficult to detect the presence of people, such as at night.

そこで、実施形態では、以下に説明するような構成および処理により、カメラ110により撮影された映像から人の滞留を検出する精度を向上させることが実現される。 Therefore, in the embodiment, it is possible to improve the accuracy of detecting the presence of people from the image captured by the camera 110 by the configuration and processing described below.

図2は、実施形態にかかるシステム100において実行される処理の流れを示した例示的かつ模式的なシーケンス図である。なお、図2では、簡単化のため、クラウドプラットフォーム120が単にクラウド120として表現されている。 FIG. 2 is an exemplary and schematic sequence diagram showing the flow of processing executed in the system 100 according to the embodiment. Note that the cloud platform 120 is simply represented as the cloud 120 in FIG. 2 for the sake of simplification.

まず、ユーザ端末130を用いてカメラ110に対して各種の条件の設定を行うための設定処理について説明する。詳細は後述するが、条件とは、たとえば、人の検出をどのような基準(感度)で行うか、カメラ110の撮影範囲のうちのどのエリアを対象として人の検出を行うか、人が検出されたことの通知をどのような形で行うか、などに関する条件である。 First, setting processing for setting various conditions for the camera 110 using the user terminal 130 will be described. Although the details will be described later, the conditions include, for example, what standard (sensitivity) is used to detect people, which area in the photographing range of the camera 110 is to be used for human detection, and how people are detected. It is a condition regarding how to notify the fact that it has been done.

設定処理においては、まず、ステップS201において、ユーザ端末130の入力受付部131は、下記の図3~図5に示されるようなUI(ユーザインターフェース)を介したユーザの操作に基づく条件の設定を受け付ける。 In the setting process, first, in step S201, the input reception unit 131 of the user terminal 130 sets conditions based on user operations via a UI (user interface) as shown in FIGS. 3 to 5 below. accept.

図3は、実施形態にかかる条件の設定の一例としての感度の設定を説明するための例示的かつ模式的な図である。 FIG. 3 is an exemplary and schematic diagram for explaining sensitivity setting as an example of condition setting according to the embodiment.

図3に示される画像300は、各種の設定を行うためのユーザの操作を受け付けるUIの一例である。ユーザは、画像300において、左側の設定ボタン310の選択に応じて右側に表示される領域320内の各項目を設定することで、人の検出をどのような基準(感度)で行うかの設定を行うことができる。領域320には、人の検出を行うか否かのオンオフを切り替えるためのインターフェース321と、人の検出をどのような感度で行うかをLOW、MIDDLE、HIGH(LOW<MIDDLE<HIGHという順番で感度が高くなる、すなわちより敏感に人を検出するようになる)の3つのレベルの中から選択するためのインターフェース322と、人の検出を行う対象のエリアを設定するためのインターフェース323と、を含む。ここで、何れかの感度(LOW、MIDDLE、HIGH)が選択されると、それに対応して人の滞留時間の閾値と人の移動速度の閾値とが設定される。これらの閾値は、図6を用いて後述するように、固定値としてもよい。その場合、感度が高いほど、各閾値を低くすればよい。また、図7を用いて後述するように、可変値としてもよい。その場合、感度が高いほど、可変値を示すカーブの勾配を急にしたり、その基準となる人の移動速度の閾値の最小値や人の滞留時間の閾値の最小値を小さくしたりすればよい。なお、この図ではデフォルトとしてHIGHが選択されている状態を示しているが、デフォルトはLOWやMIDDLEとしてもよく、ユーザにより選択可能としてもよい。また、そもそも人の滞留時間の閾値と人の移動速度の閾値は、このように感度を介した設定に限らず、ユーザによりそれぞれ直接設定可能としてもよい。ユーザによりインターフェース323が操作されると、たとえば次の図4に示されるような画像400が出力される。 An image 300 illustrated in FIG. 3 is an example of a UI that receives user operations for performing various settings. In the image 300, the user sets the criteria (sensitivity) to be used for human detection by setting each item in the area 320 displayed on the right side according to the selection of the setting button 310 on the left side. It can be performed. An area 320 includes an interface 321 for switching on/off whether or not to detect a person, and LOW, MIDDLE, and HIGH (LOW<MIDDLE<HIGH sensitivity in the order of LOW<MIDDLE<HIGH) to set the sensitivity for detecting a person. an interface 322 for selecting from among three levels (i.e., more sensitive detection of people), and an interface 323 for setting the target area for human detection. . Here, when one of the sensitivities (LOW, MIDDLE, HIGH) is selected, the threshold for the dwell time of the person and the threshold for the moving speed of the person are set accordingly. These thresholds may be fixed values as described later with reference to FIG. In that case, the higher the sensitivity, the lower each threshold should be. Also, as will be described later with reference to FIG. 7, it may be a variable value. In that case, the higher the sensitivity, the steeper the slope of the curve that indicates the variable value, or the lower the minimum threshold for the movement speed of people and the minimum threshold for the dwell time of people, which serve as the reference. . Although this drawing shows a state in which HIGH is selected as the default, the default may be LOW or MIDDLE, or may be selectable by the user. Moreover, the threshold for the residence time of a person and the threshold for the movement speed of a person are not limited to the setting via the sensitivity as described above, and may be directly set by the user. When the user operates the interface 323, an image 400 as shown in FIG. 4 is output.

図4は、実施形態にかかる条件の設定の一例としてのエリアの設定を説明するための例示的かつ模式的な図である。 FIG. 4 is an exemplary and schematic diagram for explaining area setting as an example of condition setting according to the embodiment.

図4に示される画像401は、ユーザによるエリアの設定に関する操作を受け付けるUIの一例である。 An image 401 shown in FIG. 4 is an example of a UI that receives a user's operation related to area setting.

この画像401において、左側には、設定済のエリア名が記載された領域402が一覧表示されるとともに、設定可能なエリア数の上限値と現在設定済のエリア数を示す情報、および新たなエリアを登録するための新規作成ボタン403が表示される。各領域402において、左側にある色が付されたアイコンは、領域401Aに表示された画像400内に設定されたエリアの色と連動しており、これをクリックして色を選択することで、エリア毎に所望の色を設定することが可能である。また、各領域402の右側にある削除ボタンは、これをクリックすることで、対応するエリアを削除することが可能である。領域402の中から1つをクリックして選択すると、その名称と、領域401Aに表示された画像400内の対応するエリアが共に強調表示され、選択されていることが識別可能となる。エリアが選択された状態で、画像400内の対応するエリアをクリック/ドラッグ等すると、そのエリアの位置や形を変更することが可能である。 In this image 401, on the left side, a list of areas 402 in which already set area names are described is displayed, along with information indicating the upper limit of the number of areas that can be set and the number of areas that are currently set, and a new area. A new creation button 403 for registering is displayed. In each area 402, the colored icon on the left side is associated with the color of the area set in the image 400 displayed in area 401A. A desired color can be set for each area. Also, by clicking the delete button on the right side of each area 402, it is possible to delete the corresponding area. When one of the areas 402 is clicked to select it, both its name and the corresponding area within the image 400 displayed in area 401A are highlighted, making it identifiable as being selected. By clicking/dragging the corresponding area in the image 400 while the area is selected, the position and shape of the area can be changed.

たとえば、図4に示される例では、設定済のエリアとして、6つのエリア411~416が存在している。ユーザは、新規作成ボタン403をクリックした後、領域401Aに表示された画像400上でドラッグ&ドロップ操作などを行うことにより、所望の位置、大きさ、および形のエリアを設定することが可能である。たとえば、エリアの頂点を順次クリックしていき、最後の頂点でダブルクリックすることにより、それらの頂点を結ぶエリアを設定することが可能である。 For example, in the example shown in FIG. 4, there are six areas 411 to 416 as set areas. After clicking the new creation button 403, the user can set an area having a desired position, size, and shape by performing a drag-and-drop operation on the image 400 displayed in the area 401A. be. For example, by sequentially clicking the vertices of the area and double-clicking the last vertex, it is possible to set an area connecting those vertices.

なお、上記のように設定されたエリア内で人が検出されたことの通知をどのような形で行うかは、次の図5に示されるようなUIを用いて設定される。 It should be noted that the manner in which the notification that a person is detected in the area set as described above is to be set is set using the UI shown in FIG. 5 below.

図5は、実施形態にかかる条件の設定の一例としての通知の設定を説明するための例示的かつ模式的な図である。 FIG. 5 is an exemplary and schematic diagram for explaining notification setting as an example of condition setting according to the embodiment.

図5に示される画像300は、各種の設定を行うためのユーザの操作を受け付けるUIの一例である。ユーザは、画像300において、左側の通知ボタン340の選択に応じて右側に表示される領域350、360、および370を用いて、人が検出されたことの通知をどのような形で行うかの設定を行うことができる。領域350は、「モーション」、「サウンド」、「接続・切断」、「人検知」などといった各項目についての電子メールまたはプッシュ通知による通知を各曜日で行うか否かをスケジュール形式で設定および確認可能なインターフェースである。領域360には、電子メールで通知を行うか否かのオンオフと、プッシュ通知で通知を行うか否かのオンオフと、を切り替えるためのインターフェースが表示される。また、領域370は、人が検出されたことの通知を行うか否かのオンオフを切り替えるためのインターフェースが表示される。ユーザは、領域350を利用したり、領域360および370を利用したりすることで、人が検出されたことの通知を各曜日で行うか否か、および当該通知を電子メールで行うかプッシュ通知で行うか、を設定することが可能である。 An image 300 illustrated in FIG. 5 is an example of a UI that receives user operations for performing various settings. The user can use areas 350, 360, and 370 displayed on the right side of the image 300 in accordance with the selection of the notification button 340 on the left side to decide how to notify that a person has been detected. Settings can be made. An area 350 is for setting and confirming in a schedule format whether or not notification by e-mail or push notification for each item such as "motion", "sound", "connection/disconnection", and "human detection" is performed on each day of the week. possible interface. An area 360 displays an interface for switching ON/OFF of whether to notify by email and ON/OFF of whether to notify by push notification. An area 370 displays an interface for switching ON/OFF whether or not to notify that a person has been detected. By using area 350 and using areas 360 and 370, the user can specify whether or not to be notified that a person has been detected each day of the week, and whether to send such notification by e-mail or by push notification. It is possible to set

図2に戻り、ステップS201における条件の設定が終了すると、ステップS202において、ユーザ端末130の通信部132は、設定された条件をクラウドプラットフォーム120に送信する。そして、クラウドプラットフォーム120の通信部121は、ユーザ端末130により送信された条件を受信する。 Returning to FIG. 2, after setting the conditions in step S201, the communication unit 132 of the user terminal 130 transmits the set conditions to the cloud platform 120 in step S202. Then, the communication unit 121 of the cloud platform 120 receives the conditions transmitted by the user terminal 130 .

そして、ステップS203において、クラウドプラットフォーム120の通信部121は、ユーザ端末130から受信した条件をカメラ110に転送する。そして、カメラ110の通信部113は、クラウドプラットフォーム120により送信された条件を受信する。 Then, in step S<b>203 , the communication unit 121 of the cloud platform 120 transfers the conditions received from the user terminal 130 to the camera 110 . The communication unit 113 of the camera 110 then receives the conditions transmitted by the cloud platform 120 .

そして、ステップS204において、カメラ110の検知部112は、クラウドプラットフォーム120から受信した条件を、以下で説明する撮影処理に利用するために保存する。このようにして、設定処理が終了する。 Then, in step S204, the detection unit 112 of the camera 110 saves the conditions received from the cloud platform 120 for use in the imaging process described below. Thus, the setting process ends.

次に、カメラ110による映像の撮影と、当該映像に基づく各種の情報の検知と、を含む撮影処理について説明する。 Next, a description will be given of a photographing process including photographing of an image by the camera 110 and detection of various information based on the image.

撮影処理においては、まず、ステップS211において、カメラ110の撮影部111は、映像を撮影する。そして、ステップS212において、カメラ110の検知部112は、上述した設定処理において行われた設定に基づいて、映像から人を検知する検知処理を実行する。検知処理は、たとえば下記の図6Aおよび図6B、または図7に示されるようなロジックで実行される。 In the shooting process, first, in step S211, the shooting unit 111 of the camera 110 shoots an image. Then, in step S212, the detection unit 112 of the camera 110 executes detection processing for detecting a person from the image based on the setting performed in the setting processing described above. The sensing process is performed, for example, by logic as shown in FIGS. 6A and 6B or FIG. 7 below.

図6Aは、実施形態にかかる検知処理で使用されるロジックの一例を説明するための例示的かつ模式的な図である。 FIG. 6A is an exemplary schematic diagram for explaining an example of logic used in detection processing according to the embodiment.

図6Aに示される例において、曲線L601は、検知された人の移動速度の時間遷移の一例を示している。横軸は、人が検知されてからの経過時間(滞留時間)に対応し、縦軸は、検知された人の移動速度に対応する。 In the example shown in FIG. 6A, a curve L601 shows an example of temporal transition of the detected moving speed of a person. The horizontal axis corresponds to the elapsed time (residence time) after the person was detected, and the vertical axis corresponds to the moving speed of the detected person.

ここで、実施形態では、人の滞留を検出するにあたり、人の滞留時間と、人の移動速度と、の2つの指標が考慮される。したがって、図6Aに示される例では、人の滞留時間に関する閾値(第1閾値)tthreshだけでなく、人の移動速度に関する閾値(第2閾値)Vthreshが設けられている。 Here, in the embodiment, two indicators, ie, the residence time of a person and the speed of movement of a person, are taken into consideration when detecting the stay of a person. Therefore, in the example shown in FIG. 6A, not only the threshold (first threshold) t thresh regarding the residence time of people but also the threshold (second threshold) V thresh regarding the moving speed of people are provided.

すなわち、実施形態では、人の滞留時間が閾値tthresh以上となっただけでは、人の滞留が検出されず、人の滞留時間が閾値tthresh以上となり、かつ人の移動速度が閾値Vthresh以上となった場合(図6Aに示されるポイントP601参照)に、人の滞留が検出される。これにより、たとえば人の滞留時間だけを考慮して人の滞留を検出する場合に比べて、人の滞留の検出の精度を向上させることができる。 That is, in the embodiment, the presence of a person is not detected only when the residence time of a person exceeds the threshold value t thresh . When it becomes (refer to point P601 shown in FIG. 6A), stagnation of people is detected. As a result, it is possible to improve the accuracy of detection of the presence of people, for example, as compared with the case where the presence of people is detected by considering only the dwell time of people.

図6Bは、実施形態にかかる検知処理で使用されるロジックの一例を説明するための例示的かつ模式的な図である。図6Bは、図6Aを用いて説明した上記のロジックを別の例に基づいて再度説明するためのものである。 FIG. 6B is an exemplary schematic diagram for explaining an example of logic used in detection processing according to the embodiment. FIG. 6B is for re-explaining the above logic explained using FIG. 6A based on another example.

すなわち、図6Bに示される例において、曲線L602は、検知された人の移動速度の時間遷移の一例を示している。横軸は、人が検知されてからの経過時間(滞留時間)に対応し、縦軸は、検知された人の移動速度に対応する。 That is, in the example shown in FIG. 6B, the curve L602 shows an example of the temporal transition of the moving speed of the detected person. The horizontal axis corresponds to the elapsed time (residence time) after the person was detected, and the vertical axis corresponds to the moving speed of the detected person.

ここで、図6Bで示されるロジックは、図6Aで示されるロジックと同様である。したがって、図6Bに示される例では、人の滞留時間が閾値tthresh以上となり、かつ人の移動速度が閾値Vthresh以上となったポイントP602で、人の滞留が検出される。 Here, the logic shown in FIG. 6B is similar to the logic shown in FIG. 6A. Therefore, in the example shown in FIG. 6B, a person's stay is detected at a point P602 where the person's stay time is equal to or greater than the threshold t thresh and the person's moving speed is equal to or greater than the threshold V thresh .

なお、上述した2つの閾値は、ユーザの指示に応じて互いに別々に設定されてもよいし、2つの閾値が一体で設定されてもよい。後者の場合、たとえば、2つの閾値の複数の組み合わせを予め設定しておき、当該複数の組み合わせの中から、ユーザが設定した上記の感度に応じた1つの組み合わせを決定する、といった構成が採用されうる。 Note that the two thresholds described above may be set separately from each other according to a user's instruction, or the two thresholds may be integrally set. In the latter case, for example, a configuration is adopted in which a plurality of combinations of two thresholds are set in advance, and one combination is determined from among the plurality of combinations according to the sensitivity set by the user. sell.

ところで、上記では、滞留時間の閾値および移動速度の閾値が固定の場合が例示されているが、実施形態では、次の図7に示されるように、滞留時間の閾値と移動速度の閾値とが連動して変化してもよい。 By the way, in the above description, the case where the threshold for the staying time and the threshold for the moving speed are fixed is exemplified. However, in the embodiment, as shown in FIG. They may change in conjunction with each other.

図7は、実施形態にかかる検知処理で使用されるロジックの他の一例を説明するための例示的かつ模式的な図である。 FIG. 7 is an exemplary schematic diagram for explaining another example of logic used in the detection process according to the embodiment;

図7に示される例において、曲線L701およびL702は、2人の人の移動速度の時間遷移の例を示している。横軸は、人が検知されてからの経過時間(滞留時間)に対応し、縦軸は、検知された人の移動速度に対応する。 In the example shown in FIG. 7, curves L701 and L702 show an example of the time transition of the moving speeds of two people. The horizontal axis corresponds to the elapsed time (residence time) after the person was detected, and the vertical axis corresponds to the moving speed of the detected person.

ここで、図7に示される例では、滞留時間の閾値と移動速度の閾値とが、曲線L700で示されるように連動して変化する。すなわち、図7に示される例では、滞留時間の閾値が、移動速度が大きいほど小さくなるように設定されている。あるいは、移動速度の閾値が、滞留時間が大きいほど小さくなるように設定されている。なお、移動速度の閾値は、最低限、Vthresh_minよりも大きい値になるように設定される。このような曲線L700を式で表すと、たとえば、移動速度の閾値Vthresh=(所定のパラメータa/滞留時間t)+Vthresh_minとなる。なお、移動速度の閾値の代わりに、滞留時間の閾値について、最低限、Tthresh_minよりも大きい値になるように設定してもよい。このような曲線L700を式で表すと、たとえば、滞留時間の閾値Tthresh=(所定のパラメータb/移動速度v)+Tthresh_minとなる。 Here, in the example shown in FIG. 7, the threshold for the residence time and the threshold for the moving speed change in conjunction with each other as indicated by the curve L700. That is, in the example shown in FIG. 7, the threshold value of the residence time is set so as to decrease as the moving speed increases. Alternatively, the moving speed threshold is set so as to decrease as the residence time increases. Note that the moving speed threshold is set to a value at least greater than V thresh_min . If such a curve L700 is represented by a formula, for example, the movement speed threshold V thresh =(predetermined parameter a/residence time t)+V thresh_min . Note that instead of the moving speed threshold, the dwell time threshold may be set to a value at least greater than T thresh_min . If such a curve L700 is represented by a formula, for example, the threshold for the residence time T thresh =(predetermined parameter b/moving speed v)+T thresh_min .

これにより、図7に示される例では、人の滞留時間および移動速度が共に曲線L700を超えたポイントP701およびP702で、人の滞留が検出される。一般に、滞留時間が小さくても移動速度が大きければ対象が人である可能性が高く、また、滞留時間が大きければ移動速度が小さくても対象が人である可能性が高いため、図7に示されるロジックによれば、人の滞留を精度よく検出することができる。 As a result, in the example shown in FIG. 7, the presence of people is detected at points P701 and P702 where both the dwell time and moving speed of people exceed the curve L700. In general, even if the residence time is short, if the movement speed is high, there is a high possibility that the target is a person. According to the shown logic, it is possible to accurately detect the stagnation of people.

図2に戻り、ステップS212が終了すると、ステップS213において、カメラ110の通信部113は、ステップS211において撮影された映像と、ステップS212における検知処理の結果とを、クラウドプラットフォーム120に送信する。ここで、映像には、撮影した時刻が対応付けられ、検知結果には、少なくとも上記の検知ロジックにより人の滞留が検出された時刻が含まれる。なお、検知結果は、ステップS201で設定された条件を満たすときのみ送信しても、それ以外のときにも送信してもよい。そして、クラウドプラットフォーム120の通信部121は、カメラ110により送信された情報を受信する。 Returning to FIG. 2, when step S212 ends, the communication unit 113 of the camera 110 transmits the image captured in step S211 and the result of the detection processing in step S212 to the cloud platform 120 in step S213. Here, the image is associated with the time when the image was taken, and the detection result includes at least the time when the presence of people was detected by the detection logic described above. Note that the detection result may be transmitted only when the condition set in step S201 is satisfied, or may be transmitted at other times. The communication unit 121 of the cloud platform 120 then receives the information transmitted by the camera 110 .

そして、ステップS214において、クラウドプラットフォーム120の記録部122は、カメラ110から受信した映像および検知結果を記録する。そして、ステップS215において、クラウドプラットフォーム120の画像情報生成部123は、人の滞留の検出結果を示す情報として、たとえば次の図8に示されるような、タイムラインと呼ばれる画像情報を生成する。このようにして、撮影処理が終了する。 Then, in step S<b>214 , the recording unit 122 of the cloud platform 120 records the video and the detection result received from the camera 110 . Then, in step S215, the image information generation unit 123 of the cloud platform 120 generates image information called a timeline as shown in FIG. Thus, the photographing process ends.

図8は、実施形態にかかるタイムラインの表示態様の一例を示した例示的かつ模式的な図である。 FIG. 8 is an exemplary schematic diagram showing an example of a display mode of a timeline according to the embodiment;

図8に示される画像800は、クラウドプラットフォーム120により生成されるタイムラインを含むUIの一例である。このUIは、後述する確認処理において、人の滞留の検出結果を示す情報としてユーザ端末130に提供されうる。 Image 800 shown in FIG. 8 is an example of a UI including a timeline generated by cloud platform 120 . This UI can be provided to the user terminal 130 as information indicating the detection result of the presence of people in the confirmation process to be described later.

図8に示される画像800は、タイムラインが表示される領域801を含む。このタイムラインは、たとえば上記の検知ロジックにより人の滞留が検出された場合などのような、上述した設定処理において設定された各種の条件を満たす映像のタイミングを時系列で識別可能に示すものである。ここでいう識別可能とは、たとえばタイムラインにおいて前述の条件を満たすタイミングに色付きの帯やフラグなどのオブジェクトを付けて表示する態様を意味する。色を付ける場合、その色は前述したエリアの設定(図4参照)において設定した色と同じ色に対応させてもよい。図8において、人の滞留が検出されたケースが「人検知」のイベントとして分類され、他のイベント「サウンド」「モーション」「スナップショット」、「立ち入り検知」に対して識別可能な色で、タイムライン上に色付きの帯が表示される。そして、その中からユーザが所望の時刻を指定すると、その時刻に対応する映像が上部に表示される。このようなタイムラインをユーザ端末130に提供すれば、映像において着目すべきタイミングを適切に絞り込むことが可能になる。 Image 800 shown in FIG. 8 includes area 801 in which a timeline is displayed. This timeline shows, in chronological order, the timings of images that meet the various conditions set in the above-described setting process, such as when a person's stay is detected by the above detection logic, in an identifiable manner in chronological order. be. The term identifiable as used herein means, for example, a mode in which an object such as a colored band or flag is added to the timing that satisfies the above conditions on the timeline and displayed. When coloring, the color may correspond to the same color as the color set in the above-described area setting (see FIG. 4). In FIG. 8, the case where a person's stay is detected is classified as an event of "human detection", and with a color distinguishable from other events "sound", "motion", "snapshot", and "intrusion detection", A colored band appears on the timeline. Then, when the user designates a desired time from among them, the image corresponding to that time is displayed at the top. By providing such a timeline to the user terminal 130, it becomes possible to appropriately narrow down the timings to which attention should be paid in the video.

なお、実施形態において、人の滞留の検出結果を示す情報を出力する形式は、上記のタイムラインのような形式に限られない。たとえば、実施形態では、人の滞留が検出されたタイミングの映像を示すサムネイルが時系列で並んだものが、人の滞留の検出結果を示す情報として出力されてもよい。 In addition, in the embodiment, the format for outputting the information indicating the detection result of the presence of people is not limited to the above format such as the timeline. For example, in the embodiment, a time-series list of thumbnails showing images of timings at which people's stay was detected may be output as information indicating the result of people's stay detection.

図2に戻り、上述した撮影処理において撮影される映像および検知される情報を確認するための確認処理について説明する。 Returning to FIG. 2, confirmation processing for confirming the image captured and the information detected in the above-described image capture processing will be described.

確認処理においては、まず、ステップS221において、ユーザ端末130の入力受付部131は、上述した撮影処理において撮影される映像および検知される情報を確認するためのユーザの操作に基づく確認要求を受け付ける。 In the confirmation process, first, in step S221, the input reception unit 131 of the user terminal 130 receives a confirmation request based on the user's operation for confirming the image captured and the information detected in the above-described imaging process.

そして、ステップS222において、ユーザ端末130の通信部132は、受け付けた確認要求をクラウドプラットフォーム120に送信する。そして、クラウドプラットフォーム120の通信部121は、ユーザ端末130により送信された確認要求を受信する。 Then, in step S<b>222 , the communication unit 132 of the user terminal 130 transmits the received confirmation request to the cloud platform 120 . The communication unit 121 of the cloud platform 120 then receives the confirmation request transmitted by the user terminal 130 .

そして、ステップS223において、クラウドプラットフォーム120の画像情報生成部223は、ユーザ端末130から受信した確認要求に応じて、上述した撮影処理において生成した画像情報(タイムライン)を読み出す。 In step S<b>223 , the image information generation unit 223 of the cloud platform 120 reads the image information (timeline) generated in the above-described shooting process in response to the confirmation request received from the user terminal 130 .

そして、ステップS224において、クラウドプラットフォーム120の通信部121は、ステップS223において読み出された画像情報をユーザ端末130に送信する。そして、ユーザ端末130の通信部132は、クラウドプラットフォーム120により送信された画像情報を受信する。 Then, in step S224, the communication unit 121 of the cloud platform 120 transmits the image information read out in step S223 to the user terminal 130. FIG. The communication unit 132 of the user terminal 130 then receives the image information transmitted by the cloud platform 120 .

そして、ステップS225において、ユーザ端末130の表示再生部133は、クラウドプラットフォーム120から受信した画像情報をディスプレイ(不図示)に表示する。画像情報は、たとえば上述した図8に示されるような態様で表示される。 Then, in step S225, the display/playback unit 133 of the user terminal 130 displays the image information received from the cloud platform 120 on a display (not shown). The image information is displayed, for example, in the form shown in FIG. 8 described above.

そして、ステップS226において、ユーザ端末130の入力受付部131は、上述した画像情報に基づいてユーザが所望のタイミングの映像を選択(指定)する操作としての選択指示を受け付ける。具体的には、上述した図8におけるタイムライン上の時刻の指定が、選択指示に当たる。 Then, in step S226, the input reception unit 131 of the user terminal 130 receives a selection instruction as an operation for selecting (designating) a video image at a desired timing based on the image information described above. Specifically, the specification of the time on the timeline in FIG. 8 described above corresponds to the selection instruction.

そして、ステップS227において、ユーザ端末130の通信部132は、受け付けた選択指示をクラウドプラットフォーム120に送信する。そして、クラウドプラットフォーム120の通信部121は、ユーザ端末130により送信された選択指示を受信する。 Then, in step S<b>227 , the communication unit 132 of the user terminal 130 transmits the received selection instruction to the cloud platform 120 . The communication unit 121 of the cloud platform 120 then receives the selection instruction transmitted by the user terminal 130 .

そして、ステップS228において、クラウドプラットフォーム120の画像情報生成部223は、ユーザ端末130から受信した選択指示に応じて、上述した撮影処理において記録した映像を読み出す。すなわち、ステップS226で選択(指定)されたものに対応する時刻の映像を読み出す。 Then, in step S<b>228 , the image information generation unit 223 of the cloud platform 120 reads the video recorded in the above-described shooting process according to the selection instruction received from the user terminal 130 . That is, the video at the time corresponding to the one selected (designated) in step S226 is read.

そして、ステップS229において、クラウドプラットフォーム120の通信部121は、ステップS228において読み出された映像をユーザ端末130に送信する。そして、ユーザ端末130の通信部132は、クラウドプラットフォーム120により送信された映像を受信する。 Then, in step S229, the communication unit 121 of the cloud platform 120 transmits the video read out in step S228 to the user terminal . The communication unit 132 of the user terminal 130 then receives the video transmitted by the cloud platform 120 .

そして、ステップS230において、ユーザ端末130の表示再生部133は、クラウドプラットフォーム120から受信した映像をディスプレイ(不図示)上で再生する。このようにして、確認処理が終了する。 Then, in step S230, the display/playback unit 133 of the user terminal 130 plays back the video received from the cloud platform 120 on a display (not shown). Thus, the confirmation process ends.

なお、実施形態において、人の滞留の検出結果は、ユーザが手動で行った確認要求に応じてユーザに通知されるだけでなく、ステップS221で設定した通知の条件に従って自動でユーザに通知されることもありうる。このような自動での通知は、たとえば次の図9に示されるような電子メールをユーザ端末に送信する態様で行われる。また、このような自動での通知は、たとえばユーザ端末においてOSまたは映像確認用のアプリ等を利用中にそれらを介してプッシュ通知を出力するという態様で行われてもよい。 In addition, in the embodiment, the user is automatically notified of the detection result of the presence of people not only in response to the confirmation request manually made by the user, but also according to the notification conditions set in step S221. It is possible. Such automatic notification is performed, for example, by sending an e-mail as shown in FIG. 9 below to the user terminal. Further, such automatic notification may be performed, for example, by outputting a push notification via an OS or an application for video confirmation on the user terminal while the user is using the OS or the like.

図9は、実施形態にかかる電子メールを用いた通知の態様の一例を示した例示的かつ模式的な図である。 FIG. 9 is an exemplary and schematic diagram showing an example of a form of notification using e-mail according to the embodiment.

図9に示される画像900は、人の滞留の検出結果が電子メールで通知される場合に当該電子メール内に表示されるUIの一例である。ユーザは、画像900の上部に設けられた領域910内に表示された画像により、人の滞留が検出されたタイミングでの映像を確認することができ、画像900の下部に設けられた領域910内に表示された内容により、人の滞留がどのエリアに設置されたどのデバイスにより検出されたかを確認することができる。 An image 900 shown in FIG. 9 is an example of a UI displayed in an e-mail when the result of detection of people staying is notified by e-mail. The user can check the image at the timing when the stay of a person is detected by the image displayed in the area 910 provided in the upper part of the image 900, and the image displayed in the area 910 provided in the lower part of the image 900 From the contents displayed in , it is possible to confirm which device installed in which area the stagnation of people was detected.

以上説明したように、実施形態にかかるシステム100は、カメラ110により撮影された映像を解析する。システム100は、映像において対象(たとえば人)を検知し、対象の滞留時間を計測し、対象の移動速度を計測する。システム100は、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力(たとえば通知)を行う。このような構成によれば、たとえば夜間のような人の滞留が検出しにくい場合において、人の滞留時間だけを考慮して人の滞留を検出する場合に比べて、人の滞留の検出の精度を向上させることができる。 As explained above, the system 100 according to the embodiment analyzes the video captured by the camera 110 . The system 100 detects an object (for example, a person) in an image, measures the residence time of the object, and measures the moving speed of the object. The system 100 detects that the target is staying when the target staying time is equal to or greater than the first threshold and the target moving speed is equal to or greater than the second threshold, and an output indicating the target staying (for example notification). According to such a configuration, when it is difficult to detect the presence of people, such as at night, the accuracy of detection of the presence of people is higher than when detecting the presence of people by considering only the dwell time of people. can be improved.

なお、実施形態では、上記の第1閾値および第2閾値の複数の組み合わせが予め設定されうる。この場合、システム100は、ユーザの指示に応じて、対象の滞留の検出の感度を設定し、当該感度に応じて、上記の複数の組み合わせの中から、対象の滞留の検出に使用する第1閾値および第2閾値の1つの組み合わせを決定しうる。このような構成によれば、第1閾値および第2閾値という2つの閾値を感度という1つの指標を用いて簡単に設定することができる。 In addition, in the embodiment, a plurality of combinations of the first threshold and the second threshold can be set in advance. In this case, the system 100 sets the sensitivity of detection of target retention according to the user's instruction, and according to the sensitivity, from among the plurality of combinations, the first to be used for detection of target retention A combination of the threshold and the second threshold may be determined. According to such a configuration, two thresholds, the first threshold and the second threshold, can be easily set using one index of sensitivity.

また、実施形態において、システム100は、ユーザの指示に応じて、上記の第1閾値および第2閾値を別々に設定しうる。このような構成によれば、第1閾値および第2閾値を別々に設定することで、対象の滞留を検出する基準をより細かく設定することができる。 Also, in an embodiment, the system 100 can separately set the first threshold and the second threshold according to a user's instruction. According to such a configuration, by separately setting the first threshold and the second threshold, it is possible to finely set the criteria for detecting the stay of the object.

また、実施形態において、上記の第2閾値は、対象の滞留時間が大きいほど小さくなるように変化しうるし、上記の第1閾値は、対象の移動速度が大きいほど小さくなるように変化しうる。一般に、滞留時間が小さくても移動速度が大きければ対象の滞留を検出すべき状況である可能性が高く、また、滞留時間が大きければ移動速度が小さくても対象の滞留を検出すべき状況である可能性が高いため、このような構成によれば、対象の滞留を精度よく検出することができる。 Also, in the embodiment, the second threshold may decrease as the residence time of the target increases, and the first threshold may decrease as the moving speed of the target increases. In general, even if the residence time is short, if the moving speed is high, there is a high possibility that the target should be detected. Since there is a high possibility that there is a stagnation, according to such a configuration, the stagnation of the target can be detected with high accuracy.

また、実施形態において、システム100は、対象を検知するエリアを設定する。このような構成によれば、映像に映っている全エリアではなく、設定したエリアに絞って対象を検知することができるので、対象を検知する処理の負担を軽減することができる。 Also, in an embodiment, the system 100 sets an area for detecting an object. According to such a configuration, it is possible to detect an object by narrowing down to a set area instead of the entire area shown in the image, so that the load of processing for detecting an object can be reduced.

さらに、実施形態において、システム100は、対象の滞留を示す出力は、対象の滞留を検出したタイミングをタイムラインで識別可能に表示することを含む(図8参照)。このような構成によれば、対象の滞留を検出したタイミングを視覚的に分かりやすくユーザに通知することができる。 Furthermore, in the embodiment, the system 100 outputs an output indicating the stay of the object to display the timing of detecting the stay of the object in a timeline so that it can be identified (see FIG. 8). According to such a configuration, it is possible to notify the user of the timing at which the retention of the object is detected in a visually easy-to-understand manner.

また、実施形態にかかるシステム100は、対象の滞留を示す出力は、対象の滞留を検出したことを電子メールで通知することを含む(図9参照)。このような構成によれば、電子メールを用いて、対象の滞留を検出したことをユーザに容易に通知することができる。 In addition, in the system 100 according to the embodiment, the output indicating the stay of the target includes notifying by e-mail that the stay of the target has been detected (see FIG. 9). According to such a configuration, it is possible to easily notify the user of the detection of the retention of the object by using an e-mail.

最後に、上述した実施形態にかかるシステム100を構成するカメラ110、クラウドプラットフォーム120、およびユーザ端末130に含まれるハードウェア構成について説明する。実施形態において、カメラ110、クラウドプラットフォーム120、およびユーザ端末130は、たとえば次の図10に示されるようなハードウェア構成を有する情報処理装置(コンピュータ)1100を含むように構成される。 Finally, hardware configurations included in the camera 110, the cloud platform 120, and the user terminal 130 that configure the system 100 according to the above-described embodiment will be described. In the embodiment, the camera 110, the cloud platform 120, and the user terminal 130 are configured to include an information processing device (computer) 1100 having the hardware configuration shown in FIG. 10 below, for example.

図10は、実施形態にかかるカメラ110、クラウドプラットフォーム120、およびユーザ端末130に含まれる情報処理装置1100のハードウェア構成を示した例示的かつ模式的なブロック図である。 FIG. 10 is an exemplary and schematic block diagram showing the hardware configuration of the camera 110, the cloud platform 120, and the information processing device 1100 included in the user terminal 130 according to the embodiment.

なお、図10は、カメラ110、クラウドプラットフォーム120、およびユーザ端末130において実質的に共通するハードウェア構成のみを示したものである。このため、カメラ110、クラウドプラットフォーム120、およびユーザ端末130の実際のハードウェア構成は、図10に示されている以外の部分で様々に異なる点について留意されたい。 Note that FIG. 10 shows only the hardware configuration substantially common among the camera 110, the cloud platform 120, and the user terminal 130. As shown in FIG. Therefore, it should be noted that the actual hardware configurations of the camera 110, the cloud platform 120, and the user terminal 130 differ in various ways other than those shown in FIG.

図10に示されるように、情報処理装置1000は、プロセッサ1010と、メモリ1020と、ストレージ1030と、入出力インターフェース(I/F)1040と、通信インターフェース(I/F)1050と、を備えている。これらのハードウェアは、バス1060に接続されている。 As shown in FIG. 10, the information processing device 1000 includes a processor 1010, a memory 1020, a storage 1030, an input/output interface (I/F) 1040, and a communication interface (I/F) 1050. there is These hardware are connected to bus 1060 .

プロセッサ1010は、たとえばCPU(Central Processing Unit)として構成され、情報処理装置1000の各部の動作を統括的に制御する。 Processor 1010 is configured as, for example, a CPU (Central Processing Unit), and controls the operation of each unit of information processing apparatus 1000 in a centralized manner.

メモリ1020は、たとえばROM(Read Only Memory)およびRAM(Random Access Memory)を含み、プロセッサ1010により実行されるプログラムなどの各種のデータの揮発的または不揮発的な記憶、およびプロセッサ1010がプログラムを実行するための作業領域の提供などを実現する。 Memory 1020 includes, for example, ROM (Read Only Memory) and RAM (Random Access Memory), volatile or non-volatile storage of various data such as programs executed by processor 1010, and processor 1010 executing programs. We will realize the provision of a work area for

ストレージ1030は、たとえばHDD(Hard Disk Drive)またはSSD(Solid State Drive)を含み、各種のデータを不揮発的に記憶する。 Storage 1030 includes, for example, HDD (Hard Disk Drive) or SSD (Solid State Drive), and stores various data in a non-volatile manner.

入出力インターフェース1040は、たとえばキーボードおよびマウスなどのような入力装置(不図示)から情報処理装置1000へのデータの入力と、たとえば情報処理装置1000からディスプレイおよびスピーカなどのような出力装置(不図示)へのデータの出力と、を制御する。 The input/output interface 1040 inputs data from an input device (not shown) such as a keyboard and mouse to the information processing apparatus 1000 and outputs data from the information processing apparatus 1000 to an output device (not shown) such as a display and a speaker. ) to control the output of data to

通信インターフェース1050は、情報処理装置1000が他の装置と通信を実行することを可能にする。 Communication interface 1050 allows information processing device 1000 to communicate with other devices.

実施形態にかかるカメラ110、クラウドプラットフォーム120、およびユーザ端末130が有する各機能モジュール(図1参照)は、それぞれの情報処理装置1000のプロセッサ1010がメモリ1020またはストレージ1030に予め記憶された情報処理プログラムを実行した結果として、ハードウェアとソフトウェアとの協働による機能モジュール群として実現される。ただし、実施形態では、図1に示される機能モジュール群のうち一部または全部が、専用に設計された回路のようなハードウェアのみによって実現されてもよい。 Each functional module (see FIG. 1) of the camera 110, the cloud platform 120, and the user terminal 130 according to the embodiment is an information processing program prestored in the memory 1020 or the storage 1030 by the processor 1010 of each information processing device 1000. is implemented as a group of functional modules through the cooperation of hardware and software. However, in the embodiment, part or all of the functional module group shown in FIG. 1 may be realized only by hardware such as a specially designed circuit.

なお、上述した情報処理プログラムは、必ずしもメモリ1020またはストレージ1030に予め記憶されている必要はない。たとえば、上述した情報処理プログラムは、フレキシブルディスク(FD)のような各種の磁気ディスク、またはDVD(Digital Versatile Disk)のような各種の光ディスクなどといった、コンピュータで読み取り可能な媒体にインストール可能な形式または実行可能な形式で記録されたコンピュータプログラムプロダクトとして提供されてもよい。 Note that the information processing program described above does not necessarily have to be pre-stored in memory 1020 or storage 1030 . For example, the information processing program described above can be installed in a computer-readable medium such as various magnetic disks such as a flexible disk (FD), or various optical disks such as a DVD (Digital Versatile Disk). It may also be provided as a computer program product coded in an executable form.

また、上述した情報処理プログラムは、インターネットなどのネットワーク経由で提供または配布されてもよい。すなわち、上述した情報処理プログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納された状態で、ネットワーク経由でのダウンロードを受け付ける、といった形で提供されてもよい。 Further, the information processing program described above may be provided or distributed via a network such as the Internet. That is, the information processing program described above may be provided in a form of being stored on a computer connected to a network such as the Internet, and being downloaded via the network.

以上、本開示の実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態およびその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments of the present disclosure have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and their equivalents.

100 システム
110 カメラ
111 撮影部
112 検知部
113 通信部
120 クラウドプラットフォーム
121 通信部
122 記録部
123 画像情報生成部
130 ユーザ端末
131 入力受付部
132 通信部
133 表示再生部
100 system 110 camera 111 imaging unit 112 detection unit 113 communication unit 120 cloud platform 121 communication unit 122 recording unit 123 image information generation unit 130 user terminal 131 input reception unit 132 communication unit 133 display reproduction unit

Claims (17)

カメラにより撮影された映像を解析するシステムであって、
前記映像において対象を検知し、
前記対象の滞留時間を計測し、
前記対象の移動速度を計測し、
前記対象の滞留時間が第1閾値以上であり、かつ前記対象の移動速度が第2閾値以上である場合に、前記対象を検知したことを示す出力を行う、
システム。
A system for analyzing video captured by a camera,
detecting an object in the image;
measuring the residence time of the target;
measuring the moving speed of the target;
When the residence time of the target is greater than or equal to a first threshold and the moving speed of the target is greater than or equal to a second threshold, an output indicating that the target has been detected is performed.
system.
前記第1閾値および前記第2閾値の複数の組み合わせが予め設定されており、
ユーザの指示に応じて、前記対象の検知の感度を設定し、
前記感度に応じて、前記複数の組み合わせの中から、使用する前記第1閾値及び前記第2閾値の1つの組み合わせを決定する、
請求項1に記載のシステム。
A plurality of combinations of the first threshold and the second threshold are set in advance,
setting the sensitivity of detection of the object according to a user's instruction;
Determining one combination of the first threshold and the second threshold to be used from among the plurality of combinations according to the sensitivity;
The system of claim 1.
ユーザの指示に応じて、前記第1閾値及び前記第2閾値を別々に設定する、
請求項1に記載のシステム。
Setting the first threshold and the second threshold separately according to a user's instruction;
The system of claim 1.
前記第2閾値は、前記対象の滞留時間が大きいほど小さくなるように変化する、
請求項1に記載のシステム。
The second threshold changes so as to decrease as the residence time of the target increases.
The system of claim 1.
前記第1閾値は、前記対象の移動速度が大きいほど小さくなるように変化する、
請求項1に記載のシステム。
The first threshold changes so as to decrease as the movement speed of the target increases.
The system of claim 1.
カメラにより撮影された映像を解析するシステムであって、
前記映像において対象を検知し、
前記対象の滞留時間を計測し、
前記対象の移動速度を計測し、
前記対象の移動速度が閾値以上となった場合に、前記対象を検知したことを示す出力を行い、
前記閾値は、前記対象の滞留時間が大きいほど小さくなるように変化する、
システム。
A system for analyzing video captured by a camera,
detecting an object in the image;
measuring the residence time of the target;
measuring the moving speed of the target;
When the movement speed of the target is equal to or greater than a threshold, outputting an output indicating that the target has been detected ,
The threshold changes so as to decrease as the residence time of the target increases.
system.
カメラにより撮影された映像を解析するシステムであって、
前記映像において対象を検知し、
前記対象の滞留時間を計測し、
前記対象の移動速度を計測し、
前記対象の滞留時間が閾値以上となった場合に、前記対象を検知したことを示す出力を行い、
前記閾値は、前記対象の移動速度が大きいほど小さくなるように変化する、
システム。
A system for analyzing video captured by a camera,
detecting an object in the image;
measuring the residence time of the target;
measuring the moving speed of the target;
When the residence time of the target is equal to or greater than a threshold, outputting an output indicating that the target has been detected ,
The threshold changes so as to decrease as the moving speed of the target increases.
system.
前記対象を検知するエリアを設定する、
請求項1~7のうちいずれか1項に記載のシステム。
setting an area for detecting the target;
System according to any one of claims 1-7.
前記出力は、前記対象を検知したタイミングをタイムラインで識別可能に表示することである、
請求項1~7のうちいずれか1項に記載のシステム。
The output is to display the timing at which the target is detected in an identifiable manner on a timeline.
System according to any one of claims 1-7.
前記出力は、前記対象を検知したことを電子メールで通知することである、
請求項1~7のうちいずれか1項に記載のシステム。
the output is to notify by email that the object has been detected ;
System according to any one of claims 1-7.
前記出力は、前記対象を検知したタイミングの映像をサムネイルで表示することである、
請求項1~7のうちいずれか1項に記載のシステム。
The output is to display an image of the timing when the target is detected as a thumbnail,
System according to any one of claims 1-7.
カメラにより撮影された映像を解析するシステムで実行される方法であって、
前記映像において対象を検知することと、
前記対象の滞留時間を計測することと、
前記対象の移動速度を計測することと、
前記対象の滞留時間が第1閾値以上であり、かつ前記対象の移動速度が第2閾値以上である場合に、前記対象を検知したことを示す出力を行うことと、
を含む、方法。
A method performed by a system for analyzing video captured by a camera, comprising:
detecting an object in the video;
measuring the residence time of the object;
measuring the moving speed of the object;
performing an output indicating that the target has been detected when the residence time of the target is equal to or greater than a first threshold and the moving speed of the target is equal to or greater than a second threshold;
A method, including
カメラにより撮影された映像を解析するシステムで実行される方法であって、
前記映像において対象を検知することと、
前記対象の滞留時間を計測することと、
前記対象の移動速度を計測することと、
前記対象の移動速度が閾値以上となった場合に、前記対象を検知したことを示す出力を行うことと、
を含み、
前記閾値は、前記対象の滞留時間が大きいほど小さくなるように変化する、
方法。
A method performed by a system for analyzing video captured by a camera, comprising:
detecting an object in the video;
measuring the residence time of the object;
measuring the moving speed of the object;
outputting an output indicating that the target has been detected when the moving speed of the target is greater than or equal to a threshold;
including
The threshold changes so as to decrease as the residence time of the target increases.
Method.
カメラにより撮影された映像を解析するシステムで実行される方法であって、
前記映像において対象を検知することと、
前記対象の滞留時間を計測することと、
前記対象の移動速度を計測することと、
前記対象の滞留時間が閾値以上となった場合に、前記対象を検知したことを示す出力を行うことと、
を含み、
前記閾値は、前記対象の移動速度が大きいほど小さくなるように変化する、
方法。
A method performed by a system for analyzing video captured by a camera, comprising:
detecting an object in the video;
measuring the residence time of the object;
measuring the moving speed of the object;
When the residence time of the target is equal to or greater than a threshold, outputting an output indicating that the target has been detected ;
including
The threshold changes so as to decrease as the moving speed of the target increases.
Method.
カメラにより撮影された映像を解析するシステムを構成するコンピュータに、
前記映像において対象を検知することと、
前記対象の滞留時間を計測することと、
前記対象の移動速度を計測することと、
前記対象の滞留時間が第1閾値以上であり、かつ前記対象の移動速度が第2閾値以上である場合に、前記対象を検知したことを示す出力を行うことと、
を実行させるための、プログラム。
The computer that makes up the system that analyzes the video taken by the camera,
detecting an object in the video;
measuring the residence time of the object;
measuring the moving speed of the object;
performing an output indicating that the target has been detected when the residence time of the target is equal to or greater than a first threshold and the moving speed of the target is equal to or greater than a second threshold;
A program to run the
カメラにより撮影された映像を解析するシステムを構成するコンピュータに、
前記映像において対象を検知することと、
前記対象の滞留時間を計測することと、
前記対象の移動速度を計測することと、
前記対象の移動速度が閾値以上となった場合に、前記対象を検知したことを示す出力を行うことと、
を実行させるためのプログラムであって、
前記閾値は、前記対象の滞留時間が大きいほど小さくなるように変化する、
プログラム。
The computer that makes up the system that analyzes the video taken by the camera,
detecting an object in the video;
measuring the residence time of the object;
measuring the moving speed of the object;
outputting an output indicating that the target has been detected when the moving speed of the target is greater than or equal to a threshold;
A program for executing
The threshold changes so as to decrease as the residence time of the target increases.
program.
カメラにより撮影された映像を解析するシステムを構成するコンピュータに、
前記映像において対象を検知することと、
前記対象の滞留時間を計測することと、
前記対象の移動速度を計測することと、
前記対象の滞留時間が閾値以上となった場合に、前記対象を検知したことを示す出力を行うことと、
を実行させるためのプログラムであって、
前記閾値は、前記対象の移動速度が大きいほど小さくなるように変化する、
プログラム。
The computer that makes up the system that analyzes the video taken by the camera,
detecting an object in the video;
measuring the residence time of the object;
measuring the moving speed of the object;
When the residence time of the target is equal to or greater than a threshold, outputting an output indicating that the target has been detected ;
A program for executing
The threshold changes so as to decrease as the moving speed of the target increases.
program.
JP2022211834A 2022-12-28 2022-12-28 system and program Active JP7302088B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022211834A JP7302088B1 (en) 2022-12-28 2022-12-28 system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022211834A JP7302088B1 (en) 2022-12-28 2022-12-28 system and program

Publications (1)

Publication Number Publication Date
JP7302088B1 true JP7302088B1 (en) 2023-07-03

Family

ID=86996670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022211834A Active JP7302088B1 (en) 2022-12-28 2022-12-28 system and program

Country Status (1)

Country Link
JP (1) JP7302088B1 (en)

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006019845A (en) * 2004-06-30 2006-01-19 Canon Sales Co Inc Image processing apparatus, image processing system, image processing method, and program
JP2010258704A (en) * 2009-04-23 2010-11-11 Canon Inc Reproducing unit and reproduction method
JP2010277547A (en) * 2009-06-01 2010-12-09 Chuo Electronics Co Ltd Congestion situation detecting device, method, and program
JP2012123460A (en) * 2010-12-06 2012-06-28 Toshiba Corp Video retrieval device and video retrieval method
WO2014129042A1 (en) * 2013-02-21 2014-08-28 ソニー株式会社 Information processing device, information processing method, and program
WO2015040929A1 (en) * 2013-09-19 2015-03-26 日本電気株式会社 Image processing system, image processing method, and program
WO2017026155A1 (en) * 2015-08-11 2017-02-16 ソニー株式会社 Information processing device, information processing method, and program
JP2017188023A (en) * 2016-04-08 2017-10-12 パナソニックIpマネジメント株式会社 Institutional activity analysis device, institutional activity analysis system, and institutional activity analysis method
JP2020091649A (en) * 2018-12-05 2020-06-11 キヤノン株式会社 Image processing device, image processing system, control method of image processing device, and program
JP2020166590A (en) * 2019-03-29 2020-10-08 グローリー株式会社 Monitoring system, monitoring device, monitoring method, and monitoring program
JP2020178149A (en) * 2019-04-15 2020-10-29 シャープ株式会社 Monitoring device and monitoring method
JP2021072475A (en) * 2019-10-29 2021-05-06 パナソニックIpマネジメント株式会社 Monitoring system and monitoring system setting program
JP2021100173A (en) * 2019-12-20 2021-07-01 シャープ株式会社 Monitoring system and monitoring method
JP2021136656A (en) * 2020-02-28 2021-09-13 パナソニックi−PROセンシングソリューションズ株式会社 Face detection system
JP2021145243A (en) * 2020-03-12 2021-09-24 パナソニックIpマネジメント株式会社 Monitoring camera management device, monitoring camera management system, monitoring camera management method, and program
JP2022053126A (en) * 2020-09-24 2022-04-05 エヌ・ティ・ティ・コミュニケーションズ株式会社 Congestion status estimation device, method, and program

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006019845A (en) * 2004-06-30 2006-01-19 Canon Sales Co Inc Image processing apparatus, image processing system, image processing method, and program
JP2010258704A (en) * 2009-04-23 2010-11-11 Canon Inc Reproducing unit and reproduction method
JP2010277547A (en) * 2009-06-01 2010-12-09 Chuo Electronics Co Ltd Congestion situation detecting device, method, and program
JP2012123460A (en) * 2010-12-06 2012-06-28 Toshiba Corp Video retrieval device and video retrieval method
WO2014129042A1 (en) * 2013-02-21 2014-08-28 ソニー株式会社 Information processing device, information processing method, and program
WO2015040929A1 (en) * 2013-09-19 2015-03-26 日本電気株式会社 Image processing system, image processing method, and program
WO2017026155A1 (en) * 2015-08-11 2017-02-16 ソニー株式会社 Information processing device, information processing method, and program
JP2017188023A (en) * 2016-04-08 2017-10-12 パナソニックIpマネジメント株式会社 Institutional activity analysis device, institutional activity analysis system, and institutional activity analysis method
JP2020091649A (en) * 2018-12-05 2020-06-11 キヤノン株式会社 Image processing device, image processing system, control method of image processing device, and program
JP2020166590A (en) * 2019-03-29 2020-10-08 グローリー株式会社 Monitoring system, monitoring device, monitoring method, and monitoring program
JP2020178149A (en) * 2019-04-15 2020-10-29 シャープ株式会社 Monitoring device and monitoring method
JP2021072475A (en) * 2019-10-29 2021-05-06 パナソニックIpマネジメント株式会社 Monitoring system and monitoring system setting program
JP2021100173A (en) * 2019-12-20 2021-07-01 シャープ株式会社 Monitoring system and monitoring method
JP2021136656A (en) * 2020-02-28 2021-09-13 パナソニックi−PROセンシングソリューションズ株式会社 Face detection system
JP2021145243A (en) * 2020-03-12 2021-09-24 パナソニックIpマネジメント株式会社 Monitoring camera management device, monitoring camera management system, monitoring camera management method, and program
JP2022053126A (en) * 2020-09-24 2022-04-05 エヌ・ティ・ティ・コミュニケーションズ株式会社 Congestion status estimation device, method, and program

Similar Documents

Publication Publication Date Title
US10313627B2 (en) Apparatus for playing back recorded video images related to event, and method thereof
US10120536B2 (en) Monitoring method
JP4739397B2 (en) REPRODUCTION METHOD, SERVER DEVICE, TRANSMISSION METHOD, AND DISPLAY DEVICE
US10332561B2 (en) Multi-source video input
US20180061065A1 (en) Information processing apparatus, method thereof, and computer-readable storage medium
JP2006148260A (en) Automatic tracking device, image abnormality detector, automatic tracking method, image abnormality detecting method, program and storage medium
US10359819B2 (en) Imaging device
KR20110093040A (en) Apparatus and method for monitoring an object
JP6602067B2 (en) Display control apparatus, display control method, and program
US20200045242A1 (en) Display control device, display control method, and program
JP7302088B1 (en) system and program
CN112449159B (en) Monitoring video display control method and device, electronic equipment and storage medium
US7496212B2 (en) Change detecting method and apparatus
JP2021027579A (en) Image determination device and image determination system
JP7279241B1 (en) system and program
US11361797B2 (en) Moving image reproduction apparatus, moving image reproduction method, moving image reproduction system, and storage medium
CN112307882A (en) Image determination device and image determination system
JP2022076241A (en) Information processing device, information processing method, and program
JP2017174152A (en) Monitor system
JP7361233B1 (en) Systems, methods, and programs
CN113727067B (en) Alarm display method and device, electronic equipment and machine-readable storage medium
US9785656B2 (en) Data processing apparatus for clustering time-series data based on generated reference values and data processing method for same
US20230171382A1 (en) Image capturing apparatus, method of controlling the same, and storage medium
KR20140066560A (en) Method and apparatus for setting object area for use in video monitoring device
US11570367B2 (en) Method and electronic device for intelligent camera zoom

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230217

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230621

R150 Certificate of patent or registration of utility model

Ref document number: 7302088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350