JP2024049181A - Information processor and information processing method - Google Patents

Information processor and information processing method Download PDF

Info

Publication number
JP2024049181A
JP2024049181A JP2022155486A JP2022155486A JP2024049181A JP 2024049181 A JP2024049181 A JP 2024049181A JP 2022155486 A JP2022155486 A JP 2022155486A JP 2022155486 A JP2022155486 A JP 2022155486A JP 2024049181 A JP2024049181 A JP 2024049181A
Authority
JP
Japan
Prior art keywords
unit
information processing
determination
result
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022155486A
Other languages
Japanese (ja)
Inventor
英則 西垣
Hidenori Nishigaki
雄一郎 高原
Yuichiro Takahara
明子 山根木
Akiko Yamanegi
佳幸 高柳
Yoshiyuki Takayanagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Lighting and Technology Corp
Original Assignee
Toshiba Lighting and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Lighting and Technology Corp filed Critical Toshiba Lighting and Technology Corp
Priority to JP2022155486A priority Critical patent/JP2024049181A/en
Publication of JP2024049181A publication Critical patent/JP2024049181A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processor and information processing method that minimize erroneous determination in abnormality determination processing.SOLUTION: In an information processing system 1, an information processor 300 includes a detection unit, estimation unit, determination unit, and learning unit. The detection unit detects S3 a person from a shot image S2 taken S1 by a camera unit 30. The estimation unit estimates S4 a moving speed of the person detected by the detection unit. The determination unit determines S5 occurrence of an abnormality in a case where the moving speed estimated by the estimation unit exceeds a threshold. The learning unit learns S8 the threshold according to a result of determination by the determination unit and a result of verification of the shot image S2 by a user.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、情報処理装置および情報処理方法に関する。 Embodiments of the present invention relate to an information processing device and an information processing method.

従来、撮像画像から人物を検出し、検出した人物の移動速度に基づいて異常を検知する技術が知られている。たとえば、監視映像に写っている人物(例えば、警備員)の移動速度が予め設定された閾値を超えている場合に、監視映像に映っている区域の異常を検知する技術が知られている。 Conventionally, there is known a technique for detecting a person from a captured image and detecting an abnormality based on the movement speed of the detected person. For example, there is known a technique for detecting an abnormality in an area captured in surveillance video when the movement speed of a person (e.g., a security guard) captured in the surveillance video exceeds a preset threshold.

特開2021-87031号公報JP 2021-87031 A

しかしながら、従来技術には、異常判定処理における誤判定を低減するという点で更なる改善の余地があった。 However, the conventional technology still had room for improvement in terms of reducing erroneous judgments in the anomaly judgment process.

本発明が解決しようとする課題は、異常判定処理における誤判定を低減することができる情報処理装置および情報処理方法を提供することを目的とする。 The problem that the present invention aims to solve is to provide an information processing device and an information processing method that can reduce erroneous judgments in anomaly judgment processing.

実施形態に係る情報処理装置は、検出部と、推定部と、判定部と、学習部とを具備する。検出部は、撮像部によって撮像された撮像画像から人物を検出する。推定部は、検出部によって検出された人物の移動速度を推定する。判定部は、推定部によって推定された移動速度が閾値を超えた場合に異常が発生したと判定する。学習部は、判定部による判定結果と、利用者による撮像画像の確認結果とに応じて閾値を学習する。 The information processing device according to the embodiment includes a detection unit, an estimation unit, a determination unit, and a learning unit. The detection unit detects a person from an image captured by the imaging unit. The estimation unit estimates the movement speed of the person detected by the detection unit. The determination unit determines that an abnormality has occurred when the movement speed estimated by the estimation unit exceeds a threshold. The learning unit learns the threshold according to the determination result by the determination unit and the result of the user's confirmation of the captured image.

図1は、実施形態に係る情報処理装置によって実行される処理の概要を示す図である。FIG. 1 is a diagram showing an overview of a process executed by an information processing apparatus according to an embodiment. 図2は、実施形態に係る情報処理システムの構成例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of the configuration of an information processing system according to the embodiment. 図3は、実施形態に係る照明装置の側面図である。FIG. 3 is a side view of the lighting device according to the embodiment. 図4は、実施形態に係る照明装置の下面図である。FIG. 4 is a bottom view of the lighting device according to the embodiment. 図5は、実施形態に係る照明装置の構成を示すブロック図である。FIG. 5 is a block diagram showing a configuration of a lighting device according to an embodiment. 図6は、実施形態に係る情報処理装置の構成を示すブロック図である。FIG. 6 is a block diagram showing the configuration of the information processing device according to the embodiment. 図7は、実施形態に係る追跡情報記憶部の一例を示す図である。FIG. 7 is a diagram illustrating an example of a tracking information storage unit according to the embodiment. 図8は、実施形態に係る情報処理装置が実行する異常判定処理の手順を示すフローチャートである。FIG. 8 is a flowchart showing the procedure of the abnormality determination process executed by the information processing device according to the embodiment. 図9は、実施形態に係る情報処理装置が実行する学習処理の手順を示すフローチャートである。FIG. 9 is a flowchart showing the procedure of the learning process executed by the information processing device according to the embodiment.

以下で説明する実施形態に係る情報処理装置300は、撮像部31によって撮像された撮像画像から人物を検出する検出部122と、検出部122によって検出された人物の移動速度を推定する推定部123と、推定部123によって推定された移動速度が閾値を超えた場合に異常が発生したと判定する判定部126と、判定部126による判定結果と、利用者による撮像画像の確認結果とに応じて閾値を学習する学習部128とを具備する。 The information processing device 300 according to the embodiment described below includes a detection unit 122 that detects a person from an image captured by the imaging unit 31, an estimation unit 123 that estimates the movement speed of the person detected by the detection unit 122, a determination unit 126 that determines that an abnormality has occurred when the movement speed estimated by the estimation unit 123 exceeds a threshold, and a learning unit 128 that learns the threshold according to the determination result by the determination unit 126 and the result of the user checking the captured image.

また、以下で説明する実施形態に係る情報処理装置300は、判定部126による判定結果を利用者が使用する端末装置400に通知する通知部127と、端末装置400から確認結果を取得する取得部121とを具備する。 The information processing device 300 according to the embodiment described below also includes a notification unit 127 that notifies the terminal device 400 used by the user of the determination result by the determination unit 126, and an acquisition unit 121 that acquires the confirmation result from the terminal device 400.

また、以下で説明する実施形態に係る情報処理装置300において、学習部128は、判定結果と確認結果とに応じて、人物が検出された時間帯、同時に検出された人物の人数および推定部によって推定された移動速度の少なくとも一つを含む状況と閾値との関係性を示すモデルを学習する。 In addition, in the information processing device 300 according to the embodiment described below, the learning unit 128 learns a model that indicates the relationship between a situation, including at least one of the time period in which a person was detected, the number of people detected at the same time, and the moving speed estimated by the estimation unit, and a threshold value, based on the determination result and the confirmation result.

また、以下で説明する実施形態に係る情報処理装置300は、状況を特定する状況特定部124と、学習部128によって学習されたモデルを用いて、状況特定部124によって特定された状況から閾値を決定する閾値決定部125とを具備する。 The information processing device 300 according to the embodiment described below also includes a situation identification unit 124 that identifies a situation, and a threshold determination unit 125 that determines a threshold from the situation identified by the situation identification unit 124 using a model learned by the learning unit 128.

また、以下で説明する実施形態に係る情報処理方法は、撮像部31によって撮像された撮像画像から人物を検出する検出工程と、検出工程によって検出された人物の移動速度を推定する推定工程と、推定工程によって推定された移動速度が閾値を超えた場合に異常が発生したと判定する判定工程と、判定工程による判定結果と、利用者による撮像画像の確認結果とに応じて閾値を学習する学習工程とを含む。 The information processing method according to the embodiment described below includes a detection process for detecting a person from an image captured by the imaging unit 31, an estimation process for estimating the movement speed of the person detected by the detection process, a determination process for determining that an abnormality has occurred when the movement speed estimated by the estimation process exceeds a threshold, and a learning process for learning the threshold based on the determination result by the determination process and the result of the user checking the captured image.

以下、図面を参照して、実施形態に係る情報処理装置および情報処理方法について説明する。なお、以下に示す実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Below, an information processing device and an information processing method according to an embodiment will be described with reference to the drawings. Note that in the embodiments described below, the same components are given the same reference numerals, and duplicated descriptions will be omitted.

<情報処理装置300による情報処理>
まず、図1を用いて、実施形態に係る情報処理装置300によって実行される処理の概要について説明する。図1は、実施形態に係る情報処理装置300によって実行される処理の概要を示す図である。
<Information processing by information processing device 300>
First, an overview of the process executed by the information processing device 300 according to the embodiment will be described with reference to Fig. 1. Fig. 1 is a diagram showing an overview of the process executed by the information processing device 300 according to the embodiment.

実施形態に係る情報処理システム1は、例えば、照明装置100と、情報処理装置300と、端末装置400とを含む。 The information processing system 1 according to the embodiment includes, for example, a lighting device 100, an information processing device 300, and a terminal device 400.

照明装置100は、例えば、工場等の建物の天井に取り付けられる照明装置である。情報処理装置300は、例えば、クラウドサーバである。端末装置400は、例えば、デスクトップ型PC(Personal Computer)や、ノート型PC、スマートフォン、タブレット型端末、PDA(Personal Digital Assistant)である。端末装置400は、例えば、照明装置100が設置された建物を管理する利用者によって使用される。 The lighting device 100 is, for example, a lighting device attached to the ceiling of a building such as a factory. The information processing device 300 is, for example, a cloud server. The terminal device 400 is, for example, a desktop PC (Personal Computer), a notebook PC, a smartphone, a tablet terminal, or a PDA (Personal Digital Assistant). The terminal device 400 is used, for example, by a user who manages the building in which the lighting device 100 is installed.

照明装置100は、照明ユニット20とカメラユニット30とを有する。かかる照明装置100は、照明ユニット20によって照明されるエリアをカメラユニット30により撮像することができる。照明装置100は、カメラユニット30を用いて照明エリアを撮像し(ステップS1)、撮像された撮像画像を情報処理装置300に送信する(ステップS2)。 The lighting device 100 has a lighting unit 20 and a camera unit 30. The lighting device 100 can capture an image of an area illuminated by the lighting unit 20 using the camera unit 30. The lighting device 100 captures an image of the illumination area using the camera unit 30 (step S1), and transmits the captured image to the information processing device 300 (step S2).

情報処理装置300は、照明装置100から取得した撮像画像に対して所定の画像処理を行うことによって撮像画像から人物TGを検出する(ステップS3)。 The information processing device 300 detects the person TG from the captured image by performing a predetermined image processing on the captured image obtained from the lighting device 100 (step S3).

つづいて、情報処理装置300は、検出した人物TGの移動速度を推定する(ステップS4)。例えば、情報処理装置300は、撮像画像から抽出された人物TGの特徴量に基づいて人物TGを識別することで複数フレーム間においてその人物TGを追跡することができる。情報処理装置300は、例えば、カメラユニット30のフレームレートと、連続する複数のフレーム間における人物TGの移動距離とに基づいて人物TGの移動速度を推定することができる。 Next, the information processing device 300 estimates the movement speed of the detected person TG (step S4). For example, the information processing device 300 can track the person TG between multiple frames by identifying the person TG based on the feature amount of the person TG extracted from the captured image. The information processing device 300 can estimate the movement speed of the person TG based on, for example, the frame rate of the camera unit 30 and the movement distance of the person TG between multiple consecutive frames.

つづいて、情報処理装置300は、人物TGの移動速度と閾値とを用いて異常判定処理を行う(ステップS5)。具体的には、情報処理装置300は、人物TGの移動速度が閾値を超えた場合に、異常が発生したと判定する。なお、異常とは、例えば、照明装置100が設置された建物において発生した異常のことである。 Next, the information processing device 300 performs an abnormality determination process using the moving speed of the person TG and a threshold value (step S5). Specifically, the information processing device 300 determines that an abnormality has occurred when the moving speed of the person TG exceeds the threshold value. Note that an abnormality is, for example, an abnormality that has occurred in a building in which the lighting device 100 is installed.

ここで、撮像画像に写り込む人物(例えば、工場で働く作業員等)は、状況によっては、異常が発生していない場合であっても通常より速い速度で移動することがあり得る。このため、人物の移動速度に基づいて異常判定を行う場合において、固定化された単一の閾値を用いることとすると、正常であるにもかかわらず異常と判定する誤判定が生じるおそれがある。このような誤判定を低減するためには、異常判定処理に用いる閾値は、例えば、検出された人数や時間帯等の状況に応じて最適化されることが望ましい。そこで、実施形態に係る情報処理装置300では、異常判定処理の判定結果と、利用者による撮像画像の確認結果とに応じて閾値を学習することとした。これにより閾値が最適化されることで、異常判定処理における誤判定を低減することができる。 Here, depending on the situation, a person appearing in the captured image (e.g., a worker working in a factory) may move faster than normal even when no abnormality is occurring. For this reason, if a fixed single threshold is used when performing an abnormality determination based on the speed at which a person moves, there is a risk of an erroneous determination that an abnormality exists when in fact it is normal. In order to reduce such erroneous determinations, it is desirable to optimize the threshold used in the abnormality determination process according to the circumstances, such as the number of people detected and the time of day. Therefore, in the information processing device 300 according to the embodiment, the threshold is learned according to the determination result of the abnormality determination process and the result of the user's confirmation of the captured image. By optimizing the threshold in this way, it is possible to reduce erroneous determinations in the abnormality determination process.

情報処理装置300は、異常判定処理の判定結果を含む確認要求を端末装置400に送信する(ステップS6)。確認要求には、例えば、異常判定処理の判定結果の他、異常判定処理に用いられた撮像画像、異常が検出された日時、検出された人物TGの人数、検出された人物TGの移動速度等の状況に関する情報が含まれる。 The information processing device 300 transmits a confirmation request including the determination result of the abnormality determination process to the terminal device 400 (step S6). The confirmation request includes, for example, the determination result of the abnormality determination process, as well as information about the situation, such as the captured image used in the abnormality determination process, the date and time when the abnormality was detected, the number of people TG detected, and the movement speed of the people TG detected.

端末装置400は、情報処理装置300から異常判定処理の判定結果を取得した場合に、利用者による撮像画像の確認結果を情報処理装置300に送信する(ステップS7)。 When the terminal device 400 obtains the result of the abnormality determination process from the information processing device 300, it transmits the result of the user's confirmation of the captured image to the information processing device 300 (step S7).

例えば、端末装置400は、判定結果を取得した場合に、判定結果(異常が発生した旨の情報)、異常判定処理に用いられた撮像画像、異常が検出された日時、検出された人数、推定された移動速度、確認結果の選択ボタン等を含む確認画面を表示部に表示させる。利用者は、かかる確認画面を参照して、異常判定処理の判定結果が実際の状況と一致しているか否かを確認する。言い換えれば、利用者は、撮像画像に写っている状況が異常であるか否かを確認する。 For example, when the terminal device 400 acquires a judgment result, it causes the display unit to display a confirmation screen including the judgment result (information that an abnormality has occurred), the captured image used in the abnormality judgment process, the date and time when the abnormality was detected, the number of people detected, the estimated moving speed, a selection button for the confirmation result, and the like. The user refers to the confirmation screen to check whether the judgment result of the abnormality judgment process matches the actual situation. In other words, the user checks whether the situation shown in the captured image is abnormal or not.

利用者は、異常判定処理の判定結果が実際の状況と一致していると判断した場合、例えば、端末装置400の表示部に表示された「Yes」ボタンをマウス等の入力操作部を用いて選択する。また、利用者は、異常判定処理の判定結果が実際の状況と一致していないと判断した場合、端末装置400の表示部に表示された「No」ボタンを入力操作部を用いて選択する。端末装置400は、利用者による入力操作に応じた確認結果を情報処理装置300に送信する。確認結果には、異常判定処理の判定結果と実際の状況とが一致しているか否かの情報、つまり、異常判定処理の判定結果の正否に関する情報が含まれる。 If the user determines that the determination result of the anomaly determination process matches the actual situation, the user selects, for example, the "Yes" button displayed on the display unit of the terminal device 400 using an input operation unit such as a mouse. Also, if the user determines that the determination result of the anomaly determination process does not match the actual situation, the user selects the "No" button displayed on the display unit of the terminal device 400 using the input operation unit. The terminal device 400 transmits the confirmation result according to the input operation by the user to the information processing device 300. The confirmation result includes information on whether the determination result of the anomaly determination process matches the actual situation, that is, information on whether the determination result of the anomaly determination process is correct or not.

そして、情報処理装置300は、異常判定処理の判定結果と、端末装置400から取得した確認結果とに応じて、異常判定処理に用いる閾値を学習する(ステップS8)。 Then, the information processing device 300 learns the threshold value to be used in the abnormality determination process based on the result of the abnormality determination process and the confirmation result obtained from the terminal device 400 (step S8).

例えば、情報処理装置300は、異常判定処理の判定結果が実際の状況と一致していない旨の確認結果を取得した場合、異常判定処理に用いた閾値の値を高くする。これにより閾値が最適化されることで、異常判定処理における誤判定を低減することができる。 For example, when the information processing device 300 obtains a confirmation result indicating that the result of the abnormality determination process does not match the actual situation, the information processing device 300 increases the value of the threshold value used in the abnormality determination process. This optimizes the threshold value, thereby reducing erroneous determinations in the abnormality determination process.

なお、情報処理装置300は、異常判定処理の判定結果が実際の状況と一致している旨の確認結果を端末装置400から取得した場合には閾値の値を維持する。あるいは、情報処理装置300は、異常判定処理の判定結果が実際の状況と一致している旨の確認結果を端末装置400から取得した場合に閾値の値を低くしてもよい。 The information processing device 300 maintains the threshold value when it obtains a confirmation result from the terminal device 400 indicating that the determination result of the anomaly determination process matches the actual situation. Alternatively, the information processing device 300 may lower the threshold value when it obtains a confirmation result from the terminal device 400 indicating that the determination result of the anomaly determination process matches the actual situation.

ここでは、情報処理装置300によって異常と判定された場合の例について説明したが、情報処理装置300は、異常ではないと判定した場合にも、異常判定処理の判定結果を端末装置400に送信してもよい。この場合、情報処理装置300は、異常判定処理の判定結果が実際の状況と一致していない旨の確認結果を端末装置400から取得した場合には閾値の値を下げる。また、情報処理装置300は、異常判定処理の判定結果が実際の状況と一致している旨の確認結果を端末装置400から取得した場合には閾値の値を維持する。あるいは、情報処理装置300は、異常判定処理の判定結果が実際の状況と一致している旨の確認結果を端末装置400から取得した場合には閾値の値を上げてもよい。 Here, an example has been described in which the information processing device 300 judges that an abnormality has occurred, but the information processing device 300 may transmit the judgment result of the abnormality judgment process to the terminal device 400 even if it judges that there is no abnormality. In this case, the information processing device 300 lowers the threshold value when it acquires a confirmation result from the terminal device 400 indicating that the judgment result of the abnormality judgment process does not match the actual situation. Furthermore, the information processing device 300 maintains the threshold value when it acquires a confirmation result from the terminal device 400 indicating that the judgment result of the abnormality judgment process matches the actual situation. Alternatively, the information processing device 300 may raise the threshold value when it acquires a confirmation result from the terminal device 400 indicating that the judgment result of the abnormality judgment process matches the actual situation.

情報処理装置300は、人物が検出された時間帯、同時に検出された人物の人数および推定された移動速度の少なくとも一つを含む状況と、異常判定処理に用いられる閾値との関係性を示すモデルを記憶していてもよい。この場合、情報処理装置300は、人物が検出された時間帯、同時に検出された人物の人数および推定部によって推定された移動速度の少なくとも一つを含む状況を特定し、特定した状況から上記モデルを用いて閾値を出力させてもよい。そして、情報処理装置300は、異常判定処理の判定結果と、利用者による撮像画像の確認結果とに応じて、上記モデルを学習してもよい。例えば、情報処理装置300は、判定結果が「異常」であり、確認結果が「異常でない」である場合、閾値の値が高くなるようにモデルのパラメータを更新する。このようにしてモデルを学習することで、状況に応じて適切な値に変動する閾値を用いて異常判定処理を実施することができ、これにより、異常判定処理の誤判定を低減することができる。 The information processing device 300 may store a model showing the relationship between a situation including at least one of the time period when a person was detected, the number of people detected at the same time, and the estimated moving speed, and a threshold value used in the abnormality determination process. In this case, the information processing device 300 may identify a situation including at least one of the time period when a person was detected, the number of people detected at the same time, and the moving speed estimated by the estimation unit, and output a threshold value using the above model from the identified situation. Then, the information processing device 300 may learn the above model according to the judgment result of the abnormality determination process and the confirmation result of the captured image by the user. For example, when the judgment result is "abnormal" and the confirmation result is "not abnormal," the information processing device 300 updates the parameters of the model so that the threshold value is higher. By learning the model in this way, the abnormality determination process can be performed using a threshold value that changes to an appropriate value depending on the situation, and this can reduce erroneous judgments in the abnormality determination process.

<情報処理システム1の構成例>
次に、図2を用いて、実施形態に係る情報処理システム1の構成例について説明する。図2は、実施形態に係る情報処理システム1の構成例を示すブロック図である。
<Configuration example of information processing system 1>
Next, a configuration example of the information processing system 1 according to the embodiment will be described with reference to Fig. 2. Fig. 2 is a block diagram showing a configuration example of the information processing system 1 according to the embodiment.

図2に示すように、情報処理システム1は、複数の照明装置100と、情報処理装置300と、端末装置400とを有する。複数の照明装置100、情報処理装置300および端末装置400は、インターネット等のネットワークNを介して互いに通信可能に接続される。 As shown in FIG. 2, the information processing system 1 has a plurality of lighting devices 100, an information processing device 300, and a terminal device 400. The plurality of lighting devices 100, the information processing device 300, and the terminal device 400 are connected to each other so as to be able to communicate with each other via a network N such as the Internet.

照明装置100は、例えば、工場等の建物の天井に取り付けられる。上述したように、照明装置100は、照明ユニット20に加えてカメラユニット30を有しており、照明ユニット20によって照明されるエリアをカメラユニット30により撮像することができる。照明装置100の構成については図3および図4を参照して説明する。 The lighting device 100 is attached to the ceiling of a building such as a factory. As described above, the lighting device 100 has a camera unit 30 in addition to the lighting unit 20, and the area illuminated by the lighting unit 20 can be imaged by the camera unit 30. The configuration of the lighting device 100 will be described with reference to Figures 3 and 4.

ここでは、情報処理システム1が複数の照明装置100を備える場合の例を示しているが、情報処理システム1は、少なくとも1つの照明装置100を備えていればよい。 Here, an example is shown in which the information processing system 1 includes multiple lighting devices 100, but the information processing system 1 only needs to include at least one lighting device 100.

情報処理装置300は、ネットワークNを介して照明装置100から撮像画像を取得し、取得した撮像画像に基づいて人物の移動速度の推定処理および異常判定処理を行う。また、情報処理装置300は、異常判定処理の判定結果をネットワークN経由で端末装置400に送信する。情報処理装置300の構成については図6を参照して説明する。 The information processing device 300 acquires a captured image from the lighting device 100 via the network N, and performs a process of estimating the moving speed of a person and a process of determining an abnormality based on the acquired captured image. The information processing device 300 also transmits a determination result of the abnormality determination process to the terminal device 400 via the network N. The configuration of the information processing device 300 will be described with reference to FIG. 6.

端末装置400は、情報処理装置300からネットワークNを介して異常判定処理の判定結果を取得した場合に、判定結果に対応する画像の利用者による確認結果をネットワークN経由で情報処理装置300に送信する。 When the terminal device 400 acquires the result of the abnormality determination process from the information processing device 300 via the network N, the terminal device 400 transmits the user's confirmation result of the image corresponding to the determination result to the information processing device 300 via the network N.

なお、情報処理システム1の構成は、図2に示す例に限定されない。例えば、情報処理システム1は、照明装置100、情報処理装置300および端末装置400の他に、中継器を含んでいてもよい。中継器は、中継処理を行う機能を有する装置である。例えば、中継器は、いわゆるゲートウェイとして機能する情報処理装置(コンピュータ)である。この場合、照明装置100は、中継器とLAN(Local Area Network)等を介して、有線または無線により通信可能に接続され、中継器を介して情報処理装置300と通信する。 The configuration of the information processing system 1 is not limited to the example shown in FIG. 2. For example, the information processing system 1 may include a repeater in addition to the lighting device 100, the information processing device 300, and the terminal device 400. The repeater is a device that has a function of performing relay processing. For example, the repeater is an information processing device (computer) that functions as a so-called gateway. In this case, the lighting device 100 is connected to the repeater via a LAN (Local Area Network) or the like so as to be able to communicate with the information processing device 300 via the repeater in a wired or wireless manner, and communicates with the information processing device 300 via the repeater.

<照明装置100の構成例>
次に、照明装置100の構成の一例について図3および図4を参照して説明する。図3は、実施形態に係る照明装置100の側面図である。図4は、実施形態に係る照明装置100の下面図である。
<Configuration example of lighting device 100>
Next, an example of the configuration of the lighting device 100 will be described with reference to Fig. 3 and Fig. 4. Fig. 3 is a side view of the lighting device 100 according to the embodiment. Fig. 4 is a bottom view of the lighting device 100 according to the embodiment.

図3に示すように、実施形態に係る照明装置100は、照明ユニット20と、カメラユニット30と、電源ユニット40とを備える。また、照明ユニット20と、カメラユニット30とは、L字金具を介してネジ止めされ、照明ユニット20と、電源ユニット40とは、連結部12を介して連結される。 As shown in FIG. 3, the lighting device 100 according to the embodiment includes a lighting unit 20, a camera unit 30, and a power supply unit 40. The lighting unit 20 and the camera unit 30 are screwed together via an L-shaped metal fitting, and the lighting unit 20 and the power supply unit 40 are connected together via a connecting portion 12.

連結部12は、さらに、取付部11と接合し、取付部11を介して、照明装置100が天井などの設置面に取り付けられる。 The connecting portion 12 is further joined to the mounting portion 11, and the lighting device 100 is attached to an installation surface such as a ceiling via the mounting portion 11.

照明ユニット20は、光源部21と、フィン25とを備える。フィン25は、光源部21の上部に設けられ、光源部21の発光による発熱を冷却する。図4に示すように、光源部21は、基板21a上にLED(Light Emitting Diode)等の発光素子21bが設けられる。 The lighting unit 20 includes a light source section 21 and fins 25. The fins 25 are provided on the upper part of the light source section 21 and cool the heat generated by the light emission of the light source section 21. As shown in FIG. 4, the light source section 21 includes a light emitting element 21b such as an LED (Light Emitting Diode) provided on a substrate 21a.

光源部21の出射面は、不図示のカバーによって覆われる。なお、カバーは、例えば、透過性のガラスや樹脂である。なお、図4に示す例では、光源部21が4つの基板21aから構成される場合を示しているが、これに限定されるものではない。 The light output surface of the light source unit 21 is covered by a cover (not shown). The cover is made of, for example, transparent glass or resin. In the example shown in FIG. 4, the light source unit 21 is composed of four substrates 21a, but is not limited to this.

カメラユニット30は、撮像部31と、レンズ32とを備える。撮像部31は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像センサや、画像または映像を撮影するのに必要となる各種部品が含まれる。また、撮像部31の下面は、レンズ32によって覆われる。 The camera unit 30 includes an imaging section 31 and a lens 32. The imaging section 31 includes an imaging sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), as well as various components required to capture images or videos. The bottom surface of the imaging section 31 is covered by the lens 32.

図4に示すように、光源部21と、撮像部31との向きは、それぞれ取り付け時に同一の方向を向くことになる。これにより、光源部21によって光が照射されたエリアを撮像部31によって撮像することができるので、撮影対象の照度を確保することができるので、鮮明な画像を撮像することができる。 As shown in FIG. 4, the light source unit 21 and the imaging unit 31 face in the same direction when attached. This allows the imaging unit 31 to capture an image of the area illuminated by the light source unit 21, ensuring sufficient illuminance for the subject, allowing a clear image to be captured.

照明装置100は、天井に設置されるので、天井から空間内を俯瞰した画像を撮影することができる。なお、図3および図4に示す照明装置100の外観形状は、一例であり、ベースライト、シーリングライトなど、その他の形状であってもよい。 Since the lighting device 100 is installed on the ceiling, it is possible to capture an image of the interior of the space looking down from the ceiling. Note that the external shape of the lighting device 100 shown in Figures 3 and 4 is an example, and the lighting device 100 may have other shapes, such as a base light or a ceiling light.

<照明装置100の機能構成例>
次に、図5を用いて、実施形態に係る照明装置100の機能構成の一例について説明する。図5は、実施形態に係る照明装置の構成を示すブロック図である。図5に示すように、照明装置100は、通信部10と、照明ユニット20と、カメラユニット30と、制御部50とを有する。
<Example of functional configuration of lighting device 100>
Next, an example of a functional configuration of the lighting device 100 according to the embodiment will be described with reference to Fig. 5. Fig. 5 is a block diagram showing the configuration of the lighting device according to the embodiment. As shown in Fig. 5, the lighting device 100 has a communication unit 10, a lighting unit 20, a camera unit 30, and a control unit 50.

通信部10は、情報処理装置300等の他の装置との間で情報の送受信を行う。通信部10は、例えば、所定の通信回路またはNIC(Network Interface Card)等によって実現される。通信部10による通信方式は、例えば、ローカルエリアネットワーク(LAN)などの無線通信であってよい。なお、通信部10による通信方式は、任意の通信方式であってよく、例えば、有線通信等であってもよい。 The communication unit 10 transmits and receives information to and from other devices such as the information processing device 300. The communication unit 10 is realized, for example, by a predetermined communication circuit or a NIC (Network Interface Card). The communication method used by the communication unit 10 may be, for example, wireless communication such as a local area network (LAN). Note that the communication method used by the communication unit 10 may be any communication method, for example, wired communication, etc.

カメラユニット30は、撮像部31と、撮像制御部33と、記憶部34とを有する。撮像部31は、特定の画角(以下、「撮像領域」と記載する)を撮影して画像データ(「撮像画像」ともいう)を生成する。なお、画像データは、動画データであってもよく、静止画データであってもよい。画像データには、撮像日時(日付、曜日、時刻等)、フレームレート、撮像部31の識別情報等が含まれてもよい。 The camera unit 30 has an imaging section 31, an imaging control section 33, and a storage section 34. The imaging section 31 captures an image of a specific angle of view (hereinafter referred to as the "imaging area") to generate image data (also referred to as the "captured image"). The image data may be video data or still image data. The image data may include the imaging date and time (date, day of the week, time, etc.), frame rate, identification information of the imaging section 31, etc.

撮像制御部33は、撮像部31による撮影を制御する。また、撮像制御部33は、撮像部31の撮影により生成した画像データを制御部50に出力する。 The imaging control unit 33 controls the imaging by the imaging unit 31. The imaging control unit 33 also outputs image data generated by the imaging unit 31 to the control unit 50.

記憶部34は、カメラユニット30の各種制御を実現するためのプログラムやデータを記憶する。記憶部34は、撮像部31によって生成された画像データを記憶してもよい。記憶部34は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置によって実装される。 The storage unit 34 stores programs and data for implementing various controls of the camera unit 30. The storage unit 34 may also store image data generated by the imaging unit 31. The storage unit 34 is implemented, for example, by a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk.

制御部50は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部メモリに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。制御部50は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部50は、取得部51と、送信処理部52とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部50の内部構成は、図5に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 The control unit 50 is realized, for example, by a CPU (Central Processing Unit) or MPU (Micro Processing Unit) executing various programs stored in the internal memory using the RAM as a working area. The control unit 50 may be realized, for example, by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 50 has an acquisition unit 51 and a transmission processing unit 52, and realizes or executes the functions and actions of the information processing described below. Note that the internal configuration of the control unit 50 is not limited to the configuration shown in FIG. 5, and may be other configurations as long as they perform the information processing described below.

取得部51は、各種情報を取得する。例えば、取得部51は、カメラユニット30から各種情報を取得する。送信処理部52は、通信部10を介して外部装置に各種情報を送信する処理を行う。例えば、送信処理部52は、取得部51によって取得された画像データを通信部10およびネットワークNを介して情報処理装置300へ送信する処理を行う。 The acquisition unit 51 acquires various information. For example, the acquisition unit 51 acquires various information from the camera unit 30. The transmission processing unit 52 performs a process of transmitting various information to an external device via the communication unit 10. For example, the transmission processing unit 52 performs a process of transmitting image data acquired by the acquisition unit 51 to the information processing device 300 via the communication unit 10 and the network N.

<情報処理装置300の機能構成例>
次に、図6を用いて、実施形態に係る情報処理装置300の構成例について説明する。図6は、実施形態に係る情報処理装置300の構成を示すブロック図である。図6に示すように、情報処理装置300は、通信部110と、制御部120と、記憶部130とを具備する。
<Example of functional configuration of information processing device 300>
Next, a configuration example of the information processing device 300 according to the embodiment will be described with reference to Fig. 6. Fig. 6 is a block diagram showing the configuration of the information processing device 300 according to the embodiment. As shown in Fig. 6, the information processing device 300 includes a communication unit 110, a control unit 120, and a storage unit 130.

通信部110は、例えば、所定の通信回路またはNIC等によって実現される。通信部10による通信方式は、例えば、ローカルエリアネットワーク(LAN)などの無線通信であってよい。 The communication unit 110 is realized, for example, by a predetermined communication circuit or a NIC. The communication method by the communication unit 110 may be, for example, wireless communication such as a local area network (LAN).

記憶部130は、たとえば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部130は、画像記憶部131と、追跡情報記憶部132と、モデル記憶部133とを有する。 The storage unit 130 is realized, for example, by a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 130 has an image storage unit 131, a tracking information storage unit 132, and a model storage unit 133.

画像記憶部131は、撮像部31によって撮影された撮像画像を格納するデータベースである。画像記憶部131には、例えば、画素データ、撮像日時(日付、曜日、時刻等)、フレームレート、撮像部31の識別情報等が互いに関連づけられて格納される。 The image storage unit 131 is a database that stores images captured by the imaging unit 31. The image storage unit 131 stores, for example, pixel data, image capture date and time (date, day of the week, time, etc.), frame rate, and identification information of the imaging unit 31, which are associated with each other.

追跡情報記憶部132は、後述する検出部122によって生成される人物の追跡情報を格納するデータベースである。図7は、実施形態に係る追跡情報記憶部132の一例を示す図である。 The tracking information storage unit 132 is a database that stores tracking information of a person generated by the detection unit 122, which will be described later. FIG. 7 is a diagram showing an example of the tracking information storage unit 132 according to an embodiment.

図7に示す例において、追跡情報記憶部132は、例えば、「人物ID」と「追跡情報」とを互いに対応付けて記憶する。「人物ID」は、後述する検出部122によって検出された人物を識別する識別情報である。 In the example shown in FIG. 7, the tracking information storage unit 132 stores, for example, a "person ID" and "tracking information" in association with each other. The "person ID" is identification information that identifies a person detected by the detection unit 122, which will be described later.

「追跡情報」は、例えば、「日付」、「曜日」、「時刻」、「位置」、「移動速度」といった項目を有する。「日付」項目には、人物が検出された日付、例えば、年月日が格納される。「曜日」項目には、人物が検出された曜日が格納される。「時刻」項目には、人物が検出された時刻が格納される。「位置」項目には、検出したカメラユニット30の情報(例えば、カメラユニット30の設置位置に関する情報やカメラユニット30の識別情報など)が格納される。「移動速度」項目には、後述する推定部123によって推定された移動速度が格納される。 "Tracking information" has items such as "date", "day of the week", "time", "location", and "movement speed". The "date" item stores the date on which the person was detected, for example, the year, month, and day. The "day of the week" item stores the day of the week on which the person was detected. The "time" item stores the time on which the person was detected. The "location" item stores information on the detected camera unit 30 (for example, information on the installation location of the camera unit 30 and identification information of the camera unit 30). The "movement speed" item stores the movement speed estimated by the estimation unit 123, which will be described later.

モデル記憶部133は、撮像画像が撮像された際の各種状況に関する情報と、後述する判定部126によって用いられる閾値との関係性を示すモデルを記憶する。具体的には、このモデルは、撮像画像が撮像された際の各種状況に関する情報が入力された場合に、後述する判定部126によって用いられる閾値の値を算出するモデルである。 The model storage unit 133 stores a model that indicates the relationship between information about various conditions when the captured image was captured and a threshold value used by the determination unit 126, which will be described later. Specifically, this model is a model that calculates the value of the threshold value used by the determination unit 126, which will be described later, when information about various conditions when the captured image was captured is input.

図6の説明に戻り、制御部120について説明する。制御部120は、例えば、CPUやMPU等によって、内部メモリに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。制御部120は、例えば、ASICやFPGA等の集積回路により実現されてもよい。 Returning to the explanation of FIG. 6, the control unit 120 will now be described. The control unit 120 is realized, for example, by a CPU, an MPU, or the like, executing various programs stored in an internal memory using a RAM as a working area. The control unit 120 may also be realized, for example, by an integrated circuit such as an ASIC or an FPGA.

制御部120は、取得部121と、検出部122と、推定部123と、状況特定部124と、閾値決定部125と、判定部126と、通知部127と、学習部128とを有する。 The control unit 120 includes an acquisition unit 121, a detection unit 122, an estimation unit 123, a situation identification unit 124, a threshold determination unit 125, a judgment unit 126, a notification unit 127, and a learning unit 128.

取得部121は、照明装置100から撮像画像を取得する。取得部121は、取得した撮像画像を画像記憶部131に記憶させる。画像記憶部131には、例えば、画素データ、撮像日時(日付、曜日、時刻等)、フレームレート、撮像部31の識別情報等が互いに関連づけられて格納される。 The acquisition unit 121 acquires an image from the lighting device 100. The acquisition unit 121 stores the acquired image in the image storage unit 131. The image storage unit 131 stores, for example, pixel data, image capture date and time (date, day of the week, time, etc.), frame rate, identification information of the image capture unit 31, etc., in association with one another.

また、取得部121は、利用者による撮像画像の確認結果を端末装置400から取得する。取得部121は、取得した確認結果を学習部128へ渡す。 In addition, the acquisition unit 121 acquires the result of the user's confirmation of the captured image from the terminal device 400. The acquisition unit 121 passes the acquired confirmation result to the learning unit 128.

検出部122は、画像記憶部131に記憶された撮像画像を画像解析することにより、撮像画像から人物を検出する。画像解析は、たとえば、検出モデルを用いることで実行されてもよい。検出モデルは、例えば、ディープニューラルネットワーク(DNN:Deep Neural Network)等の機械学習のアルゴリズムにより学習を行うことで得られる。検出モデルは、例えば、HOG(Histogram Of Gradient)特徴量を利用したSVM(Support Vector Machine)等の機械学習のアルゴリズムを用いる構成であってもよい。また、検出部122は、機械学習を行った検出モデルを用いることなく、例えば、テンプレートマッチング等を用いて各種検出を実行する構成であってもよい。検出部122は、例えば、フレーム毎に検出処理を行う。 The detection unit 122 detects a person from the captured image by performing image analysis on the captured image stored in the image storage unit 131. The image analysis may be performed, for example, by using a detection model. The detection model is obtained by performing learning using a machine learning algorithm such as a deep neural network (DNN). The detection model may be configured to use a machine learning algorithm such as a support vector machine (SVM) using a histogram of gradient (HOG) feature. The detection unit 122 may also be configured to perform various detections using, for example, template matching, without using a detection model that has been subjected to machine learning. The detection unit 122 performs detection processing, for example, for each frame.

また、検出部122は、検出した人物の追跡を行う。例えば、検出部122は、撮像画像から特徴量を抽出し、抽出した特徴量を多次元の特徴ベクトルへ変換することで、検出した人物の特徴情報を生成する。検出部122は、この特徴情報を用いて人物を識別することで、その人物を複数フレーム間で追跡することができる。 The detection unit 122 also tracks the detected person. For example, the detection unit 122 generates feature information of the detected person by extracting features from the captured image and converting the extracted features into a multidimensional feature vector. The detection unit 122 can identify the person using this feature information and track the person across multiple frames.

検出部122は、人物の識別情報である人物IDごとに、例えば、日付、曜日、時刻および位置等を含む追跡情報を追跡情報記憶部132に記憶させる。 The detection unit 122 stores tracking information including, for example, date, day of the week, time, and location, for each person ID, which is the identification information of a person, in the tracking information storage unit 132.

推定部123は、追跡情報に基づき、検出部122によって検出された人物の移動速度を推定する。例えば、推定部123は、連続する複数のフレーム間における人物の移動距離を算出する。そして、推定部123は、算出した移動距離と、カメラユニット30のフレームレートとに基づいて人物の移動速度を推定する。推定部123は、推定した移動速度を追跡情報記憶部132に追加する。 The estimation unit 123 estimates the moving speed of the person detected by the detection unit 122 based on the tracking information. For example, the estimation unit 123 calculates the moving distance of the person between multiple consecutive frames. Then, the estimation unit 123 estimates the moving speed of the person based on the calculated moving distance and the frame rate of the camera unit 30. The estimation unit 123 adds the estimated moving speed to the tracking information storage unit 132.

状況特定部124は、人物が検出されたときの状況を特定する。例えば、状況特定部124は、人物が検出されたときの時間帯、曜日、同時に検出された人数、移動速度等を追跡情報記憶部132から特定する。 The situation identification unit 124 identifies the situation when a person is detected. For example, the situation identification unit 124 identifies the time period, day of the week, number of people detected at the same time, and moving speed when the person is detected from the tracking information storage unit 132.

閾値決定部125は、モデル記憶部133に記憶されたモデルを用いて、状況特定部124によって特定された各種状況から閾値を出力させる。閾値決定部125は、モデルから出力された閾値を、判定部126による異常判定処理に用いられる閾値として決定する。 The threshold determination unit 125 uses the model stored in the model storage unit 133 to output thresholds based on the various situations identified by the situation identification unit 124. The threshold determination unit 125 determines the thresholds output from the model as the thresholds to be used in the abnormality determination process by the determination unit 126.

例えば、モデル記憶部133に記憶されるモデルは、TH=f(x)のように表されてもよい。ここで、xは、人物が検出された際の状況に関する情報であり、モデルの特徴量である。モデルは、線形又は非線形の回帰モデルであってもよい。例えば、モデルは、xを説明変数とし、TH(閾値)を目的変数とする回帰モデルであってもよい。一例として、モデルは、TH=ax+bx+cx+dx・・・のような回帰モデルであってもよい。ここで、x(nは正の整数)は特徴量である。例えば、x、x、x、xは、それぞれ時間帯、曜日、検出された人物の人数、人物の移動速度に相当する特徴量であってもよい。a~dは、x、x、x、xの係数であり、後述する学習部128による学習処理によって得られるパラメータである。 For example, the model stored in the model storage unit 133 may be expressed as TH=f(x). Here, x is information about the situation when a person is detected, and is a feature of the model. The model may be a linear or nonlinear regression model. For example, the model may be a regression model with x as an explanatory variable and TH (threshold) as a target variable. As an example, the model may be a regression model such as TH=ax 1 +bx 2 +cx 3 +dx 4 .... Here, x n (n is a positive integer) is a feature. For example, x 1 , x 2 , x 3 , and x 4 may be feature amounts corresponding to the time period, the day of the week, the number of people detected, and the moving speed of the people, respectively. a to d are coefficients of x 1 , x 2 , x 3 , and x 4 , and are parameters obtained by a learning process by the learning unit 128 described later.

閾値決定部125は、状況特定部124によって特定された各種状況の特徴量をモデルに入力し、TH(閾値)を出力させる。閾値決定部125は、出力された閾値を判定部126へ渡す。 The threshold determination unit 125 inputs the features of the various situations identified by the situation identification unit 124 into the model and outputs TH (threshold value). The threshold determination unit 125 passes the output threshold value to the judgment unit 126.

判定部126は、推定部123によって推定された移動速度と、閾値決定部125から取得した閾値とを用いて異常判定処理を行う。具体的には、判定部126は、移動速度と閾値とを比較し、移動速度の値が閾値よりも大きい場合に、異常が発生したと判定する。 The determination unit 126 performs an abnormality determination process using the moving speed estimated by the estimation unit 123 and the threshold value acquired from the threshold value determination unit 125. Specifically, the determination unit 126 compares the moving speed with the threshold value, and determines that an abnormality has occurred when the value of the moving speed is greater than the threshold value.

なお、推定部123、状況特定部124、閾値決定部125および判定部126による処理は、例えば、単位時間ごと、言い換えれば、複数フレームごとに実行されてもよい。例えば、カメラユニット30のフレームレートが30fpsであると仮定すると、推定部123、状況特定部124、閾値決定部125および判定部126による処理は、例えば、1秒ごと、言い換えれば、30フレームごとに行われてもよい。また、これに限らず、推定部123、状況特定部124、閾値決定部125および判定部126による処理は、フレームごとに実行されてもよい。 The processing by the estimation unit 123, the situation identification unit 124, the threshold determination unit 125, and the judgment unit 126 may be performed, for example, every unit time, in other words, every multiple frames. For example, assuming that the frame rate of the camera unit 30 is 30 fps, the processing by the estimation unit 123, the situation identification unit 124, the threshold determination unit 125, and the judgment unit 126 may be performed, for example, every second, in other words, every 30 frames. Furthermore, without being limited to this, the processing by the estimation unit 123, the situation identification unit 124, the threshold determination unit 125, and the judgment unit 126 may be performed for each frame.

通知部127は、判定部126による判定結果を通信部110およびネットワークNを介して端末装置400へ送信する。例えば、通知部127は、判定部126によって異常と判定された場合に、異常が発生した旨の情報、異常判定処理に用いられた撮像画像および異常が検出された際の状況を含む確認要求を通知する。 The notification unit 127 transmits the result of the determination by the determination unit 126 to the terminal device 400 via the communication unit 110 and the network N. For example, when the determination unit 126 determines that an abnormality has occurred, the notification unit 127 notifies a confirmation request including information that an abnormality has occurred, the captured image used in the abnormality determination process, and the situation when the abnormality was detected.

学習部128は、端末装置400から確認結果を取得した場合に、取得した確認結果と、判定部126による判定結果とに応じて閾値を学習する。具体的には、学習部128は、取得した確認結果と、判定部126による判定結果とに応じて、人物が検出された時間帯、同時に検出された人物の人数および推定部123によって推定された移動速度等を含む状況と閾値との関係性を示すモデルを学習する。 When the learning unit 128 acquires a confirmation result from the terminal device 400, the learning unit 128 learns a threshold value according to the acquired confirmation result and the judgment result by the judgment unit 126. Specifically, the learning unit 128 learns a model indicating the relationship between the threshold value and a situation including the time period in which a person was detected, the number of people detected at the same time, the moving speed estimated by the estimation unit 123, etc., according to the acquired confirmation result and the judgment result by the judgment unit 126.

例えば、判定結果が「異常」であり、確認結果が「異常でない」である場合、学習部128は、閾値の値が高くなるようにモデルのパラメータを更新する。また、判定結果が「異常」であり、確認結果も「異常」である場合、学習部128は、パラメータの更新を行わない。なお、これに限らず、学習部128は、判定結果が「異常」であり、確認結果も「異常」である場合に、閾値の値が低くなるようにモデルのパラメータを更新してもよい。 For example, if the judgment result is "abnormal" and the confirmation result is "not abnormal", the learning unit 128 updates the model parameters so that the threshold value becomes higher. Also, if the judgment result is "abnormal" and the confirmation result is also "abnormal", the learning unit 128 does not update the parameters. Note that, without being limited to this, the learning unit 128 may update the model parameters so that the threshold value becomes lower when the judgment result is "abnormal" and the confirmation result is also "abnormal".

なお、確認結果には、閾値の正解値が含まれていてもよい。閾値の正解値は、例えば、端末装置400の利用者によって入力される。この場合、学習部128は、モデルが出力した閾値と確認結果に含まれる閾値の正解値との差分が小さくなるようにモデルのパラメータを更新してもよい。 The confirmation result may include the correct value of the threshold. The correct value of the threshold is input, for example, by the user of the terminal device 400. In this case, the learning unit 128 may update the parameters of the model so that the difference between the threshold output by the model and the correct value of the threshold included in the confirmation result becomes smaller.

ここでは、判定部126によって異常が判定された場合に、利用者に対して判定結果の確認要求を行うこととしたが、利用者による確認のタイミングは必ずしも異常が判定されたタイミングであることを要しない。例えば、情報処理装置300は、判定部126による判定結果(「異常でない」との判定結果も含む)をその判定処理が行われた際の状況とともに記憶部130に蓄積してもよい。この場合、端末装置400は、記憶部130に蓄積された情報を取得し、利用者は、蓄積された情報に対して「異常」か「異常でない」かの確認を行い、学習部128は、かかる確認結果に基づいて閾値を学習してもよい。なお、判定結果が「異常でない」であり、確認結果が「異常」である場合、学習部128は、閾値の値が低くなるようにモデルのパラメータを更新する。また、判定結果が「異常でない」であり、確認結果も「異常でない」である場合、学習部128は、パラメータの更新を行わない。なお、これに限らず、学習部128は、判定結果が「異常でない」であり、確認結果も「異常でない」である場合に、閾値の値が高くなるようにモデルのパラメータを更新してもよい。 Here, when the judgment unit 126 judges an abnormality, the user is requested to confirm the judgment result, but the timing of the user's confirmation does not necessarily have to be the timing when the abnormality is judged. For example, the information processing device 300 may store the judgment result by the judgment unit 126 (including the judgment result of "not abnormal") in the storage unit 130 together with the situation when the judgment process was performed. In this case, the terminal device 400 may acquire the information stored in the storage unit 130, and the user may confirm whether the accumulated information is "abnormal" or "not abnormal", and the learning unit 128 may learn the threshold value based on the confirmation result. Note that if the judgment result is "not abnormal" and the confirmation result is "abnormal", the learning unit 128 updates the model parameters so that the threshold value is lower. Also, if the judgment result is "not abnormal" and the confirmation result is also "not abnormal", the learning unit 128 does not update the parameters. However, without being limited to this, the learning unit 128 may update the model parameters so that the threshold value becomes higher when the judgment result is "not abnormal" and the confirmation result is also "not abnormal."

<情報処理装置300の具体的動作>
次に、図8および図9を用いて、実施形態に係る情報処理装置300が実行する処理手順について説明する。まず、図8を用いて、実施形態に係る情報処理装置300が実行する異常判定処理の手順について説明する。図8は、実施形態に係る情報処理装置300が実行する異常判定処理の手順を示すフローチャートである。
<Specific Operation of Information Processing Device 300>
Next, a process procedure executed by the information processing device 300 according to the embodiment will be described with reference to Fig. 8 and Fig. 9. First, a process procedure of an abnormality determination process executed by the information processing device 300 according to the embodiment will be described with reference to Fig. 8. Fig. 8 is a flowchart showing a process procedure of an abnormality determination process executed by the information processing device 300 according to the embodiment.

図8に示すように、情報処理装置300は、照明装置100から撮像画像を取得し(ステップS101)、取得した撮像画像から人物を検出し、検出した人物を追跡する(ステップS102)。そして、情報処理装置300は、人物の追跡情報に基づき、人物の移動速度を推定する(ステップS103)。 As shown in FIG. 8, the information processing device 300 acquires a captured image from the lighting device 100 (step S101), detects a person from the acquired captured image, and tracks the detected person (step S102). Then, the information processing device 300 estimates the moving speed of the person based on the tracking information of the person (step S103).

つづいて、情報処理装置300は、追跡情報に基づいて、人物が検出されたときの状況を特定し(ステップS104)、特定した状況を特徴量としてモデルに入力することで、その状況に応じた閾値を出力させる(ステップS105)。 Next, the information processing device 300 identifies the situation when the person was detected based on the tracking information (step S104), and inputs the identified situation into the model as a feature, thereby outputting a threshold value according to the situation (step S105).

つづいて、情報処理装置300は、ステップS103において推定した移動速度が、ステップS105においてモデルから出力させた閾値を超えているか否かを判定する(ステップS106)。この処理において、移動速度が閾値を超えていると判定した場合(ステップS106,Yes)、情報処理装置300は、端末装置400に対して異常を通知する(ステップS107)。具体的には、情報処理装置300は、異常を検出した旨の情報、異常判定処理に用いられた撮像画像および異常が検出された際の状況を含む確認要求を通知する。 The information processing device 300 then determines whether the movement speed estimated in step S103 exceeds the threshold value output from the model in step S105 (step S106). In this process, if it is determined that the movement speed exceeds the threshold value (step S106, Yes), the information processing device 300 notifies the terminal device 400 of an abnormality (step S107). Specifically, the information processing device 300 notifies a confirmation request including information that an abnormality has been detected, the captured image used in the abnormality determination process, and the situation when the abnormality was detected.

ステップS107の処理を終えた場合、または、ステップS106において移動速度が閾値を超えていない場合(ステップS106,No)、情報処理装置300は、処理を終了する。 When the processing of step S107 is completed, or when the moving speed does not exceed the threshold value in step S106 (step S106, No), the information processing device 300 ends the processing.

次に、図9を用いて、実施形態に係る情報処理装置300が実行する学習処理の手順について説明する。図9は、実施形態に係る情報処理装置300が実行する学習処理の手順を示すフローチャートである。 Next, the procedure of the learning process executed by the information processing device 300 according to the embodiment will be described with reference to FIG. 9. FIG. 9 is a flowchart showing the procedure of the learning process executed by the information processing device 300 according to the embodiment.

図9に示すように、情報処理装置300は、端末装置400から確認結果を取得する(ステップS201)。そして、情報処理装置300は、ステップS106における判定結果とステップS201において取得した確認結果とに基づいてモデルのパラメータを更新する(ステップS202)。 As shown in FIG. 9, the information processing device 300 acquires the confirmation result from the terminal device 400 (step S201). Then, the information processing device 300 updates the model parameters based on the judgment result in step S106 and the confirmation result acquired in step S201 (step S202).

(その他の実施形態)
上述した実施形態では、学習部128が、人物が検出された時間帯、曜日、同時に検出された人数および推定部123によって推定された移動速度を含む状況と閾値との関係性を示すモデルを学習する場合の例について説明した。これに限らず、学習部128は、人物が検出された時間帯、曜日、同時に検出された人物の人数および推定部123によって推定された移動速度の少なくとも一つを含む状況と閾値との関係性を示すモデルを学習してもよい。言い換えれば、モデル記憶部133に記憶されるモデルは、人物が検出された時間帯、同時に検出された人物の人数および推定部123によって推定された移動速度の少なくとも一つを含む状況と閾値との関係性を示すモデルであってもよい。
Other Embodiments
In the above-described embodiment, an example has been described in which the learning unit 128 learns a model indicating a relationship between a threshold and a situation including a time period when a person is detected, a day of the week, the number of people detected at the same time, and a moving speed estimated by the estimation unit 123. Without being limited to this, the learning unit 128 may learn a model indicating a relationship between a threshold and a situation including at least one of a time period when a person is detected, a day of the week, the number of people detected at the same time, and a moving speed estimated by the estimation unit 123. In other words, the model stored in the model storage unit 133 may be a model indicating a relationship between a threshold and a situation including at least one of a time period when a person is detected, the number of people detected at the same time, and a moving speed estimated by the estimation unit 123.

上述したように、実施形態に係る情報処理装置300は、検出部122と、推定部123と、判定部126と、学習部128とを備える。検出部122は、撮像部31によって撮像された撮像画像から人物を検出する。推定部123は、検出部122によって検出された人物の移動速度を推定する。判定部126は、推定部123によって推定された移動速度が閾値を超えた場合に異常が発生したと判定する。学習部128は、判定部126による判定結果と、利用者による撮像画像の確認結果とに応じて閾値を学習する。 As described above, the information processing device 300 according to the embodiment includes a detection unit 122, an estimation unit 123, a determination unit 126, and a learning unit 128. The detection unit 122 detects a person from an image captured by the imaging unit 31. The estimation unit 123 estimates the movement speed of the person detected by the detection unit 122. The determination unit 126 determines that an abnormality has occurred when the movement speed estimated by the estimation unit 123 exceeds a threshold. The learning unit 128 learns the threshold according to the determination result by the determination unit 126 and the result of the user checking the captured image.

したがって、実施形態に係る情報処理装置300によれば、異常判定処理における誤判定を低減することができる。 Therefore, the information processing device 300 according to the embodiment can reduce erroneous determinations in the anomaly determination process.

実施形態に係る情報処理装置300は、通知部127と、取得部121とを具備していてもよい。通知部127は、判定部126による判定結果を利用者が使用する端末装置400に通知する。取得部121は、端末装置400から確認結果を取得する。かかる構成によれば、閾値の学習に必要な確認結果を収集することができる。 The information processing device 300 according to the embodiment may include a notification unit 127 and an acquisition unit 121. The notification unit 127 notifies the terminal device 400 used by the user of the determination result by the determination unit 126. The acquisition unit 121 acquires the confirmation result from the terminal device 400. With this configuration, it is possible to collect the confirmation results necessary for learning the threshold value.

実施形態に係る情報処理装置300において、学習部128は、判定結果と確認結果とに応じて、人物が検出された時間帯、同時に検出された人物の人数および推定部によって推定された移動速度の少なくとも一つを含む状況と閾値との関係性を示すモデルを学習してもよい。かかる構成によれば、状況に応じて最適化された閾値を出力するモデルを生成することができる。 In the information processing device 300 according to the embodiment, the learning unit 128 may learn a model that indicates the relationship between a situation, including at least one of the time period in which a person was detected, the number of people detected at the same time, and the moving speed estimated by the estimation unit, and a threshold value, based on the determination result and the confirmation result. With this configuration, it is possible to generate a model that outputs a threshold value that is optimized according to the situation.

実施形態に係る情報処理装置300は、状況特定部124と、閾値決定部125とを具備してもよい。状況特定部124は、状況を特定する。閾値決定部125は、学習部128によって学習されたモデルを用いて、状況特定部124によって特定された状況から閾値を決定する。かかる構成によれば、状況に応じて最適化された閾値を用いて異常判定処理を実施することができ、これにより、異常判定処理の誤判定を低減することができる。 The information processing device 300 according to the embodiment may include a situation identification unit 124 and a threshold determination unit 125. The situation identification unit 124 identifies a situation. The threshold determination unit 125 determines a threshold from the situation identified by the situation identification unit 124 using a model learned by the learning unit 128. With this configuration, it is possible to perform an abnormality determination process using a threshold optimized according to the situation, thereby reducing erroneous determinations in the abnormality determination process.

本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although an embodiment of the present invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. This embodiment can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. This embodiment and its variations are within the scope of the invention and its equivalents as described in the claims, as well as the scope and gist of the invention.

20 照明ユニット
30 カメラユニット
31 撮像部
100 照明装置
110 通信部
120 制御部
121 取得部
122 検出部
123 推定部
124 状況特定部
125 閾値決定部
126 判定部
127 通知部
128 学習部
130 記憶部
131 画像記憶部
132 追跡情報記憶部
133 モデル記憶部
300 情報処理装置
400 端末装置
20 Lighting unit 30 Camera unit 31 Imaging unit 100 Lighting device 110 Communication unit 120 Control unit 121 Acquisition unit 122 Detection unit 123 Estimation unit 124 Situation identification unit 125 Threshold determination unit 126 Determination unit 127 Notification unit 128 Learning unit 130 Storage unit 131 Image storage unit 132 Tracking information storage unit 133 Model storage unit 300 Information processing device 400 Terminal device

Claims (5)

撮像部によって撮像された撮像画像から人物を検出する検出部と;
前記検出部によって検出された人物の移動速度を推定する推定部と;
前記推定部によって推定された移動速度が閾値を超えた場合に異常が発生したと判定する判定部と;
前記判定部による判定結果と、利用者による前記撮像画像の確認結果とに応じて前記閾値を学習する学習部と;
を具備する情報処理装置。
a detection unit that detects a person from an image captured by the imaging unit;
an estimation unit that estimates a moving speed of the person detected by the detection unit;
a determination unit that determines that an abnormality has occurred when the moving speed estimated by the estimation unit exceeds a threshold;
a learning unit that learns the threshold value in accordance with a result of the determination by the determination unit and a result of confirmation of the captured image by a user;
An information processing device comprising:
前記判定部による判定結果を前記利用者が使用する端末装置に通知する通知部と;
前記端末装置から前記確認結果を取得する取得部と;
を具備する請求項1に記載の情報処理装置。
a notification unit that notifies a terminal device used by the user of a result of the determination made by the determination unit;
an acquisition unit that acquires the confirmation result from the terminal device;
The information processing apparatus according to claim 1 , further comprising:
前記学習部は、前記判定結果と前記確認結果とに応じて、前記人物が検出された時間帯、同時に検出された前記人物の人数および前記推定部によって推定された移動速度の少なくとも一つを含む状況と前記閾値との関係性を示すモデルを学習する請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the learning unit learns a model that indicates a relationship between the threshold value and a situation including at least one of the time period in which the person was detected, the number of people detected at the same time, and the moving speed estimated by the estimation unit, in accordance with the determination result and the confirmation result. 前記状況を特定する状況特定部と;
前記学習部によって学習された前記モデルを用いて、前記状況特定部によって特定された状況から前記閾値を決定する閾値決定部と;
を具備する請求項3に記載の情報処理装置。
A situation identification unit that identifies the situation;
a threshold determination unit that determines the threshold from the situation identified by the situation identification unit using the model trained by the learning unit;
The information processing apparatus according to claim 3 , further comprising:
撮像部によって撮像された撮像画像から人物を検出する検出工程と;
前記検出工程によって検出された人物の移動速度を推定する推定工程と;
前記推定工程によって推定された移動速度が閾値を超えた場合に異常が発生したと判定する判定工程と;
前記判定工程による判定結果と、利用者による前記撮像画像の確認結果とに応じて前記閾値を学習する学習工程と;
を含む情報処理方法。
a detection step of detecting a person from an image captured by the imaging unit;
an estimation step of estimating a moving speed of the person detected by the detection step;
a determination step of determining that an abnormality has occurred when the moving speed estimated by the estimation step exceeds a threshold value;
a learning step of learning the threshold value in accordance with a result of the determination step and a confirmation result of the captured image by a user;
An information processing method comprising:
JP2022155486A 2022-09-28 2022-09-28 Information processor and information processing method Pending JP2024049181A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022155486A JP2024049181A (en) 2022-09-28 2022-09-28 Information processor and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022155486A JP2024049181A (en) 2022-09-28 2022-09-28 Information processor and information processing method

Publications (1)

Publication Number Publication Date
JP2024049181A true JP2024049181A (en) 2024-04-09

Family

ID=90609712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022155486A Pending JP2024049181A (en) 2022-09-28 2022-09-28 Information processor and information processing method

Country Status (1)

Country Link
JP (1) JP2024049181A (en)

Similar Documents

Publication Publication Date Title
US10558863B2 (en) Video surveillance system and video surveillance method
CN102162667B (en) Image processing apparatus, image processing method, and air conditioning control apparatus
JP5567853B2 (en) Image recognition apparatus and method
TWI430186B (en) Image processing apparatus and image processing method
US9813643B2 (en) Thermal recognition systems and methods
US20160142680A1 (en) Image processing apparatus, image processing method, and storage medium
US20210185987A1 (en) Rearing place management device and method
US20190019013A1 (en) Facial recognition apparatus, recognition method and program therefor, and information device
JP6572535B2 (en) Image recognition system, server device, and image recognition method
WO2019138840A1 (en) Facial recognition device
JP6163466B2 (en) Authentication device
US12041341B2 (en) Information processing apparatus, camera control method, program, camera apparatus, and image processing system
JP6025557B2 (en) Image recognition apparatus, control method thereof, and program
US20130293721A1 (en) Imaging apparatus, imaging method, and program
US20220083811A1 (en) Monitoring camera, part association method and program
KR101396838B1 (en) Video stabilization method and system by selection one of various motion models
EP3529788B1 (en) Presence detection system and method
US20170112381A1 (en) Heart rate sensing using camera-based handheld device
JP6495691B2 (en) Moving object detection device, moving object detection method, and computer program
JP2024049181A (en) Information processor and information processing method
KR20240044162A (en) Hybrid unmanned store management platform based on self-supervised and multi-camera
US11507768B2 (en) Information processing apparatus, information processing method, and storage medium
JP6301202B2 (en) Shooting condition setting device and shooting condition setting method
JP7228509B2 (en) Identification device and electronic equipment
JP2018033103A (en) Frame rate determination device, frame rate determination method and computer program for frame rate determination