JP6862905B2 - Image processing equipment and programs - Google Patents

Image processing equipment and programs Download PDF

Info

Publication number
JP6862905B2
JP6862905B2 JP2017032855A JP2017032855A JP6862905B2 JP 6862905 B2 JP6862905 B2 JP 6862905B2 JP 2017032855 A JP2017032855 A JP 2017032855A JP 2017032855 A JP2017032855 A JP 2017032855A JP 6862905 B2 JP6862905 B2 JP 6862905B2
Authority
JP
Japan
Prior art keywords
parameter
moving image
determination
event
occurred
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017032855A
Other languages
Japanese (ja)
Other versions
JP2018136895A (en
Inventor
塚本 明利
明利 塚本
渡辺 孝弘
孝弘 渡辺
孝光 渡邉
孝光 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017032855A priority Critical patent/JP6862905B2/en
Publication of JP2018136895A publication Critical patent/JP2018136895A/en
Application granted granted Critical
Publication of JP6862905B2 publication Critical patent/JP6862905B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置およびプログラムに関する。 The present invention relates to an image processing apparatus and a program.

従来、撮像装置によって撮像された動画像に基づいて、撮像された動画像(撮像動画像)に所定の事象が生じているか否かを判定する技術が知られている。例えば、撮像動画像に写る被写体の動きを検出し、被写体の動きと所定のパラメータとを比較することによって、撮像動画像に所定の事象が生じているか否かを判定する技術が知られている(例えば、特許文献1参照)。かかる技術においては、撮像装置の設置場所、および、1秒あたりの撮像フレーム数に従って、パラメータが選択される。 Conventionally, there is known a technique for determining whether or not a predetermined event has occurred in an captured moving image (imaging moving image) based on a moving image captured by an imaging device. For example, there is known a technique of detecting the movement of a subject in a captured moving image and comparing the movement of the subject with a predetermined parameter to determine whether or not a predetermined event has occurred in the captured moving image. (See, for example, Patent Document 1). In such a technique, parameters are selected according to the installation location of the imaging device and the number of imaging frames per second.

特開2004−248090号公報Japanese Unexamined Patent Publication No. 2004-248090

しかしながら、撮像装置によって撮像された動画像に所定の事象が生じているか否かをより高精度に判定することを可能とする技術が提供されることが望まれる。例えば、パラメータの特定をより適切に行うことによって、より適切に特定したパラメータに基づいて、動画像に所定の事象が生じているか否かをより高精度に判定することを可能とする技術が提供されることが望まれる。 However, it is desired to provide a technique capable of more accurately determining whether or not a predetermined event has occurred in a moving image captured by an imaging device. For example, there is provided a technique capable of more accurately determining whether or not a predetermined event has occurred in a moving image based on the more appropriately specified parameters by more appropriately specifying the parameters. It is hoped that it will be done.

上記問題を解決するために、本発明のある観点によれば、先頭から末尾まで昇順または降順に並べられた複数通りの候補パラメータと入力動画像とを取得するデータ取得部と、前記複数通りの候補パラメータの先頭から順に用いて、前記入力動画像に所定の事象が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定し、前記判定結果が変化する候補パラメータに基づいて、撮像動画像に前記事象が生じているか否かを判定するための判定用パラメータを特定するパラメータ特定部と、を備える、画像処理装置が提供される。 In order to solve the above problem, according to a certain viewpoint of the present invention, a data acquisition unit for acquiring a plurality of candidate parameters arranged in ascending or descending order from the beginning to the end and an input moving image, and the plurality of methods. Using the candidate parameters in order from the beginning, it is repeatedly determined whether or not a predetermined event has occurred in the input moving image until at least the determination result changes, and the captured moving image is based on the candidate parameter in which the determination result changes. An image processing apparatus is provided that includes a parameter specifying unit that specifies a determination parameter for determining whether or not the event has occurred in the image.

前記パラメータ特定部は、前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータの一つ前の候補パラメータを、前記判定用パラメータとして特定し、前記データ取得部によって前記事象が生じている前記入力動画像が取得された場合、前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータの一つ前の候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータを、前記判定用パラメータとして特定してよい。 The parameter specifying unit is a candidate parameter or a candidate parameter that does not determine that the event has occurred in the input moving image when the input moving image in which the event has not occurred is acquired by the data acquisition unit. The candidate parameter immediately before the candidate parameter that has begun to determine that the event has occurred in the input moving image is specified as the determination parameter, and the input in which the event has occurred by the data acquisition unit. When the moving image is acquired, it is determined that the event has occurred in the candidate parameter immediately before the candidate parameter that is no longer determined that the event has occurred in the input moving image, or in the input moving image. The candidate parameter that has begun to be determined may be specified as the determination parameter.

前記パラメータ特定部は、前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータの一つ前の候補パラメータを、前記判定用パラメータとして特定してよい。 The parameter specifying unit is a candidate parameter or a candidate parameter that does not determine that the event has occurred in the input moving image when the input moving image in which the event has not occurred is acquired by the data acquisition unit. The candidate parameter immediately before the candidate parameter that has begun to determine that the event has started to occur in the input moving image may be specified as the determination parameter.

前記パラメータ特定部は、前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータを、前記判定用パラメータとして特定してよい。 When the input moving image in which the event has not occurred is acquired by the data acquisition unit, the parameter specifying unit selects a candidate parameter that is no longer determined to have caused the event in the input moving image. It may be specified as a judgment parameter.

前記パラメータ特定部は、前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータの一つ前の候補パラメータを、前記判定用パラメータとして特定してよい。 The parameter specifying unit is one of the candidate parameters that started to determine that the event has occurred in the input moving image when the input moving image in which the event has not occurred is acquired by the data acquisition unit. The previous candidate parameter may be specified as the determination parameter.

前記画像処理装置は、前記判定用パラメータを用いて、前記撮像動画像に前記事象が生じているか否かを判定する状態判定部を備えてよい。 The image processing device may include a state determination unit that determines whether or not the event has occurred in the captured moving image by using the determination parameter.

前記画像処理装置は、前記撮像動画像に前記事象が生じていると判定された場合、前記事象の検知結果の表示を制御する検知結果表示制御部を備えてよい。 The image processing device may include a detection result display control unit that controls the display of the detection result of the event when it is determined that the event has occurred in the captured moving image.

前記パラメータ特定部は、前記入力動画像に基づいて、第1の時間範囲におけるオプティカルフローの対応位置ごとの平均値を第1の平均特徴量として算出するとともに前記第1の時間範囲よりも短い第2の時間範囲におけるオプティカルフローの対応位置ごとの平均値を第2の平均特徴量として算出し、前記第1の平均特徴量と前記第2の平均特徴量とに応じた所定の演算結果と閾値との関係に基づいて、前記入力動画像に前記事象が生じているか否かを判定してよい。 Based on the input moving image, the parameter specifying unit calculates an average value for each corresponding position of the optical flow in the first time range as a first average feature amount, and is shorter than the first time range. The average value for each corresponding position of the optical flow in the time range of 2 is calculated as the second average feature amount, and a predetermined calculation result and threshold value corresponding to the first average feature amount and the second average feature amount. Based on the relationship with, it may be determined whether or not the event occurs in the input moving image.

前記判定用パラメータは、前記第1の時間範囲、前記第2の時間範囲、および、前記閾値の少なくともいずれか一つを含んでよい。 The determination parameter may include at least one of the first time range, the second time range, and the threshold value.

前記判定用パラメータは、前記オプティカルフローが算出される時間的な密度、および、前記オプティカルフローが算出される空間的な密度の少なくともいずれか一つを含んでよい。 The determination parameter may include at least one of the temporal density at which the optical flow is calculated and the spatial density at which the optical flow is calculated.

前記画像処理装置は、前記撮像動画像に基づいて検出されたオプティカルフローに応じた表示を制御するオプティカルフロー表示制御部と、前記判定用パラメータの変更操作が入力された場合、前記判定用パラメータを変更するパラメータ変更部と、を備えてよい。 The image processing device includes an optical flow display control unit that controls a display according to an optical flow detected based on the captured moving image, and a determination parameter when a change operation of the determination parameter is input. It may be provided with a parameter changing unit to be changed.

前記パラメータ特定部は、過去に使用されたパラメータが記録されている場合、前記過去に使用されたパラメータを用いて、前記入力動画像に前記過去に使用されたパラメータに対応する事象が生じているか否かを判定し、前記画像処理装置は、前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合かつ前記パラメータ特定部によって前記入力動画像に前記事象が生じていないと判定された場合、または、前記データ取得部によって前記事象が生じている前記入力動画像が取得された場合かつ前記パラメータ特定部によって前記入力動画像に前記事象が生じていると判定された場合、前記過去に使用されたパラメータおよび前記過去に使用されたパラメータに関連する情報のうち、少なくともいずれか一方の表示を制御するパラメータ情報表示制御部を備えてよい。 When the parameters used in the past are recorded, the parameter specifying unit uses the parameters used in the past to determine whether an event corresponding to the parameters used in the past has occurred in the input moving image. The image processing apparatus determines whether or not, and when the input moving image in which the event has not occurred is acquired by the data acquisition unit and the event has occurred in the input moving image by the parameter specifying unit. If it is determined that there is no such event, or if the input moving image in which the event occurs is acquired by the data acquisition unit and the parameter specifying unit determines that the event has occurred in the input moving image. If so, the parameter information display control unit that controls the display of at least one of the parameters used in the past and the information related to the parameters used in the past may be provided.

前記過去に使用されたパラメータに関連する情報は、前記過去に使用されたパラメータを用いて判定がなされた事象の種類、前記判定に使用された動画像を撮像した撮像装置による撮像距離、および、前記撮像装置の画角の少なくともいずれか一つを含んでよい。 Information related to the parameters used in the past includes the type of event determined using the parameters used in the past, the imaging distance by the imaging device that captured the moving image used in the determination, and It may include at least one of the angles of view of the image pickup apparatus.

前記パラメータ特定部は、前記過去に使用されたパラメータの選択操作が入力された場合、前記過去に使用されたパラメータを前記判定用パラメータとして特定してよい。 When the parameter selection operation used in the past is input, the parameter specifying unit may specify the parameter used in the past as the determination parameter.

前記パラメータ特定部は、前記入力動画像上に設けた領域ごとの前記事象に基づいて、前記領域ごとに前記判定用パラメータを特定してよい。 The parameter specifying unit may specify the determination parameter for each region based on the event for each region provided on the input moving image.

また、本発明の別の観点によれば、コンピュータを、先頭から末尾まで昇順または降順に並べられた複数通りの候補パラメータと入力動画像とを取得するデータ取得部と、前記複数通りの候補パラメータの先頭から順に用いて、前記入力動画像に所定の事象が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定し、前記判定結果が変化する候補パラメータに基づいて、撮像動画像に前記事象が生じているか否かを判定するための判定用パラメータを特定するパラメータ特定部と、を備える、画像処理装置として機能させるためのプログラムが提供される。 Further, according to another aspect of the present invention, a data acquisition unit for acquiring a plurality of candidate parameters and input moving images arranged in ascending or descending order from the beginning to the end of the computer, and the plurality of candidate parameters. Whether or not a predetermined event has occurred in the input moving image is repeatedly determined from the beginning of the above until at least the determination result changes, and the captured moving image is based on the candidate parameters in which the determination result changes. A program for functioning as an image processing device is provided, which includes a parameter specifying unit for specifying a determination parameter for determining whether or not the event has occurred.

以上説明したように本発明によれば、撮像装置によって撮像された動画像に所定の事象が生じているか否かをより高精度に判定することを可能とする技術が提供される。 As described above, according to the present invention, there is provided a technique capable of determining with higher accuracy whether or not a predetermined event has occurred in a moving image captured by an imaging device.

第1の実施形態に係る画像処理システムの構成例を示す図である。It is a figure which shows the structural example of the image processing system which concerns on 1st Embodiment. 第1の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the image processing apparatus which concerns on 1st Embodiment. 車両走行ルートの変化が時系列に沿って撮像装置によって撮像された複数の画像の例を示す図である。It is a figure which shows the example of the plurality of images which the change of the vehicle traveling route was imaged by the image pickup apparatus in time series. 状態判定部の機能を説明するための図である。It is a figure for demonstrating the function of the state determination part. 判定用パラメータの例を示す図である。It is a figure which shows the example of the determination parameter. 判定用パラメータを特定する手法の第1の例を説明するための図である。It is a figure for demonstrating the 1st example of the method of specifying a determination parameter. 判定用パラメータを特定する手法の第2の例を説明するための図である。It is a figure for demonstrating the 2nd example of the method of specifying the determination parameter. 判定用パラメータを特定する手法の第3の例を説明するための図である。It is a figure for demonstrating the 3rd example of the method of specifying the determination parameter. 判定用パラメータを特定する手法の第4の例を説明するための図である。It is a figure for demonstrating the 4th example of the method of specifying the determination parameter. 第1の実施形態に係る画像処理システムにおける判定用パラメータ特定の動作例を示すフローチャートである。It is a flowchart which shows the operation example of specifying the determination parameter in the image processing system which concerns on 1st Embodiment. 異常検知領域の表示例を示す図である。It is a figure which shows the display example of an abnormality detection area. 第1の実施形態に係る画像処理システムにおける状態判定の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the state determination in the image processing system which concerns on 1st Embodiment. 第2の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the image processing apparatus which concerns on 2nd Embodiment. オプティカルフローの表示例を示す図である。It is a figure which shows the display example of an optical flow. 第2の実施形態に係る画像処理システムにおける判定用パラメータ変更の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the judgment parameter change in the image processing system which concerns on 2nd Embodiment. 第3の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the image processing apparatus which concerns on 3rd Embodiment. 過去に使用されたパラメータおよび過去に使用されたパラメータに関連する情報の例を示す図である。It is a figure which shows the example of the parameter used in the past and the information related to the parameter used in the past. 過去に使用されたパラメータを用いた判定結果の例を示す図である。It is a figure which shows the example of the judgment result using the parameter used in the past. 過去に使用されたパラメータおよび過去に使用されたパラメータに関連する情報の表示例を示す図である。It is a figure which shows the display example of the parameter used in the past, and the information related to the parameter used in the past. 第4の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the image processing apparatus which concerns on 4th Embodiment. 領域ごとの座標と事象の種類との対応関係の例を示す図である。It is a figure which shows the example of the correspondence relation between the coordinate of each area and the type of an event. 第4の実施形態に係る画像処理システムにおける判定用パラメータ特定の動作例を示すフローチャートである。It is a flowchart which shows the operation example of specifying the determination parameter in the image processing system which concerns on 4th Embodiment. 本発明の実施形態に係る画像処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware structure of the image processing apparatus which concerns on embodiment of this invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。 Further, in the present specification and the drawings, a plurality of components having substantially the same functional configuration may be distinguished by adding different numbers after the same reference numerals. However, if it is not necessary to distinguish each of a plurality of components having substantially the same functional configuration, only the same reference numerals are given. Further, similar components of different embodiments may be distinguished by adding different alphabets after the same reference numerals. However, if it is not necessary to distinguish each of the similar components of different embodiments, only the same reference numerals are given.

(0.概要)
まず、本実施形態の概要について説明する。一般的に、撮像装置によって撮像された動画像に基づいて、撮像された動画像(撮像動画像)に所定の事象が生じているか否かを判定する技術が知られている。例えば、撮像動画像に写る被写体の動きを検出し、被写体の動きと所定のパラメータとを比較することによって、撮像動画像に所定の事象が生じているか否かを判定する技術が知られている(例えば、特許文献1参照)。かかる技術においては、撮像装置の設置場所、および、1秒あたりの撮像フレーム数に従って、パラメータが選択される。
(0. Overview)
First, the outline of the present embodiment will be described. Generally, there is known a technique for determining whether or not a predetermined event has occurred in a captured moving image (captured moving image) based on a moving image captured by an imaging device. For example, there is known a technique of detecting the movement of a subject in a captured moving image and comparing the movement of the subject with a predetermined parameter to determine whether or not a predetermined event has occurred in the captured moving image. (See, for example, Patent Document 1). In such a technique, parameters are selected according to the installation location of the imaging device and the number of imaging frames per second.

しかし、本明細書においては、撮像装置によって撮像された動画像に所定の事象が生じているか否かをより高精度に判定することを可能とする技術について主に説明する。例えば、特許文献1に記載された技術においては、試行錯誤しながらパラメータを特定する必要があるため、パラメータの特定に手間が掛かってしまう。本明細書においては、パラメータの特定をより適切に行うことによって、より適切に特定したパラメータに基づいて、動画像に所定の事象が生じているか否かをより高精度に判定することを可能とする技術について主に説明する。 However, in the present specification, a technique that makes it possible to determine with higher accuracy whether or not a predetermined event has occurred in a moving image captured by an imaging device will be mainly described. For example, in the technique described in Patent Document 1, it is necessary to specify the parameters through trial and error, so that it takes time and effort to specify the parameters. In the present specification, by more appropriately specifying the parameters, it is possible to more accurately determine whether or not a predetermined event has occurred in the moving image based on the more appropriately specified parameters. The technology to be used will be mainly explained.

以上、本実施形態の背景について説明した。 The background of this embodiment has been described above.

(1.第1の実施形態)
続いて、第1の実施形態について説明する。
(1. First Embodiment)
Subsequently, the first embodiment will be described.

[1−1.システムの概要]
まず、第1の実施形態に係る画像処理システムの構成例について説明する。
[1-1. System overview]
First, a configuration example of the image processing system according to the first embodiment will be described.

図1は、第1の実施形態に係る画像処理システムの構成例を示す図である。図1に示すように、第1の実施形態に係る画像処理システム1Aは、画像処理装置10Aと、撮像装置30とを備える。なお、後に説明する第2の実施形態に係る画像処理システム1Bは、画像処理装置10Aの代わりに画像処理装置10Bを備え、第3の実施形態に係る画像処理システム1Cは、画像処理装置10Aの代わりに画像処理装置10Cを備え、第4の実施形態に係る画像処理システム1Dは、画像処理装置10Aの代わりに画像処理装置10Dを備える。 FIG. 1 is a diagram showing a configuration example of an image processing system according to the first embodiment. As shown in FIG. 1, the image processing system 1A according to the first embodiment includes an image processing device 10A and an image pickup device 30. The image processing system 1B according to the second embodiment described later includes an image processing device 10B instead of the image processing device 10A, and the image processing system 1C according to the third embodiment is an image processing device 10A. Instead, the image processing device 10C is provided, and the image processing system 1D according to the fourth embodiment includes the image processing device 10D instead of the image processing device 10A.

図1に示すように、画像処理装置10Aおよび撮像装置30は、有線または無線により通信を行うことが可能である。例えば、画像処理装置10Aおよび撮像装置30は、直接接続されていてもよいし、ネットワークを介して接続されていてもよい。画像処理装置10Aおよび撮像装置30がネットワークを介して接続されている場合、かかるネットワークの種類は特に限定されない。例えば、かかるネットワークは、インターネットを含んでいてよい。あるいは、撮像装置30は、画像処理装置10Aと別体ではなく、一体化されていてもよい。 As shown in FIG. 1, the image processing device 10A and the image pickup device 30 can communicate by wire or wirelessly. For example, the image processing device 10A and the image pickup device 30 may be directly connected or may be connected via a network. When the image processing device 10A and the image pickup device 30 are connected via a network, the type of such network is not particularly limited. For example, such a network may include the Internet. Alternatively, the image pickup apparatus 30 may be integrated with the image processing apparatus 10A instead of being separate.

撮像装置30は、検出対象領域を含んだ撮像範囲を連続的に撮像して動画像を得る。ここで、撮像装置30が設置される位置は限定されない。また、検出対象領域は、撮像範囲の全体であってもよいし、一部であってもよい。なお、本明細書においては、撮像装置30が固定カメラである場合を主に想定する。しかし、撮像装置30は可動カメラであってもよい。例えば、撮像装置30は、PTZ(パン・チルト・ズーム)カメラであってもよい。撮像装置30によって撮像された動画像は、画像処理装置10Aに提供される。 The imaging device 30 continuously images an imaging range including a detection target region to obtain a moving image. Here, the position where the image pickup apparatus 30 is installed is not limited. Further, the detection target area may be the entire imaging range or a part of the imaging range. In this specification, it is mainly assumed that the image pickup apparatus 30 is a fixed camera. However, the image pickup apparatus 30 may be a movable camera. For example, the image pickup apparatus 30 may be a PTZ (pan / tilt / zoom) camera. The moving image captured by the image pickup device 30 is provided to the image processing device 10A.

画像処理装置10Aは、撮像装置30から提供された動画像を取得する。そして、画像処理装置10Aは、撮像装置30から提供された動画像に基づいて、動画像に所定の事象が生じているか否かを判定する。所定の事象は特に限定されない。本明細書においては、所定の事象の例として、車両走行ルートの変化(例えば、避走など)を主に想定する。しかし、所定の事象は、他の車両走行ルートの変化(例えば、逆走など)であってもよい。 The image processing device 10A acquires a moving image provided by the image pickup device 30. Then, the image processing device 10A determines whether or not a predetermined event has occurred in the moving image based on the moving image provided by the imaging device 30. The predetermined event is not particularly limited. In the present specification, as an example of a predetermined event, a change in a vehicle traveling route (for example, avoidance) is mainly assumed. However, the predetermined event may be a change in another vehicle traveling route (for example, reverse driving).

あるいは、所定の事象は、車両走行ルートの変化以外の何らかの変化(例えば、正常時に規則的な動きを示すものが、異常時に示す規則に反した動きなど)であってもよい。例えば、車両走行ルートの変化は、ベルトコンベア上を搬送される物品の動きの変化に置き換えられてもよいし、人々の流れ(例えば、初詣に参拝する人々の流れなど)の変化に置き換えられてもよい。あるいは、所定の事象は、何らかの自然現象(例えば、土石流、落下物、がけ崩れ、津波、噴火など)であってもよい。なお、以下の説明においては、動画像に所定の事象が生じている状態を「動画像に異常が生じている」や「動画像が異常である」などとも言い、所定の事象が生じている状態の動画像を「異常が生じている動画像」などとも言う。また動画像に所定の事象が生じていない状態を「動画像に異常が生じていない」や「動画像が正常である」などとも言い、所定の事象が生じていない状態の動画像を「異常が生じていない動画像(正常な動画像)」などとも言う。 Alternatively, the predetermined event may be some change other than the change of the vehicle traveling route (for example, a movement showing a regular movement in the normal state violates the rule shown in the abnormal time). For example, changes in the vehicle travel route may be replaced by changes in the movement of goods transported on the conveyor belt, or by changes in the flow of people (for example, the flow of people worshiping at the first visit). May be good. Alternatively, the predetermined event may be some natural phenomenon (eg, debris flow, falling objects, landslides, tsunamis, eruptions, etc.). In the following description, the state in which a predetermined event occurs in the moving image is also referred to as "an abnormality has occurred in the moving image" or "an abnormality has occurred in the moving image", and the predetermined event has occurred. The moving image of the state is also called "moving image in which an abnormality occurs". In addition, the state in which a predetermined event does not occur in the moving image is also called "no abnormality has occurred in the moving image" or "the moving image is normal", and the moving image in the state in which the predetermined event has not occurred is "abnormal". It is also called "moving image without occurrence (normal moving image)".

このとき、画像処理装置10Aは、動画像に所定の事象が生じているか否かを判定するための判定用パラメータを特定する。画像処理装置10Aは、判定用パラメータを用いて、動画像に所定の事象が生じているか否かを判定する。また、画像処理装置10Aは、所定の事象が生じている領域を検知結果として出力することが可能である。なお、画像処理装置10Aによる判定の詳細については、後に詳細に説明する。 At this time, the image processing device 10A specifies a determination parameter for determining whether or not a predetermined event has occurred in the moving image. The image processing device 10A determines whether or not a predetermined event has occurred in the moving image by using the determination parameter. Further, the image processing device 10A can output a region where a predetermined event occurs as a detection result. The details of the determination by the image processing device 10A will be described in detail later.

なお、図1に示した例では、画像処理装置10Aおよび撮像装置30がそれぞれ一つずつ存在する。しかし、画像処理装置10Aおよび撮像装置30は、それらのいずれか一方が複数存在してもよいし、それらの双方それぞれが複数ずつ存在してもよい。すなわち、画像処理装置10Aおよび撮像装置30それぞれの数は特に限定されない。 In the example shown in FIG. 1, there is one image processing device 10A and one image pickup device 30. However, the image processing device 10A and the image pickup device 30 may have a plurality of any one of them, or a plurality of both of them. That is, the number of each of the image processing device 10A and the image pickup device 30 is not particularly limited.

以上、第1の実施形態に係る画像処理システム1Aの構成例について説明した。 The configuration example of the image processing system 1A according to the first embodiment has been described above.

[1−2.画像処理装置の機能構成例]
続いて、第1の実施形態に係る画像処理装置10Aの機能構成例について説明する。図2は、第1の実施形態に係る画像処理装置10Aの機能構成例を示すブロック図である。図2に示すように、第1の実施形態に係る画像処理装置10Aは、制御部110A、操作部120、通信部130、記憶部140および表示部150を備える。
[1-2. Function configuration example of image processing device]
Subsequently, a functional configuration example of the image processing device 10A according to the first embodiment will be described. FIG. 2 is a block diagram showing a functional configuration example of the image processing device 10A according to the first embodiment. As shown in FIG. 2, the image processing device 10A according to the first embodiment includes a control unit 110A, an operation unit 120, a communication unit 130, a storage unit 140, and a display unit 150.

制御部110Aは、CPU(Central Processing Unit)などを含み、記憶部140により記憶されているプログラムがCPUによりRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、制御部110Aは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。 The control unit 110A includes a CPU (Central Processing Unit) and the like, and its function can be realized by the program stored in the storage unit 140 being expanded and executed by the CPU in a RAM (Random Access Memory). At this time, a computer-readable recording medium on which the program is recorded may also be provided. Alternatively, the control unit 110A may be configured by dedicated hardware, or may be configured by a combination of a plurality of hardware.

操作部120は、ユーザから入力される操作を受け付ける。また、操作部120は、ユーザから受け付けた操作を制御部110Aに提供することが可能である。本明細書においては、操作部120がタッチパネルである場合を主に想定するが、操作部120はタッチパネル以外の入力装置(例えば、ボタンなど)であってもよい。 The operation unit 120 receives an operation input from the user. Further, the operation unit 120 can provide the operation received from the user to the control unit 110A. In the present specification, it is mainly assumed that the operation unit 120 is a touch panel, but the operation unit 120 may be an input device (for example, a button or the like) other than the touch panel.

通信部130は、撮像装置30との間で通信を行うための通信インタフェースである。上記したように、本明細書においては、通信部130が有線による通信を行う場合を主に想定するが、通信部130は、無線による通信を行ってもよい。 The communication unit 130 is a communication interface for communicating with the image pickup apparatus 30. As described above, in the present specification, it is mainly assumed that the communication unit 130 performs wired communication, but the communication unit 130 may perform wireless communication.

記憶部140は、制御部110Aを動作させるためのプログラムおよびデータを記憶することが可能な記憶装置である。また、記憶部140は、制御部110Aの動作の過程で必要となる各種データを一時的に記憶することもできる。例えば、記憶装置は、不揮発性の記憶装置であってよい。 The storage unit 140 is a storage device capable of storing programs and data for operating the control unit 110A. In addition, the storage unit 140 can temporarily store various data required in the process of operation of the control unit 110A. For example, the storage device may be a non-volatile storage device.

表示部150は、制御部110Aによる制御に従って出力を行う機能を有する。例えば、表示部150は、制御部110Aによる検知結果を出力することが可能である。ここで、表示部150の形態は特に限定されない。例えば、表示部150は、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプなどの表示装置であってよい。 The display unit 150 has a function of outputting according to the control by the control unit 110A. For example, the display unit 150 can output the detection result by the control unit 110A. Here, the form of the display unit 150 is not particularly limited. For example, the display unit 150 may be a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Node) device, or a lamp.

なお、図2に示した例では、操作部120、通信部130、記憶部140および表示部150が、画像処理装置10Aの内部に設けられている。しかし、これらの機能部の一部または全部は、画像処理装置10Aの外部に設けられていてもよい。ここで、制御部110Aは、データ取得部111、パラメータ特定部112A、状態判定部113および検知結果表示制御部114を備える。制御部110Aが備えるこれらの各機能部の詳細については、後に説明する。 In the example shown in FIG. 2, the operation unit 120, the communication unit 130, the storage unit 140, and the display unit 150 are provided inside the image processing device 10A. However, some or all of these functional parts may be provided outside the image processing apparatus 10A. Here, the control unit 110A includes a data acquisition unit 111, a parameter identification unit 112A, a state determination unit 113, and a detection result display control unit 114. Details of each of these functional units included in the control unit 110A will be described later.

以上、第1の実施形態に係る画像処理装置10Aの機能構成例について説明した。 The functional configuration example of the image processing apparatus 10A according to the first embodiment has been described above.

[1−3.機能詳細]
続いて、画像処理システム1Aの機能詳細について説明する。まず、撮像装置30によって撮像された動画像(撮像動画像)に所定の事象が生じているか否かを判定する手法の例として、動画像に車両走行ルートの変化(例えば、避走など)が発生したか否かを判定する例を説明する。しかし、上記したように、動画像に所定の事象が生じているか否かの判定は、動画像に車両走行ルートの変化(例えば、避走など)が発生したか否かの判定に限定されない。
[1-3. detail of function]
Subsequently, the functional details of the image processing system 1A will be described. First, as an example of a method for determining whether or not a predetermined event has occurred in a moving image (captured moving image) captured by the imaging device 30, a change in the vehicle traveling route (for example, avoidance) is shown in the moving image. An example of determining whether or not it has occurred will be described. However, as described above, the determination as to whether or not a predetermined event has occurred in the moving image is not limited to the determination as to whether or not a change in the vehicle traveling route (for example, avoidance) has occurred in the moving image.

図3は、車両走行ルートの変化が時系列に沿って撮像装置30によって撮像された複数の画像の例を示す図である。図3を参照すると、撮像装置30によって時系列に沿って撮像された複数の画像の例が示されている。より具体的には、時刻の古いほうから順に、時刻T21において画像G21が撮像され、時刻T22において画像G22が撮像され、時刻T23において画像G23が撮像され、時刻T24において画像G24が撮像されている。 FIG. 3 is a diagram showing an example of a plurality of images in which changes in the vehicle traveling route are captured by the imaging device 30 in chronological order. With reference to FIG. 3, an example of a plurality of images captured by the image pickup apparatus 30 in chronological order is shown. More specifically, the image G21 is imaged at time T21, the image G22 is imaged at time T22, the image G23 is imaged at time T23, and the image G24 is imaged at time T24 in order from the oldest time. ..

ここでは、検出対象領域が画像の全体領域である場合を例として主に説明する。しかし、検出対象領域は、画像の全体領域に限定されない。例えば、検出対象領域は、画像の一部の領域であってもよい。図3を参照すると、画像G21には、規則的な動きを示す車両が写っている。一方、画像G22には、土砂K2によって道路の一部が塞がれてしまったために、その土砂K2を避けるように走行する車両の動きが不規則になっている様子が写っている。画像G23および画像G24にも、不規則な動きを示す車両が写っている。 Here, a case where the detection target area is the entire area of the image will be mainly described as an example. However, the detection target area is not limited to the entire area of the image. For example, the detection target area may be a part of the image. Referring to FIG. 3, image G21 shows a vehicle showing regular movement. On the other hand, the image G22 shows that a part of the road is blocked by the earth and sand K2, so that the movement of the vehicle traveling so as to avoid the earth and sand K2 is irregular. Images G23 and G24 also show vehicles showing irregular movements.

なお、図3に示した画像G21〜G24は、撮像装置30によって撮像された動画像の一部に過ぎない。したがって、画像G21〜G24の間(具体的には、画像G21と画像G22との間、画像G22と画像G23との間、画像G23と画像G24との間)には、撮像装置30によって撮像された他の画像が存在する。撮像装置30によって動画像が撮像されると、撮像装置30によって撮像された動画像は、撮像動画像として画像処理装置10Aに提供される。 The images G21 to G24 shown in FIG. 3 are only a part of the moving image captured by the image pickup apparatus 30. Therefore, between the images G21 to G24 (specifically, between the image G21 and the image G22, between the image G22 and the image G23, and between the image G23 and the image G24), the image is captured by the image pickup device 30. There are other images. When the moving image is captured by the imaging device 30, the moving image captured by the imaging device 30 is provided to the image processing device 10A as the captured moving image.

画像処理装置10Aにおいては、通信部130が撮像動画像を受信すると、データ取得部111が撮像動画像を取得する。状態判定部113は、データ取得部111によって取得された撮像動画像に異常が生じているか否かを判定する。なお、本明細書においては、状態判定部113が、パラメータ特定部112Aによって特定された判定用パラメータを用いて、撮像動画像に異常が生じているか否かを判定する場合を想定する。パラメータ特定部112Aによる判定用パラメータの特定については、後に詳細に説明する。 In the image processing device 10A, when the communication unit 130 receives the captured moving image, the data acquisition unit 111 acquires the captured moving image. The state determination unit 113 determines whether or not an abnormality has occurred in the captured moving image acquired by the data acquisition unit 111. In the present specification, it is assumed that the state determination unit 113 determines whether or not an abnormality has occurred in the captured moving image by using the determination parameter specified by the parameter identification unit 112A. The specification of the determination parameter by the parameter specifying unit 112A will be described in detail later.

図4は、状態判定部113の機能を説明するための図である。図4を参照すると、通信部130によって受信された撮像動画像G2の例が示されている。撮像動画像G2には、図3に示した画像G21〜G24も含まれている。図4に示した例においては、撮像動画像G2に含まれる複数の画像のうち、撮像時刻が新しい画像ほど右側に示されている。状態判定部113は、図4に示すように、撮像動画像G2のうち、隣接する2つの画像間の動きベクトルをそれぞれ画素ごとに算出することによって、オプティカルフローを検出する。図4には、画素ごとの動きベクトル(オプティカルフロー)の時系列に沿った集合が、動き情報群M2として示されている。 FIG. 4 is a diagram for explaining the function of the state determination unit 113. With reference to FIG. 4, an example of the captured moving image G2 received by the communication unit 130 is shown. The captured moving image G2 also includes the images G21 to G24 shown in FIG. In the example shown in FIG. 4, among the plurality of images included in the captured moving image G2, the newer the imaging time, the more on the right side. As shown in FIG. 4, the state determination unit 113 detects the optical flow by calculating the motion vector between two adjacent images of the captured moving image G2 for each pixel. In FIG. 4, a set of motion vectors (optical flows) for each pixel along the time series is shown as a motion information group M2.

画像処理装置10Aにおいて、状態判定部113は、第1の時間範囲t21における動きベクトル(オプティカルフロー)の対応位置ごとの平均値を第1の平均特徴量として算出する。以下では、第1の平均特徴量を「長時間動き平均ベクトル」とも言う。なお、動き平均ベクトルは、動きベクトル(数式1)を用いて、以下の(数式2)のように表現され得る。 In the image processing apparatus 10A, the state determination unit 113 calculates the average value of the motion vectors (optical flows) in the first time range t21 for each corresponding position as the first average feature amount. Hereinafter, the first average feature amount is also referred to as a "long-time motion average vector". The motion average vector can be expressed as follows (Formula 2) using the motion vector (Formula 1).

Figure 0006862905
Figure 0006862905

Figure 0006862905
Figure 0006862905

図4を参照すると、長時間動き平均ベクトルV21が示されている。ここで、図面の簡便さのため、図4には、長時間動き平均ベクトルV21として、一部の画素における動き平均ベクトルしか示されていない。しかし、本明細書においては、長時間動き平均ベクトルV21が、第1の時間範囲t21において対応する画素ごとに算出された動きベクトルの平均値である場合を想定する。 With reference to FIG. 4, a long-time motion average vector V21 is shown. Here, for the sake of simplicity of drawing, FIG. 4 shows only the motion average vector in some pixels as the long-time motion average vector V21. However, in the present specification, it is assumed that the long-time motion average vector V21 is the average value of the motion vectors calculated for each corresponding pixel in the first time range t21.

一方、状態判定部113は、第1の時間範囲t21よりも短い第2の時間範囲t23における動きベクトル(オプティカルフロー)の対応位置ごとの平均値を第2の平均特徴量として算出する。以下では、第2の平均特徴量を「短時間動き平均ベクトル」とも言う。 On the other hand, the state determination unit 113 calculates the average value of the motion vectors (optical flows) for each corresponding position in the second time range t23, which is shorter than the first time range t21, as the second average feature amount. Hereinafter, the second average feature amount is also referred to as a "short-time motion average vector".

図4を参照すると、短時間動き平均ベクトルV23が示されている。ここで、図面の簡便さのため、図4には、短時間動き平均ベクトルV23として、一部の画素における動き平均ベクトルしか示されていない。しかし、本明細書においては、短時間動き平均ベクトルV23が、第2の時間範囲t23において対応する画素ごとに算出された動きベクトルの平均値である場合を想定する。 With reference to FIG. 4, the short-time motion average vector V23 is shown. Here, for the sake of simplicity of drawing, FIG. 4 shows only the motion average vector in some pixels as the short-time motion average vector V23. However, in the present specification, it is assumed that the short-time motion average vector V23 is the average value of the motion vectors calculated for each corresponding pixel in the second time range t23.

図4を参照すると、第1の時間範囲t21と第2の時間範囲t23とが異なるため、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23との間には、差分が生じている。さらに、画像に何らかのノイズが含まれていたとしても、そのノイズの大部分は平均化によって相殺されてしまう。そのため、短時間動き平均ベクトルV23にはノイズがほとんど含まれなくなり、撮像動画像G2に異常が生じているか否かがより高精度に判定される。 Referring to FIG. 4, since the first time range t21 and the second time range t23 are different, there is a difference between the long-time motion average vector V21 and the short-time motion average vector V23. Moreover, even if the image contains some noise, most of the noise is offset by the averaging. Therefore, the short-time motion average vector V23 contains almost no noise, and it is determined with higher accuracy whether or not an abnormality has occurred in the captured moving image G2.

なお、図4には、第1の時間範囲t21および第2の時間範囲t23の終了時点が現在(すなわち、最新の画像が撮像された時点)である例が示されている。しかし、第1の時間範囲t21および第2の時間範囲t23の終了時点は、厳密に現在でなくてもよい(すなわち、最新の画像よりも前の画像が撮像された時点)であってもよい。また、第1の時間範囲t21および第2の時間範囲t23は、厳密に一致していなくてもよい。すなわち、第1の時間範囲t21および第2の時間範囲t23の終了時点は、ずれていてもよい。 Note that FIG. 4 shows an example in which the end points of the first time range t21 and the second time range t23 are the present (that is, the time when the latest image is captured). However, the end point of the first time range t21 and the second time range t23 does not have to be exactly the present (that is, the time when the image before the latest image is captured). .. Further, the first time range t21 and the second time range t23 do not have to be exactly the same. That is, the end points of the first time range t21 and the second time range t23 may be different from each other.

状態判定部113は、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23とに応じた所定の演算結果と閾値との関係に基づいて、撮像動画像G2に異常が生じているか否かを判定する。例えば、状態判定部113は、所定の演算結果が閾値を超える画素が存在する場合に、撮像動画像G2に異常が生じていると判定する。一方、状態判定部113は、所定の演算結果が閾値を超える画素が存在しない場合に、撮像動画像G2に異常が生じていないと判定する。 The state determination unit 113 determines whether or not an abnormality has occurred in the captured moving image G2 based on the relationship between the threshold value and the predetermined calculation result corresponding to the long-time movement average vector V21 and the short-time movement average vector V23. To do. For example, the state determination unit 113 determines that an abnormality has occurred in the captured moving image G2 when there are pixels whose predetermined calculation result exceeds the threshold value. On the other hand, the state determination unit 113 determines that no abnormality has occurred in the captured moving image G2 when there is no pixel whose predetermined calculation result exceeds the threshold value.

ここで、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23とに応じた所定の演算は特に限定されない。例えば、所定の演算は、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23との間の角度(以下、「両ベクトルの間の角度」とも言う。)に応じた量、および、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23との差分(以下、「差分ベクトル」とも言う。)の大きさに応じた量のうち、少なくともいずれか一つの演算を含んでもよい。 Here, the predetermined calculation according to the long-time motion average vector V21 and the short-time motion average vector V23 is not particularly limited. For example, a predetermined operation is an amount corresponding to an angle between the long-time motion average vector V21 and the short-time motion average vector V23 (hereinafter, also referred to as “angle between both vectors”), and a long-term motion. At least one of the operations according to the magnitude of the difference between the average vector V21 and the short-time motion average vector V23 (hereinafter, also referred to as “difference vector”) may be included.

ここで、両ベクトルの間の角度に応じた量は、角度の平均値であってもよいし、角度の分散であってもよい。また、差分ベクトルの大きさに応じた量は、差分ベクトルの大きさの平均値(または合計値)であってもよいし、差分ベクトルの大きさの変化量(例えば、差分ベクトルの大きさの時間による一階微分など)の平均値(または合計値)であってもよいし、差分ベクトルの大きさが所定の大きさを上回る領域(以下、「動き領域」とも言う。)の面積であってもよい。 Here, the amount depending on the angle between the two vectors may be the average value of the angles or the variance of the angles. Further, the amount according to the size of the difference vector may be the average value (or the total value) of the size of the difference vector, or the amount of change in the size of the difference vector (for example, the size of the difference vector). It may be the average value (or total value) of the first-order differential with time, etc., or the area of the region where the magnitude of the difference vector exceeds a predetermined magnitude (hereinafter, also referred to as "movement region"). You may.

上記したように、本例では、車両走行ルートの変化が異常として判定される場合を想定している。ここで、車両走行ルートの変化などといった規則に反した動きが発生した場合には、動きの方向が変化することが想定される。そこで、規則に反した動きの発生が異常として判定される場合、状態判定部113による所定の演算は、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23との間の角度に応じた量の演算であるのがよい。 As described above, in this example, it is assumed that the change in the vehicle traveling route is determined as abnormal. Here, when a movement contrary to a rule such as a change in the vehicle traveling route occurs, it is assumed that the direction of the movement changes. Therefore, when it is determined that the occurrence of movement contrary to the rule is abnormal, the predetermined calculation by the state determination unit 113 is an amount corresponding to the angle between the long-time movement average vector V21 and the short-time movement average vector V23. It should be an operation.

本例では、状態判定部113による所定の演算が、両ベクトルの間の角度の分散の演算である場合を例として主に説明する。ここで、動きベクトルは、(数3)のように表現され、動き平均ベクトル(長時間動き平均ベクトルV21および短時間動き平均ベクトルV23それぞれ)は、(数4)のように表現され、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23との間の角度の平均値は、(数5)のように表現され、両ベクトルの間の角度の分散は、(数式6)のように表現される。 In this example, the case where the predetermined calculation by the state determination unit 113 is the calculation of the variance of the angle between the two vectors will be mainly described as an example. Here, the motion vector is expressed as (Equation 3), and the motion average vector (long-term motion average vector V21 and short-time motion average vector V23, respectively) is expressed as (Equation 4) for a long time. The average value of the angles between the motion mean vector V21 and the short motion mean vector V23 is expressed as (Equation 5), and the dispersion of the angles between both vectors is expressed as (Equation 6). To.

Figure 0006862905
Figure 0006862905

Figure 0006862905
Figure 0006862905

Figure 0006862905
Figure 0006862905

Figure 0006862905
Figure 0006862905

状態判定部113は、所定の演算に基づいて得られた結果(この例では、両ベクトルの間の角度の分散)が閾値を超える画素が存在する場合に、撮像動画像G2に異常が生じていると判定する。一方、状態判定部113は、所定の演算に基づいて得られた結果(この例では、両ベクトルの間の角度の分散)が閾値を超える画素が存在しない場合に、撮像動画像G2に異常が生じていないと判定する。 The state determination unit 113 causes an abnormality in the captured moving image G2 when there are pixels whose result obtained based on a predetermined calculation (in this example, the variance of the angle between the two vectors) exceeds the threshold value. Judge that there is. On the other hand, the state determination unit 113 has an abnormality in the captured moving image G2 when there are no pixels whose result obtained based on a predetermined calculation (in this example, the variance of the angle between the two vectors) exceeds the threshold value. Judge that it has not occurred.

以上においては、状態判定部113による所定の演算が、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23との間の角度に応じた量の演算である場合を主に説明した。しかし、上記したように、土石流の発生が異常として判定される場合も想定される。ここで、土石流などといった自然現象が発生した場合には、撮像動画像G2における動きの大きさが変化することが想定される。そこで、自然現象の発生が異常として判定される場合、状態判定部113による所定の演算は、差分ベクトルの大きさに応じた量の演算であるのがよい。 In the above, the case where the predetermined calculation by the state determination unit 113 is the calculation of the amount according to the angle between the long-time movement average vector V21 and the short-time movement average vector V23 has been mainly described. However, as described above, it is assumed that the occurrence of debris flow is determined to be abnormal. Here, when a natural phenomenon such as a debris flow occurs, it is assumed that the magnitude of the movement in the captured moving image G2 changes. Therefore, when it is determined that the occurrence of a natural phenomenon is abnormal, the predetermined calculation by the state determination unit 113 is preferably a quantity calculation according to the magnitude of the difference vector.

ここでは、差分ベクトルの大きさに応じた量の演算として、差分ベクトルの大きさの平均値の演算である場合を例として主に説明する。ここで、長時間動き平均ベクトルV21、短時間動き平均ベクトルV23および差分ベクトルの大きさの平均値は、(数式7)のように表現される。 Here, as the calculation of the quantity according to the size of the difference vector, the case where the calculation is the average value of the size of the difference vector will be mainly described as an example. Here, the average values of the magnitudes of the long-time motion average vector V21, the short-time motion average vector V23, and the difference vector are expressed as (Formula 7).

Figure 0006862905
Figure 0006862905

以上において、状態判定部113が、撮像動画像に異常が生じているか否かを判定する例を説明した。上記したように、状態判定部113は、パラメータ特定部112Aによって特定された判定用パラメータを用いて、撮像動画像に異常が生じているか否かを判定する。ここで、判定用パラメータとしては、様々なパラメータが想定される。以下では、判定用パラメータの例について説明する。 In the above, an example in which the state determination unit 113 determines whether or not an abnormality has occurred in the captured moving image has been described. As described above, the state determination unit 113 determines whether or not an abnormality has occurred in the captured moving image by using the determination parameter specified by the parameter identification unit 112A. Here, various parameters are assumed as the determination parameters. An example of the determination parameter will be described below.

図5は、判定用パラメータの例を示す図である。図5に示すように、判定用パラメータの種類としては、上記した第1の時間範囲t21、上記した第2の時間範囲t23、(上記した演算結果と比較される)閾値などが想定される。また、図5に示すように、判定用パラメータの種類としては、密度などが想定される。密度は、オプティカルフローが算出される時間的な密度(例えば、1フレームごと、3フレームごとなど)であってもよいし、オプティカルフローが算出される空間的な密度(例えば、1画素ごと、3画素ごとなど)であってもよい。 FIG. 5 is a diagram showing an example of determination parameters. As shown in FIG. 5, as the type of the determination parameter, the above-mentioned first time range t21, the above-mentioned second time range t23, the threshold value (compared with the above-mentioned calculation result), and the like are assumed. Further, as shown in FIG. 5, the type of the determination parameter is assumed to be density or the like. The density may be the temporal density at which the optical flow is calculated (eg, every 1 frame, every 3 frames, etc.), or the spatial density at which the optical flow is calculated (eg, every pixel, 3). It may be pixel by pixel, etc.).

かかる判定用パラメータの値が変化した場合、異常が生じているという判定のされやすさは変化することが想定される。以下では、異常が生じているという判定がされやすいことを「異常判定の条件」が「緩い」とも言う。一方、異常が生じているという判定がされにくいことを「異常判定の条件」が「厳しい」とも言う。 When the value of the determination parameter changes, it is assumed that the ease with which it is determined that an abnormality has occurred changes. In the following, it is also referred to that the "condition for determining an abnormality" is "loose" because it is easy to determine that an abnormality has occurred. On the other hand, it is also said that the "condition for determining an abnormality" is "strict" because it is difficult to determine that an abnormality has occurred.

例えば、図5に示すように、判定用パラメータが第1の時間範囲t21である場合、判定用パラメータの値が大きいほど、(第1の時間範囲t21と第2の時間範囲t23との差が大きくなりやすくなり、上記の演算結果が閾値を超えやすくなるため)異常判定の条件は厳しくなることが想定される。一方、図5に示すように、判定用パラメータが第2の時間範囲t23である場合、判定用パラメータの値が小さいほど、(第1の時間範囲t21と第2の時間範囲t23との差が大きくなりやすくなり、上記の演算結果が閾値を超えやすくなるため)異常判定の条件は厳しくなることが想定される。 For example, as shown in FIG. 5, when the determination parameter is the first time range t21, the larger the value of the determination parameter, the greater the difference between (the difference between the first time range t21 and the second time range t23). It is expected that the conditions for determining an abnormality will become stricter (because the above calculation result tends to exceed the threshold value). On the other hand, as shown in FIG. 5, when the determination parameter is the second time range t23, the smaller the value of the determination parameter, the greater the difference between the first time range t21 and the second time range t23. It is expected that the conditions for determining an abnormality will become stricter (because the above calculation result tends to exceed the threshold value).

また、図5に示すように、判定用パラメータが閾値である場合、判定用パラメータの値が小さいほど、(上記の演算結果が閾値を超えやすくなるため)異常判定の条件は厳しくなることが想定される。一方、図5に示すように、判定用パラメータが密度である場合、判定用パラメータの値が大きいほど、(上記の長時間動き平均ベクトルと上記の短時間動き平均ベクトルとの差が大きくなりやすくなり、上記の演算結果が閾値を超えやすくなるため)異常判定の条件は厳しくなることが想定される。 Further, as shown in FIG. 5, when the determination parameter is a threshold value, it is assumed that the smaller the value of the determination parameter, the stricter the condition for abnormality determination (because the above calculation result tends to exceed the threshold value). Will be done. On the other hand, as shown in FIG. 5, when the determination parameter is density, the larger the value of the determination parameter, the larger the difference between the above-mentioned long-time movement average vector and the above-mentioned short-time movement average vector. Therefore, it is expected that the conditions for determining an abnormality will be strict (because the above calculation result tends to exceed the threshold value).

以下では、パラメータ特定部112Aが、これらの判定用パラメータの一つを特定する例を説明する。しかし、パラメータ特定部112Aは、これらの判定用パラメータのいずれか二つ以上を特定してもよい。かかる場合には、パラメータ特定部112Aは、これらの判定用パラメータのいずれか二つ以上のそれぞれをどのようにして特定してもよい。一例として、パラメータ特定部112Aは、これらの判定用パラメータのいずれか二つ以上のそれぞれを独立的に特定してもよい。 Hereinafter, an example in which the parameter specifying unit 112A specifies one of these determination parameters will be described. However, the parameter specifying unit 112A may specify any two or more of these determination parameters. In such a case, the parameter specifying unit 112A may specify each of two or more of these determination parameters in any way. As an example, the parameter specifying unit 112A may independently specify each of two or more of these determination parameters.

図6は、判定用パラメータを特定する手法の第1の例を説明するための図である。まず、記憶部140によって、先頭から末尾まで異常判定の条件が厳しい順に並べられた複数通りの候補パラメータがあらかじめ記憶されている。例えば、異常判定の条件が厳しい順とは、第1の時間範囲t21および密度であれば、大きい順(すなわち、降順)に相当し、第2の時間範囲t23および閾値であれば、小さい順(すなわち、昇順)に相当する。候補パラメータは、判定用パラメータの候補に相当する。また、ここでは、複数通りの候補パラメータの例として、異常判定の条件が厳しい順に並べられた候補パラメータP1〜P4が用いられる場合を想定する。しかし、候補パラメータの数は4つに限定されず、複数であればよい。 FIG. 6 is a diagram for explaining a first example of a method for specifying a determination parameter. First, the storage unit 140 stores in advance a plurality of types of candidate parameters arranged in order of stricter abnormality determination conditions from the beginning to the end. For example, the order in which the conditions for determining the abnormality are strict corresponds to the order of largeness (that is, descending order) in the case of the first time range t21 and density, and in the order of decrease (that is, in descending order) in the case of the second time range t23 and the threshold value. That is, it corresponds to ascending order). Candidate parameters correspond to candidates for determination parameters. Further, here, as an example of a plurality of candidate parameters, it is assumed that the candidate parameters P1 to P4 arranged in the order of stricter abnormality determination conditions are used. However, the number of candidate parameters is not limited to four, and may be plural.

データ取得部111は、記憶部140によって記憶されている候補パラメータP1〜P4を取得する。また、データ取得部111は、判定用パラメータを特定するための入力動画像を取得する。なお、本明細書においては、判定用パラメータを特定するための入力動画像と、状態判定部113によって異常が生じているか否かが判定される撮像動画像とにおいて、撮像対象領域が同じである場合を主に想定する。すなわち、判定用パラメータを特定するための入力動画像も、撮像装置30によって撮像されて画像処理装置10Aに提供される場合を主に想定する。しかし、判定用パラメータを特定するための入力動画像と、状態判定部113によって異常が生じているか否かが判定される撮像動画像とにおいて、撮像対象領域は異なっていてもよい。このとき、判定用パラメータを特定するための入力動画像は、あらかじめ記憶部140によって記憶されていてもよい。 The data acquisition unit 111 acquires the candidate parameters P1 to P4 stored by the storage unit 140. In addition, the data acquisition unit 111 acquires an input moving image for specifying the determination parameter. In the present specification, the imaging target area is the same in the input moving image for specifying the determination parameter and the imaging moving image for which the state determination unit 113 determines whether or not an abnormality has occurred. Mainly assume the case. That is, it is mainly assumed that the input moving image for specifying the determination parameter is also captured by the image pickup apparatus 30 and provided to the image processing apparatus 10A. However, the imaging target region may be different between the input moving image for specifying the determination parameter and the imaging moving image for which the state determination unit 113 determines whether or not an abnormality has occurred. At this time, the input moving image for specifying the determination parameter may be stored in advance by the storage unit 140.

図6に示した例では、入力動画像に異常が生じていないこと(正常であること)が確認されている。入力動画像に異常が生じていないことは、どのように確認されてもよい。例えば、入力動画像に異常が生じていないことは入力動画像が撮像されるときに人によって確認されてもよい。あるいは、入力動画像に異常が生じていないことは、あらかじめ記憶部140によって記憶された入力動画像が再生されて表示されたときに人によって確認されてもよい。 In the example shown in FIG. 6, it is confirmed that no abnormality has occurred in the input moving image (it is normal). It may be confirmed in any way that no abnormality has occurred in the input moving image. For example, it may be confirmed by a person when the input moving image is imaged that no abnormality has occurred in the input moving image. Alternatively, it may be confirmed by a person that no abnormality has occurred in the input moving image when the input moving image stored in advance by the storage unit 140 is reproduced and displayed.

パラメータ特定部112Aは、候補パラメータP1〜P4の先頭から順に用いて、入力動画像に異常が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定する。そして、パラメータ特定部112Aは、判定結果が変化する候補パラメータに基づいて、判定用パラメータを特定する。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。したがって、かかる構成によれば、撮像動画像に異常が生じているか否かをより高精度に判定することが可能となる。 The parameter specifying unit 112A uses the candidate parameters P1 to P4 in order from the beginning to repeatedly determine whether or not an abnormality has occurred in the input moving image until at least the determination result changes. Then, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter whose determination result changes. According to such a configuration, it is possible to specify a determination parameter so that the condition for abnormality determination is not too loose, while reducing the possibility of erroneous determination by the state determination unit 113. Therefore, according to such a configuration, it is possible to determine with higher accuracy whether or not an abnormality has occurred in the captured moving image.

図6に示した例では、パラメータ特定部112Aは、先頭の候補パラメータP1を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。続いて、パラメータ特定部112Aは、続く候補パラメータP2を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。したがって、候補パラメータP2においては、判定結果が「変化なし」である。 In the example shown in FIG. 6, the parameter specifying unit 112A uses the head candidate parameter P1 to determine whether or not an abnormality has occurred in the input moving image, and obtains a determination result “abnormal”. Subsequently, the parameter specifying unit 112A uses the subsequent candidate parameter P2 to determine whether or not an abnormality has occurred in the input moving image, and obtains a determination result “abnormal”. Therefore, in the candidate parameter P2, the determination result is “no change”.

続いて、パラメータ特定部112Aは、続く候補パラメータP3を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「正常」を得ている。したがって、候補パラメータP3においては、判定結果が「変化あり」である。そこで、パラメータ特定部112Aは、判定結果が変化する候補パラメータP3に基づいて、判定用パラメータを特定する。 Subsequently, the parameter specifying unit 112A uses the subsequent candidate parameter P3 to determine whether or not an abnormality has occurred in the input moving image, and obtains a determination result “normal”. Therefore, in the candidate parameter P3, the determination result is “changed”. Therefore, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter P3 whose determination result changes.

図6に示した例では、データ取得部111によって異常が生じていない入力動画像が取得されているため、パラメータ特定部112Aは、判定結果が変化する候補パラメータ(すなわち、入力動画像に対して異常と判定しなくなった候補パラメータ)P3を、判定用パラメータとして特定している。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。 In the example shown in FIG. 6, since the input moving image in which no abnormality has occurred is acquired by the data acquisition unit 111, the parameter specifying unit 112A determines the candidate parameter whose determination result changes (that is, with respect to the input moving image). Candidate parameter) P3 that is no longer determined to be abnormal is specified as a determination parameter. According to such a configuration, it is possible to specify a determination parameter so that the condition for abnormality determination is not too loose, while reducing the possibility of erroneous determination by the state determination unit 113.

さらに、異常が生じている入力動画像をあらかじめ用意するのが困難な場合も想定される。しかし、図6に示した例のように、異常が生じていない入力動画像を用いて判定用パラメータが特定されれば、異常が生じている入力動画像をあらかじめ用意する必要がなくなる。また、図6に示した例のように、異常判定の条件が厳しい順に候補パラメータを用いた判定を行うことによって、異常が生じている画素が検出された時点で次の候補パラメータを用いた判定に処理が移行されるため、処理時間が低減される。 Further, it may be difficult to prepare an input moving image in which an abnormality has occurred in advance. However, as in the example shown in FIG. 6, if the determination parameter is specified using the input moving image in which the abnormality has not occurred, it is not necessary to prepare the input moving image in which the abnormality has occurred in advance. Further, as in the example shown in FIG. 6, by performing the determination using the candidate parameters in the order of stricter abnormality determination conditions, the determination using the next candidate parameter is performed when the pixel in which the abnormality occurs is detected. Since the processing is transferred to, the processing time is reduced.

図7は、判定用パラメータを特定する手法の第2の例を説明するための図である。ここでは、記憶部140によって、先頭から末尾まで異常判定の条件が緩い順に並べられた複数通りの候補パラメータがあらかじめ記憶されている。例えば、異常判定の条件が緩い順とは、第1の時間範囲t21および密度であれば、小さい順(すなわち、昇順)に相当し、第2の時間範囲t23および閾値であれば、大きい順(すなわち、降順)に相当する。ここでは、複数通りの候補パラメータの例として、異常判定の条件が緩い順に並べられた候補パラメータP4〜P1が用いられる場合を想定する。 FIG. 7 is a diagram for explaining a second example of the method of specifying the determination parameter. Here, the storage unit 140 stores in advance a plurality of types of candidate parameters in which the conditions for determining the abnormality are arranged in the order of looseness from the beginning to the end. For example, the order in which the conditions for determining the abnormality are loose corresponds to the smaller order (that is, ascending order) in the case of the first time range t21 and the density, and in the larger order (that is, in the ascending order) in the second time range t23 and the threshold value. That is, it corresponds to descending order). Here, as an example of a plurality of candidate parameters, it is assumed that the candidate parameters P4 to P1 arranged in the order of looseness of the abnormality determination conditions are used.

データ取得部111は、記憶部140によって記憶されている候補パラメータP4〜P1を取得する。また、データ取得部111は、判定用パラメータを特定するための入力動画像を取得する。図7に示した例では、入力動画像に異常が生じていないこと(正常であること)が確認されている。 The data acquisition unit 111 acquires the candidate parameters P4 to P1 stored by the storage unit 140. In addition, the data acquisition unit 111 acquires an input moving image for specifying the determination parameter. In the example shown in FIG. 7, it is confirmed that no abnormality has occurred in the input moving image (it is normal).

パラメータ特定部112Aは、候補パラメータP4〜P1の先頭から順に用いて、入力動画像に異常が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定する。そして、パラメータ特定部112Aは、判定結果が変化する候補パラメータに基づいて、判定用パラメータを特定する。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。したがって、かかる構成によれば、撮像動画像に異常が生じているか否かをより高精度に判定することが可能となる。 The parameter specifying unit 112A uses the candidate parameters P4 to P1 in order from the beginning to repeatedly determine whether or not an abnormality has occurred in the input moving image until at least the determination result changes. Then, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter whose determination result changes. According to such a configuration, it is possible to specify a determination parameter so that the condition for abnormality determination is not too loose, while reducing the possibility of erroneous determination by the state determination unit 113. Therefore, according to such a configuration, it is possible to determine with higher accuracy whether or not an abnormality has occurred in the captured moving image.

図7に示した例では、パラメータ特定部112Aは、先頭の候補パラメータP4を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「正常」を得ている。続いて、パラメータ特定部112Aは、続く候補パラメータP3を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「正常」を得ている。したがって、候補パラメータP3においては、判定結果が「変化なし」である。 In the example shown in FIG. 7, the parameter specifying unit 112A uses the head candidate parameter P4 to determine whether or not an abnormality has occurred in the input moving image, and obtains a determination result of “normal”. Subsequently, the parameter specifying unit 112A uses the subsequent candidate parameter P3 to determine whether or not an abnormality has occurred in the input moving image, and obtains a determination result “normal”. Therefore, in the candidate parameter P3, the determination result is “no change”.

続いて、パラメータ特定部112Aは、続く候補パラメータP2を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。したがって、候補パラメータP2においては、判定結果が「変化あり」である。そこで、パラメータ特定部112Aは、判定結果が変化する候補パラメータP2に基づいて、判定用パラメータを特定する。 Subsequently, the parameter specifying unit 112A uses the subsequent candidate parameter P2 to determine whether or not an abnormality has occurred in the input moving image, and obtains a determination result “abnormal”. Therefore, in the candidate parameter P2, the determination result is “changed”. Therefore, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter P2 whose determination result changes.

図7に示した例では、データ取得部111によって異常が生じていない入力動画像が取得されているため、パラメータ特定部112Aは、判定結果が変化する候補パラメータ(すなわち、入力動画像に対して異常と判定し始めた候補パラメータ)P2の一つ前の候補パラメータP3を、判定用パラメータとして特定している。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。 In the example shown in FIG. 7, since the input moving image in which no abnormality has occurred is acquired by the data acquisition unit 111, the parameter specifying unit 112A determines the candidate parameter whose determination result changes (that is, with respect to the input moving image). The candidate parameter P3 immediately before the candidate parameter) P2 that has begun to be determined to be abnormal is specified as the determination parameter. According to such a configuration, it is possible to specify a determination parameter so that the condition for abnormality determination is not too loose, while reducing the possibility of erroneous determination by the state determination unit 113.

さらに、異常が生じている入力動画像をあらかじめ用意するのが困難な場合も想定される。しかし、図7に示した例のように、異常が生じていない入力動画像を用いて判定用パラメータが特定されれば、異常が生じている入力動画像をあらかじめ用意する必要がなくなる。 Further, it may be difficult to prepare an input moving image in which an abnormality has occurred in advance. However, as in the example shown in FIG. 7, if the determination parameter is specified using the input moving image in which the abnormality has not occurred, it is not necessary to prepare the input moving image in which the abnormality has occurred in advance.

図8は、判定用パラメータを特定する手法の第3の例を説明するための図である。まず、記憶部140によって、先頭から末尾まで異常判定の条件が厳しい順に並べられた複数通りの候補パラメータがあらかじめ記憶されている。例えば、異常判定の条件が厳しい順とは、第1の時間範囲t21および密度であれば、大きい順(すなわち、降順)に相当し、第2の時間範囲t23および閾値であれば、小さい順(すなわち、昇順)に相当する。ここでは、複数通りの候補パラメータの例として、異常判定の条件が厳しい順に並べられた候補パラメータP1〜P4が用いられる場合を想定する。しかし、候補パラメータの数は4つに限定されず、複数であればよい。 FIG. 8 is a diagram for explaining a third example of the method of specifying the determination parameter. First, the storage unit 140 stores in advance a plurality of types of candidate parameters arranged in order of stricter abnormality determination conditions from the beginning to the end. For example, the order in which the conditions for determining the abnormality are strict corresponds to the order of largeness (that is, descending order) in the case of the first time range t21 and density, and in the order of decrease (that is, in descending order) in the case of the second time range t23 and the threshold value. That is, it corresponds to ascending order). Here, as an example of a plurality of candidate parameters, it is assumed that the candidate parameters P1 to P4 arranged in the order of stricter abnormality determination conditions are used. However, the number of candidate parameters is not limited to four, and may be plural.

データ取得部111は、記憶部140によって記憶されている候補パラメータP1〜P4を取得する。また、データ取得部111は、判定用パラメータを特定するための入力動画像を取得する。 The data acquisition unit 111 acquires the candidate parameters P1 to P4 stored by the storage unit 140. In addition, the data acquisition unit 111 acquires an input moving image for specifying the determination parameter.

図8に示した例では、入力動画像に異常が生じていることが確認されている。入力動画像に異常が生じていることは、どのように確認されてもよい。例えば、入力動画像に異常が生じていることは入力動画像が撮像されるときに人によって確認されてもよい。あるいは、入力動画像に異常が生じていることは、あらかじめ記憶部140によって記憶された入力動画像が再生されて表示されたときに人によって確認されてもよい。 In the example shown in FIG. 8, it is confirmed that an abnormality has occurred in the input moving image. It may be confirmed in any way that an abnormality has occurred in the input moving image. For example, it may be confirmed by a person that an abnormality has occurred in the input moving image when the input moving image is captured. Alternatively, it may be confirmed by a person that an abnormality has occurred in the input moving image when the input moving image stored in advance by the storage unit 140 is reproduced and displayed.

パラメータ特定部112Aは、候補パラメータP1〜P4の先頭から順に用いて、入力動画像に異常が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定する。そして、パラメータ特定部112Aは、判定結果が変化する候補パラメータに基づいて、判定用パラメータを特定する。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。したがって、かかる構成によれば、撮像動画像に異常が生じているか否かをより高精度に判定することが可能となる。 The parameter specifying unit 112A uses the candidate parameters P1 to P4 in order from the beginning to repeatedly determine whether or not an abnormality has occurred in the input moving image until at least the determination result changes. Then, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter whose determination result changes. According to such a configuration, it is possible to specify a determination parameter so that the condition for abnormality determination is not too loose, while reducing the possibility of erroneous determination by the state determination unit 113. Therefore, according to such a configuration, it is possible to determine with higher accuracy whether or not an abnormality has occurred in the captured moving image.

図8に示した例では、パラメータ特定部112Aは、先頭の候補パラメータP1を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。続いて、パラメータ特定部112Aは、続く候補パラメータP2を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。したがって、候補パラメータP2においては、判定結果が「変化なし」である。続いて、パラメータ特定部112Aは、続く候補パラメータP3を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。したがって、候補パラメータP3においては、判定結果が「変化なし」である。 In the example shown in FIG. 8, the parameter specifying unit 112A uses the head candidate parameter P1 to determine whether or not an abnormality has occurred in the input moving image, and obtains a determination result “abnormal”. Subsequently, the parameter specifying unit 112A uses the subsequent candidate parameter P2 to determine whether or not an abnormality has occurred in the input moving image, and obtains a determination result “abnormal”. Therefore, in the candidate parameter P2, the determination result is “no change”. Subsequently, the parameter specifying unit 112A uses the subsequent candidate parameter P3 to determine whether or not an abnormality has occurred in the input moving image, and obtains a determination result “abnormal”. Therefore, in the candidate parameter P3, the determination result is “no change”.

続いて、パラメータ特定部112Aは、続く候補パラメータP4を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「正常」を得ている。したがって、候補パラメータP4においては、判定結果が「変化あり」である。そこで、パラメータ特定部112Aは、判定結果が変化する候補パラメータP4に基づいて、判定用パラメータを特定する。 Subsequently, the parameter specifying unit 112A uses the subsequent candidate parameter P4 to determine whether or not an abnormality has occurred in the input moving image, and obtains a determination result “normal”. Therefore, in the candidate parameter P4, the determination result is “changed”. Therefore, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter P4 whose determination result changes.

図8に示した例では、データ取得部111によって異常が生じている入力動画像が取得されているため、パラメータ特定部112Aは、判定結果が変化する候補パラメータ(すなわち、入力動画像に対して異常と判定しなくなった候補パラメータ)P4の一つ前の候補パラメータP4を、判定用パラメータとして特定している。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。 In the example shown in FIG. 8, since the input moving image in which the abnormality has occurred is acquired by the data acquisition unit 111, the parameter specifying unit 112A determines the candidate parameter whose determination result changes (that is, with respect to the input moving image). Candidate parameter P4 that is no longer determined to be abnormal) The candidate parameter P4 immediately before P4 is specified as a determination parameter. According to such a configuration, it is possible to specify a determination parameter so that the condition for abnormality determination is not too loose, while reducing the possibility of erroneous determination by the state determination unit 113.

さらに、図8に示した例のように、異常判定の条件が厳しい順に候補パラメータを用いた判定を行うことによって、異常が生じている画素が検出された時点で次の候補パラメータを用いた判定に処理が移行されるため、処理時間が低減される。 Further, as in the example shown in FIG. 8, by performing the determination using the candidate parameters in the order of stricter abnormality determination conditions, the determination using the next candidate parameter is performed when the pixel in which the abnormality occurs is detected. Since the processing is transferred to, the processing time is reduced.

図9は、判定用パラメータを特定する手法の第4の例を説明するための図である。ここでは、記憶部140によって、先頭から末尾まで異常判定の条件が緩い順に並べられた複数通りの候補パラメータがあらかじめ記憶されている。例えば、異常判定の条件が緩い順とは、第1の時間範囲t21および密度であれば、小さい順(すなわち、昇順)に相当し、第2の時間範囲t23および閾値であれば、大きい順(すなわち、降順)に相当する。ここでは、複数通りの候補パラメータの例として、異常判定の条件が緩い順に並べられた候補パラメータP4〜P1が用いられる場合を想定する。 FIG. 9 is a diagram for explaining a fourth example of the method of specifying the determination parameter. Here, the storage unit 140 stores in advance a plurality of types of candidate parameters in which the conditions for determining the abnormality are arranged in the order of looseness from the beginning to the end. For example, the order in which the conditions for determining the abnormality are loose corresponds to the smaller order (that is, ascending order) in the case of the first time range t21 and the density, and in the larger order (that is, in the ascending order) in the second time range t23 and the threshold value. That is, it corresponds to descending order). Here, as an example of a plurality of candidate parameters, it is assumed that the candidate parameters P4 to P1 arranged in the order of looseness of the abnormality determination conditions are used.

データ取得部111は、記憶部140によって記憶されている候補パラメータP4〜P1を取得する。また、データ取得部111は、判定用パラメータを特定するための入力動画像を取得する。図9に示した例では、入力動画像に異常が生じていることが確認されている。 The data acquisition unit 111 acquires the candidate parameters P4 to P1 stored by the storage unit 140. In addition, the data acquisition unit 111 acquires an input moving image for specifying the determination parameter. In the example shown in FIG. 9, it is confirmed that an abnormality has occurred in the input moving image.

パラメータ特定部112Aは、候補パラメータP4〜P1の先頭から順に用いて、入力動画像に異常が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定する。そして、パラメータ特定部112Aは、判定結果が変化する候補パラメータに基づいて、判定用パラメータを特定する。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。したがって、かかる構成によれば、撮像動画像に異常が生じているか否かをより高精度に判定することが可能となる。 The parameter specifying unit 112A uses the candidate parameters P4 to P1 in order from the beginning to repeatedly determine whether or not an abnormality has occurred in the input moving image until at least the determination result changes. Then, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter whose determination result changes. According to such a configuration, it is possible to specify a determination parameter such that the condition for abnormality determination is not too loose, while reducing the possibility of erroneous determination by the state determination unit 113. Therefore, according to such a configuration, it is possible to determine with higher accuracy whether or not an abnormality has occurred in the captured moving image.

図9に示した例では、パラメータ特定部112Aは、先頭の候補パラメータP4を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「正常」を得ている。続いて、パラメータ特定部112Aは、続く候補パラメータP3を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。したがって、候補パラメータP3においては、判定結果が「変化あり」である。そこで、パラメータ特定部112Aは、判定結果が変化する候補パラメータP3に基づいて、判定用パラメータを特定する。 In the example shown in FIG. 9, the parameter specifying unit 112A uses the head candidate parameter P4 to determine whether or not an abnormality has occurred in the input moving image, and obtains a determination result of “normal”. Subsequently, the parameter specifying unit 112A uses the subsequent candidate parameter P3 to determine whether or not an abnormality has occurred in the input moving image, and obtains a determination result “abnormal”. Therefore, in the candidate parameter P3, the determination result is “changed”. Therefore, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter P3 whose determination result changes.

図9に示した例では、データ取得部111によって異常が生じている入力動画像が取得されているため、パラメータ特定部112Aは、判定結果が変化する候補パラメータ(すなわち、入力動画像に対して異常と判定し始めた候補パラメータ)P3を、判定用パラメータとして特定している。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。 In the example shown in FIG. 9, since the input moving image in which the abnormality has occurred is acquired by the data acquisition unit 111, the parameter specifying unit 112A determines the candidate parameter whose determination result changes (that is, with respect to the input moving image). Candidate parameter) P3 that has begun to be determined to be abnormal is specified as a determination parameter. According to such a configuration, it is possible to specify a determination parameter so that the condition for abnormality determination is not too loose, while reducing the possibility of erroneous determination by the state determination unit 113.

続いて、第1の実施形態に係る画像処理システム1Aにおける判定用パラメータ特定の動作例について説明する。図10は、第1の実施形態に係る画像処理システム1Aにおける判定用パラメータ特定の動作例を示すフローチャートである。なお、以下に説明する判定用パラメータ特定の動作例は、画像処理システム1Aにおける判定用パラメータ特定の動作の一例に過ぎない。したがって、画像処理システム1Aにおける判定用パラメータ特定の動作は、以下に説明する判定用パラメータ特定の動作例に限定されない。 Subsequently, an operation example of specifying the determination parameter in the image processing system 1A according to the first embodiment will be described. FIG. 10 is a flowchart showing an operation example of specifying a determination parameter in the image processing system 1A according to the first embodiment. The operation example of specifying the determination parameter described below is only an example of the operation of specifying the determination parameter in the image processing system 1A. Therefore, the operation of specifying the determination parameter in the image processing system 1A is not limited to the operation example of specifying the determination parameter described below.

まず、画像処理装置10Aにおいては、データ取得部111によって入力動画像が取得される(S11)。続いて、パラメータ特定部112Aは、記憶部140から最初の候補パラメータを取得する(S12)。パラメータ特定部112Aは、取得した候補パラメータを用いて入力動画像に異常が生じているか否かを判定することによって、判定結果を得る。 First, in the image processing device 10A, the input moving image is acquired by the data acquisition unit 111 (S11). Subsequently, the parameter specifying unit 112A acquires the first candidate parameter from the storage unit 140 (S12). The parameter specifying unit 112A obtains a determination result by determining whether or not an abnormality has occurred in the input moving image using the acquired candidate parameters.

続いて、パラメータ特定部112Aは、判定結果が変化しない限り(S13において「No」)、次の候補パラメータを取得し(S14)、取得した候補パラメータを用いて入力動画像に異常が生じているか否かを判定することによって、判定結果を得て、S13に動作を移行させる。一方、パラメータ特定部112Aは、判定結果が変化した場合(S13において「Yes」)、判定結果が変化した際の候補パラメータに基づいて、判定用パラメータを特定し(S15)、判定用パラメータ特定の動作を終了させる。 Subsequently, the parameter specifying unit 112A acquires the next candidate parameter (S14) unless the determination result changes (“No” in S13), and whether or not an abnormality has occurred in the input moving image using the acquired candidate parameter. By determining whether or not, the determination result is obtained and the operation is shifted to S13. On the other hand, when the determination result changes (“Yes” in S13), the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter when the determination result changes (S15), and specifies the determination parameter. End the operation.

このようにして特定された判定用パラメータを用いて、状態判定部113によって、撮像動画像に異常が生じているか否かが判定される。検知結果表示制御部114は、状態判定部113によって、撮像動画像に異常が生じていると判定された場合、異常の検知結果の表示を制御する。一例として、検知結果表示制御部114は、状態判定部113によって、撮像動画像に異常が生じていると判定された場合、異常が生じている領域(異常検知領域)が検知結果の例として表示されるように表示部150を制御する。 Using the determination parameters identified in this way, the state determination unit 113 determines whether or not an abnormality has occurred in the captured moving image. When the state determination unit 113 determines that an abnormality has occurred in the captured moving image, the detection result display control unit 114 controls the display of the abnormality detection result. As an example, when the state determination unit 113 determines that an abnormality has occurred in the captured moving image, the detection result display control unit 114 displays the area where the abnormality has occurred (abnormality detection area) as an example of the detection result. The display unit 150 is controlled so as to be performed.

図11は、異常検知領域の表示例を示す図である。図11を参照すると、検知結果表示制御部114は、撮像動画像G25が表示部150によって表示されるように、表示部150を制御している。また、検知結果表示制御部114は、撮像動画像G25における異常検知領域D25(例えば、車両の避走が検知された領域)が他の領域と異なる態様によって表示されるように表示部150を制御している。例えば、図11に示した例のように、検知結果表示制御部114は、撮像動画像G25における異常検知領域D25に対して所定の表示オブジェクト(例えば、網掛けなど)が表示されるように表示部150を制御してもよい。 FIG. 11 is a diagram showing a display example of the abnormality detection area. Referring to FIG. 11, the detection result display control unit 114 controls the display unit 150 so that the captured moving image G25 is displayed by the display unit 150. Further, the detection result display control unit 114 controls the display unit 150 so that the abnormality detection region D25 (for example, the region where the vehicle avoidance is detected) in the captured moving image G25 is displayed in a mode different from other regions. doing. For example, as in the example shown in FIG. 11, the detection result display control unit 114 displays such that a predetermined display object (for example, shading) is displayed on the abnormality detection area D25 in the captured moving image G25. The unit 150 may be controlled.

続いて、第1の実施形態に係る画像処理システム1Aにおける状態判定の動作例について説明する。図12は、第1の実施形態に係る画像処理システム1Aにおける状態判定の動作例を示すフローチャートである。なお、以下に説明する状態判定の動作例は、画像処理システム1Aにおける状態判定の動作の一例に過ぎない。したがって、画像処理システム1Aにおける状態判定の動作は、以下に説明する状態判定の動作例に限定されない。 Subsequently, an operation example of the state determination in the image processing system 1A according to the first embodiment will be described. FIG. 12 is a flowchart showing an operation example of state determination in the image processing system 1A according to the first embodiment. The state determination operation example described below is only an example of the state determination operation in the image processing system 1A. Therefore, the operation of the state determination in the image processing system 1A is not limited to the operation example of the state determination described below.

まず、画像処理装置10Aにおいて、状態判定部113は、パラメータ特定部112Aによって特定された判定用パラメータを取得する(S21)。続いて、撮像装置30は、動画像を撮像し、撮像した動画像を画像処理装置10Aに提供する。撮像装置30によって提供された動画像は、データ取得部111によって撮像動画像として取得される(S22)。続いて、状態判定部113は、判定用パラメータと撮像動画像とに基づいて、状態判定(撮像動画像に異常が生じているか否かの判定)を行って判定結果を得る(S23)。 First, in the image processing device 10A, the state determination unit 113 acquires the determination parameter specified by the parameter identification unit 112A (S21). Subsequently, the image pickup apparatus 30 captures a moving image and provides the captured moving image to the image processing apparatus 10A. The moving image provided by the imaging device 30 is acquired as an imaging moving image by the data acquisition unit 111 (S22). Subsequently, the state determination unit 113 performs a state determination (determination of whether or not an abnormality has occurred in the imaged moving image) based on the determination parameter and the captured moving image, and obtains a determination result (S23).

検知結果表示制御部114は、判定結果が異常である場合(S24において「Yes」)、異常が生じている領域(異常検知領域)が検知結果の例として表示されるように表示部150を制御し(S25)、処理をS26に移行させる。一方、状態判定部113は、判定結果が正常である場合(S24において「No」)、動作をS26に移行させる。データ取得部111は、動作を継続する場合には(S26において「No」)、動作をS22に移行させる。一方、データ取得部111は、動作を終了させる場合には(S26において「Yes」)、動作を終了させる。 The detection result display control unit 114 controls the display unit 150 so that when the determination result is abnormal (“Yes” in S24), the area where the abnormality occurs (abnormality detection area) is displayed as an example of the detection result. Then (S25), the process is shifted to S26. On the other hand, when the determination result is normal (“No” in S24), the state determination unit 113 shifts the operation to S26. When the data acquisition unit 111 continues the operation (“No” in S26), the data acquisition unit 111 shifts the operation to S22. On the other hand, when the data acquisition unit 111 ends the operation (“Yes” in S26), the data acquisition unit 111 ends the operation.

以上、第1の実施形態について説明した。 The first embodiment has been described above.

(2.第2の実施形態)
続いて、第2の実施形態について説明する。図1に示したように、第2の実施形態に係る画像処理システム1Bは、第1の実施形態に係る画像処理システム1Aと比較して、画像処理装置10Aの代わりに画像処理装置10Bを備える。したがって、以下では、撮像装置30についての説明は省略し、画像処理装置10Bについて主に説明する。
(2. Second embodiment)
Subsequently, the second embodiment will be described. As shown in FIG. 1, the image processing system 1B according to the second embodiment includes an image processing device 10B instead of the image processing device 10A as compared with the image processing system 1A according to the first embodiment. .. Therefore, in the following, the description of the image pickup apparatus 30 will be omitted, and the image processing apparatus 10B will be mainly described.

[2−1.画像処理装置の機能構成例]
まず、第2の実施形態に係る画像処理装置10Bの機能構成例について説明する。図13は、第2の実施形態に係る画像処理装置10Bの機能構成例を示すブロック図である。図13に示すように、第2の実施形態に係る画像処理装置10Bは、第1の実施形態に係る画像処理装置10Aと比較して、制御部110Aの代わりに制御部110Bを備える。したがって、以下では、操作部120、通信部130、記憶部140および表示部150についての説明は省略し、制御部110Bのうち制御部110Aとの差分について主に説明する。
[2-1. Function configuration example of image processing device]
First, a functional configuration example of the image processing device 10B according to the second embodiment will be described. FIG. 13 is a block diagram showing a functional configuration example of the image processing device 10B according to the second embodiment. As shown in FIG. 13, the image processing device 10B according to the second embodiment includes a control unit 110B instead of the control unit 110A as compared with the image processing device 10A according to the first embodiment. Therefore, in the following, the description of the operation unit 120, the communication unit 130, the storage unit 140, and the display unit 150 will be omitted, and the difference between the control unit 110B and the control unit 110A will be mainly described.

図13に示すように、制御部110Bは、制御部110Aと同様に、データ取得部111、パラメータ特定部112A、状態判定部113および検知結果表示制御部114を備える。また、制御部110Bは、オプティカルフロー検出部115、オプティカルフロー表示制御部116およびパラメータ変更部117を備える。制御部110Bが備えるこれらの各機能部の詳細について、後に説明する。 As shown in FIG. 13, the control unit 110B includes a data acquisition unit 111, a parameter identification unit 112A, a state determination unit 113, and a detection result display control unit 114, similarly to the control unit 110A. Further, the control unit 110B includes an optical flow detection unit 115, an optical flow display control unit 116, and a parameter change unit 117. Details of each of these functional units included in the control unit 110B will be described later.

[2−2.機能詳細]
続いて、画像処理システム1Bの機能詳細について説明する。第2の実施形態においても、第1の実施形態と同様に、データ取得部111が、撮像動画像を取得する。そして、第2の実施形態においては、オプティカルフロー検出部115が、データ取得部111によって取得された撮像動画像に基づいて、オプティカルフローを検出する。オプティカルフロー表示制御部116は、オプティカルフローに応じた表示を制御する。
[2-2. detail of function]
Subsequently, the functional details of the image processing system 1B will be described. In the second embodiment as well, the data acquisition unit 111 acquires the captured moving image as in the first embodiment. Then, in the second embodiment, the optical flow detection unit 115 detects the optical flow based on the captured moving image acquired by the data acquisition unit 111. The optical flow display control unit 116 controls the display according to the optical flow.

図14は、オプティカルフローの表示例を示す図である。図14を参照すると、オプティカルフロー表示制御部116は、画素ごとの動きベクトル(オプティカルフロー)の時系列に沿った集合(動き情報群M2)が表示部150によって表示されるように、表示部150を制御している。なお、図14に示した例においては、矢印の向きによって、動きベクトルの向きが示され、矢印の大きさによって動きベクトルの大きさが示されている。しかし、動きベクトルの向きおよび大きさは、他の態様によって示されてもよい。例えば、動きベクトルの向きは、色の種類(例えば、黄色、赤色など)の違いによって示されてもよいし、動きベクトルの大きさは、色の濃淡によって示されてもよい。 FIG. 14 is a diagram showing a display example of the optical flow. Referring to FIG. 14, the optical flow display control unit 116 displays a set (motion information group M2) of motion vectors (optical flow) for each pixel along a time series by the display unit 150. Is in control. In the example shown in FIG. 14, the direction of the arrow indicates the direction of the motion vector, and the size of the arrow indicates the magnitude of the motion vector. However, the orientation and magnitude of the motion vector may be indicated by other aspects. For example, the orientation of the motion vector may be indicated by the difference in color type (for example, yellow, red, etc.), and the magnitude of the motion vector may be indicated by the shade of color.

また、図14に示すように、オプティカルフロー表示制御部116は、判定用パラメータを変更するための表示オブジェクト(例えば、スライダ)の表示を制御する。ユーザは、かかる表示オブジェクトを操作することによって、判定用パラメータの変更操作を入力することが可能である。なお、表示オブジェクトは、スライダに限定されない。例えば、表示オブジェクトは、判定用パラメータを直接入力するための入力欄などであってもよい。また、図14に示された例では、判定用パラメータとして、第1の時間範囲t21、第2の時間範囲t23、閾値および密度が表示されている。 Further, as shown in FIG. 14, the optical flow display control unit 116 controls the display of a display object (for example, a slider) for changing the determination parameter. The user can input the operation of changing the determination parameter by operating the display object. The display object is not limited to the slider. For example, the display object may be an input field for directly inputting the determination parameter. Further, in the example shown in FIG. 14, the first time range t21, the second time range t23, the threshold value, and the density are displayed as the determination parameters.

第2の実施形態において、ユーザは、このようにして表示されたオプティカルフローを見ながら、判定用パラメータの変更操作によって、判定用パラメータを変更することが可能である。第2の実施形態は、ユーザが、パラメータ特定部112Aによって特定された判定用パラメータを変更(調整)する場合に有用である。判定用パラメータの変更操作がユーザによって入力された場合、パラメータ変更部117は、変更操作に基づいて、判定用パラメータを変更する。例えば、図14に示したように、オプティカルフロー表示制御部116によって、OKボタン151の表示が制御される場合、判定用パラメータの変更操作は、OKボタン151を選択する操作によって確定されてもよい。 In the second embodiment, the user can change the determination parameter by the determination parameter change operation while observing the optical flow displayed in this way. The second embodiment is useful when the user changes (adjusts) the determination parameter specified by the parameter specifying unit 112A. When the operation for changing the determination parameter is input by the user, the parameter change unit 117 changes the determination parameter based on the change operation. For example, as shown in FIG. 14, when the display of the OK button 151 is controlled by the optical flow display control unit 116, the operation of changing the determination parameter may be confirmed by the operation of selecting the OK button 151. ..

状態判定部113は、判定用パラメータが変更されない場合、パラメータ特定部112Aによって特定された判定用パラメータを用いて、状態判定(撮像動画像に異常が生じているか否かの判定)を行えばよい。一方、状態判定部113は、パラメータ変更部117によって判定用パラメータが変更された場合、変更後の判定用パラメータを用いて、状態判定(撮像動画像に異常が生じているか否かの判定)を行えばよい。 When the determination parameter is not changed, the state determination unit 113 may perform a state determination (determination of whether or not an abnormality has occurred in the captured moving image) using the determination parameter specified by the parameter identification unit 112A. .. On the other hand, when the determination parameter is changed by the parameter change unit 117, the state determination unit 113 uses the changed determination parameter to perform a state determination (determination of whether or not an abnormality has occurred in the captured moving image). Just do it.

なお、オプティカルフロー検出部115によって検出されたオプティカルフローは、記憶部140に記録されて、後に使用されてもよい。ここで、記憶部140に記録されたオプティカルフローはどのように使用されてもよい。一例として、状態判定部113によって誤判定がされた場合、パラメータ特定部112Aは、記憶部140に記録されている過去のオプティカルフローを取得し、過去のオプティカルフローに基づいて、判定用パラメータを再度特定してもよい。 The optical flow detected by the optical flow detection unit 115 may be recorded in the storage unit 140 and used later. Here, the optical flow recorded in the storage unit 140 may be used in any way. As an example, when an erroneous determination is made by the state determination unit 113, the parameter identification unit 112A acquires the past optical flow recorded in the storage unit 140, and again sets the determination parameter based on the past optical flow. It may be specified.

続いて、第2の実施形態に係る画像処理システム1Bにおける判定用パラメータ変更の動作例について説明する。図15は、第2の実施形態に係る画像処理システム1Bにおける判定用パラメータ変更の動作例を示すフローチャートである。なお、以下に説明する状態判定の動作例は、画像処理システム1Bにおける判定用パラメータ変更の動作の一例に過ぎない。したがって、画像処理システム1Bにおける判定用パラメータ変更の動作は、以下に説明する判定用パラメータ変更の動作例に限定されない。 Subsequently, an operation example of changing the determination parameter in the image processing system 1B according to the second embodiment will be described. FIG. 15 is a flowchart showing an operation example of changing the determination parameter in the image processing system 1B according to the second embodiment. The state determination operation example described below is only an example of the determination parameter change operation in the image processing system 1B. Therefore, the operation of changing the determination parameter in the image processing system 1B is not limited to the operation example of changing the determination parameter described below.

まず、画像処理装置10Bにおいて、オプティカルフロー表示制御部116は、パラメータ特定部112Aによって特定された判定用パラメータを取得する(S31)。続いて、撮像装置30は、動画像を撮像し、撮像した動画像を画像処理装置10Bに提供する。撮像装置30によって提供された動画像は、データ取得部111によって撮像動画像として取得される(S32)。続いて、オプティカルフロー検出部115は、撮像動画像からオプティカルフローを検出する(S33)。 First, in the image processing device 10B, the optical flow display control unit 116 acquires the determination parameter specified by the parameter specifying unit 112A (S31). Subsequently, the image pickup apparatus 30 captures a moving image and provides the captured moving image to the image processing apparatus 10B. The moving image provided by the imaging device 30 is acquired as an imaging moving image by the data acquisition unit 111 (S32). Subsequently, the optical flow detection unit 115 detects the optical flow from the captured moving image (S33).

オプティカルフロー表示制御部116は、オプティカルフローの表示を制御する(S34)。このとき、オプティカルフロー表示制御部116は、パラメータ特定部112Aによって特定された判定用パラメータの表示を制御してよい。そうすれば、現在の判定用パラメータをユーザに把握させることが可能である。パラメータ変更部117は、操作部120によって判定用パラメータの変更操作が検出された場合、変更操作に基づいて、判定用パラメータを変更する(S36)。 The optical flow display control unit 116 controls the display of the optical flow (S34). At this time, the optical flow display control unit 116 may control the display of the determination parameter specified by the parameter specifying unit 112A. Then, it is possible to let the user grasp the current determination parameter. When the operation unit 120 detects a determination parameter change operation, the parameter change unit 117 changes the determination parameter based on the change operation (S36).

データ取得部111は、動作を継続する場合には(S37において「No」)、動作をS32に移行させる。一方、データ取得部111は、動作を終了させる場合には(S37において「Yes」)、動作を終了させる。 When the data acquisition unit 111 continues the operation (“No” in S37), the data acquisition unit 111 shifts the operation to S32. On the other hand, when the data acquisition unit 111 ends the operation (“Yes” in S37), the data acquisition unit 111 ends the operation.

以上、第2の実施形態について説明した。 The second embodiment has been described above.

(3.第3の実施形態)
続いて、第3の実施形態について説明する。図1に示したように、第3の実施形態に係る画像処理システム1Cは、第1の実施形態に係る画像処理システム1Aと比較して、画像処理装置10Aの代わりに画像処理装置10Cを備える。したがって、以下では、撮像装置30についての説明は省略し、画像処理装置10Cについて主に説明する。
(3. Third Embodiment)
Subsequently, the third embodiment will be described. As shown in FIG. 1, the image processing system 1C according to the third embodiment includes an image processing device 10C instead of the image processing device 10A as compared with the image processing system 1A according to the first embodiment. .. Therefore, in the following, the description of the image pickup apparatus 30 will be omitted, and the image processing apparatus 10C will be mainly described.

[3−1.画像処理装置の機能構成例]
まず、第3の実施形態に係る画像処理装置10Cの機能構成例について説明する。図16は、第3の実施形態に係る画像処理装置10Cの機能構成例を示すブロック図である。図16に示すように、第3の実施形態に係る画像処理装置10Cは、第1の実施形態に係る画像処理装置10Aと比較して、制御部110Aの代わりに制御部110Cを備える。したがって、以下では、操作部120、通信部130、記憶部140および表示部150についての説明は省略し、制御部110Cのうち制御部110Aとの差分について主に説明する。
[3-1. Function configuration example of image processing device]
First, a functional configuration example of the image processing device 10C according to the third embodiment will be described. FIG. 16 is a block diagram showing a functional configuration example of the image processing device 10C according to the third embodiment. As shown in FIG. 16, the image processing device 10C according to the third embodiment includes a control unit 110C instead of the control unit 110A as compared with the image processing device 10A according to the first embodiment. Therefore, in the following, the description of the operation unit 120, the communication unit 130, the storage unit 140, and the display unit 150 will be omitted, and the difference between the control unit 110C and the control unit 110A will be mainly described.

図16に示すように、制御部110Cは、制御部110Aと同様に、データ取得部111、状態判定部113および検知結果表示制御部114を備える。また、制御部110Cは、パラメータ特定部112B、パラメータ情報記録制御部118およびパラメータ情報表示制御部119を備える。制御部110Cが備えるこれらの各機能部の詳細について、後に説明する。 As shown in FIG. 16, the control unit 110C includes a data acquisition unit 111, a state determination unit 113, and a detection result display control unit 114, similarly to the control unit 110A. Further, the control unit 110C includes a parameter specifying unit 112B, a parameter information recording control unit 118, and a parameter information display control unit 119. Details of each of these functional units included in the control unit 110C will be described later.

[3−2.機能詳細]
続いて、画像処理システム1Cの機能詳細について説明する。第3の実施形態においても、第1の実施形態と同様に、データ取得部111が、入力動画像を取得する。そして、第3の実施形態においては、パラメータ特定部112Bは、過去に使用されたパラメータが記憶部140に記録されていない場合、第1の実施形態と同様に、入力動画像に基づいて、判定用パラメータを特定する。パラメータ特定部112Bによって特定された判定用パラメータが状態判定部113によって使用されると、パラメータ情報記録制御部118は、状態判定部113によって使用された判定用パラメータが、過去に使用されたパラメータとして記憶部140に記録されるように制御する。
[3-2. detail of function]
Subsequently, the functional details of the image processing system 1C will be described. In the third embodiment as well, the data acquisition unit 111 acquires the input moving image as in the first embodiment. Then, in the third embodiment, when the parameter used in the past is not recorded in the storage unit 140, the parameter specifying unit 112B determines based on the input moving image as in the first embodiment. Specify the parameters for. When the determination parameter specified by the parameter specifying unit 112B is used by the state determination unit 113, the parameter information recording control unit 118 uses the determination parameter used by the state determination unit 113 as a parameter used in the past. It is controlled so that it is recorded in the storage unit 140.

また、パラメータ情報記録制御部118は、状態判定部113によって使用された判定用パラメータに関連する情報も、過去に使用されたパラメータに関連する情報として、記憶部140に記録されるように制御してよい。 Further, the parameter information recording control unit 118 controls the information related to the determination parameter used by the state determination unit 113 so as to be recorded in the storage unit 140 as information related to the parameter used in the past. You can.

図17は、過去に使用されたパラメータおよび過去に使用されたパラメータに関連する情報の例を示す図である。図17に示すように、過去に使用されたパラメータに関連する情報は、過去に使用されたパラメータを用いて判定がなされた事象の種類を含んでもよい。事象の種類は、状態判定部113によって判定可能であるとして上記した各種の事象であってよい。図17に示した例では、事象の種類として、避走、逆走、落下物、がけ崩れが示されている。 FIG. 17 is a diagram showing an example of parameters used in the past and information related to the parameters used in the past. As shown in FIG. 17, the information related to the parameters used in the past may include the type of event determined using the parameters used in the past. The type of event may be the various events described above, assuming that it can be determined by the state determination unit 113. In the example shown in FIG. 17, escape, reverse-way driving, falling objects, and landslides are shown as the types of events.

また、図17に示したように、過去に使用されたパラメータに関連する情報は、状態判定部113による判定に使用された撮像動画像を撮像した撮像装置30の画角を含んでもよい。また、図17に示したように、過去に使用されたパラメータに関連する情報は、撮像装置30による撮像距離(例えば、撮像装置30から道路までの最短距離など)を含んでもよい。 Further, as shown in FIG. 17, the information related to the parameters used in the past may include the angle of view of the image pickup apparatus 30 that has captured the image pickup moving image used for the determination by the state determination unit 113. Further, as shown in FIG. 17, the information related to the parameters used in the past may include the imaging distance by the imaging device 30 (for example, the shortest distance from the imaging device 30 to the road).

ここで、過去に使用されたパラメータに関連する情報は、どのようにして設定されてもよい。例えば、事象の種類は、ユーザによって設定されてもよいし、状態判定部113によって撮像動画像から自動的に決定されてもよい。また、撮像距離は、ユーザによって設定されてもよいし、状態判定部113によって撮像動画像から自動的に測定されてもよい。また、画角は、撮像装置30から取得されてよい。 Here, the information related to the parameters used in the past may be set in any way. For example, the type of event may be set by the user, or may be automatically determined from the captured moving image by the state determination unit 113. Further, the imaging distance may be set by the user, or may be automatically measured from the captured moving image by the state determination unit 113. Further, the angle of view may be acquired from the image pickup apparatus 30.

パラメータ特定部112Bは、過去に使用されたパラメータが記憶部140に記録されている場合、過去に使用されたパラメータを用いて、入力動画像に過去に使用されたパラメータに対応する事象が生じているか否かを判定する。 When the parameters used in the past are recorded in the storage unit 140, the parameter specifying unit 112B uses the parameters used in the past to cause an event corresponding to the parameters used in the past in the input moving image. Judge whether or not.

そして、データ取得部111によって、かかる事象が生じていないことが確認された入力動画像(正常な入力動画像)が取得された場合、かつ、パラメータ特定部112Bによって、過去に使用されたパラメータを用いて、入力動画像に事象が生じていない(入力動画像が正常である)と判定された場合、過去に使用されたパラメータは、誤判定されないパラメータであると考えられる。そこで、かかる場合、パラメータ情報表示制御部119は、過去に使用されたパラメータおよび過去に使用されたパラメータに関連する情報のうち、少なくともいずれか一方の表示を制御してよい。これにより第3の実施形態に係る画像処理システム1Cは、データ取得部111によって取得された入力動画像に対して過去に使用されたパラメータを用いても、適切にかかる事象の発生を判定できることを、ユーザに提示することができる。 Then, when the input moving image (normal input moving image) confirmed that such an event has not occurred is acquired by the data acquisition unit 111, and the parameter used in the past is set by the parameter specifying unit 112B. When it is determined that no event has occurred in the input moving image (the input moving image is normal), the parameters used in the past are considered to be parameters that are not erroneously determined. Therefore, in such a case, the parameter information display control unit 119 may control the display of at least one of the parameters used in the past and the information related to the parameters used in the past. As a result, the image processing system 1C according to the third embodiment can appropriately determine the occurrence of such an event even if the parameters used in the past are used for the input moving image acquired by the data acquisition unit 111. , Can be presented to the user.

図18は、過去に使用されたパラメータを用いた判定結果の例を示す図である。図18に示した例では、データ取得部111によって取得された入力動画像に各事象が生じていない(入力動画像が正常である)ことが確認されている。また、パラメータ特定部112Bによって、過去に使用されたパラメータP5を用いて、入力動画像に事象「避走」が生じていない(入力動画像が正常である)と判定されている。また、パラメータ特定部112Bによって、過去に使用されたパラメータP6を用いて、入力動画像に事象「逆走」が生じていない(入力動画像が正常である)と判定されている。 FIG. 18 is a diagram showing an example of a determination result using parameters used in the past. In the example shown in FIG. 18, it is confirmed that each event does not occur in the input moving image acquired by the data acquisition unit 111 (the input moving image is normal). Further, the parameter specifying unit 112B determines that the event "escape" has not occurred in the input moving image (the input moving image is normal) by using the parameter P5 used in the past. Further, the parameter specifying unit 112B determines that the event "reverse run" has not occurred in the input moving image (the input moving image is normal) by using the parameter P6 used in the past.

一方、パラメータ特定部112Bによって、過去に使用されたパラメータP7を用いて、入力動画像に事象「落下物」が生じている(入力動画像が異常である)と判定されている。また、パラメータ特定部112Bによって、過去に使用されたパラメータP8を用いて、入力動画像に事象「がけ崩れ」が生じている(入力動画像が異常である)と判定されている。 On the other hand, the parameter specifying unit 112B determines that the event "falling object" has occurred in the input moving image (the input moving image is abnormal) by using the parameter P7 used in the past. Further, the parameter specifying unit 112B determines that the event "landslide" has occurred in the input moving image (the input moving image is abnormal) by using the parameter P8 used in the past.

かかる例においては、過去に使用されたパラメータP5、過去に使用されたパラメータP6が、誤判定されないパラメータであると考えられる。そこで、かかる場合、パラメータ情報表示制御部119は、過去に使用されたパラメータP5および過去に使用されたパラメータP5に関連する情報のうち、少なくともいずれか一方の表示を制御してよい。また、パラメータ情報表示制御部119は、過去に使用されたパラメータP6および過去に使用されたパラメータP6に関連する情報のうち、少なくともいずれか一方の表示を制御してよい。これにより第3の実施形態に係る画像処理システム1Cは、データ取得部111によって取得された入力動画像に対して過去に使用されたパラメータP5またはP6を用いても、適切にかかる事象(避走または逆走)の発生を判定できることを、ユーザに提示することができる。 In such an example, the parameter P5 used in the past and the parameter P6 used in the past are considered to be parameters that are not erroneously determined. Therefore, in such a case, the parameter information display control unit 119 may control the display of at least one of the parameter P5 used in the past and the information related to the parameter P5 used in the past. Further, the parameter information display control unit 119 may control the display of at least one of the information related to the parameter P6 used in the past and the parameter P6 used in the past. As a result, the image processing system 1C according to the third embodiment appropriately takes such an event (escape) even if the parameters P5 or P6 used in the past are used for the input moving image acquired by the data acquisition unit 111. Or it can be presented to the user that the occurrence of (reverse run) can be determined.

図19は、過去に使用されたパラメータおよび過去に使用されたパラメータに関連する情報の表示例を示す図である。図19に示したように、パラメータ情報表示制御部119は、過去に使用されたパラメータP5および過去に使用されたパラメータP5に関連する情報(事象の種類、撮像距離、画角)の表示を制御してよい。また、パラメータ情報表示制御部119は、過去に使用されたパラメータP6および過去に使用されたパラメータP6に関連する情報(事象の種類、撮像距離、画角)の表示を制御してよい。 FIG. 19 is a diagram showing a display example of parameters used in the past and information related to the parameters used in the past. As shown in FIG. 19, the parameter information display control unit 119 controls the display of the parameter P5 used in the past and the information (event type, imaging distance, angle of view) related to the parameter P5 used in the past. You can do it. Further, the parameter information display control unit 119 may control the display of information (event type, imaging distance, angle of view) related to the parameter P6 used in the past and the parameter P6 used in the past.

パラメータ特定部112Bは、過去に使用されたパラメータの選択操作が入力された場合、過去に使用されたパラメータを判定用パラメータとして特定する。例えば、図19に示したように、パラメータ情報表示制御部119によって、OKボタン151の表示が制御される場合、過去に使用されたパラメータの選択操作は、OKボタン151を選択する操作によって確定されてもよい。また、パラメータ情報表示制御部119によって、取消ボタン152の表示が制御される場合、過去に使用されたパラメータの選択操作は、取消ボタン152を選択する操作によって取り消されてもよい。 When the parameter selection operation used in the past is input, the parameter specifying unit 112B specifies the parameter used in the past as a determination parameter. For example, as shown in FIG. 19, when the display of the OK button 151 is controlled by the parameter information display control unit 119, the parameter selection operation used in the past is determined by the operation of selecting the OK button 151. You may. Further, when the display of the cancel button 152 is controlled by the parameter information display control unit 119, the parameter selection operation used in the past may be canceled by the operation of selecting the cancel button 152.

なお、データ取得部111によって事象が生じている(入力動画像が異常である)ことが確認された入力動画像が取得された場合、かつ、パラメータ特定部112Bによって入力動画像に事象が生じている(入力動画像が異常である)と判定された場合、過去に使用されたパラメータは、誤判定されないパラメータであると考えられる。そこで、かかる場合、パラメータ情報表示制御部119は、過去に使用されたパラメータおよび過去に使用されたパラメータに関連する情報のうち、少なくともいずれか一方の表示を制御してよい。これにより第3の実施形態に係る画像処理システム1Cは、データ取得部111によって取得された入力動画像に対して過去に使用されたパラメータを用いても、適切にかかる事象の発生を判定できることを、ユーザに提示することができる。そして、パラメータ特定部112Bは、過去に使用されたパラメータの選択操作が入力された場合、過去に使用されたパラメータを判定用パラメータとして特定すればよい。 When the input moving image confirmed that the event has occurred (the input moving image is abnormal) is acquired by the data acquisition unit 111, and the event occurs in the input moving image by the parameter specifying unit 112B. If it is determined that the input video is abnormal (the input moving image is abnormal), the parameters used in the past are considered to be parameters that are not erroneously determined. Therefore, in such a case, the parameter information display control unit 119 may control the display of at least one of the parameters used in the past and the information related to the parameters used in the past. As a result, the image processing system 1C according to the third embodiment can appropriately determine the occurrence of such an event even if the parameters used in the past are used for the input moving image acquired by the data acquisition unit 111. , Can be presented to the user. Then, when the parameter selection operation used in the past is input, the parameter specifying unit 112B may specify the parameter used in the past as a determination parameter.

以上、第3の実施形態について説明した。 The third embodiment has been described above.

(4.第4の実施形態)
続いて、第4の実施形態について説明する。図1に示したように、第4の実施形態に係る画像処理システム1Dは、第1の実施形態に係る画像処理システム1Aと比較して、画像処理装置10Aの代わりに画像処理装置10Dを備える。したがって、以下では、撮像装置30についての説明は省略し、画像処理装置10Dについて主に説明する。
(4. Fourth Embodiment)
Subsequently, the fourth embodiment will be described. As shown in FIG. 1, the image processing system 1D according to the fourth embodiment includes an image processing device 10D instead of the image processing device 10A as compared with the image processing system 1A according to the first embodiment. .. Therefore, in the following, the description of the image pickup apparatus 30 will be omitted, and the image processing apparatus 10D will be mainly described.

[4−1.画像処理装置の機能構成例]
まず、第4の実施形態に係る画像処理装置10Dの機能構成例について説明する。図20は、第4の実施形態に係る画像処理装置10Dの機能構成例を示すブロック図である。図20に示すように、第4の実施形態に係る画像処理装置10Dは、第1の実施形態に係る画像処理装置10Aと比較して、制御部110Aの代わりに制御部110Dを備える。したがって、以下では、操作部120、通信部130、記憶部140および表示部150についての説明は省略し、制御部110Dのうち制御部110Aとの差分について主に説明する。
[4-1. Function configuration example of image processing device]
First, a functional configuration example of the image processing device 10D according to the fourth embodiment will be described. FIG. 20 is a block diagram showing a functional configuration example of the image processing device 10D according to the fourth embodiment. As shown in FIG. 20, the image processing device 10D according to the fourth embodiment includes a control unit 110D instead of the control unit 110A as compared with the image processing device 10A according to the first embodiment. Therefore, in the following, the description of the operation unit 120, the communication unit 130, the storage unit 140, and the display unit 150 will be omitted, and the difference between the control unit 110D and the control unit 110A will be mainly described.

図20に示すように、制御部110Dは、制御部110Aと同様に、データ取得部111、状態判定部113および検知結果表示制御部114を備える。また、制御部110Dは、パラメータ特定部112C、領域情報取得部121を備える。制御部110Dが備えるこれらの各機能部の詳細について、後に説明する。 As shown in FIG. 20, the control unit 110D includes a data acquisition unit 111, a state determination unit 113, and a detection result display control unit 114, similarly to the control unit 110A. Further, the control unit 110D includes a parameter specifying unit 112C and an area information acquisition unit 121. Details of each of these functional units included in the control unit 110D will be described later.

[4−2.機能詳細]
続いて、画像処理システム1Dの機能詳細について説明する。第4の実施形態においては、状態判定部113が、入力動画像における複数の検出対象領域ごとに異なる状態判定を行う(複数の検出対象領域ごとに異なる事象が生じているか否かを判定する)。なお以降の説明において、複数の検出対象領域のそれぞれを単に「領域」と言う。記憶部140には、領域ごとに座標と事象の種類との対応関係が記録されている。したがって、領域情報取得部121は、領域ごとの座標と事象の種類との対応関係(領域情報)を取得し、パラメータ特定部112Cは、記憶部140に記録されている対応関係に基づいて、領域ごとに異なる判定用パラメータを特定する。
[4-2. detail of function]
Subsequently, the functional details of the image processing system 1D will be described. In the fourth embodiment, the state determination unit 113 determines different states for each of the plurality of detection target areas in the input moving image (determines whether or not different events occur in each of the plurality of detection target areas). .. In the following description, each of the plurality of detection target areas is simply referred to as a "region". The storage unit 140 records the correspondence between the coordinates and the type of event for each area. Therefore, the area information acquisition unit 121 acquires the correspondence relationship (area information) between the coordinates for each area and the event type, and the parameter identification unit 112C acquires the correspondence relationship recorded in the storage unit 140, and the area information unit 112C acquires the correspondence relationship (area information). Specify different judgment parameters for each.

図21は、領域ごとの座標と事象の種類との対応関係の例を示す図である。図21に示すように、領域R1に生じているか否かが判定される事象の種類「逆走」と領域R1の座標「r1」とが対応付けられている。また、領域R2に生じているか否かが判定される事象の種類「避走」と領域R2の座標「r2」とが対応付けられている。第4の実施形態においては、かかる対応関係が、記憶部140にあらかじめ記録されている。なお、図21に示した例では、領域R1と領域R2とが隣接しているが、領域R1と領域R2とは、離れていてもよいし、一部が重複していてもよい。 FIG. 21 is a diagram showing an example of the correspondence between the coordinates for each region and the type of event. As shown in FIG. 21, the type of event "reverse run" for which it is determined whether or not it occurs in the area R1 is associated with the coordinate "r1" of the area R1. Further, the type "escape" of the event for which it is determined whether or not it occurs in the area R2 is associated with the coordinates "r2" of the area R2. In the fourth embodiment, such a correspondence is recorded in advance in the storage unit 140. In the example shown in FIG. 21, the region R1 and the region R2 are adjacent to each other, but the region R1 and the region R2 may be separated from each other or may partially overlap with each other.

第1の実施形態と同様に、データ取得部111は、入力動画像を取得する。そして、第4の実施形態においては、パラメータ特定部112Cは、領域ごとの座標と事象の種類との対応関係を取得する。パラメータ特定部112Cは、領域ごとの座標と事象の種類とに基づいて、領域ごとに判定用パラメータを特定する。1つの領域あたりの判定用パラメータの特定は、第1の実施形態に係る判定用パラメータの特定と同様になされてよい。かかる構成によれば、領域ごとに異なる事象に対応する判定用パラメータが特定されるため、領域ごとに異なった事象が生じているか否かの判定をより高精度に行うことが可能となる。 Similar to the first embodiment, the data acquisition unit 111 acquires the input moving image. Then, in the fourth embodiment, the parameter specifying unit 112C acquires the correspondence between the coordinates for each region and the type of event. The parameter specifying unit 112C specifies the determination parameter for each area based on the coordinates for each area and the type of event. The determination parameter for each region may be specified in the same manner as the determination parameter according to the first embodiment. According to such a configuration, since the determination parameters corresponding to the different events are specified for each region, it is possible to more accurately determine whether or not different events are occurring for each region.

続いて、第4の実施形態に係る画像処理システム1Dにおける判定用パラメータ特定の動作例について説明する。図22は、第4の実施形態に係る画像処理システム1Dにおける判定用パラメータ特定の動作例を示すフローチャートである。なお、以下に説明する判定用パラメータ特定の動作例は、画像処理システム1Dにおける判定用パラメータ特定の動作の一例に過ぎない。したがって、画像処理システム1Dにおける判定用パラメータ特定の動作は、以下に説明する判定用パラメータ特定の動作例に限定されない。 Subsequently, an operation example of specifying the determination parameter in the image processing system 1D according to the fourth embodiment will be described. FIG. 22 is a flowchart showing an operation example of specifying the determination parameter in the image processing system 1D according to the fourth embodiment. The operation example of specifying the determination parameter described below is only an example of the operation of specifying the determination parameter in the image processing system 1D. Therefore, the operation of specifying the determination parameter in the image processing system 1D is not limited to the operation example of specifying the determination parameter described below.

まず、画像処理装置10Dにおいては、データ取得部111によって入力動画像が取得される(S11)。続いて、パラメータ特定部112Cは、最初の領域の座標を取得する(S16)。そして、パラメータ特定部112Cは、記憶部140から最初の候補パラメータを取得する(S12)。パラメータ特定部112Cは、取得した候補パラメータを用いて入力動画像にその領域の事象が生じているか否かを判定することによって、判定結果を得る。 First, in the image processing device 10D, the input moving image is acquired by the data acquisition unit 111 (S11). Subsequently, the parameter specifying unit 112C acquires the coordinates of the first region (S16). Then, the parameter specifying unit 112C acquires the first candidate parameter from the storage unit 140 (S12). The parameter specifying unit 112C obtains a determination result by determining whether or not an event in the region has occurred in the input moving image using the acquired candidate parameters.

続いて、パラメータ特定部112Cは、判定結果が変化しない限り(S13において「No」)、次の候補パラメータを取得し(S14)、取得した候補パラメータを用いて入力動画像にその領域の事象が生じているか否かを判定することによって、判定結果を得て、S13に動作を移行させる。一方、パラメータ特定部112Cは、判定結果が変化した場合(S13において「Yes」)、判定結果が変化した際の候補パラメータに基づいて、その領域の判定用パラメータを特定する(S17)。 Subsequently, the parameter specifying unit 112C acquires the next candidate parameter (S14) unless the determination result changes (“No” in S13), and the acquired candidate parameter is used to display an event in that region in the input moving image. By determining whether or not it has occurred, a determination result is obtained, and the operation is shifted to S13. On the other hand, when the determination result changes (“Yes” in S13), the parameter specifying unit 112C specifies the determination parameter in the region based on the candidate parameter when the determination result changes (S17).

パラメータ特定部112Cは、全領域の判定用パラメータを特定しない限り(S18において「No」)、次の領域の座標を取得し(S19)、取得した候補パラメータを用いて入力動画像にその領域の事象が生じているか否かを判定することによって、判定結果を得て、S13に動作を移行させる。一方、パラメータ特定部112Cは、全領域の判定用パラメータを特定した場合(S18において「Yes」)、判定用パラメータ特定の動作を終了させる。 Unless the determination parameter of the entire area is specified (“No” in S18), the parameter specifying unit 112C acquires the coordinates of the next area (S19), and uses the acquired candidate parameters to input the area to the input moving image. By determining whether or not an event has occurred, a determination result is obtained, and the operation is shifted to S13. On the other hand, when the parameter specifying unit 112C specifies the determination parameter in the entire region (“Yes” in S18), the parameter specifying unit 112C ends the operation of specifying the determination parameter.

以上、第4の実施形態について説明した。 The fourth embodiment has been described above.

(5.ハードウェア構成例)
続いて、本発明の実施形態に係る画像処理装置10のハードウェア構成例について説明する。
(5. Hardware configuration example)
Subsequently, a hardware configuration example of the image processing device 10 according to the embodiment of the present invention will be described.

図23は、本発明の実施形態に係る画像処理装置10のハードウェア構成を示す図である。画像処理装置10は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。 FIG. 23 is a diagram showing a hardware configuration of the image processing device 10 according to the embodiment of the present invention. The image processing device 10 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, a host bus 904, a bridge 905, an external bus 906, and an interface 907. , An input device 908, an output device 909, a storage device 910, and a communication device 911.

CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って画像処理装置10内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。 The CPU 901 functions as an arithmetic processing device and a control device, and controls the overall operation in the image processing device 10 according to various programs. Further, the CPU 901 may be a microprocessor. The ROM 902 stores programs, calculation parameters, and the like used by the CPU 901. The RAM 903 temporarily stores a program used in the execution of the CPU 901, parameters that are appropriately changed in the execution, and the like. These are connected to each other by a host bus 904 composed of a CPU bus or the like.

ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。 The host bus 904 is connected to an external bus 906 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 905. It is not always necessary to separately configure the host bus 904, the bridge 905, and the external bus 906, and these functions may be implemented in one bus.

入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。画像処理装置10を操作するユーザは、この入力装置908を操作することにより、画像処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。 The input device 908 includes input means for the user to input information such as a mouse, keyboard, touch panel, buttons, microphone, switch, and lever, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 901. And so on. By operating the input device 908, the user who operates the image processing device 10 can input various data to the image processing device 10 and instruct the processing operation.

出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。 The output device 909 includes, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Node) device, a display device such as a lamp, and an audio output device such as a speaker.

ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。 The storage device 910 is a device for storing data. The storage device 910 may include a storage medium, a recording device for recording data on the storage medium, a reading device for reading data from the storage medium, a deleting device for deleting the data recorded on the storage medium, and the like. The storage device 910 is composed of, for example, an HDD (Hard Disk Drive). The storage device 910 drives a hard disk and stores programs and various data executed by the CPU 901.

通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。 The communication device 911 is, for example, a communication interface composed of a communication device or the like for connecting to a network. Further, the communication device 911 may support either wireless communication or wired communication.

以上において、本発明の実施形態の詳細について説明した。 In the above, the details of the embodiment of the present invention have been described.

(5.本実施形態の効果)
以上に説明したように、本実施形態によれば、先頭から末尾まで昇順または降順に並べられた複数通りの候補パラメータと入力動画像とを取得するデータ取得部111と、複数通りの候補パラメータの先頭から順に用いて、入力動画像に所定の事象が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定し、判定結果が変化する候補パラメータに基づいて、撮像動画像に事象が生じているか否かを判定するための判定用パラメータを特定するパラメータ特定部112Aと、を備える、画像処理装置10Aが提供される。
(5. Effect of this embodiment)
As described above, according to the present embodiment, the data acquisition unit 111 for acquiring a plurality of candidate parameters arranged in ascending or descending order from the beginning to the end and the input moving image, and the plurality of candidate parameters. Using in order from the beginning, it is repeatedly determined whether or not a predetermined event has occurred in the input moving image until at least the judgment result changes, and an event occurs in the captured moving image based on the candidate parameters in which the judgment result changes. An image processing device 10A is provided, which includes a parameter specifying unit 112A for specifying a determination parameter for determining whether or not the data is used.

かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。したがって、かかる構成によれば、撮像動画像に異常が生じているか否かをより高精度に判定することが可能となる。 According to such a configuration, it is possible to specify a determination parameter so that the condition for abnormality determination is not too loose, while reducing the possibility of erroneous determination by the state determination unit 113. Therefore, according to such a configuration, it is possible to determine with higher accuracy whether or not an abnormality has occurred in the captured moving image.

(6.変形例の説明)
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
(6. Explanation of modified example)
Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person having ordinary knowledge in the field of technology to which the present invention belongs can come up with various modifications or modifications within the scope of the technical idea described in the claims. , These are also naturally understood to belong to the technical scope of the present invention.

例えば、上記では、撮像装置30がPTZ(パン・チルト・ズーム)カメラであってもよい旨を説明した。しかし、撮像装置30の撮像範囲がPTZによって変化してしまうと、意図しないタイミングで検出対象領域に異常状態が発生したと判定されてしまう可能性がある。そこで、PTZが実行されるときには、状態判定部113による判定が実行されないようにするとよい。あるいは、PTZが実行されるときには、検知結果表示制御部114による表示制御がなされないようにするとよい。 For example, in the above description, the imaging device 30 may be a PTZ (pan / tilt / zoom) camera. However, if the imaging range of the imaging device 30 is changed by the PTZ, it may be determined that an abnormal state has occurred in the detection target region at an unintended timing. Therefore, when PTZ is executed, it is preferable not to execute the determination by the state determination unit 113. Alternatively, when PTZ is executed, it is preferable that the display control by the detection result display control unit 114 is not performed.

1(1A、1B、1C、1D) 画像処理システム
10(10A、10B、10C、10D) 画像処理装置
30 撮像装置
110(110A、110B、110C、110D) 制御部
111 データ取得部
112(112A、112B、112C) パラメータ特定部
113 状態判定部
114 検知結果表示制御部
115 オプティカルフロー検出部
116 オプティカルフロー表示制御部
117 パラメータ変更部
118 パラメータ情報記録制御部
119 パラメータ情報表示制御部
121 領域情報取得部
120 操作部
130 通信部
140 記憶部
150 表示部
1 (1A, 1B, 1C, 1D) Image processing system 10 (10A, 10B, 10C, 10D) Image processing device 30 Imaging device 110 (110A, 110B, 110C, 110D) Control unit 111 Data acquisition unit 112 (112A, 112B) , 112C) Parameter specification unit 113 Status determination unit 114 Detection result display control unit 115 Optical flow detection unit 116 Optical flow display control unit 117 Parameter change unit 118 Parameter information recording control unit 119 Parameter information display control unit 121 Area information acquisition unit 120 Operation Unit 130 Communication unit 140 Storage unit 150 Display unit

Claims (15)

先頭から末尾まで昇順または降順に並べられた複数通りの候補パラメータと入力動画像とを取得するデータ取得部と、
前記複数通りの候補パラメータの先頭から順に用いて、前記入力動画像に所定の事象が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定し、前記判定結果が変化する候補パラメータに基づいて、撮像動画像に前記事象が生じているか否かを判定するための判定用パラメータを特定するパラメータ特定部と、
を備え
前記パラメータ特定部は、
前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、
前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータの一つ前の候補パラメータを、前記判定用パラメータとして特定する、
画像処理装置。
A data acquisition unit that acquires multiple candidate parameters and input video images arranged in ascending or descending order from the beginning to the end.
Using the plurality of candidate parameters in order from the beginning, it is repeatedly determined whether or not a predetermined event has occurred in the input moving image until at least the determination result changes, and based on the candidate parameter in which the determination result changes. A parameter specifying unit that specifies a determination parameter for determining whether or not the event has occurred in the captured moving image, and a parameter specifying unit.
Equipped with a,
The parameter specifying part is
When the input moving image in which the event does not occur is acquired by the data acquisition unit,
A candidate parameter that no longer determines that the event has occurred in the input moving image, or a candidate parameter that is one before the candidate parameter that has begun to determine that the event has occurred in the input moving image. Specified as the determination parameter,
Image processing device.
前記パラメータ特定部は
記データ取得部によって前記事象が生じている前記入力動画像が取得された場合、
前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータの一つ前の候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータを、前記判定用パラメータとして特定する、
請求項1に記載の像処理装置。
The parameter identification unit,
If the input moving image in which the event has occurred is obtained by pre-Symbol data acquisition unit,
The candidate parameter immediately before the candidate parameter that is no longer determined to have the event in the input moving image, or the candidate parameter that has begun to determine that the event has occurred in the input moving image. Specified as the determination parameter,
Images it is processing device according to claim 1.
先頭から末尾まで昇順または降順に並べられた複数通りの候補パラメータと入力動画像とを取得するデータ取得部と、 A data acquisition unit that acquires multiple candidate parameters and input video images arranged in ascending or descending order from the beginning to the end.
前記複数通りの候補パラメータの先頭から順に用いて、前記入力動画像に所定の事象が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定し、前記判定結果が変化する候補パラメータに基づいて、撮像動画像に前記事象が生じているか否かを判定するための判定用パラメータを特定するパラメータ特定部と、 Using the plurality of candidate parameters in order from the beginning, it is repeatedly determined whether or not a predetermined event has occurred in the input moving image until at least the determination result changes, and based on the candidate parameter in which the determination result changes. A parameter specifying unit that specifies a determination parameter for determining whether or not the event has occurred in the captured moving image, and a parameter specifying unit.
を備え、 With
前記パラメータ特定部は、 The parameter specifying part is
前記データ取得部によって前記事象が生じている前記入力動画像が取得された場合、 When the input moving image in which the event occurs is acquired by the data acquisition unit,
前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータの一つ前の候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータを、前記判定用パラメータとして特定する、 The candidate parameter immediately before the candidate parameter that is no longer determined to have the event in the input moving image, or the candidate parameter that has begun to determine that the event has occurred in the input moving image. Specified as the determination parameter,
画像処理装置。 Image processing device.
前記画像処理装置は、
前記判定用パラメータを用いて、前記撮像動画像に前記事象が生じているか否かを判定する状態判定部を備える、
請求項1〜3のいずれか一項に記載の画像処理装置。
The image processing device is
A state determination unit for determining whether or not the event has occurred in the captured moving image by using the determination parameter is provided.
The image processing apparatus according to any one of claims 1 to 3.
前記画像処理装置は、
前記撮像動画像に前記事象が生じていると判定された場合、前記事象の検知結果の表示を制御する検知結果表示制御部を備える、
請求項1〜4のいずれか一項に記載の画像処理装置。
The image processing device is
When it is determined that the event has occurred in the captured moving image, the detection result display control unit for controlling the display of the detection result of the event is provided.
The image processing apparatus according to any one of claims 1 to 4.
前記パラメータ特定部は、
前記入力動画像に基づいて、第1の時間範囲におけるオプティカルフローの対応位置ごとの平均値を第1の平均特徴量として算出するとともに前記第1の時間範囲よりも短い第2の時間範囲におけるオプティカルフローの対応位置ごとの平均値を第2の平均特徴量として算出し、前記第1の平均特徴量と前記第2の平均特徴量とに応じた所定の演算結果と閾値との関係に基づいて、前記入力動画像に前記事象が生じているか否かを判定する、
請求項1〜5のいずれか一項に記載の画像処理装置。
The parameter specifying part is
Based on the input moving image, the average value for each corresponding position of the optical flow in the first time range is calculated as the first average feature amount, and the optical in the second time range shorter than the first time range is calculated. The average value for each corresponding position of the flow is calculated as the second average feature amount, and based on the relationship between the predetermined calculation result and the threshold value according to the first average feature amount and the second average feature amount. , Determining whether or not the event has occurred in the input moving image,
The image processing apparatus according to any one of claims 1 to 5.
前記判定用パラメータは、前記第1の時間範囲、前記第2の時間範囲、および、前記閾値の少なくともいずれか一つを含む、
請求項に記載の画像処理装置。
The determination parameter includes at least one of the first time range, the second time range, and the threshold value.
The image processing apparatus according to claim 6.
前記判定用パラメータは、前記オプティカルフローが算出される時間的な密度、および、前記オプティカルフローが算出される空間的な密度の少なくともいずれか一つを含む、
請求項に記載の画像処理装置。
The determination parameter includes at least one of the temporal density in which the optical flow is calculated and the spatial density in which the optical flow is calculated.
The image processing apparatus according to claim 6.
前記画像処理装置は、
前記撮像動画像に基づいて検出されたオプティカルフローに応じた表示を制御するオプティカルフロー表示制御部と、
前記判定用パラメータの変更操作が入力された場合、前記判定用パラメータを変更するパラメータ変更部と、
を備える、請求項1〜8のいずれか一項に記載の画像処理装置。
The image processing device is
An optical flow display control unit that controls display according to the optical flow detected based on the captured moving image, and an optical flow display control unit.
When the operation for changing the judgment parameter is input, the parameter change unit for changing the judgment parameter and the parameter change unit.
The image processing apparatus according to any one of claims 1 to 8.
前記パラメータ特定部は、
過去に使用されたパラメータが記録されている場合、前記過去に使用されたパラメータを用いて、前記入力動画像に前記過去に使用されたパラメータに対応する事象が生じているか否かを判定し、
前記画像処理装置は、
前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合かつ前記パラメータ特定部によって前記入力動画像に前記事象が生じていないと判定された場合、または、
前記データ取得部によって前記事象が生じている前記入力動画像が取得された場合かつ前記パラメータ特定部によって前記入力動画像に前記事象が生じていると判定された場合、
前記過去に使用されたパラメータおよび前記過去に使用されたパラメータに関連する情報のうち、少なくともいずれか一方の表示を制御するパラメータ情報表示制御部を備える、
請求項1〜9のいずれか一項に記載の画像処理装置。
The parameter specifying part is
When the parameters used in the past are recorded, the parameters used in the past are used to determine whether or not an event corresponding to the parameters used in the past has occurred in the input moving image.
The image processing device is
When the input moving image in which the event does not occur is acquired by the data acquisition unit and when the parameter specifying unit determines that the event does not occur in the input moving image, or
When the input moving image in which the event occurs is acquired by the data acquisition unit and when it is determined by the parameter specifying unit that the event occurs in the input moving image.
A parameter information display control unit for controlling the display of at least one of the parameters used in the past and the information related to the parameters used in the past is provided.
The image processing apparatus according to any one of claims 1 to 9.
前記過去に使用されたパラメータに関連する情報は、前記過去に使用されたパラメータを用いて判定がなされた事象の種類、前記判定に使用された動画像を撮像した撮像装置による撮像距離、および、前記撮像装置の画角の少なくともいずれか一つを含む、
請求項10に記載の画像処理装置。
Information related to the parameters used in the past includes the type of event determined using the parameters used in the past, the imaging distance by the imaging device that captured the moving image used in the determination, and Includes at least one of the angles of view of the imaging device.
The image processing apparatus according to claim 10.
前記パラメータ特定部は、
前記過去に使用されたパラメータの選択操作が入力された場合、前記過去に使用されたパラメータを前記判定用パラメータとして特定する、
請求項10または11に記載の画像処理装置。
The parameter specifying part is
When the selection operation of the parameter used in the past is input, the parameter used in the past is specified as the determination parameter.
The image processing apparatus according to claim 10 or 11.
前記パラメータ特定部は、
前記入力動画像上に設けた領域ごとの前記事象に基づいて、前記領域ごとに前記判定用パラメータを特定する、
請求項1〜12のいずれか一項に記載の画像処理装置。
The parameter specifying part is
Based on the event for each region provided on the input moving image, the determination parameter is specified for each region.
The image processing apparatus according to any one of claims 1 to 12.
コンピュータを、
先頭から末尾まで昇順または降順に並べられた複数通りの候補パラメータと入力動画像とを取得するデータ取得部と、
前記複数通りの候補パラメータの先頭から順に用いて、前記入力動画像に所定の事象が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定し、前記判定結果が変化する候補パラメータに基づいて、撮像動画像に前記事象が生じているか否かを判定するための判定用パラメータを特定するパラメータ特定部と、
を備え
前記パラメータ特定部は、
前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、
前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータの一つ前の候補パラメータを、前記判定用パラメータとして特定する、
画像処理装置として機能させるためのプログラム。
Computer,
A data acquisition unit that acquires multiple candidate parameters and input video images arranged in ascending or descending order from the beginning to the end.
Using the plurality of candidate parameters in order from the beginning, it is repeatedly determined whether or not a predetermined event has occurred in the input moving image until at least the determination result changes, and based on the candidate parameter in which the determination result changes. A parameter specifying unit that specifies a determination parameter for determining whether or not the event has occurred in the captured moving image, and a parameter specifying unit.
Equipped with a,
The parameter specifying part is
When the input moving image in which the event does not occur is acquired by the data acquisition unit,
A candidate parameter that no longer determines that the event has occurred in the input moving image, or a candidate parameter that is one before the candidate parameter that has begun to determine that the event has occurred in the input moving image. Specified as the determination parameter,
A program for functioning as an image processing device.
コンピュータを、 Computer,
先頭から末尾まで昇順または降順に並べられた複数通りの候補パラメータと入力動画像とを取得するデータ取得部と、 A data acquisition unit that acquires multiple candidate parameters and input video images arranged in ascending or descending order from the beginning to the end.
前記複数通りの候補パラメータの先頭から順に用いて、前記入力動画像に所定の事象が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定し、前記判定結果が変化する候補パラメータに基づいて、撮像動画像に前記事象が生じているか否かを判定するための判定用パラメータを特定するパラメータ特定部と、 Using the plurality of candidate parameters in order from the beginning, it is repeatedly determined whether or not a predetermined event has occurred in the input moving image until at least the determination result changes, and based on the candidate parameter in which the determination result changes. A parameter specifying unit that specifies a determination parameter for determining whether or not the event has occurred in the captured moving image, and a parameter specifying unit.
を備え、 With
前記パラメータ特定部は、 The parameter specifying part is
前記データ取得部によって前記事象が生じている前記入力動画像が取得された場合、 When the input moving image in which the event occurs is acquired by the data acquisition unit,
前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータの一つ前の候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータを、前記判定用パラメータとして特定する、 The candidate parameter immediately before the candidate parameter that is no longer determined to have the event in the input moving image, or the candidate parameter that has begun to determine that the event has occurred in the input moving image. Specified as the determination parameter,
画像処理装置として機能させるためのプログラム。 A program for functioning as an image processing device.
JP2017032855A 2017-02-24 2017-02-24 Image processing equipment and programs Active JP6862905B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017032855A JP6862905B2 (en) 2017-02-24 2017-02-24 Image processing equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017032855A JP6862905B2 (en) 2017-02-24 2017-02-24 Image processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2018136895A JP2018136895A (en) 2018-08-30
JP6862905B2 true JP6862905B2 (en) 2021-04-21

Family

ID=63366992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017032855A Active JP6862905B2 (en) 2017-02-24 2017-02-24 Image processing equipment and programs

Country Status (1)

Country Link
JP (1) JP6862905B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110290426B (en) * 2019-06-24 2022-04-19 腾讯科技(深圳)有限公司 Method, device and equipment for displaying resources and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312769A (en) * 2001-04-16 2002-10-25 Matsushita Electric Ind Co Ltd Monitoring device and parameter setting method therefor
JP2006163614A (en) * 2004-12-03 2006-06-22 Matsushita Electric Ind Co Ltd Image processing device and method

Also Published As

Publication number Publication date
JP2018136895A (en) 2018-08-30

Similar Documents

Publication Publication Date Title
JP4730431B2 (en) Target tracking device
EP1622107B1 (en) System, device and method for object tracing
JP4915655B2 (en) Automatic tracking device
JP5829679B2 (en) IMAGING DEVICE, FOCUSING CONTROL METHOD OF IMAGING DEVICE, AND INTEGRATED CIRCUIT
JP5213613B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
US20180285656A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
JP5272886B2 (en) Moving object detection apparatus, moving object detection method, and computer program
US20150016671A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6347211B2 (en) Information processing system, information processing method, and program
JP7446060B2 (en) Information processing device, program and information processing method
JP6544996B2 (en) Control device and control method
JP2009140307A (en) Person detector
JP2017125974A (en) Display device, display method and program
JP6862905B2 (en) Image processing equipment and programs
JP6191160B2 (en) Image processing program and image processing apparatus
JP5697587B2 (en) Vehicle fire detection device
CN106101857A (en) The display packing of a kind of video pictures and device
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
JP2010124028A (en) Monitoring apparatus
JP5217841B2 (en) Image processing apparatus and method for supporting parameter setting relating to defect detection on image
EP3467428A1 (en) Information processing device, information processing method, program, and image capturing system
JP6058720B2 (en) Information output device, detection device, program, and information output method
JP5132705B2 (en) Image processing device
JP6981554B2 (en) Identification system, parameter value update method and program
JP2018055151A (en) Flame detector and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210315

R150 Certificate of patent or registration of utility model

Ref document number: 6862905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150