JP6891984B1 - Object detection device, object detection method, program and recording medium - Google Patents
Object detection device, object detection method, program and recording medium Download PDFInfo
- Publication number
- JP6891984B1 JP6891984B1 JP2020008374A JP2020008374A JP6891984B1 JP 6891984 B1 JP6891984 B1 JP 6891984B1 JP 2020008374 A JP2020008374 A JP 2020008374A JP 2020008374 A JP2020008374 A JP 2020008374A JP 6891984 B1 JP6891984 B1 JP 6891984B1
- Authority
- JP
- Japan
- Prior art keywords
- detection candidate
- candidate frame
- detection
- frame
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】物体同士の重なりの有無にかかわらず精度の高い物体検出を行うことが可能な物体検出装置を提供する。【解決手段】画像を取得する画像取得部と、画像内で物体が占める領域を囲む検出候補枠、検出候補枠内で物体が視認できる領域を含む視認領域、及び物体の識別クラスを含む検出候補情報を、学習モデルに基づいて推論して出力する推論部と、検出候補枠が複数出力されかつ互いに重なる場合に、一方を他方に統合する統合処理を行う検出候補枠統廃合部と、統合処理後の検出候補情報を出力する出力部と、を有する。検出候補枠統廃合部は、統合処理において、互いに重なる検出候補枠のうち手前側を前方検出候補枠、奥側を後方検出候補枠として特定し、後方検出候補枠内の視認領域の大きさに基づいて後方検出候補領域における物体の存在確率を算出し、前方検出候補枠と後方検出候補枠とを統合するか否かを決定する。【選択図】図1PROBLEM TO BE SOLVED: To provide an object detection device capable of performing highly accurate object detection regardless of the presence or absence of overlapping of objects. An image acquisition unit for acquiring an image, a detection candidate frame surrounding an area occupied by an object in the image, a visual recognition area including an area in which the object can be visually recognized in the detection candidate frame, and a detection candidate including an object identification class. An inference unit that infers and outputs information based on a learning model, a detection candidate frame consolidation unit that performs integrated processing that integrates one into the other when multiple detection candidate frames are output and overlaps with each other, and after integration processing It has an output unit that outputs detection candidate information of. In the integration process, the detection candidate frame consolidation unit specifies the front side of the overlapping detection candidate frames as the front detection candidate frame and the back side as the rear detection candidate frame, and is based on the size of the visible area in the rear detection candidate frame. The existence probability of the object in the rear detection candidate area is calculated, and it is determined whether or not to integrate the front detection candidate frame and the rear detection candidate frame. [Selection diagram] Fig. 1
Description
本発明は、物体検出装置、物体検出方法、プログラム及び記録媒体に関する。 The present invention relates to an object detection device, an object detection method, a program and a recording medium.
監視カメラ等により撮影された画像から、人や車等の物体を検出してカウントすることが行われている。近年では、ディープラーニングを利用して画像中にある物体の検出と識別とを同時に実行する物体検出方法が多く提案されており、検出の高精度化が図られている。 Objects such as people and cars are detected and counted from images taken by surveillance cameras and the like. In recent years, many object detection methods that simultaneously detect and identify an object in an image by using deep learning have been proposed, and the accuracy of detection has been improved.
例えば、非特許文献1では、様々なサイズの特徴マップと矩形の形を変化させるデフォルトボックス(以下、検出候補枠と称する)を用意し、最終層で損失関数を計算することにより、様々なサイズの検出枠の位置と枠サイズの推定と物体の識別クラス(例えば、車、人物、自転車等)とを同時に推論している。検出候補枠は特徴マップの数に比例して準備されるため、推論の際には複数の特徴マップに対応した複数の検出候補枠が発生することになる。 For example, in Non-Patent Document 1, feature maps of various sizes and default boxes (hereinafter referred to as detection candidate frames) that change the shape of a rectangle are prepared, and the loss function is calculated in the final layer to obtain various sizes. The position and frame size of the detection frame are estimated and the object identification class (for example, car, person, bicycle, etc.) is inferred at the same time. Since the detection candidate frames are prepared in proportion to the number of feature maps, a plurality of detection candidate frames corresponding to a plurality of feature maps are generated at the time of inference.
一般的な物体検出でマルチスケールな物体に対応しようとすると、そのサイズに対応した複数の検出候補枠を準備する必要がある。複数の検出候補枠が発生した場合、例えばnon-maximum suppression (nms)の手法を用いて、検出候補枠の中で信頼度(スコア)が極大となる検出候補枠を選択し、最終的な検出枠とすることが行われている。 When trying to correspond to a multi-scale object by general object detection, it is necessary to prepare a plurality of detection candidate frames corresponding to the size. When multiple detection candidate frames occur, for example, using the non-maximum suppression (nms) method, the detection candidate frame with the maximum reliability (score) is selected from the detection candidate frames, and the final detection is performed. A frame is being used.
しかし、nmsの手法では、例えば検出枠を示す矩形同士の重なりが大きい場合、2つの検出枠のうちの一方が選択され、他方は削除される。このため、例えば画像中に複数の物体が重なって表示されている場合、各々の物体についての検出枠を示す矩形の重なりが大きくなるため、それらの矩形が物体の検出枠としてそれぞれ正しい解であったとしても、どちらかが削除されてしまう。したがって、複数の物体間の重なりが大きい場合には、nmsの手法では対応することが難しい。nmsの閾値を調整して、重なりが大きい検出候補枠を削除せずに出力することも考えられるが、その場合、重なりの大きい誤検出を大量に出力するというトレードオフがあるため、nmsの調整だけでは解決が困難である。 However, in the nms method, for example, when the rectangles indicating the detection frames have a large overlap, one of the two detection frames is selected and the other is deleted. For this reason, for example, when a plurality of objects are overlapped and displayed in the image, the overlap of the rectangles indicating the detection frames for each object becomes large, and these rectangles are the correct solutions for the object detection frames. Even so, one of them will be deleted. Therefore, when the overlap between a plurality of objects is large, it is difficult to deal with it by the nms method. It is possible to adjust the threshold value of nms and output without deleting the detection candidate frames with large overlap, but in that case, there is a trade-off that a large amount of false detections with large overlap is output, so adjustment of nms It is difficult to solve by itself.
そこで、非特許文献2では、検出枠の位置及び物体の識別クラスの学習に加え、重なりのある対象を検出する際に有用となる物体数情報を学習する手法が提案されている。学習した物体数情報は、推論時には検出候補枠毎に物体数として出力される。非特許文献2の手法では、検出候補枠の物体数の和が1となるように検出候補枠の統合処理を行っている。 Therefore, Non-Patent Document 2 proposes a method of learning the number of objects information that is useful when detecting overlapping objects, in addition to learning the position of the detection frame and the identification class of the objects. The learned object number information is output as the number of objects for each detection candidate frame at the time of inference. In the method of Non-Patent Document 2, the detection candidate frame is integrated so that the sum of the number of objects in the detection candidate frame is 1.
上記の通り、非特許文献1にnmsを組み合わせた手法では、複数の物体同士が重なっている場合には精度の高い検出を行うことができないという問題があった。 As described above, the method of combining nms with Non-Patent Document 1 has a problem that high-precision detection cannot be performed when a plurality of objects overlap each other.
一方、非特許文献2の手法は、物体同士の重なりがある場合には有用であるものの、物体同士の重なりがない場合には検出の精度が低下する可能性がある。例えば、1つの物体につき3つの検出候補枠が発生する場合、枠の統合後の物体数が1になるように、各検出候補枠に紐づけられる物体数はそれぞれ1/3となる。物体数を1つと判定するための閾値を0.8とすると、3つの検出候補枠のうちの1つが物体から外れた位置に発生した場合、残りの2つの検出候補枠の物体数の和である2/3が閾値(0.8)を満たさなくなり、物体は未検出として扱われてしまう。また、このような事態を避けるために閾値を低く設定すると、誤検出が発生してしまうという問題があった。 On the other hand, although the method of Non-Patent Document 2 is useful when the objects overlap each other, the detection accuracy may decrease when the objects do not overlap each other. For example, when three detection candidate frames are generated for one object, the number of objects associated with each detection candidate frame is reduced to 1/3 so that the number of objects after integration of the frames is 1. Assuming that the threshold value for determining the number of objects as one is 0.8, if one of the three detection candidate frames occurs at a position outside the object, the sum of the number of objects in the remaining two detection candidate frames is used. A certain 2/3 does not meet the threshold (0.8), and the object is treated as undetected. Further, if the threshold value is set low in order to avoid such a situation, there is a problem that erroneous detection occurs.
本発明は上記問題点に鑑みてなされたものであり、物体同士の重なりの有無にかかわらず精度の高い物体検出を行うことが可能な物体検出装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an object detection device capable of performing highly accurate object detection regardless of the presence or absence of overlapping of objects.
本発明に係る物体検出装置は、画像を取得する画像取得部と、前記画像内において1の物体が占める領域を囲む検出候補枠、前記検出候補枠内で前記1の物体が視認できる領域を含む視認領域、及び前記1の物体の識別クラスを含む検出候補情報を、学習モデルに基づいて物体毎に推論して出力する推論部と、前記検出候補枠が複数出力されかつ互いに重なる検出候補枠が存在している場合に、当該互いに重なる検出候補枠のうちの一方を他方に統合する統合処理を行う検出候補枠統廃合部と、前記統合処理後に存在する検出候補枠の各々についての前記検出候補情報を出力する出力部と、を有し、前記検出候補枠統廃合部は、前記統合処理において、前記互いに重なる検出候補枠の一方を前記画像内において相対的に手前側に位置する物体に対応する検出候補枠である前方検出候補枠として特定し、前記互いに重なる検出候補枠の他方を前記画像内において相対的に奥側に位置する物体に対応する検出候補枠である後方検出候補枠として特定し、前記後方検出候補枠内の前記視認領域の大きさに基づいて、前記後方検出候補枠における前記物体の存在確率を算出し、算出された前記存在確率に基づいて、前記前方検出候補枠と前記後方検出候補枠とを統合するか否かを決定することを特徴とする。 The object detection device according to the present invention includes an image acquisition unit for acquiring an image, a detection candidate frame surrounding an area occupied by one object in the image, and a region in which the object 1 can be visually recognized in the detection candidate frame. The inference unit that infers and outputs the detection candidate information including the visual recognition area and the identification class of the object 1 for each object based on the learning model, and the detection candidate frames in which a plurality of the detection candidate frames are output and overlap each other If there is, the detection candidate frame consolidation unit that integrates one of the overlapping detection candidate frames into the other, and the detection candidate information for each of the detection candidate frames that exist after the integration process. The detection candidate frame consolidation unit has an output unit that outputs the above, and in the integration process, the detection candidate frame integration / abolition unit detects an object in which one of the detection candidate frames that overlap each other is located relatively in front of the image. It is specified as a front detection candidate frame which is a candidate frame, and the other of the detection candidate frames that overlap each other is specified as a rear detection candidate frame which is a detection candidate frame corresponding to an object located relatively behind in the image. The existence probability of the object in the rear detection candidate frame is calculated based on the size of the visible area in the rear detection candidate frame, and the front detection candidate frame and the rear are based on the calculated existence probability. It is characterized in that it is determined whether or not to integrate with the detection candidate frame.
また、本発明に係る物体検出方法は、学習モデルに基づいて画像内の物体を検出する検出装置が実行する物体検出方法であって、画像を取得するステップと、前記画像内において1の物体が占める領域を囲む検出候補枠、前記検出候補枠内で前記1の物体が視認できる領域を含む視認領域、及び前記1の物体の識別クラスを含む検出候補情報を、学習モデルに基づいて物体毎に推論して出力するステップと、前記検出候補枠が複数出力されかつ互いに重なる検出候補枠が存在している場合に、当該互いに重なる検出候補枠のうちの一方を他方に統合する統合処理を行うステップと、前記統合処理後に存在する検出候補枠の各々についての前記検出候補情報を出力するステップと、を有し、前記統合処理を行うステップは、前記互いに重なる検出候補枠の一方を前記画像内において相対的に手前側に位置する物体に対応する検出候補枠である前方検出候補枠として特定するステップと、前記互いに重なる検出候補枠の他方を前記画像内において相対的に奥側に位置する物体に対応する検出候補枠である後方検出候補枠として特定するステップと、前記後方検出候補枠内の前記視認領域の大きさに基づいて、前記後方検出候補枠における前記物体の存在確率を算出するステップと、算出された前記存在確率に基づいて、前記前方検出候補枠と前記後方検出候補枠とを統合するか否かを決定するステップと、を含むことを特徴とする。 Further, the object detection method according to the present invention is an object detection method executed by a detection device that detects an object in an image based on a learning model, in which a step of acquiring an image and one object in the image are included. The detection candidate frame surrounding the occupied area, the visible area including the area where the object 1 can be visually recognized in the detection candidate frame, and the detection candidate information including the identification class of the object 1 are obtained for each object based on the learning model. A step of inferring and outputting, and a step of performing an integration process of integrating one of the overlapping detection candidate frames into the other when a plurality of the detection candidate frames are output and there are detection candidate frames that overlap each other. And a step of outputting the detection candidate information for each of the detection candidate frames existing after the integration process, and in the step of performing the integration process, one of the detection candidate frames overlapping with each other is placed in the image. The step of specifying as the front detection candidate frame, which is the detection candidate frame corresponding to the object located on the relatively front side, and the other of the detection candidate frames overlapping with each other are set to the object located relatively on the back side in the image. A step of specifying the object as a rear detection candidate frame, which is a corresponding detection candidate frame, and a step of calculating the existence probability of the object in the rear detection candidate frame based on the size of the visible area in the rear detection candidate frame. It is characterized by including a step of determining whether or not to integrate the front detection candidate frame and the rear detection candidate frame based on the calculated existence probability.
また、本発明に係るプログラムは、コンピュータに、画像を取得するステップと、前記画像内において1の物体が占める領域を囲む検出候補枠、前記検出候補枠内で前記1の物体が視認できる領域を含む視認領域、及び前記1の物体の識別クラスを含む検出候補情報を、学習モデルに基づいて物体毎に推論して出力するステップと、前記検出候補枠が複数出力されかつ互いに重なる検出候補枠が存在している場合に、前記互いに重なる検出候補枠の一方を前記画像内において相対的に手前側に位置する物体に対応する検出候補枠である前方検出候補枠として特定するステップと、前記互いに重なる検出候補枠の他方を前記画像内において相対的に奥側に位置する物体に対応する検出候補枠である後方検出候補枠として特定するステップと、前記後方検出候補枠内の前記視認領域の大きさに基づいて、前記後方検出候補枠における前記物体の存在確率を算出するステップと、算出された前記存在確率に基づいて、前記前方検出候補枠と前記後方検出候補枠とを統合するか否かを決定するステップと、前記決定に応じて行われた統合処理後に存在する検出候補枠の各々についての前記検出候補情報を出力するステップと、を実行させることを特徴とする。
Further, the program according to the present invention provides a computer with a step of acquiring an image, a detection candidate frame surrounding an area occupied by one object in the image, and a region in which the object of one can be visually recognized in the detection candidate frame. A step of inferring and outputting the visible area including the visible area and the detection candidate information including the identification class of the object 1 for each object based on the learning model, and a detection candidate frame in which a plurality of the detection candidate frames are output and overlap each other are When present, one of the overlapping detection candidate frames overlaps with the step of specifying one of the overlapping detection candidate frames as a front detection candidate frame which is a detection candidate frame corresponding to an object located relatively in front of the image. A step of specifying the other side of the detection candidate frame as a rear detection candidate frame which is a detection candidate frame corresponding to an object located relatively in the back side of the image, and the size of the visible area in the rear detection candidate frame. based on, a step of calculating the existence probability of the object in the rear detection candidate frames, based on the calculated existence probability, whether integrated with the front detection candidate frame and the rear detection candidate frames It is characterized in that a step of determining and a step of outputting the detection candidate information for each of the detection candidate frames existing after the integration process performed in response to the determination are executed.
本発明によれば、物体同士の重なりの有無にかかわらず精度の高い物体検出を行うことが可能となる。 According to the present invention, it is possible to perform highly accurate object detection regardless of whether or not the objects overlap each other.
以下、本発明の実施例について、図面を参照して説明する。なお、以下の各実施例における説明及び添付図面においては、実質的に同一又は等価な部分には同一の参照符号を付している。 Hereinafter, examples of the present invention will be described with reference to the drawings. In the description and the accompanying drawings in each of the following examples, substantially the same or equivalent parts are designated by the same reference numerals.
図1は、本実施例の物体検出装置100の構成を示すブロック図である。物体検出装置100は、畳み込みニューラルネットワークを用いて画像内の物体を検出する検出装置である。物体検出装置100は、物体学習部10及び物体推定部20から構成されている。
FIG. 1 is a block diagram showing the configuration of the
物体検出装置100は、SSD(Single Shot Multibox Detector)の手法に基づいて、画像内の物体の検出を行う。SSDでは、検出する物体のサイズ及びアスペクト比に対応した矩形パターンの検出候補枠(デフォルトボックス)を画像に重畳して表示させ、物体の位置、大きさ及び識別クラス(例えば、車、人物、自転車等)の推論を行う。換言すれば、検出候補枠は、画像内で1の物体が占める領域を囲む矩形パターンの枠である。
The
また、本実施例では、検出候補枠とは別に、検出候補枠内において物体が視認できる領域を含む領域範囲を「視認領域」として表示させる。例えば、本実施例では、検出対象の物体が遮蔽されることなく視認可能に表示されている領域を含む矩形の領域が視認領域として表示される。以下の説明では、視認領域を示す矩形パターンの枠を視認領域枠と称する。 Further, in this embodiment, apart from the detection candidate frame, the area range including the area where the object can be visually recognized in the detection candidate frame is displayed as the “visual area”. For example, in this embodiment, a rectangular area including an area in which the object to be detected is visually displayed without being shielded is displayed as a visible area. In the following description, the frame of the rectangular pattern indicating the visible area is referred to as the visible area frame.
図2は、検出対象の物体がヒト(人物)であり、物体の前に遮蔽物が存在している場合の検出候補枠DF及び視認領域枠VFを模式的に示す図である。検出候補枠DFは、遮蔽物SLによって遮蔽されている領域も含めた人物全体の位置及び大きさを示している。一方、視認領域枠VFは、画像内の人物のうち遮蔽物SLによって遮蔽されていない視認領域の位置及び範囲を示している。 FIG. 2 is a diagram schematically showing a detection candidate frame DF and a viewing area frame VF when the object to be detected is a human (person) and a shield exists in front of the object. The detection candidate frame DF indicates the position and size of the entire person including the area shielded by the shield SL. On the other hand, the viewing area frame VF indicates the position and range of the viewing area of the person in the image that is not shielded by the shield SL.
再び図1を参照すると、物体学習部10は、物体検出のための深層学習(ディープラーニング)を行う学習装置であり、データ保管部11、学習部12及び学習モデル13を有する。
Referring to FIG. 1 again, the
データ保管部11は、例えばフラッシュメモリやHDD(Hard Disk Drive)等の半導体記憶装置から構成されている。データ保管部11は、学習部12が学習に用いるデータ(以下、学習データと称する)を保管する。例えば、本実施例では、学習対象としての画像、当該画像内の物体についての検出候補枠の正解を示す物体検出正解枠、物体の識別クラス、視認領域枠等のデータが、学習データとしてデータ保管部11に保管されている。
The data storage unit 11 is composed of a semiconductor storage device such as a flash memory or an HDD (Hard Disk Drive), for example. The data storage unit 11 stores data (hereinafter, referred to as learning data) used for learning by the
学習部12は、データ保管部11に保管されている学習データの入力を受け、SSDの手法に基づく物体検出の深層学習を行い、学習モデル(すなわち、深層学習の手法を用いて構築された数理モデル)を生成する。例えば、学習部12は識別クラス、物体検出正解枠、視認領域枠の3種のデータを学習に用い、この学習に基づいて、畳み込みニューラルネットワークの重み付け係数等のパラメータが学習モデルとして生成される。
The
学習モデル記憶部13は、フラッシュメモリやHDD等の半導体記憶装置から構成され、学習部12により生成された学習モデルを記憶する。
The learning
物体推定部20は、CPU(Central Processing Unit)等の処理制御部から構成され、物体学習部10の学習により生成された学習モデルに基づいて、画像内の物体の推定(すなわち、物体検出)を行う。
The
なお、本実施例の物体推定部20は、画像内で複数の検出候補枠に重なりが生じており、複数の物体が重なっている可能性がある場合に、検出候補枠の統合処理を行うことによって適切な検出候補枠を出力することが可能に構成されている。
The
物体推定部20は、画像取得部21、推論部22、検出候補枠統廃合部23及び出力部24を有する。これらの機能ブロックは、例えば物体推定部20が所定のプログラムを実行することにより形成される。
The
画像取得部21は、検出対象の物体を含む画像を取得する。画像取得部21は、カメラ等の撮像装置から構成されていてもよく、他の撮像装置で撮影された画像を外部から取得するように構成されていてもよい。
The
推論部22は、学習モデル記憶部13に記憶されている学習モデルに基づいて、画像取得部21によって取得された画像内の物体についての検出候補枠、物体の識別クラス、及び視認領域枠を推論する。以下の説明では、1の物体についての検出候補枠、視認領域枠及び識別クラスを「検出候補情報」とも称する。
The
検出候補枠統廃合部23は、推論部22によって推論された複数の検出候補枠の統合処理を行う。なお、本実施例では、重なりがある一対の検出候補枠のうちの一方を廃して他方のみを検出候補枠として残すことを「統合する」と称する。また、検出候補枠統廃合部23が実行する「統合処理」は、実際に検出候補枠を統合する場合の処理の他、検出候補枠を統合しないと決定して、両方の検出候補枠をそのまま残す場合の処理を含む。
The detection candidate frame consolidation /
検出候補枠統廃合部23は、全体重なり選択部231、前方候補枠選択部232、後方候補枠重なり選択部233、後方領域計算部234、後方視認領域計算部235、物体存在確率計算部236、閾値処理部237及び枠統合決定部238を有する。
The detection candidate frame consolidation /
全体重なり選択部231は、推論部によって推論された全体の検出候補枠から重なっている検出候補枠を選択する。
The total
前方候補枠選択部232は、重なっている複数の検出候補枠のうち画像内で相対的に手前側に位置する物体に対応する検出候補枠を「前方検出候補枠」として選択する。
The front candidate
後方候補枠重なり選択部233は、全体重なり選択部231により選択された検出候補枠(すなわち、重なっている検出候補枠)のうち、前方候補枠選択部232により選択された前方検出候補枠以外の検出候補枠を「後方検出候補枠」として選択する。これにより、画像内で相対的に奥側に位置する物体に対応する検出候補枠が後方検出候補枠として選択される。
The rear candidate frame
後方領域計算部234は、後方検出候補枠の中の前方検出候補枠と重なっていない領域を「後方領域」として算出する。
The rear
後方視認領域計算部235は、後方検出候補枠内における物体の視認領域を「後方視認領域」として算出する。
The rear viewing
物体存在確率計算部236は、後方領域計算部234により算出された後方領域と後方視認領域計算部235により算出された後方視認領域とに基づいて、後方検出候補枠内における物体の存在確率を算出する。
The object existence
閾値処理部237は、物体存在確率計算部236により算出された物体の存在確率と閾値とを比較する処理を行う。
The threshold
枠統合決定部238は、閾値処理部237の処理結果に基づいて、重なっている検出候補枠を統合するか否かを決定する。
The frame
出力部24は、検出候補枠統廃合部23による統合処理後に存在する検出候補枠についての検出候補情報(検出候補枠、視認領域及び物体の識別クラス)を物体推定の結果として出力する。例えば、出力部24は、画像取得部21により取得された画像に検出候補枠及び視認領域枠の各々を示す矩形パターンの枠を表示させた画像を出力する。また、出力部24は、例えば検出候補枠の色に差異を設けることにより、物体の識別クラスの情報を画像に重畳して出力する。
The
次に、本実施例の物体検出装置100が実行する物体検出の動作について説明する。なお、ここでは検出対象の物体が人物であり、画像中で2人の人物が重なって表示されている場合を例として説明を行う。
Next, the operation of object detection executed by the
物体推定部20の推論部22は、画像取得部21から画像を取得し、学習モデル記憶部13に記憶されている学習モデルに基づいて推論を行う。推論部22は、推論により得られた多数の検出候補枠、視認領域枠、及び物体の識別クラスの情報を検出候補枠統廃合部23に出力する。
The
検出候補枠統廃合部23の全体重なり選択部231は、推論部22から多数の検出候補枠の入力を受け、その中から枠同士の重なりが発生している複数の検出候補枠を選択する。
The overall
前方候補枠選択部232は、全体重なり選択部231により選択された検出候補枠の各々について、検出候補枠に占める視認領域枠の面積の割合(すなわち、視認領域枠の面積/検出候補枠の面積)を視認率として算出する。そして、前方候補枠選択部232は、視認率が最も高い検出候補枠を前方検出候補枠として選択する。
The front candidate
後方重なり選択部233は、全体重なり選択部231により選択された複数の検出候補枠のうち、前方検出候補枠を除外したものを後方検出候補枠として選択する。
The rear
図3は、前方候補枠選択部232によって選択される前方検出候補枠FF、及び後方重なり選択部233によって選択される後方検出候補枠BFの例を示す図である。なお、ここでは画像中の物体が存在する領域のみを抽出して示している。
FIG. 3 is a diagram showing an example of a front detection candidate frame FF selected by the front candidate
画像内で人物P1が人物P2よりも前方、すなわち手前側に位置しているため、人物P1の方が人物P2よりも視認率が高い。このため、人物P1の検出候補枠が前方検出候補枠FF、人物P2の検出候補枠が後方検出候補枠BFとして選択される。 Since the person P1 is located in front of the person P2 in the image, that is, on the front side, the person P1 has a higher visibility rate than the person P2. Therefore, the detection candidate frame of the person P1 is selected as the front detection candidate frame FF, and the detection candidate frame of the person P2 is selected as the rear detection candidate frame BF.
次に、後方領域計算部234は、前方検出候補枠FF及び後方検出候補枠BFに基づいて、後方の物体の枠領域である後方領域を算出する。例えば、後方検出候補枠BFの領域を第1領域A、前方検出候補枠FFの領域を第2領域Bとすると、後方領域は次の数式(1)のように表される。
Next, the rear
図4は、後方領域計算部234によって算出される後方領域RAの例を示す図である。斜線で示すように、後方検出候補枠BFのうち前方検出候補枠FFと重なっていない部分の領域が後方領域RAとして算出される。
FIG. 4 is a diagram showing an example of the rear region RA calculated by the rear
一方、後方視認領域計算部235は、後方検出候補枠BFの視認領域に基づいて、後方の物体の視認領域を後方視認領域として算出する。例えば、後方検出候補枠BFの視認領域をVAとすると、後方視認領域は次の数式(2)のように表される。
On the other hand, the rear viewing
図5は、後方視認領域計算部235によって算出される後方視認領域BVAの例を示す図である。斜線で示すように、後方の人物P2の視認領域が後方視認領域BVAとして算出される。
FIG. 5 is a diagram showing an example of a rear view area BVA calculated by the rear view
物体存在確率計算部236は、後方領域計算部234により算出された後方領域RAと、後方視認領域計算部235により算出された後方視認領域BVAとに基づいて、後方領域RAに占める後方視認領域BVAの割合を、後方の物体についての物体存在確率として算出する。後方の物体の物体存在確率は、次の数式(3)のように表される。
The object existence
例えば、後方視認領域BVAの割合が大きい場合、後方に物体が存在する蓋然性が高いため、物体存在確率が高くなる。これに対し、後方視認領域BVAの割合が小さい場合、後方に物体が存在する蓋然性が低いため、物体存在確率が低くなる。 For example, when the ratio of the rear view region BVA is large, the probability that an object exists behind is high, so that the probability of existence of an object is high. On the other hand, when the ratio of the rear view region BVA is small, the probability that an object exists behind is low, so that the probability of existence of an object is low.
閾値処理部237は、物体存在確率計算部により算出された物体存在確率を所定の閾値と比較し、後方の物体の存在確率が閾値以上なのか閾値未満なのかを判定する。
The threshold
枠統合決定部238は、閾値処理部237の判定結果に基づいて、検出後方枠の統合を行うか否かを決定する。例えば、後方の物体についての物体存在確率が閾値以上であると判定された場合、後方に物体が存在すると判断して、検出候補枠の統合を行わないと決定する。図3〜図5に示したように、前方の人物P1と重なる位置に後方の人物P2が存在している場合、検出候補枠の統合は行われず、前方検出候補枠FFが人物P1の検出候補枠として、後方検出候補枠BFが人物P2の検出候補枠として、それぞれ出力される。
The frame
一方、後方の物体についての物体存在確率が閾値未満であると判定された場合、枠統合決定部238は、後方に物体が存在しないと判断して、検出候補枠の統合を行うと決定する。例えば、物体同士の重なりが存在しないにもかかわらず、後方の物体が存在するかのように検出候補枠が誤検出された場合に、検出候補枠の統合が行われる。
On the other hand, when it is determined that the object existence probability for the rear object is less than the threshold value, the frame
図6は、このような検出候補枠の誤検出が生じた場合における、検出候補枠の統合の流れを模式的に示す図である。ここでは、図中に黒塗りで示す領域が後方の物体の視認領域BVAとして誤検出され、実線で示すような検出候補枠が後方検出候補枠BFとして誤検出された場合を示している。 FIG. 6 is a diagram schematically showing a flow of integration of detection candidate frames when such erroneous detection of detection candidate frames occurs. Here, the black-painted area in the figure is erroneously detected as the visible area BVA of the rear object, and the detection candidate frame as shown by the solid line is erroneously detected as the rear detection candidate frame BF.
前方候補枠選択部232は、重なっている検出候補枠のうち視認率が最も高い検出候補枠を前方検出候補枠として選択する。ここでは、前方検出候補枠FFの視認率が高いため、人物P1が前方に位置する人物として選択される。これにより図中に破線で示すような検出候補枠が前方検出候補枠FFとして選択される。一方、後方候補枠重なり選択部233は、実線で示す検出候補枠を後方検出候補枠BFとして選択する(STEP1)。
The front candidate
後方領域計算部234は、後方検出候補枠の中の前方検出候補枠と重なっていない領域、すなわち図中に斜線で示すような領域を後方領域RAとして算出する。また、後方視認領域計算部235は、図中に黒塗りで示す領域を後方視認領域BVAとして算出する(STEP2)。
The rear
物体存在確率計算部236は、後方領域RAに占める後方視認領域BVAの割合を、後方の物体についての物体存在確率として算出する。閾値処理部237は、算出された物体存在確率と閾値との比較を行う。例えば、閾値の値が0.6だとすると、図6に示す例において後方視認領域BVAの面積が後方領域RAの面積に占める割合が0.6に満たないため、物体存在確率は閾値未満であると判定される(STEP3)。
The object existence
枠統合決定部238は、閾値処理部237の処理結果に基づいて、検出候補枠の統合を行うか否かを決定する。ここでは、物体存在確率が閾値未満であるため、検出枠の統合が行われる。具体的には、後方検出候補枠BFFが廃され、図6に破線で示す前方検出候補枠FFのみが検出候補枠として出力される(STEP4)。
The frame
以上のように、本実施例の物体検出装置100では、視認率に基づいて後方の物体について物体存在確率を算出し、検出候補枠を統合するか否かを決定する。物体存在確率が高い場合には、画像内で物体同士の重なりが生じている可能性が高いため、検出候補枠の統合を行わない。一方、物体存在確率が低い場合には、後方の物体が存在せず、画像内で物体同士の重なりが生じていない可能性が高いため、後方検出候補枠を廃して前方検出候補枠のみを検出候補枠とする検出候補枠の統合を行う。
As described above, the
したがって、本実施例の物体検出装置100によれば、マルチスケールに対応した物体検出において検出候補枠が多数発生した場合にも、物体存在確率に応じて検出枠の統合を適宜行うことにより、物体同士の重なり発生時の物体検出の精度劣化を防ぐことができる。また、重なりが発生しない場合の精度も担保することができる。すなわち、本実施例の物体検出装置100によれば、物体同士の重なりの有無にかかわらず、精度の高い物体検出を行うことが可能となる。
Therefore, according to the
なお、本発明の実施形態は、上記実施例に記載したものに限られない。例えば、上記実施例では、閾値処理部237が所定の閾値を用いて処理を行う例について説明したが、閾値の値は動的に変更可能である。
The embodiments of the present invention are not limited to those described in the above examples. For example, in the above embodiment, an example in which the threshold
例えば、図7に示すように、人物P1及び人物P2の両方を遮蔽するように遮蔽物SLが存在している場合、算出される物体存在確率が小さいため、閾値を高い値(例えば、0.8等)に設定していると、物体存在確率が閾値未満であると判定される。その結果、検出候補枠の統合が行われ、後方の物体として人物P2が存在しているにもかかわらず、後方検出候補枠BFが出力されなくなってしまう。そこで、例えば前方検出候補枠FFの視認率に応じて閾値の値を変更し、視認率が低い場合には閾値を小さくすることにより、検出候補枠の統合が誤ってなされてしまうことを抑制することができる。 For example, as shown in FIG. 7, when the shield SL exists so as to shield both the person P1 and the person P2, the calculated object existence probability is small, so that the threshold value is set to a high value (for example, 0. When it is set to 8 etc.), it is determined that the object existence probability is less than the threshold value. As a result, the detection candidate frames are integrated, and the rear detection candidate frame BF is not output even though the person P2 exists as a rear object. Therefore, for example, by changing the threshold value according to the visibility rate of the front detection candidate frame FF and reducing the threshold value when the visibility rate is low, it is possible to prevent the detection candidate frames from being erroneously integrated. be able to.
また、上記実施例では、検出対象を人物として、画像中で2人の人物が重なって表示されている場合について説明した。しかし、検出対象は人物に限られず、犬や猫等の人間以外の生物であってもよく、車や自転車等の無生物であってもよい。また、重なっている物体の数が3つ以上の場合にも応用することが可能である。 Further, in the above embodiment, a case where two people are displayed overlapping in the image has been described with the detection target as a person. However, the detection target is not limited to a person, and may be a non-human organism such as a dog or a cat, or an inanimate object such as a car or a bicycle. It can also be applied when the number of overlapping objects is three or more.
また、上記実施例では、推論部22が学習モデルに基づいて視認領域枠の推論を行う例について説明した。しかし、画像中の画素毎に識別クラスを検出するセグメンテーションの手法を用いて、画素単位の視認領域を求めてもよい。
Further, in the above embodiment, an example in which the
また、上記実施例で説明した一連の処理は、例えばROMなどの記録媒体に格納されたプログラムに従ったコンピュータ処理により行うことができる。 Further, the series of processes described in the above embodiment can be performed by computer processing according to a program stored in a recording medium such as a ROM.
100 物体検出装置
10 物体学習部
11 データ保管部
12 学習部
13 学習モデル記憶部
20 物体推定部
21 画像取得部
22 推論部
24 出力部
23 検出候補枠統廃合部
231 全体重なり選択部
232 前方候補枠選択部
233 後方候補枠重なり選択部
234 後方領域計算部
235 後方視認領域計算部
236 物体存在確率計算部
237 閾値処理部
238 枠統合決定部
100
Claims (12)
前記画像内において1の物体が占める領域を囲む検出候補枠、前記検出候補枠内で前記1の物体が視認できる領域を含む視認領域、及び前記1の物体の識別クラスを含む検出候補情報を、学習モデルに基づいて物体毎に推論して出力する推論部と、
前記検出候補枠が複数出力されかつ互いに重なる検出候補枠が存在している場合に、当該互いに重なる検出候補枠のうちの一方を他方に統合する統合処理を行う検出候補枠統廃合部と、
前記統合処理後に存在する検出候補枠の各々についての前記検出候補情報を出力する出力部と、
を有し、
前記検出候補枠統廃合部は、前記統合処理において、
前記互いに重なる検出候補枠の一方を前記画像内において相対的に手前側に位置する物体に対応する検出候補枠である前方検出候補枠として特定し、
前記互いに重なる検出候補枠の他方を前記画像内において相対的に奥側に位置する物体に対応する検出候補枠である後方検出候補枠として特定し、
前記後方検出候補枠内の前記視認領域の大きさに基づいて、前記後方検出候補枠における前記物体の存在確率を算出し、
算出された前記存在確率に基づいて、前記前方検出候補枠と前記後方検出候補枠とを統合するか否かを決定することを特徴とする物体検出装置。 The image acquisition unit that acquires images and
The detection candidate frame surrounding the area occupied by the object 1 in the image, the visible area including the area in which the object 1 can be visually recognized in the detection candidate frame, and the detection candidate information including the identification class of the object 1. An inference unit that infers and outputs each object based on the learning model,
When a plurality of detection candidate frames are output and there are detection candidate frames that overlap each other, a detection candidate frame consolidation unit that performs an integration process for integrating one of the overlapping detection candidate frames into the other, and a detection candidate frame consolidation unit.
An output unit that outputs the detection candidate information for each of the detection candidate frames existing after the integration process, and
Have,
In the integrated process, the detection candidate frame consolidation unit
One of the detection candidate frames that overlap each other is specified as a front detection candidate frame that is a detection candidate frame corresponding to an object located relatively in front of the image.
The other of the detection candidate frames that overlap each other is specified as a rear detection candidate frame that is a detection candidate frame corresponding to an object located relatively far in the image.
Based on the size of the visible area in the rear detection candidate frame , the existence probability of the object in the rear detection candidate frame is calculated.
An object detection device for determining whether or not to integrate the front detection candidate frame and the rear detection candidate frame based on the calculated existence probability.
前記後方検出候補枠について算出された前記存在確率が前記閾値よりも高い場合には、前記後方検出候補枠と前記前方検出候補枠とを統合しないことを特徴とする請求項3に記載の物体検出装置。 When the existence probability calculated for the rear detection candidate frame is lower than the threshold value, the detection candidate frame consolidation unit integrates the rear detection candidate frame with the front detection candidate frame.
The object detection according to claim 3, wherein when the existence probability calculated for the rear detection candidate frame is higher than the threshold value, the rear detection candidate frame and the front detection candidate frame are not integrated. apparatus.
画像を取得するステップと、
前記画像内において1の物体が占める領域を囲む検出候補枠、前記検出候補枠内で前記1の物体が視認できる領域を含む視認領域、及び前記1の物体の識別クラスを含む検出候補情報を、学習モデルに基づいて物体毎に推論して出力するステップと、
前記検出候補枠が複数出力されかつ互いに重なる検出候補枠が存在している場合に、当該互いに重なる検出候補枠のうちの一方を他方に統合する統合処理を行うステップと、
前記統合処理後に存在する検出候補枠の各々についての前記検出候補情報を出力するステップと、
を有し、
前記統合処理を行うステップは、
前記互いに重なる検出候補枠の一方を前記画像内において相対的に手前側に位置する物体に対応する検出候補枠である前方検出候補枠として特定するステップと、
前記互いに重なる検出候補枠の他方を前記画像内において相対的に奥側に位置する物体に対応する検出候補枠である後方検出候補枠として特定するステップと、
前記後方検出候補枠内の前記視認領域の大きさに基づいて、前記後方検出候補枠における前記物体の存在確率を算出するステップと、
算出された前記存在確率に基づいて、前記前方検出候補枠と前記後方検出候補枠とを統合するか否かを決定するステップと、
を含むことを特徴とする物体検出方法。 An object detection method executed by a detection device that detects an object in an image based on a learning model.
Steps to get the image and
The detection candidate frame surrounding the area occupied by the object 1 in the image, the visible area including the area in which the object 1 can be visually recognized in the detection candidate frame, and the detection candidate information including the identification class of the object 1. Steps to infer and output each object based on the learning model,
When a plurality of detection candidate frames are output and there are detection candidate frames that overlap each other, a step of performing an integration process of integrating one of the detection candidate frames that overlap each other into the other.
A step of outputting the detection candidate information for each of the detection candidate frames existing after the integration process, and
Have,
The step of performing the integration process is
A step of specifying one of the detection candidate frames that overlap each other as a front detection candidate frame that is a detection candidate frame corresponding to an object located relatively in front of the image.
A step of specifying the other of the detection candidate frames that overlap each other as a rear detection candidate frame that is a detection candidate frame corresponding to an object located relatively in the back side of the image.
A step of calculating the existence probability of the object in the rear detection candidate frame based on the size of the visible area in the rear detection candidate frame, and a step of calculating the existence probability of the object in the rear detection candidate frame.
A step of determining whether or not to integrate the front detection candidate frame and the rear detection candidate frame based on the calculated existence probability, and
An object detection method comprising.
前記前方検出候補枠と前記後方検出候補枠とを統合するか否かを決定するステップでは、前記存在確率と前記閾値との比較結果に基づいて、前記後方検出候補枠を前記前方検出候補枠に統合するか否かを決定することを特徴とする請求項5又は6に記載の物体検出方法。 The step of performing the integration process includes a step of comparing the existence probability calculated for the backward detection candidate frame with the threshold value.
In the step of determining whether or not to integrate the front detection candidate frame and the rear detection candidate frame, the rear detection candidate frame is used as the front detection candidate frame based on the comparison result between the existence probability and the threshold value. The object detection method according to claim 5 or 6, wherein it is determined whether or not to integrate.
前記後方検出候補枠について算出された前記存在確率が前記閾値よりも高い場合には、前記後方検出候補枠と前記前方検出候補枠とを統合しないと決定することを特徴とする請求項7に記載の物体検出方法。 In the step of determining whether or not to integrate the front detection candidate frame and the rear detection candidate frame, if the existence probability calculated for the rear detection candidate frame is lower than the threshold value, the rear detection candidate frame It was decided to integrate the frame into the forward detection candidate frame,
The seventh aspect of claim 7, wherein when the existence probability calculated for the rear detection candidate frame is higher than the threshold value, it is determined that the rear detection candidate frame and the front detection candidate frame are not integrated. Object detection method.
画像を取得するステップと、
前記画像内において1の物体が占める領域を囲む検出候補枠、前記検出候補枠内で前記1の物体が視認できる領域を含む視認領域、及び前記1の物体の識別クラスを含む検出候補情報を、学習モデルに基づいて物体毎に推論して出力するステップと、
前記検出候補枠が複数出力されかつ互いに重なる検出候補枠が存在している場合に、 前記互いに重なる検出候補枠の一方を前記画像内において相対的に手前側に位置する物体に対応する検出候補枠である前方検出候補枠として特定するステップと、
前記互いに重なる検出候補枠の他方を前記画像内において相対的に奥側に位置する物体に対応する検出候補枠である後方検出候補枠として特定するステップと、
前記後方検出候補枠内の前記視認領域の大きさに基づいて、前記後方検出候補枠における前記物体の存在確率を算出するステップと、
算出された前記存在確率に基づいて、前記前方検出候補枠と前記後方検出候補枠とを統合するか否かを決定するステップと、
前記決定に応じて行われた統合処理後に存在する検出候補枠の各々についての前記検出候補情報を出力するステップと、
を実行させることを特徴とするプログラム。 On the computer
Steps to get the image and
The detection candidate frame surrounding the area occupied by the object 1 in the image, the visible area including the area in which the object 1 can be visually recognized in the detection candidate frame, and the detection candidate information including the identification class of the object 1. Steps to infer and output each object based on the learning model,
When a plurality of detection candidate frames are output and there are detection candidate frames that overlap each other, the detection candidate frame corresponding to an object in which one of the detection candidate frames that overlap each other is located relatively in front of the image. The step to identify as a forward detection candidate frame, which is
A step of specifying the other of the detection candidate frames that overlap each other as a rear detection candidate frame that is a detection candidate frame corresponding to an object located relatively in the back side of the image.
A step of calculating the existence probability of the object in the rear detection candidate frame based on the size of the visible area in the rear detection candidate frame, and a step of calculating the existence probability of the object in the rear detection candidate frame.
A step of determining whether or not to integrate the front detection candidate frame and the rear detection candidate frame based on the calculated existence probability, and
A step of outputting the detection candidate information for each of the detection candidate frames existing after the integration process performed according to the determination, and a step of outputting the detection candidate information.
A program characterized by executing.
前記前方検出候補枠と前記後方検出候補枠とを統合するか否かを決定するステップでは、前記存在確率と前記閾値との比較結果に基づいて、前記後方検出候補枠を前記前方検出候補枠に統合するか否かを決定することを特徴とする請求項9又は10に記載のプログラム。 Including a step of comparing the existence probability calculated in the step of calculating the existence probability of the object in the rear detection candidate frame with the threshold value.
In the step of determining whether or not to integrate the front detection candidate frame and the rear detection candidate frame, the rear detection candidate frame is used as the front detection candidate frame based on the comparison result between the existence probability and the threshold value. The program according to claim 9 or 10, wherein it determines whether or not to integrate.
前記後方検出候補枠について算出された前記存在確率が前記閾値よりも高い場合には、前記後方検出候補枠と前記前方検出候補枠とを統合しないと決定することを特徴とする請求項11に記載のプログラム。 In the step of determining whether or not to integrate the front detection candidate frame and the rear detection candidate frame, if the existence probability calculated for the rear detection candidate frame is lower than the threshold value, the rear detection candidate frame It was decided to integrate the frame into the forward detection candidate frame,
The eleventh aspect of claim 11, wherein when the existence probability calculated for the rear detection candidate frame is higher than the threshold value, it is determined that the rear detection candidate frame and the front detection candidate frame are not integrated. Program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020008374A JP6891984B1 (en) | 2020-01-22 | 2020-01-22 | Object detection device, object detection method, program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020008374A JP6891984B1 (en) | 2020-01-22 | 2020-01-22 | Object detection device, object detection method, program and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6891984B1 true JP6891984B1 (en) | 2021-06-18 |
JP2021117530A JP2021117530A (en) | 2021-08-10 |
Family
ID=76429650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020008374A Active JP6891984B1 (en) | 2020-01-22 | 2020-01-22 | Object detection device, object detection method, program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6891984B1 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013011950A (en) * | 2011-06-28 | 2013-01-17 | Canon Inc | Image processing apparatus, image processing method, and program |
JP6620443B2 (en) * | 2015-07-17 | 2019-12-18 | 富士通株式会社 | Monitoring program, monitoring apparatus, and monitoring method |
JP2018180945A (en) * | 2017-04-13 | 2018-11-15 | 株式会社豊田中央研究所 | Object detection apparatus and program |
-
2020
- 2020-01-22 JP JP2020008374A patent/JP6891984B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021117530A (en) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5712774B2 (en) | Object detection method and apparatus | |
US11450114B2 (en) | Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects | |
JP6494253B2 (en) | Object detection apparatus, object detection method, image recognition apparatus, and computer program | |
US10506174B2 (en) | Information processing apparatus and method for identifying objects and instructing a capturing apparatus, and storage medium for performing the processes | |
US8995714B2 (en) | Information creation device for estimating object position and information creation method and program for estimating object position | |
US10255673B2 (en) | Apparatus and method for detecting object in image, and apparatus and method for computer-aided diagnosis | |
US11915430B2 (en) | Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity | |
JP6616521B2 (en) | Image processing device | |
CN110059666B (en) | Attention detection method and device | |
JP6385419B2 (en) | Object detection device | |
JP2016085487A (en) | Information processing device, information processing method and computer program | |
US20150146006A1 (en) | Display control apparatus and display control method | |
US10691956B2 (en) | Information processing apparatus, information processing system, information processing method, and storage medium having determination areas corresponding to waiting line | |
WO2020008667A1 (en) | System and method for video anomaly detection | |
JP7354767B2 (en) | Object tracking device and object tracking method | |
JP2020149642A (en) | Object tracking device and object tracking method | |
KR102101623B1 (en) | Method and apparatus for detecting informal situation using image | |
US11521392B2 (en) | Image processing apparatus and image processing method for image analysis process | |
KR20160037480A (en) | Method for establishing region of interest in intelligent video analytics and video analysis apparatus using the same | |
US12002218B2 (en) | Method and apparatus with object tracking | |
CN116580182B (en) | Method, system, equipment and storage medium for automatically-adjusted target detection | |
JP6891984B1 (en) | Object detection device, object detection method, program and recording medium | |
US11461597B2 (en) | Object likelihood estimation device, method, and program | |
JPWO2018179119A1 (en) | Video analysis device, video analysis method, and program | |
JP7214437B2 (en) | Information processing device, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210427 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6891984 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |