JP7314645B2 - OBJECT DETECTION PROGRAM, OBJECT DETECTION METHOD, AND OBJECT DETECTION DEVICE - Google Patents

OBJECT DETECTION PROGRAM, OBJECT DETECTION METHOD, AND OBJECT DETECTION DEVICE Download PDF

Info

Publication number
JP7314645B2
JP7314645B2 JP2019117022A JP2019117022A JP7314645B2 JP 7314645 B2 JP7314645 B2 JP 7314645B2 JP 2019117022 A JP2019117022 A JP 2019117022A JP 2019117022 A JP2019117022 A JP 2019117022A JP 7314645 B2 JP7314645 B2 JP 7314645B2
Authority
JP
Japan
Prior art keywords
detection
image
detected
masked
object image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019117022A
Other languages
Japanese (ja)
Other versions
JP2021005128A (en
Inventor
稜 大岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019117022A priority Critical patent/JP7314645B2/en
Publication of JP2021005128A publication Critical patent/JP2021005128A/en
Application granted granted Critical
Publication of JP7314645B2 publication Critical patent/JP7314645B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、物体検出プログラム、物体検出方法、及び、物体検出装置に関する。 The present invention relates to an object detection program, an object detection method, and an object detection device.

例えば、事件または事故などにおいて捜索対象の物体である車両または人物の画像である物体画像を検出するために、防犯カメラから取得される大量の映像データの解析が行われている。しかしながら、映像データの解析による物体画像の検出精度は依然100%ではなく、映像データに捜索対象の物体画像が含まれていても、適切に検出されない場合がある。 For example, a large amount of video data acquired from a security camera is analyzed in order to detect an object image, which is an image of a vehicle or a person, which is an object to be searched for in an incident or accident. However, the detection accuracy of the object image by video data analysis is still not 100%, and even if the object image to be searched is included in the video data, it may not be detected appropriately.

検出精度を100%に近づけるために多くの対策が施されているが、様々な条件で撮影される映像データの全てにおいて、物体画像の検出精度を100%に近づけることは困難である。検出精度が100%でないと、映像データに含まれているにもかかわらず検出されていない可能性がある物体画像を探すために、映像データを、例えば、肉眼で再検討することとなり、時間及び労力を要している。 Many measures have been taken to bring the detection accuracy close to 100%, but it is difficult to bring the object image detection accuracy close to 100% for all video data shot under various conditions. If the detection accuracy is not 100%, the video data will have to be reexamined, for example, with the naked eye in order to search for object images that may not have been detected even though they are included in the video data, which takes time and effort.

特開2015-222881号公報JP 2015-222881 A

肉眼での再検討を容易にするために、映像データの解析によって検出された物体画像をマスクした映像データを生成する技術が存在する。しかしながら、画像解析によって検出されなかった、即ち、検出が困難である物体画像の検出は、物体画像をマスクしただけでは困難である場合がある。 In order to facilitate reexamination with the naked eye, there is a technique for generating video data by masking an object image detected by video data analysis. However, it may be difficult to detect an object image that is not detected by image analysis, that is, is difficult to detect, simply by masking the object image.

本発明は、1つの側面として、映像データからの検出が困難である物体画像の検出精度を向上させることを目的とする。 An object of the present invention, as one aspect, is to improve the detection accuracy of an object image that is difficult to detect from video data.

1つの実施形態では、設定された検出条件に基づいて、検出対象画像から所定の物体を表す物体画像を検出する第1検出処理を実行し、検出対象画像における第1検出処理で検出した物体画像をマスクしたマスク済み画像を生成する。生成されたマスク済み画像から所定の物体を表す物体画像を過検出可能とする処理を行った後、マスク済み画像から物体画像を検出する第2検出処理を実行する。 In one embodiment, a first detection process is executed to detect an object image representing a predetermined object from a detection target image based on set detection conditions, and a masked image is generated by masking the object image detected in the first detection process in the detection target image. After performing processing for enabling over-detection of an object image representing a predetermined object from the generated masked image, second detection processing for detecting an object image from the masked image is performed.

本発明は、1つの側面として、映像データからの検出が困難である物体画像の検出精度を向上させることができる。 As one aspect of the present invention, it is possible to improve the detection accuracy of an object image that is difficult to detect from video data.

実施形態に係る物体検出装置の一例を示すブロック図である。1 is a block diagram showing an example of an object detection device according to an embodiment; FIG. 物体画像を囲む矩形の一例を示す概要図である。FIG. 4 is a schematic diagram showing an example of a rectangle enclosing an object image; 物体画像を囲む矩形の一例を示す概要図である。FIG. 4 is a schematic diagram showing an example of a rectangle enclosing an object image; 矩形領域内の画像の一例を示す概要図である。FIG. 4 is a schematic diagram showing an example of an image within a rectangular area; 物体画像をマスクするために使用する静止画像の一例を示す概要図である。1 is a schematic diagram showing an example of a still image used to mask an object image; FIG. 物体画像をマスクするために使用する画像の一例を示す概要図である。1 is a schematic diagram showing an example of an image used to mask an object image; FIG. 物体画像がマスクされた検出対象画像の一例を示す概要図である。FIG. 4 is a schematic diagram showing an example of a detection target image in which an object image is masked; 物体画像がマスクされたマスク済み画像の一例を示す概要図である。FIG. 4 is a schematic diagram showing an example of a masked image in which an object image is masked; 検出された物体画像を強調して表示した画像の一例を示す概要図である。FIG. 4 is a schematic diagram showing an example of an image in which a detected object image is emphasized and displayed; 検出された物体画像を強調して表示した画像の一例を示す概要図である。FIG. 4 is a schematic diagram showing an example of an image in which a detected object image is emphasized and displayed; 検出された物体画像を強調して表示した画像の一例を示す概要図である。FIG. 4 is a schematic diagram showing an example of an image in which a detected object image is emphasized and displayed; 物体画像を囲む矩形の一例を示す概要図である。FIG. 4 is a schematic diagram showing an example of a rectangle enclosing an object image; マスク済み画像において検出された物体画像を囲む矩形の一例を示す概要図である。FIG. 4 is a schematic diagram showing an example of a rectangle enclosing an object image detected in a masked image; 物体検出装置のハードウェアの一例を示すブロック図である。It is a block diagram which shows an example of the hardware of an object detection apparatus. 物体検出処理の一例を示すフローチャートである。6 is a flowchart showing an example of object detection processing; 第1検出部の検出結果及び第2検出部の検出結果を例示する概要図である。FIG. 5 is a schematic diagram illustrating detection results of a first detection unit and detection results of a second detection unit;

以下、図面を参照して実施形態の一例を詳細に説明する。 An example of an embodiment will be described in detail below with reference to the drawings.

図1に示す物体検出装置10は、映像データ入力部11、第1検出部12、マスク部13、第2検出部14、及び、映像データ出力部15を含む。映像データ入力部11は、例えば、街頭などに設置された監視カメラで撮影された映像データを入力し、映像データから所定時間毎の静止画像を抽出する。所定時間は、例えば、1/30[秒]であってよい。 Object detection device 10 shown in FIG. The video data input unit 11 inputs video data captured by a surveillance camera installed on the street, for example, and extracts still images at predetermined time intervals from the video data. The predetermined time may be, for example, 1/30 [second].

第1検出部12は、検出対象画像である静止画像の各々から設定された検出条件に基づいて、検出対象となる人物または車両などである所定の物体を表す物体画像を検出する第1検出処理を実行する。検出条件は、例えば、予めユーザによって設定され、物体画像の検出には、既知の手法を使用する。第1検出部12は、検出された物体画像の静止画像上の座標を取得する。検出された物体画像の座標とは、例えば、検出された物体画像を囲む矩形の左上及び右下頂点の座標であってよい。なお、物体は、人物または車両に限定されない。例えば、人物が装着している装着物、または、車両に装着されている装着物などであってもよい。 The first detection unit 12 performs a first detection process for detecting an object image representing a predetermined object such as a person or vehicle to be detected based on detection conditions set from each of still images that are detection target images. The detection conditions are set in advance by the user, for example, and a known technique is used to detect the object image. The first detection unit 12 acquires the coordinates of the detected object image on the still image. The coordinates of the detected object image may be, for example, the coordinates of the upper left and lower right vertices of a rectangle surrounding the detected object image. Note that the object is not limited to a person or a vehicle. For example, it may be an item worn by a person or an item attached to a vehicle.

図2Aに、検出対象画像から検出された物体画像を囲む矩形の左上頂点A及び右下頂点Bを例示する。ここでは、「歩いている人」を検出している。図2B及び図2Cに例示するように、図2Bにおいて矩形で囲まれた矩形領域内の画像Pを、図2Cに例示するように切り出し、検出結果の確認に利用してもよい。 FIG. 2A illustrates an upper left vertex A and a lower right vertex B of a rectangle surrounding an object image detected from a detection target image. Here, a "walking person" is detected. As illustrated in FIGS. 2B and 2C, the image P within the rectangular area surrounded by the rectangle in FIG. 2B may be cut out as illustrated in FIG. 2C and used to confirm the detection result.

マスク部13は、検出対象画像の矩形領域内の画像Pをマスクする。詳細には、マスク部13は、今回第1検出部12で検出された物体画像を囲む矩形の矩形領域RCと、以前第1検出部12で物体画像の検出が行われた静止画像R上の矩形領域RPとが重複するか否か判定する。重複しないと判定された場合に、矩形領域RC内の画像である画像Pを静止画像Rの矩形領域RCに対応する位置の画像と置き換えることで画像Pをマスクする。即ち、マスク部13は、第1検出部12で検出した物体画像の位置に対応する検出対象物体の背景画像を使用して、検出した物体画像をマスクする。 The masking unit 13 masks the image P within the rectangular area of the detection target image. Specifically, the mask unit 13 determines whether or not the rectangular area RC surrounding the object image detected by the first detection unit 12 this time overlaps with the rectangular area RP on the still image R in which the object image was previously detected by the first detection unit 12. If it is determined that they do not overlap, the image P, which is an image within the rectangular area RC, is replaced with an image at a position corresponding to the rectangular area RC of the still image R, thereby masking the image P. FIG. That is, the masking unit 13 uses the background image of the detection target object corresponding to the position of the object image detected by the first detection unit 12 to mask the detected object image.

また、マスク部13は、上記判定において、重複しないと判定される静止画像Rが存在しない場合には、例えば、所定の色で矩形領域RCを塗りつぶすことでマスクする。 Further, if there is no still image R that is determined to be non-overlapping in the above determination, the masking unit 13 masks the rectangular area RC by, for example, filling it with a predetermined color.

図3Aは、上記判定において、重複しないと判定される静止画像Rを例示する。静止画像Rは、映像データ入力部11から入力された映像データから抽出された静止画像の内、物体検出処理済みの静止画像から検索されてもよい。また、映像データ入力部11から入力された映像データを撮影した固定カメラで撮影され保存されていた映像データから抽出された静止画像の内、物体検出処理済みの静止画像から検索されてもよい。図3Bは、図3Aの静止画像の矩形領域RCに対応する位置の画像Qを例示する。 FIG. 3A illustrates still images R that are determined not to overlap in the above determination. The still image R may be searched from among still images extracted from the video data input from the video data input unit 11, which have undergone object detection processing. Further, among the still images extracted from the video data captured by the fixed camera that captured the video data input from the video data input unit 11 and stored, the still image that has undergone the object detection processing may be retrieved. FIG. 3B illustrates an image Q at a position corresponding to the rectangular area RC of the still image of FIG. 3A.

図3Cは、第1検出部12で検出された物体画像を囲む矩形の矩形領域RCを、画像Qでマスクしたマスク済み画像を例示する。重複しないと判定される静止画像Rが存在しない場合、図3Dに例示するように、所定の色で矩形領域RCを塗りつぶすことでマスクする。所定の色は、例えば、ユーザによって、RGB値が予め指定されることで決定されてもよい。また、所定の色に代えて、所定のパターンであってもよい。 FIG. 3C exemplifies a masked image obtained by masking, with an image Q, a rectangular area RC surrounding the object image detected by the first detection unit 12 . If there is no still image R that is determined to be non-overlapping, it is masked by filling the rectangular area RC with a predetermined color, as illustrated in FIG. 3D. The predetermined color may be determined by specifying RGB values in advance by the user, for example. Also, a predetermined pattern may be used instead of the predetermined color.

第2検出部14は、矩形領域、即ち、第1検出部12で検出された物体画像をマスクした静止画像であるマスク済み画像から、再度同一物体画像を検出する第2検出処理を実行する。第2検出部14は、第1検出部12で検出しようとした物体画像を過検出するような検出を行う。即ち、第2検出部14は、物体画像が過検出されるようにマスク済み画像を加工するか、または、第1検出部12で使用した検出条件を物体画像が過検出されるように変更した検出条件を使用して検出を行う。 The second detection unit 14 performs second detection processing for detecting the same object image again from the rectangular area, ie, the masked image, which is a still image obtained by masking the object image detected by the first detection unit 12 . The second detection unit 14 performs detection such that the object image to be detected by the first detection unit 12 is over-detected. That is, the second detection unit 14 either processes the masked image so that the object image is over-detected, or detects by using a detection condition that is obtained by changing the detection conditions used in the first detection unit 12 so that the object image is over-detected.

第2検出部14では、第1検出部12で使用した検出条件に基づいて、物体画像を過検出可能とする処理を行う。したがって、ユーザは、第2検出部14での検出のために別途検出条件を設定しなくてよい。また、第2検出部14では、検出した物体画像を強調して表示するための処理を行う。 Based on the detection conditions used by the first detection unit 12, the second detection unit 14 performs processing to enable over-detection of the object image. Therefore, the user does not have to set a separate detection condition for detection by the second detection unit 14 . Further, the second detection unit 14 performs processing for emphasizing and displaying the detected object image.

図4Aは、第1検出部12で使用した検出条件が、例えば、「所定の色を含む人物」である場合、まず、マスク済み画像に対して、当該所定の色、例えば、赤を強調する処理、即ち、R値だけを高く変更する処理を行い、赤を含む人物の検出を行う場合を例示する。これにより、第1検出部12では検出されなかった赤を含む人物が検出される。 FIG. 4A illustrates a case where, for example, when the detection condition used by the first detection unit 12 is “a person including a predetermined color,” first, the masked image is subjected to processing for emphasizing the predetermined color, for example, red, i.e., processing to increase only the R value, thereby detecting a person including red. As a result, a person including red, which was not detected by the first detection unit 12, is detected.

さらに、検出した物体画像を囲む矩形領域内において、当該所定の色、例えば、赤を強調するようにしてもよい。この場合、当該所定の色、例えば、赤であると判定された部分のR値だけを高く変更するようにしてもよいし、当該所定の色を当該所定の色とは異なる色、例えば、黄に変更してもよいし、表示される際に当該部分だけが点滅するように設定してもよい。また、当該所定の色の強調に加えて、物体画像を囲む矩形F1を静止画像に重畳してもよい。 Further, the predetermined color, such as red, may be emphasized within the rectangular area surrounding the detected object image. In this case, the predetermined color, for example, only the R value of the portion determined to be red may be changed to a higher value, the predetermined color may be changed to a different color from the predetermined color, for example, yellow, or only the portion may be set to blink when displayed. In addition to the enhancement of the predetermined color, a rectangle F1 surrounding the object image may be superimposed on the still image.

図4Bでは、第2検出部14で検出した物体画像、即ち、「所定の色を含む人物」の移動を示すベクトルであるオプティカルフローを検出し、検出したオプティカルフローを示す矢印OFをマスク済み画像に重畳する。オプティカルフローに加えて、物体画像を囲む矩形をマスク済み画像に重畳してもよい。 In FIG. 4B, the object image detected by the second detection unit 14, that is, the optical flow, which is a vector indicating the movement of "a person including a predetermined color", is detected, and an arrow OF indicating the detected optical flow is superimposed on the masked image. In addition to optical flow, a rectangle surrounding the object image may be superimposed on the masked image.

図4Cは、例えば、第1検出部12で使用した検出条件よりも検出条件を低く設定して第2検出部14で「移動している人物」を検出した画像を例示する。検出条件を低く設定する、とは、例えば、ニューラルネットワークを使用した検出において、「移動している人物である」と判定するスコアを、第1検出部12で使用した値よりも低い値に設定することである。ここでは、第1検出部12で検出されなかった人物を囲む矩形F2及び第1検出部12で検出されマスクされた人物の影を囲む矩形F3をマスク済み画像に重畳する。 FIG. 4C exemplifies an image in which a “moving person” is detected by the second detection unit 14 by setting the detection condition lower than the detection condition used by the first detection unit 12, for example. Setting a low detection condition means, for example, setting the score for determining “a moving person” in detection using a neural network to a value lower than the value used in the first detection unit 12. Here, a rectangle F2 surrounding the person not detected by the first detection unit 12 and a rectangle F3 surrounding the shadow of the masked person detected by the first detection unit 12 are superimposed on the masked image.

比較を容易にするため、図8の上図に、図2Aに例示する第1検出部12での検出結果を示し、図8の下図に図4Cで例示する第2検出部14の検出結果を示す。図8の上図に例示されるように第1検出部12では検出されなかった人物及び第1検出部12で検出されマスクされた人物の影が、図8の下図に例示されるように第2検出部14では検出される。人物の影は過検出であり不利益ではあるが、第2検出部14の検出では、第1検出部12では検出されなかった人物が検出される利益のほうが大きい。 For ease of comparison, the upper diagram of FIG. 8 shows the detection result of the first detection unit 12 illustrated in FIG. 2A, and the lower diagram of FIG. 8 shows the detection result of the second detection unit 14 illustrated in FIG. 4C. As illustrated in the upper diagram of FIG. 8, the shadow of the person not detected by the first detection unit 12 and the shadow of the person detected and masked by the first detection unit 12 is detected by the second detection unit 14 as illustrated in the lower diagram of FIG. The shadow of a person is over-detected, which is disadvantageous, but detection by the second detection unit 14 is more beneficial in detecting a person that was not detected by the first detection unit 12 .

映像データ出力部15は、第2検出部14の検出結果を示す情報を含むマスク済み画像を時系列に並べて結合することで、映像データを生成する。検出結果を示す情報は、上記した通り、検出した物体画像を強調して表示するための情報である。検出結果を示す情報は、検出された物体画像のオプティカルフローを示す矢印、検出された物体画像を囲む矩形、物体画像の検出条件を強調した情報、例えば、検出条件である色を強調した色などである。生成された映像データは、表示装置に表示されてもよいし、記憶装置に保存されてもよい。 The video data output unit 15 generates video data by arranging and combining the masked images including information indicating the detection result of the second detection unit 14 in time series. The information indicating the detection result is information for emphasizing and displaying the detected object image, as described above. The information indicating the detection result is an arrow indicating the optical flow of the detected object image, a rectangle surrounding the detected object image, information emphasizing the object image detection condition, for example, a color emphasizing the color that is the detection condition. The generated video data may be displayed on a display device or may be stored in a storage device.

なお、検出対象画像である1つの静止画像において検出する物体画像は、多数、例えば、3つ以上存在してもよい。図5Aに、第1検出部12で検出した人物の物体画像を囲む多数の矩形F4を例示する。図5Aでは、人物の物体画像が多数存在するため、矩形F4も多数存在する。 A large number of object images, for example, three or more, may be detected in one still image that is the detection target image. FIG. 5A illustrates a large number of rectangles F4 surrounding the object image of the person detected by the first detection unit 12. As shown in FIG. In FIG. 5A, since there are many object images of people, there are also many rectangles F4.

図5Bに、マスク部13で、矩形F4領域内の物体画像をマスクし、第2検出部14で、過検出するように、人物の物体画像を検出した例を示す。図5Bでは、第1検出部12で検出されていなかった右奥の人物が検出されている。右奥の人物の物体画像を囲む矩形F6を例示する。また、図5Bでは、図5Aの物体画像を囲む矩形F4に対応する矩形F5を例示しているが、矩形F5は、例えば、表示装置に表示されなくてもよい。 FIG. 5B shows an example in which the masking unit 13 masks the object image within the rectangular F4 area, and the second detection unit 14 detects the object image of a person so as to over-detect. In FIG. 5B, the person in the right back, which was not detected by the first detection unit 12, is detected. A rectangle F6 surrounding an object image of a person in the far right is illustrated. Also, FIG. 5B illustrates the rectangle F5 corresponding to the rectangle F4 surrounding the object image in FIG. 5A, but the rectangle F5 may not be displayed on the display device, for example.

物体検出装置10は、一例として、図6に示すように、CPU(Central Processing Unit)51、一次記憶部52、二次記憶部53、及び、外部インタフェース54を含む。CPU51は、ハードウェアであるプロセッサの一例である。CPU51、一次記憶部52、二次記憶部53、及び、外部インタフェース54は、バス59を介して相互に接続されている。 The object detection device 10 includes, as an example, a CPU (Central Processing Unit) 51, a primary storage unit 52, a secondary storage unit 53, and an external interface 54, as shown in FIG. The CPU 51 is an example of a processor that is hardware. The CPU 51 , primary storage unit 52 , secondary storage unit 53 and external interface 54 are interconnected via a bus 59 .

一次記憶部52は、例えば、RAM(Random Access Memory)などの揮発性のメモリである。二次記憶部53は、例えば、HDD(Hard Disk Drive)、又はSSD(Solid State Drive)などの不揮発性のメモリである。 The primary storage unit 52 is, for example, a volatile memory such as a RAM (Random Access Memory). The secondary storage unit 53 is, for example, a non-volatile memory such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

二次記憶部53は、プログラム格納領域53A及びデータ格納領域53Bを含む。プログラム格納領域53Aは、一例として、物体検出プログラムなどのプログラムを記憶している。データ格納領域53Bは、一例として、映像データなどを記憶する。 The secondary storage unit 53 includes a program storage area 53A and a data storage area 53B. The program storage area 53A stores programs such as an object detection program, for example. The data storage area 53B stores, for example, video data.

CPU51は、プログラム格納領域53Aから物体検出プログラムを読み出して一次記憶部52に展開する。CPU51は、物体検出プログラムをロードして実行することで、図1の映像データ入力部11、第1検出部12、マスク部13、第2検出部14、及び、映像データ出力部15として動作する。 The CPU 51 reads out the object detection program from the program storage area 53A and develops it in the primary storage section 52 . By loading and executing an object detection program, the CPU 51 operates as the image data input unit 11, the first detection unit 12, the mask unit 13, the second detection unit 14, and the image data output unit 15 shown in FIG.

なお、物体検出プログラムなどのプログラムは、外部サーバに記憶され、ネットワークを介して、一次記憶部52に展開されてもよい。また、物体検出プログラムなどのプログラムは、DVD(Digital Versatile Disc)などの非一時的記録媒体に記憶され、記録媒体読込装置を介して、一次記憶部52に展開されてもよい。 A program such as an object detection program may be stored in an external server and expanded to the primary storage unit 52 via a network. Also, a program such as an object detection program may be stored in a non-temporary recording medium such as a DVD (Digital Versatile Disc) and developed in the primary storage unit 52 via a recording medium reading device.

外部インタフェース54には外部装置が接続され、外部インタフェース54は、外部装置とCPU51との間の各種情報の送受信を司る。外部インタフェース54を介して接続されるカメラ21は、所定の位置に設置され、継続的に映像データを取得する監視カメラであってよい。 An external device is connected to the external interface 54 , and the external interface 54 controls transmission and reception of various information between the external device and the CPU 51 . The camera 21 connected via the external interface 54 may be a monitoring camera that is installed at a predetermined position and continuously acquires video data.

ここでは、1台のカメラ21のみを例示しているが、カメラは複数存在し、複数のカメラで撮影された映像データの各々に対し、物体検出処理が行われてもよい。同様に、外部インタフェース54を介して接続されるディスプレイ22は、例えば、第2検出部14の物体検出処理の結果を示す情報を含む映像データを表示する。カメラ21及びディスプレイ22は、外部インタフェース54に接続される代わりに、物体検出装置10に内蔵されていてもよい。 Although only one camera 21 is illustrated here, there may be a plurality of cameras, and object detection processing may be performed on each of the video data captured by the plurality of cameras. Similarly, the display 22 connected via the external interface 54 displays video data including information indicating the result of the object detection processing of the second detection section 14, for example. The camera 21 and the display 22 may be built in the object detection device 10 instead of being connected to the external interface 54 .

物体検出装置10は、例えば、パーソナルコンピュータであってもよいし、専用のデバイスであってもよい。 The object detection device 10 may be, for example, a personal computer or a dedicated device.

次に、物体検出処理の作用の概要について説明する。図7は、物体検出処理の流れを例示する。CPU51は、ステップ101で、映像データを入力する。カメラ21で取得した映像データをリアルタイムで入力してもよいし、カメラ21で取得され、データ格納部53Bまたは外部記憶装置に記憶されている映像データを入力してもよい。 Next, an outline of the action of the object detection process will be described. FIG. 7 illustrates the flow of object detection processing. The CPU 51 inputs video data in step 101 . Video data acquired by the camera 21 may be input in real time, or video data acquired by the camera 21 and stored in the data storage unit 53B or an external storage device may be input.

CPU51は、ステップ102で、映像データから所定時間毎の静止画像を抽出する。ステップ103~ステップ108の処理は、静止画像の各々に対して行われる。CPU51は、ステップ103で、設定された検出条件に基づいて、既知の検出手法を使用して物体画像を検出する。CPU51は、ステップ104で物体画像が検出されたか否か判定する。ステップ104の判定が否定された場合、即ち、物体画像が検出されなかった場合、CPU51はステップ109に進む。 At step 102, the CPU 51 extracts still images from the video data at predetermined time intervals. The processing of steps 103 to 108 is performed for each still image. At step 103, the CPU 51 detects an object image using a known detection method based on the set detection conditions. The CPU 51 determines in step 104 whether or not an object image has been detected. If the determination in step 104 is negative, that is, if the object image is not detected, the CPU 51 proceeds to step 109 .

ステップ104の判定が肯定された場合、即ち、物体画像が検出された場合、CPU51は、ステップ105で、マスクに使用できる静止画像が存在するか否か判定する。例えば、ステップ103で検出された物体画像を囲む矩形の矩形領域RCと、以前に物体画像の検出が行われた静止画像R上の物体画像を囲む矩形領域RPとが重複するか否か判定する。重複しないと判定された場合、静止画像Rがマスクに使用できるマスク画像であると判定する。 If the determination in step 104 is affirmative, that is, if an object image has been detected, the CPU 51 determines in step 105 whether or not there is a still image that can be used as a mask. For example, it is determined whether or not the rectangular area RC surrounding the object image detected in step 103 overlaps with the rectangular area RP surrounding the object image on the still image R previously detected. If it is determined that they do not overlap, it is determined that the still image R is a mask image that can be used as a mask.

ステップ105の判定が肯定された場合、CPU51は、ステップ106で、静止画像Rをマスク画像として使用して、物体画像をマスクする。例えば、検出した物体画像を囲む矩形領域RCを静止画像Rの矩形領域RCに対応する位置の画像と置き換えることで物体画像をマスクする。ステップ105の判定が否定された場合、CPU51は、ステップ107で、例えば、所定の色を使用して、検出した物体画像を囲む矩形領域RCをマスクする。 If the determination in step 105 is affirmative, the CPU 51 uses the still image R as a mask image to mask the object image in step 106 . For example, the object image is masked by replacing the rectangular area RC surrounding the detected object image with an image at a position corresponding to the rectangular area RC of the still image R. If the determination at step 105 is negative, the CPU 51 at step 107 masks the rectangular area RC surrounding the detected object image using, for example, a predetermined color.

CPU51は、ステップ108で、ステップ106または107でマスクされたマスク済み画像から物体画像を検出する。ここでも、ステップ103と同様に既知の手法を使用する。しかしながら、ステップ108では、ステップ103で検出しようとした物体画像を過検出するような検出を行う。また、ステップ108では、検出した物体画像を強調して表示するための処理を行う。 At step 108 , the CPU 51 detects an object image from the masked image masked at step 106 or 107 . Again, as in step 103, known techniques are used. However, in step 108, detection is performed such that the object image to be detected in step 103 is over-detected. Further, in step 108, a process for emphasizing and displaying the detected object image is performed.

CPU51は、ステップ109で、未処理の静止画像が存在するか否か判定する。ステップ109の判定が肯定された場合、即ち、未処理の静止画像が存在する場合、CPU51は、ステップ103に戻る。ステップ109の判定が否定された場合、即ち、未処理の静止画像が存在しない場合、CPU51は、ステップ110で、検出した物体画像を強調して表示するための処理が行われたマスク済み画像を時系列に結合して映像データを生成する。 At step 109, the CPU 51 determines whether or not an unprocessed still image exists. If the determination in step 109 is affirmative, that is, if an unprocessed still image exists, the CPU 51 returns to step 103 . If the determination in step 109 is negative, that is, if an unprocessed still image does not exist, the CPU 51 combines in time series the masked images that have undergone processing for emphasizing and displaying the detected object image to generate video data in step 110.

CPU51は、ステップ111で、例えば、ディスプレイ22に生成した映像データを出力して表示する。生成した映像データは、例えば、データ格納領域53Bに格納されてもよいし、外部記憶装置に記憶されてもよい。なお、検出された物体画像を囲む形状は矩形に限定されない。例えば、円形または楕円形などであってもよい。図7のフローチャートは一例であり、処理の順序は適宜変更されてもよい。 At step 111, the CPU 51 outputs and displays the generated image data on the display 22, for example. The generated video data may be stored, for example, in the data storage area 53B, or may be stored in an external storage device. Note that the shape surrounding the detected object image is not limited to a rectangle. For example, it may be circular or oval. The flowchart in FIG. 7 is an example, and the order of processing may be changed as appropriate.

本実施形態では、設定された検出条件に基づいて、検出対象画像から所定の物体を表す物体画像を検出する第1検出処理を実行し、検出対象画像における第1検出処理で検出した物体画像をマスクしたマスク済み画像を生成する。生成されたマスク済み画像から所定の物体を表す物体画像を過検出可能とする処理を行った後、マスク済み画像から物体画像を検出する第2検出処理を実行する。 In this embodiment, a first detection process for detecting an object image representing a predetermined object from the detection target image is executed based on the set detection conditions, and a masked image is generated by masking the object image detected in the detection target image by the first detection process. After performing processing for enabling over-detection of an object image representing a predetermined object from the generated masked image, second detection processing for detecting an object image from the masked image is performed.

即ち、本実施形態では、第1検出処理で検出された物体画像をマスクしたマスク済み画像から第2検出処理で当該物体画像を過検出するように検出している。これにより、本実施形態では、例えば、肉眼で映像データを再検討する場合、映像データからの検出が困難である物体画像の検出精度を向上させることができる。 That is, in the present embodiment, the object image detected in the first detection process is over-detected in the second detection process from the masked image obtained by masking the object image. As a result, in this embodiment, for example, when reviewing video data with the naked eye, it is possible to improve the detection accuracy of an object image that is difficult to detect from video data.

以上の各実施形態に関し、更に以下の付記を開示する。 The following supplementary remarks are further disclosed regarding each of the above embodiments.

(付記1)
設定された検出条件に基づいて、検出対象画像から所定の物体を表す物体画像を検出する第1検出処理を実行し、
前記検出対象画像における前記第1検出処理で検出した前記物体画像をマスクしたマスク済み画像を生成し、
生成された前記マスク済み画像から前記所定の物体を表す物体画像を過検出可能とする処理を行った後、前記マスク済み画像から前記物体画像を検出する第2検出処理を実行する、
物体検出処理をコンピュータに実行させるための物体検出プログラム。
(付記2)
前記物体画像を過検出可能とする処理は、
前記マスク済み画像の加工、及び、前記検出条件の変更の少なくとも一方を行って、前記マスク済み画像から、前記第1検出処理では検出されない前記物体画像を検出可能とする処理である、
付記1の物体検出プログラム。
(付記3)
前記第2検出処理の検出結果を強調して表示装置に表示する、
付記1または付記2の物体検出プログラム。
(付記4)
前記第2検出処理の検出結果を強調することは、
検出した前記物体画像にオプティカルフローを付加すること、
検出した前記物体画像の検出条件に対応する情報を強調すること、
の少なくとも一方を含む、
付記1~付記3の何れかの物体検出プログラム。
(付記5)
前記マスク済み画像を生成することは、
前記第1検出処理で検出した前記物体画像の位置に対応する前記所定の物体の背景画像を使用して、検出した前記物体画像をマスクすること、または、
所定の色またはパターンを使用して、検出した前記物体画像をマスクすること、
を含む、
付記1~付記4の何れかの物体検出プログラム。
(付記6)
コンピュータが、
設定された検出条件に基づいて、検出対象画像から所定の物体を表す物体画像を検出する第1検出処理を実行し、
前記検出対象画像における前記第1検出処理で検出した前記物体画像をマスクしたマスク済み画像を生成し、
生成された前記マスク済み画像から前記所定の物体を表す物体画像を過検出可能とする処理を行った後、前記マスク済み画像から前記物体画像を検出する第2検出処理を実行する、
物体検出方法。
(付記7)
前記物体画像を過検出可能とする処理は、
前記マスク済み画像の加工、及び、前記検出条件の変更の少なくとも一方を行って、前記マスク済み画像から、前記第1検出処理では検出されない前記物体画像を検出可能とする処理である、
付記6の物体検出方法。
(付記8)
前記第2検出処理の検出結果を強調して表示装置に表示する、
付記6または付記7の物体検出方法。
(付記9)
前記第2検出処理の検出結果を強調することは、
検出した前記物体画像にオプティカルフローを付加すること、
検出した前記物体画像の検出条件に対応する情報を強調すること、
の少なくとも一方を含む、
付記6~付記8の何れかの物体検出方法。
(付記10)
前記マスク済み画像を生成することは、
前記第1検出処理で検出した前記物体画像の位置に対応する前記所定の物体の背景画像を使用して、検出した前記物体画像をマスクすること、または、
所定の色またはパターンを使用して、検出した前記物体画像をマスクすること、
を含む、
付記6~付記9の何れかの物体検出方法。
(付記11)
設定された検出条件に基づいて、検出対象画像から所定の物体を表す物体画像を検出する第1検出処理を実行する第1検出部と、
前記第1検出部で検出した前記物体画像をマスクしたマスク済み画像を生成するマスク部と、
前記マスク部で生成された前記マスク済み画像から前記所定の物体を表す物体画像を過検出可能とする処理を行った後、前記マスク済み画像から前記物体画像を検出する第2検出処理を実行する第2検出部と、
を含む、物体検出装置。
(付記12)
前記物体画像を過検出可能とする処理は、
前記マスク済み画像の加工、及び、前記検出条件の変更の少なくとも一方を行って、前記マスク済み画像から、前記第1検出処理では検出されない前記物体画像を検出可能とする処理である、
付記11の物体検出装置。
(付記13)
前記第2検出処理の検出結果を強調して表示装置に表示する、
付記11または付記12の物体検出装置。
(付記14)
前記第2検出処理の検出結果を強調することは、
検出した前記物体画像にオプティカルフローを付加すること、
検出した前記物体画像の検出条件に対応する情報を強調すること、
の少なくとも一方を含む、
付記11~付記13の何れかの物体検出装置。
(付記15)
前記マスク済み画像を生成することは、
前記第1検出処理で検出した前記物体画像の位置に対応する前記所定の物体の背景画像を使用して、検出した前記物体画像をマスクすること、または、
所定の色またはパターンを使用して、検出した前記物体画像をマスクすること、
を含む、
付記11~付記14の何れかの物体検出装置。
(Appendix 1)
executing a first detection process for detecting an object image representing a predetermined object from the detection target image based on the set detection conditions;
generating a masked image obtained by masking the object image detected in the first detection process in the detection target image;
performing a second detection process for detecting the object image from the masked image after performing a process that enables over-detection of the object image representing the predetermined object from the generated masked image;
An object detection program for causing a computer to execute object detection processing.
(Appendix 2)
The process for enabling overdetection of the object image includes:
A process of processing the masked image and/or changing the detection conditions to make it possible to detect the object image that is not detected in the first detection process from the masked image.
The object detection program of Appendix 1.
(Appendix 3)
highlighting the detection result of the second detection process and displaying it on a display device;
The object detection program of appendix 1 or appendix 2.
(Appendix 4)
Emphasizing the detection result of the second detection process includes:
adding optical flow to the detected object image;
emphasizing information corresponding to detection conditions of the detected object image;
including at least one of
The object detection program according to any one of Appendices 1 to 3.
(Appendix 5)
Generating the masked image includes:
masking the detected object image using the background image of the predetermined object corresponding to the position of the object image detected in the first detection process; or
masking the detected object image using a predetermined color or pattern;
including,
The object detection program according to any one of Appendices 1 to 4.
(Appendix 6)
the computer
executing a first detection process for detecting an object image representing a predetermined object from the detection target image based on the set detection conditions;
generating a masked image obtained by masking the object image detected in the first detection process in the detection target image;
performing a second detection process for detecting the object image from the masked image after performing a process that enables over-detection of the object image representing the predetermined object from the generated masked image;
Object detection method.
(Appendix 7)
The process for enabling overdetection of the object image includes:
A process of processing the masked image and/or changing the detection conditions to make it possible to detect the object image that is not detected in the first detection process from the masked image.
The object detection method of appendix 6.
(Appendix 8)
highlighting the detection result of the second detection process and displaying it on a display device;
The object detection method according to appendix 6 or appendix 7.
(Appendix 9)
Emphasizing the detection result of the second detection process includes:
adding optical flow to the detected object image;
emphasizing information corresponding to detection conditions of the detected object image;
including at least one of
The object detection method according to any one of Appendices 6 to 8.
(Appendix 10)
Generating the masked image includes:
masking the detected object image using the background image of the predetermined object corresponding to the position of the object image detected in the first detection process; or
masking the detected object image using a predetermined color or pattern;
including,
The object detection method according to any one of appendices 6 to 9.
(Appendix 11)
a first detection unit that performs a first detection process for detecting an object image representing a predetermined object from the detection target image based on the set detection condition;
a mask unit that generates a masked image by masking the object image detected by the first detection unit;
a second detection unit that performs a second detection process of detecting the object image from the masked image after performing a process that enables over-detection of an object image representing the predetermined object from the masked image generated by the mask unit;
An object detection device, comprising:
(Appendix 12)
The process for enabling overdetection of the object image includes:
A process of processing the masked image and/or changing the detection conditions to make it possible to detect the object image that is not detected in the first detection process from the masked image.
The object detection device of appendix 11.
(Appendix 13)
highlighting the detection result of the second detection process and displaying it on a display device;
The object detection device according to Appendix 11 or Appendix 12.
(Appendix 14)
Emphasizing the detection result of the second detection process includes:
adding optical flow to the detected object image;
emphasizing information corresponding to detection conditions of the detected object image;
including at least one of
The object detection device according to any one of Appendices 11 to 13.
(Appendix 15)
Generating the masked image includes:
masking the detected object image using the background image of the predetermined object corresponding to the position of the object image detected in the first detection process; or
masking the detected object image using a predetermined color or pattern;
including,
The object detection device according to any one of Appendices 11 to 14.

10 物体検出装置
12 第1検出部
13 マスク部
14 第2検出部
51 CPU
52 一次記憶部
53 二次記憶部
10 object detection device 12 first detection unit 13 mask unit 14 second detection unit 51 CPU
52 primary storage unit 53 secondary storage unit

Claims (7)

設定された検出条件に基づいて、検出対象画像から所定の特徴を示す物体を表す物体画像を検出する第1検出処理を実行し、
前記検出対象画像における前記第1検出処理で検出した前記物体画像をマスクしたマスク済み画像を生成し、
生成された前記マスク済み画像から前記所定の特徴を示す物体と同一の特徴を示す物体を表す物体画像を過検出可能とする処理を行った後、前記マスク済み画像から前記所定の特徴を示す物体と同一の特徴を示す物体を表す前記物体画像を検出する第2検出処理を実行する、
物体検出処理をコンピュータに実行させるための物体検出プログラム。
executing a first detection process for detecting an object image representing an object exhibiting a predetermined characteristic from the detection target image based on the set detection conditions;
generating a masked image obtained by masking the object image detected in the first detection process in the detection target image;
After performing a process to enable over-detection of an object image representing an object exhibiting the same feature as the object exhibiting the predetermined feature from the generated masked image, performing a second detection process of detecting the object image representing the object exhibiting the same feature as the object exhibiting the predetermined feature from the masked image.
An object detection program for causing a computer to execute object detection processing.
前記物体画像を過検出可能とする処理は、
前記マスク済み画像の加工、及び、前記検出条件の変更の少なくとも一方を行って、前記マスク済み画像から、前記第1検出処理では検出されない前記所定の特徴を示す物体と同一の特徴を示す物体を表す前記物体画像を検出可能とする処理である、
請求項1に記載の物体検出プログラム。
The process for enabling overdetection of the object image includes:
At least one of processing the masked image and changing the detection conditions to enable detection of the object image representing the object exhibiting the same characteristics as the object exhibiting the predetermined characteristics not detected in the first detection process, from the masked image.
The object detection program according to claim 1.
前記第2検出処理の検出結果を強調して表示装置に表示する、
請求項1または請求項2に記載の物体検出プログラム。
highlighting the detection result of the second detection process and displaying it on a display device;
3. The object detection program according to claim 1 or 2.
前記第2検出処理の検出結果を強調することは、
検出した前記物体画像にオプティカルフローを付加すること、
検出した前記物体画像の検出条件に対応する情報を強調すること、
の少なくとも一方を含む、
請求項1~請求項3の何れか1項に記載の物体検出プログラム。
Emphasizing the detection result of the second detection process includes:
adding optical flow to the detected object image;
emphasizing information corresponding to detection conditions of the detected object image;
including at least one of
The object detection program according to any one of claims 1 to 3.
前記マスク済み画像を生成することは、
前記第1検出処理で検出した前記物体画像の位置に対応する前記所定の特徴を示す物体の背景画像を使用して、検出した前記物体画像をマスクすること、または、
所定の色またはパターンを使用して、検出した前記物体画像をマスクすること、
を含む、
請求項1~請求項4の何れか1項に記載の物体検出プログラム。
Generating the masked image includes:
masking the detected object image using a background image of the object showing the predetermined characteristics corresponding to the position of the object image detected in the first detection process; or
masking the detected object image using a predetermined color or pattern;
including,
The object detection program according to any one of claims 1 to 4.
コンピュータが、
設定された検出条件に基づいて、検出対象画像から所定の特徴を示す物体を表す物体画像を検出する第1検出処理を実行し、
前記検出対象画像における前記第1検出処理で検出した前記物体画像をマスクしたマスク済み画像を生成し、
生成された前記マスク済み画像から前記所定の特徴を示す物体と同一の特徴を示す物体を表す物体画像を過検出可能とする処理を行った後、前記マスク済み画像から前記所定の特徴を示す物体と同一の特徴を示す物体を表す前記物体画像を検出する第2検出処理を実行する、
物体検出方法。
the computer
executing a first detection process for detecting an object image representing an object exhibiting a predetermined characteristic from the detection target image based on the set detection conditions;
generating a masked image obtained by masking the object image detected in the first detection process in the detection target image;
After performing a process to enable over-detection of an object image representing an object exhibiting the same feature as the object exhibiting the predetermined feature from the generated masked image, performing a second detection process of detecting the object image representing the object exhibiting the same feature as the object exhibiting the predetermined feature from the masked image.
Object detection method.
設定された検出条件に基づいて、検出対象画像から所定の特徴を示す物体を表す物体画像を検出する第1検出処理を実行する第1検出部と、
前記第1検出部で検出した前記物体画像をマスクしたマスク済み画像を生成するマスク部と、
前記マスク部で生成された前記マスク済み画像から前記所定の特徴を示す物体と同一の特徴を示す物体を表す物体画像を過検出可能とする処理を行った後、前記マスク済み画像から前記所定の特徴を示す物体と同一の特徴を示す物体を表す前記物体画像を検出する第2検出処理を実行する第2検出部と、
を含む、物体検出装置。
a first detection unit that performs a first detection process for detecting an object image representing an object exhibiting a predetermined characteristic from the detection target image based on the set detection condition;
a mask unit that generates a masked image by masking the object image detected by the first detection unit;
a second detection unit that performs a second detection process for detecting, from the masked image generated by the mask unit, an object image that represents an object that exhibits the same characteristics as the object that exhibits the predetermined characteristics, and then detects the object image that represents the object that exhibits the same characteristics as the object that exhibits the predetermined characteristics from the masked image;
An object detection device, comprising:
JP2019117022A 2019-06-25 2019-06-25 OBJECT DETECTION PROGRAM, OBJECT DETECTION METHOD, AND OBJECT DETECTION DEVICE Active JP7314645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019117022A JP7314645B2 (en) 2019-06-25 2019-06-25 OBJECT DETECTION PROGRAM, OBJECT DETECTION METHOD, AND OBJECT DETECTION DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019117022A JP7314645B2 (en) 2019-06-25 2019-06-25 OBJECT DETECTION PROGRAM, OBJECT DETECTION METHOD, AND OBJECT DETECTION DEVICE

Publications (2)

Publication Number Publication Date
JP2021005128A JP2021005128A (en) 2021-01-14
JP7314645B2 true JP7314645B2 (en) 2023-07-26

Family

ID=74097661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019117022A Active JP7314645B2 (en) 2019-06-25 2019-06-25 OBJECT DETECTION PROGRAM, OBJECT DETECTION METHOD, AND OBJECT DETECTION DEVICE

Country Status (1)

Country Link
JP (1) JP7314645B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151762A (en) 2008-12-26 2010-07-08 Seiko Epson Corp Defect detection method and device
JP2012022370A (en) 2010-07-12 2012-02-02 Hitachi Kokusai Electric Inc Monitoring system and monitoring method
JP2012203680A (en) 2011-03-25 2012-10-22 Secom Co Ltd Image processing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151762A (en) 2008-12-26 2010-07-08 Seiko Epson Corp Defect detection method and device
JP2012022370A (en) 2010-07-12 2012-02-02 Hitachi Kokusai Electric Inc Monitoring system and monitoring method
JP2012203680A (en) 2011-03-25 2012-10-22 Secom Co Ltd Image processing device

Also Published As

Publication number Publication date
JP2021005128A (en) 2021-01-14

Similar Documents

Publication Publication Date Title
US10885365B2 (en) Method and apparatus for detecting object keypoint, and electronic device
JP6719457B2 (en) Method and system for extracting main subject of image
RU2693906C2 (en) Rule-based analysis of video importance
JP5763965B2 (en) Information processing apparatus, information processing method, and program
JP6240199B2 (en) Method and apparatus for identifying object in image
JP7093427B2 (en) Object tracking methods and equipment, electronic equipment and storage media
EP3113112A1 (en) Apparatus for and method of processing image based on object region
KR102476022B1 (en) Face detection method and apparatus thereof
US11720745B2 (en) Detecting occlusion of digital ink
JP6493624B2 (en) Gas detection image processing apparatus, gas detection image processing method, and gas detection image processing program
JP7419080B2 (en) computer systems and programs
JP5489340B2 (en) Face masking apparatus and method
KR20200039043A (en) Object recognition device and operating method for the same
KR102509823B1 (en) Method and apparatus for estimating plane based on grids
US20190156138A1 (en) Method, system, and computer-readable recording medium for image-based object tracking
KR101833943B1 (en) Method and system for extracting and searching highlight image
JP2007025902A (en) Image processor and image processing method
JP7314645B2 (en) OBJECT DETECTION PROGRAM, OBJECT DETECTION METHOD, AND OBJECT DETECTION DEVICE
CN115210773A (en) Method for detecting object in real time by using object real-time detection model and optimization method
JP6963038B2 (en) Image processing device and image processing method
JP5952942B2 (en) Information processing apparatus, information processing method, and program
KR20210055532A (en) Electronic Device and the Method for Generating Action Instance and Recording Medium
KR101853211B1 (en) Complexity Reduction of SIFT for Video based on Frame Difference in the Mobile GPU environment
CN111353330A (en) Image processing method, image processing device, electronic equipment and storage medium
JP6467817B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R150 Certificate of patent or registration of utility model

Ref document number: 7314645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150