JP7451392B2 - Image processing device, image processing method, image processing program - Google Patents

Image processing device, image processing method, image processing program Download PDF

Info

Publication number
JP7451392B2
JP7451392B2 JP2020218531A JP2020218531A JP7451392B2 JP 7451392 B2 JP7451392 B2 JP 7451392B2 JP 2020218531 A JP2020218531 A JP 2020218531A JP 2020218531 A JP2020218531 A JP 2020218531A JP 7451392 B2 JP7451392 B2 JP 7451392B2
Authority
JP
Japan
Prior art keywords
image
image processing
evaluation
processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020218531A
Other languages
Japanese (ja)
Other versions
JP2022103725A (en
Inventor
隼人 道祖土
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2020218531A priority Critical patent/JP7451392B2/en
Publication of JP2022103725A publication Critical patent/JP2022103725A/en
Application granted granted Critical
Publication of JP7451392B2 publication Critical patent/JP7451392B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は画像処理技術に関する。 The present invention relates to image processing technology.

特許文献1には、建設機械に設けられたカメラで撮影した画像の歪みを補正し、高精度に物体を検知する画像処理装置が開示されている。 Patent Document 1 discloses an image processing device that corrects distortion of an image taken with a camera installed on a construction machine and detects an object with high accuracy.

特開2020-13220号公報JP2020-13220A

特許文献1のようにカメラが建設現場等の屋外で使用される場合、カメラの撮影状態が画像処理に影響を及ぼす。ここで、カメラの撮影状態とは、カメラ自体に発生しうる傷、汚れ、故障などの異常や、天気、明るさ、時間帯、電磁波などの撮影時の環境を含む概念である。撮影状態が正常な場合、特許文献1の画像処理装置によって高精度に物体を検知できるが、撮影状態が異常な場合、例えば、カメラのレンズに傷がある場合や、雨が降っている夜間に撮影を行う場合は、物体検知精度が低下する可能性がある。このような撮影状態の悪化による画像処理精度の悪化を防ぐ性質をロバスト性(頑強性)という。従来、画像処理装置のロバスト性を評価するためには、悪い撮影状態で実際に撮影した画像を画像処理装置に処理させた結果を個別に評価する必要があった。すなわち、上記の例では、カメラのレンズに実際に傷を付けて撮影を行ったり、雨が降っている夜間に実際に撮影を行う必要があり、非効率的であった。 When a camera is used outdoors, such as at a construction site, as in Patent Document 1, the photographing state of the camera affects image processing. Here, the photographing state of the camera is a concept that includes abnormalities such as scratches, dirt, and malfunctions that may occur in the camera itself, as well as the environment at the time of photographing, such as weather, brightness, time of day, and electromagnetic waves. When the shooting conditions are normal, objects can be detected with high precision by the image processing device of Patent Document 1, but when the shooting conditions are abnormal, such as when there is a scratch on the camera lens or at night when it is raining. When photographing, object detection accuracy may decrease. The property of preventing deterioration of image processing accuracy due to such deterioration of photographing conditions is called robustness. Conventionally, in order to evaluate the robustness of an image processing device, it has been necessary to individually evaluate the results of processing images actually taken by the image processing device under poor shooting conditions. That is, in the above example, it is necessary to actually scratch the camera lens to take a picture or to actually take a picture at night when it is raining, which is inefficient.

本発明はこうした状況に鑑みてなされたものであり、その目的は、効率的にロバスト性を評価できる画像処理装置を提供することにある。 The present invention has been made in view of these circumstances, and its purpose is to provide an image processing device that can efficiently evaluate robustness.

上記課題を解決するために、本発明のある態様の画像処理装置は、画像を入力する画像入力部と、画像に対して所定の画像処理を行う画像処理部と、画像を撮影して画像入力部に入力可能な撮影装置で想定される撮影状態を模擬する模擬処理を画像入力部で入力された画像に施して画像処理部に提供する模擬画像生成部と、画像入力部が入力した画像処理部の評価に用いられる評価画像について、模擬処理が施された評価画像に対して画像処理部が行った画像処理の結果と、模擬処理が施されていない評価画像に対して画像処理部が行った画像処理の結果の比較に基づき、画像処理部を評価する評価部とを備える。 In order to solve the above problems, an image processing device according to an aspect of the present invention includes an image input unit that inputs an image, an image processing unit that performs predetermined image processing on the image, and an image processing unit that captures the image and inputs the image. a simulated image generation unit that performs simulation processing on an image input in the image input unit to simulate a photographing state assumed by a photographing device that can be input to the image processing unit , and provides the image processing unit to the image processing unit; Regarding the evaluation images used for the evaluation of the parts, the results of the image processing performed by the image processing part on the evaluation images that have been subjected to the simulation processing, and the results of the image processing performed by the image processing part on the evaluation images that have not been subjected to the simulation processing. and an evaluation section that evaluates the image processing section based on a comparison of the results of the image processing performed .

この態様では、撮影装置で想定される撮影状態を模擬する模擬処理が入力画像に施されるため、実際にその撮影状態で画像を撮影する必要がない。したがって、効率的にロバスト性を評価できる。なお、特許文献1の例では、屋外で使用されるカメラ(撮影装置)について説明したが、屋内で使用される撮影装置でも撮影状態は変化しうるため、本態様の画像処理装置を同様に適用できる。 In this aspect, since the input image is subjected to simulation processing that simulates the imaging state assumed by the imaging device, there is no need to actually capture the image in that imaging state. Therefore, robustness can be evaluated efficiently. Note that in the example of Patent Document 1, a camera (photographing device) used outdoors has been described, but since the photographing state can change even with a photographing device used indoors, the image processing device of this aspect can be similarly applied. can.

本発明の別の態様は、画像処理方法である。この方法は、画像を入力する画像入力ステップと、画像に対して所定の画像処理を行う画像処理ステップと、画像を撮影して画像入力ステップに入力可能な撮影装置で想定される撮影状態を模擬する模擬処理を画像入力ステップで入力された画像に施して画像処理ステップに提供する模擬画像生成ステップと、画像入力ステップが入力した画像処理ステップの評価に用いられる評価画像について、模擬処理が施された評価画像に対して画像処理ステップが行った画像処理の結果と、模擬処理が施されていない評価画像に対して画像処理ステップが行った画像処理の結果の比較に基づき、画像処理ステップを評価する評価ステップとを備える。 Another aspect of the invention is an image processing method. This method consists of an image input step for inputting an image, an image processing step for performing predetermined image processing on the image, and a simulation of a shooting condition assumed by a shooting device that can shoot an image and input it to the image input step. A simulated image generation step performs simulation processing on the image input in the image input step and provides the image to the image processing step , and a simulation processing is performed on the evaluation image input by the image input step and used for evaluation of the image processing step. Evaluate the image processing step based on a comparison between the results of image processing performed by the image processing step on the evaluation image that has been processed and the results of image processing performed by the image processing step on the evaluation image that has not been subjected to simulation processing. and an evaluation step .

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 Note that arbitrary combinations of the above components and expressions of the present invention converted between methods, devices, systems, recording media, computer programs, etc. are also effective as aspects of the present invention.

本発明によれば、効率的にロバスト性を評価できる画像処理装置を提供できる。 According to the present invention, it is possible to provide an image processing device that can efficiently evaluate robustness.

実施形態に係る画像処理装置を示す機能ブロック図である。FIG. 1 is a functional block diagram showing an image processing device according to an embodiment. 画像処理装置の処理を示すフローチャートである。3 is a flowchart showing processing of the image processing device.

以下、図面を参照しながら、本発明を実施するための形態について詳細に説明する。説明および図面において同一または同等の構成要素、部材、処理には同一の符号を付し、重複する説明は適宜省略する。図示される各部の縮尺や形状は、説明を容易にするために便宜的に設定されており、特に言及がない限り限定的に解釈されるものではない。実施形態は例示であり、本発明の範囲を何ら限定するものではない。実施形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In the description and drawings, the same or equivalent components, members, and processes are denoted by the same reference numerals, and overlapping explanations will be omitted as appropriate. The scales and shapes of the parts shown in the figures are set for convenience to facilitate explanation, and should not be interpreted in a limited manner unless otherwise stated. The embodiments are illustrative and do not limit the scope of the present invention. All features and combinations thereof described in the embodiments are not necessarily essential to the invention.

図1は、実施形態に係る画像処理装置10を示す機能ブロック図である。画像処理装置10は、カメラ20または画像メモリ21から供給される画像に対して所定の画像処理を行う装置である。 FIG. 1 is a functional block diagram showing an image processing apparatus 10 according to an embodiment. The image processing device 10 is a device that performs predetermined image processing on images supplied from the camera 20 or the image memory 21.

撮影装置としてのカメラ20は、画像を撮影して画像処理装置10または画像メモリ21に供給する。カメラ20の設置場所や設置態様は任意であり、建設機械のような可動部を持つ他の装置に取り付けてもよいし、特定の地点に設置してもよいし、人が携帯してもよい。本実施形態では、主にカメラ20を建設機械に取り付けた例について説明する。この例では、カメラ20が撮影した建設機械の周囲の画像に基づいて、建設機械に接触する可能性がある人、建材、建築物、他の建設機械等の物体を画像処理装置10が検知する。カメラ20が撮影する画像は静止画でも動画でもよいが、静止画の場合は建設機械の周囲の物体をタイムリーに検知できるように例えば数秒以下の高頻度で連続的に撮影するのが好ましい。 A camera 20 serving as a photographing device photographs an image and supplies it to the image processing device 10 or the image memory 21 . The installation location and installation mode of the camera 20 are arbitrary; it may be attached to other equipment with moving parts such as construction machinery, it may be installed at a specific point, or it may be carried by a person. . In this embodiment, an example will be mainly described in which the camera 20 is attached to a construction machine. In this example, the image processing device 10 detects objects such as people, building materials, buildings, and other construction machines that may come into contact with the construction machine, based on images of the surroundings of the construction machine taken by the camera 20. . The images taken by the camera 20 may be still images or moving images, but in the case of still images, it is preferable to take images continuously at a high frequency of, for example, several seconds or less so that objects around the construction machine can be detected in a timely manner.

カメラ20は、撮影した画像が物体の接触検知等のリアルタイムの画像処理に必要な場合は、画像メモリ21を介さず直接的に画像処理装置10に画像を供給する。この場合の画像処理装置10は、カメラ20と同じ建設機械内のコンピュータに実装してもよいし、建設現場または遠隔地の建設機械外のコンピュータに実装してもよい。いずれの場合も、カメラ20と画像処理装置10は有線または無線でリアルタイム通信可能に構成され、カメラ20で撮影された画像がリアルタイムで画像処理装置10に供給される。 The camera 20 directly supplies the image to the image processing device 10 without going through the image memory 21 if the captured image is required for real-time image processing such as detecting contact with an object. The image processing device 10 in this case may be installed in a computer within the same construction machine as the camera 20, or may be installed in a computer outside the construction machine at a construction site or a remote location. In either case, the camera 20 and the image processing device 10 are configured to be able to communicate in real time by wire or wirelessly, and images captured by the camera 20 are supplied to the image processing device 10 in real time.

一方、カメラ20で撮影した画像がリアルタイムの画像処理に必要でない場合、後の画像処理に使えるように画像を画像メモリ21に保存する。画像メモリ21は、カメラ20の内蔵メモリでもよいし、メモリーカード等の汎用のリムーバブルメディアでもよい。また、有線または無線でカメラ20および画像処理装置10と通信可能な建設機械内外のストレージでもよい。 On the other hand, if the image taken by the camera 20 is not required for real-time image processing, the image is stored in the image memory 21 so that it can be used for later image processing. The image memory 21 may be the built-in memory of the camera 20, or may be a general-purpose removable medium such as a memory card. Alternatively, it may be a storage inside or outside the construction machine that can communicate with the camera 20 and the image processing device 10 by wire or wirelessly.

建設機械内外のコンピュータに実装される画像登録部22は、画像メモリ21および模擬画像メモリ23に、任意の画像を登録できる。詳細については後述するが、画像登録部22は、画像処理装置10のロバスト性の評価に用いられる任意の評価画像を画像メモリ21に保存し、カメラ20で想定される撮影状態を模擬する任意の模擬画像を模擬画像メモリ23に保存する。模擬画像メモリ23は、画像登録部22および画像処理装置10が同時か否かを問わずアクセス可能であれば、どのようなメモリでもよい。 An image registration unit 22 installed in a computer inside or outside the construction machine can register any image in the image memory 21 and the simulated image memory 23. Although details will be described later, the image registration unit 22 stores an arbitrary evaluation image used for evaluating the robustness of the image processing device 10 in the image memory 21, and stores an arbitrary evaluation image used for evaluating the robustness of the image processing device 10, and stores an arbitrary evaluation image used for evaluating the robustness of the image processing device 10, The simulated image is stored in the simulated image memory 23. The simulated image memory 23 may be any type of memory as long as it can be accessed by the image registration unit 22 and the image processing device 10 regardless of whether they are accessed at the same time or not.

画像処理装置10は、画像入力部11と、画像処理部12と、模擬画像生成部13と、評価部14と、調整部15を備える。 The image processing device 10 includes an image input section 11 , an image processing section 12 , a simulated image generation section 13 , an evaluation section 14 , and an adjustment section 15 .

画像入力部11は、カメラ20または画像メモリ21からの画像を入力する。画像処理部12は、画像入力部11が入力した画像に対して所定の画像処理を行う。画像処理の内容は、カメラ20の設置場所または設置態様や画像処理装置10の目的に応じて任意に設定できる。カメラ20が建設機械に取り付けられ、画像処理装置10の目的が建設機械の周囲の物体検知である本実施形態の例では、画像処理部12は入力画像に基づく物体検知処理を行う。画像処理部12の画像処理結果としての物体検知結果は、検知された物体の有無と、物体が検知された場合は、物体の種別(人、建材、建築物、他の建設機械等)や、物体の建設機械への接触の可能性(危険度)を含み、画像処理装置10外の他の装置に対して出力される。 The image input unit 11 inputs images from the camera 20 or the image memory 21. The image processing unit 12 performs predetermined image processing on the image input by the image input unit 11. The content of the image processing can be arbitrarily set depending on the installation location or manner of installation of the camera 20 and the purpose of the image processing device 10. In the example of this embodiment in which the camera 20 is attached to a construction machine and the purpose of the image processing device 10 is to detect objects around the construction machine, the image processing unit 12 performs object detection processing based on the input image. The object detection result as an image processing result of the image processing unit 12 includes the presence or absence of a detected object, and if an object is detected, the type of object (person, building material, building, other construction machine, etc.), It includes the possibility (risk level) of the object coming into contact with the construction machine, and is output to other devices outside the image processing device 10.

以下は本発明を適用可能な画像処理の他の例である。
・画像検査装置に設けられたカメラで撮影した画像に基づく、損傷、汚れ、欠陥、歪み等の検査対象物の異常の検知
・自動車等の乗り物に設けられたカメラで撮影した画像に基づく、乗り物の周囲の物体の検知
・撮影された物体との距離の測定
・画像中の情報や文字の認識(光学文字認識(OCR: Optical Character Recognition)など)
・撮影された人や動物のジェスチャーの認識
・人工知能を用いた画像の解釈や診断
・画像の加工(画質改善処理、フィルタ処理、視点変換、3次元モデル生成など)
The following are other examples of image processing to which the present invention is applicable.
・Detection of abnormalities in the inspection object such as damage, dirt, defects, distortion, etc. based on images taken with a camera installed in an image inspection device ・Detection of abnormalities of the inspection object such as damage, dirt, defects, distortion, etc. based on images taken with a camera installed on a vehicle such as a car Detection of surrounding objects ・Measurement of distance to photographed object ・Recognition of information and characters in images (Optical Character Recognition (OCR), etc.)
・Recognition of gestures of photographed people and animals ・Image interpretation and diagnosis using artificial intelligence ・Image processing (image quality improvement processing, filter processing, viewpoint conversion, 3D model generation, etc.)

模擬画像生成部13は、模擬画像重畳部131と模擬画像切替部132を備え、カメラ20で想定される撮影状態を模擬する模擬処理を画像入力部11で入力された画像に施して画像処理部12に提供する。模擬画像重畳部131は、模擬処理の一例として、カメラ20で想定される撮影状態を模擬する模擬画像を入力画像に重畳する。模擬画像は画像登録部22によって模擬画像メモリ23に予め登録されている。異なる撮影状態に対応する複数の模擬処理を切り替える模擬処理切替部としての模擬画像切替部132は、模擬画像メモリ23に保存された模擬画像を読み出して模擬画像重畳部131に提供する。模擬画像切替部132は任意の数の模擬画像を同時に読み出し、模擬画像重畳部131はそれらの模擬画像を同時に入力画像に重畳する。例えば、「夜」を表す模擬画像と「雨」を表す模擬画像を同時に入力画像に重畳することで、「雨が降っている夜間」という撮影状態を模擬ないし再現できる。また、模擬画像切替部132は、模擬画像重畳部131が重畳する模擬画像を切り替えることで、異なる撮影状態を簡単に模擬できる。例えば、上記の「雨が降っている夜間」という撮影状態に続いて、カメラ20のレンズの傷を表す模擬画像に切り替えることで「カメラのレンズに傷がある」という異なる撮影状態を迅速に模擬できる。なお、上記の模擬処理の例では模擬画像が入力画像に重畳されたが、フィルタ処理等の適当な画像加工処理を入力画像に施すことで、カメラ20の様々な撮影状態を模擬してもよい。例えば、「夜」という撮影状態を模擬するために、入力画像の輝度を一様に下げるフィルタ処理を施す。また、このような撮影状態を模擬するための画像加工処理は、入力画像の一部に施してもよく、また入力画像の部分毎に異なるものでもよい。例えば、単純に一定間隔の画素を強制的に黒くすることで暗さを模擬する、各画素の輝度をランダムに変えることで暗電流等に基づくノイズを模擬する、等が考えられる。このような多様な模擬処理のパターンを予め用意することで、一つの評価画像に対して多様な観点からの模擬画像を生成できる。したがって、従来のように様々な撮影状態で実際に評価画像を撮影する必要がなく、効率的にロバスト性の評価を行える。 The simulated image generation unit 13 includes a simulated image superimposition unit 131 and a simulated image switching unit 132, and performs simulation processing on the image input by the image input unit 11 to simulate the shooting state assumed by the camera 20, and converts the image into an image processing unit. Provided on 12th. As an example of simulation processing, the simulated image superimposition unit 131 superimposes a simulated image that simulates a photographing state assumed by the camera 20 on the input image. The simulated image is registered in advance in the simulated image memory 23 by the image registration section 22. A simulated image switching unit 132 serving as a simulated processing switching unit that switches between a plurality of simulated processes corresponding to different shooting conditions reads out the simulated image stored in the simulated image memory 23 and provides it to the simulated image superimposing unit 131. The simulated image switching unit 132 simultaneously reads an arbitrary number of simulated images, and the simulated image superimposing unit 131 simultaneously superimposes these simulated images on the input image. For example, by simultaneously superimposing a simulated image representing "night" and a simulated image representing "rain" on the input image, it is possible to simulate or reproduce a shooting condition of "rainy night." Further, the simulated image switching unit 132 can easily simulate different shooting conditions by switching the simulated images superimposed by the simulated image superimposing unit 131. For example, following the above-mentioned shooting condition "rainy night", a different shooting condition such as "there is a scratch on the camera lens" can be quickly simulated by switching to a simulated image showing a scratch on the lens of the camera 20. can. Note that in the above example of simulation processing, a simulation image is superimposed on the input image, but various photographing states of the camera 20 may be simulated by applying appropriate image processing processing such as filter processing to the input image. . For example, in order to simulate a shooting condition called "night", filter processing is performed to uniformly lower the brightness of the input image. Furthermore, the image processing for simulating such a shooting state may be applied to a part of the input image, or may be different for each part of the input image. For example, it is possible to simulate darkness by simply forcibly turning pixels at regular intervals black, or to simulate noise based on dark current or the like by randomly changing the brightness of each pixel. By preparing such various simulation processing patterns in advance, it is possible to generate simulation images from various viewpoints for one evaluation image. Therefore, there is no need to actually photograph evaluation images under various photographing conditions as in the past, and robustness can be evaluated efficiently.

模擬画像切替部132は、動的再構成可能な回路であるFPGA(Field-Programmable Gate Array)で構成され、当該動的再構成によって複数の模擬処理または模擬画像を切り替える。模擬画像切替部132は汎用の演算処理装置で構成してもよく、演算処理装置で実行されるソフトウェアによって複数の模擬処理または模擬画像が切り替えられる。 The simulated image switching unit 132 is configured with an FPGA (Field-Programmable Gate Array), which is a dynamically reconfigurable circuit, and switches between a plurality of simulated processes or simulated images by the dynamic reconfiguration. The simulated image switching unit 132 may be configured with a general-purpose arithmetic processing device, and a plurality of simulated processes or simulated images are switched by software executed by the arithmetic processing device.

模擬画像重畳部131によって模擬される撮影状態は、カメラ20に発生しうる異常と、カメラ20の置かれる環境に大別される。前者のカメラ20に発生しうる異常の類型は、例えば、レンズの破損、傷、汚れや、回路の動作遅延、動作不良、故障である。後者のカメラ20の置かれる環境の類型は、例えば、天気、明るさ、時間帯、入射光、電磁波、環境ノイズ(カメラのイメージセンサの暗電流によって夜間の撮影時に発生する白点ノイズや、強風時の砂埃によるノイズ、コークス炉内を飛散するカーボンチップによるノイズなど)である。これらの各類型を個別に模擬できるよう、模擬画像メモリ23には各類型に応じた模擬画像が格納される。また、同一の類型でも複数の撮影状態が想定される場合は、各撮影状態について個別の模擬画像が用意される。例えば、「雨」という撮影状態の類型について、「暴風雨」「強い雨」「弱い雨」「霧雨」等の想定される様々な態様に応じた模擬画像が用意される。同様に、「レンズに傷がある」という撮影状態の類型について、想定される様々な大きさ、形状、位置の傷に応じた模擬画像が用意される。このように想定しうる撮影状態の各態様について個別の模擬画像を用意することで、模擬画像重畳部131は、これらの模擬画像を組み合わせて任意の撮影状態をきめ細かく模擬できる。例えば、「カメラのレンズの中心部に大きな筋状の傷があり、カメラの回路に中程度の動作遅延があり、天気は曇りで、夕方5時頃、強い逆光」といった複雑な撮影状態も簡単に模擬できる。 The photographing conditions simulated by the simulated image superimposing unit 131 are broadly divided into abnormalities that may occur in the camera 20 and environments in which the camera 20 is placed. The types of abnormalities that may occur in the former camera 20 include, for example, lens damage, scratches, and dirt, and circuit operation delays, malfunctions, and failures. The type of environment in which the latter camera 20 is placed includes, for example, the weather, brightness, time of day, incident light, electromagnetic waves, and environmental noise (white spot noise that occurs during night shooting due to the dark current of the camera's image sensor, strong winds, etc.). (Noise caused by dust from time to time, noise caused by carbon chips flying around inside the coke oven, etc.) In order to simulate each of these types individually, the simulated image memory 23 stores simulated images corresponding to each type. Furthermore, if a plurality of photographing states are assumed for the same type, separate simulated images are prepared for each photographing state. For example, for the type of shooting condition "rain," simulated images are prepared according to various possible modes such as "storm," "strong rain," "light rain," and "drizzle." Similarly, with respect to the type of photographic state "there is a scratch on the lens", simulated images are prepared according to various possible sizes, shapes, and positions of scratches. By preparing individual simulated images for each possible aspect of the photographing state in this manner, the simulated image superimposing unit 131 can finely simulate any photographing state by combining these simulated images. For example, complex shooting situations such as ``There is a large streak-like scratch in the center of the camera lens, there is a moderate operation delay in the camera circuit, the weather is cloudy, around 5 p.m., and there is strong backlight'' can be easily handled. can be simulated.

以上のような撮影状態のうち、「回路の動作遅延」や「雨」といった動きや時間的変化がある撮影状態を模擬する模擬画像は動画とするのが好ましい。また、「入射光」のように、撮影された被写体の姿勢や性質に応じて、画像に現われる影響が異なる撮影状態については、画像処理部12での被写体の検知結果に基づき、模擬画像重畳部131が重畳する模擬画像を調整してもよい。例えば、被写体の反射率が低い場合は、模擬画像として重畳する入射光の強度を弱める。 Among the above-mentioned photographing conditions, it is preferable to use a moving image as a simulated image that simulates a photographing condition with movement or temporal changes such as "circuit operation delay" or "rain". In addition, for shooting conditions such as "incident light" that have different effects on the image depending on the posture and properties of the photographed subject, the simulated image superimposition unit The simulated image superimposed by 131 may be adjusted. For example, if the reflectance of the subject is low, the intensity of the incident light to be superimposed as a simulated image is weakened.

画像処理部12は、模擬画像重畳部131で模擬画像が重畳された入力画像に対しても、前述の所定の画像処理を行う。すなわち、画像処理部12は、画像入力部11から直接的に提供される模擬画像なしの入力画像に対する画像処理と、画像入力部11から模擬画像重畳部131を介して間接的に提供される模擬画像ありの入力画像に対する画像処理を並行して行う。前者の模擬画像なしの入力画像に対する画像処理結果は、画像処理装置10外の他の装置に対して出力され、後者の模擬画像ありの入力画像に対する画像処理結果は、次に述べる評価部14に提供されて画像処理装置10のロバスト性の評価に用いられる。このように画像処理部12が模擬画像ありの入力画像と模擬画像なしの入力画像を並行処理することによって、画像処理結果を出力するという画像処理装置10の通常動作を行わせながら、並行して画像処理装置10のロバスト性の評価をリアルタイムで行える。変形例として、画像処理部12に提供する入力画像の切り替えによって、模擬画像なしの入力画像に基づいて通常動作を行う通常動作モードと、模擬画像ありの入力画像に基づいてロバスト性の評価を行うロバスト性評価モードを切り替えてもよい。 The image processing unit 12 also performs the above-described predetermined image processing on the input image on which the simulated image has been superimposed by the simulated image superimposition unit 131. That is, the image processing section 12 processes an input image without a simulated image directly provided from the image input section 11 and a simulated image provided indirectly from the image input section 11 via the simulated image superimposition section 131. Perform image processing on input images with images in parallel. The former image processing result for the input image without a simulated image is output to another device outside the image processing device 10, and the latter image processing result for the input image with the simulated image is output to the evaluation unit 14 described below. The data is provided and used for evaluating the robustness of the image processing device 10. In this way, the image processing unit 12 processes the input image with a simulated image and the input image without a simulated image in parallel, thereby performing the normal operation of the image processing device 10 of outputting an image processing result. The robustness of the image processing device 10 can be evaluated in real time. As a modified example, by switching the input images provided to the image processing unit 12, a normal operation mode in which normal operation is performed based on an input image without a simulated image, and a robustness evaluation based on an input image with a simulated image are performed. The robustness evaluation mode may be switched.

評価部14は、模擬画像が重畳された評価画像に対して画像処理部12が行った画像処理の結果と、評価画像に対する所期の画像処理の結果の比較に基づき、画像処理部12を評価する。ここで「評価画像」とは、評価部14が評価を行う際に画像入力部11が入力する画像を意味する。評価画像は、カメラ20がリアルタイムで撮影した画像でもよいし、画像メモリ21に格納されたカメラ20の過去の撮影画像でもよいし、カメラ20によらずに画像登録部22によって画像メモリ21に格納された任意の画像でもよい。カメラ20がリアルタイムで撮影した画像を評価画像とする場合は、画像処理部12の評価をリアルタイムで行えるという利点がある。一方、画像メモリ21に格納された画像を評価画像とする場合は、画像処理部12の評価に適した画像を任意に選択できるという利点がある。 The evaluation unit 14 evaluates the image processing unit 12 based on a comparison between the result of image processing performed by the image processing unit 12 on the evaluation image on which the simulated image is superimposed and the result of the intended image processing on the evaluation image. do. Here, the "evaluation image" means an image input by the image input section 11 when the evaluation section 14 performs evaluation. The evaluation image may be an image taken by the camera 20 in real time, an image taken in the past by the camera 20 stored in the image memory 21, or an image that is stored in the image memory 21 by the image registration unit 22 without using the camera 20. It can be any image that has been created. When an image photographed by the camera 20 in real time is used as an evaluation image, there is an advantage that the evaluation by the image processing unit 12 can be performed in real time. On the other hand, when an image stored in the image memory 21 is used as an evaluation image, there is an advantage that an image suitable for evaluation by the image processing section 12 can be arbitrarily selected.

カメラ20が建設機械に取り付けられた例における評価画像は、建設機械の周囲を撮影した画像である。画像処理部12は評価画像に対する画像処理として物体検知処理を行い、検知された物体の有無、物体の種別、物体の建設機械への接触可能性等を含む画像処理結果を出力する。例えば、評価画像において近距離に人が映っている場合、所期の画像処理結果は「検知された物体の有無:有/物体の種別:人/物体の建設機械への接触可能性:高」となる。この評価画像に対して模擬画像重畳部131が模擬画像を重畳した場合の画像処理部12の画像処理結果が所期の画像処理結果と異なる場合、画像処理部12は模擬画像が模擬する撮影状態(例えば「雨」)に対するロバスト性が低いと評価される。逆に、模擬画像を重畳した場合も所期の画像処理結果が得られた場合、画像処理部12は模擬画像が模擬する撮影状態に対するロバスト性が高いと評価される。このように、評価部14は、模擬画像が重畳された評価画像の画像処理結果を所期の画像処理結果と比較することで、模擬画像が模擬する撮影状態に対する画像処理部12のロバスト性を評価できる。 The evaluation image in an example in which the camera 20 is attached to a construction machine is an image taken of the surroundings of the construction machine. The image processing unit 12 performs object detection processing as image processing on the evaluation image, and outputs image processing results including the presence or absence of a detected object, the type of object, the possibility of the object coming into contact with a construction machine, and the like. For example, if a person is shown at a close distance in the evaluation image, the expected image processing result is "Presence or absence of detected object: Yes/Type of object: Human/Possibility of the object coming into contact with construction machinery: High" becomes. If the image processing result of the image processing unit 12 when the simulated image superimposing unit 131 superimposes the simulated image on this evaluation image differs from the expected image processing result, the image processing unit 12 will change the imaging state that the simulated image simulates. (for example, "rain") is evaluated as having low robustness. On the other hand, if the expected image processing result is obtained even when the simulated image is superimposed, the image processing unit 12 is evaluated to have high robustness to the imaging state simulated by the simulated image. In this way, the evaluation unit 14 compares the image processing result of the evaluation image on which the simulated image is superimposed with the intended image processing result, thereby evaluating the robustness of the image processing unit 12 with respect to the imaging state simulated by the simulated image. It can be evaluated.

なお、評価画像としてカメラ20がリアルタイムで撮影した画像を用いる場合、所期の画像処理結果を予め知ることはできないが、画像入力部11が画像処理部12に直接的に提供する模擬画像なしの評価画像の画像処理結果を所期の画像処理結果として代用できる。このとき、評価の万全を期すために、評価部14が暫定的な評価結果をユーザに提示し、ユーザの最終評価を仰いでもよい。また、評価部14を設けずに、ユーザが全ての評価を担ってもよい。 Note that when using an image taken in real time by the camera 20 as an evaluation image, the desired image processing result cannot be known in advance; The image processing result of the evaluation image can be substituted for the desired image processing result. At this time, in order to ensure thorough evaluation, the evaluation unit 14 may present a provisional evaluation result to the user and ask for the user's final evaluation. Alternatively, the user may be responsible for all evaluations without providing the evaluation section 14.

一方、評価画像として画像メモリ21に格納された画像を用いる場合、画像処理部12の評価に適した任意の画像を選択でき、かつ、所期の画像処理結果を予め知ることができるので、ユーザの最終評価を仰がずに評価部14が効果的に評価を行える。例えば、建設現場における人の検知を行う例では、個々の建設作業員を高精度に検知することが求められる。そこで、ヘルメットを着用した複数の作業員が映っている画像を評価画像として、様々な撮影状態(模擬画像)の下でも画像処理部12が個々の作業員を検知できるか否かを評価部14が評価する。逆に、作業員が着用していないヘルメットが映り込んだ画像を評価画像として、画像処理部12がヘルメットを人と誤検知するか否かを評価することもできる。また、同じく建設現場における人の検知を行う例では、建設現場で多く使用される青い防水シート(いわゆるブルーシート)が人の衣服と誤検知されることがある。このような誤検知を未然に防止するために、ブルーシートが各所に映り込んだ画像を評価画像として、様々な撮影状態(模擬画像)の下で画像処理部12がブルーシートを人と誤検知するか否かを評価部14が評価する。このように、カメラ20の設置場所または設置態様や画像処理装置10の目的に応じて、適切な評価画像を任意に選択できるので、画像処理部12のロバスト性を効果的に評価できる。 On the other hand, when using an image stored in the image memory 21 as an evaluation image, the user can select any image suitable for evaluation by the image processing unit 12 and know the desired image processing result in advance. The evaluation unit 14 can effectively perform the evaluation without asking for the final evaluation. For example, when detecting people at a construction site, it is required to detect individual construction workers with high accuracy. Therefore, using an image showing multiple workers wearing helmets as an evaluation image, the evaluation unit 14 evaluates whether the image processing unit 12 can detect individual workers even under various shooting conditions (simulated images). will be evaluated. Conversely, it is also possible to evaluate whether the image processing unit 12 mistakenly detects a helmet as a person by using an image in which a helmet not worn by a worker is reflected as an evaluation image. Furthermore, in the same example of detecting people at construction sites, a blue tarpaulin sheet (so-called blue sheet), which is often used at construction sites, may be mistakenly detected as human clothing. In order to prevent such false detections, the image processing unit 12 uses images in which blue sheets are reflected in various places as evaluation images to falsely detect blue sheets as people under various shooting conditions (simulated images). The evaluation unit 14 evaluates whether or not to do so. In this way, an appropriate evaluation image can be arbitrarily selected depending on the installation location or installation mode of the camera 20 and the purpose of the image processing device 10, so that the robustness of the image processing section 12 can be evaluated effectively.

調整部15は、評価部14がロバスト性が低いと評価した撮影状態に関して、それを改善するための画像処理部12の調整を行う。 The adjustment unit 15 adjusts the image processing unit 12 in order to improve the imaging state that the evaluation unit 14 evaluates as having low robustness.

図2は、画像処理装置10の処理を示すフローチャートである。本図における「S」は「ステップ」を意味する。S1では、画像入力部11が、カメラ20からのリアルタイム画像または画像メモリ21からの非リアルタイム画像を入力する。S2では、画像処理部12が、S1で入力された画像に対して所定の画像処理を行う。この画像には模擬画像が重畳されておらず、画像処理部12はその画像処理結果を画像処理装置10外の他の装置に対して出力する。画像が非リアルタイム画像の場合で、その画像処理結果が画像処理装置10外で必要とされていない場合は、画像処理結果を出力しなくてもよい。 FIG. 2 is a flowchart showing the processing of the image processing device 10. "S" in this figure means "step". In S1, the image input unit 11 inputs a real-time image from the camera 20 or a non-real-time image from the image memory 21. In S2, the image processing unit 12 performs predetermined image processing on the image input in S1. No simulated image is superimposed on this image, and the image processing unit 12 outputs the image processing result to other devices outside the image processing device 10. If the image is a non-real-time image and the image processing result is not needed outside the image processing apparatus 10, the image processing result may not be output.

S3では、模擬画像重畳部131が、S1で入力された画像に模擬画像に重畳する。S4では、画像処理部12が、S3で模擬画像が重畳された画像に対して所定の画像処理を行う。S5では、評価部14が、S1で入力された評価画像がカメラ20のリアルタイム画像か否かを判定する。リアルタイム画像の場合はS6に進み、評価部14がS2の模擬画像なしでの画像処理結果を所期の画像処理結果として取得する。非リアルタイム画像の場合はS7に進み、評価部14がその非リアルタイム画像と共に画像メモリ21に保存されている所期の画像処理結果を取得する。所期の画像処理結果が画像メモリ21に保存されていない場合は、S6と同様に、S2の模擬画像なしでの画像処理結果を所期の画像処理結果として取得してもよい。 In S3, the simulated image superimposition unit 131 superimposes the simulated image on the image input in S1. In S4, the image processing unit 12 performs predetermined image processing on the image on which the simulated image was superimposed in S3. In S5, the evaluation unit 14 determines whether the evaluation image input in S1 is a real-time image of the camera 20. In the case of a real-time image, the process proceeds to S6, where the evaluation unit 14 obtains the image processing result without the simulated image in S2 as the intended image processing result. In the case of a non-real-time image, the process proceeds to S7, where the evaluation unit 14 acquires the desired image processing result stored in the image memory 21 together with the non-real-time image. If the desired image processing result is not stored in the image memory 21, the image processing result in S2 without the simulated image may be acquired as the desired image processing result, similar to S6.

S8では、評価部14が、S4の模擬画像ありでの画像処理結果とS6またはS7で取得された所期の画像処理結果の比較に基づき、画像処理部12のロバスト性を評価する。S9では、調整部15が、S8でロバスト性が低いと評価された場合に、それを改善するための画像処理部12の調整を行う。S10では、模擬画像切替部132が、ロバスト性を評価すべき他の模擬画像の有無を判定する。他の模擬画像がある場合はS11に進み、模擬画像切替部132が当該他の模擬画像に切り替える。続いてS3に戻り、模擬画像重畳部131が当該他の模擬画像を評価画像に重畳する。以降は同様に、当該他の模擬画像(撮影状態)についてロバスト性の評価等が行われる。 In S8, the evaluation unit 14 evaluates the robustness of the image processing unit 12 based on the comparison between the image processing result with the simulated image in S4 and the intended image processing result obtained in S6 or S7. In S9, the adjustment unit 15 adjusts the image processing unit 12 to improve the robustness when it is evaluated as low in S8. In S10, the simulated image switching unit 132 determines whether there is another simulated image whose robustness should be evaluated. If there is another simulated image, the process advances to S11, and the simulated image switching unit 132 switches to the other simulated image. Subsequently, the process returns to S3, and the simulated image superimposing unit 131 superimposes the other simulated image on the evaluation image. Thereafter, the robustness evaluation and the like are similarly performed for the other simulated images (photographing conditions).

以上、本発明を実施形態に基づいて説明した。実施形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. Those skilled in the art will understand that the embodiments are merely illustrative, and that various modifications can be made to the combinations of the constituent elements and processing processes, and that such modifications are also within the scope of the present invention.

なお、実施形態で説明した各装置の機能構成はハードウェア資源またはソフトウェア資源により、あるいはハードウェア資源とソフトウェア資源の協働により実現できる。ハードウェア資源としてプロセッサ、ROM、RAM、その他のLSIを利用できる。ソフトウェア資源としてオペレーティングシステム、アプリケーション等のプログラムを利用できる。 Note that the functional configuration of each device described in the embodiments can be realized by hardware resources, software resources, or cooperation between hardware resources and software resources. A processor, ROM, RAM, and other LSIs can be used as hardware resources. Programs such as operating systems and applications can be used as software resources.

10 画像処理装置、11 画像入力部、12 画像処理部、13 模擬画像生成部、14 評価部、15 調整部、20 カメラ、21 画像メモリ、22 画像登録部、23 模擬画像メモリ、131 模擬画像重畳部、132 模擬画像切替部。 10 image processing device, 11 image input unit, 12 image processing unit, 13 simulated image generation unit, 14 evaluation unit, 15 adjustment unit, 20 camera, 21 image memory, 22 image registration unit, 23 simulated image memory, 131 simulated image superimposition Section, 132 Simulated image switching section.

Claims (9)

画像を入力する画像入力部と、
前記画像に対して所定の画像処理を行う画像処理部と、
画像を撮影して前記画像入力部に入力可能な撮影装置で想定される撮影状態を模擬する模擬処理を前記画像入力部で入力された画像に施して前記画像処理部に提供する模擬画像生成部と
前記画像入力部が入力した前記画像処理部の評価に用いられる評価画像について、前記模擬処理が施された前記評価画像に対して前記画像処理部が行った画像処理の結果と、前記模擬処理が施されていない前記評価画像に対して前記画像処理部が行った画像処理の結果の比較に基づき、前記画像処理部を評価する評価部と
を備える画像処理装置。
an image input section for inputting an image;
an image processing unit that performs predetermined image processing on the image;
a simulated image generation unit that performs simulation processing on the image input by the image input unit to simulate a photographing state assumed by a photographing device capable of photographing an image and inputting the image to the image input unit, and provides the resultant image to the image processing unit; and ,
Regarding the evaluation image input by the image input unit and used for the evaluation of the image processing unit, the results of the image processing performed by the image processing unit on the evaluation image subjected to the simulation processing, and the results of the simulation processing an evaluation unit that evaluates the image processing unit based on a comparison of results of image processing performed by the image processing unit on the evaluation image that has not been subjected to the evaluation image;
An image processing device comprising:
異なる前記撮影状態に対応する複数の前記模擬処理を切り替える模擬処理切替部を備える
請求項1に記載の画像処理装置。
The image processing device according to claim 1 , further comprising a simulation processing switching unit that switches between a plurality of the simulation processing corresponding to the different shooting states.
前記模擬処理切替部は、動的再構成可能な回路で構成され、当該動的再構成によって複数の前記模擬処理を切り替える
請求項に記載の画像処理装置。
The image processing device according to claim 2 , wherein the simulation processing switching unit is configured with a dynamically reconfigurable circuit, and switches between the plurality of simulation processes by the dynamic reconfiguration.
前記動的再構成可能な回路はFPGAである
請求項に記載の画像処理装置。
The image processing device according to claim 3 , wherein the dynamically reconfigurable circuit is an FPGA.
前記撮影状態は、前記撮影装置に発生しうる異常と、前記撮影装置の置かれる環境の少なくともいずれかを含む
請求項1からのいずれかに記載の画像処理装置。
The image processing device according to any one of claims 1 to 4 , wherein the photographing state includes at least one of an abnormality that may occur in the photographing device and an environment in which the photographing device is placed.
前記模擬処理は、前記撮影状態の時間的変化を模擬する動画を前記画像入力部で入力された画像に重畳する
請求項1からのいずれかに記載の画像処理装置。
The image processing device according to any one of claims 1 to 5 , wherein the simulation process involves superimposing a moving image that simulates a temporal change in the photographing state on the image input by the image input unit.
前記画像入力部に入力される画像は、前記撮影装置によらない画像を含む
請求項1からのいずれかに記載の画像処理装置。
The image processing device according to any one of claims 1 to 6 , wherein the image input to the image input unit includes an image not generated by the photographing device.
画像を入力する画像入力ステップと、
前記画像に対して所定の画像処理を行う画像処理ステップと、
画像を撮影して前記画像入力ステップに入力可能な撮影装置で想定される撮影状態を模擬する模擬処理を前記画像入力ステップで入力された画像に施して前記画像処理ステップに提供する模擬画像生成ステップと
前記画像入力ステップが入力した前記画像処理ステップの評価に用いられる評価画像について、前記模擬処理が施された前記評価画像に対して前記画像処理ステップが行った画像処理の結果と、前記模擬処理が施されていない前記評価画像に対して前記画像処理ステップが行った画像処理の結果の比較に基づき、前記画像処理ステップを評価する評価ステップと
を備える画像処理方法。
an image input step of inputting an image;
an image processing step of performing predetermined image processing on the image;
a simulated image generation step of performing simulation processing on the image input in the image input step to simulate a photographing state assumed by a photographing device capable of photographing an image and inputting the image to the image input step, and providing the resultant image to the image processing step; and ,
Regarding the evaluation image inputted by the image input step and used for the evaluation of the image processing step, the results of the image processing performed by the image processing step on the evaluation image subjected to the simulation processing and the results of the simulation processing an evaluation step of evaluating the image processing step based on a comparison of the results of image processing performed by the image processing step on the evaluation image that has not been subjected to the evaluation image;
An image processing method comprising:
画像を入力する画像入力ステップと、
前記画像に対して所定の画像処理を行う画像処理ステップと、
画像を撮影して前記画像入力ステップに入力可能な撮影装置で想定される撮影状態を模擬する模擬処理を前記画像入力ステップで入力された画像に施して前記画像処理ステップに提供する模擬画像生成ステップと
前記画像入力ステップが入力した前記画像処理ステップの評価に用いられる評価画像について、前記模擬処理が施された前記評価画像に対して前記画像処理ステップが行った画像処理の結果と、前記模擬処理が施されていない前記評価画像に対して前記画像処理ステップが行った画像処理の結果の比較に基づき、前記画像処理ステップを評価する評価ステップと
をコンピュータに実行させる画像処理プログラム。
an image input step of inputting an image;
an image processing step of performing predetermined image processing on the image;
a simulated image generation step of performing simulation processing on the image input in the image input step to simulate a photographing state assumed by a photographing device capable of photographing an image and inputting the image to the image input step, and providing the resultant image to the image processing step; and ,
Regarding the evaluation image inputted by the image input step and used for the evaluation of the image processing step, the results of the image processing performed by the image processing step on the evaluation image subjected to the simulation processing and the results of the simulation processing an evaluation step of evaluating the image processing step based on a comparison of the results of image processing performed by the image processing step on the evaluation image that has not been subjected to the evaluation image;
An image processing program that causes a computer to execute.
JP2020218531A 2020-12-28 2020-12-28 Image processing device, image processing method, image processing program Active JP7451392B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020218531A JP7451392B2 (en) 2020-12-28 2020-12-28 Image processing device, image processing method, image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020218531A JP7451392B2 (en) 2020-12-28 2020-12-28 Image processing device, image processing method, image processing program

Publications (2)

Publication Number Publication Date
JP2022103725A JP2022103725A (en) 2022-07-08
JP7451392B2 true JP7451392B2 (en) 2024-03-18

Family

ID=82284572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020218531A Active JP7451392B2 (en) 2020-12-28 2020-12-28 Image processing device, image processing method, image processing program

Country Status (1)

Country Link
JP (1) JP7451392B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050571A (en) 2004-07-06 2006-02-16 Canon Inc Image processing apparatus
JP2008287378A (en) 2007-05-16 2008-11-27 Hitachi Omron Terminal Solutions Corp Image identification learning device and printed matter identification device using same
JP2012142978A (en) 2012-02-29 2012-07-26 Nikon Corp Image processor
JP2013042386A (en) 2011-08-17 2013-02-28 Hitachi Kokusai Electric Inc Monitoring system
JP2018205123A (en) 2017-06-05 2018-12-27 学校法人梅村学園 Image generation device and image generation method of generating an inspection-purpose image for making performance adjustment of image inspection system
JP2019087044A (en) 2017-11-07 2019-06-06 オムロン株式会社 Inspection device, data generation device, data generation method, and data generation program
JP6616536B1 (en) 2019-02-06 2019-12-04 寛惠 榎 Visibility evaluation apparatus, visibility evaluation program, and visibility evaluation method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050571A (en) 2004-07-06 2006-02-16 Canon Inc Image processing apparatus
JP2008287378A (en) 2007-05-16 2008-11-27 Hitachi Omron Terminal Solutions Corp Image identification learning device and printed matter identification device using same
JP2013042386A (en) 2011-08-17 2013-02-28 Hitachi Kokusai Electric Inc Monitoring system
JP2012142978A (en) 2012-02-29 2012-07-26 Nikon Corp Image processor
JP2018205123A (en) 2017-06-05 2018-12-27 学校法人梅村学園 Image generation device and image generation method of generating an inspection-purpose image for making performance adjustment of image inspection system
JP2019087044A (en) 2017-11-07 2019-06-06 オムロン株式会社 Inspection device, data generation device, data generation method, and data generation program
JP6616536B1 (en) 2019-02-06 2019-12-04 寛惠 榎 Visibility evaluation apparatus, visibility evaluation program, and visibility evaluation method

Also Published As

Publication number Publication date
JP2022103725A (en) 2022-07-08

Similar Documents

Publication Publication Date Title
CN108683907A (en) Optics module picture element flaw detection method, device and equipment
US20210012476A1 (en) Abnormality inspection device and abnormality inspection method
CN109376601B (en) Object tracking method based on high-speed ball, monitoring server and video monitoring system
US11275947B2 (en) Image processing system, image processing method, and image processing program
US20200265575A1 (en) Flaw inspection apparatus and method
WO2020194541A1 (en) Inspection device
CN112164048B (en) Magnetic shoe surface defect automatic detection method and device based on deep learning
CN113688820B (en) Stroboscopic band information identification method and device and electronic equipment
CN112651358A (en) Target detection method and device, network camera and storage medium
CN112730454A (en) Intelligent damage detection method for composite material based on fusion of optics, infrared thermal waves and ultrasonic waves
CN114140745A (en) Method, system, device and medium for detecting personnel attributes of construction site
JPWO2018168182A1 (en) MOBILE BODY DETECTING DEVICE, MOBILE BODY DETECTING METHOD, AND MOBILE BODY DETECTING PROGRAM
JP7451392B2 (en) Image processing device, image processing method, image processing program
JP2004312402A (en) System and apparatus for road monitoring
JPH0792104A (en) Method for inspecting defective point of object
JP4452793B2 (en) Illegal dumping point detection device, method, and program
JPWO2020003764A1 (en) Image processors, mobile devices, and methods, and programs
JP6784254B2 (en) Retained object detection system, retained object detection method and program
JP7362324B2 (en) Inspection method, manufacturing method and inspection device for image display device
JP3675279B2 (en) Point defect detection apparatus and method
CN220022902U (en) Chip detection device
CN109060831A (en) A kind of automatic dirty detection method based on bottom plate fitting
WO2022254747A1 (en) Appearance inspection device, appearance inspection method, learning device, and inference device
US12056910B2 (en) Method and system of evaluating the valid analysis region of a specific scene
JP2022046997A (en) High-level intelligence inspection system for inspecting wall surface of ship

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240306

R150 Certificate of patent or registration of utility model

Ref document number: 7451392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150