WO2015001967A1 - 画像処理フィルタの作成装置及びその方法 - Google Patents

画像処理フィルタの作成装置及びその方法 Download PDF

Info

Publication number
WO2015001967A1
WO2015001967A1 PCT/JP2014/066252 JP2014066252W WO2015001967A1 WO 2015001967 A1 WO2015001967 A1 WO 2015001967A1 JP 2014066252 W JP2014066252 W JP 2014066252W WO 2015001967 A1 WO2015001967 A1 WO 2015001967A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
parameter
processing filter
image
filter
Prior art date
Application number
PCT/JP2014/066252
Other languages
English (en)
French (fr)
Inventor
毅 長門
哲男 肥塚
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Publication of WO2015001967A1 publication Critical patent/WO2015001967A1/ja
Priority to US14/967,456 priority Critical patent/US9971954B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Definitions

  • the present invention relates to an image processing filter creation apparatus and method.
  • the appearance of industrial products is photographed using an imaging device to determine the presence or absence of defects.
  • FA advanced technology
  • noise, shadows, and fluctuations in brightness, etc. depending on the shooting environment in the field often affect the shot image. Therefore, it is desired to realize processing that is robust to environmental changes.
  • an appearance inspection device that inspects the appearance of industrial products
  • An image processing apparatus used for an appearance inspection apparatus obtains an output image by processing an image captured by a camera or the like with an image processing filter.
  • an image processing filter is generated by performing evolutionary calculation based on genetic programming. Genetic programming is a model of the evolution process of a living organism, and cross-processing and mutation processing are performed on a tree-structured image processing filter to generate a plurality of new image processing filters. Further, the new image processing filter having a high fitness and the initial image processing filter are exchanged, and the above-described steps are repeated to change the generation of the image processing filter, thereby searching for the optimum image processing filter.
  • image processing is performed on the image area specified by the operator in the image processing filter selection process.
  • the image processing uses a plurality of image processing filters. Then, a plurality of output images processed by the plurality of image processing filters are displayed on the display, and an operator selects a preferable output image from among them. Then, an evolution process is performed on the image processing filter that created the image selected by the operator.
  • an operator selects an image processing filter by checking an output image after the filter processing. That is, the fitness of the image processing filter is performed by comparing the images before and after processing by the image processing filter and the pixels constituting the image.
  • the fitness may be lowered due to a difference in the line width of the edge after processing or a teaching error. . Therefore, in the conventional fitness calculation method, an effective process may be deceived by optimization by genetic programming.
  • an object of the present invention is to improve the evaluation accuracy of an image processing filter by comparing an input image and an output image.
  • the input image is image-processed using a teaching parameter acquisition unit that acquires a first parameter that specifies a shape included in the input image, and an image processing filter having a tree structure.
  • a data processing unit that creates an output image
  • a feature detection unit that acquires a second parameter that specifies the shape of the output image
  • a comparison between the first parameter and the second parameter There is provided an image processing filter creating apparatus including a component that calculates fitness and genetically evolves the image processing filter to create a new image processing filter.
  • a process of creating a new image processing filter by genetically evolving an image processing filter that processes an input image, and a shape included in the input image are specified.
  • a method for generating an image processing filter comprising: obtaining a parameter of the image processing filter; and calculating a fitness of the image processing filter by comparing the first parameter and the second parameter. Is provided.
  • the evaluation accuracy of the image processing filter by comparing the input image and the output image is improved, and the creation accuracy of the image processing filter can be improved.
  • FIG. 1 is a diagram for explaining an example of an image processing filter according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an example of the principle of the image processing filter creation method according to the embodiment of the present invention.
  • FIG. 3 is a block diagram showing an example of a schematic configuration of an image processing apparatus including an image processing filter creation apparatus according to an embodiment of the present invention.
  • FIG. 4 is a flowchart showing an example of a method for creating an image processing filter according to the embodiment of the present invention.
  • FIG. 5 is a flowchart showing an example of a feature parameter teaching step in the image processing filter creation method according to the embodiment of the present invention.
  • FIG. 6A is a diagram showing an example of an image used in the feature parameter teaching step according to the embodiment of the present invention.
  • FIG. 6B is a diagram for explaining an example of a state in which a worker has taught a characteristic shape in the characteristic parameter teaching step according to the embodiment of the present invention.
  • FIG. 7A is a diagram illustrating an example of a process for extracting a teaching parameter from a characteristic shape taught by an operator in the characteristic parameter teaching process according to the embodiment of the present invention.
  • FIG. 7B is a diagram for explaining an example of a process for extracting a teaching parameter from a characteristic shape taught by an operator in the characteristic parameter teaching process according to the embodiment of the present invention.
  • FIG. 8 is a flowchart showing an example of the fitness evaluation process in the image processing filter creation method according to the embodiment of the present invention.
  • FIG. 9 is a diagram illustrating an example of a detection parameter extraction process used in the fitness evaluation process in the image processing filter creation method according to the embodiment of the present invention.
  • an object is to perform image processing on an input image with a robust image processing filter created using genetic programming, and obtain an output image close to a target image.
  • the output image is used, for example, to extract a feature of a subject or a feature region in the input image.
  • image processing is applied to, for example, an appearance inspection automation technique in the field of factory automation.
  • This embodiment can also be used in fields other than the above-described technology.
  • the image processing filter 1 has a tree structure having a large number of nodes.
  • the tree structure of the image processing filter 1 shown in FIG. 1 has three leaf nodes I for inputting the input image P1 before image processing.
  • there is one root node O that outputs the output image P2 after image processing and there are a plurality of nodes F1 to F5 between them.
  • Each of the nodes F1 to F5 is a predetermined program module or arithmetic expression.
  • FIG. 1 shows an example in which a straight line A1 of the input image P1 is converted into a straight line A2 by the image processing filter 1.
  • the structure of the image processing filter 1 is not limited to that shown in FIG.
  • an individual group G1 including the initial individual S1 of the image processing filter 1 is generated.
  • a predetermined number of, for example, eight image processing filters 1 serving as the initial individual S1 are generated by a predetermined method.
  • two individuals S1 image processing filter 1 are randomly extracted from the group G1 of the image processing filter 1, and a new individual S2 (image processing filter 1) is generated through an evolution process.
  • the evolution process at least a part of the tree structure of the individual S1 is changed by crossing or mutation. The way of crossing, the way of mutation, the probability of occurrence of mutation, etc. are preset.
  • the fitness is calculated in the fitness calculation step.
  • the fitness is calculated by comparing the feature amount of the image generated using each individual S2 with the feature amount of the input image P1 calculated in advance. Subsequently, a determination step is performed to determine whether the fitness level is equal to or higher than a threshold value. If the threshold value is exceeded, it is assumed that the generation of a robust image processing filter has been completed, and the processing is terminated. On the other hand, if the fitness is less than the threshold value, for example, two predetermined numbers of individuals S2 are extracted from the individual group Gd made of the individual S2 generated in the evolution process, and replaced with the individual S1 in the initial individual group G1.
  • the individual S2 to be extracted is determined by, for example, the best individual selection or roulette selection. As an example of the method for extracting the individual S2, there is a method of extracting the individual by the best individual selection and the roulette selection one by one.
  • the second generation A population G2 is created. Thereafter, the same process as described above is performed on the basis of the second-generation population G2 to create a third-generation population G3. Thereafter, the same process is repeated a predetermined number of times, for example, m times to execute generational change a plurality of times, and then an individual Sm having a high fitness is acquired as the image processing filter 1.
  • the image processing unit 23 functions as a device for processing an image and a device for creating the image processing filter 1 and includes a data processing unit 31, a teaching parameter acquisition unit 33, and an automatic configuration unit 34.
  • the data processing unit 31 processes the image captured by the imaging device 22 to create an input image P1 or creates an output image P2 using the image processing filter 1.
  • the image processing unit 23 includes a teaching parameter acquisition unit 33 and an automatic configuration unit 34 as functions characteristic of this embodiment.
  • the teaching parameter acquisition unit 33 is used for a process in which an operator uses the input device 25 to specify a region for extracting a teaching parameter, which is a first parameter indicating the feature amount of the input image P1, and a teaching parameter extraction process. Is done.
  • the automatic configuration unit 34 generates the image processing filter 1 based on genetic programming. Further, the automatic construction unit 34 includes a feature detection unit 35 that detects a detection parameter that is a second parameter indicating the feature amount of the output image P2.
  • step S ⁇ b> 101 the data processing unit 31 acquires image data of the input image P ⁇ b> 1 using the imaging device 22.
  • the teaching parameter acquisition unit 33 extracts the feature amount of the input image P1 and acquires the teaching parameter.
  • the automatic configuration unit 34 generates an initial population G1 of the image processing filter 1.
  • step S104 the fitness of the image processing filter 1 is evaluated from the teaching parameter and the detection parameter.
  • step S105 when the fitness level exceeds the threshold value, the image processing filter 1 is adopted, and the process here is terminated. In this case, the image picked up by the image pickup device 22 is processed using the created image processing filter 1 and output to the output device 24.
  • step S105 if the fitness level is less than or equal to the threshold value in step S105, the process proceeds to step S106 to perform generation change. Thereafter, the process returns to the step S103 from the terminal A to generate a new group G2 of image processing filters 1.
  • step S104 corresponds to the fitness calculation step for each individual in FIG.
  • the determination step in step S105 corresponds to the determination step in FIG.
  • the generation change in step S106 corresponds to the evolution process shown in FIG. 2, and at least a part of the tree structure of the individual S1 is changed by crossing or mutation. Then, when returning from step S106 to step S103, for example, two individuals S1 are extracted from the individual group Gd in FIG. 2 by selecting the best individual, and the individual group G2 is formed. By repeating step S103 to step S106, the generation change of the image processing filter 1 proceeds and the image processing filter 1 can be optimized.
  • step S201 the image processing device 1 causes the output device 24 to display the input image P1.
  • step S202 the teaching parameter acquisition unit 33 acquires a feature shape in the input image P1.
  • the operator can specify the area of the input image P1 displayed on the output device 24 by using the input device 25.
  • step S103 the teaching parameter acquisition unit 33 extracts teaching parameters as information for specifying the feature shape of the input image P1.
  • step S102 a specific example of the parameter teaching process in step S102 will be described with reference to FIGS. 6A and 6B.
  • the operator uses the input device 25 such as a mouse, and the GUI (Graphical User Interface) provided by the teaching parameter acquisition unit 33 on the display of the output device 24 is displayed. Use it to draw a straight line or circle in the image.
  • a feature shape including a straight line and a circle is specified.
  • the teaching parameter acquisition unit 33 highlights the feature shape in the input image P1 so that the feature shape can be easily confirmed.
  • the characteristic shape includes a straight line L1 and a circle C1.
  • the feature shape is not limited to a straight line or a circle.
  • the number of feature shapes is not limited to two, and may be one or three or more.
  • the teaching parameter acquisition unit 33 extracts a teaching parameter Tn ( ⁇ ) (where n is a positive integer) from a set of pixel position data corresponding to a straight line or a circle input by an operator. For example, as shown in FIG. 7A, when the characteristic shape is a straight line L1, the teaching parameter acquisition unit 33 creates a straight line from the set of pixels specified by the operator using an approximate expression. Further, as a parameter characterizing the straight line, an inclination ⁇ between a predetermined position of the image, for example, a distance d from the reference coordinate and a straight line passing through the reference coordinate, is extracted, and the teaching parameter T1 ( ⁇ ) is used using these data. Create
  • the teaching parameter acquisition unit 33 creates a circle from the set of pixels specified by the operator using an approximate expression. Then, as parameters characterizing the circle, the center coordinates (x, y) of the circle C1 with the reference coordinates as the origin and the information on the radius r are extracted, and the teaching parameter T2 ( ⁇ ) is created using these data.
  • the parameters characterizing the graphic in the input image P1 are not limited to the distance d, the inclination ⁇ , the coordinates (x, y), and the radius r, but may be other parameters or a combination thereof.
  • step S301 the data processing unit 31 performs image processing on the input image P1 using the tree-structured image processing filter 1 to be evaluated, and creates an output image P2.
  • step S302 the feature detection unit 36 detects a detection parameter On ( ⁇ ) (where n is a positive integer) from the output image P2. For example, when an output image P2 as shown in FIG. 9 is obtained, for example, the shape of the straight line L1 and the circle C1 included in the output image P2 is detected by using Hough transform or the like. Then, when parameters that specify the detected shape are extracted, detection parameters O1 ( ⁇ ) and O2 ( ⁇ ) are obtained.
  • the detection parameter On ( ⁇ ) is associated with the teaching parameter Tn ( ⁇ ). That is, the teaching parameter T1 ( ⁇ ) and the detection parameter O1 ( ⁇ ) for the same shape at the same place are associated with each other using an index such as a distance from the same origin coordinate.
  • the detection parameter O1 ( ⁇ ) for the straight line L1 is information including the distance d and the inclination ⁇ , similarly to the corresponding teaching parameter T1 ( ⁇ ).
  • the detection parameter O2 ( ⁇ ) for the circle C1 is information including the coordinates (x, y) and the radius r, similarly to the corresponding teaching parameter T2 ( ⁇ ).
  • the fitness is calculated from the teaching parameter T1 ( ⁇ ) of the straight line L1 of the input image P1 and the detection parameter O1 ( ⁇ ) for the figure corresponding to the straight line L1 of the output image P2.
  • the fitness is calculated from the teaching parameter T2 ( ⁇ ) of the circle C1 of the input image P1 and the detection parameter O2 ( ⁇ ) for the figure corresponding to the circle C1 of the output image P2.
  • the circle C1 is obtained by calculating the cosine similarity in the (x, y, z) coordinate system.
  • the fitness level is equal to or greater than a predetermined threshold, it is determined that the robust image processing filter 1 has been generated. Accordingly, the comparative evaluation between the input image P1 and the output image P2 can be performed by each parameter of the linear component and the circular component. In addition, it is possible to evaluate the fitness that allows the deviation of the line width of the image and the teaching position.
  • the feature parameters extracted from the images before and after the image processing using the image processing filter 1 The fitness of the image processing filter 1 is calculated by comparing.
  • the teaching parameter Tn ( ⁇ ) of the input image P1 and the detection parameter On ( ⁇ ) of the output image P2 are used as the feature parameters.
  • the two types of parameters Tn ( ⁇ ) and On ( ⁇ ) are compared, and the fitness of the tree-structured image processing filter 1 is calculated based on the similarity.
  • the effective image processing filter 1 can be prevented from being mistakenly mistaken, and the optimum image processing filter 1 can be searched at high speed and with high accuracy. Further, since the search accuracy of the automatic configuration of the image processing filter 1 is improved, the learning time can be shortened and the detection accuracy can be improved. Moreover, since the teaching parameter Tn ( ⁇ ) is acquired by designating the shape in the input image P1, the influence of the teaching accuracy on the learning result is small, and the skill of the teaching worker is not limited.
  • Image processing filter 21 Image processing device (image processing filter creation device) 23 Image processing unit 23 (image processing filter creation device) 31 Data processing unit 33 Teaching parameter acquisition unit 34 Configuration unit 36 Feature detection unit On ( ⁇ ) Detection parameter (second parameter) P1 input image P2 output image Tn ( ⁇ ) Teaching parameter (first parameter)

Abstract

 遺伝的プログラミングを利用して画所処理フィルタを作成するにあたり、教示パラメータ取得部が画像処理前の入力画像中の特徴的な形状を表す教示パラメータを取得する。データ処理部が入力画像を画像処理フィルタによって画像処理して出力画像を作成したら、特徴抽出部が出力画像中の特徴的な形状を表す検出パラメータを抽出する。自動構成部は、教示パラメータと検出パラメータのコサイン類似度を計算することによって画像処理フィルタを評価する。

Description

画像処理フィルタの作成装置及びその方法
 本発明は、画像処理フィルタの作成装置及びその方法に関する。
 工業製品の外観検査などでは、撮像装置を用いて工業製品の外観を撮影し、欠陥の有無を判定している。ここで、FA(ファクトリーオートメーション)分野においては、現場の撮影環境に応じたノイズや、影、明るさの変動などが撮影画像に影響を与えることが多く、欠陥部を抽出する画像処理アルゴリズムには、環境変化にロバストな処理の実現が望まれている。また、工業製品の外観を検査する外観検査装置を運用する場合、検査対象の変更や、外観検査装置の改良に起因して検査環境が変化したときに、画像処理アルゴリズムの再構築が必要になることがある。そのため、外観試験装置においては、画像処理方法を容易に構築できることが求められている。
 外観検査装置に使用される画像処理装置では、カメラなどで撮影した画像を画像処理フィルタで画像処理することで出力画像を得ている。ここで、従来の画像処理装置では、画像処理フィルタを遺伝的プログラミングに基づいた進化的計算を行って生成することが知られている。遺伝的プログラミングとは、生物の進化の過程をモデルとしたものであり、木構造状の画像処理フィルタに対して交叉処理と突然変異処理を行い、新たな画像処理フィルタを複数生成する。さらに、適応度の高い新しい画像処理フィルタと、初期の画像処理フィルタとを交換し、前記の工程を繰り返すことによって画像処理フィルタを世代交代させ、最適な画像処理フィルタを探索する。
 従来の画像処理フィルタの作成工程では、画像処理フィルタの選択工程において、作業者が指定した領域の画像領域に対して画像処理を行う。画像処理は、複数の画像処理フィルタを使用する。そして、複数の画像処理フィルタによって処理された複数の出力画像をディスプレイに表示し、その中から作業者が好ましい出力画像を選択する。そして、作業者に選択された画像を作成した画像処理フィルタに対して進化工程を実行する。
特開2010-26945号公報
 従来の画像処理フィルタの作成工程では、フィルタ処理後の出力画像を作業者が確認することによって画像処理フィルタを選択していた。即ち、画像処理フィルタの適応度は、画像処理フィルタによる加工前後の画像や、画像を構成する画素を比較することによって行われていた。しかしながら、加工前後の画像の画像や画素を比較する場合には、仮に有効な出力結果であっても、処理後のエッジの線幅の違いや、教示の誤差により適応度が低くなる場合がある。そのため、従来の適応度の算出方法では、有効な処理が遺伝的プログラミングによる最適化により淘汰されてしまうことがあった。
 1つの側面では、本発明は、入力画像と出力画像の比較による画像処理フィルタの評価精度を向上させることを目的とする。
 実施形態の一観点によれば、入力画像に含まれる形状を特定する第1のパラメータを取得する教示パラメータ取得部と、木構造を有する画像処理フィルタを使用して前記入力画像を画像処理して出力画像を作成するデータ処理部と、前記出力画像の形状を特定する第2のパラメータを取得する特徴検出部と、前記第1のパラメータと前記第2のパラメータを比較して前記画像処理フィルタの適応度を算出し、前記画像処理フィルタを遺伝的に進化させて新しい前記画像処理フィルタを作成する構成部と、含むことを特徴とする画像処理フィルタの作成装置が提供される。
 また、実施形態の別の観点によれば、入力画像を処理する画像処理フィルタを遺伝的に進化させることにより、新しい前記画像処理フィルタを作成する工程と、前記入力画像に含まれる形状を特定する第1のパラメータを取得する工程と、遺伝的に進化させた前記画像処理フィルタを使用して前記入力画像を画像処理して出力画像を作成する工程と、前記出力画像の形状を特定する第2のパラメータを取得する工程と、前記第1のパラメータと前記第2のパラメータを比較することによって前記画像処理フィルタの適応度を算出する工程と、を含むことを特徴とする画像処理フィルタの作成方法が提供される。
 入力画像と出力画像の特徴を簡単に、かつ確実に抽出することが可能になるので、入力画像と出力画像の比較による画像処理フィルタの評価精度が向上し、画像処理フィルタの作成精度を向上できる。
図1は、本発明の実施の形態に係る画像処理フィルタの一例を説明する図である。 図2は、本発明の実施の形態に係る画像処理フィルタの作成方法の原理の一例を説明する図である。 図3は、本発明の実施の形態に係る画像処理フィルタの作成装置を含む画像処理装置の概略構成の一例を示すブロック図である。 図4は、本発明の実施の形態に係る画像処理フィルタの作成方法の一例を示すフローチャートである。 図5は、本発明の実施の形態に係る画像処理フィルタの作成方法における特徴パラメータの教示工程の一例を示すフローチャートである。 図6Aは、本発明の実施の形態に係る特徴パラメータの教示工程で使用される画像の一例を示す図である。 図6Bは、本発明の実施の形態に係る特徴パラメータの教示工程において作業者が特徴的な形状を教唆した状態の一例を説明する図である。 図7Aは、本発明の実施の形態に係る特徴パラメータの教示工程で作業者が教唆した特徴的な形状から教示パラメータを抽出する工程の一例を説明する図である。 図7Bは、本発明の実施の形態に係る特徴パラメータの教示工程で作業者が教唆した特徴的な形状から教示パラメータを抽出する工程の一例を説明する図である。 図8は、本発明の実施の形態に係る画像処理フィルタの作成方法における適応度の評価工程の一例を示すフローチャートである。 図9は、本発明の実施の形態に係る画像処理フィルタの作成方法における適応度の評価工程で使用される検出パラメータの抽出工程の一例を説明する図である。
 発明の目的及び利点は、請求の範囲に具体的に記載された構成要素及び組み合わせによって実現され達成される。
 前述の一般的な説明及び以下の詳細な説明は、典型例及び説明のためのものであって、本発明を限定するためのものではない。
 最初に、実施形態の原理を説明する。
 この実施形態では、入力画像に対して、遺伝的プログラミングを用いて作成したロバストな画像処理フィルタで画像処理し、目標画像に近い出力画像を取得することを目的とする。出力画像は、例えば、入力画像中の被写体の特徴や、特徴領域を抽出するために用いられる。このような、画像処理は、例えば、ファクトリーオートメーション分野における外観検査の自動化技術に適用される。なお、この実施の形態は、前記の技術以外の分野に使用することも可能である。
 図1に示すように、画像処理フィルタ1は、多数のノードを有する木構造を有する。例えば、図1に示す画像処理フィルタ1の木構造は、画像処理前の入力画像P1を入力する3つの葉ノードIを有する。さらに、画像処理後の出力画像P2を出力する根ノードOを1つ有し、その間に複数のノードF1~F5を有する。ノードF1~F5は、1つ1つが所定のプログラムモージュールや演算式になっている。図1には、入力画像P1の直線A1が画像処理フィルタ1によって直線A2に変換される例が示されている。なお、画像処理フィルタ1の構造は、図1に示すものに限定されない。
 次に、図2を参照して、遺伝的プログラミングを使用し、目的の処理に対して適応度が高くなるように画像処理フィルタの木構造を最適化する方法の概念について説明する。
 最初に、画像処理フィルタ1の初期個体S1からなる個体群G1を生成させる。初期個体S1となる画像処理フィルタ1は、予め定められた手法によって、所定数、例えば8個生成される。続いて、画像処理フィルタ1の個体群G1からランダムに2つの個体S1(画像処理フィルタ1)を取り出し、進化過程を経て新しい個体S2(画像処理フィルタ1)を生成させる。進化過程では、交差や、突然変異によって、個体S1の木構造の少なくとも一部を変化させる。交差のさせ方や、突然変異のさせ方、突然変異の発生確率などは、予め設定される。
 進化過程によって新しく生成された各個体S2については、適応度計算工程において、適応度を計算する。適応度は、各個体S2を用いて生成した画像の特徴量と、予め計算された入力画像P1の特徴量を比較することで計算される。
 続いて、判定工程を実施し、適応度が閾値以上になったか判定する。閾値以上なれば、ロバストな画像処理フィルタの生成が完了したものとし、処理を終了する。一方、適応度が閾値未満であれば、進化過程で生成した個体S2からなる個体群Gdから、所定数の個体S2を例えば2つ抽出し、初期の個体群G1内の個体S1と置き換える。抽出される個体S2は、例えば、最良個体選択や、ルーレット選択によって決定される。個体S2の抽出方法の一例としては、最良個体選択と、ルーレット選択による個体を1つずつ抽出することがある。
 以上のようにして、初期の個体群G1に属する一部の個体S1を進化させた新しい個体S2を作成し、初期の個体群G1の一部を新しい個体S2に置き換えることにより、2世代目の個体群G2を作成する。この後、2世代目の個体群G2をベースに前記と同様の処理を行って、3世代目の個体群G3を作成する。以降は、同様の処理を所定回数、例えばm回繰り返すことによって、世代交代を複数回実行した後、適応度の高い個体Smを画像処理フィルタ1として取得する。
 次に、図3を参照して前記の原理を実現するための装置構成について説明する。画像処理装置21は、製品の外観を検査する外観検査装置の一部をなし、画像を取得する撮像装置22と、画像処理部23と、出力装置24と、入力装置25とを含んで構成されている。撮像装置22は、撮影した画像のデータを画像処理部23のデータ処理部31に出力するものである。出力装置24は、ディスプレイや、プリンタ、記録媒体にデータを書き込む装置などである。入力装置25は、キーボードやマウスなどである。なお、画像処理装置21は、画像処理部23のみを有する構成でも良い。また、画像処理装置21は、その他の装置、又はその他の装置の一部を構成しても良い。さらに、画像処理装置21は、汎用のコンピュータに画像処理フィルタ作成プログラムを実行させることによって実現させても良い。
 画像処理部23は、画像を処理する装置と、画像処理フィルタ1の作成装置として機能し、データ処理部31と、教示パラメータ取得部33と、自動構成部34とを含んで構成されている。データ処理部31は、撮像装置22で撮像した画像を処理して入力画像P1を作成したり、画像処理フィルタ1を用いて出力画像P2を作成したりする。また、画像処理部23は、この実施の形態に特徴的な機能として、教示パラメータ取得部33と、自動構成部34とを有する。教示パラメータ取得部33は、作業者が入力装置25を使用して入力画像P1の特徴量を示す第1のパラメータである教示パラメータを抽出する領域を指定する処理と、教示パラメータの抽出処理に使用される。自動構成部34は、遺伝的プログラミングに基づいて画像処理フィルタ1の生成を行う。さらに、自動構成部34は、出力画像P2の特徴量を示す第2のパラメータである検出パラメータを検出する特徴検出部35が含まれる。
 次に、図4のフローチャートを参照し、画像処理装置1の処理について説明する。
 最初に、ステップS101で、データ処理部31が撮像装置22を用いて入力画像P1の画像データを取得する。続くステップS102では、教示パラメータ取得部33が入力画像P1の特徴量を抽出して教示パラメータを取得する。この後、ステップS103で、自動構成部34が画像処理フィルタ1の初期個体群G1を生成する。ステップS104では、教示パラメータと検出パラメータから画像処理フィルタ1の適応度を評価する。ここで、ステップS105に示すように、適応度が閾値を越えていた場合には、その画像処理フィルタ1を採用し、ここでの処理を終了する。この場合、作成した画像処理フィルタ1を使用して撮像装置22で撮像した画像を処理し、出力装置24に出力する。
 これに対して、ステップS105で適応度が閾値以下の場合には、ステップS106に進んで世代交代を行う。その後、端子AからステップS103に戻って新しい画像処理フィルタ1の個体群G2を生成する。
 ここで、ステップS104は、図2の各個体の適応度計算工程に相当する。ステップS105の判定工程は、図2の判定工程に相当する。ステップS106の世代交代は、図2に示す進化工程に相当し、交差や、突然変異によって、個体S1の木構造の少なくとも一部を変化させる。そして、ステップS106からステップS103に戻ると、例えば、図2の個体群Gdから2つの個体S1が最良個体選択などによって抽出され、個体群G2が形成される。ステップS103からステップS106が繰り返されることによって画像処理フィルタ1の世代交代が進んで画像処理フィルタ1の最適化が図れる。
 次に、図5を参照し、ステップS102のパラメータの教示処理の詳細について説明する。
 まず、ステップS201で、画像処理装置1は、出力装置24に入力画像P1を表示させる。続いて、ステップS202で、教示パラメータ取得部33が入力画像P1中の特徴形状を取得する。特徴形状の取得方法は、例えば、出力装置24に表示させた入力画像P1を作業者が入力装置25を使用して領域指定することがあげられる。そして、ステップS103で、教示パラメータ取得部33が入力画像P1の特徴形状を特定する情報として教示パラメータを抽出する。
 ここで、図6A及び図6Bを参照し、ステップS102のパラメータの教示処理の具体例について説明する。図6Aに示すような入力画像P1が得られた場合、作業者が、マウス等の入力装置25を使用し、教示パラメータ取得部33が出力装置24のディスプレイに提供するGUI(Graphical User Interface)を利用し、画像中の直線や円形をなぞるように描画する。この作業によって、図6Bに示すように、直線や円形を含む特徴形状が特定される。教示パラメータ取得部33は、特徴形状を確認し易いように、入力画像P1中で特徴形状を強調表示させる。例えば、特徴形状には、直線L1や、円C1が含まれる。なお、特徴形状は、直線や円形に限定されない。また、特徴形状の数は、2つに限定されず、1つ又は3つ以上でも良い。
 教示パラメータ取得部33は、作業者によって入力された直線や円形に相当する画素の位置データの集合から、教示パラメータTn(ω)(ここで、nは正の整数)を抽出する。例えば、図7Aに示すように、特徴的な形状が直線L1であった場合は、教示パラメータ取得部33は、作業者が指定した画素の集合から近似式を用いて直線を作成する。さらに、その直線を特徴付けるパラメータとして、画像の所定位置、例えば、基準座標からの距離dと、基準座標を通る直線との間の傾きθを抽出し、これらデータを用いて教示パラメータT1(ω)を作成する。
 また、図7Bに示すように、特徴的な形状が円形C1であった場合は、教示パラメータ取得部33は、作業者が指定した画素の集合から近似式を用いて円形を作成する。そして、その円形を特徴付けるパラメータとして、基準座標を原点とする円C1の中心座標(x,y)と、半径rの情報を抽出し、これらのデータを用いて教示パラメータT2(ω)を作成する。ここで、入力画像P1中の図形を特徴付けるパラメータは、距離dや、傾きθ、座標(x,y)、半径rに限定されず、その他のパラメータや、それらの組み合わせであっても良い。
 次に、図8を参照し、ステップS104の教示パラメータ及び検出パラメータを用いた適応度の評価処理の詳細について説明する。
 まず、ステップS301で、データ処理部31が、評価を行う木構造の画像処理フィルタ1を用いて入力画像P1を画像処理し、出力画像P2を作成する。ステップS302では、特徴検出部36が出力画像P2から検出パラメータOn(ω)(ここで、nは正の整数)を検出する。例えば、図9に一例を示すような出力画像P2が得られた場合、例えば、ハフ(Hough)変換などを用いて出力画像P2に含まれる直線L1や、円C1の形状を検出する。そして、検出した形状を特定するパラメータを抽出すると、検出パラメータO1(ω)、O2(ω)が得られる。
 ここで、検出パラメータOn(ω)は、教示パラメータTn(ω)と対応付けられている。即ち、教示パラメータT1(ω)と、同じ場所の同じ形状についての検出パラメータO1(ω)は、例えば、同じ原点座標からの距離などの指標を用いて対応付けられる。例えば、直線L1についての検出パラメータO1(ω)は、対応する教示パラメータT1(ω)と同様に、距離dと傾きθを含む情報になる。同様に、円C1についての検出パラメータO2(ω)は、対応する教示パラメータT2(ω)と同様に、座標(x,y)と半径rを含む情報になる。
 そして、ステップS303では、自動構成部34が、検出パラメータOn(ω)と教示パラメータTn(ω)を用いて適応度を計算する。適応度を計算するときには、対応する教示パラメータTn(ω)と検出パラメータOn(ω)を用い、コサイン類似度を用いて適応度を計算する。具体的には、適応度fitnessは、以下の式で算出される。
Figure JPOXMLDOC01-appb-M000001
 例えば、入力画像P1の直線L1の教示パラメータT1(ω)と、出力画像P2の直線L1に相当する図形についての検出パラメータO1(ω)とから適応度が計算される。同様に、入力画像P1の円C1の教示パラメータT2(ω)と、出力画像P2の円C1に相当する図形についての検出パラメータO2(ω)とから適応度が計算される。例えば、円C1については、(x,y,z)座標系においてコサイン類似度を計算することによって得られる。
 そして、適応度が予め定められた閾値以上であれば、ロバストな画像処理フィルタ1が生成できたと判定する。これによって、直線成分や、円形成分の各パラメータにより、入力画像P1と出力画像P2の比較評価が可能になる。また、画像の線幅や教示位置のずれを許容した適応度の評価が行えるようになる。
 以上、説明したように、この実施の形態では、遺伝的プログラミングを用いて木構造を有する画像処理フィルタ1を作成するにあたり、画像処理フィルタ1を用いた画像処理の前後の画像から抽出した特徴パラメータを比較することにより、画像処理フィルタ1の適応度を算出するようにした。ここで、特徴パラメータには、入力画像P1の教示パラメータTn(ω)と、出力画像P2の検出パラメータOn(ω)が使用される。そして、2種類のパラメータTn(ω),On(ω)を比較し、その類似度により木構造の画像処理フィルタ1の適応度を算出するようにした。これにより、画像中の形状の特徴を表すパラメータを用いて入力画像P1と出力画像P2を比較することが可能になり、画素単位の位置ズレや線幅等の影響を小さくすることができる。その結果、有効な画像処理フィルタ1が誤って淘汰されることが防止され、最適な画像処理フィルタ1を高速、かつ高精度に探索することが可能となる。
 また、画像処理フィルタ1の自動構成の探索精度が向上することで、学習時間の短縮並びに検出精度の向上が見込める。また、入力画像P1中の形状を指定することによって教示パラメータTn(ω)を取得するので、教示精度による学習結果への影響は小さく、教示作業者の技量は問わない。
 ここで挙げた全ての例及び条件的表現は、発明者が技術促進に貢献した発明及び概念を読者が理解するのを助けるためのものであり、ここで具体的に挙げたそのような例及び条件に限定することなく解釈するものであり、また、明細書におけるそのような例の編成は本発明の優劣を示すこととは関係ない。本発明の実施形態を詳細に説明したが、本発明の精神及び範囲から逸脱することなく、それに対して種々の変更、置換及び変形を施すことができる。
 1 画像処理フィルタ
 21 画像処理装置(画像処理フィルタの作成装置)
 23 画像処理部23(画像処理フィルタの作成装置)
 31 データ処理部
 33 教示パラメータ取得部
 34 構成部
 36 特徴検出部
 On(ω) 検出パラメータ(第2のパラメータ)
 P1 入力画像
 P2 出力画像
 Tn(ω) 教示パラメータ(第1のパラメータ)

Claims (10)

  1.  入力画像に含まれる形状を特定する第1のパラメータを取得する教示パラメータ取得部と、
     木構造を有する画像処理フィルタを使用して前記入力画像を画像処理して出力画像を作成するデータ処理部と、
     前記出力画像の形状を特定する第2のパラメータを取得する特徴検出部と、
     前記第1のパラメータと前記第2のパラメータを比較して前記画像処理フィルタの適応度を算出し、前記画像処理フィルタを遺伝的に進化させて新しい前記画像処理フィルタを作成する構成部と、
    含むことを特徴とする画像処理フィルタの作成装置。
  2.  前記教示パラメータ取得部は、前記第1のパラメータ及び前記第2のパラメータとして、基準座標から直線までの距離と、基準座標を通る直線との間の傾きを抽出するように構成したことを特徴とする請求項1に記載の画像処理フィルタの作成装置。
  3.  前記特徴検出部は、前記第1のパラメータ及び前記第2のパラメータとして、円の中心の座標と、半径を抽出するように構成したことを特徴とする請求項1又は請求項2に記載の画像処理フィルタの作成装置。
  4.  前記構成部は、コサイン類似度を用いて前記第1のパラメータと前記第2のパラメータの比較し、コサイン類似度が所定値以上になったら前記画像処理フィルタを遺伝的に進化させる工程を終了させるように構成したことを特徴とする請求項1乃至請求項3のいずれか一項に記載の画像処理フィルタの作成装置。
  5.  入力画像を処理する画像処理フィルタを遺伝的に進化させることにより、新しい前記画像処理フィルタを作成する工程と、
     前記入力画像に含まれる形状を特定する第1のパラメータを取得する工程と、
     遺伝的に進化させた前記画像処理フィルタを使用して前記入力画像を画像処理して出力画像を作成する工程と、
     前記出力画像の形状を特定する第2のパラメータを取得する工程と、
     前記第1のパラメータと前記第2のパラメータを比較することによって前記画像処理フィルタの適応度を算出する工程と、
    を含むことを特徴とする画像処理フィルタの作成方法。
  6.  前記画像処理フィルタの適応度を算出する工程は、コサイン類似度を用いて前記第1のパラメータと前記第2のパラメータを比較し、コサイン類似度が所定値以上になったら前記画像処理フィルタを遺伝的に進化させる工程を終了することを特徴とする請求項5に記載の画像処理フィルタの作成方法。
  7.  入力画像を処理する画像処理フィルタを遺伝的に進化させることにより、新しい前記画像処理フィルタを作成し、
     前記入力画像に含まれる形状を特定する第1のパラメータを取得し、
     遺伝的に進化させた前記画像処理フィルタを使用して前記入力画像を画像処理して出力画像を作成し、
     前記出力画像の形状を特定する第2のパラメータを取得し、
     前記第1のパラメータと前記第2のパラメータを比較することによって前記画像処理フィルタの適応度を算出する処理をコンピュータに実行させることを特徴とする画像処理フィルタの作成プログラム。
  8.  前記第1のパラメータと前記第2のパラメータは、直線形状を特定するパラメータとして、基準座標からの距離と、基準座標を通る直線との間の傾きの情報を含むことを特徴とする請求項7に記載の画像処理フィルタの作成プログラム。
  9.  前記第1のパラメータと前記第2のパラメータは、円形状を特定するパラメータとして、中心の座標と、半径の情報を含むことを特徴とする請求項7又は請求項8に記載の画像処理フィルタの作成プログラム。
  10.  前記第1のパラメータと前記第2のパラメータの比較は、コサイン類似度を用い、コサイン類似度が所定値以上になったら前記画像処理フィルタを遺伝的に進化させる工程を終了することを特徴とする請求項7乃至請求項9のいずれか一項に記載の画像処理フィルタの作成プログラム。
PCT/JP2014/066252 2013-07-02 2014-06-19 画像処理フィルタの作成装置及びその方法 WO2015001967A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/967,456 US9971954B2 (en) 2013-07-02 2015-12-14 Apparatus and method for producing image processing filter

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013138593A JP6179224B2 (ja) 2013-07-02 2013-07-02 画像処理フィルタの作成装置及びその方法
JP2013-138593 2013-07-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/967,456 Continuation US9971954B2 (en) 2013-07-02 2015-12-14 Apparatus and method for producing image processing filter

Publications (1)

Publication Number Publication Date
WO2015001967A1 true WO2015001967A1 (ja) 2015-01-08

Family

ID=52143545

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/066252 WO2015001967A1 (ja) 2013-07-02 2014-06-19 画像処理フィルタの作成装置及びその方法

Country Status (3)

Country Link
US (1) US9971954B2 (ja)
JP (1) JP6179224B2 (ja)
WO (1) WO2015001967A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017056320A1 (ja) * 2015-10-02 2017-04-06 富士通株式会社 プログラム生成装置、プログラム生成方法および生成プログラム
US11182650B2 (en) * 2017-03-24 2021-11-23 Fujitsu Limited Information processing apparatus to generate a next generation image processing program in genetic programming, control method, and non-transitory computer-readable storage medium for storage program

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015194006A1 (ja) * 2014-06-19 2015-12-23 富士通株式会社 プログラム生成装置、プログラム生成方法およびプログラム
JP6468356B2 (ja) * 2015-06-25 2019-02-13 富士通株式会社 プログラム生成装置、プログラム生成方法および生成プログラム
JP6607261B2 (ja) * 2015-12-24 2019-11-20 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2020055575A1 (en) 2018-09-14 2020-03-19 Multi-Chem Group, Llc Polyaromatic hydrocarbon additives for hydrate inhibiton
US11130898B2 (en) 2018-11-29 2021-09-28 Halliburton Energy Services, Inc. Treatment fluids containing high density iodide brines
JP7247578B2 (ja) * 2018-12-27 2023-03-29 東洋製罐グループホールディングス株式会社 画像処理システム、及び画像処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034719A (ja) * 2005-07-27 2007-02-08 Sharp Corp 画像処理装置および画像処理方法
JP2010026945A (ja) * 2008-07-23 2010-02-04 Nikon Corp 画像フィルタ生成装置、画像フィルタ生成方法およびプログラム
JP2011014051A (ja) * 2009-07-03 2011-01-20 Nikon Corp 生成装置、生成方法、および生成プログラム
JP2013127716A (ja) * 2011-12-19 2013-06-27 Nippon Signal Co Ltd:The 混雑の非通常状態検知システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7088854B2 (en) * 2001-04-25 2006-08-08 Cotman Carl W Method and apparatus for generating special-purpose image analysis algorithms
US8798937B2 (en) * 2004-02-10 2014-08-05 Koninklijke Philips N.V. Methods for optimizing and using medical diagnostic classifiers based on genetic algorithms
EP1830320A4 (en) * 2004-12-24 2010-10-20 Nat Univ Corp Yokohama Nat Uni IMAGE PROCESSOR
US8190543B2 (en) * 2008-03-08 2012-05-29 Tokyo Electron Limited Autonomous biologically based learning tool
US8396582B2 (en) * 2008-03-08 2013-03-12 Tokyo Electron Limited Method and apparatus for self-learning and self-improving a semiconductor manufacturing tool
GB201013721D0 (en) * 2010-08-16 2010-09-29 Mbda Uk Ltd Image processing method
JP6007682B2 (ja) * 2012-08-31 2016-10-12 富士通株式会社 画像処理装置、画像処理方法及びプログラム
US9116924B2 (en) * 2013-01-14 2015-08-25 Xerox Corporation System and method for image selection using multivariate time series analysis
CN108107571B (zh) * 2013-10-30 2021-06-01 株式会社摩如富 图像处理装置及方法及非暂时性计算机可读记录介质
US20150363660A1 (en) * 2014-06-12 2015-12-17 Asap54.Com Ltd System for automated segmentation of images through layout classification
TWI577327B (zh) * 2014-08-14 2017-04-11 由田新技股份有限公司 瞳孔定位方法與裝置及其電腦程式產品

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034719A (ja) * 2005-07-27 2007-02-08 Sharp Corp 画像処理装置および画像処理方法
JP2010026945A (ja) * 2008-07-23 2010-02-04 Nikon Corp 画像フィルタ生成装置、画像フィルタ生成方法およびプログラム
JP2011014051A (ja) * 2009-07-03 2011-01-20 Nikon Corp 生成装置、生成方法、および生成プログラム
JP2013127716A (ja) * 2011-12-19 2013-06-27 Nippon Signal Co Ltd:The 混雑の非通常状態検知システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017056320A1 (ja) * 2015-10-02 2017-04-06 富士通株式会社 プログラム生成装置、プログラム生成方法および生成プログラム
JPWO2017056320A1 (ja) * 2015-10-02 2018-08-09 富士通株式会社 プログラム生成装置、プログラム生成方法および生成プログラム
US11151458B2 (en) 2015-10-02 2021-10-19 Fujitsu Limited Apparatus and method for generating image processing program using genetic programming
US11182650B2 (en) * 2017-03-24 2021-11-23 Fujitsu Limited Information processing apparatus to generate a next generation image processing program in genetic programming, control method, and non-transitory computer-readable storage medium for storage program

Also Published As

Publication number Publication date
JP2015011641A (ja) 2015-01-19
US20160098615A1 (en) 2016-04-07
JP6179224B2 (ja) 2017-08-16
US9971954B2 (en) 2018-05-15

Similar Documents

Publication Publication Date Title
JP6179224B2 (ja) 画像処理フィルタの作成装置及びその方法
Zhang et al. Select, supplement and focus for RGB-D saliency detection
CN111008597B (zh) Cad图纸的空间识别方法、装置、电子设备及存储介质
JP6176388B2 (ja) 画像識別装置、画像センサ、画像識別方法
US20170308736A1 (en) Three dimensional object recognition
JP2019109563A (ja) データ生成装置、データ生成方法及びデータ生成プログラム
JP2014531097A (ja) マルチレイヤ連結成分をヒストグラムと共に用いるテキスト検出
US20160379088A1 (en) Apparatus and method for creating an image recognizing program having high positional recognition accuracy
JP2011134012A (ja) 画像処理装置、その画像処理方法及びプログラム
CN108960280B (zh) 一种图片相似度检测方法及系统
JP6245880B2 (ja) 情報処理装置および情報処理手法、プログラム
Kiyokawa et al. Fully automated annotation with noise-masked visual markers for deep-learning-based object detection
JP6431404B2 (ja) 姿勢推定モデル生成装置及び姿勢推定装置
CN107272899B (zh) 一种基于动态手势的vr交互方法、装置及电子设备
CN113469971B (zh) 一种图像匹配方法及检测装置、存储介质
JP6278108B2 (ja) 画像処理装置、画像センサ、画像処理方法
CN111598913A (zh) 一种基于机器人视觉的图像分割方法和系统
JP2014203311A (ja) 画像処理装置、画像処理方法、およびプログラム
Żak et al. Local image features matching for real-time seabed tracking applications
CN114626118A (zh) 建筑物室内模型生成方法及装置
CN113592761A (zh) 存储介质、走线检测装置、走线检测模型训练装置及方法
US20210027095A1 (en) Processing method and processing device using same
JP6393495B2 (ja) 画像処理装置および物体認識方法
CN116246161A (zh) 领域知识引导下的遥感图像目标精细类型识别方法及装置
JP2022009474A (ja) ビジョンシステムでラインを検出するためのシステム及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14819348

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14819348

Country of ref document: EP

Kind code of ref document: A1