WO2018168515A1 - 画像処理装置、画像処理方法及び記録媒体 - Google Patents

画像処理装置、画像処理方法及び記録媒体 Download PDF

Info

Publication number
WO2018168515A1
WO2018168515A1 PCT/JP2018/007939 JP2018007939W WO2018168515A1 WO 2018168515 A1 WO2018168515 A1 WO 2018168515A1 JP 2018007939 W JP2018007939 W JP 2018007939W WO 2018168515 A1 WO2018168515 A1 WO 2018168515A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection
image
region
target
teacher signal
Prior art date
Application number
PCT/JP2018/007939
Other languages
English (en)
French (fr)
Inventor
匡人 結城
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2019505875A priority Critical patent/JP6816818B2/ja
Priority to US16/483,785 priority patent/US11361249B2/en
Publication of WO2018168515A1 publication Critical patent/WO2018168515A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and a recording medium.
  • Image recognition technology that automatically recognizes a specific object in an image is widely used.
  • machine learning has been proposed in which learning data is used to cause a computer to learn information necessary for automatic recognition (see Patent Document 1).
  • an image recognition technique for selecting a part of the image and detecting whether or not the detection target is included in the part may be used.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to provide an image processing apparatus that can more appropriately set a teacher signal for machine learning.
  • an acquisition unit that acquires an image for learning used for machine learning, a target region setting unit that sets a target region including a detection target for the image, and the image
  • a detection area setting unit for setting a detection area where a teacher signal is to be set, and a teacher capable of taking a value of three or more according to the degree of association between the detection area and the target area with respect to the detection area
  • An image processing apparatus comprising: a teacher signal setting unit that sets a signal.
  • a step of acquiring an image for learning used for machine learning, a step of setting a target region including a detection target for the image, and a teacher for the image A step of setting a detection region where a signal is to be set; and a step of setting a teacher signal that can take a value of three or more according to the degree of association between the detection region and the target region with respect to the detection region;
  • a step of acquiring a learning image used for machine learning in a computer a step of setting a target region including a detection target for the image, On the other hand, a step of setting a detection region where a teacher signal is to be set, and a teacher signal that can take a value of three or more according to the degree of association between the detection region and the target region with respect to the detection region. And a step of setting the recording medium.
  • an image processing apparatus that can set a teacher signal for machine learning more suitably.
  • FIG. 1 is a block diagram illustrating a schematic configuration of a machine learning system according to a first embodiment. It is a block diagram which shows the hardware structural example of the computer which comprises the machine learning system which concerns on 1st Embodiment. It is a flowchart which shows the setting operation
  • FIG. 1 is a block diagram illustrating a schematic configuration of a machine learning system according to the first embodiment.
  • the machine learning system is a system that generates learning data (learning data) for automatically performing learning for detecting a detection target included in an image, and performs machine learning using the data. is there.
  • the machine learning system includes a learning data generation unit 110, an image storage unit 120, a target area storage unit 130, a learning data storage unit 140, a learning unit 150, and a learning model storage unit 160.
  • the learning data generation unit 110 includes an image acquisition unit 111, a target region setting unit 112, a detection region setting unit 113, an association degree calculation unit 114, a teacher signal calculation unit 115, and a teacher signal setting unit 116.
  • the image acquisition unit 111 may be simply referred to as an acquisition unit.
  • the machine learning system may function as an image recognition system by further including an image recognition function that detects a detection target from an input image using a learning result.
  • the learning data generation function and the learning function using the learning data may be configured as separate apparatuses by generating learning data with a single apparatus.
  • an image recognition system, a machine learning system, and a learning data generation apparatus that can be included in these systems may be more generally referred to as an image processing apparatus.
  • the image storage unit 120 stores one or more learning images used for machine learning.
  • the image acquisition unit 111 acquires a learning image from the image storage unit 120.
  • the target area setting unit 112 sets a target area including a detection target for the acquired image.
  • the set target area is stored in the target area storage unit 130.
  • the detection area setting unit 113 sets a detection area where a teacher signal is to be set for the acquired image.
  • the degree-of-association calculation unit 114 calculates the degree of association between the detection area in the image and the target area.
  • the teacher signal calculation unit 115 calculates a teacher signal that can take a value of three or more according to the degree of association corresponding to the detection region.
  • the teacher signal setting unit 116 sets the calculated teacher signal for the detection region, and causes the learning data storage unit 140 to store learning data including the teacher signal and an image.
  • the learning unit 150 performs machine learning using an image in which a teacher signal is set as learning data.
  • An algorithm used for machine learning performed in the learning unit 150 may be, for example, deep learning, SVM (Support Vector Machine), or the like.
  • the learning model obtained by learning is stored in the learning model storage unit 160.
  • FIG. 2 is a block diagram illustrating a hardware configuration example of the computer 200 configuring the machine learning system according to the first embodiment.
  • the computer 200 includes a CPU (Central Processing Unit) 201, a RAM (Random Access Memory) 202, a ROM (Read Only Memory) 203, a storage medium 204, an input device 205, a display device 206, and a network interface 207.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the CPU 201 performs a predetermined operation according to a program stored in the ROM 203, the storage medium 204, etc., and also has a function of controlling each part of the computer 200.
  • the CPU 201 also realizes the functions of the image acquisition unit 111, the target region setting unit 112, the detection region setting unit 113, the relevance calculation unit 114, the teacher signal calculation unit 115, the teacher signal setting unit 116, and the learning unit 150. Run the program.
  • the RAM 202 provides a temporary memory area necessary for the operation of the CPU 201.
  • the ROM 203 is composed of a non-volatile memory, and stores necessary information such as a program used for the operation of the computer 200.
  • the storage medium 204 is a mass storage device such as a hard disk.
  • the RAM 202 or the storage medium 204 provides a storage area for realizing the functions of the image storage unit 120, the target region storage unit 130, the learning data storage unit 140, and the learning model storage unit 160.
  • the input device 205 is a keyboard, a mouse, a touch panel, etc., and is used by the user to operate the computer 200.
  • the display device 206 is a liquid crystal display device or the like, and is used for displaying images, characters, and the like.
  • the network interface 207 is a communication interface based on standards such as Ethernet (registered trademark) and Wi-Fi (registered trademark), and is a module for performing communication with other devices.
  • FIG. 2 the hardware configuration shown in FIG. 2 is an example, and other devices may be added, or some devices may not be provided.
  • some functions may be provided by another device via a network, and the functions constituting the present embodiment may be realized by being distributed to a plurality of devices.
  • FIG. 3 is a flowchart showing the setting operation of the target area according to the first embodiment.
  • This setting operation is an operation performed by the target region setting unit 112 on the learning image acquired from the image storage unit 120 by the image acquisition unit 111.
  • FIG. 4 is a diagram illustrating a setting example of the target area according to the first embodiment.
  • the target area setting unit 112 receives an input of the designated area 320 for the image 300.
  • the designation area 320 is an area for designating the detection target 310 and is designated to include the detection target 310.
  • the rectangular designation region 320 is designated so as to include the image of the track that is the detection target 310.
  • the designation of the designation area 320 can be, for example, input by the user using the input device 205. Further, the designated area 320 may be designated by the CPU 201 reading out information related to the preset area from the storage medium 204 or the like. Note that in this specification, the rectangle means a quadrangle having the same four corners and includes a square.
  • step S ⁇ b> 12 the target area setting unit 112 sets a target area 330 including the detection target 310 from the designated area 320. This process is performed when the target area setting unit 112 recognizes the outer shape of the detection target 310 and selects the shape of the target area 330 according to the shape by a predetermined image processing algorithm.
  • the shape of the target region 330 and the shape of the detection target 310 are close. Therefore, the shape of the target region 330 is preferably a shape that circumscribes the detection target 310. In order to improve processing efficiency, the shape of the target region 330 is preferably as simple as possible.
  • the detection target 310 is a track and the shape is close to a rectangle, it is efficient that the shape of the target region 330 is also a rectangle. Since the shape of the artifact is often close to a rectangle, it is preferable that the shape of the target region 330 is typically a rectangle. In consideration of these, in the example of FIG. 4, the shape of the target region 330 is a rectangle circumscribing the detection target 310. When detecting an object other than a rectangle, the shape of the target region 330 may be changed as appropriate according to the shape of the detection target 310.
  • step S13 the target area setting unit 112 causes the target area storage unit 130 to store the target area 330 set in step S12.
  • the CPU 201 determines whether there is another detection target 310 to be detected in the image 300. This determination may be based on, for example, an input from the user, or may be determined by the CPU 201 reading information related to a preset area from the storage medium 204 or the like. If there is another detection object 310 to be detected (YES in step S14), the process of step S11 is performed again. When there is no other detection target 310 to be detected (NO in step S14), the setting operation of the target area 330 ends.
  • FIG. 5 is a flowchart showing the setting operation of the teacher signal according to the first embodiment.
  • This setting operation is performed by the detection region setting unit 113, the relevance calculation unit 114, the teacher signal calculation unit 115, and the teacher signal setting unit 116 with respect to the learning image acquired from the image storage unit 120 by the image acquisition unit 111.
  • This is the action to be performed.
  • FIG. 6 is a diagram illustrating an example of setting a detection area according to the first embodiment.
  • FIG. 7 is a graph showing the relationship between the teacher signal and the degree of association according to the first embodiment.
  • FIG. 8 is a table showing an example of setting a teacher signal according to the first embodiment.
  • step S ⁇ b> 21 the detection area setting unit 113 sets a detection area 340 in which a teacher signal is to be set in the image 300.
  • An example of a settable detection area 340 is shown in FIG.
  • nine detection areas 340 arranged in 3 rows and 3 columns in the image 300 are shown as areas 1 to 9 as candidates for the detection area 340.
  • one of the regions 1 to 9 is selected and set as a detection region 340 where a teacher signal is to be set.
  • the region 1 is selected.
  • the region 1, the region 2, the region 3, the region 4, and the region 7 do not overlap with the target region 330.
  • the region 5, the region 6, the region 8, and the region 9 partially overlap with the target region 330.
  • the detection region 340 is preferably rectangular in view of the efficiency of processing and the ease of arranging the regions without gaps.
  • step S22 the relevance calculation unit 114 reads and acquires the target area 330 from the target area storage unit 130 for calculating the relevance.
  • step S23 the relevance calculating unit 114 calculates the relevance between the detection area 340 set in step S21 and the target area 330 read in step S22.
  • the degree of association can be a value corresponding to the area of the portion where the detection region 340 and the target region 330 overlap, for example. More specifically, the ratio of the area of the overlapping area between the detection region 340 and the target region 330 in the detection region 340 can be used as the relevance. In this case, since the region 1 does not overlap with the target region 330, the overlapping area ratio is 0, and the relevance is calculated as 0.
  • the teacher signal calculation unit 115 calculates a teacher signal based on the relevance calculated by the relevance calculation unit 114.
  • the teacher signal is a signal used as a teacher in learning image recognition, which indicates how much the detection target 310 is included in the detection region 340 in the learning image.
  • a teacher signal is calculated from the degree of association based on a logistic function as shown in FIG.
  • the logistic function is a function represented by Equation 1 below.
  • Equation 1 x indicates the degree of relevance, and y indicates the teacher signal.
  • a, b, and c are parameters that determine the shape of the logistic function. In the present embodiment, the values of a, b, and c are such that when the relevance is 0, the value of the teacher signal is close to 0, and when the relevance is 1, the value of the teacher signal is close to 1. Is set. For the region 1, since the relevance is 0, the value of the teacher signal is almost 0. In this embodiment, this value is set to 0.001.
  • the function used for calculating the teacher signal is a ternary value indicating at least when the detection region 340 and the target region 330 are completely overlapped, not overlapped, or partially overlapped. Any function can be used. In other words, the function may correspond to a pattern classification including the above three cases. However, in order to reflect the degree of overlap between the detection region 340 and the target region 330 more accurately in the teacher signal, this function is preferably a continuous function with the relevance as a variable. Since the logistic function is a function that can continuously take values between approximately 0 and approximately 1, it satisfies this condition and is preferable.
  • the function used for calculating the teacher signal is not limited to the logistic function, and may be a function using a hyperbolic tangent function, a linear function, or the like, for example.
  • step S25 the teacher signal setting unit 116 sets the teacher signal calculated by the teacher signal calculation unit 115 in the detection area 340 set by the detection area setting unit 113.
  • the teacher signal setting unit 116 sets a value of 0.001 as the teacher signal corresponding to the region 1. This teacher signal indicates that the detection target 310 is not included in the region 1.
  • step S26 the CPU 201 determines whether or not there is another area in the image 300 where a teacher signal is to be set. This determination may be based on, for example, an input from the user, or may be determined by the CPU 201 reading information related to a preset area from the storage medium 204 or the like. If there is another area where a teacher signal is to be set (YES in step S26), the process of step S21 is performed again. When there is no other region where the teacher signal is to be set (NO in step S26), the teacher signal setting operation ends. When the setting of the teacher signal is completed, the teacher signal and the image 300 are stored in the learning data storage unit 140 as learning data. This learning data is used for machine learning in the learning unit 150.
  • the teacher signal may be sequentially set by repeating the processing from step S21 to step S26 for a plurality or all of the above-described areas 1 to 9.
  • setting of the teacher signal can be performed by a so-called sliding window in which processing is sequentially performed by sliding an area on the image 300.
  • FIG. 8 is a table showing a setting example when teacher signals are set in all of the regions 1 to 9.
  • the values of the teacher signals in the areas 1, 2, 3, 4, and 7 do not overlap with the target area 330, and are almost 0, 0.001.
  • the values of the teacher signals in the region 5, the region 6, the region 8, and the region 9 partially overlap with the target region 330, and are larger than 0.001 and smaller than 1.
  • the greater the value of the teacher signal the greater the degree of overlap between the detection area 340 and the target area 330.
  • the teacher signal is a binary value such as 0 and 1
  • learning for discriminating between an image in which the detection area is included and an image in which the detection area is not included at all is performed. Is set to a region that is sufficiently included and a region that is not included at all.
  • image recognition is performed using a learning model obtained by machine learning based on such learning data, a state in which only a part of the detection target is included in the detection region at the time of image recognition (in other words, one of the detection targets).
  • the detection accuracy in a state where the part is missing may be insufficient.
  • a method of enlarging the detection area so that the entire detection target is included is also conceivable.
  • the detection area becomes excessive for example, when a sliding window is used, there is a problem that the detection time becomes longer due to the reduction of the sliding width.
  • not only values near 0 and 1 but also a teacher signal that can take three or more values including values between them is set, so that only a part of the detection target is in the detection region. It is possible to set the state to be included. By using such learning data, it is possible to perform learning adapted to a state in which a part of the detection target is lost during image recognition as described above, and to reduce the influence of the above-described problem.
  • an image processing apparatus for example, an image recognition system, a machine learning system, and a learning data generation apparatus that can be included in these
  • FIG. 9 is a functional block diagram of an image processing apparatus 500 according to the second embodiment.
  • the image processing apparatus 500 includes an acquisition unit 501 that acquires an image for learning used for machine learning. Furthermore, the image processing apparatus 500 includes a target area setting unit 502 that sets a target area including a detection target for an image. Furthermore, the image processing apparatus 500 includes a detection area setting unit 503 that sets a detection area where a teacher signal is to be set for an image. Furthermore, the image processing apparatus 500 includes a teacher signal setting unit 504 that sets a teacher signal that can take three or more values corresponding to the degree of association between the detection region and the target region.
  • an image processing apparatus that can set a teacher signal for machine learning more suitably.
  • each of the processing methods for causing a program for operating the configuration of the embodiment to realize the functions of the above-described embodiment to be recorded on a storage medium reading the program recorded on the storage medium as a code, and executing it on a computer Included in the category of form. That is, a computer-readable storage medium is also included in the scope of each embodiment.
  • the program itself is included in each embodiment.
  • one or more components included in the above-described embodiment are ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), or the like configured to realize the function of each component. There may be.
  • the storage medium for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD (Compact Disk) -ROM, a magnetic tape, a nonvolatile memory card, and a ROM can be used.
  • the program is not limited to a single program recorded in the storage medium, but operates on an OS (Operating System) in cooperation with other software and expansion board functions. Are also included in the category of each embodiment.
  • An acquisition unit that acquires an image for learning used in machine learning;
  • a target area setting unit that sets a target area including a detection target for the image;
  • a detection area setting unit for setting a detection area where a teacher signal is to be set for the image;
  • a teacher signal setting unit that sets a teacher signal that can take a value of three or more according to the degree of association between the detection region and the target region with respect to the detection region;
  • An image processing apparatus comprising:
  • appendix 2 The image processing apparatus according to appendix 1, wherein the association degree is a value corresponding to an area of a portion where the detection area and the target area overlap.
  • Appendix 3 The image processing apparatus according to appendix 1 or 2, wherein the teacher signal is a value calculated by a continuous function having the relevance as a variable.
  • Appendix 4 The image processing apparatus according to appendix 3, wherein the continuous function is a logistic function.
  • Appendix 6 The image processing apparatus according to any one of appendices 1 to 5, wherein at least a part of the target region has a shape circumscribing the detection target.
  • Appendix 7 The image processing apparatus according to any one of appendices 1 to 6, wherein the target area is a rectangle.
  • Appendix 8 The image processing apparatus according to any one of appendices 1 to 7, wherein the detection area is rectangular.
  • learning data generation unit 111 image acquisition unit 112, 502 target region setting unit 113, 503 detection region setting unit 114 relevance calculation unit 115 teacher signal calculation unit 116, 504 teacher signal setting unit 120 image storage unit 130 target region storage unit 140 Learning data storage unit 150 Learning unit 160 Learning model storage unit 200 Computer 201 CPU 202 RAM 203 ROM 204 Storage Medium 205 Input Device 206 Display Device 207 Network Interface 300 Image 310 Detection Target 320 Designated Area 330 Target Area 340 Detection Area 500 Image Processing Apparatus 501 Acquisition Unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

機械学習に用いられる学習用の画像を取得する取得部と、前記画像に対して、検出対象を含む対象領域を設定する対象領域設定部と、前記画像に対して、教師信号を設定すべき検出領域を設定する検出領域設定部と、前記検出領域に対して、前記検出領域と、前記対象領域との関連度に応じた三値以上の値をとり得る教師信号を設定する教師信号設定部と、を備える画像処理装置が提供される。

Description

画像処理装置、画像処理方法及び記録媒体
 本発明は、画像処理装置、画像処理方法及び記録媒体に関する。
 画像内の特定の対象物を自動認識する画像認識技術が広く利用されている。画像認識の分野において、学習データを用いて、自動認識に必要な情報をコンピュータに学習させる機械学習が提案されている(特許文献1参照)。
特開平7-239939号公報
 大きな画像の一部にある対象物を検出するため、画像の一部を選択し、その部分に検出対象が含まれるかどうかを検出する画像認識手法が用いられることがある。このような画像認識手法に対応した機械学習を行うためには、機械学習に用いられる学習データへの教師信号の設定を適切に行う必要がある。
 本発明は、上述の課題に鑑みてなされたものであって、機械学習用の教師信号をより好適に設定することができる画像処理装置を提供することを目的とする。
 本発明の一観点によれば、機械学習に用いられる学習用の画像を取得する取得部と、前記画像に対して、検出対象を含む対象領域を設定する対象領域設定部と、前記画像に対して、教師信号を設定すべき検出領域を設定する検出領域設定部と、前記検出領域に対して、前記検出領域と、前記対象領域との関連度に応じた三値以上の値をとり得る教師信号を設定する教師信号設定部と、を備えることを特徴とする画像処理装置が提供される。
 本発明の他の観点によれば、機械学習に用いられる学習用の画像を取得するステップと、前記画像に対して、検出対象を含む対象領域を設定するステップと、前記画像に対して、教師信号を設定すべき検出領域を設定するステップと、前記検出領域に対して、前記検出領域と、前記対象領域との関連度に応じた三値以上の値をとり得る教師信号を設定するステップと、を備えることを特徴とする画像処理方法が提供される。
 本発明の更に他の観点によれば、コンピュータに、機械学習に用いられる学習用の画像を取得するステップと、前記画像に対して、検出対象を含む対象領域を設定するステップと、前記画像に対して、教師信号を設定すべき検出領域を設定するステップと、前記検出領域に対して、前記検出領域と、前記対象領域との関連度に応じた三値以上の値をとり得る教師信号を設定するステップと、を実行させることを特徴とする記録媒体が提供される。
 本発明によれば、機械学習用の教師信号をより好適に設定することができる画像処理装置を提供することができる。
第1実施形態に係る機械学習システムの概略構成を示すブロック図である。 第1実施形態に係る機械学習システムを構成するコンピュータのハードウェア構成例を示すブロック図である。 第1実施形態に係る対象領域の設定動作を示すフローチャートである。 第1実施形態に係る対象領域の設定例を示す図である。 第1実施形態に係る教師信号の設定動作を示すフローチャートである。 第1実施形態に係る検出領域の設定例を示す図である。 第1実施形態に係る教師信号と関連度との関係を示すグラフである。 第1実施形態に係る教師信号の設定例を示す表である。 第2実施形態に係る画像処理装置の機能ブロック図である。
 以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の機能を有する部分には同一の符号を付し、その説明を省略又は簡略化することがある。
 [第1実施形態]
 図1は、第1実施形態に係る機械学習システムの概略構成を示すブロック図である。本実施形態に係る機械学習システムは、画像に含まれる検出対象を検出するための学習を自動で行うための学習用のデータ(学習データ)を生成し、これを用いて機械学習を行うシステムである。機械学習システムは、学習データ生成部110、画像記憶部120、対象領域記憶部130、学習データ記憶部140、学習部150及び学習モデル記憶部160を備える。学習データ生成部110は、画像取得部111、対象領域設定部112、検出領域設定部113、関連度算出部114、教師信号算出部115及び教師信号設定部116を備える。なお、画像取得部111は、単に取得部と呼ばれることもある。
 なお、本実施形態に係る機械学習システムは、学習結果を用いて入力画像から検出対象を検出する画像認識機能を更に備えることにより、画像認識システムとして機能するものであってもよい。また、学習データの生成を単独の装置で行うことにより、学習データの生成機能と、学習データを用いた学習機能とが別の装置として構成されていてもよい。また、画像認識システム、機械学習システム、及びこれらに含まれ得る学習データの生成装置は、より一般的に画像処理装置と呼ばれることもある。
 画像記憶部120は、機械学習に用いられる1以上の学習用の画像を記憶する。画像取得部111は、画像記憶部120から学習用の画像を取得する。対象領域設定部112は、取得された画像に対して、検出対象を含む対象領域を設定する。設定された対象領域は、対象領域記憶部130に記憶される。検出領域設定部113は、取得された画像に対して、教師信号を設定すべき検出領域を設定する。関連度算出部114は、画像中の検出領域と対象領域との関連度を算出する。教師信号算出部115は、検出領域に対応して、関連度に応じた三値以上の値を取り得る教師信号を算出する。教師信号設定部116は、検出領域に対して、算出された教師信号を設定し、教師信号と画像を含む学習データを学習データ記憶部140に記憶させる。学習部150は、教師信号が設定されている画像を学習データとして用いる機械学習を行う。学習部150において行われる機械学習に用いられるアルゴリズムは、例えば、ディープラーニング、SVM(Support Vector Machine)等であり得る。学習により得られた学習モデルは、学習モデル記憶部160に記憶される。
 図2は、第1実施形態に係る機械学習システムを構成するコンピュータ200のハードウェア構成例を示すブロック図である。コンピュータ200は、CPU(Central Processing Unit)201、RAM(Random Access Memory)202、ROM(Read Only Memory)203、記憶媒体204、入力装置205、表示装置206及びネットワークインターフェース207を備える。
 CPU201は、ROM203、記憶媒体204等に記憶されたプログラムに従って所定の動作を行うとともに、コンピュータ200の各部を制御する機能をも有する。また、CPU201は、画像取得部111、対象領域設定部112、検出領域設定部113、関連度算出部114、教師信号算出部115、教師信号設定部116及び学習部150の各部の機能を実現するプログラムを実行する。
 RAM202は、CPU201の動作に必要な一時的なメモリ領域を提供する。ROM203は、不揮発性メモリから構成され、コンピュータ200の動作に用いられるプログラム等の必要な情報を記憶する。記憶媒体204は、ハードディスクなどの大容量記憶装置である。RAM202又は記憶媒体204は、画像記憶部120、対象領域記憶部130、学習データ記憶部140、及び学習モデル記憶部160の各部の機能を実現する記憶領域を提供する。
 入力装置205は、キーボード、マウス、タッチパネル等であって、ユーザがコンピュータ200を操作するために用いられる。表示装置206は、液晶表示装置等であって、画像、文字等の表示に用いられる。ネットワークインターフェース207は、イーサネット(登録商標)、Wi-Fi(登録商標)等の規格に基づく通信インターフェースであり、他の装置との通信を行うためのモジュールである。
 なお、図2に示されているハードウェア構成は例示であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。例えば、一部の機能がネットワークを介して他の装置により提供されてもよく、本実施形態を構成する機能が複数の装置に分散されて実現されるものであってもよい。
 次に、図3及び図4を参照しつつ、対象領域の設定動作を説明する。図3は、第1実施形態に係る対象領域の設定動作を示すフローチャートである。本設定動作は、対象領域設定部112が、画像取得部111によって画像記憶部120から取得された学習用の画像に対して行う動作である。図4は、第1実施形態に係る対象領域の設定例を示す図である。
 ステップS11において、対象領域設定部112は、画像300に対する指定領域320の入力を受け付ける。この指定領域320は検出対象310を指定するための領域であり、検出対象310を含むように指定される。図4の例では、検出対象310であるトラックの画像を含むように、矩形の指定領域320が指定されている。この指定領域320の指定は、例えば、ユーザが入力装置205を用いて入力したものであり得る。また、CPU201が、事前に設定された領域に関する情報を記憶媒体204等から読み出すことにより指定領域320が指定されてもよい。なお、本明細書において、矩形とは、4つの角がすべて等しい四角形を意味し、正方形を含むものとする。
 ステップS12において、対象領域設定部112は、指定領域320の中から検出対象310を含む対象領域330を設定する。この処理は、対象領域設定部112が、検出対象310の外形形状を認識して、所定の画像処理アルゴリズムにより、その形状に応じた対象領域330の形状を選択することにより行われる。検出精度を高めるため、対象領域330の形状と検出対象310の形状は近いことが好ましい。そのため、対象領域330の形状は、検出対象310に外接する形状であることが好ましい。また、処理の効率化のため、対象領域330の形状はできる限り単純なものであることが好ましい。特に、本実施形態では、検出対象310がトラックであり、形状が矩形に近いため、対象領域330の形状も矩形とすることが効率的である。人工物の形状は矩形に近いものが多いため、対象領域330の形状は典型的には矩形とすることが好ましい。これらを考慮し、図4の例では、対象領域330の形状は、検出対象310に外接する矩形としている。なお、矩形以外の物体を検出する場合には、検出対象310の形状に応じて対象領域330の形状を適宜変更してもよい。
 ステップS13において、対象領域設定部112は、対象領域記憶部130にステップS12で設定された対象領域330を記憶させる。ステップS14において、CPU201は、画像300の中に検出すべき他の検出対象310があるかどうかを判断する。この判断は、例えば、ユーザからの入力に基づくものであってもよく、CPU201が、事前に設定された領域に関する情報を記憶媒体204等から読み出すことにより判断するものであってもよい。検出すべき他の検出対象310がある場合(ステップS14においてYES)、再びステップS11の処理が行われる。検出すべき他の検出対象310がない場合(ステップS14においてNO)、対象領域330の設定動作は終了する。
 次に、図5乃至図8を参照しつつ、検出領域の設定動作及び教師信号の設定動作を説明する。図5は、第1実施形態に係る教師信号の設定動作を示すフローチャートである。本設定動作は、検出領域設定部113、関連度算出部114、教師信号算出部115及び教師信号設定部116が、画像取得部111によって画像記憶部120から取得された学習用の画像に対して行う動作である。図6は、第1実施形態に係る検出領域の設定例を示す図である。図7は、第1実施形態に係る教師信号と関連度との関係を示すグラフである。図8は、第1実施形態に係る教師信号の設定例を示す表である。
 ステップS21において、検出領域設定部113は、画像300の中に教師信号を設定すべき検出領域340を設定する。設定可能な検出領域340の例が図6に示されている。図6の例では、検出領域340の候補として、画像300の中に3行3列に配列された9個の検出領域340が領域1乃至領域9として示されている。本ステップでは、例えば、領域1乃至領域9の中から1つを選択して、教師信号を設定すべき検出領域340として設定する。以下の説明においては領域1が選択されたものとする。図6に示されるように、領域1、領域2、領域3、領域4及び領域7は、対象領域330と重複していない。これに対し、領域5、領域6、領域8及び領域9は、対象領域330と一部が重複している。なお、処理の効率化、領域を隙間なく配列しやすい点等に鑑みて、検出領域340は矩形であることが好ましい。
 ステップS22において、関連度算出部114は、関連度の算出のため、対象領域記憶部130から対象領域330を読み出して取得する。ステップS23において、関連度算出部114は、ステップS21で設定された検出領域340とステップS22で読み出された対象領域330との関連度を算出する。関連度は、例えば、検出領域340と対象領域330が重複する部分の面積に応じた値とすることができる。より具体的には、検出領域340に占める検出領域340と対象領域330との重複部分の面積の割合を関連度とすることができる。この場合、領域1は、対象領域330と重複していないため、重複する面積の割合は0であり、関連度は0と算出される。
 ステップS24において、教師信号算出部115は、関連度算出部114で算出された関連度に基づいて、教師信号を算出する。教師信号は、学習用の画像中の検出領域340に、検出対象310がどの程度含まれるかを示す、画像認識を学習する上での教師となる信号である。本実施形態では、図7に示すような、ロジスティック関数に基づいて関連度から教師信号を算出する。ロジスティック関数は、以下の式1に示される関数である。
Figure JPOXMLDOC01-appb-M000001
 式1において、xは関連度を示しており、yは教師信号を示している。a、b及びcは、ロジスティック関数の形状を決定するパラメータである。本実施形態では、関連度が0のときに教師信号の値が0に近い値となり、関連度が1のときに教師信号の値が1に近い値となるようにa、b及びcの値を設定している。領域1については、関連度が0であるため、教師信号の値はほぼ0である。本実施形態では、この値を0.001とする。
 なお、教師信号の算出に用いられる関数は、少なくとも、検出領域340と対象領域330とが完全に重複している場合、重複していない場合、一部重複している場合のそれぞれを示す三値をとり得る関数であればよい。言い換えると、当該関数は、上記の3つの場合を含むパターン分類に相当するものであってもよい。しかしながら、検出領域340と対象領域330との重複度合いをより精度よく教師信号に反映させるため、この関数は関連度を変数とする連続関数であることが好ましい。ロジスティック関数は、ほぼ0からほぼ1までの間の値を連続的にとり得る関数であるため、この条件を満たしており好ましい。教師信号の算出に用いられる関数は、ロジスティック関数に限定されるものではなく、例えば、双曲線正接関数、線形関数等を用いた関数であってもよい。
 ステップS25において、教師信号設定部116は、教師信号算出部115で算出された教師信号を、検出領域設定部113で設定された検出領域340に設定する。本例では、教師信号設定部116は、領域1に対応する教師信号として0.001の値を設定する。この教師信号は、領域1に検出対象310が含まれていないことを示している。
 ステップS26において、CPU201は、画像300の中に教師信号を設定すべき他の領域があるかどうかを判断する。この判断は、例えば、ユーザからの入力に基づくものであってもよく、CPU201が、事前に設定された領域に関する情報を記憶媒体204等から読み出すことにより判断するものであってもよい。教師信号を設定すべき他の領域がある場合(ステップS26においてYES)、再びステップS21の処理が行われる。教師信号を設定すべき他の領域がない場合(ステップS26においてNO)、教師信号の設定動作は終了する。教師信号の設定が終了すると、教師信号及び画像300は、学習データとして学習データ記憶部140に記憶される。この学習データは学習部150での機械学習に用いられる。
 上述の領域1から領域9のうちの複数、あるいはすべてについてステップS21からステップS26の処理を繰り返して順次教師信号を設定してもよい。この場合、画像300上に領域をスライディングさせるようにして順次処理を行う、いわゆるスライディングウィンドウによって、教師信号の設定が行われ得る。図8は、領域1から領域9のすべてに教師信号を設定した場合の設定例を示す表である。領域1、領域2、領域3、領域4及び領域7の教師信号の値は、対象領域330と重複していないため、ほぼ0である0.001となっている。領域5、領域6、領域8及び領域9の教師信号の値は、対象領域330と一部が重複しているため、0.001よりも大きく、1よりも小さい値となっている。また、教師信号の値は、大きいほど検出領域340と対象領域330との重複度合いが大きいことを示している。
 以下、本実施形態において、0付近の値及び1付近の値だけでなく、これらの間の値を含む三値以上の値をとり得る教師信号を設定する理由をより詳細に説明する。
 教師信号が0と1等の二値の場合、検出領域に検出対象が含まれる画像と全く含まれない画像を判別する学習を行わせることとなるため、学習データの検出領域には、検出対象が十分に含まれている領域と全く含まれない領域を設定することとなる。このような学習データに基づく機械学習で得られた学習モデルを用いて画像認識を行うと、画像認識時の検出領域に検出対象の一部のみが含まれるような状態(言い換えると検出対象の一部が欠損した状態)での検出精度が不十分となり得る。この場合において、十分な検出精度を得るため、検出対象の全部が含まれるように検出領域を大きくする手法も考えられる。しかしながら、検出領域が過大となるため、例えばスライディングウィンドウを用いた場合にはスライディングの幅が小さくなることにより、検出時間が長くなる等の弊害がある。
 これに対し本実施形態では、0及び1付近の値だけでなく、これらの間の値を含む三値以上の値をとり得る教師信号を設定するため、検出領域に検出対象の一部のみが含まれるような状態を設定可能である。このような学習データを用いることにより、上述のような画像認識時に検出対象の一部が欠損するような状態に適応した学習を行うことができ、上述の問題による影響を低減することができる。
 したがって、本実施形態によれば、機械学習用の教師信号をより好適に設定することができる画像処理装置(例えば、画像認識システム、機械学習システム、及びこれらに含まれ得る学習データの生成装置)を提供することができる。
 [第2実施形態]
 上述の実施形態において説明した装置は以下のようにも構成することができる。図9は、第2実施形態に係る画像処理装置500の機能ブロック図である。画像処理装置500は、機械学習に用いられる学習用の画像を取得する取得部501を備える。更に、画像処理装置500は、画像に対して、検出対象を含む対象領域を設定する対象領域設定部502を備える。更に、画像処理装置500は、画像に対して、教師信号を設定すべき検出領域を設定する検出領域設定部503を備える。更に、画像処理装置500は、検出領域に対して、検出領域と、対象領域との関連度に応じた三値以上の値をとり得る教師信号を設定する教師信号設定部504を備える。
 本実施形態によれば、機械学習用の教師信号をより好適に設定することができる画像処理装置を提供することができる。
 [変形実施形態]
 本発明は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
 また、上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記憶媒体に記録させ、記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体だけでなく、そのプログラム自体も各実施形態に含まれる。また、上述の実施形態に含まれる1又は2以上の構成要素は、各構成要素の機能を実現するように構成されたASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の回路であってもよい。
 該記憶媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disk)-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記憶媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 なお、上述の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
 上述の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 機械学習に用いられる学習用の画像を取得する取得部と、
 前記画像に対して、検出対象を含む対象領域を設定する対象領域設定部と、
 前記画像に対して、教師信号を設定すべき検出領域を設定する検出領域設定部と、
 前記検出領域に対して、前記検出領域と、前記対象領域との関連度に応じた三値以上の値をとり得る教師信号を設定する教師信号設定部と、
 を備えることを特徴とする画像処理装置。
 (付記2)
 前記関連度は、前記検出領域と前記対象領域とが重複する部分の面積に応じた値であることを特徴とする付記1に記載の画像処理装置。
 (付記3)
 前記教師信号は、前記関連度を変数とする連続関数により算出された値であることを特徴とする付記1又は2に記載の画像処理装置。
 (付記4)
 前記連続関数は、ロジスティック関数であることを特徴とする付記3に記載の画像処理装置。
 (付記5)
 前記検出領域設定部は、スライディングウィンドウにより前記検出領域を設定することを特徴とする付記1乃至4のいずれか1項に記載の画像処理装置。
 (付記6)
 前記対象領域は、少なくとも一部が前記検出対象と外接する形状であることを特徴とする付記1乃至5のいずれか1項に記載の画像処理装置。
 (付記7)
 前記対象領域は、矩形であることを特徴とする付記1乃至6のいずれか1項に記載の画像処理装置。
 (付記8)
 前記検出領域は、矩形であることを特徴とする付記1乃至7のいずれか1項に記載の画像処理装置。
 (付記9)
 機械学習に用いられる学習用の画像を取得するステップと、
 前記画像に対して、検出対象を含む対象領域を設定するステップと、
 前記画像に対して、教師信号を設定すべき検出領域を設定するステップと、
 前記検出領域に対して、前記検出領域と、前記対象領域との関連度に応じた三値以上の値をとり得る教師信号を設定するステップと、
 を備えることを特徴とする画像処理方法。
 (付記10)
 コンピュータに、
 機械学習に用いられる学習用の画像を取得するステップと、
 前記画像に対して、検出対象を含む対象領域を設定するステップと、
 前記画像に対して、教師信号を設定すべき検出領域を設定するステップと、
 前記検出領域に対して、前記検出領域と、前記対象領域との関連度に応じた三値以上の値をとり得る教師信号を設定するステップと、
 を実行させることを特徴とするプログラムが記録された記録媒体。
 この出願は、2017年3月14日に出願された日本出願特願2017-048321を基礎とする優先権を主張し、その開示の全てをここに取り込む。
110       学習データ生成部
111       画像取得部
112、502   対象領域設定部
113、503   検出領域設定部
114       関連度算出部
115       教師信号算出部
116、504   教師信号設定部
120       画像記憶部
130       対象領域記憶部
140       学習データ記憶部
150       学習部
160       学習モデル記憶部
200       コンピュータ
201       CPU
202       RAM
203       ROM
204       記憶媒体
205       入力装置
206       表示装置
207       ネットワークインターフェース
300       画像
310       検出対象
320       指定領域
330       対象領域
340       検出領域
500       画像処理装置
501       取得部

Claims (10)

  1.  機械学習に用いられる学習用の画像を取得する取得部と、
     前記画像に対して、検出対象を含む対象領域を設定する対象領域設定部と、
     前記画像に対して、教師信号を設定すべき検出領域を設定する検出領域設定部と、
     前記検出領域に対して、前記検出領域と、前記対象領域との関連度に応じた三値以上の値をとり得る教師信号を設定する教師信号設定部と、
     を備えることを特徴とする画像処理装置。
  2.  前記関連度は、前記検出領域と前記対象領域とが重複する部分の面積に応じた値であることを特徴とする請求項1に記載の画像処理装置。
  3.  前記教師信号は、前記関連度を変数とする連続関数により算出された値であることを特徴とする請求項1又は2に記載の画像処理装置。
  4.  前記連続関数は、ロジスティック関数であることを特徴とする請求項3に記載の画像処理装置。
  5.  前記検出領域設定部は、スライディングウィンドウにより前記検出領域を設定することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6.  前記対象領域は、少なくとも一部が前記検出対象と外接する形状であることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7.  前記対象領域は、矩形であることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8.  前記検出領域は、矩形であることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9.  機械学習に用いられる学習用の画像を取得するステップと、
     前記画像に対して、検出対象を含む対象領域を設定するステップと、
     前記画像に対して、教師信号を設定すべき検出領域を設定するステップと、
     前記検出領域に対して、前記検出領域と、前記対象領域との関連度に応じた三値以上の値をとり得る教師信号を設定するステップと、
     を備えることを特徴とする画像処理方法。
  10.  コンピュータに、
     機械学習に用いられる学習用の画像を取得するステップと、
     前記画像に対して、検出対象を含む対象領域を設定するステップと、
     前記画像に対して、教師信号を設定すべき検出領域を設定するステップと、
     前記検出領域に対して、前記検出領域と、前記対象領域との関連度に応じた三値以上の値をとり得る教師信号を設定するステップと、
     を実行させることを特徴とするプログラムが記録された記録媒体。
PCT/JP2018/007939 2017-03-14 2018-03-02 画像処理装置、画像処理方法及び記録媒体 WO2018168515A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019505875A JP6816818B2 (ja) 2017-03-14 2018-03-02 画像処理装置、画像処理方法及び記録媒体
US16/483,785 US11361249B2 (en) 2017-03-14 2018-03-02 Image processing device for machine learning and setting of a teaching signal in accordance with detection and target regions, image processing method for machine learning and setting of a teaching signal, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-048321 2017-03-14
JP2017048321 2017-03-14

Publications (1)

Publication Number Publication Date
WO2018168515A1 true WO2018168515A1 (ja) 2018-09-20

Family

ID=63522199

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/007939 WO2018168515A1 (ja) 2017-03-14 2018-03-02 画像処理装置、画像処理方法及び記録媒体

Country Status (3)

Country Link
US (1) US11361249B2 (ja)
JP (1) JP6816818B2 (ja)
WO (1) WO2018168515A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020095545A1 (ja) * 2018-11-05 2020-05-14 日本電気株式会社 物体認識システム、認識装置、物体認識方法および物体認識プログラム
JP2020140518A (ja) * 2019-02-28 2020-09-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123642A (ja) * 2010-12-08 2012-06-28 Toyota Central R&D Labs Inc 画像識別装置及びプログラム
JP2013065156A (ja) * 2011-09-16 2013-04-11 Kddi Corp 画像解析装置および画像評価装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3470375B2 (ja) 1993-03-09 2003-11-25 株式会社明電舎 画像認識装置
JP2012128638A (ja) * 2010-12-15 2012-07-05 Canon Inc 画像処理装置、位置合わせ方法及びプログラム
JP5769559B2 (ja) * 2011-09-07 2015-08-26 キヤノン株式会社 画像処理装置、画像処理プログラム、ロボット装置及び画像処理方法
US9158995B2 (en) * 2013-03-14 2015-10-13 Xerox Corporation Data driven localization using task-dependent representations
US9613308B2 (en) * 2014-04-03 2017-04-04 Brain Corporation Spoofing remote control apparatus and methods
US9367821B2 (en) * 2014-09-03 2016-06-14 Nec Corporation System and method for profiling requests in service systems

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123642A (ja) * 2010-12-08 2012-06-28 Toyota Central R&D Labs Inc 画像識別装置及びプログラム
JP2013065156A (ja) * 2011-09-16 2013-04-11 Kddi Corp 画像解析装置および画像評価装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020095545A1 (ja) * 2018-11-05 2020-05-14 日本電気株式会社 物体認識システム、認識装置、物体認識方法および物体認識プログラム
JPWO2020095545A1 (ja) * 2018-11-05 2021-09-30 日本電気株式会社 物体認識システム、認識装置、物体認識方法および物体認識プログラム
JP7111175B2 (ja) 2018-11-05 2022-08-02 日本電気株式会社 物体認識システム、認識装置、物体認識方法および物体認識プログラム
US11783602B2 (en) 2018-11-05 2023-10-10 Nec Corporation Object recognition system, recognition device, object recognition method, and object recognition program
JP2020140518A (ja) * 2019-02-28 2020-09-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP7233251B2 (ja) 2019-02-28 2023-03-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム

Also Published As

Publication number Publication date
US20190392347A1 (en) 2019-12-26
JPWO2018168515A1 (ja) 2020-01-30
US11361249B2 (en) 2022-06-14
JP6816818B2 (ja) 2021-01-20

Similar Documents

Publication Publication Date Title
CN101206719A (zh) 用于检测和处理图像中特定图案的方法和设备
JP5694234B2 (ja) 電子機器、手書き文書表示方法、及び表示プログラム
EP2808828B1 (en) Image matching method, image matching device, model template generation method, model template generation device, and program
US10254938B2 (en) Image processing device and method with user defined image subsets
WO2018173800A1 (ja) 画像処理装置、画像処理方法及び記録媒体
JPWO2016063484A1 (ja) 画像処理装置、表示制御装置、画像処理方法、および、プログラム
EP2339509A2 (en) Information processing apparatus and information processing method
EP2617006A1 (en) Image processing apparatus and image processing method
US10846889B2 (en) Color handle generation for digital image color gradients using machine learning
WO2018168515A1 (ja) 画像処理装置、画像処理方法及び記録媒体
CN110827301B (zh) 用于处理图像的方法和装置
JP5539555B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10521653B2 (en) Image processing device, image processing method, and storage medium
US20220392107A1 (en) Image processing apparatus, image processing method, image capturing apparatus, and non-transitory computer-readable storage medium
JP6137464B2 (ja) 画像処理装置および画像処理プログラム
CN113807407B (zh) 目标检测模型训练方法、模型性能检测方法及装置
CN109961061A (zh) 一种边缘计算视频数据结构化方法及系统
US20200311973A1 (en) Multi-axis Equal Spacing Smart Guides
JP6331914B2 (ja) アルゴリズム生成装置、アルゴリズム生成方法及びアルゴリズム生成用コンピュータプログラム
US20240127581A1 (en) Information processing device, information processing method, program, and recording medium
US11836218B2 (en) System and method for object detection and dimensioning
JP2017135663A (ja) 画像処理装置、画像処理方法及びプログラム
US20240104908A1 (en) Evaluation method
JP2006023798A (ja) 画像データ処理装置および方法,ならびに画像データ処理プログラム
JPWO2018003074A1 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18767372

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019505875

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18767372

Country of ref document: EP

Kind code of ref document: A1