JP6719497B2 - Image generation method, image generation device, and image generation system - Google Patents
Image generation method, image generation device, and image generation system Download PDFInfo
- Publication number
- JP6719497B2 JP6719497B2 JP2018043822A JP2018043822A JP6719497B2 JP 6719497 B2 JP6719497 B2 JP 6719497B2 JP 2018043822 A JP2018043822 A JP 2018043822A JP 2018043822 A JP2018043822 A JP 2018043822A JP 6719497 B2 JP6719497 B2 JP 6719497B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- detection target
- model
- target image
- generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 55
- 238000001514 detection method Methods 0.000 claims description 212
- 238000010801 machine learning Methods 0.000 claims description 55
- 238000012545 processing Methods 0.000 claims description 29
- 238000012549 training Methods 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、画像生成方法、画像生成装置及び画像生成システムに関するものである。 The present invention relates to an image generation method, an image generation device, and an image generation system.
近年、画像処理技術において、機械学習手法(ディープラーニング等のニューラルネットワーク)を用いることで、撮影された画像から特定の物体を認識する検出精度が向上している。これらの機械学習手法を最適化する方法の一つとしては、多数の画像をトレーニング用のサンプルとしてシステムに入力し、機械学習を訓練させることがある。 In recent years, in image processing technology, by using a machine learning method (a neural network such as deep learning), detection accuracy of recognizing a specific object from a captured image has been improved. One of the methods for optimizing these machine learning methods is to input a large number of images to the system as training samples and train the machine learning.
例えば、認識対象及び認識対象を含まない画像パターンを、自動的に収集し、このようにして収集した画像パターンを機械学習に用いることにより、高精度の画像認識を行うシステムとして、特開2012−088787(特許文献1)に記載の技術がある。この公報には「物体追跡部は、動画像を構成する各フレームの画像から、認識対象が映っている領域を抽出する。画像変換部は、この領域内の画像に対して幾何変換を行った画像に基づいて認識対象サンプルを生成する。領域切出部は、動画像を構成するフレームの画像に対して領域を設定する。画像合成部35は、設定したそれぞれの領域内の画像中の複数の領域を合成した画像に基づいて非認識対象サンプル画像を生成する。学習部は、認識対象サンプルと非認識対象サンプルとを用いて認識対象を学習する。」という記載がある。 For example, as a system for performing high-accuracy image recognition by automatically collecting a recognition target and an image pattern not including the recognition target and using the collected image pattern in machine learning There is a technique described in 088787 (Patent Document 1). In this publication, "the object tracking section extracts a region in which a recognition target is reflected from the image of each frame forming a moving image. The image conversion section performs geometric transformation on the image in this area. A sample to be recognized is generated based on the image, the region cutting unit sets a region for an image of a frame forming a moving image, and the image synthesis unit 35 sets a plurality of images in the image in each set region. The non-recognition target sample image is generated based on the image obtained by combining the regions of 1. The learning unit learns the recognition target by using the recognition target sample and the non-recognition target sample.
訓練用のサンプル画像が入手しやすい場合、機械学習の性能は向上しやすいが、訓練用のサンプル画像が入手困難・入手不可能な場合には、機械学習による画像物体検出の精度を向上することが難しい。このため、ユーザは、コストをかけて機械学習を訓練するサンプル画像を入手することとなる。しかし、特許文献1では、訓練用のサンプル画像が入手困難の場合にどの様に対応すべきかについては、深く検討されておらず、ユーザが訓練用のサンプル画像を入手するためのコスト負担については、依然として解決されていない。 If training sample images are easily available, machine learning performance is likely to improve, but if training sample images are difficult or unavailable, improve the accuracy of image object detection by machine learning. Is difficult. As a result, the user will have to obtain sample images to train machine learning at a cost. However, in Patent Document 1, how to deal with the case where the training sample image is difficult to obtain has not been deeply examined, and regarding the cost burden for the user to acquire the training sample image, , Still unsolved.
そこで、本発明では、ベクトルモデルや3Dモデル等のデータから機械学習訓練用の画像をニューラルネットワークを用いて生成し、この生成された画像を機械学習の訓練に用いることで機械学習の訓練の効率や画像の検知精度を向上することを目的とする。 Therefore, in the present invention, an image for machine learning training is generated from data such as a vector model or a 3D model by using a neural network, and the generated image is used for machine learning training, whereby the efficiency of machine learning training is improved. The purpose is to improve the detection accuracy of images and images.
上記課題を解決するために、代表的な本発明の画像生成方法の一つは、画像選択部によって、背景画像を取得する背景画像取得工程と、前記画像選択部によって、メタデータを備えた検出対象画像をソース画像から特定する検出対象画像特定工程と、モデル作成部によって、前記検出対象画像に対応する検出対象画像モデルを生成するモデル生成工程と、
前記モデル作成部によって、前記背景画像と前記検出対象画像モデルとを結合させることにより、最終画像を確立する検出対象画像確立工程を含む画像生成方法である。
In order to solve the above-mentioned problems, one of the representative image generation methods of the present invention is a background image acquisition step of acquiring a background image by an image selection unit, and a detection provided with metadata by the image selection unit. A detection target image specifying step of specifying the target image from the source image, a model generation step of generating a detection target image model corresponding to the detection target image by the model creating section,
An image generation method including a detection target image establishing step of establishing a final image by combining the background image and the detection target image model by the model creating unit.
ベクトルモデルや3Dモデル等のデータから機械学習訓練用の画像をニューラルネットワークによって生成し、この生成された画像を機械学習に用いることで機械学習の訓練の効率や画像の検出の精度を向上することができる。 An image for machine learning training is generated from a data such as a vector model or a 3D model by a neural network, and the generated image is used for machine learning to improve the efficiency of machine learning training and the accuracy of image detection. You can
以下、図面を参照して、従来例及び本発明の第1実施形態について説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。 Hereinafter, a conventional example and a first embodiment of the present invention will be described with reference to the drawings. The present invention is not limited to this embodiment. In the description of the drawings, the same parts are designated by the same reference numerals.
まず、図15を参照して、本発明の実施形態の概念の一例を説明する。 First, an example of the concept of the embodiment of the present invention will be described with reference to FIG.
物体の検出を行う機械学習においては、機械学習のシステムを訓練するためには、検出させたい物体の画像を大量に必要としている。例えば、白い杖を持っている人(以下、「白杖者」ともいう)を機械学習を用いて検知しようとする場合、従来は白杖者の映像が大量にないと学習ができなかった。そこで、本発明では、検出対象(例えば、白杖者)の映像が少ない場合であっても、一般歩行者の映像(大量に入手可)と、白杖者の映像(少量)とを用いることにより、大量の白杖者の映像を生成し、機械学習を効率的に強化するものである。 In machine learning for detecting an object, a large amount of images of an object to be detected are required to train a machine learning system. For example, when trying to detect a person who has a white cane (hereinafter, also referred to as “white cane”) using machine learning, conventionally, it was not possible to learn without a large number of images of the white cane. Therefore, in the present invention, even when the image of the detection target (for example, a white cane person) is small, the image of a general pedestrian (a large amount is available) and the image of a white cane person (a small amount) are used. By doing so, a large amount of white cane images are generated, and machine learning is efficiently enhanced.
[画像生成システムの構成」
図1は、本発明の実施形態に係るハードウェアの全体システム構成を示す図である。図1に示すように、本システムは、中央サーバ100と、クライアント端末130と、クライアント端末140と、ネットワーク(インターネットLAN等)150から構成される。そして、中央サーバ100と、クライアント端末130と、クライアント端末140とはネットワーク150を介してお互いに通信可能に接続されていてもよい。
[Image generation system configuration]
FIG. 1 is a diagram showing an overall system configuration of hardware according to an embodiment of the present invention. As shown in FIG. 1, this system includes a central server 100, a client terminal 130, a client terminal 140, and a network (Internet LAN or the like) 150. The central server 100, the client terminal 130, and the client terminal 140 may be communicatively connected to each other via the
中央サーバ100は、ネットワーク150を介してクライアント端末130、140から要求された画像生成を行う装置である。具体的には、中央サーバ100は画像生成の工程における画像選択、モデル作成、画像処理、機械学習等の機能を実施する機能部を含むことができる。また、中央サーバ100は、後述する背景画像及び検出対象画像等の画像データや、ベクトルモデルと3Dモデル等のモデルデータを格納する手段(例えば記憶部120)を有していてもよい。
The central server 100 is a device that performs image generation requested by the client terminals 130 and 140 via the
クライアント端末130及びクライアント端末140は、ネットワーク150を介して中央サーバ100に画像生成の要求を送信するための装置である。具体的には、ユーザはクライアント端末130及びクライアント端末140に、画像生成の条件を入力することができる。例えば、ユーザは、クライアント端末130又はクライアント端末140を用いて、後述する検出対象物や画像生成に用いられる背景画像を指定してもよい。クライアント端末130及びクライアント端末140で入力された条件等の指示はネットワーク150を介して中央サーバ100に送信される。
The client terminal 130 and the client terminal 140 are devices for transmitting an image generation request to the central server 100 via the
[中央サーバ100の構成]
前述のように、中央サーバ100は、ネットワーク150を介してクライアント端末130、140から要求された画像生成を行う装置である。図1に示すように、中央サーバ100は、画像生成の各機能を実施する処理部110と、当該画像生成に用いられる情報を記憶する記憶部120とを含む。
[Configuration of central server 100]
As described above, the central server 100 is a device that performs the image generation requested by the client terminals 130 and 140 via the
処理部110は本発明の実施形態に係る各機能を実施するための機能部を含む。具体的には、処理部110は、背景画像を取得し、メタデータを備えた検出対象画像をソース画像から特定する画像選択部112と、検出対象画像に対応する検出対象画像モデルを生成し、背景画像と検出対象画像モデルとを結合させることにより、最終画像を確立するモデル作成部114と、モデルに対して画像処理を施す画像処理部116と、機械学習検出精度の向上処理及び機械学習画像作成能力の向上処理の各工程を実施する機械学習部118とから構成される。 The processing unit 110 includes a function unit for performing each function according to the embodiment of the present invention. Specifically, the processing unit 110 acquires a background image, generates an image selection unit 112 that identifies a detection target image including metadata from a source image, and generates a detection target image model corresponding to the detection target image, A model creating unit 114 that establishes a final image by combining a background image and a detection target image model, an image processing unit 116 that performs image processing on the model, a process for improving machine learning detection accuracy, and a machine learning image. It is composed of a machine learning unit 118 that executes each step of the processing for improving the creation ability.
処理部110は、装置内部のCPU(Central Processing Unit)等の演算処理部がメモリに記憶された制御プログラムを実行することによって、上記記載の各機能部として機能する。 The processing unit 110 functions as each of the functional units described above when an arithmetic processing unit such as a CPU (Central Processing Unit) inside the device executes the control program stored in the memory.
記憶部120は、画像データベース122と、画像・モデルデータベース124とを含む。画像データベース122は、画像生成に用いられる背景画像や、後述する検出対象画像のデータを格納するデータベース(装置又は論理的な記憶領域)である。画像データベース122には、例えば、図7に示されるような駅のホームの様子を示す画像データと、当該画像が備えるメタデータが格納されていてもよい。ある実施形態では、記憶部120は、ユーザが指定した画像(ソース画像、背景画像、所望の検出対象画像)をクライアント端末130又はクライアント端末140から受信し、受信した画像データを画像生成に使われ得る形式で画像データベース122に保存してもよい。また、画像・モデルデータベース124は、特定の画像と、当該画像に対応付けられたモデルをお互いに対応付けた形態で格納するデータベース(装置又は論理的な記憶領域)である。例えば、後述する図5〜図6等に示されるように、画像生成に用いられるモデル(ベクトルモデルや点群等)と、そのモデルに対応付けられた現実的な画像が画像・モデルデータベース124に保存されてもよい。なお、記憶部120の画像データベース122と画像・モデルデータベース124は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶部によって実現されてもよい。 The storage unit 120 includes an image database 122 and an image/model database 124. The image database 122 is a database (apparatus or logical storage area) that stores a background image used for image generation and data of a detection target image described later. The image database 122 may store, for example, image data showing the appearance of a platform at a station as shown in FIG. 7 and metadata included in the image. In one embodiment, the storage unit 120 receives an image (source image, background image, desired detection target image) designated by the user from the client terminal 130 or the client terminal 140, and uses the received image data for image generation. The image data may be stored in the image database 122 in the obtained format. The image/model database 124 is a database (apparatus or logical storage area) that stores a specific image and a model associated with the image in a form associated with each other. For example, as shown in FIGS. 5 to 6 described later, a model (vector model, point cloud, etc.) used for image generation and a realistic image associated with the model are stored in the image/model database 124. May be saved. The image database 122 and the image/model database 124 of the storage unit 120 are realized by a semiconductor memory device such as a RAM (Random Access Memory) and a flash memory (Flash Memory), or a storage unit such as a hard disk and an optical disk. May be.
[クライアント端末130の構成]
前述のように、クライアント端末130は、ネットワーク150を介して中央サーバ100に画像生成要求を送信するための装置である。クライアント端末130は、端末内の他の機能部から送られる命令を実行する処理部132と、ユーザからの指示(画像生成条件等)を受け付ける指示受付部134と、画像(ソース画像、背景画像、検出対象画像)を選択する画像選択部136と、中央サーバ100や他のネットワーク端末(例えばクライアント端末140)とのやり取りを管理する通信部138と、情報(画像データやユーザからのコマンド等)を格納する記憶部139とを含む。上記の通り、ある実施形態では、ユーザはクライアント端末130を利用し、画像生成の条件を入力したり、画像生成に用いられるソース画像、背景画像、又は検出対象画像を指定したりすることができる。クライアント端末130はユーザから入力された条件や指示を中央サーバ100に送信してもよい。
[Configuration of Client Terminal 130]
As described above, the client terminal 130 is a device for transmitting an image generation request to the central server 100 via the
[クライアント端末140の構成]
クライアント端末130と同様に、クライアント端末140はネットワーク150を介して中央サーバ100に画像生成要求を送信するための装置である。また、クライアント端末140は、クライアント端末130と同様に、端末内の他の機能部から送られる命令を実行する処理部142と、ユーザからの指示(画像生成条件等)を受け付ける指示受付部144と、中央サーバ100や他のネットワーク端末(例えばクライアント端末130)とのやり取りを管理する通信部146と、情報(画像データやユーザからのコマンド等)を格納する記憶部148とを含む。クライアント端末140は、画像選択部136のような画像選択部を有しない点において、クライアント端末130と異なる。従って、画像生成要求が画像選択部を有しないクライアント端末140のような端末から送られる場合は、画像生成に用いられる画像の選択はユーザの指示によって中央サーバ100の画像選択部112を用いて選択されてもよく、又は、中央サーバ100の画像選択部112に自動的(例えば、ランダム)に選択させてもよい。
[Configuration of Client Terminal 140]
Like the client terminal 130, the client terminal 140 is a device for transmitting an image generation request to the central server 100 via the
次に、図2を参照して、第1実施形態における背景画像取得、検出対象特定、検出対象画像モデルの作成、及び検出対象画像の確立について説明する。図2は、本発明の第1実施形態に係る画像生成方法の流れを示すフローチャートである。 Next, with reference to FIG. 2, background image acquisition, detection target identification, detection target image model creation, and detection target image establishment in the first embodiment will be described. FIG. 2 is a flowchart showing the flow of the image generation method according to the first embodiment of the present invention.
まず、ステップS200では、背景画像が取得される。本明細書では、取得するという表現は、入手したり、受信したり、確保したり、調達したり、選択したり、指定したりすることを含む。背景画像とは、後述する検出対象画像が配置されることで最終画像となる画像である。背景画像は例えば、駅のホーム、空港の搭乗ゲート、コンサートやスポーツ試合の会場、ショッピングモール等の様々な環境の様子を写す画像であってもよい。この背景画像はユーザに指定されてもよく(例えば、クライアント端末130の画像選択部136)、ユーザが入力した指示(例えばクライアント端末140を介して)に応じて記憶部120の画像データベース122に保存されている画像の中から中央サーバ100の画像選択部112に選択されてもよい。 First, in step S200, a background image is acquired. As used herein, the term obtaining includes obtaining, receiving, securing, procuring, selecting, and designating. The background image is an image that becomes a final image when a detection target image described later is arranged. The background image may be, for example, an image showing various environments such as a platform of a station, a boarding gate of an airport, a venue of a concert or a sports game, a shopping mall, and the like. This background image may be designated by the user (for example, the image selection unit 136 of the client terminal 130), and is stored in the image database 122 of the storage unit 120 according to an instruction input by the user (for example, via the client terminal 140). The selected image may be selected by the image selection unit 112 of the central server 100.
次に、ステップS220では、検出対象画像が特定される。本明細書では、特定するという表現は、選定したり、選択したり、設定したり、指定したり、又は識別したり、検知したりすることを含む。検出対象画像とは、ユーザが背景画像に配置したい物体が写る画像である。例えば、検出対象画像は、画像内から検出できるように機械学習部を訓練する対象の物体を示す画像であってもよい。検出対象画像は、例えば、白杖を持っている人、特定の服装をした人、所定の大きさを超えた荷物、ある種類の動物等を含んでもよい。また、この検出対象画像はメタデータを備えていてもよい。ここでのメタデータとは、2次元の座標等の検出対象画像の位置を表す情報、検出対象画像の形状(矩形、丸い)や大きさ(ピクセルで見た長さ・高さ等)を示す情報、及び検出対象画像の性質(人間、動物、荷物、自動車等のラベル)を表す情報を含んでもよい。このメタデータは、後述する機械学習訓練に用いられてもよい。 Next, in step S220, the detection target image is specified. As used herein, the term identifying includes selecting, selecting, setting, designating, identifying, or detecting. The detection target image is an image showing an object that the user wants to arrange in the background image. For example, the detection target image may be an image showing a target object for which the machine learning unit is trained so that it can be detected from the image. The detection target image may include, for example, a person holding a white cane, a person in a specific outfit, a baggage exceeding a predetermined size, a certain type of animal, and the like. Further, the detection target image may include metadata. The metadata here indicates information indicating the position of the detection target image such as two-dimensional coordinates, the shape (rectangle, round) and size (length/height in pixels, etc.) of the detection target image. Information and information indicating the property of the detection target image (label of human, animal, luggage, automobile, etc.) may be included. This metadata may be used for machine learning training described below.
この検出対象画像は、ユーザが入力したソース画像から中央サーバ100の画像選択部112によって特定されてもよく、又は直接にユーザの指示によって特定されてもよい。一例として、背景画像が工事現場の画像として指定された場合には、クライアント端末130の指示受付部134又はクライアント端末140の指示受付部144は、検出対象画像として、ソース画像に写っている「ヘルメット未着用の人」として指定し、その要求をユーザから受信したとする。この場合、この要求を受信した指示受付部134はユーザの指示を中央サーバ100に送信し、中央サーバ100の画像選択部112はユーザの要求に合わせてソース画像内から、ヘルメット未着用の人を検出対象画像として特定してもよい。 The detection target image may be specified by the image selection unit 112 of the central server 100 from the source image input by the user, or may be specified directly by the user's instruction. As an example, when the background image is designated as the image of the construction site, the instruction receiving unit 134 of the client terminal 130 or the instruction receiving unit 144 of the client terminal 140 uses the “helmet” included in the source image as the detection target image. It is assumed that the request is designated as "non-wearing person" and the request is received from the user. In this case, the instruction receiving unit 134 that has received this request transmits the user's instruction to the central server 100, and the image selecting unit 112 of the central server 100 selects the person who does not wear a helmet from the source images in accordance with the user's request. You may specify as a detection target image.
次に、ステップS240では、検出対象画像モデルが作成される。本明細書では、作成するという表現は、生成したり、創造したり、形成したり、用意したり、作り出したりすることを含む。検出対象画像モデルは、検出対象画像に示されている物体の形状や構造を具現化する模型である。検出対象画像モデルとしては、例えば、ベクトルモデル、点群、又は3Dモデル等が使われてもよい。検出対象画像モデルは、例えば、周知のモデル作成ツールによって自動的に行われてもよい。後述するように、ここで作成された検出対象画像モデルは、中央サーバ100の画像処理部116及び後述する敵対的生成ネットワークにおいて加工されることにより、より現実の画像に近い画像として仕上げられてもよい。 Next, in step S240, a detection target image model is created. As used herein, the term creating includes including creating, creating, forming, preparing, and creating. The detection target image model is a model that embodies the shape and structure of the object shown in the detection target image. As the detection target image model, for example, a vector model, a point cloud, a 3D model, or the like may be used. The detection target image model may be automatically performed by a well-known model creation tool, for example. As will be described later, even if the detection target image model created here is processed in the image processing unit 116 of the central server 100 and a hostile generation network to be described later, it may be finished as an image closer to a real image. Good.
次に、ステップS260では、最終画像が確立される。本明細書では、確立するという表現は、樹立したり、設定したり、設立したり、生成したり、構築したり、設けたり、創造したりすることを含む。最終画像とは、ステップS200で取得した背景画像と、ステップS240で作成された検出対象画像モデルとを組み合わせることで生成された画像である。具体的には、最終画像は、中央サーバ100のモデル作成部114が背景画像と検出対象画像モデルとを結合させることで生成されてもよい。背景画像と検出対象画像モデルを結合させ、最終画像を生成する工程の詳細は図7を参照して説明するため、ここでの説明を省略する。 Next, in step S260, the final image is established. As used herein, the expression establishing includes establishing, setting, establishing, creating, constructing, providing, and creating. The final image is an image generated by combining the background image acquired in step S200 and the detection target image model created in step S240. Specifically, the final image may be generated by the model creating unit 114 of the central server 100 combining the background image and the detection target image model. The details of the process of combining the background image and the detection target image model to generate the final image will be described with reference to FIG. 7, and thus the description thereof is omitted here.
このように、背景画像を取得し、メタデータを備えた検出対象画像をソース画像から特定し、検出対象画像に対応する検出対象画像モデルを生成し、背景画像と前記検出対象画像モデルとを結合させ、最終画像を確立することで、実際の検出対象画像が少なく、入手困難な場合にも、機械学習用の画像を生成することができる。 In this way, a background image is acquired, a detection target image having metadata is specified from the source image, a detection target image model corresponding to the detection target image is generated, and the background image and the detection target image model are combined. By establishing the final image, it is possible to generate an image for machine learning even when the actual detection target image is few and it is difficult to obtain.
次に、図3を参照して、本発明の第1実施形態に係るカメラパラメータの計算手法について説明する。図3に示されるように、背景画像320と、改札口321と、水平線323と、検出対象画像モデル327とがカメラパラメータの計算に用いられる。
Next, with reference to FIG. 3, a camera parameter calculation method according to the first embodiment of the present invention will be described. As shown in FIG. 3, the
上記説明した検出対象画像を確立する工程において、検出対象画像モデル327を適切な大きさ等で背景画像320に配置するためには、背景画像320のカメラパラメータを計算する必要がある。ここで計算されたカメラパラメータを用いることで、モデル作成部114は検出対象画像モデル327を適切な位置、大きさ、及び姿勢で背景画像320に配置することができる。
In the process of establishing the detection target image described above, in order to arrange the detection
カメラパラメータを計算するために、まず、基準の物体が背景画像320から識別される。ここでの基準の物体とは、背景画像320に配置される検出対象画像モデルのサイズの目安となる物体である。例えば、基準の物体は、大きさが一般的に知られている、又は推定・推測されやすいものであってもよい。一例として、ここでは、改札口321が基準の物体として識別されてもよい。次に、識別された基準の物体の寸法要素(高さ、長さ等)に基づいて、カメラパラメータが計算される。具体的には、基準の物体として識別された改札口321の背景画像320における位置に合わせた水平線323等の基準を設定し、改札口321のピクセル数で見た長さ・高さが測定される。そして、改札口321の実際の長さ・高さを、背景画像320におけるピクセル数で見た長さ・高さで割ることにより得た割合を用いることで、検出対象画像モデルのあるべき大きさを容易に計算することができる。したがって、ここで計算されたカメラパラメータに基づいて、検出対象画像モデル327を背景画像320に結合させることにより、最終画像を生成することができる。
To calculate the camera parameters, the reference object is first identified from the
このように、基準の物体の寸法要素に基づいて、カメラパラメータを計算し、計算された前記カメラパラメータに基づいて、検出対象画像モデルを背景画像に結合させることで、検出対象画像モデルを適切な大きさ・位置・向きで配置することができる。 As described above, by calculating the camera parameter based on the dimension element of the reference object and combining the detection target image model with the background image based on the calculated camera parameter, the detection target image model is appropriately selected. It can be arranged in size, position and orientation.
次に、図4を参照して、本発明の第1実施形態に係る画像生成方法の変形例の流れについて説明する。 Next, a flow of a modified example of the image generation method according to the first embodiment of the present invention will be described with reference to FIG.
まず、ステップS400では、背景画像が取得される。ここでの背景画像取得は、図3におけるS200の背景画像取得と実質的に同様であるため、ここでの説明を省略する。 First, in step S400, a background image is acquired. Since the background image acquisition here is substantially the same as the background image acquisition of S200 in FIG. 3, description thereof will be omitted here.
次に、ステップS420では、検出対象画像を表すベクトルモデルがステップS400で取得した背景画像に配置される。ベクトルモデルとは、検出対象画像に写っている物体の形状や構造を空間ベクトルで表現したモデルである。例えば、ベクトルモデルの一例は図5で示されている。図5は、本発明の第1実施形態に係るベクトルモデル及び画像の一例を示す図である。図5に示されているベクトルモデル531は人間の身体のベクトルモデルである。このベクトルモデル531は例えば、図3を用いて説明したカメラパラメータに基づいて、適切な位置、大きさ、及び向きで背景画像に配置されてもよい。
Next, in step S420, the vector model representing the detection target image is arranged on the background image acquired in step S400. The vector model is a model in which the shape and structure of the object shown in the detection target image is represented by a space vector. For example, an example of the vector model is shown in FIG. FIG. 5 is a diagram showing an example of a vector model and an image according to the first embodiment of the present invention. The
次に、ステップS440では、ベクトルモデルが調整される。ベクトルモデルの調整は中央サーバ100の画像処理部116によって行われてもよい。ここで、ベクトルモデル調整とは、一般的に知られている画像処理技術を使用することによりステップS420で配置したベクトルモデルをより現実の画像に近い画像(以下「現実的な画像」とも言う)へと変換することを意味する。具体的には、ここでのベクトルモデルの調整は、例えば敵対的生成ネットワーク(Generative Adversarial Network、又はGANと呼ぶこともある)によって行われてもよい。一例として画像処理部116は、背景画像に配置されたベクトルモデルを中央サーバ100の記憶部120の画像・モデルデータベースに格納されているモデルと比較し、その中から当該ベクトルモデルと類似性が一番高い画像を選択してもよい。例えば、図5が示すように、ベクトルモデル531は、白杖を持っている人物のような現実的な画像532へと変換されてもよい。ここで選択された画像は、ベクトルモデルと重ね合わせられることで最終画像が生成されてもよい。
Next, in step S440, the vector model is adjusted. The adjustment of the vector model may be performed by the image processing unit 116 of the central server 100. Here, the vector model adjustment refers to an image in which the vector model arranged in step S420 is closer to an actual image by using a generally known image processing technique (hereinafter, also referred to as “realistic image”). Means to convert to. Specifically, the adjustment of the vector model here may be performed by, for example, an adversarial generation network (sometimes referred to as a “Generic Adversary Network” or “GAN”). As an example, the image processing unit 116 compares the vector model arranged in the background image with a model stored in the image/model database of the storage unit 120 of the central server 100, and finds that the vector model has a similarity to the vector model. The highest image may be selected. For example, as shown in FIG. 5, the
次に、ステップS460では、ステップS440で生成された最終画像を用いて、機械学習の訓練が行われる。ここでの機械学習は、中央サーバ100の機械学習部118によって行われてもよい。上記の通り、背景画像と検出対象画像を結合させた最終画像は、敵対的生成ネットワークのようなニューラルネットワークを訓練させる手法を用いて行ってもよい。機械学習の訓練工程の詳細は後述するため、ここでの説明を省略する。 Next, in step S460, machine learning training is performed using the final image generated in step S440. The machine learning here may be performed by the machine learning unit 118 of the central server 100. As described above, the final image in which the background image and the detection target image are combined may be performed using a method of training a neural network such as an adversarial generation network. Since the details of the machine learning training process will be described later, the description thereof is omitted here.
次に、ステップS480では、S460で訓練された機械学習のシステムが実際に適用される。例えば、本実施形態の手法によって生成された画像で訓練された機械学習のシステムは、例えば、全自動運転の車の事故検知、構造物のひび割れ検出、自然災害のシムレーション等の、実際の訓練画像データが入手困難な場合に有用であると考えられる。 Then, in step S480, the system of machine learning trained in S460 is actually applied. For example, a system for machine learning trained with images generated by the method of the present embodiment is used for actual training such as accident detection of a fully autonomous vehicle, crack detection of a structure, and simulation of a natural disaster. It is considered to be useful when image data is difficult to obtain.
このように、ベクトルモデルを配置し、調整することで、機械学習用の良質な画像が得られる。 By arranging and adjusting the vector model in this way, a high-quality image for machine learning can be obtained.
次に、図6を参照して、本発明の第1実施形態に係るベクトルモデル・画像の対応付けの一例について説明する。 Next, with reference to FIG. 6, an example of the correspondence between the vector model and the image according to the first embodiment of the present invention will be described.
上記の通り、本発明に係る画像生成には、ベクトルモデル及びベクトルモデルに対応する現実的な画像が用いられることがある。ここでは、現実的な画像とベクトルモデルの対応付けについて説明する。まず、検出対象画像641の元となる検出対象は実験室環境において撮影されることで得ることができる。次に、Openpose等のような一般的に知られている周知のエッジ・向き検出アルゴリズムを検出対象画像641に対して適用することで、検出対象画像641に重ね合わせられたベクトルモデルが生成される。次に、このベクトルモデル643と検出対象画像641とをお互いに対応付けられたモデル・画像ペア645として記憶部120の画像・モデルデータベース124に保存することで、中央サーバ100の処理部110の各機能部にアクセス可能にすることができる。
As described above, a vector model and a realistic image corresponding to the vector model may be used for image generation according to the present invention. Here, the correspondence between a realistic image and a vector model will be described. First, the detection target that is the source of the
このように、ベクトルモデルと現実的な画像をお互いに対応付けた形で格納することで、敵対的生成ネットワークを容易に訓練できるというメリットがある。 In this way, by storing the vector model and the realistic image in a form associated with each other, there is an advantage that the adversarial generation network can be easily trained.
次に、図7を参照して、本発明の第1実施形態に係る検出対象画像を確立するための処理の一例について説明する。 Next, an example of processing for establishing a detection target image according to the first embodiment of the present invention will be described with reference to FIG. 7.
図7に示されるように、駅のホームの様子を示す画像が背景画像301として取得されている。図3を参照して説明したように、背景画像301のカメラパラメータは線路302や改札口303のような基準の物体に基づいて計算される。次に、モデル作成部114は、上記計算したカメラパラメータに指定される位置・大きさ・向きに応じて、ユーザから要求された検出対象画像に対応するベクトルモデル304を背景画像301に配置する。次に、画像処理部116はベクトルモデル304に対応する現実的な画像305を生成し、ベクトルモデル304と同じ位置・大きさ・向きで背景画像301に挿入する。なお、この段階で、この現実的な画像を背景画像301に溶け込ませるための光調整・エッジ調和等の画像処理が施されてもよい。このように、検出対象画像に対応する現実的な画像305と背景画像301とを結合させることで、最終画像309が得られる。また、上記の通り、この最終画像309はニューラルネットワークやサポートベクターマシン等の機械学習手法を訓練させるために使用されてもよい。このように、検出対象が少なく、入手困難な場合にも、本実施形態の発明を用いれば、機械学習用の画像を生成することができる。
As shown in FIG. 7, an image showing the appearance of the platform at the station is acquired as the
なお、本実施形態では1つの検出対象画像を背景画像に結合させる例を説明したが、本発明はそれに限定されず、上記の工程を繰り返すことで複数の検出対象画像を1つの背景画像に配置することも可能である。 It should be noted that although an example in which one detection target image is combined with a background image has been described in the present embodiment, the present invention is not limited thereto, and a plurality of detection target images are arranged on one background image by repeating the above steps. It is also possible to do so.
次に、図8を参照して、本発明の実施形態に係る画像生成方法の流れについて説明する。 Next, the flow of the image generating method according to the embodiment of the present invention will be described with reference to FIG.
まず、ステップS400では、背景画像が取得される。ステップS420では、ベクトルモデルが背景画像に配置される。S440では、ベクトルモデルが調整される。これらの工程は、図4を参照して説明した画像生成方法と実質的に同様であるため、ここでの説明を省略する。 First, in step S400, a background image is acquired. In step S420, the vector model is placed on the background image. In S440, the vector model is adjusted. Since these steps are substantially the same as the image generation method described with reference to FIG. 4, description thereof will be omitted here.
上記では、生成された最終画像を機械学習訓練に用いる例を説明したが、本発明はそれに限定されず、最終画像を別の目的のために使用されてもよい。従って、ステップS800では、ステップS440でベクトルモデルを調整した後、生成された最終画像が提供される。この最終画像は例えば、画像の生成を要求した相手に提供されてもよく、第三者に送信されてもよい。機械学習訓練の他にも、最終画像は広告、顔認識、物体検出、画像処理等に適用されてもよい。このように、本発明に係る画像生成方法は機械学習を訓練させるためだけでなく、様々な分野に応用されてもよい。 Although the example of using the generated final image for machine learning training has been described above, the present invention is not limited thereto, and the final image may be used for another purpose. Therefore, in step S800, the final image generated is provided after adjusting the vector model in step S440. This final image may be provided to the person who requested the generation of the image, or may be transmitted to a third party. In addition to machine learning training, the final image may be applied to advertising, face recognition, object detection, image processing, etc. As described above, the image generation method according to the present invention may be applied to various fields as well as to train machine learning.
次に、図9を参照して、本発明の第2実施形態に係る検出対象画像を確立するための処理の一例について説明する。 Next, with reference to FIG. 9, an example of a process for establishing a detection target image according to the second embodiment of the present invention will be described.
画像生成要求の条件によっては、検出対象画像を表すモデル(ベクトルモデル等)を生成することが難しいあるいは、不要な場合がある。例えば、一例として、検出対象画像の細かな要素(例えば、色、形状、構造等)を描写する必要がない場合には、最終画像のファイルサイズを抑えるために、ベクトルモデルや現実的な画像より粗末な画像で代用してもよいケースがある。そのため、本発明の第2実施形態に係る検出対象画像を確立するための処理は、ベクトルモデルや現実的な画像ではなく、部分的な画像を単に検出対象画像として背景画像に挿入することで、上記の課題を解決する。 Depending on the condition of the image generation request, it may be difficult or unnecessary to generate a model (vector model or the like) representing the detection target image. For example, as an example, if it is not necessary to depict small elements (for example, color, shape, structure, etc.) of the detection target image, in order to suppress the file size of the final image, a vector model or a realistic image is used. There are cases in which a poor image may be used instead. Therefore, the process for establishing the detection target image according to the second embodiment of the present invention is not a vector model or a realistic image, but a partial image is simply inserted as a detection target image into the background image. The above problems are solved.
図9は、駅のホームの様子を示す画像が背景画像301として取得されている。そして、図9では、図7と同じように、背景画像301には線路302や改札口303等の基準の物体を含んでいる。次に、第2の実施形態においては線路302や改札口303等の基準の物体に基づいて計算されたカメラパラメータ(あるいはユーザに入力された画像生成条件)に指定される位置・大きさ等に応じて、部分的画像314が検出対象画像として定義される。この部分的画像は例えば、任意の大きさや形状で作られており、背景画像内の一定領域となる画像である。なお、図9に示される部分的画像314は矩形の領域として示されているが、本発明に係る部分的画像314の領域の形状は矩形だけに限定されず、任意の形状であってもよい。このように、部分的画像314が挿入された背景画像301を最終画像315とすることで、第1実施形態で説明した画像生成方法による最終画像に比べてファイルサイズが低い最終画像が得られる。また、図9に示されるように、部分的画像314のサイズに合わせた画像(例えば画像データベース122に格納されている画像又はユーザに選択された画像)は部分画像314の領域内に挿入されてもよい。
In FIG. 9, an image showing the appearance of the platform at the station is acquired as the
このように、第2実施形態によれば、画像のファイルサイズを抑制できる効果が得られる。 As described above, according to the second embodiment, an effect that the file size of the image can be suppressed can be obtained.
次に、図10を参照して、本発明の第3実施形態に係る検出対象画像確立処理の一例について説明する。 Next, with reference to FIG. 10, an example of the detection target image establishing process according to the third embodiment of the present invention will be described.
選択された背景画像によっては、検出対象画像とする物体が不鮮明又は不完全なため、検出対象画像を表すモデル(ベクトルモデル等)を生成することが難しい場合がある。例えば、一例として、検出対象画像とする物体の一部がぼやけたり、切れたりし、又は複数写っていることがあると、正確なベクトルモデルを作成することが困難であり、機械学習訓練に用いられる画像が生成できない。そのため、本発明の第3実施形態に係る検出対象画像を確立するための処理は、鮮明な部分的画像を検出対象画像として背景画像に挿入又は置換することで、上記の課題を解決する。 Depending on the selected background image, the object as the detection target image may be unclear or incomplete, and thus it may be difficult to generate a model (vector model or the like) representing the detection target image. For example, as an example, when a part of an object to be detected is blurred, cut, or a plurality of images are captured, it is difficult to create an accurate vector model, which is used for machine learning training. Image cannot be generated. Therefore, the processing for establishing the detection target image according to the third embodiment of the present invention solves the above problem by inserting or replacing a clear partial image into the background image as the detection target image.
図10に示されるように、検出対象画像とする候補の物体(例えば、人物)324が写っている駅のホームの様子を示す画像が背景画像301として取得されている。しかし、この候補の物体324は、例えば不鮮明であったり、一部が欠落しているため、この候補の物体324を正確に表すモデルを生成することが困難な場合が存在する。このような場合には、本実施形態の検出対象画像を確立するための処理において、部分的画像325を候補の物体324の全体あるいは一部を取り囲むように描くこととする。そして、この部分的画像325は、例えばユーザによってGUI等を介して指定されてもよく、または機械学習部118によって自動的に生成されてもよい。次に、中央サーバ100の画像処理部116によって、部分的画像325が指定されている領域に対して画像処理を施すことで、候補の物体324を検出対象画像326として仕上げ、検出対象画像326が写っている背景画像301を最終画像329とすることで、機械学習に用いることができる最終画像が得られる。なお、ここでの部分的画像325は第3実施形態において説明した部分的画像314と実質的に同様である。
As shown in FIG. 10, an image showing a state of a platform at a station in which a candidate object (for example, a person) 324 to be a detection target image is captured is acquired as a
このように、第3の実施形態によれば、検出対象画像が不鮮明・不完全な場合においても、良質な画像を生成することができ、画像のファイルサイズを押させる効果が得られる。 As described above, according to the third embodiment, it is possible to generate a high-quality image even when the detection target image is unclear and incomplete, and it is possible to obtain the effect of pushing the file size of the image.
次に、図11を参照して、本発明の第4実施形態に係る機械学習画像作成能力向上工程の一例について説明する。 Next, with reference to FIG. 11, an example of a machine learning image creation capability improving step according to the fourth embodiment of the present invention will be described.
上記の通り、本発明の態様は、上記の画像生成方法で生成された画像を機械学習の訓練に用いることに関する。以下、機械学習の画像作成能力を向上する例を敵対的生成ネットワークについて説明するが、本発明はそれに限定されず、サポートベクターマシン等、任意の機械学習手法に適用されてもよい。 As described above, the aspect of the present invention relates to the use of the image generated by the image generation method described above for machine learning training. Hereinafter, an example of improving the image creation capability of machine learning will be described with respect to a hostile generation network, but the present invention is not limited thereto and may be applied to any machine learning method such as a support vector machine.
敵対的生成ネットワークとは、生成ネットワーク(generator)と識別ネットワーク(discriminator)の2つのネットワークから構成され、2つのデータセットを競合させることで学習していくネットワークである。具体的には、基礎となる基本画像と、ネットワークに生成して欲しい目的画像のペアが入力されると、生成側が結果として作成画像を生成し、出力する。この作成画像は、目的画像に類似していれば類似しているほどよい。識別側がこの作成画像と目的画像を比較することで、作成画像の精度を判定する。このように、生成側は識別側を欺こうと学習し、識別側はより正確に識別しようと学習する The adversarial generation network is a network composed of two networks, a generation network (generator) and an identification network (discriminator), and learns by competing two data sets. Specifically, when a pair of a basic image as a base and a target image desired to be generated in the network is input, the generation side generates and outputs a generated image as a result. The more similar this created image is to the target image, the better. The discriminator compares the created image with the target image to determine the accuracy of the created image. In this way, the generator learns to deceive the discriminator and the discriminator learns to discriminate more accurately.
本実施形態では、まず、ステップ1110では、検出対象画像の元となる検出対象を実験室環境において撮影して、検出対象画像を取得する。例えば、図11に示されるように、白状を持っている人物を撮影することで、白状を持っている人物が検出対象画像として得られる。次に、ステップ1120では、ステップ1110で入手した検出対象画像に対してOpenpose等のような一般的に知られている周知のエッジ・向き検出アルゴリズムを適用することで、検出対象画像に対応するベクトルモデルが生成される。例えば、検出対象画像が人物の場合、図11に示されるように、人物の頭、肩、腕、胴体、脚等の部分を表すベクトルモデルが生成されてもよい。なお、検出対象がスーツケースや自動車等のようなエッジを有するものの場合には、エッジ抽出技術が適用されてもよい。これらのエッジはスプライン等で表現されてもよい。
In the present embodiment, first, in
次に、ステップ1130では、ステップ1110で撮影された検出対象画像と、ステップ1120で生成されたベクトルモデルとが、お互いに対応付けられたモデル・画像ペアとして記憶部120の画像・モデルデータベース124に保存されてもよい。次に、ステップ1140では、このベクトルモデルが配置された背景画像が基本画像として敵対的生成ネットワーク(第2ニューラルネットワークと呼ばれることもある)に入力される。そして、ステップ1150では、敵対的生成ネットワークの生成ネットワークはステップ1130で対応付けられたモデル・画像ペアに基づいて、ベクトルモデルを現実的な画像へと変換することで、ベクトルモデルに対応する現実的な画像が背景画像に写っている画像を作成画像として作成する。
Next, in
次に、敵対的生成ネットワークは、ステップ1110で撮影した検出対象(目的画像)とステップ1150で作成した作成画像を比較する。具体的には、敵対的生成ネットワークの識別ネットワークが、目的画像と作成画像のそれぞれのメタデータ(画像に写っている物体の位置、形状、大きさ、性質等を定義する情報)を比較してもよい。さらに、識別ネットワークは目的画像及び作成画像を所定の類似度基準を用いて比較してもよい。この類似度基準とは、例えば、2つ以上の画像がお互いに類似している度合の閾値であってもよい。目的画像及び作成画像が所定の類似度基準を達成する場合(つまり、目的画像と作成画像がお互いに十分に類似していると判定された場合)には、敵対的生成ネットワークのパラメータが調整される。このパラメータ調整とは、例えば、この作成画像を作成するために使用された条件を、他の画像生成にも適用されるように設定することを含む。
Next, the adversarial generation network compares the detection target (target image) imaged in
このように、基本画像を敵対的生成ネットワークに入力し、基本画像に基づいて作成画像を作成し、作成画像と目的画像とを比較し、作成画像と目的画像とが所定の類似度基準を達成する場合には、敵対的生成ネットワークのパラメータを調整することで、良質な最終画像を生成することができる敵対的生成ネットワークが得られる。 In this way, the basic image is input to the hostile generation network, the created image is created based on the basic image, the created image and the target image are compared, and the created image and the target image achieve the predetermined similarity criterion. In such a case, by adjusting the parameters of the adversarial generation network, the adversarial generation network capable of generating a good final image can be obtained.
次に、図12を参照して、本発明の第5実施形態に係る画像生成方法の一例について説明する。 Next, with reference to FIG. 12, an example of an image generation method according to the fifth embodiment of the present invention will be described.
本発明の画像生成方法によれば、1つの検出対象に対して1つのモデルを生成することだけでなく、1つの検出対象に対して複数の検出対象モデルを生成することもできる。図12(a)に示されるように、1つの検出対象1203は複数のカメラ1207、1208、1209によって撮像されてもよい。このように、それぞれのカメラ1207、1208、1209に撮像された検出対象画像と、それぞれのカメラ1207、1208、1209に撮像された背景画像とを上記説明した画像生成方法に用いることで、同じ検出対象1203を異なる観点から示す最終画像を生成することができる。
According to the image generation method of the present invention, not only one model can be generated for one detection target, but also a plurality of detection target models can be generated for one detection target. As shown in FIG. 12A, one
また、検出対象が移動する場合には、検出対象の動きを表現するためには、検証対象モデルを画像系列として表す必要がある。例えば、図12(b)に示されるように、検出対象1213が矢印1215に示される方向に進むとする。検出対象1213の移動はカメラ1217によって撮像される。従って、カメラ1217で撮像された映像を上記説明した画像生成方法に用いることで、検出対象1213の移動の各フレームに対して検出対象モデル(ベクトルモデル等)を生成することができる。これらの検出対象モデルのそれぞれに対してニューラルネットワークによる画像処理を行うことで、検出対象1213の動きをスムーズに表す画像系列が得られる。なお、検出対象が移動する場合だけでなく、同じ検出対象を異なる照明環境(例えば朝と夜、または自然光と人工光)で示す画像を生成することもできる。
When the detection target moves, the verification target model needs to be represented as an image series in order to express the motion of the detection target. For example, as shown in FIG. 12B, it is assumed that the
なお、ここでは、単一の検出対象を異なる観点で見た検出対象画像を生成する例を説明したが、本発明はそれに限定されず、複数の異なる物体を表す検出対象画像モデルを同じ背景画像に結合させることも可能である。具体的には、モデル作成部114は第1検出対象画像に対応する第1検出対象モデルと、第2検出対象画像に対応する第2検出対象画像モデルを生成してもよい。次に、上記説明したように、モデル作成部114は第1背景画像を取得する。最後に、モデル作成部114は、第1検出対象画像モデル及び第2検出対象画像モデルを第1背景画像に挿入してもよい。 Here, an example of generating a detection target image in which a single detection target is viewed from different viewpoints has been described, but the present invention is not limited to this, and the detection target image model representing a plurality of different objects has the same background image. It is also possible to combine with. Specifically, the model creation unit 114 may generate a first detection target model corresponding to the first detection target image and a second detection target image model corresponding to the second detection target image. Next, as described above, the model creation unit 114 acquires the first background image. Finally, the model creation unit 114 may insert the first detection target image model and the second detection target image model into the first background image.
このように、1つの検出対象に対して複数の検出対象モデルを生成し、又は画像系列を検証対象モデルとして生成することで、訓練効果が高い画像を得ることができる。 In this way, an image with a high training effect can be obtained by generating a plurality of detection target models for one detection target or generating an image series as a verification target model.
次に、図13を参照して、本発明の第6実施形態に係る機械学習検出精度向上工程の一例について説明する。 Next, with reference to FIG. 13, an example of a machine learning detection accuracy improving step according to the sixth embodiment of the present invention will be described.
上記の通り、本発明の態様は、上記の画像生成方法で生成された画像を機械学習訓練に用いることに関する。以下、機械学習の物体検出精度を向上する例をFaster−RCNNやSVM等のニューラルネットワークについて説明するが、本発明はそれに限定されず、任意の物体検出アルゴリズムや機械学習手法に適用されてもよい。 As described above, the aspect of the present invention relates to the use of the image generated by the above-described image generation method for machine learning training. Hereinafter, an example of improving the object detection accuracy of machine learning will be described with respect to a neural network such as Faster-RCNN or SVM, but the present invention is not limited thereto and may be applied to any object detection algorithm or machine learning method. ..
まず、第1ニューラルネットワーク(物体検出ニューラルネットワークとも呼ばれる)を最適化するために、検出対象画像モデルに関連付けられたメタデータが物体検出ニューラルネットワークに提供される。このメタデータは、上記説明した通り、画像401における検出対象モデル402の位置、形状、大きさ、性質等の特性を定義する情報であってもよい。画像401は、上記説明したいずれかの画像生成方法によって生成された最終画像であってもよい(例えば、図3の最終画像309、図9の最終画像315、図10の最終画像329等)。又は、検出対象モデル402のメタデータだけでなく、検出対象モデルを含む画像401が丸ごと物体検出ニューラルネットワークに提供されてもよい。
First, in order to optimize the first neural network (also called object detection neural network), metadata associated with the image model to be detected is provided to the object detection neural network. As described above, this metadata may be information defining characteristics such as the position, shape, size, and nature of the
次に、対象画像404が物体検出ネットワークに提供される。この対象画像404は、例えば、画像401に写っている検出対象モデル402と同じあるいは類似している対象物体405を含む画像であり、物体検出の対象とする画像である。次に、物体検出ネットワークは対象画像404に対して物体検出最適化403を行い、検出対象モデル402のメタデータに基づいて、対象画像404の中から対象物体405を特定しようとする。具体的には、物体検出ネットワークは検出対象モデル402のメタデータを対象画像404に写っている物体と比較し、このメタデータと合致性が一番高い物体を特定する。図10に示されるように、物体検出ネットワークは特定した対象物体405を取り囲む四角い領域406等で示してもよい。
The
次に、物体検出の結果に基づいて、物体検出ネットワークの特定精度が算出される。この特定精度とは、物体検出ネットワークが特定した物体が検出対象モデル402とどのぐらい一致したか、すべての対象物体が特定されたか、対象物体以外の物体が間違って特定されたか等のファクターを評価し、その結果を定量的な形で表現する処理である。この特定度は例えば、75%や91%等のパーセントで表されてもよい。一例として、10個の対象物体のうち、9個が正しく特定された場合には、算出される特定精度を90%としてもよい。次に、算出された特定精度は所定の特定精度基準(予め定められた精度の閾値)と比較されてもよい。算出された特定精度が所定の特定精度基準を達成しない場合には、上記説明した物体検出最適化を繰り返して行われることが決定されてもよい(つまり、物体検出を繰り返すことでよりよい特定精度を求める)。
Next, the identification accuracy of the object detection network is calculated based on the result of the object detection. This identification accuracy evaluates factors such as how well the object identified by the object detection network matches the
このように、検出対象画像モデルに関連付けられたメタデータを物体検出ネットワークに提供し、メタデータに基づいて、対象とする画像の中から検出対象画像を物体検出ネットワークに特定させ、当該特定の結果により、特定精度を算出し、物体検出最適化を行うことにより、物体検出ネットワークの検出精度を向上させる効果が得られる。 In this way, the metadata associated with the detection target image model is provided to the object detection network, and the detection target image is specified from the target images to the object detection network based on the metadata, and the specific result is determined. Thus, the effect of improving the detection accuracy of the object detection network can be obtained by calculating the identification accuracy and performing the object detection optimization.
次に、図14を参照して、本発明の実施形態に係るシステムアーキテクチャの一例について説明する。 Next, an example of the system architecture according to the embodiment of the present invention will be described with reference to FIG.
上記説明したように、本発明はクライアント・サーバアーキテクチャとして構成されてもよい。具体的には、図14に示されるように、ユーザ1401は、コンピュータ、タブレットPC,スマートフォン等のような端末1402を介して、希望の背景画像及び希望の検出対象を指定してもよい。次に、クラウド1403上のサーバは、ユーザ1401が指定した検出対象1409と背景画像1408及び/又は記憶部1404に格納されているデータを用いて、最終画像を生成してもよい。
As explained above, the present invention may be configured as a client/server architecture. Specifically, as shown in FIG. 14, the
別のシステムアーキテクチャとしては、端末1402を含まない構成も可能である。この場合には、カメラ1405は直接にクラウド1403に接続されてもよく、カメラ1405によって撮影された画像や映像はユーザの端末を介さずに画像生成サービス提供者に送信されてもよい。この場合、ユーザは電子メール、電話、スマートフォン等の別の手段を用いて希望の検出対象を連絡してもよい。
As another system architecture, a configuration not including the terminal 1402 is also possible. In this case, the
100 中央サーバ
110 処理部
112 画像選択部
114 モデル作成部
116 画像処理部
118 機械学習部
120 記憶部
122 画像データベース
124 画像・モデルデータベース
130 クライアント端末
140 クライアント端末
100 central server 110 processing unit 112 image selection unit 114 model creation unit 116 image processing unit 118 machine learning unit 120 storage unit 122 image database 124 image/model database 130 client terminal 140 client terminal
Claims (15)
画像選択部によって、背景画像を取得する背景画像取得工程と、
前記画像選択部によって、メタデータを備えた検出対象画像をソース画像から特定する検出対象画像特定工程と、
モデル作成部によって、前記検出対象画像に対応する検出対象画像モデルを生成するモデル生成工程と、
前記モデル作成部によって、前記背景画像と前記検出対象画像モデルとを結合させることにより、最終画像を確立する検出対象画像確立工程と
を含む画像生成方法。 An image generation method,
A background image acquisition step of acquiring a background image by the image selection unit,
By the image selection unit, a detection target image specifying step of specifying a detection target image including metadata from a source image,
A model generation step of generating a detection target image model corresponding to the detection target image by the model generation unit,
And a detection target image establishing step of establishing a final image by combining the background image and the detection target image model by the model creating unit.
前記モデル作成部によって前記検出対象画像に対応する前記ベクトルモデルを生成するベクトルモデル生成工程と、
モデルと画像とが対応付けられている画像・モデルデータベースに基づいて、敵対的生成ネットワークを用いて前記ベクトルモデルを現実的な画像に変換する変換工程とを更に含む
請求項3に記載の画像生成方法。 The model generation step,
A vector model generation step of generating the vector model corresponding to the detection target image by the model generation unit;
A conversion step of converting the vector model into a realistic image by using a hostile generation network based on an image/model database in which a model and an image are associated with each other. The described image generation method.
前記背景画像から、基準の物体を識別する物体識別工程と、
前記基準の物体の寸法要素に基づいて、カメラパラメータを計算するカメラパラメータ計算工程と、
計算された前記カメラパラメータに基づいて、前記検出対象画像モデルを前記背景画像に結合させる結合工程ことにより、最終画像を確立するものである請求項1に記載の画像生成方法。 The detection target image establishing step,
From the background image, an object identification step of identifying a reference object,
A camera parameter calculating step of calculating a camera parameter based on the dimension element of the reference object;
The image generation method according to claim 1, wherein the final image is established by a combining step of combining the detection target image model with the background image based on the calculated camera parameter.
前記機械学習検出精度向上工程は、
第1ニューラルネットワークを最適化するために、前記検出対象画像モデルに関連付けられたメタデータを前記第1ニューラルネットワークに提供し、前記メタデータに基づいて、対象とする画像の中から前記検出対象画像を前記第1ニューラルネットワークに特定させる検出対象画像特定訓練工程と、
検出対象画像特定訓練工程の結果により、特定精度を算出する特定精度算出工程と、
前記特定精度を所定の特定精度基準と比較することにより、前記特定精度が前記所定の特定精度基準を達成しない場合、前記検出対象画像特定訓練工程を繰り返すことを決定する特定精度判定工程と
を含む請求項1に記載の画像生成方法。 An image generation method including a machine learning detection accuracy improving step,
The machine learning detection accuracy improving step,
In order to optimize the first neural network, the metadata associated with the detection target image model is provided to the first neural network, and the detection target image is selected from among the target images based on the metadata. A detection target image specifying training step for specifying the first neural network to
Based on the result of the detection target image identification training step, a specific accuracy calculation step of calculating the specific accuracy,
By comparing the specific accuracy with a predetermined specific accuracy standard, if the specific accuracy does not reach the predetermined specific accuracy standard, a specific accuracy determination step of deciding to repeat the detection target image specific training step is included. The image generation method according to claim 1.
前記機械学習画像作成能力向上工程は
基本画像を第2ニューラルネットワークに入力し、前記基本画像に基づいて作成画像を作成する作成画像作成工程と、
前記作成画像と目的画像とを比較する比較工程と、
前記作成画像と前記目的画像とが所定の類似度基準を達成する場合には、前記第2ニューラルネットワークのパラメータを調整するパラメータ調整工程と、
を含む請求項1に記載の画像生成方法。 An image creating method including a machine learning image creating ability improving step,
The machine learning image creation capability improving step inputs a basic image to a second neural network, and creates a created image based on the basic image.
A comparison step of comparing the created image and the target image,
A parameter adjusting step of adjusting a parameter of the second neural network when the created image and the target image achieve a predetermined similarity criterion;
The image generation method according to claim 1, further comprising:
前記モデル作成部によって、第1検出対象画像に対応する第1検出対象画像モデルを生成する第1対象モデル生成工程と、
前記モデル作成部によって、第2検出対象画像に対応する第2検出対象画像モデルを生成する第2対象モデル生成工程と、
前記モデル作成部によって、第1背景画像を取得する第1背景画像取得工程と、
前記第1背景画像に対して、前記第1検出対象画像及び第2検出対象画像を挿入する工程と、
を含む請求項1に記載の画像生成方法。 The detection target image establishing step,
A first target model generation step of generating a first detection target image model corresponding to the first detection target image by the model creation unit;
A second target model generation step of generating a second detection target image model corresponding to the second detection target image by the model creation unit;
A first background image acquisition step of acquiring a first background image by the model creation unit;
Inserting the first detection target image and the second detection target image into the first background image;
The image generation method according to claim 1, further comprising:
前記モデル作成部によって、
前記ソース画像の一部に不鮮明な個所が存在している場合には、
当該個所を他の鮮明な画像で置換又は挿入することにより最終画像を生成するものである
請求項1に記載の画像生成方法。 The detection target image establishing step,
By the model creation unit,
If there is a blurry part in the part of the source image,
The image generation method according to claim 1, wherein the final image is generated by replacing or inserting the portion with another clear image.
背景画像を取得し、メタデータを備えた検出対象画像をソース画像から特定する画像選択部と、
前記検出対象画像に対応する検出対象画像モデルを生成するモデル生成し、前記背景画像と前記検出対象画像モデルとを結合させることにより、最終画像を確立するモデル作成
部と、
を有する画像生成装置。 An image generation device,
An image selection unit that acquires a background image and specifies a detection target image including metadata from a source image,
A model creation unit that creates a detection target image model corresponding to the detection target image, and combines the background image and the detection target image model to establish a final image,
An image generation device having a.
前記検出対象画像に対応する前記ベクトルモデルを生成し、
前記画像生成装置は、
前記ベクトルモデルに対して画像処理を施し、前記検出対象画像モデルを生成する機械学習部を更に有する
請求項13に記載の画像生成装置。 The model creation unit,
Generating the vector model corresponding to the detection target image,
The image generating device,
The image generation device according to claim 13, further comprising a machine learning unit that performs image processing on the vector model to generate the detection target image model.
クライアント端末は画像選択部を有し、
中央サーバはモデル作成部を有し、
前記画像選択部は、
ユーザの入力により、背景画像を取得し、
メタデータを備えた検出対象画像をソース画像から特定し、
前記背景画像及び前記検出対象画像を中央サーバに送信し、
前記中央サーバは、
前記背景画像及び前記検出対象画像をクライアント端末から受信し、
前記モデル作成部は、
前記検出対象画像に対応する検出対象画像モデルを生成するモデル生成し、
前記背景画像と前記検出対象画像モデルとを結合させることにより、最終画像を確立する、
ことを特徴とする画像生成システム。 An image generation system in which a central server and client terminals are connected via a network,
The client terminal has an image selection unit,
The central server has a model creation unit,
The image selection unit,
The background image is acquired by user input,
Identify the image to be detected with metadata from the source image,
Sending the background image and the detection target image to a central server,
The central server is
Receiving the background image and the detection target image from the client terminal,
The model creation unit,
Model generation for generating a detection target image model corresponding to the detection target image,
Establishing a final image by combining the background image and the detection target image model,
An image generation system characterized by the above.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018043822A JP6719497B2 (en) | 2018-03-12 | 2018-03-12 | Image generation method, image generation device, and image generation system |
PCT/JP2018/048149 WO2019176235A1 (en) | 2018-03-12 | 2018-12-27 | Image generation method, image generation device, and image generation system |
CN201880089706.6A CN111742342A (en) | 2018-03-12 | 2018-12-27 | Image generation method, image generation device, and image generation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018043822A JP6719497B2 (en) | 2018-03-12 | 2018-03-12 | Image generation method, image generation device, and image generation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159630A JP2019159630A (en) | 2019-09-19 |
JP6719497B2 true JP6719497B2 (en) | 2020-07-08 |
Family
ID=67908225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018043822A Active JP6719497B2 (en) | 2018-03-12 | 2018-03-12 | Image generation method, image generation device, and image generation system |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6719497B2 (en) |
CN (1) | CN111742342A (en) |
WO (1) | WO2019176235A1 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161295B (en) * | 2019-12-30 | 2023-11-21 | 神思电子技术股份有限公司 | Dish image background stripping method |
CN111310592B (en) * | 2020-01-20 | 2023-06-16 | 杭州视在科技有限公司 | Detection method based on scene analysis and deep learning |
CN113362353A (en) * | 2020-03-04 | 2021-09-07 | 上海分众软件技术有限公司 | Method for identifying advertising player frame by utilizing synthesis training picture |
US11275970B2 (en) * | 2020-05-08 | 2022-03-15 | Xailient | Systems and methods for distributed data analytics |
KR102348368B1 (en) * | 2020-05-21 | 2022-01-11 | 주식회사 누아 | Device, method, system and computer readable storage medium for generating training data of machine learing model and generating fake image using machine learning model |
JP2022038285A (en) * | 2020-08-26 | 2022-03-10 | 株式会社Jvcケンウッド | Machine learning device and far-infrared image pickup device |
JP2022038287A (en) * | 2020-08-26 | 2022-03-10 | 株式会社Jvcケンウッド | Machine learning device and image processing device |
US20230004760A1 (en) * | 2021-06-28 | 2023-01-05 | Nvidia Corporation | Training object detection systems with generated images |
CN114120070B (en) * | 2022-01-29 | 2022-05-10 | 浙江啄云智能科技有限公司 | Image detection method, device, equipment and storage medium |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10240908A (en) * | 1997-02-27 | 1998-09-11 | Hitachi Ltd | Video composing method |
JPH10336577A (en) * | 1997-05-30 | 1998-12-18 | Matsushita Electric Ind Co Ltd | Figure picture printing device |
JP2012088787A (en) * | 2010-10-15 | 2012-05-10 | Canon Inc | Image processing device, image processing method |
JP5645079B2 (en) * | 2011-03-31 | 2014-12-24 | ソニー株式会社 | Image processing apparatus and method, program, and recording medium |
US8903167B2 (en) * | 2011-05-12 | 2014-12-02 | Microsoft Corporation | Synthesizing training samples for object recognition |
JP2014178957A (en) * | 2013-03-15 | 2014-09-25 | Nec Corp | Learning data generation device, learning data creation system, method and program |
CN105593901B (en) * | 2013-06-28 | 2020-06-12 | 日本电气株式会社 | Training data generation device, method, and program, and crowd state recognition device, method, and program |
CN105184253B (en) * | 2015-09-01 | 2020-04-24 | 北京旷视科技有限公司 | Face recognition method and face recognition system |
JP6866889B2 (en) * | 2016-03-09 | 2021-04-28 | 日本電気株式会社 | Image processing equipment, image processing methods and programs |
US20180012411A1 (en) * | 2016-07-11 | 2018-01-11 | Gravity Jack, Inc. | Augmented Reality Methods and Devices |
CN107784316A (en) * | 2016-08-26 | 2018-03-09 | 阿里巴巴集团控股有限公司 | A kind of image-recognizing method, device, system and computing device |
CN106682587A (en) * | 2016-12-02 | 2017-05-17 | 厦门中控生物识别信息技术有限公司 | Image database building method and device |
JP7203844B2 (en) * | 2017-07-25 | 2023-01-13 | 達闥機器人股▲分▼有限公司 | Training data generation method, generation device, and semantic segmentation method for the image |
-
2018
- 2018-03-12 JP JP2018043822A patent/JP6719497B2/en active Active
- 2018-12-27 WO PCT/JP2018/048149 patent/WO2019176235A1/en active Application Filing
- 2018-12-27 CN CN201880089706.6A patent/CN111742342A/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
WO2019176235A1 (en) | 2019-09-19 |
JP2019159630A (en) | 2019-09-19 |
CN111742342A (en) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6719497B2 (en) | Image generation method, image generation device, and image generation system | |
JP7190842B2 (en) | Information processing device, control method and program for information processing device | |
Fan et al. | Pothole detection based on disparity transformation and road surface modeling | |
JP7262884B2 (en) | Biometric face detection method, device, equipment and computer program | |
CN105512627B (en) | A kind of localization method and terminal of key point | |
US9710912B2 (en) | Method and apparatus for obtaining 3D face model using portable camera | |
US9177381B2 (en) | Depth estimate determination, systems and methods | |
JP5873442B2 (en) | Object detection apparatus and object detection method | |
CN104933414B (en) | A kind of living body faces detection method based on WLD-TOP | |
JP2021507394A (en) | How to generate a human hairstyle based on multi-feature search and deformation | |
CN104599287B (en) | Method for tracing object and device, object identifying method and device | |
US20110025834A1 (en) | Method and apparatus of identifying human body posture | |
CN110428490B (en) | Method and device for constructing model | |
KR20170008638A (en) | Three dimensional content producing apparatus and three dimensional content producing method thereof | |
JP6628494B2 (en) | Apparatus, program, and method for tracking object using discriminator learning based on real space information | |
CN102959946A (en) | Augmenting image data based on related 3d point cloud data | |
CN111241932A (en) | Automobile exhibition room passenger flow detection and analysis system, method and storage medium | |
CN108388889B (en) | Method and device for analyzing face image | |
WO2023279799A1 (en) | Object identification method and apparatus, and electronic system | |
KR20170143439A (en) | Big data system connecting apparatus and method for constructing 3d spatial information | |
CN111259700B (en) | Method and apparatus for generating gait recognition model | |
CN117115595A (en) | Training method and device of attitude estimation model, electronic equipment and storage medium | |
CN115620403A (en) | Living body detection method, electronic device, and storage medium | |
CN115797451A (en) | Acupuncture point identification method, device and equipment and readable storage medium | |
CN114581978A (en) | Face recognition method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200414 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200616 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6719497 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |