JP6887199B1 - Computer system, dataset creation method and program - Google Patents

Computer system, dataset creation method and program Download PDF

Info

Publication number
JP6887199B1
JP6887199B1 JP2020132198A JP2020132198A JP6887199B1 JP 6887199 B1 JP6887199 B1 JP 6887199B1 JP 2020132198 A JP2020132198 A JP 2020132198A JP 2020132198 A JP2020132198 A JP 2020132198A JP 6887199 B1 JP6887199 B1 JP 6887199B1
Authority
JP
Japan
Prior art keywords
sphere
data
image
annotation data
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020132198A
Other languages
Japanese (ja)
Other versions
JP2022029079A (en
Inventor
佳雄 奥村
佳雄 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Priority to JP2020132198A priority Critical patent/JP6887199B1/en
Application granted granted Critical
Publication of JP6887199B1 publication Critical patent/JP6887199B1/en
Publication of JP2022029079A publication Critical patent/JP2022029079A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

【課題】少数枚の球体画像と、そのアノテーションデータとから、多数枚の球体画像とそのアノテーションデータとを機械学習用のデータセットとして生成し、機械学習の精度を効率良く向上させる。【解決手段】機械学習用のデータセットを作成するコンピュータシステムは、球体を撮影した第1球体画像を取得し、取得した前記第1球体画像における前記球体の所定領域をアノテーションデータとして指定し、取得した前記第1球体画像に対して、逆UVマッピングを行い、前記第1球体画像を三次元化するためのテクスチャを生成し、生成した前記テクスチャを前記球体の形状にUVマッピングを行い、当該球体の三次元データを生成し、生成した前記三次元データを所定の角度毎に回転させ、当該三次元データを其々の角度で撮影した複数の第2球体画像を取得し、取得した前記第2球体画像の其々に、指定された前記アノテーションデータを設定する。【選択図】図2PROBLEM TO BE SOLVED: To efficiently improve the accuracy of machine learning by generating a large number of sphere images and their annotation data as a data set for machine learning from a small number of sphere images and their annotation data. A computer system for creating a data set for machine learning acquires a first sphere image obtained by photographing a sphere, designates a predetermined area of the sphere in the acquired first sphere image as annotation data, and acquires the image. Inverse UV mapping is performed on the first sphere image, a texture for making the first sphere image three-dimensional is generated, and the generated texture is UV-mapped to the shape of the sphere, and the sphere is used. The third-dimensional data of the above is generated, the generated three-dimensional data is rotated at a predetermined angle, and a plurality of second sphere images obtained by capturing the three-dimensional data at each angle are acquired, and the acquired second sphere image is acquired. The designated annotation data is set for each of the sphere images. [Selection diagram] Fig. 2

Description

本発明は、機械学習用のデータセットを作成するコンピュータシステム、データセット作成方法及びプログラムに関する。 The present invention relates to a computer system for creating a dataset for machine learning, a dataset creation method, and a program.

近年、様々な分野において、人工知能が利用されている。特に、医療分野において、人工知能の活用が図られている。このような人工知能は、利用者が所望するデータを収集し、このデータにアノテーションを指定し、このアノテーションを指定したデータを、教師データとして機械学習を行い、精度の向上が図られている。このような機械学習には、大量のデータセットが必要となる。 In recent years, artificial intelligence has been used in various fields. In particular, artificial intelligence is being utilized in the medical field. In such artificial intelligence, data desired by the user is collected, an annotation is specified for this data, and the data for which this annotation is specified is used as teacher data for machine learning to improve accuracy. Such machine learning requires a large data set.

画像を用いた機械学習の場合、データセットとして画像と、この画像に対して指定したアノテーションとが必要となる。この画像の数を増やすための方法として、例えば、画像から、三次元オブジェクトを生成し、この三次元オブジェクトをデータセット用のデータとして使うことが考えられる。画像から三次元オブジェクトを生成する技術としては、一枚のRGB画像から、このRGB画像に写る人物を三次元で再現するものが知られている(非特許文献1参照)。 In the case of machine learning using images, an image and an annotation specified for this image are required as a data set. As a method for increasing the number of images, for example, it is conceivable to generate a three-dimensional object from an image and use this three-dimensional object as data for a data set. As a technique for generating a three-dimensional object from an image, a technique for reproducing a person appearing in this RGB image in three dimensions from one RGB image is known (see Non-Patent Document 1).

shizuma、“ほろ酔い開発日誌”、[online]、2019年7月3日、[2020年6月22日検索]、インターネット<https://blog.seishin55.com/entry/2019/07/03/005723>shizuma, "Tips Development Diary", [online], July 3, 2019, [Search June 22, 2020], Internet <https://blog.seishin55.com/entry/2019/07/03/005723 >

しかしながら、医療分野におけるデータセットにおいて、医用画像の収集とそのアノテーションとは、高い専門性が求められるうえ、医用画像の収集及びアノテーションに多くの時間が必要となる。そのため、機械学習用のデータセットの作成は、コストが高くなってしまう。
非特許文献1の技術では、あくまでも、画像を三次元オブジェクトに生成するものに過ぎず、機械学習用のデータセットを作成するためのものではなかった。
However, in the data set in the medical field, the collection of medical images and their annotations require a high degree of specialization, and a large amount of time is required for the collection and annotation of medical images. Therefore, creating a data set for machine learning is costly.
The technique of Non-Patent Document 1 merely generates an image into a three-dimensional object, and is not for creating a data set for machine learning.

本発明は、少数枚の球体画像と、そのアノテーションデータとから、多数枚の球体画像とそのアノテーションデータとを機械学習用のデータセットとして生成し、機械学習の精度を効率良く向上させることを目的とする。 An object of the present invention is to generate a large number of sphere images and their annotation data as a data set for machine learning from a small number of sphere images and their annotation data, and to efficiently improve the accuracy of machine learning. And.

本発明では、以下のような解決手段を提供する。 The present invention provides the following solutions.

本発明は、機械学習用のデータセットを作成するコンピュータシステムであって、
球体を撮影した第1球体画像を取得する第1球体画像取得手段と、
取得した前記第1球体画像における前記球体の所定領域をアノテーションデータとして指定するアノテーションデータ指定手段と、
取得した前記第1球体画像に対して、逆UVマッピングを行い、前記第1球体画像を三次元化するためのテクスチャを生成するテクスチャ生成手段と、
生成した前記テクスチャを前記球体の形状にUVマッピングを行い、当該球体の三次元データを生成する三次元データ生成手段と、
生成した前記三次元データを所定の角度毎に回転させ、当該三次元データを其々の角度で撮影した複数の第2球体画像を取得する第2球体画像取得手段と、
取得した前記第2球体画像の其々に、指定された前記アノテーションデータを設定するアノテーションデータ設定手段と、
を備えることを特徴とするコンピュータシステムを提供する。
The present invention is a computer system that creates a data set for machine learning.
A first sphere image acquisition means for acquiring a first sphere image obtained by photographing a sphere, and
Annotation data designation means for designating a predetermined area of the sphere in the acquired first sphere image as annotation data, and
A texture generation means that performs inverse UV mapping on the acquired first sphere image and generates a texture for making the first sphere image three-dimensional.
A three-dimensional data generation means that UV-maps the generated texture to the shape of the sphere and generates three-dimensional data of the sphere.
A second sphere image acquisition means for rotating the generated three-dimensional data at predetermined angles and acquiring a plurality of second sphere images obtained by capturing the three-dimensional data at each angle.
Annotation data setting means for setting the designated annotation data in each of the acquired second sphere images, and
Provide a computer system characterized by the provision of.

本発明によれば、機械学習用のデータセットを作成するコンピュータシステムは、球体を撮影した第1球体画像を取得し、取得した前記第1球体画像における前記球体の所定領域をアノテーションデータとして指定し、取得した前記第1球体画像に対して、逆UVマッピングを行い、前記第1球体画像を三次元化するためのテクスチャを生成し、生成した前記テクスチャを前記球体の形状にUVマッピングを行い、当該球体の三次元データを生成し、生成した前記三次元データを所定の角度毎に回転させ、当該三次元データを其々の角度で撮影した複数の第2球体画像を取得し、取得した前記第2球体画像の其々に、指定された前記アノテーションデータを設定する。 According to the present invention, a computer system that creates a data set for machine learning acquires a first sphere image obtained by photographing a sphere, and designates a predetermined region of the sphere in the acquired first sphere image as annotation data. Inverse UV mapping is performed on the acquired first sphere image, a texture for making the first sphere image three-dimensional is generated, and the generated texture is UV-mapped to the shape of the sphere. The three-dimensional data of the sphere is generated, the generated three-dimensional data is rotated at predetermined angles, and a plurality of second sphere images obtained by capturing the three-dimensional data at each angle are acquired and acquired. The designated annotation data is set in each of the second sphere images.

本発明は、システムのカテゴリであるが、コンピュータ、方法及びプログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。 The present invention is in the category of systems, but other categories such as computers, methods, and programs also exhibit similar actions and effects according to the categories.

本発明によれば、少数枚の球体画像と、そのアノテーションデータとから、多数枚の球体画像とそのアノテーションデータとを機械学習用のデータセットとして生成し、機械学習の精度を効率良く向上させることが可能となる。 According to the present invention, a large number of sphere images and their annotation data are generated as a data set for machine learning from a small number of sphere images and their annotation data, and the accuracy of machine learning is efficiently improved. Is possible.

図1は、データセット作成システム1の全体構成図である。FIG. 1 is an overall configuration diagram of the data set creation system 1. 図2は、コンピュータ10が実行するデータセット作成処理のフローチャートを示す図である。FIG. 2 is a diagram showing a flowchart of a data set creation process executed by the computer 10. 図3は、第1眼底画像に指定されたアノテーションデータを模式的に示した図である。FIG. 3 is a diagram schematically showing annotation data designated for the first fundus image. 図4は、第2眼底画像に設定されたアノテーションデータを模式的に示した図である。FIG. 4 is a diagram schematically showing annotation data set in the second fundus image.

以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも例であって、本発明の技術的範囲はこれに限られるものではない。 Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. It should be noted that this is just an example, and the technical scope of the present invention is not limited to this.

[データセット作成システム1の構成]
本発明の好適な実施形態であるデータセット作成システム1について説明する。データセット作成システム1は、コンピュータ10(図1参照)により構成されて良く、機械学習用のデータセット(球体画像(例えば、眼底画像)とこの球体画像に指定したアノテーションデータとからなる)を作成するコンピュータシステムである。本明細書において、球体は、眼底として説明する。また、第1球体画像及び第2球体画像は、其々、第1眼底画像及び第2眼底画像として説明する。
なお、眼底画像は、患者等の眼底を撮影した画像である。アノテーションデータは、球体画像における所定領域(異常を示す領域、正常を示す領域、その他の領域等)に指定されるアノテーション(物体検出、領域抽出、画像分類等による属性分類、属性分類に付与されるタグ等)を示すデータであって良い。
[Configuration of data set creation system 1]
A data set creation system 1 which is a preferred embodiment of the present invention will be described. The data set creation system 1 may be configured by a computer 10 (see FIG. 1), and creates a data set for machine learning (consisting of a spherical image (for example, a fundus image) and annotation data specified for the spherical image). Is a computer system. In the present specification, the sphere is described as a fundus. Further, the first sphere image and the second sphere image will be described as a first fundus image and a second fundus image, respectively.
The fundus image is an image of the fundus of a patient or the like. Annotation data is added to annotations (object detection, area extraction, attribute classification by image classification, etc.) specified in a predetermined area (area showing abnormality, area showing normality, other areas, etc.) in a spherical image. It may be data indicating a tag or the like).

データセット作成システム1は、患者等の眼底を撮影する眼底カメラ、その他の端末や、眼底画像を登録したデータベースを記録する他のコンピュータ、装置類等が含まれていても良い。この場合、データセット作成システム1は、後述する処理を、コンピュータ10や上記の端末、コンピュータ、装置の何れか又は複数の組み合わせにより構成される。 The data set creation system 1 may include a fundus camera for photographing the fundus of a patient or the like, other terminals, and other computers and devices for recording a database in which a fundus image is registered. In this case, the data set creation system 1 is composed of the computer 10, the terminal, the computer, the device, or a combination of a plurality of the processes described later.

コンピュータ10は、サーバ機能を有するコンピュータや、メインフレーム、パーソナルコンピュータ等であって良く、上述した眼底カメラ、その他の端末やコンピュータ、装置類等と、公衆回線網等を介してデータ通信可能に接続されており、必要なデータの送受信や各種処理を実行する。 The computer 10 may be a computer having a server function, a mainframe, a personal computer, or the like, and is connected to the above-mentioned fundus camera, other terminals, computers, devices, etc. by data communication via a public network or the like. It is used to send and receive necessary data and perform various processes.

コンピュータ10は、例えば、1台のコンピュータで実現されてもよいし、クラウドコンピュータのように、複数のコンピュータで実現されてもよい。本明細書におけるクラウドコンピュータとは、ある特定の機能を果たす際に、任意のコンピュータをスケーラブルに用いるものや、あるシステムを実現するために複数の機能モジュールを含み、その機能を自由に組み合わせて用いるものの何れであってもよい。 The computer 10 may be realized by, for example, one computer, or may be realized by a plurality of computers such as a cloud computer. The cloud computer in the present specification includes a computer that uses an arbitrary computer in a scalable manner when performing a specific function, and a plurality of functional modules for realizing a certain system, and uses the functions in any combination. It may be any of the above.

コンピュータ10は、制御部として、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部として、他の端末や装置等と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWi―Fi(Wireless―Fidelity)対応デバイス等を備える。また、コンピュータ10は、記録部として、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備える。また、コンピュータ10は、処理部として、各種処理を実行する各種デバイス等を備える。 The computer 10 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like as a control unit, and has other terminals and devices as a communication unit. A device for enabling communication, for example, a Wi-Fi (Wi-Fi (Wi-Fi) compatible device compliant with IEEE802.11) and the like are provided. Further, the computer 10 includes a data storage unit such as a hard disk, a semiconductor memory, a recording medium, and a memory card as a recording unit. Further, the computer 10 includes various devices and the like that execute various processes as a processing unit.

コンピュータ10において、制御部が所定のプログラムを読み込むことにより、通信部と協働して、図1に示す、第1眼底画像取得モジュール20を実現する。また、コンピュータ10において、制御部が所定のプログラムを読み込むことにより、記録部と協働して、図1に示す、記録モジュール30を実現する。また、コンピュータ10において、制御部が所定のプログラムを読み込むことにより、処理部と協働して、図1に示す、アノテーションデータ指定モジュール40、位置情報特定モジュール41、テクスチャ生成モジュール42、三次元データ生成モジュール43、第2眼底画像取得モジュール44、推測モジュール45、アノテーションデータ設定モジュール46を実現する。 In the computer 10, the control unit reads a predetermined program to realize the first fundus image acquisition module 20 shown in FIG. 1 in cooperation with the communication unit. Further, in the computer 10, the control unit reads a predetermined program to realize the recording module 30 shown in FIG. 1 in cooperation with the recording unit. Further, in the computer 10, the control unit reads a predetermined program, and in cooperation with the processing unit, the annotation data designation module 40, the position information identification module 41, the texture generation module 42, and the three-dimensional data shown in FIG. The generation module 43, the second fundus image acquisition module 44, the estimation module 45, and the annotation data setting module 46 are realized.

各モジュールにおいては、第1眼底画像取得モジュール20が、第1球体画像取得手段の処理を実現し、記録モジュール30が、記録手段の処理を実現し、アノテーションデータ指定モジュール40が、アノテーションデータ指定手段の処理を実現し、テクスチャ生成モジュール42が、テクスチャ生成手段の処理を実現し、三次元データ生成モジュール43が、三次元データ生成手段の処理を実現し、第2眼底画像取得モジュール44が、第2球体画像取得手段の処理を実現し、推測モジュール45が、推測手段の処理を実現し、アノテーションデータ設定モジュール46が、アノテーションデータ設定手段の処理を実現する。 In each module, the first fundus image acquisition module 20 realizes the processing of the first spherical image acquisition means, the recording module 30 realizes the processing of the recording means, and the annotation data designation module 40 realizes the annotation data designation means. The texture generation module 42 realizes the processing of the texture generation means, the three-dimensional data generation module 43 realizes the processing of the three-dimensional data generation means, and the second fundus image acquisition module 44 realizes the processing of the third. The processing of the two-sphere image acquisition means is realized, the guessing module 45 realizes the processing of the guessing means, and the annotation data setting module 46 realizes the processing of the annotation data setting means.

[概略]
データセット作成システムが実行する各処理の概略について、説明する。
[Summary]
The outline of each process executed by the data set creation system will be described.

コンピュータ10は、球体(例えば、患者等の眼底)を撮影した第1球体画像を取得する。
例えば、コンピュータ10は、眼底カメラやその他のコンピュータから、この第1球体画像を取得する。眼底カメラは、自身が撮影した眼底画像を、コンピュータ10に送信し、その他のコンピュータは、予め自身が記録したデータベースに登録された眼底画像を、コンピュータ10に送信する。コンピュータ10は、この眼底画像を第1球体画像として受信することにより、第1球体画像を取得する。また、コンピュータ10は、自身が記録した眼底画像が登録されたデータベースから、この眼底画像を第1球体画像として取得する。
The computer 10 acquires a first sphere image in which a sphere (for example, the fundus of a patient or the like) is photographed.
For example, the computer 10 acquires this first sphere image from a fundus camera or other computer. The fundus camera transmits the fundus image taken by itself to the computer 10, and the other computers transmit the fundus image registered in the database recorded by the fundus in advance to the computer 10. The computer 10 acquires the first sphere image by receiving the fundus image as the first sphere image. Further, the computer 10 acquires the fundus image as the first sphere image from the database in which the fundus image recorded by the computer 10 is registered.

コンピュータ10は、取得した第1球体画像における球体の所定領域をアノテーションデータとして指定する。この所定領域とは、上述したような、第1球体画像における異常を示す領域、正常を示す領域、その他の領域等である。また、このアノテーションデータとは、上述したような物体検出、領域抽出、画像分類等によるこの所定領域の属性分類、この属性分類に付与されるタグ等を示すデータである。
コンピュータ10は、アノテータからこの所定領域に対するアノテーションデータの指定を受け付ける。アノテータは、コンピュータ10の入力デバイス等を介して、この所定領域に対して、アノテーションデータを指定する入力を行う。コンピュータ10は、この入力されたアノテーションデータを、第1球体画像に対して、指定することになる。
The computer 10 designates a predetermined area of the sphere in the acquired first sphere image as annotation data. The predetermined region is a region showing an abnormality, a region showing normality, another region, or the like in the first sphere image as described above. Further, the annotation data is data indicating the attribute classification of this predetermined area by object detection, area extraction, image classification, etc. as described above, the tags attached to the attribute classification, and the like.
The computer 10 accepts the designation of annotation data for this predetermined area from the annotator. The annotator inputs the annotation data to the predetermined area via the input device of the computer 10. The computer 10 will specify the input annotation data for the first sphere image.

コンピュータ10は、取得した第1球体画像に対して、逆UVマッピングを行い、第1球体画像を三次元化するためのテクスチャを生成する。UVマッピングとは、画像(本明細書では、第1球体画像)をUV座標系に展開し、二次元のテクスチャを、三次元オブジェクトに貼り付けるものである。逆UVマッピングとは、三次元オブジェクトをレンダリングした画像において、三次元オブジェクトの各画素が、テクスチャでどの位置に該当するかを変換することを示すものである。テクスチャとは、球体画像に写る球体を、三次元化するために必要な質感、模様、凹凸等を表現するためのデータである。
なお、コンピュータ10は、球体の非撮影領域を、球体の形状に基づいて推測して補完し、このテクスチャを生成しても良い。例えば、コンピュータ10は、球体の撮影していない領域である非撮影領域を、球体の形状に基づいて推測し、第1球体画像に写っている球体に、この推測した非撮影領域を補完し、テクスチャを生成しても良い。
The computer 10 performs inverse UV mapping on the acquired first sphere image to generate a texture for making the first sphere image three-dimensional. UV mapping expands an image (in this specification, a first sphere image) into a UV coordinate system and attaches a two-dimensional texture to a three-dimensional object. Inverse UV mapping indicates that in a rendered image of a 3D object, each pixel of the 3D object transforms which position in the texture it corresponds to. The texture is data for expressing the texture, pattern, unevenness, etc. necessary for making the sphere appearing in the sphere image three-dimensional.
The computer 10 may estimate and complement the non-photographed region of the sphere based on the shape of the sphere to generate this texture. For example, the computer 10 estimates a non-photographed area, which is a non-photographed area of the sphere, based on the shape of the sphere, and complements the estimated non-photographed area to the sphere shown in the first sphere image. You may generate a texture.

コンピュータ10は、生成したテクスチャを球体の形状にUVマッピングを行い、球体の三次元データを生成する。コンピュータ10は、第1球体画像に対して、生成したテクスチャに基づいて、球体の形状にUVマッピングを行い、この球体の三次元オブジェクトを三次元データとして生成する。 The computer 10 UV-maps the generated texture to the shape of the sphere and generates three-dimensional data of the sphere. The computer 10 performs UV mapping on the shape of the sphere based on the generated texture on the first sphere image, and generates a three-dimensional object of the sphere as three-dimensional data.

コンピュータ10は、生成した三次元データを所定の角度毎に回転させ、三次元データを其々の角度で撮影した複数の第2球体画像を取得する。コンピュータ10は、生成した三次元オブジェクトを所定の角度毎(1度毎、2度毎、5度毎等)に回転させる。回転の方向は、X軸、Y軸、Z軸の何れかの軸を中心としたものであって良い。コンピュータ10は、回転後の三次元オブジェクトを撮影した第2球体画像を取得する。コンピュータ10は、角度毎に撮影した複数の第2球体画像を取得することになる。 The computer 10 rotates the generated three-dimensional data at predetermined angles, and acquires a plurality of second sphere images obtained by capturing the three-dimensional data at each angle. The computer 10 rotates the generated three-dimensional object at a predetermined angle (every 1 degree, every 2 degrees, every 5 degrees, etc.). The direction of rotation may be centered on any of the X-axis, Y-axis, and Z-axis. The computer 10 acquires a second sphere image of the rotated three-dimensional object. The computer 10 will acquire a plurality of second sphere images taken for each angle.

コンピュータ10は、取得した第2球体の其々に、指定されたアノテーションデータを設定する。コンピュータ10は、三次元オブジェクトを回転させた角度と、取得した第1球体画像におけるアノテーションデータの位置情報とに基づいて、第2球体画像の其々におけるアノテーションデータの位置情報を推測する。コンピュータ10は、推測した第2球体画像の其々におけるアノテーションデータの位置情報に基づいて、この第2球体画像の其々に、アノテーションデータを設定する。 The computer 10 sets the designated annotation data for each of the acquired second spheres. The computer 10 estimates the position information of the annotation data in each of the second sphere images based on the angle at which the three-dimensional object is rotated and the position information of the annotation data in the acquired first sphere image. The computer 10 sets annotation data in each of the second sphere images based on the position information of the annotation data in each of the estimated second sphere images.

以上が、データセット作成システム1が実行する各処理の概略である。 The above is the outline of each process executed by the data set creation system 1.

[データセット作成処理]
図2に基づいて、コンピュータ10が実行するデータセット作成処理について説明する。図2は、コンピュータ10が実行するデータセット作成処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。
[Data set creation process]
The data set creation process executed by the computer 10 will be described with reference to FIG. FIG. 2 is a diagram showing a flowchart of a data set creation process executed by the computer 10. The process executed by each of the above-mentioned modules will be described together with this process.

最初に、第1眼底画像取得モジュール20(第1球体画像取得手段)は、眼底を撮影した第1眼底画像を取得する(ステップS10)。第1眼底画像取得モジュール20は、患者等の眼底を撮影した眼底カメラや患者等の眼底を撮影した眼底画像を登録したデータベースを記録するその他のコンピュータ等から、この第1眼底画像を取得する。眼底カメラやその他のコンピュータは、自身が撮影又は記録する眼底画像を、コンピュータ10に送信する。第1眼底画像取得モジュール20は、この眼底画像を、第1眼底画像として受信することにより、第1眼底画像を取得することになる。
なお、第1眼底画像取得モジュール20は、記録モジュール30が記録した眼底画像を、第1眼底画像として取得する構成であっても良い。
First, the first fundus image acquisition module 20 (first spherical image acquisition means) acquires a first fundus image obtained by photographing the fundus (step S10). The first fundus image acquisition module 20 acquires the first fundus image from a fundus camera that photographs the fundus of a patient or the like or another computer that records a database in which the fundus images of the patient or the like are photographed. The fundus camera and other computers transmit the fundus images taken or recorded by themselves to the computer 10. The first fundus image acquisition module 20 acquires the first fundus image by receiving the fundus image as the first fundus image.
The first fundus image acquisition module 20 may be configured to acquire the fundus image recorded by the recording module 30 as the first fundus image.

次に、アノテーションデータ指定モジュール40(アノテーションデータ指定手段)は、この取得した第1眼底画像における眼底の所定領域をアノテーションデータとして指定する(ステップS11)。所定領域は、上述のような異常を示す領域、正常を示す領域、その他の領域等である。ここで、異常を示す領域とは、毛細血管の狭窄や出血、白斑、浮腫等が認められる領域である。また、アノテーションデータとは、上述のような物体検出、領域抽出、画像分類等による属性分類や、この属性分類に付与されるタグ等を示すデータである。
アノテーションデータ指定モジュール40は、アノテータから所定領域に対するアノテーションデータの指定を受け付ける。アノテータは、入力デバイス等を介して、後述する図3に示すようなこのアノテーションデータを指定する入力を行う。この時、アノテータは、所定領域を囲う等することにより、所定領域の属性部類を行う。アノテータは、更に、この所定領域に対するタグを入力することにより、属性分類にタグを付与する。アノテーションデータ指定モジュール40は、この入力された属性分類及びタグとをアノテーションデータとして指定する。
Next, the annotation data designation module 40 (annotation data designation means) designates a predetermined area of the fundus in the acquired first fundus image as annotation data (step S11). The predetermined region is a region showing an abnormality as described above, a region showing normality, another region, or the like. Here, the region showing an abnormality is a region in which stenosis, bleeding, vitiligo, edema, etc. of capillaries are observed. Further, the annotation data is data indicating attribute classification by object detection, area extraction, image classification, etc. as described above, tags attached to the attribute classification, and the like.
The annotation data designation module 40 accepts the designation of annotation data for a predetermined area from the annotator. The annotator inputs via an input device or the like to specify the annotation data as shown in FIG. 3 described later. At this time, the annotator performs the attribute category of the predetermined area by surrounding the predetermined area or the like. The annotator further adds a tag to the attribute classification by inputting a tag for this predetermined area. The annotation data designation module 40 designates the input attribute classification and tag as annotation data.

次に、位置情報特定モジュール41は、第1眼底画像における、アノテーションデータの位置情報を特定する(ステップS12)。位置情報特定モジュール41は、上述のステップS11の処理により指定された所定領域の位置情報を、アノテーションデータの位置情報として特定する。この位置情報は、例えば、(X1,Y1)といったXY座標系で示されるものであって良い。この位置情報は、所定領域が、円又はそれに類するものである場合、この円の中心及び円周上の一又は複数の地点を所定領域の位置情報として特定する。また、この位置情報は、所定領域が、矩形又はそれに類するものである場合、各頂点を所定領域の位置情報として特定する。
なお、この位置情報は、上述した例に限らず、適宜変更可能である。
Next, the position information specifying module 41 specifies the position information of the annotation data in the first fundus image (step S12). The position information specifying module 41 specifies the position information of the predetermined area designated by the process of step S11 described above as the position information of the annotation data. This position information may be indicated by an XY coordinate system such as (X1, Y1). When the predetermined area is a circle or the like, the position information specifies one or more points on the center and the circumference of the circle as the position information of the predetermined area. Further, in this position information, when the predetermined area is a rectangle or the like, each vertex is specified as the position information of the predetermined area.
Note that this position information is not limited to the above-mentioned example, and can be changed as appropriate.

図3は、アノテーションデータ指定モジュール40が指定するアノテーションデータの一例を模式的に示す図である。上述のステップS11の処理の結果、第1眼底画像100は、所定領域として、異常を示す領域110と、この領域110に対するタグ120とが指定されている。アノテーションデータ指定モジュール40は、この領域110及びタグ120をアノテーションデータとして指定する。
位置情報特定モジュール41は、上述のステップS12の処理の結果、第1眼底画像100に置けるこの領域110の位置情報130を、(X1,Y1)、(X2,Y2)といったXY座標系で特定する。
FIG. 3 is a diagram schematically showing an example of annotation data designated by the annotation data designation module 40. As a result of the process of step S11 described above, in the first fundus image 100, a region 110 showing an abnormality and a tag 120 for this region 110 are designated as predetermined regions. The annotation data designation module 40 designates the area 110 and the tag 120 as annotation data.
As a result of the process of step S12 described above, the position information specifying module 41 specifies the position information 130 of this region 110 placed in the first fundus image 100 in the XY coordinate systems such as (X1, Y1) and (X2, Y2). ..

図2に戻り、ステップS12の処理に続く処理を説明する。
記録モジュール30(記録手段)は、上述のステップS11の処理により指定されたアノテーションデータ及び上述のステップS12の処理により特定されたアノテーションデータの位置情報を記録する(ステップS13)。コンピュータ10は、本処理により記録したアノテーションデータ及びこのアノテーションデータの位置情報を後述するステップS17の処理(アノテーションデータの位置情報の推測処理)に用いる。
Returning to FIG. 2, the process following the process in step S12 will be described.
The recording module 30 (recording means) records the position information of the annotation data specified by the process of step S11 described above and the annotation data specified by the process of step S12 described above (step S13). The computer 10 uses the annotation data recorded by this process and the position information of the annotation data in the process of step S17 (estimation process of the position information of the annotation data) described later.

次に、テクスチャ生成モジュール42(テクスチャ生成手段)は、取得した第1眼底画像に対して、逆UVマッピングを行い、第1眼底画像を三次元化するためのテクスチャを生成する(ステップS14)。テクスチャ生成モジュール42は、上述のステップS10の処理により取得した第1眼底画像に対して、逆UVマッピングを行う。逆UVマッピングは、上述のような三次元オブジェクトをレンダリングした画像において、三次元オブジェクトの各画素が、テクスチャでどの位置に該当するかを変換するものである。テクスチャは、上述のような第1眼底画像に写る眼底を、三次元化するために必要な質感、模様、凹凸等を再現するためのデータである。
テクスチャ生成モジュール42は、逆UVマッピングの結果に基づいて、第1眼底画像を三次元化するためのテクスチャを生成する。このとき、テクスチャ生成モジュール42は、第1眼底画像に写っていない眼底の非撮影領域を、眼底の形状に基づいて推測し、眼底を補完する。テクスチャ生成モジュール42は、取得した第1眼底画像に写っている眼底及び被撮影領域を補完した眼底に基づいたものを三次元化するためのテクスチャを生成する。テクスチャの生成方法は、第1眼底画像における眼底と、非撮影領域における眼底との各画素に、三次元化するために必要なデータを貼り付けるものであって良い。
Next, the texture generation module 42 (texture generation means) performs inverse UV mapping on the acquired first fundus image to generate a texture for making the first fundus image three-dimensional (step S14). The texture generation module 42 performs inverse UV mapping on the first fundus image acquired by the process of step S10 described above. Inverse UV mapping converts the position of each pixel of the three-dimensional object in the texture in the rendered image of the three-dimensional object as described above. The texture is data for reproducing the texture, pattern, unevenness, etc. necessary for three-dimensionalizing the fundus reflected in the first fundus image as described above.
The texture generation module 42 generates a texture for making the first fundus image three-dimensional based on the result of the inverse UV mapping. At this time, the texture generation module 42 estimates the non-photographed area of the fundus that is not shown in the first fundus image based on the shape of the fundus, and complements the fundus. The texture generation module 42 generates a texture for three-dimensionalizing the fundus based on the fundus and the fundus that complements the area to be photographed in the acquired first fundus image. The texture generation method may be one in which data necessary for three-dimensionalization is pasted on each pixel of the fundus in the first fundus image and the fundus in the non-photographed region.

次に、三次元データ生成モジュール43(三次元データ生成手段)は、生成したテクスチャを眼底の形状にUVマッピングを行い、眼底の三次元データを生成する(ステップS15)。UVマッピングは、上述のような、画像(本明細書では、第1眼底画像)をUV座標系に展開し、二次元のテクスチャを、三次元オブジェクトに貼り付けるものである。
三次元データ生成モジュール43は、上述のステップS14の処理により生成したテクスチャを、眼底の形状にUVマッピングを行う。三次元データ生成モジュール43は、第1眼底画像に写っている眼底及び被撮影領域を補完した眼底と、UVマッピングとの結果とに基づいて、眼底の三次元データとして、この患者等の眼底の三次元オブジェクトを生成する。すなわち、この三次元オブジェクトは、撮影した眼底の部分だけでなく、眼底の非撮影領域の部分を補完した球体である。
Next, the three-dimensional data generation module 43 (three-dimensional data generation means) UV-maps the generated texture to the shape of the fundus to generate three-dimensional data of the fundus (step S15). In UV mapping, as described above, an image (in this specification, a first fundus image) is developed in a UV coordinate system, and a two-dimensional texture is attached to a three-dimensional object.
The three-dimensional data generation module 43 UV-maps the texture generated by the process of step S14 to the shape of the fundus. The three-dimensional data generation module 43 provides three-dimensional data of the fundus, such as the patient's fundus, based on the results of UV mapping and the fundus that complements the fundus and the area to be imaged in the first fundus image. Create a three-dimensional object. That is, this three-dimensional object is a sphere that complements not only the photographed fundus portion but also the non-photographed region portion of the fundus.

次に、第2眼底画像取得モジュール44(第2球体画像取得手段)は、生成した三次元データを所定の角度毎に回転させ、三次元データを其々の角度で撮影した複数の第2眼底画像を取得する(ステップS16)。コンピュータ10は、生成した三次元オブジェクトを所定の角度毎に回転させる。所定の角度は、上述のような1度毎、2度毎、5度毎といった、所定の数値刻みである。また回転の方向は、上述のようなX軸、Y軸、Z軸の何れかの軸を中心としたものであって良い。コンピュータ10は、所定の角度毎に回転させた三次元オブジェクトを撮影する。第2眼底画像取得モジュール44は、この撮影した三次元オブジェクトの画像を、第2眼底画像として取得する。第2眼底画像取得モジュール44は、この第2眼底画像に合わせて、回転の角度及び方向を取得する。第2眼底画像取得モジュール44は、角度毎の第2眼底画像を取得することにより、複数の第2眼底画像を取得することになる。
なお、コンピュータ10は、所定の角度に回転させる際、この角度を小さく抑えて回転させることにより、補完した非撮影領域と実際との間の誤差を抑制することが望ましい。
Next, the second fundus image acquisition module 44 (second sphere image acquisition means) rotates the generated three-dimensional data at predetermined angles, and captures the three-dimensional data at each angle. Acquire an image (step S16). The computer 10 rotates the generated three-dimensional object at a predetermined angle. The predetermined angle is a predetermined numerical step such as every 1 degree, every 2 degrees, every 5 degrees as described above. The direction of rotation may be centered on any of the X-axis, Y-axis, and Z-axis as described above. The computer 10 photographs a three-dimensional object rotated by a predetermined angle. The second fundus image acquisition module 44 acquires the captured image of the three-dimensional object as the second fundus image. The second fundus image acquisition module 44 acquires the angle and direction of rotation in accordance with the second fundus image. The second fundus image acquisition module 44 acquires a plurality of second fundus images by acquiring the second fundus image for each angle.
When the computer 10 is rotated to a predetermined angle, it is desirable to suppress this angle and rotate it to suppress an error between the complemented non-photographed area and the actual state.

次に、推測モジュール45(推測手段)は、回転させた角度と、記録した位置情報とに基づいて、第2眼底画像の其々におけるアノテーションデータの位置情報を推測する(ステップS17)。推測モジュール45は、上述のステップS16の処理により三次元オブジェクトを回転させた角度及び方向と、上述のステップS13の処理により記録したアノテーションデータの位置情報とに基づいて、第2眼底画像の其々に置けるアノテーションデータの位置情報を推測する。推測モジュール45は、記録したアノテーションデータの位置情報を、回転させた角度及び方向に基づいて、回転後の三次元オブジェクトにおけるアノテーションデータの位置情報を算出する、推測モジュール45は、この算出したアノテーションデータの位置情報に基づいて、この回転させた角度及び方向に該当する第2眼底画像におけるアノテーションデータの位置情報を推測する。推測モジュール45は、第2眼底画像の其々に対して、この処理を実行する。 Next, the guessing module 45 (guessing means) guesses the position information of the annotation data in each of the second fundus images based on the rotated angle and the recorded position information (step S17). The estimation module 45 takes each of the second fundus images based on the angle and direction in which the three-dimensional object is rotated by the process of step S16 described above and the position information of the annotation data recorded by the process of step S13 described above. Guess the position information of the annotation data that can be placed in. The estimation module 45 calculates the position information of the annotation data in the rotated three-dimensional object based on the rotation angle and direction of the recorded annotation data, and the estimation module 45 calculates the calculated annotation data. Based on the position information of, the position information of the annotation data in the second fundus image corresponding to the rotated angle and direction is estimated. The guessing module 45 executes this process for each of the second fundus images.

次に、アノテーションデータ設定モジュール46(アノテーションデータ設定手段)は、取得した第2眼底画像の其々に、指定されたアノテーションデータを設定する(ステップS18)。アノテーションデータ設定モジュール46は、上述のステップS16の処理により取得した第2眼底画像の其々に、上述のステップS11の処理により指定されたアノテーションデータを設定する。具体的には、アノテーションデータ設定モジュール46は、上述のステップS17の処理により推測した第2画像の其々におけるアノテーションデータの位置情報に基づいて、第2眼底画像に対してアノテーションデータを設定する。アノテーションデータ設定モジュール46は、第2眼底画像の其々に対して、この処理を実行する。 Next, the annotation data setting module 46 (annotation data setting means) sets the designated annotation data in each of the acquired second fundus images (step S18). The annotation data setting module 46 sets the annotation data specified by the process of step S11 described above in each of the second fundus images acquired by the process of step S16 described above. Specifically, the annotation data setting module 46 sets the annotation data for the second fundus image based on the position information of the annotation data in each of the second images estimated by the process of step S17 described above. The annotation data setting module 46 executes this process for each of the second fundus images.

図4は、アノテーションデータ設定モジュール46が第2眼底画像に設定したアノテーションデータの例を模式的に示す図である。図4では、右手系の座標系において、三次元オブジェクトをZ軸を中心として正の方向に其々回転させた二種類の第2眼底画像200が示されている。アノテーションデータ設定モジュール46は、第2眼底画像200の其々に、上述の図3と同様に、異常を示す領域210と、この領域210に対するタグ220とを設定する。アノテーションデータ設定モジュール46は、この領域210及びタグ220をアノテーションデータとして設定する。 FIG. 4 is a diagram schematically showing an example of annotation data set in the second fundus image by the annotation data setting module 46. FIG. 4 shows two types of second fundus images 200 in which a three-dimensional object is rotated in the positive direction about the Z axis in the right-handed coordinate system. The annotation data setting module 46 sets a region 210 indicating an abnormality and a tag 220 for this region 210 in each of the second fundus images 200, as in FIG. 3 described above. The annotation data setting module 46 sets the area 210 and the tag 220 as annotation data.

コンピュータ10は、このようにして取得した第2眼底画像と、この第2眼底画像に設定したアノテーションデータとを機械学習用のデータセットとして作成することになる。この結果、コンピュータ10は、一枚の眼底画像から、複数の機械学習用のデータセットを作成することになる。コンピュータ10は、作成したデータセットを正解データとする機械学習を行うことにより、少数枚の眼底画像と、そのアノテーションデータとから、多数枚の眼底画像とそのアノテーションデータとを機械学習用のデータセットとして生成し、機械学習の精度を効率良く向上させることが可能となる。 The computer 10 creates the second fundus image acquired in this way and the annotation data set in the second fundus image as a data set for machine learning. As a result, the computer 10 creates a plurality of data sets for machine learning from one fundus image. The computer 10 performs machine learning using the created data set as correct answer data, so that a large number of fundus images and their annotation data are obtained from a small number of fundus images and their annotation data as a data set for machine learning. It is possible to efficiently improve the accuracy of machine learning.

以上が、データセット作成システム1が実行するデータセット作成処理である。 The above is the data set creation process executed by the data set creation system 1.

なお、本発明は、上述した説明において、球体の例として眼底に基づいて説明しているが、眼底以外の球体に対しても、適用可能である。 Although the present invention has been described based on the fundus as an example of a sphere in the above description, it can also be applied to a sphere other than the fundus.

上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供されるソフトウェア・アズ・ア・サービス(SaaS)の形態や、WEBサービス、クラウドサービスで提供されてよい。また、プログラムは、例えば、コンピュータ読取可能な記録媒体に記録された形態で提供されてもよい。 The above-mentioned means and functions are realized by a computer (including a CPU, an information processing device, and various terminals) reading and executing a predetermined program. The program may be provided, for example, in the form of software as a service (Software as a Service) provided from a computer via a network, a WEB service, or a cloud service. Further, the program may be provided, for example, in a form recorded on a computer-readable recording medium.

以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。 Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments described above. In addition, the effects described in the embodiments of the present invention merely list the most preferable effects arising from the present invention, and the effects according to the present invention are limited to those described in the embodiments of the present invention. is not it.

1 データセット作成システム、
10 コンピュータ
20 第1眼底画像取得モジュール
30 記録モジュール
40 アノテーションデータ指定モジュール
41 位置情報特定モジュール
42 テクスチャ生成モジュール
43 三次元データ生成モジュール
44 第2眼底画像取得モジュール
45 第2眼底画像取得モジュール
46 アノテーションデータ設定モジュール
1 Data set creation system,
10 Computer 20 1st fundus image acquisition module 30 Recording module 40 Annotation data specification module 41 Position information identification module 42 Texture generation module 43 3D data generation module 44 2nd fundus image acquisition module 45 2nd fundus image acquisition module 46 Annotation data setting module

Claims (6)

機械学習用のデータセットを作成するコンピュータシステムであって、
球体を撮影した第1球体画像を取得する第1球体画像取得手段と、
取得した前記第1球体画像における前記球体の所定領域をアノテーションデータとして指定するアノテーションデータ指定手段と、
取得した前記第1球体画像に対して、逆UVマッピングを行い、前記第1球体画像を三次元化するためのテクスチャを生成するテクスチャ生成手段と、
生成した前記テクスチャを前記球体の形状にUVマッピングを行い、当該球体の三次元データを生成する三次元データ生成手段と、
生成した前記三次元データを所定の角度毎に回転させ、当該三次元データを其々の角度で撮影した複数の第2球体画像を取得する第2球体画像取得手段と、
取得した前記第2球体画像の其々に、指定された前記アノテーションデータを設定するアノテーションデータ設定手段と、
を備えることを特徴とするコンピュータシステム。
A computer system that creates datasets for machine learning
A first sphere image acquisition means for acquiring a first sphere image obtained by photographing a sphere, and
Annotation data designation means for designating a predetermined area of the sphere in the acquired first sphere image as annotation data, and
A texture generation means that performs inverse UV mapping on the acquired first sphere image and generates a texture for making the first sphere image three-dimensional.
A three-dimensional data generation means that UV-maps the generated texture to the shape of the sphere and generates three-dimensional data of the sphere.
A second sphere image acquisition means for rotating the generated three-dimensional data at predetermined angles and acquiring a plurality of second sphere images obtained by capturing the three-dimensional data at each angle.
Annotation data setting means for setting the designated annotation data in each of the acquired second sphere images, and
A computer system characterized by being equipped with.
前記テクスチャ生成手段は、前記球体の非撮影領域を、当該球体の形状に基づいて推測して補完し、前記テクスチャを生成する、
ことを特徴とする請求項1に記載のコンピュータシステム。
The texture generation means estimates and complements the non-photographed region of the sphere based on the shape of the sphere, and generates the texture.
The computer system according to claim 1.
前記アノテーションデータの前記第1球体画像における位置情報を記録する記録手段と、
回転させた前記角度と、記録した前記位置情報とに基づいて、前記第2球体画像の其々におけるアノテーションデータの位置情報を推測する推測手段と、
を更に備え、
前記アノテーションデータ設定手段は、推測した前記第2球体画像の其々におけるアノテーションデータの位置情報に基づいて、アノテーションデータを設定する、
ことを特徴とする請求項1に記載のコンピュータシステム。
A recording means for recording the position information of the annotation data in the first sphere image, and
A guessing means for estimating the position information of the annotation data in each of the second sphere images based on the rotated angle and the recorded position information.
Further prepare
The annotation data setting means sets annotation data based on the estimated position information of the annotation data in each of the second sphere images.
The computer system according to claim 1.
前記球体が、眼底である、
ことを特徴とする請求項1に記載のコンピュータシステム。
The sphere is the fundus.
The computer system according to claim 1.
機械学習用のデータセットを作成するコンピュータシステムが実行するデータセット作成方法であって、
球体を撮影した第1球体画像を取得するステップと、
取得した前記第1球体画像における前記球体の所定領域をアノテーションデータとして指定するステップと、
取得した前記第1球体画像に対して、逆UVマッピングを行い、前記第1球体画像を三次元化するためのテクスチャを生成するステップと、
生成した前記テクスチャを前記球体の形状にUVマッピングを行い、当該球体の三次元データを生成するステップと、
生成した前記三次元データを所定の角度毎に回転させ、当該三次元データを其々の角度で撮影した複数の第2球体画像を取得するステップと、
取得した前記第2球体画像の其々に、指定された前記アノテーションデータを設定するステップと、
を備えることを特徴とするデータセット作成方法。
Creating a dataset for machine learning A dataset creation method performed by a computer system.
Steps to acquire the first sphere image of the sphere,
A step of designating a predetermined area of the sphere in the acquired first sphere image as annotation data, and
A step of performing inverse UV mapping on the acquired first sphere image to generate a texture for making the first sphere image three-dimensional, and
A step of UV mapping the generated texture to the shape of the sphere to generate three-dimensional data of the sphere, and
A step of rotating the generated three-dimensional data at a predetermined angle and acquiring a plurality of second sphere images obtained by capturing the three-dimensional data at each angle.
A step of setting the designated annotation data in each of the acquired second sphere images, and
A method for creating a data set, which comprises.
機械学習用のデータセットを作成するコンピュータに、
球体を撮影した第1球体画像を取得するステップ、
取得した前記第1球体画像における前記球体の所定領域をアノテーションデータとして指定するステップ、
取得した前記第1球体画像に対して、逆UVマッピングを行い、前記第1球体画像を三次元化するためのテクスチャを生成するステップ、
生成した前記テクスチャを前記球体の形状にUVマッピングを行い、当該球体の三次元データを生成するステップ、
生成した前記三次元データを所定の角度毎に回転させ、当該三次元データを其々の角度で撮影した複数の第2球体画像を取得するステップ、
取得した前記第2球体画像の其々に、指定された前記アノテーションデータを設定するステップ、
を実行させるためのコンピュータ読み取り可能なプログラム。
On a computer that creates a dataset for machine learning,
Step to acquire the first sphere image of the sphere,
A step of designating a predetermined area of the sphere in the acquired first sphere image as annotation data,
A step of performing inverse UV mapping on the acquired first sphere image to generate a texture for making the first sphere image three-dimensional.
A step of UV mapping the generated texture to the shape of the sphere and generating three-dimensional data of the sphere.
A step of rotating the generated three-dimensional data at predetermined angles and acquiring a plurality of second sphere images obtained by capturing the three-dimensional data at each angle.
A step of setting the designated annotation data in each of the acquired second sphere images,
A computer-readable program for running.
JP2020132198A 2020-08-04 2020-08-04 Computer system, dataset creation method and program Active JP6887199B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020132198A JP6887199B1 (en) 2020-08-04 2020-08-04 Computer system, dataset creation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020132198A JP6887199B1 (en) 2020-08-04 2020-08-04 Computer system, dataset creation method and program

Publications (2)

Publication Number Publication Date
JP6887199B1 true JP6887199B1 (en) 2021-06-16
JP2022029079A JP2022029079A (en) 2022-02-17

Family

ID=76313312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020132198A Active JP6887199B1 (en) 2020-08-04 2020-08-04 Computer system, dataset creation method and program

Country Status (1)

Country Link
JP (1) JP6887199B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339499A (en) * 1999-05-27 2000-12-08 Mitsubishi Electric Corp Texture mapping and texture mosaic processor
JP4413316B2 (en) * 1999-06-29 2010-02-10 株式会社トプコン Medical image composition processing apparatus and recording medium
JP6647632B2 (en) * 2017-09-04 2020-02-14 株式会社Soat Generating training data for machine learning
US11132797B2 (en) * 2017-12-28 2021-09-28 Topcon Corporation Automatically identifying regions of interest of an object from horizontal images using a machine learning guided imaging system

Also Published As

Publication number Publication date
JP2022029079A (en) 2022-02-17

Similar Documents

Publication Publication Date Title
Kasten et al. End-to-end convolutional neural network for 3D reconstruction of knee bones from bi-planar X-ray images
US10832039B2 (en) Facial expression detection method, device and system, facial expression driving method, device and system, and storage medium
CN110807451B (en) Face key point detection method, device, equipment and storage medium
Wang et al. Smartphone-based wound assessment system for patients with diabetes
CN108875524B (en) Sight estimation method, device, system and storage medium
Huang et al. A coarse-to-fine algorithm for matching and registration in 3D cross-source point clouds
CN108961149B (en) Image processing method, device and system and storage medium
US20200394392A1 (en) Method and apparatus for detecting face image
US20200234444A1 (en) Systems and methods for the analysis of skin conditions
WO2014118842A1 (en) Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
JP2014149678A (en) Makeup support apparatus, makeup support system, makeup support method and makeup support program
Tafti et al. A comparative study on the application of SIFT, SURF, BRIEF and ORB for 3D surface reconstruction of electron microscopy images
CN108509994B (en) Method and device for clustering character images
CN108388889B (en) Method and device for analyzing face image
JP2014149677A (en) Makeup support apparatus, makeup support system, makeup support method and makeup support system
KR102386444B1 (en) Image depth determining method and living body identification method, circuit, device, and medium
CN114298997B (en) Fake picture detection method, fake picture detection device and storage medium
Galteri et al. Deep 3d morphable model refinement via progressive growing of conditional generative adversarial networks
Sengan et al. Cost-effective and efficient 3D human model creation and re-identification application for human digital twins
CN114758093A (en) Three-dimensional model generation method, device, equipment and medium based on image sequence
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
Hu et al. Sparse metric-based mesh saliency
Weiherer et al. Learning the shape of female breasts: an open-access 3D statistical shape model of the female breast built from 110 breast scans
JP6887199B1 (en) Computer system, dataset creation method and program
Galantucci et al. Coded targets and hybrid grids for photogrammetric 3D digitisation of human faces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210305

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210310

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210514

R150 Certificate of patent or registration of utility model

Ref document number: 6887199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250