JP2023166812A - Information processing method, computer program and information processing device - Google Patents
Information processing method, computer program and information processing device Download PDFInfo
- Publication number
- JP2023166812A JP2023166812A JP2022077607A JP2022077607A JP2023166812A JP 2023166812 A JP2023166812 A JP 2023166812A JP 2022077607 A JP2022077607 A JP 2022077607A JP 2022077607 A JP2022077607 A JP 2022077607A JP 2023166812 A JP2023166812 A JP 2023166812A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information processing
- images
- processing device
- photographed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 137
- 238000003672 processing method Methods 0.000 title claims abstract description 15
- 238000004590 computer program Methods 0.000 title claims abstract description 7
- 239000002131 composite material Substances 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 25
- 238000012986 modification Methods 0.000 claims description 6
- 230000004048 modification Effects 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims 2
- 239000000284 extract Substances 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 79
- 238000003860 storage Methods 0.000 description 18
- 230000002159 abnormal effect Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 238000010801 machine learning Methods 0.000 description 13
- 230000005856 abnormality Effects 0.000 description 9
- 238000013500 data storage Methods 0.000 description 7
- 244000025272 Persea americana Species 0.000 description 6
- 235000008673 Persea americana Nutrition 0.000 description 6
- 241000196324 Embryophyta Species 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
Images
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像に対するアノテーション作業を支援する情報処理方法、コンピュータプログラム及び情報処理装置に関する。 The present invention relates to an information processing method, computer program, and information processing apparatus that support annotation work on images.
近年、機械学習及び深層学習の技術が著しく進歩しており、これらの機械学習等により生成された学習モデルを用いる高機能な装置及び製品等が広く利用されている。機械学習等の手法の中で、教師あり学習と呼ばれる手法では、学習モデルに対する入力情報と出力情報とが対応付けられた学習用データ(いわゆる教師データ)が必要である。例えば、学習モデルに対して入力される画像と、この画像に写されたものの分類結果又はこの画像中で対象物が写された画像領域等の情報とが対応付けられて、学習用データとして教師あり学習に用いられる。この学習用データの生成、即ち入力情報に対する出力情報の対応付けの作業はアノテーションと呼ばれ、人手による作業である場合が多い。 2. Description of the Related Art In recent years, machine learning and deep learning technologies have made remarkable progress, and high-performance devices and products that use learning models generated by these machine learning methods are widely used. Among methods such as machine learning, a method called supervised learning requires learning data (so-called teacher data) in which input information and output information for a learning model are associated. For example, an image that is input to a learning model is associated with information such as the classification results of things captured in this image or image areas where objects are captured in this image, and the training model is used as learning data. Used for learning. This process of generating learning data, that is, associating output information with input information, is called annotation, and is often a manual process.
特許文献1においては、同一の付与対象への複数の作業者からの入力に基づく複数のアノテーションを取得し、取得した複数のアノテーションを比較し、比較に基づいて、複数の作業者間にアノテーションの付与基準のずれがあるかを判定し、複数の作業者間に付与基準のずれがある場合に警告を行う情報処理装置が提案されている。
In
一般的に、機械学習には大量の学習用データが必要であり、人手で行うアノテーションの作業量は膨大である。またアノテーションの作業を行う作業者には扱うデータに対するある程度に知識が必要であり、誰でも簡単にアノテーションの作業を行うことができるわけではない。また扱うデータが秘匿性の高いものである場合、アノテーションの作業を行うことができる人数が制限される可能性がある。 Generally, machine learning requires a large amount of learning data, and the amount of manual annotation work is enormous. In addition, a worker who performs annotation work requires a certain level of knowledge about the data being handled, and not just anyone can perform annotation work easily. Additionally, if the data being handled is highly confidential, the number of people who can perform annotation work may be limited.
本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、画像に対するアノテーション作業を支援することが期待できる情報処理方法、コンピュータプログラム及び情報処理装置を提供することにある。 The present invention has been made in view of the above circumstances, and its purpose is to provide an information processing method, a computer program, and an information processing device that can be expected to support annotation work on images. be.
一実施形態に係る情報処理方法は、情報処理装置が、それぞれが異なる光の波長に基づいて同じ対象物を撮影した複数の撮影画像を取得し、取得した複数の撮影画像のうちの少なくとも1つの撮影画像に基づいて、前記複数の撮影画像のうちの少なくとも1つの撮影画像に対する関連情報の付与を行う。 In an information processing method according to an embodiment, an information processing device obtains a plurality of captured images of the same object based on different wavelengths of light, and at least one of the obtained plurality of captured images. Based on the photographed images, relevant information is added to at least one photographed image among the plurality of photographed images.
一実施形態による場合は、画像に対するアノテーション作業を支援することが期待できる。 According to one embodiment, it can be expected to support annotation work on images.
本発明の実施形態に係る情報処理システムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 A specific example of an information processing system according to an embodiment of the present invention will be described below with reference to the drawings. Note that the present invention is not limited to these examples, but is indicated by the scope of the claims, and is intended to include all changes within the meaning and scope equivalent to the scope of the claims.
<システム構成>
図1は、本実施の形態に係る情報処理システムの構成を説明するための模式図である。本実施の形態に係る情報処理システムは、情報処理装置1、カメラ3及び回転フィルタ7等を備えて構成されている。本実施の形態に係る情報処理システムでは、カメラ3が回転フィルタ7を介して対象物を撮影した撮影画像を情報処理装置1が取得し、ユーザが情報処理装置1を利用してこの撮影画像に対するアノテーションを行うシステムである。
<System configuration>
FIG. 1 is a schematic diagram for explaining the configuration of an information processing system according to this embodiment. The information processing system according to this embodiment includes an
アノテーションは、何らかのデータに対して関連する情報を付与する処理又は作業等であり、特に人工知能の分野においては教師あり学習を行うための教師データを作成する処理又は作業等である。アノテーションの作業では、例えば学習モデルへの入力となる数値、画像又は文字列等のデータに対して、学習モデルが出力すべきデータ(正解値又は正解ラベル等の情報)を付与する作業が、一又は複数のユーザにより行われる。本実施の形態に係る情報処理システムは、入力データとして画像を扱うアノテーションの作業を支援するシステムである。 Annotation is the process or work of adding related information to some data, and particularly in the field of artificial intelligence, it is the process or work of creating teacher data for supervised learning. In annotation work, for example, one task is to add data (information such as correct values or correct answer labels) that the learning model should output to data such as numerical values, images, or character strings that are input to the learning model. Or by multiple users. The information processing system according to this embodiment is a system that supports annotation work that uses images as input data.
また本実施の形態に係る情報処理システムは、例えば画像に写された対象物の領域又は対象物に含まれる異常箇所の領域等のように、画像に含まれる特定の領域を示す情報を付与する、詳しくは画像の画素毎にラベル等の情報を付与するアノテーションの作業を支援する。画像に対してこのような情報が付された学習用データは、いわゆる画像のセグメンテーションを行う学習モデルの機械学習に用いられる。このようなアノテーションの作業は、例えばディスプレイに表示された画像に対し、ユーザがマウス又はペンタブレット等の入力装置を操作して、画像中の特定領域を選択することで行われ得る。 Further, the information processing system according to the present embodiment adds information indicating a specific area included in the image, such as the area of the object captured in the image or the area of an abnormality included in the object. Specifically, it supports annotation work that adds information such as labels to each pixel of an image. Learning data in which such information is attached to an image is used for machine learning of a learning model that performs so-called image segmentation. Such an annotation work can be performed, for example, by a user operating an input device such as a mouse or a pen tablet on an image displayed on a display to select a specific area in the image.
ただし本実施の形態に係る情報処理システムにおいて、アノテーションにより入力データに付与されるデータは、例えば画像に写された対象物の異常の有無を示す2値分類結果、又は、画像に写された対象物を複数のクラスのいずれかに分類する多値分類結果等のように、1つの画像に対して1つの値が付与される態様のデータであってもよい。 However, in the information processing system according to the present embodiment, the data added to the input data by annotation is, for example, a binary classification result indicating the presence or absence of an abnormality of the object shown in the image, or the data added to the input data by annotation. The data may be data in which one value is assigned to one image, such as a multi-value classification result for classifying an object into one of a plurality of classes.
本実施の形態に係る情報処理システムでは、カメラ3及び回転フィルタ7を用いた撮影により、異なる光の波長に基づいて同じ対象物を撮影した複数の撮影画像を取得し、取得した複数の画像を基にアノテーションの作業が行われる。図2は、回転フィルタ7の構成を説明するための模式図である。回転フィルタ7は、円板状の本体部に複数種類のフィルタ7a~7fが周方向に並べて配置されたものであり、本体部の中心にはモータの回転軸が固定されている。回転フィルタ7は、いずれか1つのフィルタ7a~7fがカメラ3のレンズの前に位置するよう設置される。回転フィルタ7のモータはカメラ3により回転の制御が行われ、カメラ3はモータの回転を制御して回転フィルタ7の本体部を回転させることで、カメラ3のレンズの前に位置するフィルタ7a~7fを切り替えることができる。即ちカメラ3は、回転フィルタ7が備える複数種類のフィルタ7a~7fの1つを選択して、検査対象物の撮影を行うことができる。
In the information processing system according to the present embodiment, a plurality of photographed images of the same object are acquired based on different wavelengths of light by photographing using the
また本実施の形態に係るカメラ3は、可視光線のみでなく、赤外線を受光して撮影を行うことが可能なカメラである。回転フィルタ7が備える複数種類のフィルタ7a~7fには、例えば赤色の光を通過させる赤色フィルタ、青色の光を通過させる青色フィルタ、緑色の光を通過させる緑色フィルタ、第1波長(例えば750nm)の赤外線を通過させる第1赤外線フィルタ、及び、第2波長(例えば800nm)の赤外線を通過させる第2赤外線フィルタ等が含まれ得る。また回転フィルタ7のフィルタ7a~7fには、実質的にフィルタなしで通常の撮影をカメラ3にて行うことを可能とするもの(赤外線を受光しない通常のカメラと同等の撮影を行うことを可能とするフィルタ、例えば通常のカメラが備える赤外線を遮断するフィルタなど)が含まれている。
Furthermore, the
本実施の形態に係るカメラ3は、回転フィルタ7を回転させて複数種類のフィルタ7a~7fを介した検査対象物の撮影を順に行い、撮影した複数の撮影画像を情報処理装置1へ出力する。例えば回転フィルタ7に6種類のフィルタ7a~7fが設けられている場合、カメラ3は各フィルタ7a~7fを介した検査対象物の撮影を順に行うことによって、6種類の撮影画像を取得することができる。ただしカメラ3は、回転フィルタ7が備える全てのフィルタ7a~7fを用いた撮影を行う必要はなく、例えば回転フィルタ7に6種類のフィルタ7a~7fが設けられている場合であっても、5つ又はそれ以下のフィルタ7a~7fを用いて撮影を順に行い、5種類又はそれ以下の種類の撮影画像を取得してもよい。
The
なお本実施の形態においては、回転フィルタ7を用いて複数種類のフィルタを変更する構成が採用されているが、フィルタを変更するための構成は回転フィルタ7の構成に限らない。例えば、カメラ3のレンズに対して一又は複数のフィルタがスライドすることにより切り替わる構成であってよく、これら以外の方法でフィルタの切り替えが行われる構成であってよい。またフィルタの切り替えは、カメラ3の制御により行われる構成に限らず、例えば情報処理装置1の制御により自動で行われてよく、ユーザの手動により行われてもよい。ユーザが手動でフィルタを切り替える構成の場合、例えばカメラ3のレンズに対してユーザがフィルタを個別に着脱する構成であってもよい。
Note that in this embodiment, a configuration is adopted in which a plurality of types of filters are changed using the
情報処理装置1は、カメラ3が回転フィルタ7の複数のフィルタ7a~7fを介して撮影した複数の画像を取得し、これら複数の画像を1セットの画像として保存する。なお本実施の形態においては、カメラ3から情報処理装置1への画像の受け渡しは、例えば有線又は無線の通信を介して行われるものとするが、これに限るものではない。例えば、メモリカード又は光ディスク等の記録媒体を介してカメラ3から情報処理装置1へ画像を授受してもよく、カメラ3及び情報処理装置1がサーバ装置等の他の装置を介して画像を授受してもよく、カメラ3及び情報処理装置1が一体の装置であってもよい。
The
情報処理装置1は、アノテーションの作業を行うユーザに対して、1セットとされた複数の画像のうちの一又は複数の画像を表示し、画像に含まれる特定の領域を指定する操作をユーザから受け付ける。情報処理装置1は、ユーザの操作により指定された領域に含まれる画素(及び、指定されていない領域に含まれる画素)に対して付すラベル等のデータを生成し、生成したデータを画像と共に記憶する。
The
<装置構成>
図3は、本実施の形態に係る情報処理装置1の構成を示すブロック図である。本実施の形態に係る情報処理装置1は、処理部11、記憶部(ストレージ)12、通信部(トランシーバ)13、表示部(ディスプレイ)14及び操作部15等を備えて構成されている。本実施の形態に係る情報処理装置1は、例えばパーソナルコンピュータ又はタブレット型端末装置等の汎用的な情報処理装置を用いて構成され得る。なお本実施の形態においては、1つの情報処理装置1にて処理が行われるものとして説明を行うが、複数の情報処理装置が分散して処理を行ってもよい。
<Device configuration>
FIG. 3 is a block diagram showing the configuration of the
処理部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)又は量子プロセッサ等の演算処理装置、ROM(Read Only Memory)及びRAM(Random Access Memory)等を用いて構成されている。処理部11は、記憶部12に記憶されたプログラム12aを読み出して実行することにより、カメラ3が回転フィルタ7を介して撮影した複数の撮影画像を取得する処理、及び、これら複数の撮影画像を用いたアノテーションの作業を支援する処理等の種々の処理を行う。
The
記憶部12は、例えばハードディスク等の大容量の記憶装置を用いて構成されている。記憶部12は、処理部11が実行する各種のプログラム、及び、処理部11の処理に必要な各種のデータを記憶する。本実施の形態において記憶部12は、処理部11が実行するプログラム12aを記憶する。また記憶部12には、ユーザがアノテーションの作業を行うことで生成された機械学習に用いる学習用データを記憶する学習用データ記憶部12bが設けられている。
The
本実施の形態においてプログラム(コンピュータプログラム、プログラム製品)12aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、情報処理装置1は記録媒体99からプログラム12aを読み出して記憶部12に記憶する。ただし、プログラム12aは、例えば情報処理装置1の製造段階において記憶部12に書き込まれてもよい。また例えばプログラム12aは、遠隔のサーバ装置等が配信するものを情報処理装置1が通信にて取得してもよい。例えばプログラム12aは、記録媒体99に記録されたものを書込装置が読み出して情報処理装置1の記憶部12に書き込んでもよい。プログラム12aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。
In this embodiment, the program (computer program, program product) 12a is provided in a form recorded on a
学習用データ記憶部12bは、カメラ3が撮影した一又は複数の撮影画像と、ユーザのアノテーションの作業により付された情報とを対応付けて、学習用データとして記憶する。なお、カメラ3が例えば6種類の光の波長による同一対象物の撮影を行って6つの撮影画像を情報処理装置1が取得する場合、ユーザのアノテーションの作業がなされた後の学習用データには、6つの撮影画像のうちの少なくとも1つの撮影画像が含まれていればよく、6つの撮影画像の全てが含まれていなくてよい。即ち、学習用データには、学習モデルの機械学習に必要な画像(学習モデルへ入力される画像)のみが少なくとも含まれていればよく、機械学習に不要な画像は含まれていなくてよい。
The learning
通信部13は、例えば通信ケーブルを介してカメラ3に接続され、カメラ3との間で撮影画像及び制御情報等のデータの授受を行う。通信部13は、例えばUSB(Universal Serial Bus)又はLAN(Local Area Network)等の通信規格に基づいてデータの授受を行ってよい。また通信部13は、通信ケーブルを介すことなく、無線通信によりカメラ3とのデータの授受を行ってもよい。
The
表示部14は、液晶ディスプレイ等を用いて構成されており、処理部11の処理に基づいて種々の画像及び文字等を表示する。操作部15は、ユーザの操作を受け付け、受け付けた操作を処理部11へ通知する。例えば操作部15は、機械式のボタン又は表示部14の表面に設けられたタッチパネル等の入力デバイスによりユーザの操作を受け付ける。また例えば操作部15は、マウス及びキーボード等の入力デバイスであってよく、これらの入力デバイスは情報処理装置1に対して取り外すことが可能な構成であってもよい。
The
また本実施の形態に係る情報処理装置1には、記憶部12に記憶されたプログラム12aを処理部11が読み出して実行することにより、撮影画像取得部11a、アノテーション処理部11b及び表示処理部11c等が、ソフトウェア的な機能部として処理部11に実現される。なお本図においては、処理部11の機能部として、カメラ3の撮影画像に基づくアノテーションを支援する処理に関連する機能部を図示し、これ以外の処理に関する機能部は図示を省略している。
In addition, the
撮影画像取得部11aは、通信部13にてカメラ3との間でデータの送受信を行うことによって、カメラ3が撮影した対象物の撮影画像、即ち回転フィルタ7の複数のフィルタ7a~7fを介して撮影した複数の撮影画像を取得する処理を行う。撮影画像取得部11aは、取得した撮影画像を記憶部12に一時的に記憶する。
The photographed
アノテーション処理部11bは、カメラ3の撮影画像に対するユーザのアノテーションの作業を支援する処理を行う。例えば、アノテーション処理部11bは、異なる光の波長に基づいて撮影された複数の画像を表示部34に並べて表示し、ユーザからいずれの画像を基にアノテーションの作業を行うかの選択を受け付ける。アノテーション処理部11bは、選択された画像を表示部34に拡大表示し、表示した画像の中から特定のラベルを付す画像領域の指定をユーザから受け付ける。アノテーション処理部11bは、指定された画像領域に関する情報を撮影画像に付して学習用データとし、この学習用データを学習用データ記憶部12bに記憶する。
The
このときにアノテーション処理部11bは、例えばマウス等の入力デバイスにより表示した画像の特定箇所の選択をユーザから受け付け、受け付けた特定箇所の画素値を画像から取得し、この画素値を含む所定範囲内の画素値の画素が集まっている領域を画像から特定して候補領域とし、この候補領域を示す境界線又は図形等を基の画像に重畳して表示することでユーザに提示する。ユーザはこの候補領域の承認又は修正等の操作を行い、アノテーション処理部11bは承認又は修正等がなされた領域を、特定のラベルを付す画像領域として受け付ける。
At this time, the
またアノテーション処理部11bは、複数の画像に基づいて、特定のラベルを付す画像領域の候補となる一又は複数の候補領域を先に決定し、元の画像に候補領域を示す境界線又は図形等を重畳して表示してもよい。ユーザは、表示された一又は複数の候補領域の中から適切なものを選択する、不適切なものを修正又は削除する等の操作を行い、アノテーション処理部11bは、これらの操作がなされた後の候補領域を、特定のラベルを付す画像領域として受け付けることができる。
In addition, the
表示処理部11cは、画像及び文字等の種々の情報を表示部14に表示する処理を行う。本実施の形態において表示処理部11cは、アノテーション処理部11bによるアノテーションの支援において、撮影画像の表示、領域を示す境界線又は図形等の表示、及び、ユーザに対するメッセージの表示等の種々の表示を行う。
The
<アノテーションの支援>
本実施の形態に係る情報処理装置1は、カメラ3が回転フィルタ7の各フィルタ7a~7fを介して撮影した複数の撮影画像を取得し、取得した複数の画像を1セットとして記憶部12に記憶し、多数の撮影画像のセットを蓄積する。ユーザは、情報処理装置1を用いて、蓄積された撮影画像に対するアノテーションの作業を行う。アノテーションの作業としてユーザは、例えば撮影画像に置ける特定の対象物が写された領域を指定する操作、又は、撮影画像に写された対象物の異常箇所が写された領域を指定する操作等を行う。なおユーザは、例えば撮影画像に写されている対象物の分類を示すラベルの入力、又は、撮影画像に写されている対象物に異常があるか否かを示すラベルの入力等をアノテーションの作業として行ってもよい。
<Annotation support>
The
情報処理装置1は、例えば記憶部12に記憶された1セットの撮影画像を読み出し、この1セットに含まれる複数の画像を表示部34に並べて表示する。情報処理装置1は、同一の対象物を異なる光の波長に基づいて撮影した複数の撮影画像の中から、アノテーションの作業に用いる撮影画像の選択をユーザから受け付ける。情報処理装置1は、ユーザにより選択された撮影画像を表示部34に拡大して表示し、撮影画像の領域を指定する操作を操作部35にて受け付ける。
The
また本実施の形態に係る情報処理装置1は、カメラ3により撮影された複数の撮影画像のみでなく、これらの複数の撮影画像を合成した合成画像を生成し、複数の撮影画像と共に一又は複数の合成画像をユーザの選択対象として並べて表示してもよい。図4は、合成画像の一例を示す模式図である。本図には、「RGB画像」、「赤外線領域画像」、「赤色領域画像」及び「合成画像」の4つの画像が情報処理装置1の表示部34に並べて表示されている。
Furthermore, the
「RGB画像」は、カメラ3による通常の撮影画像、即ち回転フィルタ7が備える複数のフィルタ7a~7fのうち、実質的にフィルタなしでの撮影を行うものに切り替えてカメラ3が撮影した撮影画像である。「赤外線領域画像」は、所定の波長(所定範囲の波長)の赤外線を透過し、これ以外の波長の光を遮断するフィルタを介してカメラ3が撮影した撮影画像である。「赤色領域画像」は、可視光線の赤色の波長を透過し、これ以外の波長の光を遮断するフィルタ、いわゆる赤色フィルタを介してカメラ3が撮影した撮影画像である。これら3つの撮影画像は、カメラ3の撮影により得られる画像である。
The "RGB image" is an image normally taken by the
「合成画像」は、情報処理装置1が上記の「赤外線領域画像」及び「赤色領域画像」を合成した画像である。「赤外線領域画像」及び「赤色領域画像」は、共にカメラ3が撮影した撮影画像であるため、画像のサイズは同じであり、情報処理装置1は、「赤外線領域画像」及び「赤色領域画像」の対応する各画素について以下の(1)式の演算を行うことにより、合成画像の各画素の画素値を算出し、合成画像を生成する。
The "synthesized image" is an image that the
合成画像の画素値=(赤外線領域画像の画素値-赤色領域画像の画素値)/(赤外線領域画像の画素値+赤色領域画像の画素値) …(1) Pixel value of composite image = (pixel value of infrared region image - pixel value of red region image) / (pixel value of infrared region image + pixel value of red region image) ... (1)
赤外線領域画像の画素値及び赤色領域画像を用いて上記の(1)式で生成される合成画像は、NDVI(Normalized Difference Vegetation Index、正規化差植生指数)の画像であり、植物による光の反射特性を示す。図4の合成画像では、画素値が大きい(即ち、画像中で白色又は白色に近い色)の領域は、植物が存在する領域である。例えばユーザが行うアノテーションの対象物が植物である場合、NDVIの合成画像を表示することで、ユーザは画像中の植物の存在する場所を容易に把握することができる。 The composite image generated using the above equation (1) using the pixel values of the infrared region image and the red region image is an NDVI (Normalized Difference Vegetation Index) image, which is based on the reflection of light by plants. Show characteristics. In the composite image of FIG. 4, regions with large pixel values (that is, white or near-white colors in the image) are regions where plants exist. For example, if the object to be annotated by the user is a plant, by displaying an NDVI composite image, the user can easily understand the location of the plant in the image.
なお情報処理装置1が生成する合成画像は、上記のNDVIの画像に限らない。情報処理装置1は、例えば水の有無を可視化することができるNDWI(Normalized Difference Water Index、正規化水指標)、積雪を可視化することができるNDSI(Normalized Difference Snow Index、正規化積雪指標)、及び、砂又はコンクリート等の分布を示すNDSI(Normalized Difference Soil Index、正規化土壌指標)等の画像を合成画像として生成してもよい。情報処理装置1は、カメラ3が撮影した複数の撮影画像の中から適宜の2つの画像を選択し、この2つの画像を上記の(1)式を拡張した以下の(2)式に基づいて合成することができる。また情報処理装置1は、撮影画像と合成画像とを更に合成してもよく、合成画像と合成画像とを更に合成してもよい。
Note that the composite image generated by the
合成画像の画素値=(第1画像の画素値-第2画像の画素値)/(第1画像の画素値+第2画像の画素値) …(2) Pixel value of composite image = (pixel value of first image - pixel value of second image) / (pixel value of first image + pixel value of second image) ... (2)
なお情報処理装置1は、合成画像の生成及び表示を行わなくてもよい。どのような合成画像を生成するべきであるかは、アノテーションの対象物がどのようなものであるかによる。このため例えば、撮影画像の合成を行うか否か、及び、合成する撮影画像の組み合わせ等の設定を、アノテーションを行うユーザから情報処理装置1が受け付けて、設定された内容に応じて合成画像を生成してもよい。また例えば、アノテーションの作業の開始前に、情報処理装置1が複数種類の組み合わせで適宜に合成画像を生成し、生成した複数種類の合成画像を一覧表示してユーザに適した合成画像を選択させ、選択された合成画像の条件で以後の合成画像の生成を行ってもよい。
Note that the
図5は、赤外線領域画像の一例を示す模式図である。本図には、対象物としてリンゴを撮影した「RGB画像」及び「赤外線領域画像」の2つの画像が情報処理装置1の表示部34に並べて表示されている。ユーザは、例えば画像に写されたリンゴに存在する異常箇所(傷又は痛んだ箇所など)を特定するアノテーションを行う。RGB画像では、リンゴの表面に模様が存在するため、異常箇所がいずれであるかをユーザが判別することが容易ではない。これに対して、特定の波長の赤外線に基づく撮影を行った赤外線領域画像では、リンゴの異常箇所(図中の白抜き矢印で指示された箇所)が正常箇所とは異なる階調で写されるため、ユーザが異常箇所を容易に判別することができる。
FIG. 5 is a schematic diagram showing an example of an infrared region image. In this figure, two images, an "RGB image" and an "infrared region image", obtained by photographing an apple as a target object, are displayed side by side on the
図6及び図7は、アノテーションの作業の一例を説明するための模式図である。本図には、対象物としてアボガドを撮影した赤外線領域画像に対して、アボガドの異常箇所を特定するアノテーションの作業をユーザが行う例が示されている。情報処理装置1は、例えばカメラ3が複数の波長に基づいて撮影した対象物の複数の撮影画像を表示部34に並べて表示し、これらの撮影画像の中からアノテーションの作業に用いる撮影画像の選択をユーザから受け付ける。本例では、ユーザが赤外線領域画像を選択し、情報処理装置1は、複数の撮影画像の中から所定の赤外線に基づいて撮影された赤外線領域画像を表示部34に拡大して表示する。
6 and 7 are schematic diagrams for explaining an example of annotation work. This figure shows an example in which a user performs annotation work to identify abnormalities on an avocado on an infrared region image taken of an avocado as a target object. The
ユーザは、例えば情報処理装置1に操作部35として備えられたマウス等の入力デバイスを利用して、表示部34に表示されたアボガドの赤外線領域画像の中で、異常箇所に対するクリック等の操作を行う。図6上段には、アボガドの赤外線領域画像に対して異常箇所をマウスカーソル(白抜矢印)で指定する様子が示されている。情報処理装置1は、赤外線領域画像に対してユーザが指定した位置(座標)の画素の画素値を取得し、ユーザが指定した位置を含む異常箇所の候補領域を算出し、この候補領域を元の赤外線領域画像に重畳して表示する。図6下段には、元の赤外線領域画像に候補領域が多角形の図形として重畳して表示された様子が示されている。例えば情報処理装置1は、ユーザが指定した画素を含み、この画素に連なり、且つ、この画素と同じ画素値(この画素との画素値の差が所定範囲内)の複数の画素の集まりを候補領域とすることができる。
For example, the user uses an input device such as a mouse provided as the
ユーザは、例えば赤外線領域画像に対して重畳された候補領域に対して、形状又はサイズ等を変更する調整の作業を必要に応じて行うことができる。図7上段には、図6下段の候補領域に対してサイズを小さくする調整を行ったものが示されている。必要に応じたユーザの調整作業の完了後、情報処理装置1は、この候補領域をアノテーションの結果となる領域、即ちアボガドの異常領域として受け付ける。また更に情報処理装置1は、この確定した異常領域と同様の特徴を有する一又は複数の候補領域を赤外線領域画像から算出し、一又は複数の候補領域を元の赤外線領域画像に重畳して表示する。図7下段には、確定した異常領域と共に、複数の候補領域が赤外線領域画像に重畳して表示された様子が示されている。例えば情報処理装置1は、確定した異常領域に含まれる複数の画素の画素値の範囲を取得して、この画素値の範囲と同様の範囲の複数の画素が集まり、且つ、画素数が閾値を超える画像領域を抽出することで一又は候補領域とすることができる。
For example, the user can perform adjustment operations such as changing the shape or size of the candidate area superimposed on the infrared region image, as necessary. The upper part of FIG. 7 shows the candidate area in the lower part of FIG. 6 which has been adjusted to reduce its size. After the user completes the adjustment work as necessary, the
ユーザは、例えば表示された一又は複数の候補領域に対して、候補領域の削除及び調整等の作業を必要に応じて行うことができる。必要に応じたこれらの作業の完了後、情報処理装置1は、一又は複数の候補領域をアノテーションの結果となる領域、即ちアボガドの異常領域として受け付ける。情報処理装置1は、上記の手順で撮影画像に対するユーザのアノテーションの作業の結果を受け付け、アノテーションの結果を示すデータを生成する。
The user can, for example, perform operations such as deletion and adjustment of the candidate area on one or more displayed candidate areas, as necessary. After completing these tasks as necessary, the
情報処理装置1が生成するアノテーション結果のデータは、カメラ3の撮影画像と同じサイズの配列(行列)とすることができる。例えば撮影画像が100画素×100画素のサイズであれば、アノテーションの結果のデータは100×100の配列とし、画像の各画素に対応する配列の要素に異常であることを示す”1”又は正常であることを示す”0”のいずれかの値を情報処理装置が格納することで、アノテーションの結果のデータが生成される。なお、アノテーションにより設定される値は、“0”及び“1”等の2値に限るものではなく、例えば“0”、“1”及び“2”等の3値であってもよく、4値以上であってもよい。また、アノテーションの結果のデータの構成は、これに限るものではなく、例えば図7下段等に示した一又は複数の領域を示す多角形の頂点の座標を集めたデータであってもよい。
The annotation result data generated by the
なお、ユーザがアノテーションの作業を行う場合には、多数の画像に対して連続的に作業を繰り返して行う場合が多い。このような場合に情報処理装置1は、例えば最初のアノテーションの作業については図6及び図7に示した手順で処理を行い、2つ目以降のアノテーションの作業については手順の一部を省略してもよい。例えば最初のアノテーションの作業が赤外線領域画像を用いて行われた場合、情報処理装置1は、2つ目以降のアノテーションの作業について異なる光の波長に基づいて撮影された複数の撮影画像の一覧表示及び選択の手順を省略し、2つ目以降のアノテーションの作業ではユーザの選択を受け付けることなく赤外線領域画像を表示してもよい。また更に情報処理装置1は、最初のアノテーションの作業において異常領域とされた領域と同じ特徴を有する領域を2つ目以降のアノテーションの対称画像から抽出し、図7下段と同様に複数の候補領域としてユーザに提示してもよい。
Note that when a user performs annotation work, the user often continuously and repeatedly performs the work on a large number of images. In such a case, the
アノテーションの結果のデータを生成した情報処理装置1は、このデータを撮影画像と対応付けて学習用データとし、学習用データ記憶部12bに記憶する。図8は、学習用データの一例を説明するための模式図である。図示の例では、カメラ3が回転フィルタ7を介した撮影を行うことにより、「RGB画像」、「赤色領域画像」、「緑色領域画像」、「青色領域画像」、「赤外線領域画像」及び「紫外線領域画像」の6種類の撮影画像が得られるものとしている。また情報処理装置1は、例えば図6及び図7に示したように、「赤外線領域画像」に基づくユーザのアノテーションの作業を受け付けて、アノテーションの結果のデータを生成したものとする。
The
情報処理装置1は、例えば6種類の撮影画像のうちの1つである「RGB画像」と、ユーザによるアノテーションの結果のデータとを対応付けたデータを学習用データとして生成し、学習用データ記憶部12bに記憶することができる。このように、学習用データには、カメラ3が撮影した複数の撮影画像の全てを含んでもよく、その一部の画像のみを含んでもよい。また、学習用データに一部の撮影画像のみを含める場合、学習用データに含める撮影画像は、図示のように「RGB画像」に限られるものではなく、例えば「赤外線領域画像」のみであってもよく、他の画像であってもよい。また学習用データの画像には、例えば複数の撮影画像を合成した合成画像が含まれていてもよく、合成画像のみとアノテーションの結果のデータとが対応付けられて学習用データとされてもよい。
The
学習用データにいずれの撮影画像を含むかは、この学習用データを用いて機械学習がなされる学習モデルの使用目的又は構成等により定まる。例えば、通常のカメラが撮影した撮影画像(RGB画像)を基に異常検出を行う学習モデルを機械学習にて生成する場合、学習用データにはRGB画像とアノテーションの結果のデータとが含まれ得る。また例えば、赤外線による撮影を行うカメラに組み込まれて対象物を検出する学習モデルを生成する場合、学習用データには赤外線領域画像とアノテーションの結果のデータとが含まれ得る。また例えば、回転フィルタ7と同様に複数のフィルタを切り替えて撮影可能なカメラに組み込まれる学習モデルを生成する場合、学習用データにはカメラが有するフィルタに対応する複数の画像とアノテーションの結果のデータとが含まれ得る。情報処理装置1は、学習用データにいずれの撮影画像を含めるかについて、例えばユーザから設定を受け付けてもよい。
Which photographed images are included in the learning data is determined by the purpose of use or configuration of the learning model in which machine learning is performed using the learning data. For example, when using machine learning to generate a learning model that detects anomalies based on captured images (RGB images) taken by a normal camera, the learning data may include RGB images and annotation result data. . Further, for example, when generating a learning model that is incorporated into a camera that performs infrared photography to detect a target object, the learning data may include an infrared region image and annotation result data. For example, when generating a learning model to be incorporated into a camera that can take pictures by switching between multiple filters in the same manner as the
<フローチャート>
図9は、本実施の形態に係る情報処理装置1が行うアノテーション処理の手順を示すフローチャートである。本実施の形態に係る情報処理装置1の処理部11の撮影画像取得部11aは、カメラ3が回転フィルタ7を介して撮影した複数の撮影画像を予め取得し、記憶部12に記憶して蓄積している。処理部11のアノテーション処理部11bは、記憶部12に蓄積された撮影画像の中から、1セットの複数の撮影画像を取得する(ステップS1)。アノテーション処理部11bは、例えばユーザによる合成処理の要否の設定に基づいて、ステップS1にて取得した複数の撮影画像を適宜に組み合わせて合成画像を生成する(ステップS2)。
<Flowchart>
FIG. 9 is a flowchart showing the procedure of annotation processing performed by the
処理部11の表示処理部11cは、ステップS1にて取得した撮影画像及びステップS2にて生成した合成画像を含む複数の画像を表示部34に表示する(ステップS3)。アノテーション処理部11bは、表示部34に表示した複数の画像の中から、アノテーションの作業に用いる一又は複数の画像の選択を受け付ける(ステップS4)。表示処理部11cは、ステップS4にて選択された一又は複数の画像を表示部34に表示する(ステップS5)。
The
アノテーション処理部11bは、表示部34に表示した画像に対する異常箇所などのアノテーションの対象箇所(位置、座標など)の指定を、ユーザによる操作部35の操作に基づいて受け付ける(ステップS6)。アノテーション処理部11bは、ステップS6にて受け付けた対象箇所を含む、異常領域などのアノテーションの対象領域の候補となる候補領域を算出し、元の画像に重畳して候補領域を表示する(ステップS7)。アノテーション処理部11bは、表示した候補領域に対する形状又はサイズ等の調整を、ユーザによる操作部35の操作に基づいて受け付ける(ステップS8)。アノテーション処理部11bは、例えばユーザによる確定の操作が行われたことに応じて、必要に応じて修正がなされた候補領域を、アノテーションの対象領域として確定する(ステップS9)。
The
次いでアノテーション処理部11bは、ステップS9にて確定した対称領域と類似する一又は複数の他の候補領域を算出し、元の画像に重畳して他の候補領域を表示する(ステップS10)。アノテーション処理部11bは、表示した他の候補領域に対する形状又はサイズ等の調整を、ユーザによる操作部35の操作に基づいて受け付ける(ステップS11)。アノテーション処理部11bは、例えばユーザによる確定の操作が行われたことに応じて、必要に応じて修正がなされた他の候補領域を、アノテーションの対象領域として確定する(ステップS12)。
Next, the
アノテーション処理部11bは、ステップS9及びS12にて確定した対象領域に関する情報を含むアノテーション結果のデータを生成する(ステップS13)。アノテーション処理部11bは、ステップS1にて取得した複数の撮影画像の中から一又は複数の撮影画像を適宜に選択し、選択した一又は複数の撮影画像と、ステップS13にて生成したアノテーション結果のデータとを対応付けた学習用データを生成し、学習用データ記憶部12bに記憶して(ステップS14)、処理を終了する。
The
図10は、本実施の形態に係る情報処理装置1が行うアノテーション処理の手順を示すフローチャートである。本フローチャートは、ユーザがアノテーションの作業を続けて繰り返し行う場合に、2つ目以降のアノテーションの作業を図9のフローチャートに示した処理の一部を省略して実施する手順である。情報処理装置1は、2つ目以降のアノテーションの作業について、図10に示す手順又は図9に示す手順のいずれを採用してもよく、いずれの手順で処理を行うかをユーザの選択に基づいて決定してもよい。
FIG. 10 is a flowchart showing the procedure of annotation processing performed by the
本実施の形態に係る情報処理装置1の処理部11のアノテーション処理部11bは、記憶部12に蓄積された撮影画像の中から、1セットの複数の撮影画像を取得する(ステップS31)。アノテーション処理部11bは、例えばユーザによる合成処理の要否の設定に基づいて、ステップS31にて取得した複数の撮影画像を適宜に組み合わせて合成画像を生成する(ステップS32)。
The
アノテーション処理部11bは、ステップS1にて取得した撮影画像及びステップS2にて生成した合成画像を含む複数の画像の中から、前回のアノテーション処理においてユーザが選択した画像と同じ条件の画像を選択し、選択した画像を表示部34に表示する(ステップS33)。またアノテーション処理部11bは、前回のアノテーション処理において確定した対象領域と同じ特徴を有する一又は複数の候補領域を算出し、元の画像に重畳して一又は複数の候補領域を表示する(ステップS34)。
The
アノテーション処理部11bは、表示した候補領域に対する形状又はサイズ等の調整を、ユーザによる操作部35の操作に基づいて受け付ける(ステップS35)。アノテーション処理部11bは、例えばユーザによる確定の操作が行われたことに応じて、必要に応じて修正がなされた一又は複数の候補領域を、アノテーションの対象領域として確定する(ステップS36)。
The
アノテーション処理部11bは、ステップS36にて確定した対象領域に関する情報を含むアノテーション結果のデータを生成する(ステップS37)。アノテーション処理部11bは、ステップS31にて取得した複数の撮影画像の中から一又は複数の撮影画像を適宜に選択し、選択した一又は複数の撮影画像と、ステップS37にて生成したアノテーション結果のデータとを対応付けた学習用データを生成し、学習用データ記憶部12bに記憶して(ステップS38)、処理を終了する。
The
<まとめ>
以上の構成の本実施の形態に係る情報処理システムでは、異なる光の波長に基づいて同じ対象物をカメラ3が撮影した複数の撮影画像を情報処理装置1が取得し、取得した複数の撮影画像のうちの少なくとも1つの撮影画像に基づいて、複数の撮影画像のうちの少なくとも1つの撮影画像に対するアノテーション結果のデータ(関連情報)を付与する。なお、アノテーションの作業に用いる少なくとも1つの撮影画像と、アノテーション結果のデータを付与する少なくとも1つの撮影画像とは、同じ撮影画像であってもよく、異なる撮影画像であってもよい。異なる光の波長に基づいて撮影された複数の撮影画像をアノテーションに用いることで、単一の波長に基づいて撮影された1つの撮影画像を基にアノテーションを行う場合と比較して、ユーザによるアノテーションの作業を容易化及び高精度化することが期待できる。
<Summary>
In the information processing system according to the present embodiment configured as described above, the
また本実施の形態に係る情報処理システムでは、情報処理装置1が複数の撮影画像のうちの少なくとも1つの撮影画像に対する画像領域の指定をユーザから受け付け、受け付けた画像領域の類似領域を候補領域として撮影画像から抽出し、指定された画像領域及び抽出した候補領域をアノテーションの対象領域とし、これら対象領域に関する情報を関連情報として撮影画像に付与する。また情報処理装置1は、ユーザの指定による画像領域及びこれに類似する候補領域を元の撮影画像に重畳して表示してもよい。これらによりユーザは、撮影画像に含まれる複数の領域をアノテーションの対象領域として容易に指定することができる。
Further, in the information processing system according to the present embodiment, the
また本実施の形態に係る情報処理システムでは、情報処理装置1が撮影画像に対する対象箇所(位置、座標など)の選択をユーザから受け付け、受け付けた対象箇所を含む画像領域を決定し、撮影画像に重畳して画像領域を表示する。このときに情報処理装置1は、例えば受け付けた対象箇所の特徴と類似する特徴を有する箇所を撮影画像から抽出することで画像領域を決定することができる。情報処理装置1は、表示した画像領域に対する形状又はサイズ等の修正をユーザから必要に応じて受け付け、必要に応じて修正がなされた(不要であれば修正がなされない)画像領域をアノテーションの対象領域の指定として受け付ける。これによりユーザは、マウス又はペンタブレット等の入力デバイスで画像中の対象箇所を選択することで、この箇所を含む領域をアノテーションの対象領域として容易に指定することができる。
Further, in the information processing system according to the present embodiment, the
また本実施の形態に係る情報処理システムでは、情報処理装置1が撮影画像の取得及び関連情報の付与等のアノテーションの処理を繰り返し行う。情報処理装置1は、今回のアノテーションのための複数の撮影画像を取得した後、前回のアノテーションの結果(関連情報の付与の結果)に基づいて、今回の撮影画像から一又は複数の候補領域を抽出し、撮影画像に重畳して候補領域を表示する。このときに情報処理装置1は、例えば前回のアノテーションにおいてユーザが選択した画像領域と同じ特徴を有する画像領域を今回の撮影画像から候補領域として抽出することができる。情報処理装置1は、表示した候補領域に対する形状又はサイズ等の修正をユーザから必要に応じて受け付け、必要に応じて修正がなされた(不要であれば修正がなされない)候補領域をアノテーションの対象領域とし、この候補領域に関する情報を関連情報として撮影画像に付与する。これにより、同じ処理が繰り返されるアノテーションの作業においてユーザの負担を低減することが期待できる。
Further, in the information processing system according to the present embodiment, the
また本実施の形態に係る情報処理システムでは、情報処理装置1が少なくとも2つの撮影画像を合成した合成画像を生成し、生成した合成画像に基づいて関連情報の付与を行う。これにより、カメラ3が撮影した複数の撮影画像に加えて、情報処理装置1が生成した合成画像に基づいてユーザはアノテーションの作業を行うことができるため、アノテーション作業の更なる容易化及び高精度化等が期待できる。
Further, in the information processing system according to the present embodiment, the
また本実施の形態に係る情報処理システムでは、カメラ3が撮影する複数の撮影画像には、可視光に基づいて撮影した可視光画像(例えばRGB画像)と、非可視光に基づいて撮影した非可視光画像(例えば赤外線領域画像又は紫外線領域画像等)とを含む。情報処理装置1は、非可視光画像に基づいてアノテーションの処理を行い、アノテーション結果の関連情報を可視光画像に付与して学習用データを生成する。このような学習用データを用いた機械学習を行うことにより、例えば可視光で撮影された撮影画像を扱う学習モデルを精度よく生成することが期待できる。
Further, in the information processing system according to the present embodiment, the plurality of captured images captured by the
なお本実施の形態においては、例えば図1に示したようにカメラ3及び回転フィルタ7を別装置としているが、これに限るものではなく、回転フィルタ7又はこれと同等の機構をカメラ3が内蔵して備えていてもよい。また本実施の形態に係る情報処理システムでは、カメラ3が撮影した画像を情報処理装置1が取得し、ユーザが情報処理装置1を用いてアノテーションの作業を行う構成としたが、これに限るものではなく、カメラ3に表示部及び操作部等を設けて、ユーザがカメラ3を用いてアノテーションの作業を行う構成であってもよい。またカメラ3が無線通信等により遠隔のサーバ装置等へ撮影画像を送信し、情報処理装置1がサーバ装置と通信を行って撮影画像を取得してもよい。また、図4~図7に示した画像は一例であって、本実施の形態に係る情報処理システムはどのような撮影画像を扱ってもよく、どのようなアノテーションの処理を行ってもよい。
In this embodiment, the
また本実施の形態においては、いわゆるセグメンテーションを行う学習モデルの機械学習に用いる学習用データを生成するアノテーションの作業を例に説明を行ったが、これに限るものではない。例えば、撮影画像に写されたものを複数のクラスに分類する学習モデル又は撮影画像に写されたものの異常の有無を判定する学習モデル等の機械学習に用いる学習用データ、即ち撮影画像に対してクラス又は異常有無を示す1つのラベルが付された学習用データを生成するアノテーションの作業についても本技術は適用可能である。この場合に情報処理装置1は、例えばカメラ3が撮影した複数の撮影画像及びこれらの撮影画像から適宜に生成した合成画像を表示部34に一覧表示し、ユーザからラベルの入力を受け付けて、撮影画像の少なくとも1つと入力されたラベルとを対応付けた学習用データを生成する。ユーザは、単にRGB画像のみを見てラベルを付す場合と比較して、異なる光の波長に基づいて撮影された複数の撮影画像を見てラベルを付す作業を行うことで、撮影画像に写されたもののクラス又は異常の有無等を容易に判断することができる。
Further, in this embodiment, annotation work for generating learning data used for machine learning of a learning model that performs so-called segmentation has been described as an example, but the present invention is not limited to this. For example, learning data used for machine learning, such as a learning model that classifies objects captured in a captured image into multiple classes, or a learning model that determines the presence or absence of abnormalities in captured images, that is, learning data for captured images. The present technology is also applicable to annotation work that generates learning data to which a single label indicating the presence or absence of a class or abnormality is attached. In this case, the
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed herein are illustrative in all respects and should not be considered restrictive. The scope of the present invention is indicated by the claims rather than the above-mentioned meaning, and is intended to include meanings equivalent to the claims and all changes within the scope.
各実施形態に記載した事項は相互に組み合わせることが可能である。また、特許請求の範囲に記載した独立請求項及び従属請求項は、引用形式に関わらず全てのあらゆる組み合わせにおいて、相互に組み合わせることが可能である。さらに、特許請求の範囲には他の2以上のクレームを引用するクレームを記載する形式(マルチクレーム形式)を用いているが、これに限るものではない。マルチクレームを少なくとも1つ引用するマルチクレーム(マルチマルチクレーム)を記載する形式を用いて記載してもよい。 Items described in each embodiment can be combined with each other. Moreover, the independent claims and dependent claims recited in the claims may be combined with each other in any and all combinations, regardless of the form in which they are cited. Further, although the scope of claims uses a format in which claims refer to two or more other claims (multi-claim format), the invention is not limited to this format. It may be written using a format that describes multiple claims (multi-multi-claims) that cite at least one multiple claim.
1 情報処理装置
3 カメラ
7 回転フィルタ
7a~7f フィルタ
11 処理部
11a 撮影画像取得部
11b アノテーション処理部
11c 表示処理部
12 記憶部
12a プログラム
12b 学習用データ記憶部
13 通信部
14 表示部
15 操作部
1
一実施形態に係る情報処理方法は、情報処理装置が、第1波長帯の光に基づいて対象物を撮影した第1の撮影画像及び前記第1波長帯とは異なる第2波長帯の光に基づいて前記対象物を撮影した第2の撮影画像を含む、それぞれが異なる光の波長に基づいて同じ前記対象物を撮影した複数の撮影画像を取得し、取得した複数の撮影画像のうちの少なくとも前記第2の撮影画像に基づいて、前記第1の撮影画像に対する関連情報の付与を行い、前記第1の撮影画像及び前記関連情報を対応付けたデータを出力し、前記データには前記第2の撮影画像を含まない。 In an information processing method according to an embodiment, an information processing apparatus captures a first captured image of an object based on light in a first wavelength band and a second captured image based on light in a second wavelength band different from the first wavelength band. A plurality of photographed images of the same object are acquired based on different wavelengths of light, including a second photographed image of the target object, each of which is photographed based on a different wavelength of light, and at least one of the plurality of acquired images is obtained. Based on the second photographed image, related information is added to the first photographed image, and data in which the first photographed image and the related information are associated is outputted, and the data includes the first photographed image. Does not include the photographed image 2 .
一実施形態に係る情報処理方法は、情報処理装置が、第1波長帯の光に基づいて対象物を撮影した第1の撮影画像及び前記第1波長帯とは異なる第2波長帯の光に基づいて前記対象物を撮影した第2の撮影画像を含む、それぞれが異なる光の波長に基づいて同じ前記対象物を撮影した複数の撮影画像を取得し、取得した複数の撮影画像のうちの少なくとも前記第2の撮影画像に対する画像領域の指定を受け付け、前記画像領域に関する情報を関連情報として、取得した複数の撮影画像に含まれる前記第1の撮影画像に対して付与し、複数の撮影画像の取得及び前記第1の撮影画像に対する関連情報の付与を繰り返し行い、取得した複数の画像のうちの少なくとも前記第2の撮影画像から、前回の前記関連情報の付与の結果に基づいて、一又は複数の候補領域を抽出し、前記第2の撮影画像に重畳して、抽出した前記候補領域を表示し、表示した前記候補領域の修正を受け付け、修正を受け付けた前記候補領域に関する情報を前記関連情報として、取得した複数の撮影画像に含まれる前記第1の撮影画像に対して付与し、前記第1の撮影画像及び前記関連情報を対応付けたデータを出力し、前記データには前記第2の撮影画像を含まない。 In an information processing method according to an embodiment, an information processing apparatus captures a first captured image of an object based on light in a first wavelength band and a second captured image based on light in a second wavelength band different from the first wavelength band. A plurality of photographed images of the same object are acquired based on different wavelengths of light, including a second photographed image of the target object, each of which is photographed based on a different wavelength of light, and at least one of the plurality of acquired images is obtained. A designation of an image area for the second photographed image is accepted, and information regarding the image area is given as related information to the first photographed image included in the plurality of acquired photographed images. and adding related information to the first photographed image are repeatedly performed, and from at least the second photographed image among the plurality of acquired images, one or A plurality of candidate regions are extracted, superimposed on the second photographed image, the extracted candidate regions are displayed, a modification of the displayed candidate region is accepted, and information regarding the candidate region for which modification has been accepted is transmitted to the related As information, data is attached to the first photographed image included in the plurality of acquired photographic images, and data in which the first photographed image and the related information are associated is output, and the data includes the second photographed image. Does not include captured images.
Claims (9)
それぞれが異なる光の波長に基づいて同じ対象物を撮影した複数の撮影画像を取得し、
取得した複数の撮影画像のうちの少なくとも1つの撮影画像に基づいて、前記複数の撮影画像のうちの少なくとも1つの撮影画像に対する関連情報の付与を行う、
情報処理方法。 The information processing device
Obtain multiple images of the same object, each using a different wavelength of light,
Adding related information to at least one of the plurality of captured images based on at least one of the acquired plurality of captured images;
Information processing method.
取得した複数の撮影画像のうちの少なくとも1つの撮影画像に対する画像領域の指定を受け付け、
受け付けた画像領域の類似領域を前記撮影画像から抽出し、
前記画像領域及び前記類似領域に関する情報を、前記関連情報として付与する、
請求項1に記載の情報処理方法。 The information processing device
Accepting designation of an image area for at least one photographed image among the plurality of acquired photographed images,
Extracting a similar region to the accepted image region from the photographed image,
providing information regarding the image area and the similar area as the related information;
The information processing method according to claim 1.
前記撮影画像に重畳して前記画像領域及び前記類似領域を表示する、
請求項2に記載の情報処理方法。 The information processing device
displaying the image region and the similar region superimposed on the photographed image;
The information processing method according to claim 2.
取得した複数の撮影画像のうちの少なくとも1つの撮影画像に対する対象箇所の選択を受け付け、
受け付けた前記対象箇所を含む画像領域を決定し、
前記撮影画像に重畳して、決定した前記画像領域を表示し、
表示した前記画像領域の修正を受け付け、
修正を受け付けた前記画像領域を前記指定として受け付ける、
請求項2又は請求項3に記載の情報処理方法。 The information processing device
Accepting selection of a target location for at least one of the plurality of acquired images,
determining an image area including the accepted target location;
displaying the determined image area superimposed on the captured image;
Accepting corrections to the displayed image area,
accepting the image area for which modification has been accepted as the designation;
The information processing method according to claim 2 or 3.
前記撮影画像の取得及び前記関連情報の付与を繰り返し行い、
取得した複数の画像のうちの少なくとも1つの撮影画像から、前回の前記関連情報の付与の結果に基づいて、一又は複数の候補領域を抽出し、
前記撮影画像に重畳して、抽出した前記候補領域を表示し、
表示した前記候補領域の修正を受け付け、
修正を受け付けた前記候補領域に関する情報を、前記関連情報として付与する、
請求項2又は請求項3に記載の情報処理方法。 The information processing device
Repeatedly acquiring the photographed image and adding the related information,
extracting one or more candidate regions from at least one photographed image among the plurality of acquired images, based on the result of the previous addition of the related information;
displaying the extracted candidate area superimposed on the captured image;
Accepting corrections to the displayed candidate area,
adding information regarding the candidate area for which modification has been accepted as the related information;
The information processing method according to claim 2 or 3.
前記複数の撮影画像のうちの少なくとも2つの撮影画像を合成した合成画像を生成し、
生成した合成画像に基づいて、前記複数の撮影画像のうちの少なくとも1つの撮影画像に対する関連情報の付与を行う、
請求項1に記載の情報処理方法。 The information processing device
Generating a composite image by combining at least two of the plurality of captured images,
Adding related information to at least one photographed image among the plurality of photographed images based on the generated composite image;
The information processing method according to claim 1.
前記情報処理装置が、前記非可視光画像に基づいて、前記可視光画像に対する関連情報の付与を行う、
請求項1に記載の情報処理方法。 The plurality of photographed images include a visible light image photographed based on visible light and a non-visible light image photographed based on non-visible light,
the information processing device adds related information to the visible light image based on the non-visible light image;
The information processing method according to claim 1.
それぞれが異なる光の波長に基づいて同じ対象物を撮影した複数の撮影画像を取得し、
取得した複数の撮影画像のうちの少なくとも1つの撮影画像に基づいて、前記複数の撮影画像のうちの少なくとも1つの撮影画像に対する関連情報の付与を行う
処理を実行させる、コンピュータプログラム。 to the computer,
Obtain multiple images of the same object, each using a different wavelength of light,
A computer program that causes a computer program to execute a process of adding related information to at least one of the plurality of captured images based on at least one of the plurality of captured images.
取得した複数の撮影画像のうちの少なくとも1つの撮影画像に基づいて、前記複数の撮影画像のうちの少なくとも1つの撮影画像に対する関連情報の付与を行う付与部と
を備える、情報処理装置。 an acquisition unit that acquires a plurality of captured images of the same object, each of which is captured based on a different wavelength of light;
An information processing device, comprising: a provision unit that adds related information to at least one of the plurality of captured images, based on at least one of the acquired plurality of captured images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022077607A JP7225458B1 (en) | 2022-05-10 | 2022-05-10 | Information processing method, computer program and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022077607A JP7225458B1 (en) | 2022-05-10 | 2022-05-10 | Information processing method, computer program and information processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7225458B1 JP7225458B1 (en) | 2023-02-20 |
JP2023166812A true JP2023166812A (en) | 2023-11-22 |
Family
ID=85238758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022077607A Active JP7225458B1 (en) | 2022-05-10 | 2022-05-10 | Information processing method, computer program and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7225458B1 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012122852A (en) * | 2010-12-08 | 2012-06-28 | Olympus Corp | Image processing apparatus, image processing method, and image processing program |
JP2012532846A (en) * | 2009-07-09 | 2012-12-20 | エフ・ホフマン−ラ・ロシュ・アクチェンゲゼルシャフト | In vivo tumor vasculature imaging |
JP2019523651A (en) * | 2016-04-13 | 2019-08-29 | オリマブス リミテッド | Anti-PSMA antibodies and uses thereof |
JP2021006037A (en) * | 2014-09-03 | 2021-01-21 | ヴェンタナ メディカル システムズ, インク. | System and method for calculating immune score |
JP2021506022A (en) * | 2017-12-07 | 2021-02-18 | ベンタナ メディカル システムズ, インコーポレイテッド | Deep learning systems and methods for solidarity cell and region classification in bioimaging |
JP2021105054A (en) * | 2011-07-11 | 2021-07-26 | ザ ユナイテッド ステイツ オブ アメリカ, アズ リプレゼンテッド バイ ザ セクレタリー, デパートメント オブ ヘルス アンド ヒューマン サービシーズ | Photosensitizing antibody-fluorophore conjugates |
JP2021196905A (en) * | 2020-06-15 | 2021-12-27 | キヤノン株式会社 | Information processing apparatus, control method, and program |
US20220092781A1 (en) * | 2017-08-03 | 2022-03-24 | Nucleai Ltd | Systems and methods for analysis of tissue images |
-
2022
- 2022-05-10 JP JP2022077607A patent/JP7225458B1/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012532846A (en) * | 2009-07-09 | 2012-12-20 | エフ・ホフマン−ラ・ロシュ・アクチェンゲゼルシャフト | In vivo tumor vasculature imaging |
JP2012122852A (en) * | 2010-12-08 | 2012-06-28 | Olympus Corp | Image processing apparatus, image processing method, and image processing program |
JP2021105054A (en) * | 2011-07-11 | 2021-07-26 | ザ ユナイテッド ステイツ オブ アメリカ, アズ リプレゼンテッド バイ ザ セクレタリー, デパートメント オブ ヘルス アンド ヒューマン サービシーズ | Photosensitizing antibody-fluorophore conjugates |
JP2021006037A (en) * | 2014-09-03 | 2021-01-21 | ヴェンタナ メディカル システムズ, インク. | System and method for calculating immune score |
JP2019523651A (en) * | 2016-04-13 | 2019-08-29 | オリマブス リミテッド | Anti-PSMA antibodies and uses thereof |
US20220092781A1 (en) * | 2017-08-03 | 2022-03-24 | Nucleai Ltd | Systems and methods for analysis of tissue images |
JP2021506022A (en) * | 2017-12-07 | 2021-02-18 | ベンタナ メディカル システムズ, インコーポレイテッド | Deep learning systems and methods for solidarity cell and region classification in bioimaging |
JP2021196905A (en) * | 2020-06-15 | 2021-12-27 | キヤノン株式会社 | Information processing apparatus, control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7225458B1 (en) | 2023-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10255482B2 (en) | Interactive display for facial skin monitoring | |
AU2019202799B2 (en) | A method to automatically predict handle locations for skinningtransformations using deep learning | |
US8306286B1 (en) | Method and apparatus for determining facial characteristics | |
US6333752B1 (en) | Image processing apparatus, image processing method, and a computer-readable storage medium containing a computer program for image processing recorded thereon | |
JP6009481B2 (en) | Image processing apparatus, important person determination method, image layout method, program, and recording medium | |
JP6292884B2 (en) | Using infrared photography to generate digital images for product customization | |
KR101150097B1 (en) | Face image creation device and method | |
US20130101218A1 (en) | Apparatus, method and program for image search | |
JP5164692B2 (en) | Image processing apparatus, image processing method, and program | |
JP2010507854A (en) | Method and apparatus for virtual simulation of video image sequence | |
CN107924577B (en) | Cosmetic part creation device and cosmetic part creation method | |
CN109104545A (en) | Image processing equipment, image processing method and image processing system | |
CN106445424A (en) | Information processing method and information processing apparatus | |
US11360068B2 (en) | Monitoring plants | |
WO2018025825A1 (en) | Image capture system | |
JP2023166812A (en) | Information processing method, computer program and information processing device | |
JP4348956B2 (en) | Image layout apparatus, image layout method, and program in image layout apparatus | |
KR20070086602A (en) | Apparatus, method and program for information processing | |
JP3974105B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium storing program for causing computer to execute the method | |
JP7245749B2 (en) | Evaluation support system, evaluation support method, and program | |
JP7195467B1 (en) | LEARNING MODEL GENERATION METHOD, LEARNING DATA GENERATION METHOD, COMPUTER PROGRAM, AND INFORMATION PROCESSING APPARATUS | |
JP2005225025A (en) | Face image processing system | |
JP7245750B2 (en) | Evaluation support system, evaluation support method, and program | |
WO2024062912A1 (en) | Display control device, method for operating display control device, and program for operating display control device | |
JP7534706B2 (en) | PROGRAM, IMAGE PROCESSING APPARATUS, AND IMAGE PROCESSING METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220607 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7225458 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |