JP7334920B1 - Information processing system, information processing method and program - Google Patents

Information processing system, information processing method and program Download PDF

Info

Publication number
JP7334920B1
JP7334920B1 JP2023031687A JP2023031687A JP7334920B1 JP 7334920 B1 JP7334920 B1 JP 7334920B1 JP 2023031687 A JP2023031687 A JP 2023031687A JP 2023031687 A JP2023031687 A JP 2023031687A JP 7334920 B1 JP7334920 B1 JP 7334920B1
Authority
JP
Japan
Prior art keywords
class
model
annotation
user
storage device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023031687A
Other languages
Japanese (ja)
Inventor
英介 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fastlabel
Original Assignee
Fastlabel
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fastlabel filed Critical Fastlabel
Priority to JP2023031687A priority Critical patent/JP7334920B1/en
Application granted granted Critical
Publication of JP7334920B1 publication Critical patent/JP7334920B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】アノテーションにかかる労力を軽減する。【解決手段】コンピュータシステムのプロセッサは、ユーザによって登録されたアノテーション用のクラスであるアノテーションクラスと、モデルが分類するクラスであるモデルクラスとを、ユーザが関連づけられるようにする操作画面を表示するための情報を出力する第1出力部と、出力された情報を用いて端末によって生成された操作画面において、アノテーションクラスとモデルクラスとを関連付けるユーザ操作に応じて、当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録する記録部と、ユーザの操作に応じて、対象入力データに対してモデルを実行する実行部と、記憶装置を参照して当該モデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる割当部と、当該割り当てられたアノテーションクラスに関する情報を出力する第2出力部と、を備える。【選択図】図2[Problem] To reduce the labor required for annotation. [Solution] A processor of a computer system displays an operation screen that allows a user to associate an annotation class that is an annotation class registered by the user with a model class that is a class classified by a model. The first output unit outputs information on the annotation class and the model class in accordance with the user's operation to associate the annotation class and the model class on the operation screen generated by the terminal using the output information. A recording unit that records data in association with a storage device, an execution unit that executes a model on target input data according to user operations, and a model class detected by executing the model by referring to the storage device. an assignment unit that replaces and assigns an annotation class to be assigned, and a second output unit that outputs information regarding the assigned annotation class. [Selection diagram] Figure 2

Description

特許法第30条第2項適用 1 ウェブサイトの掲載日 2022年3月3日 2 ウェブサイトのアドレス https://fastlabel.ai/news/20220303-auto-annotationApplication of Article 30, Paragraph 2 of the Patent Law 1 Date of publication of the website March 3, 2022 2 Website address https://fastlabel. ai/news/20220303-auto-annotation

特許法第30条第2項適用 1 ウェブサイトの掲載日 2022年3月3日 2 ウェブサイトのアドレス https://docs.fastlabel.ai/docs/auto-annotation https://docs.fastlabel.ai/docs/start-auto-annotationApplication of Article 30, Paragraph 2 of the Patent Law 1 Date of publication of the website March 3, 2022 2 Website address https://docs. fast label. ai/docs/auto-annotation https://docs. fast label. ai/docs/start-auto-annotation

特許法第30条第2項適用 1 ウェブサイトの掲載日 2022年3月3日 2 ウェブサイトのアドレス https://prtimes.jp/main/html/rd/p/000000032.000065427.htmlApplication of Article 30, Paragraph 2 of the Patent Law 1 Date of publication of the website March 3, 2022 2 Website address https://prtimes. jp/main/html/rd/p/000000032.000065427. html

特許法第30条第2項適用 1 ウェブサイトの掲載日 2022年3月3日 2 ウェブサイトのアドレス https://japan.zdnet.com/release/30654827/Application of Article 30, Paragraph 2 of the Patent Law 1 Date of posting on the website March 3, 2022 2 Website address https://japan. zdnet. com/release/30654827/

特許法第30条第2項適用 1 ウェブサイトの掲載日 2022年3月3日 2 ウェブサイトのアドレス https://wmr.tokyo/startup/2022/123152/Application of Article 30, Paragraph 2 of the Patent Law 1 Date of publication of the website March 3, 2022 2 Website address https://wmr. tokyo/startup/2022/123152/

特許法第30条第2項適用 1 ウェブサイトの掲載日 2022年3月3日 2 ウェブサイトのアドレス https://ledge.ai/2022-03-03-1313238237622084de96d18/Application of Article 30, Paragraph 2 of the Patent Act 1 Date of publication of the website March 3, 2022 2 Website address https://ledge. ai/2022-03-03-1313238237622084de96d18/

特許法第30条第2項適用 1 ウェブサイトの掲載日 2022年3月4日 2 ウェブサイトのアドレス https://airobot-news.net/2022/03/04/fastlabel-7/Application of Article 30, Paragraph 2 of the Patent Law 1 Date of publication of the website March 4, 2022 2 Website address https://airobot-news. net/2022/03/04/fastlabel-7/

本発明は、情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.

近年、多くの企業で機械学習の社会実装が進んでいる。そのような状況で、教師データの作成のうち特にアノテーションに時間と労力がかかるという問題がある。ここでアノテーションとは、テキスト、音声、画像、または動画などあらゆる形態のデータの1つ1つに、ラベル、タグまたはメタデータと呼ばれる情報を付けていく工程である。 In recent years, social implementation of machine learning is progressing in many companies. In such a situation, there is a problem that, among the creation of teacher data, annotation in particular takes time and effort. Here, annotation is a process of attaching information called labels, tags or metadata to each piece of data in any form such as text, voice, image or moving image.

この問題に対してアノテーションを支援する技術が開発されている。例えば特許文献1には、予め用意された既存モデルを用いて、複数の要素それぞれに対する事前ラベルを推定して複数の要素それぞれに付与する事前ラベル推定部と、複数の要素それぞれと、ユーザによる複数の要素に付与されたラベルの更新操作のためのラベル付与作業画面であって、複数の要素それぞれと、複数の要素それぞれに付与されたラベルとを対応付けて示すラベル付与作業画面を生成し、外部入出力インタフェースに出力するラベル付与作業画面出力部と、ラベル付与作業画面を介した更新操作により要素に付与されたラベルが更新されると、当該要素に対して更新後のラベルを付与するラベル更新部と、を備えるラベル付与支援装置が開示されている。 Techniques have been developed to support annotation for this problem. For example, in Patent Document 1, using an existing model prepared in advance, a prior label estimation unit for estimating a prior label for each of a plurality of elements and assigning it to each of the plurality of elements, each of the plurality of elements, and a plurality of generating a labeling work screen for updating the labels given to the elements of the labeling work screen showing each of the plurality of elements and the label given to each of the plurality of elements in association with each other; When the label given to the element is updated by the label assignment work screen output unit that outputs to the external input/output interface and the update operation via the label assignment work screen, the label that assigns the updated label to the element A labeling assistance device is disclosed that includes an updating unit.

国際公開第2022/185363号公報International Publication No. 2022/185363

しかしながら、モデルが入力データに対して出力する分類であるモデルクラスと、ユーザが付与したい分類であるアノテーションクラスの粒度または名称が異なっている場合がある。粒度が異なっている具体例としては、モデルが入力データに対して出力するモデルクラスが、「バス」、「トラック」であり、ユーザが付与したいアノテーションクラスが「車」である場合がある場合がある。このように、モデルクラスとアノテーションクラスとの間で粒度または名称が異なっており、アノテーションに労力がかかるという問題がある。 However, the granularity or name of the model class, which is the classification output by the model for input data, and the annotation class, which is the classification desired by the user, may differ. As a specific example of different granularity, there is a case where the model classes output by the model for the input data are "bus" and "truck", and the annotation class that the user wants to add is "car". be. In this way, there is a problem that the granularity or name differs between the model class and the annotation class, and the annotation is labor intensive.

本発明は、上記問題に鑑みてなされたものであり、アノテーションにかかる労力を軽減することを可能とする情報処理システム、情報処理方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing system, an information processing method, and a program that can reduce the labor required for annotation.

本発明の第1の態様に係る情報処理システムは、ユーザによって登録されたアノテーション用のクラスであるアノテーションクラスと、モデルが分類するクラスであるモデルクラスとを、ユーザが関連づけられるようにする操作画面を表示するための情報を出力する第1出力部と、前記出力された情報を用いて端末によって生成された操作画面において、アノテーションクラスとモデルクラスとを関連付けるユーザ操作に応じて、当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録する記録部と、ユーザの操作に応じて、対象入力データに対してモデルを実行する実行部と、前記記憶装置を参照して当該モデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる割当部と、前記割り当てられたアノテーションクラスに関する情報を出力する第2出力部と、を備える。 An information processing system according to a first aspect of the present invention provides an operation screen that allows a user to associate an annotation class, which is a class for annotation registered by a user, with a model class, which is a class classified by a model. and an operation screen generated by the terminal using the output information, in response to a user operation for associating the annotation class and the model class, the annotation class and a recording unit that records the model class in association with a storage device; an execution unit that executes the model for target input data in accordance with user's operation; and detection by executing the model with reference to the storage device. an assignment unit that replaces and assigns the assigned model class to the corresponding annotation class; and a second output unit that outputs information about the assigned annotation class.

この構成によれば、対象入力データに対してモデルを実行すると、モデル本来のモデルクラスではなく、ユーザが所望するアノテーションクラスが出力されるので、アノテーションにかかる労力を軽減することができる。 According to this configuration, when the model is executed for the target input data, the annotation class desired by the user is output instead of the original model class of the model, so that the labor required for annotation can be reduced.

本発明の第2の態様に係る情報処理システムは、第1の態様に係る情報処理システムであって、前記モデルは、画像中のオブジェクトを検出するオブジェクト検出モデルであり、前記実行部は、ユーザの操作に応じて、対象画像データに対してオブジェクト検出モデルを実行し、前記割当部は、前記記憶装置を参照して当該オブジェクト検出モデルの実行によって検出されたオブジェクトそれぞれに対して、当該オブジェクト検出モデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当て、前記第2出力部は、対象画像中で検出されたオブジェクトそれぞれについて割り当てられたアノテーションクラスを当該ユーザが視覚によって識別可能に表示するための情報を出力する。 An information processing system according to a second aspect of the present invention is the information processing system according to the first aspect, wherein the model is an object detection model for detecting an object in an image, and the execution unit includes a user executes an object detection model on the target image data in response to the operation of , and the assigning unit refers to the storage device and executes the object detection for each object detected by executing the object detection model. The model class detected by executing the model is replaced and assigned to the corresponding annotation class, and the second output unit enables the user to visually identify the annotation class assigned to each object detected in the target image. Output information for display.

この構成によれば、対象画像中でオブジェクト検出モデル検出されたオブジェクトそれぞれについて割り当てられたアノテーションクラスが表示されるので、アノテーションクラスを割り当てる労力を軽減することができる。 According to this configuration, the annotation class assigned to each object detected by the object detection model in the target image is displayed, so that the labor for assigning the annotation class can be reduced.

本発明の第3の態様に係る情報処理システムは、第2の態様に係る情報処理システムであって、対象画像に含まれるオブジェクトに対して既に割り当てられたアノテーションクラスを上書きしないように選択可能な設定画面を表示するための情報を出力する第3出力部を更に備え、前記設定画面において対象画像について既に割り当てられたアノテーションクラスを上書きしないことがユーザによって選択された場合、前記実行部は、ユーザの操作に応じて、第1のオブジェクト検出モデルを実行し、前記割当部は、前記記憶装置を参照して前記第1のオブジェクト検出モデルの実行によって検出されたオブジェクトそれぞれに対して第1モデルクラスを対応する第1アノテーションクラスに置き換えて割り当て、前記実行部は、ユーザの操作に応じて、第2のオブジェクト検出モデルを実行し、前記割当部は、前記第1アノテーションクラスの割り当てに加えて、前記記憶装置を参照して前記第1のオブジェクト検出モデルの実行によって検出されたオブジェクトそれぞれに対して第1モデルクラスを対応する第1アノテーションクラスに置き換えて割り当てる。 An information processing system according to a third aspect of the present invention is the information processing system according to the second aspect, wherein the annotation class can be selected not to overwrite the annotation class already assigned to the object included in the target image. The execution unit further includes a third output unit that outputs information for displaying a setting screen, and when the user selects not to overwrite the annotation class already assigned to the target image on the setting screen, executing a first object detection model in response to the operation of the allocating unit referring to the storage device to assign a first model class to each object detected by executing the first object detection model to a corresponding first annotation class, the execution unit executes a second object detection model in response to a user operation, and the allocation unit assigns the first annotation class, in addition to With reference to the storage device, the first model class is replaced with the corresponding first annotation class and assigned to each object detected by executing the first object detection model.

この構成によれば、第1のオブジェクト検出モデルを用いたアノテーション結果と、第2のオブジェクト検出モデルを用いたアノテーション結果の両方が出力されるので、複数のオブジェクト検出モデルを用いたアノテーション結果を同時に表示することができる。このため、ユーザは、複数のオブジェクト検出モデルを用いたアノテーション結果を同時に把握することができる。 According to this configuration, both the annotation result using the first object detection model and the annotation result using the second object detection model are output. can be displayed. Therefore, the user can simultaneously grasp annotation results using a plurality of object detection models.

本発明の第4の態様に係る情報処理システムは、第1から3のいずれかの態様に係る情報処理システムであって、対象入力データのステータス及び/またはタグを入力可能な入力画面を表示するための情報を出力する第3出力部を更に備え、前記実行部は、ユーザによって入力されたステータス及び/またはタグが付与された対象入力データに対して、前記モデルを実行する。 An information processing system according to a fourth aspect of the present invention is the information processing system according to any one of the first to third aspects, and displays an input screen on which status and/or tags of target input data can be input. The execution unit executes the model on target input data to which statuses and/or tags input by a user are added.

この構成によれば、ユーザは、アノテーション対象のデータをステータス及び/またはで絞りこむことができる。 According to this configuration, the user can narrow down the data to be annotated by status and/or.

本発明の第5の態様に係る情報処理システムは、第1から4のいずれかの態様に係る情報処理システムであって、前記記録部は、前記操作画面においてアノテーションクラスとモデルクラスとを関連付けるユーザ操作に加えて複数のモデルから対象となるモデルを選択するユーザ操作に応じて、前記対象となるモデルについて、当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録し、前記実行部は、ユーザの操作に応じて、対象入力データに対して当該ユーザが選択したモデルを実行し、前記割当部は、前記記憶装置を参照して前記ユーザによって選択されたモデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる。 An information processing system according to a fifth aspect of the present invention is the information processing system according to any one of the first to fourth aspects, wherein the recording unit causes a user to associate an annotation class and a model class on the operation screen. In addition to the operation, the annotation class and the model class for the target model are recorded in a storage device in association with each other in response to a user operation for selecting a target model from a plurality of models, and the execution unit is configured to: A model selected by the user is executed for target input data in accordance with a user's operation, and the allocation unit refers to the storage device and detects a model class detected by executing the model selected by the user. is replaced with the corresponding annotation class and assigned.

この構成によれば、複数のモデルが選択可能な場合において、対象となるモデルについて当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録するので、対象となるモデルを実行によって検出されるモデルクラスをアノテーションクラスに置き換えて割り当てることができる。 According to this configuration, when a plurality of models can be selected, the annotation class and the model class of the target model are recorded in association with the storage device. A class can be assigned by replacing it with an annotation class.

本発明の第6の態様に係る情報処理方法は、ユーザによって登録されたアノテーション用のクラスであるアノテーションクラスと、モデルが分類するクラスであるモデルクラスとを、ユーザが関連づけられるようにする操作画面を表示するための情報を出力する第1出力手順と、前記出力された情報を用いて端末によって生成された操作画面において、アノテーションクラスとモデルクラスとを関連付けるユーザ操作に応じて、当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録する記録手順と、ユーザの操作に応じて、対象入力データに対してモデルを実行する実行手順と、前記記憶装置を参照して当該モデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる割当手順と、前記割り当てられたアノテーションクラスに関する情報を出力する第2出力手順と、を有する。 An information processing method according to a sixth aspect of the present invention provides an operation screen that allows a user to associate an annotation class, which is a class for annotation registered by a user, with a model class, which is a class classified by a model. In a first output procedure for outputting information for displaying and an operation screen generated by a terminal using the output information, the annotation class and A recording procedure for recording the model class in association with a storage device, an execution procedure for executing the model for target input data in response to user operation, and detection by executing the model with reference to the storage device and a second output procedure for outputting information about the assigned annotation class.

この構成によれば、対象入力データに対してモデルを実行すると、モデル本来のモデルクラスではなく、ユーザが所望するアノテーションクラスが出力されるので、アノテーションにかかる労力を軽減することができる。 According to this configuration, when the model is executed for the target input data, the annotation class desired by the user is output instead of the original model class of the model, so that the labor required for annotation can be reduced.

本発明の第7の態様に係るプログラムは、コンピュータに、ユーザによって登録されたアノテーション用のクラスであるアノテーションクラスと、モデルが分類するクラスであるモデルクラスとを、ユーザが関連づけられるようにする操作画面を表示するための情報を出力する第1出力手順、前記出力された情報を用いて端末によって生成された操作画面において、アノテーションクラスとモデルクラスとを関連付けるユーザ操作に応じて、当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録する記録手順、ユーザの操作に応じて、対象入力データに対してモデルを実行する実行手順、前記記憶装置を参照して当該モデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる割当手順、前記割り当てられたアノテーションクラスに関する情報を出力する第2出力手順、を実行させるためのプログラムである。 A program according to a seventh aspect of the present invention provides a computer with an operation that enables a user to associate an annotation class, which is a class for annotation registered by a user, with a model class, which is a class classified by a model. A first output procedure for outputting information for displaying a screen, in an operation screen generated by a terminal using the output information, in response to a user operation for associating an annotation class and a model class, the annotation class and A recording procedure for recording the model class in association with a storage device, an execution procedure for executing the model for target input data in response to a user's operation, and a model detected by executing the model with reference to the storage device A program for executing an assignment procedure for replacing and assigning a model class to a corresponding annotation class, and a second output procedure for outputting information about the assigned annotation class.

この構成によれば、対象入力データに対してモデルを実行すると、モデル本来のモデルクラスではなく、ユーザが所望するアノテーションクラスが出力されるので、アノテーションにかかる労力を軽減することができる。 According to this configuration, when the model is executed for the target input data, the annotation class desired by the user is output instead of the original model class of the model, so that the labor required for annotation can be reduced.

本発明の一態様によれば、対象入力データに対してモデルを実行すると、モデル本来のモデルクラスではなく、ユーザが所望するアノテーションクラスが出力されるので、アノテーションにかかる労力を軽減することができる。 According to one aspect of the present invention, when a model is executed for target input data, an annotation class desired by the user is output instead of the original model class of the model, so that the labor required for annotation can be reduced. .

本実施形態に係る情報処理システムの概略構成図である。1 is a schematic configuration diagram of an information processing system according to an embodiment; FIG. 本実施形態に係るコンピュータシステムの概略構成図である。1 is a schematic configuration diagram of a computer system according to this embodiment; FIG. アノテーションクラスの作成画面の一例である。It is an example of an annotation class creation screen. アノテーションクラスの一覧画面である。It is an annotation class list screen. アノテーションクラスとモデルクラスとの紐付け用の操作画面の一例である。It is an example of an operation screen for linking an annotation class and a model class. 設定画面の一例である。It is an example of a setting screen. 自動アノテーションの実行前設定画面の一例である。It is an example of a pre-execution setting screen for automatic annotation. 検出結果画面の一例である。It is an example of a detection result screen.

以下、各実施形態について、図面を参照しながら説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, each embodiment will be described with reference to the drawings. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art.

本願の発明者は、上記の課題を解決するために、ユーザによって登録されたアノテーション用のクラスであるアノテーションクラスとモデルが分類するクラスであるモデルクラスとを、ユーザが使用する操作画面上でユーザが関連付けられるようにし、モデル実行時には、モデルが出力したモデルクラスを当該モデルクラスに関連付けられたアノテーションクラスに置き換えて出力することを着想した。 In order to solve the above problems, the inventor of the present application provides an annotation class, which is a class for annotations registered by a user, and a model class, which is a class classified by a model, on an operation screen used by the user. is associated, and when the model is executed, the model class output by the model is replaced with the annotation class associated with the model class and output.

図1は、本実施形態に係る情報処理システムの概略構成図である。図1に示すように、情報処理システムSは、ユーザが使用する端末1-1、…、1-N(Nは自然数)と、この端末1-1、…、1-Nと通信回路網CNを介して接続されたコンピュータシステム2と、を備える。 FIG. 1 is a schematic configuration diagram of an information processing system according to this embodiment. As shown in FIG. 1, an information processing system S includes terminals 1-1, . . . , 1-N (N is a natural number) used by users, the terminals 1-1, . a computer system 2 connected via.

端末1-1、…、1-Nは、モデルを使用するユーザが使用する端末であり、例えば、多機能携帯電話(いわゆるスマートフォン)などの携帯電話、タブレット、ノートパソコン、またはデスクトップパソコンなどである。端末1-1、…、1-Nを総称して端末1という。 Terminals 1-1, . . . , 1-N are terminals used by the user who uses the model. . Terminals 1-1, . . . , 1-N are collectively referred to as terminal 1.

コンピュータシステム2は、例えばモデルのアノテーションを支援する団体(企業を含む)の管理者によって使用または管理される。コンピュータシステム2は端末1から要求に応じて処理を実行し、処理後に得られた情報を端末1に対して提供する。コンピュータシステム2は、一台のコンピュータであってもよいし、複数のコンピュータから構成されていてもよい。ここでは一例としてコンピュータシステム2は、一台のコンピュータであるものとして説明する。 The computer system 2 is used or managed, for example, by an administrator of an organization (including a company) that supports annotation of models. The computer system 2 executes processing in response to a request from the terminal 1 and provides the terminal 1 with information obtained after the processing. The computer system 2 may be a single computer, or may be composed of a plurality of computers. Here, as an example, the computer system 2 is described as one computer.

図2は、本実施形態に係るコンピュータシステムの概略構成図である。図2に示すように、コンピュータシステム2は、入力インタフェース21と、通信モジュール22と、記憶装置23と、メモリ24と、出力インタフェース25と、プロセッサ26とを備える。
入力インタフェース21は、コンピュータシステム2の管理者からの入力を受け付け、受け付けた入力に応じた入力信号をプロセッサ26へ出力する。
通信モジュール22は、通信回路網CNに接続されており、端末1と通信する。この通信は有線であっても無線であってもよいが、有線であるものとして説明する。
FIG. 2 is a schematic configuration diagram of a computer system according to this embodiment. As shown in FIG. 2, the computer system 2 comprises an input interface 21, a communication module 22, a storage device 23, a memory 24, an output interface 25 and a processor 26.
The input interface 21 receives input from the administrator of the computer system 2 and outputs an input signal to the processor 26 according to the received input.
The communication module 22 is connected to the communication network CN and communicates with the terminal 1 . Although this communication may be wired or wireless, it will be explained assuming that it is wired.

記憶装置23は例えばストレージであり、プロセッサ26が読み出して実行するためのプログラム及び各種のデータが格納されている。
メモリ24は、データ及びプログラムを一時的に保持する。メモリ24は、揮発性メモリであり、例えばRAM(Random Access Memory)である。
出力インタフェース25は、外部の装置と接続可能であり、当該外部の装置へ信号を出力可能である。
The storage device 23 is, for example, a storage, and stores programs and various data for the processor 26 to read and execute.
The memory 24 temporarily holds data and programs. The memory 24 is a volatile memory, such as a RAM (Random Access Memory).
The output interface 25 can be connected to an external device and can output a signal to the external device.

プロセッサ26は、記憶装置23からプログラムをメモリ24にロードし、当該プログラムに含まれる一連の命令を実行することによって、第1出力部261、記録部262、実行部263、割当部264、第2出力部265、第3出力部266として機能する。 The processor 26 loads a program from the storage device 23 to the memory 24 and executes a series of instructions included in the program to perform a first output unit 261, a recording unit 262, an execution unit 263, an allocation unit 264, a second It functions as an output unit 265 and a third output unit 266 .

以下、端末1に表示される画面の例について図3~図8を用いて説明する。図3は、アノテーションクラスの作成画面の一例である。図3に示すようにアノテーションクラスの作成画面G1において、アノテーションされるオブジェクトを画像中でマーキングするときの形を示すタイプを選択するセレクトボックスB11、アノテーションクラスの名称を入力するためのテキストボックスB12、当該アノテーションクラスの値を入力するためのテキストボックスB13、当該アノテーションを識別する識別色を入力するためのテキストボックスB14、作成ボタンB15が設けられている。また、作成ボタンB15が押されると、例えば「自転車」という名称で値が「bicycle」のアノテーションクラスが作成される。 Examples of screens displayed on the terminal 1 will be described below with reference to FIGS. 3 to 8. FIG. FIG. 3 is an example of an annotation class creation screen. As shown in FIG. 3, on the annotation class creation screen G1, a select box B11 for selecting the type indicating the shape of marking the object to be annotated in the image, a text box B12 for entering the name of the annotation class, A text box B13 for inputting the annotation class value, a text box B14 for inputting an identification color for identifying the annotation, and a creation button B15 are provided. Also, when the create button B15 is pressed, an annotation class with the name "bicycle" and the value "bicycle" is created, for example.

図4は、アノテーションクラスの一覧画面である。図4のアノテーションクラスの一覧画面G2には、ユーザによって登録されたたアノテーションクラスの一覧が表示される。このアノテーションクラスの一覧として、作成時に設定された識別色、名称、値、タイプ、属性、最終更新日時の組からなる表が示されている。また、「アノテーションクラスを作成」ボタンB21が設けられており、このボタンB21が押されると、画面が図3の作成画面に遷移する。 FIG. 4 is an annotation class list screen. The annotation class list screen G2 in FIG. 4 displays a list of annotation classes registered by the user. As a list of this annotation class, there is shown a table consisting of sets of identification color, name, value, type, attribute, and last update date and time set at the time of creation. A "create annotation class" button B21 is also provided, and when this button B21 is pressed, the screen changes to the creation screen of FIG.

図5は、アノテーションクラスとモデルクラスとの紐付け用の操作画面の一例である。図5の操作画面G3には、モデルを選択するためのセレクトボックスB31、アノテーションクラスを選択するためのラジオボタンB32、モデルクラスを選択するためのチェックボックスB33、保存ボタンB34が表示される。 FIG. 5 is an example of an operation screen for linking annotation classes and model classes. The operation screen G3 in FIG. 5 displays a select box B31 for selecting a model, a radio button B32 for selecting an annotation class, a check box B33 for selecting a model class, and a save button B34.

この操作画面G3を表示するために、第1出力部261は、ユーザによって登録されたアノテーション用のクラスであるアノテーションクラスと、モデルが分類するクラスであるモデルクラスとを、ユーザが関連づけられるようにする操作画面(例えば図5参照)を表示するための情報を出力する。 In order to display this operation screen G3, the first output unit 261 allows the user to associate an annotation class, which is a class for annotation registered by the user, with a model class, which is a class classified by a model. information for displaying an operation screen (for example, see FIG. 5).

図5において、ユーザは、モデルを選択し、アノテーションクラスを1つ選択し、選択したアノテーションモデルに紐付けるモデルクラスを1つ以上選択して保存ボタンB34を押下する。 In FIG. 5, the user selects a model, selects one annotation class, selects one or more model classes linked to the selected annotation model, and presses the save button B34.

保存ボタンB34が押された場合、記録部262は、前記出力された情報を用いて端末1によって生成された操作画面G3において、アノテーションクラスとモデルクラスとを関連付けるユーザ操作に応じて、当該アノテーションクラスと当該モデルクラスとを記憶装置23に関連付けて記録する。これにより、アノテーションクラスとモデルクラスは1:1または1:複数で紐づけられる。 When the save button B34 is pressed, the recording unit 262 saves the annotation class on the operation screen G3 generated by the terminal 1 using the output information according to the user operation for associating the annotation class and the model class. and the model class concerned are recorded in the storage device 23 in association with each other. As a result, the annotation class and the model class are linked at 1:1 or 1:multiple.

より詳細には記録部262は例えば、操作画面G3においてアノテーションクラスとモデルクラスとを関連付けるユーザ操作に加えて複数のモデルから対象となるモデルを選択するユーザ操作に応じて、前記対象となるモデルについて、当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録する。これにより、選択したモデルにおいて、アノテーションクラスとモデルクラスは1:1または1:複数で紐づけられる。この場合において、実行部は、ユーザの操作に応じて、前記対象入力データに対して当該ユーザが選択したモデルを実行する。そして割当部は、前記記憶装置を参照して前記ユーザによって選択されたモデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる。 More specifically, for example, the recording unit 262 stores information about the target model in response to a user operation of selecting a target model from a plurality of models in addition to a user operation of associating an annotation class and a model class on the operation screen G3. , the annotation class and the model class are recorded in association with the storage device. As a result, in the selected model, the annotation class and the model class are linked at 1:1 or 1:multiple. In this case, the execution unit executes the model selected by the user for the target input data according to the user's operation. Then, the assigning unit refers to the storage device, replaces the model class detected by the execution of the model selected by the user with the corresponding annotation class, and assigns it.

この構成によれば、複数のモデルが選択可能な場合において、対象となるモデルについて当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録するので、対象となるモデルを実行によって検出されるモデルクラスをアノテーションクラスに置き換えて割り当てることができる。 According to this configuration, when a plurality of models can be selected, the annotation class and the model class of the target model are recorded in association with the storage device. A class can be assigned by replacing it with an annotation class.

図6は、設定画面の一例である。図6の設定画面G4には、図5の操作画面G3におけるユーザ操作によって紐づけられたアノテーションクラスとモデルクラスの紐付け一覧が表示される。図6の設定画面G4には、「自動アノテーションを実行」ボタンB41が設けられている。この「自動アノテーションを実行」ボタンB41が押された場合、次に示す図7の実行前設定画面G5が例えばポップアップで表示される。 FIG. 6 is an example of a setting screen. A setting screen G4 in FIG. 6 displays a list of annotation classes and model classes that are linked by a user operation on the operation screen G3 in FIG. The setting screen G4 of FIG. 6 is provided with an "execute automatic annotation" button B41. When the "execute automatic annotation" button B41 is pressed, a pre-execution setting screen G5 shown in FIG. 7 is displayed as a pop-up, for example.

図7は、自動アノテーションの実行前設定画面の一例である。図7の実行前設定画面G5において、例えばモデルを選択するためのセレクトボックスB51、信頼度スコアを選択するためのセレクトボックスB52が設けられている。ここで設定された信頼度スコア(例えばモデルが出力する分類の確からしさを表す0~1の値)を超えた結果のみアノテーションデータとして使用される。 FIG. 7 is an example of a pre-execution setting screen for automatic annotation. In the pre-execution setting screen G5 of FIG. 7, for example, a select box B51 for selecting a model and a select box B52 for selecting a reliability score are provided. Only results exceeding the reliability score set here (for example, a value between 0 and 1 representing the probability of classification output by the model) are used as annotation data.

実行前設定画面G5において、「自動アノテーションを実行」というリンクB56が設けられている。実行部263は、ユーザの操作(例えば図7の「自動アノテーションを実行」というリンクB56の選択)に応じて、対象入力データ(例えば対象画像データ)に対してモデルを実行する。 On the pre-execution setting screen G5, a link B56 of "execute automatic annotation" is provided. The execution unit 263 executes a model for target input data (for example, target image data) according to a user's operation (for example, selection of link B56 "execute automatic annotation" in FIG. 7).

割当部264は、記憶装置23を参照して当該モデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる。
第2出力部265は、割り当てられたアノテーションクラスに関する情報を出力する。
The allocation unit 264 refers to the storage device 23 and replaces the model class detected by executing the model with the corresponding annotation class and allocates it.
The second output unit 265 outputs information about the assigned annotation class.

本実施形態では、上記のモデルは例えば、画像中のオブジェクトを検出するオブジェクト検出モデルであり、その場合、各部は例えば以下の処理を実行する。実行部263は、ユーザの操作に応じて、対象画像に対してオブジェクト検出モデルを実行する。割当部264は、記憶装置23を参照して当該オブジェクト検出モデルの実行によって検出されたオブジェクトそれぞれに対して、当該オブジェクト検出モデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる。第2出力部265は、対象画像中で検出されたオブジェクトそれぞれについて割り当てられたアノテーションクラスを当該ユーザが視覚によって識別可能に表示するための情報を出力する。 In this embodiment, the model is, for example, an object detection model for detecting objects in an image. The executing unit 263 executes the object detection model on the target image according to the user's operation. The assigning unit 264 refers to the storage device 23 and replaces the model class detected by executing the object detection model with the corresponding annotation class and assigns it to each object detected by executing the object detection model. The second output unit 265 outputs information for displaying the annotation class assigned to each object detected in the target image so that the user can visually identify the annotation class.

これにより、対象画像中でオブジェクト検出モデル検出されたオブジェクトそれぞれについて割り当てられたアノテーションクラスが表示されるので、アノテーションクラスを割り当てる労力を軽減することができる。 As a result, the annotation class assigned to each object detected by the object detection model in the target image is displayed, so that the labor for assigning the annotation class can be reduced.

これによって例えば図8に示す検出画面が出力される。図8は、検出結果画面の一例である。図8の検出結果画面G6に示すように、対象画像において、抽出された歩行者の領域R61、R62と自転車の領域R63が別々の色で矩形で示され、それぞれの領域に歩行者、自転車の凡例(またはラベル)が付与される。図8の保存ボタンB64が押下されると、このアノテーションに関する情報が記憶装置23に保存される。 As a result, for example, a detection screen shown in FIG. 8 is output. FIG. 8 is an example of a detection result screen. As shown in the detection result screen G6 of FIG. 8, in the target image, the extracted pedestrian regions R61 and R62 and the bicycle region R63 are indicated by rectangles in different colors. A legend (or label) is given. When the save button B64 in FIG. 8 is pressed, the information about this annotation is saved in the storage device 23. FIG.

ここで、ユーザは、別の操作画面(図示せず)において、アノテーション対象のデータに対して、ステータス及び/またはタグを付すことができる。
図7に戻って図7の実行前設定画面G5において、ステータスを選択するためのセレクトボックスB53が設けられている。これにより、ユーザは、アノテーション対象のデータをステータスで絞りこむことができる。また図7の実行前設定画面G5において、タグを選択するためのセレクトボックスB54が設けられている。これにより、ユーザは、アノテーション対象のデータをタグで絞りこむことができる。
Here, the user can attach a status and/or a tag to the data to be annotated on another operation screen (not shown).
Returning to FIG. 7, the pre-execution setting screen G5 of FIG. 7 is provided with a select box B53 for selecting a status. This allows the user to narrow down the data to be annotated by status. A select box B54 for selecting a tag is provided on the pre-execution setting screen G5 of FIG. This allows the user to narrow down the data to be annotated using tags.

この機能を実現するために、第3出力部266は、対象入力データのステータス及び/またはタグを入力可能な入力画面を表示するための情報を出力する。そして実行部263は、ユーザによって入力されたステータス及び/またはタグが付与された対象入力データに対して、前記モデルを実行する。 To implement this function, the third output unit 266 outputs information for displaying an input screen on which the status and/or tag of the target input data can be input. Then, the execution unit 263 executes the model with respect to target input data to which statuses and/or tags input by the user are added.

また図7の実行前設定画面G5において、「既存のアノテーションを上書きする」か否かを選択するためのトグルボタンB55が設けられている。
「既存のアノテーションを上書きする」が選択されている場合、先に第1のオブジェクト検出モデルによって検出されたオブジェクトに割り当てられたアノテーションクラスは削除され、第2のオブジェクト検出モデルによって検出されたオブジェクトに割り当てられたアノテーションクラスだけが出力される。
一方、「既存のアノテーションを上書きする」が選択されている場合、先に第1のオブジェクト検出モデルによって検出されたオブジェクトに割り当てられたアノテーションクラスは削除されずに残り、第2のオブジェクト検出モデルによって検出されたオブジェクトに割り当てられたアノテーションクラスとともに出力される。
A toggle button B55 for selecting whether or not to "overwrite existing annotations" is provided on the pre-execution setting screen G5 of FIG.
If "Overwrite existing annotations" is selected, the annotation class assigned to the objects previously detected by the first object detection model will be deleted, and the annotation class assigned to the objects detected by the second object detection model will be Only assigned annotation classes are printed.
On the other hand, if "overwrite existing annotations" is selected, the annotation class assigned to the object previously detected by the first object detection model remains without being deleted, and is Output with the annotation class assigned to the detected object.

この機能を実現するために、第3出力部266は、対象画像に含まれるオブジェクトに対して既に割り当てられたアノテーションクラスを上書きしないように選択可能な設定画面(例えば図7の実行前設定画面G5)を表示するための情報を出力する。
この設定画面(例えば図7の実行前設定画面G5)において対象画像について既に割り当てられたアノテーションクラスを上書きしないことがユーザによって選択された場合、実行部263は、ユーザの操作に応じて、第1のオブジェクト検出モデルを実行し、割当部264は、前記記憶装置を参照して前記第1のオブジェクト検出モデルの実行によって検出されたオブジェクトそれぞれに対して第1モデルクラスを対応する第1アノテーションクラスに置き換えて割り当る。さらに実行部263は、ユーザの操作に応じて、第2のオブジェクト検出モデルを実行し、割当部264は、前記第1アノテーションクラスの割り当てに加えて、記憶装置23を参照して前記第1のオブジェクト検出モデルの実行によって検出されたオブジェクトそれぞれに対して第1モデルクラスを対応する第1アノテーションクラスに置き換えて割り当てる。
In order to realize this function, the third output unit 266 provides a setting screen (for example, the pre-execution setting screen G5 in FIG. ) to display information.
When the user selects not to overwrite the annotation class already assigned to the target image on this setting screen (for example, the pre-execution setting screen G5 in FIG. 7), the execution unit 263 performs the first , and the assigning unit 264 refers to the storage device and assigns the first model class to the corresponding first annotation class for each object detected by the execution of the first object detection model. Assign by replacing. Furthermore, the execution unit 263 executes the second object detection model according to the user's operation, and the allocation unit 264 refers to the storage device 23 to perform the first annotation class in addition to the allocation of the first annotation class. For each object detected by execution of the object detection model, the first model class is assigned in place of the corresponding first annotation class.

これにより、第1のオブジェクト検出モデルを用いたアノテーション結果と、第2のオブジェクト検出モデルを用いたアノテーション結果の両方が出力されるので、複数のオブジェクト検出モデルを用いたアノテーション結果を同時に表示することができる。このため、ユーザは、複数のオブジェクト検出モデルを用いたアノテーション結果を同時に把握することができる。 As a result, both the annotation result using the first object detection model and the annotation result using the second object detection model are output, so the annotation results using a plurality of object detection models can be displayed at the same time. can be done. Therefore, the user can simultaneously grasp annotation results using a plurality of object detection models.

以上、本実施形態に係る情報処理システムSは、ユーザによって登録されたアノテーション用のクラスであるアノテーションクラスと、モデルが分類するクラスであるモデルクラスとを、ユーザが関連づけられるようにする操作画面を表示するための情報を出力する第1出力部を備える。
情報処理システムSは、前記出力された情報を用いて端末によって生成された操作画面において、アノテーションクラスとモデルクラスとを関連付けるユーザ操作に応じて、当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録する記録部を備える。
情報処理システムSは、ユーザの操作に応じて、対象入力データに対してモデルを実行する実行部263を備える。
情報処理システムSは、記憶装置23を参照して当該モデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる割当部264を備える。
情報処理システムSは、対象入力データに対して割り当てられたアノテーションクラスに関する情報を出力する第2出力部265を備える。
As described above, the information processing system S according to the present embodiment provides an operation screen that allows the user to associate annotation classes, which are classes for annotations registered by the user, with model classes, which are classes classified by models. A first output unit for outputting information for display is provided.
The information processing system S associates the annotation class and the model class with the storage device according to a user operation for associating the annotation class and the model class on the operation screen generated by the terminal using the output information. and a recording unit for recording.
The information processing system S includes an execution unit 263 that executes a model on target input data in accordance with a user's operation.
The information processing system S includes an allocation unit 264 that refers to the storage device 23 and replaces the model class detected by executing the model with the corresponding annotation class and allocates it.
The information processing system S includes a second output unit 265 that outputs information about annotation classes assigned to target input data.

この構成によれば、対象入力データに対してモデルを実行すると、モデル本来のモデルクラスではなく、ユーザが所望するアノテーションクラスが出力されるので、アノテーションにかかる労力を軽減することができる。 According to this configuration, when the model is executed for the target input data, the annotation class desired by the user is output instead of the original model class of the model, so that the labor required for annotation can be reduced.

なお、上述した実施形態で説明したコンピュータシステム2の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、コンピュータシステム2の少なくとも一部の機能を実現するプログラムをコンピュータ読み取り可能な記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。 At least part of the computer system 2 described in the above embodiment may be configured with hardware or software. When configured with software, a program that implements at least part of the functions of the computer system 2 may be stored in a computer-readable recording medium and read and executed by a computer. The recording medium is not limited to a detachable one such as a magnetic disk or an optical disk, and may be a fixed recording medium such as a hard disk device or memory.

また、コンピュータシステム2の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。 Also, a program that implements at least part of the functions of the computer system 2 may be distributed via a communication line (including wireless communication) such as the Internet. Furthermore, the program may be encrypted, modulated, or compressed and distributed via a wired line or wireless line such as the Internet, or stored in a recording medium and distributed.

さらに、一つまたは複数の情報機器によってコンピュータシステム2を機能させてもよい。複数の情報機器を用いる場合、そのうちの1つをコンピュータとし、当該コンピュータが所定のプログラムを実行することによりコンピュータシステム2の少なくとも1つの手段として機能が実現されてもよい。コンピュータシステム2の一部または全部の機能が端末1で実現されてもよい。 Furthermore, the computer system 2 may be operated by one or more information devices. When a plurality of information devices are used, one of them may be a computer, and the computer may implement a function as at least one means of the computer system 2 by executing a predetermined program. A part or all of the functions of the computer system 2 may be realized by the terminal 1 .

また、方法の発明においては、全ての工程(ステップ)をコンピュータによって自動制御で実現するようにしてもよい。また、各工程をコンピュータに実施させながら、工程間の進行制御を人の手によって実施するようにしてもよい。また、さらには、全工程のうちの少なくとも一部を人の手によって実施するようにしてもよい。 Further, in the method invention, all processes (steps) may be automatically controlled by a computer. Also, while a computer is causing each step to be performed, progress control between steps may be manually performed. Furthermore, at least a part of all steps may be performed manually.

以上、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 As described above, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the present invention at the implementation stage. Further, various inventions can be formed by appropriate combinations of the plurality of constituent elements disclosed in the above embodiments. For example, some components may be omitted from all components shown in the embodiments. Furthermore, components across different embodiments may be combined as appropriate.

1 端末
2 コンピュータシステム
21 入力インタフェース
22 通信モジュール
23 記憶装置
24 メモリ
25 出力インタフェース
26 プロセッサ
261 第1出力部
262 記録部
263 実行部
264 割当部
265 第2出力部
266 第3出力部
S 情報処理システム
1 terminal 2 computer system 21 input interface 22 communication module 23 storage device 24 memory 25 output interface 26 processor 261 first output unit 262 recording unit 263 execution unit 264 allocation unit 265 second output unit 266 third output unit S information processing system

Claims (7)

ユーザによって登録されたアノテーション用のクラスであるアノテーションクラスと、モデルが分類するクラスであるモデルクラスとを、ユーザが関連づけられるようにする操作画面を表示するための情報を出力する第1出力部と、
前記出力された情報を用いて端末によって生成された操作画面において、アノテーションクラスとモデルクラスとを関連付けるユーザ操作に応じて、当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録する記録部と、
ユーザの操作に応じて、対象入力データに対してモデルを実行する実行部と、
前記記憶装置を参照して当該モデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる割当部と、
前記割り当てられたアノテーションクラスに関する情報を出力する第2出力部と、
を備える情報処理システム。
a first output unit that outputs information for displaying an operation screen that allows the user to associate an annotation class, which is a class for annotations registered by a user, with a model class, which is a class classified by a model; ,
a recording unit that associates and records the annotation class and the model class in a storage device according to a user operation for associating the annotation class and the model class on the operation screen generated by the terminal using the output information; ,
an execution unit that executes a model on target input data according to a user's operation;
an allocation unit that refers to the storage device and allocates the model class detected by executing the model by replacing it with the corresponding annotation class;
a second output unit that outputs information about the assigned annotation class;
An information processing system comprising
前記モデルは、画像中のオブジェクトを検出するオブジェクト検出モデルであり、
前記実行部は、ユーザの操作に応じて、対象画像データに対してオブジェクト検出モデルを実行し、
前記割当部は、前記記憶装置を参照して当該オブジェクト検出モデルの実行によって検出されたオブジェクトそれぞれに対して、当該オブジェクト検出モデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当て、
前記第2出力部は、対象画像中で検出されたオブジェクトそれぞれについて割り当てられたアノテーションクラスを当該ユーザが視覚によって識別可能に表示するための情報を出力する
請求項1に記載の情報処理システム。
the model is an object detection model for detecting objects in an image;
The execution unit executes an object detection model on target image data according to a user's operation,
The allocation unit replaces the model class detected by executing the object detection model with the corresponding annotation class and allocates it to each object detected by executing the object detection model by referring to the storage device;
The information processing system according to claim 1, wherein the second output unit outputs information for displaying annotation classes assigned to respective objects detected in the target image so that the user can visually identify them.
対象画像に含まれるオブジェクトに対して既に割り当てられたアノテーションクラスを上書きしないように選択可能な設定画面を表示するための情報を出力する第3出力部を更に備え、
前記設定画面において対象画像について既に割り当てられたアノテーションクラスを上書きしないことがユーザによって選択された場合、
前記実行部は、ユーザの操作に応じて、第1のオブジェクト検出モデルを実行し、
前記割当部は、前記記憶装置を参照して前記第1のオブジェクト検出モデルの実行によって検出されたオブジェクトそれぞれに対して第1モデルクラスを対応する第1アノテーションクラスに置き換えて割り当て、
前記実行部は、ユーザの操作に応じて、第2のオブジェクト検出モデルを実行し、
前記割当部は、前記第1アノテーションクラスの割り当てに加えて、前記記憶装置を参照して前記第1のオブジェクト検出モデルの実行によって検出されたオブジェクトそれぞれに対して第1モデルクラスを対応する第1アノテーションクラスに置き換えて割り当てる
請求項2に記載の情報処理システム。
further comprising a third output unit that outputs information for displaying a setting screen that can be selected so as not to overwrite the annotation class already assigned to the object included in the target image;
If the user selects not to overwrite the annotation class already assigned to the target image on the setting screen,
The execution unit executes a first object detection model according to a user's operation,
The assigning unit replaces the first model class with the corresponding first annotation class and assigns it to each object detected by executing the first object detection model by referring to the storage device;
The execution unit executes a second object detection model according to a user's operation,
The assigning unit, in addition to assigning the first annotation class, refers to the storage device and assigns the first model class to each object detected by executing the first object detection model. The information processing system according to claim 2, wherein the annotation class is replaced and assigned.
対象入力データのステータス及び/またはタグを入力可能な入力画面を表示するための情報を出力する第3出力部を更に備え、
前記実行部は、ユーザによって入力されたステータス及び/またはタグが付与された対象入力データに対して、前記モデルを実行する
請求項1から3のいずれか一項に記載の情報処理システム。
Further comprising a third output unit that outputs information for displaying an input screen on which the status and/or tags of the target input data can be input,
The information processing system according to any one of claims 1 to 3, wherein the execution unit executes the model with respect to target input data to which statuses and/or tags input by a user are added.
前記記録部は、前記操作画面においてアノテーションクラスとモデルクラスとを関連付けるユーザ操作に加えて複数のモデルから対象となるモデルを選択するユーザ操作に応じて、前記対象となるモデルについて、当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録し、
前記実行部は、ユーザの操作に応じて、前記対象入力データに対して当該ユーザが選択したモデルを実行し、
前記割当部は、前記記憶装置を参照して前記ユーザによって選択されたモデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる
請求項1から3のいずれか一項に記載の情報処理システム。
In addition to a user operation of associating an annotation class and a model class on the operation screen, the recording unit stores the target model with the annotation class in response to a user operation of selecting a target model from a plurality of models. record the model class in association with a storage device;
The execution unit executes a model selected by the user for the target input data in accordance with a user's operation,
The information according to any one of claims 1 to 3, wherein the assigning unit refers to the storage device and assigns a model class detected by executing the model selected by the user by replacing it with a corresponding annotation class. processing system.
第1出力部が、ユーザによって登録されたアノテーション用のクラスであるアノテーションクラスと、モデルが分類するクラスであるモデルクラスとを、ユーザが関連づけられるようにする操作画面を表示するための情報を出力する第1出力手順と、
記録部が、前記出力された情報を用いて端末によって生成された操作画面において、アノテーションクラスとモデルクラスとを関連付けるユーザ操作に応じて、当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録する記録手順と、
実行部が、ユーザの操作に応じて、対象入力データに対してモデルを実行する実行手順と、
割当部が、前記記憶装置を参照して当該モデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる割当手順と、
第2出力部が、前記割り当てられたアノテーションクラスに関する情報を出力する第2出力手順と、
を有する情報処理方法。
A first output unit outputs information for displaying an operation screen that allows a user to associate an annotation class, which is a class for annotation registered by the user, with a model class, which is a class classified by a model. a first output procedure to
A recording unit records the annotation class and the model class in association with the storage device according to a user operation for associating the annotation class and the model class on the operation screen generated by the terminal using the output information. a recording procedure to
an execution procedure in which the execution unit executes a model on target input data in accordance with a user's operation;
an allocation procedure in which the allocation unit refers to the storage device and allocates the model class detected by executing the model by replacing it with the corresponding annotation class;
a second output step in which a second output unit outputs information about the assigned annotation class;
An information processing method comprising:
コンピュータに、
ユーザによって登録されたアノテーション用のクラスであるアノテーションクラスと、モデルが分類するクラスであるモデルクラスとを、ユーザが関連づけられるようにする操作画面を表示するための情報を出力する第1出力手順、
前記出力された情報を用いて端末によって生成された操作画面において、アノテーションクラスとモデルクラスとを関連付けるユーザ操作に応じて、当該アノテーションクラスと当該モデルクラスとを記憶装置に関連付けて記録する記録手順、
ユーザの操作に応じて、対象入力データに対してモデルを実行する実行手順、
前記記憶装置を参照して当該モデルの実行によって検出されたモデルクラスを対応するアノテーションクラスに置き換えて割り当てる割当手順、
前記割り当てられたアノテーションクラスに関する情報を出力する第2出力手順、
を実行させるためのプログラム。
to the computer,
A first output procedure for outputting information for displaying an operation screen that enables the user to associate an annotation class, which is a class for annotation registered by a user, with a model class, which is a class classified by a model;
A recording procedure for recording the annotation class and the model class in association with a storage device in response to a user operation for associating the annotation class and the model class on the operation screen generated by the terminal using the output information;
Execution procedure for executing the model on the target input data according to the user's operation,
an assignment procedure that refers to the storage device and replaces and assigns the model class detected by executing the model to the corresponding annotation class;
a second output procedure for outputting information about the assigned annotation class;
program to run the
JP2023031687A 2023-03-02 2023-03-02 Information processing system, information processing method and program Active JP7334920B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023031687A JP7334920B1 (en) 2023-03-02 2023-03-02 Information processing system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023031687A JP7334920B1 (en) 2023-03-02 2023-03-02 Information processing system, information processing method and program

Publications (1)

Publication Number Publication Date
JP7334920B1 true JP7334920B1 (en) 2023-08-29

Family

ID=87764107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023031687A Active JP7334920B1 (en) 2023-03-02 2023-03-02 Information processing system, information processing method and program

Country Status (1)

Country Link
JP (1) JP7334920B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017224184A (en) * 2016-06-16 2017-12-21 株式会社日立製作所 Machine learning device
JP2019144872A (en) * 2018-02-21 2019-08-29 株式会社Abeja System having computation model for machine learning, and machine learning method
JP2020035095A (en) * 2018-08-28 2020-03-05 オリンパス株式会社 Annotation device and annotation method
KR102245896B1 (en) * 2020-12-07 2021-04-29 지티원 주식회사 Annotation data verification method based on artificial intelligence model and system therefore
WO2021181520A1 (en) * 2020-03-10 2021-09-16 オリンパス株式会社 Image processing system, image processing device, endoscope system, interface, and image processing method
KR102343043B1 (en) * 2021-05-13 2021-12-24 주식회사 인피닉 Annotation method capable of change of working condition simultaneously, and computer program recorded on record-medium for executing method thereof
WO2022004337A1 (en) * 2020-06-30 2022-01-06 ソニーグループ株式会社 Assessment support device, information processing device, and learning method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017224184A (en) * 2016-06-16 2017-12-21 株式会社日立製作所 Machine learning device
JP2019144872A (en) * 2018-02-21 2019-08-29 株式会社Abeja System having computation model for machine learning, and machine learning method
JP2020035095A (en) * 2018-08-28 2020-03-05 オリンパス株式会社 Annotation device and annotation method
WO2021181520A1 (en) * 2020-03-10 2021-09-16 オリンパス株式会社 Image processing system, image processing device, endoscope system, interface, and image processing method
WO2022004337A1 (en) * 2020-06-30 2022-01-06 ソニーグループ株式会社 Assessment support device, information processing device, and learning method
KR102245896B1 (en) * 2020-12-07 2021-04-29 지티원 주식회사 Annotation data verification method based on artificial intelligence model and system therefore
KR102343043B1 (en) * 2021-05-13 2021-12-24 주식회사 인피닉 Annotation method capable of change of working condition simultaneously, and computer program recorded on record-medium for executing method thereof

Similar Documents

Publication Publication Date Title
JP2005521947A5 (en)
US8782554B2 (en) Context menu dependency on many objects of different type
CN110705237B (en) Automatic document generation method, data processing device and storage medium
CN105389184A (en) Configuration method and apparatus for product interface information
CN110941779A (en) Page loading method and device, storage medium and electronic equipment
JP2010015458A (en) Program correction support system, program correction support method, and program correction support program
US6345270B1 (en) Data management system
JP7334920B1 (en) Information processing system, information processing method and program
CN105739717B (en) Data inputting method and device
JP2006260133A (en) Medium layout support system, page layout apparatus, program, and recording medium
JP6759868B2 (en) Information processing equipment and information processing programs
JP6551082B2 (en) Test support apparatus, test support method, and test support program
JP4828318B2 (en) Multiple form integrated printing method, system and program
JP2008158727A (en) Electronic business form system
JP6855720B2 (en) Information processing equipment and information processing programs
JP2016157411A (en) Information management device and file management method
JP5593760B2 (en) Typesetting device, mount file generation method and program
JP7183458B1 (en) Setting work support device, setting work support method, and setting work support program
JP3698247B2 (en) Object-oriented development support device
JP6331307B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP5188012B2 (en) Medium layout support system, page layout apparatus, program, and recording medium
CN115951993A (en) Data processing method, data processing apparatus, electronic device, storage medium, and program product
JP4341726B2 (en) Electronic form system and recording medium
CN117111819A (en) Component page configuration method, device, terminal equipment and computer storage medium
CN113344311A (en) Task execution method and device, storage medium, processor and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230302

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230302

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20230315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230808

R150 Certificate of patent or registration of utility model

Ref document number: 7334920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150