JP7236694B2 - Information processing method and information processing system - Google Patents

Information processing method and information processing system Download PDF

Info

Publication number
JP7236694B2
JP7236694B2 JP2019070210A JP2019070210A JP7236694B2 JP 7236694 B2 JP7236694 B2 JP 7236694B2 JP 2019070210 A JP2019070210 A JP 2019070210A JP 2019070210 A JP2019070210 A JP 2019070210A JP 7236694 B2 JP7236694 B2 JP 7236694B2
Authority
JP
Japan
Prior art keywords
annotation
information
image
skill
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019070210A
Other languages
Japanese (ja)
Other versions
JP2020024665A (en
Inventor
和史 石川
拓也 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to CN201910665764.5A priority Critical patent/CN110796156A/en
Priority to US16/526,309 priority patent/US11068716B2/en
Publication of JP2020024665A publication Critical patent/JP2020024665A/en
Application granted granted Critical
Publication of JP7236694B2 publication Critical patent/JP7236694B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、情報処理方法、及び情報処理システムに関する。 The present disclosure relates to an information processing method and an information processing system.

近年では、ディープラーニングを用いて、画像から物体検出を行う取り組みが行われてきている。画像から物体検出を正確に行うためには、例えば大量の画像が収集されて、作業者が当該大量の画像から教師データを作成する。そのため、画像に対する物体検出の正確性は、作業者のスキルによって変動する。 In recent years, efforts have been made to detect objects from images using deep learning. In order to accurately detect an object from images, for example, a large number of images are collected and an operator creates training data from the large number of images. Therefore, the accuracy of object detection for images varies depending on the skill of the operator.

作業者のスキルに関する技術として、例えば特許文献1の技術がある。特許文献1のスキル評価装置は、対象コンテンツとしての画像中で、人の顔が含まれる箇所をマークする作業において、マークの位置及び面積を学習情報と比較して類似度を算出する。スキル評価装置は、学習情報に対する類似度が高い作業ほど、高スキルな作業者によって作業されたものと評価する。これにより、複数の作業者の中で、高スキルの作業者を選択することができている。また、評価結果が作業者にフィードバックされる。 As a technique related to worker skill, for example, there is a technique disclosed in Patent Document 1. The skill evaluation device of Patent Literature 1 compares the position and area of the mark with learning information to calculate the degree of similarity in an operation of marking a portion including a person's face in an image as target content. The skill evaluation device evaluates that a task with a higher degree of similarity to learning information was performed by a highly skilled worker. As a result, a highly skilled worker can be selected from a plurality of workers. Also, the evaluation result is fed back to the worker.

特開2015-200985号公報JP 2015-200985 A

特許文献1で開示される従来技術は、作業者のスキルを個人特性に応じて効率的に向上させることが困難である。 With the conventional technology disclosed in Patent Document 1, it is difficult to efficiently improve a worker's skill according to individual characteristics.

そこで、本開示は、作業者のアノテーションスキルを個人特性に応じて効率的に向上させることができる情報処理方法、及び情報処理システムを提供する。 Therefore, the present disclosure provides an information processing method and an information processing system that can efficiently improve annotation skills of workers according to individual characteristics.

上記目的を達成するために、本開示の一形態に係る情報処理方法は、コンピュータが、画像に映る物体に対して作業者がアノテーション情報を付与する作業の正確性を評価した指標であるアノテーションスキルに関連する情報を取得し、前記アノテーションスキルに関連する情報から特定される前記物体が映るアノテーション用画像を取得し、前記作業者による前記アノテーション用画像に対するアノテーション結果を取得し、前記アノテーション用画像に映る前記物体に対応する正解アノテーション情報及び前記アノテーション結果を用いて前記アノテーションスキルに関連する情報を更新する。 In order to achieve the above object, an information processing method according to an embodiment of the present disclosure provides an annotation index, which is an index for evaluating the accuracy of a work in which a worker adds annotation information to an object appearing in an image. Acquiring skill -related information , acquiring an annotation image in which the object specified from the annotation skill-related information is captured, acquiring an annotation result of the annotation image by the worker, and acquiring the annotation image. updating the information related to the annotation skill using the correct annotation information corresponding to the object appearing in the image and the annotation result.

なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition, these general or specific aspects may be realized by a system, method, integrated circuit, computer program, or a recording medium such as a computer-readable CD-ROM. and any combination of recording media.

本開示の情報処理方法等によれば、作業者のアノテーションスキルを個人特性に応じて効率的に向上させることができる。 According to the information processing method and the like of the present disclosure, it is possible to efficiently improve the annotation skills of workers according to their individual characteristics.

図1は、実施の形態1に係る情報処理システム及び入出力部を例示するブロック図である。1 is a block diagram illustrating an information processing system and an input/output unit according to Embodiment 1. FIG. 図2は、実施の形態1に係る情報処理システムにおける情報の伝達を例示する図である。FIG. 2 is a diagram illustrating transmission of information in the information processing system according to the first embodiment. 図3Aは、実施の形態1に係る第1アノテーション情報を例示する図である。3A is a diagram illustrating first annotation information according to Embodiment 1. FIG. 図3Bは、実施の形態1に係るアノテーションスキルを例示する図である。3B is a diagram illustrating annotation skills according to Embodiment 1. FIG. 図3Cは、実施の形態1に係る第2アノテーション情報を例示する図である。3C is a diagram illustrating second annotation information according to Embodiment 1. FIG. 図4は、実施の形態1に係る情報処理システムの動作を例示する図である。FIG. 4 is a diagram illustrating the operation of the information processing system according to the first embodiment. 図5は、アノテーション用画像にアノテーション情報を付与する作業を例示する図である。FIG. 5 is a diagram exemplifying the work of adding annotation information to an annotation image. 図6は、実施の形態2に係る情報処理システム及び入出力部を例示するブロック図である。FIG. 6 is a block diagram illustrating an information processing system and an input/output unit according to the second embodiment. 図7は、実施の形態2に係る情報処理システムにおける情報の伝達を例示する図である。FIG. 7 is a diagram illustrating transmission of information in the information processing system according to the second embodiment. 図8は、実施の形態2に係る情報処理システムの動作を例示する図である。FIG. 8 is a diagram illustrating the operation of the information processing system according to the second embodiment.

本開示の一形態に係る情報処理方法は、コンピュータを用いて、センシングデータに対してアノテーション情報を付与する作業者のアノテーションスキルを取得し、前記アノテーションスキルから特定されるセンシングデータの特徴を有するアノテーション用センシングデータを取得し、前記作業者による前記アノテーション用センシングデータに対するアノテーション結果を取得し、前記センシングデータの特徴に対応する正解アノテーション情報及び前記アノテーション結果を用いて前記アノテーションスキルを更新する。 An information processing method according to one embodiment of the present disclosure uses a computer to acquire annotation skills of a worker who assigns annotation information to sensing data, and an annotation having characteristics of sensing data specified from the annotation skills. sensing data for annotation is acquired, an annotation result for the sensing data for annotation by the worker is acquired, and the annotation skill is updated using correct annotation information corresponding to the feature of the sensing data and the annotation result.

このように、作業者のアノテーションスキルに応じたアノテーション用センシングデータが決定されることで、作業者の個人特性に応じたアノテーションの訓練が可能となる。例えば、作業者にとって苦手なセンシングデータがアノテーション用センシングデータとして決定される。また、アノテーションスキルが自動更新されることで、継続的なアノテーションスキルの向上が可能となる。このため、作業者のアノテーションスキルを個人特性に応じて効率的に向上させることができる。 In this way, by determining the sensing data for annotation according to the annotation skill of the worker, annotation training according to the individual characteristics of the worker becomes possible. For example, sensing data that the operator is not good at is determined as sensing data for annotation. In addition, by automatically updating annotation skills, it is possible to continuously improve annotation skills. Therefore, the annotation skill of the worker can be efficiently improved according to the individual characteristics.

本開示の一形態に係る情報処理方法は、センシングデータに対してアノテーション情報を付与する作業者のアノテーションスキルから特定されるセンシングデータの特徴を有するアノテーション用センシングデータを取得する第1取得部と、前記作業者による前記アノテーション用センシングデータに対するアノテーション結果を取得する第2取得部と、前記センシングデータの特徴に対応する正解アノテーション情報及び前記アノテーション結果を用いて前記アノテーションスキルを更新する処理部とを備える。 An information processing method according to an aspect of the present disclosure includes a first acquisition unit that acquires sensing data for annotation that has characteristics of sensing data that are specified from annotation skills of a worker who imparts annotation information to sensing data; a second acquisition unit that acquires an annotation result for the annotation sensing data by the worker; and a processing unit that updates the annotation skill using correct annotation information corresponding to features of the sensing data and the annotation result. .

この情報処理方法においても上述と同様の作用効果を奏する。 This information processing method also has the same effect as described above.

本開示の一形態に係る情報処理方法において、前記アノテーションスキルは、前記アノテーション情報の指定に関するスキルを含む。 In the information processing method according to one aspect of the present disclosure, the annotation skill includes a skill related to designation of the annotation information.

このように、アノテーション情報の品質に直接的に関わるスキルが対象となることにより、アノテーションにより生成された教師データを用いて学習する学習モデルの品質を効果的に向上させることができる。 In this way, by targeting skills directly related to the quality of annotation information, it is possible to effectively improve the quality of a learning model that learns using teacher data generated from annotations.

本開示の一形態に係る情報処理方法において、前記アノテーション情報の指定は、アノテーションの位置の指定、大きさの指定、及び形状の指定の少なくとも1つを含む。 In the information processing method according to an aspect of the present disclosure, the designation of the annotation information includes at least one of position designation, size designation, and shape designation of the annotation.

このように、作業者は、アノテーションの位置の指定、大きさの指定、及び形状の指定の少なくとも1つを行うための訓練をそれぞれ行うことができる。このため、作業者が苦手なアノテーションの指定の訓練をすることによって、アノテーション用センシングデータにアノテーション情報を付与する作業の正確性が向上する。 In this way, the operator can be trained to perform at least one of annotation position specification, size specification, and shape specification. For this reason, the accuracy of the task of adding annotation information to the sensing data for annotation is improved by training the operator to specify annotations that the operator is not good at.

本開示の一形態に係る情報処理方法において、前記アノテーション情報の指定は、アノテーションのラベルの指定を含む。 In the information processing method according to an aspect of the present disclosure, specifying the annotation information includes specifying a label of the annotation.

このように、作業者は、アノテーションのラベル(例えばクラス)ごとに、アノテーションの指定を行うための訓練を行うことができる。このため、作業者が苦手なアノテーションのクラスの訓練をすることによって、アノテーション用センシングデータにアノテーション情報を付与する作業の正確性が向上する。 In this way, the operator can be trained to designate annotations for each annotation label (for example, class). Therefore, the accuracy of the task of adding annotation information to the sensing data for annotation is improved by training the annotation class that the operator is not good at.

本開示の一形態に係る情報処理方法において、前記アノテーション結果は、前記アノテーション情報の指定にかけた時間を含み、前記アノテーションスキルは、前記アノテーション情報の指定にかかる時間を含む。 In the information processing method according to an aspect of the present disclosure, the annotation result includes the time taken to specify the annotation information, and the annotation skill includes the time taken to specify the annotation information.

これによれば、作業者は、アノテーションの指定を行うための作業にかかる時間を改善する訓練を行うことができる。このため、作業者がアノテーション用センシングデータに対してアノテーション情報を付与する作業の速さというスキルを向上させることができる。 According to this, the worker can perform training for improving the time required for the work for specifying the annotation. Therefore, it is possible to improve the skill of the worker, ie, the speed of the task of adding annotation information to the sensing data for annotation.

本開示の一形態に係る情報処理方法において、前記センシングデータは、画像データであり、前記アノテーション用センシングデータは、アノテーション用画像データである。 In the information processing method according to an aspect of the present disclosure, the sensing data is image data, and the annotation sensing data is annotation image data.

これによれば、情報量の多くアノテーションスキルの向上に個人差がある画像データについてもアノテーションスキルを効率よく向上させることができる。 According to this, it is possible to efficiently improve annotation skills even for image data having a large amount of information and having individual differences in improvement of annotation skills.

本開示の一形態に係る情報処理方法は、前記アノテーションスキルから前記正解アノテーション情報を特定し、複数の前記アノテーション用画像データの中から、特定された前記正解アノテーション情報に対応する物体が映る前記アノテーション用画像データを選択することにより、前記アノテーション用画像データを取得する。 An information processing method according to an aspect of the present disclosure specifies the correct annotation information from the annotation skill, and includes the annotation in which an object corresponding to the specified correct annotation information is displayed from among the plurality of annotation image data. The image data for annotation is acquired by selecting the image data for annotation.

これによれば、アノテーションスキルの向上につながる、教師データ付きのアノテーション用画像データを選択することができる。例えば、作業者が苦手とするアノテーション情報を付与することが求められるアノテーション用画像データが選択される。作業者は、自身が苦手とする作業の訓練を行うことができる。 According to this, it is possible to select image data for annotation with teacher data that leads to improvement of annotation skill. For example, image data for annotation that is required to add annotation information that the operator is not good at is selected. Workers can be trained for work that they are not good at.

本開示の一形態に係る情報処理方法は、前記アノテーションスキルから前記正解アノテーション情報を特定し、特定された前記正解アノテーション情報に対応する物体が映る画像データを生成することにより前記アノテーション用画像データを取得する。 An information processing method according to an aspect of the present disclosure specifies the correct annotation information from the annotation skill, and generates image data showing an object corresponding to the specified correct annotation information, thereby obtaining the annotation image data. get.

これによれば、アノテーションスキルの向上に適したアノテーション用画像データが無くても作業者に訓練させることができる。 According to this, the operator can be trained even if there is no image data for annotation suitable for improving the annotation skill.

本開示の一形態に係る情報処理方法において、前記画像データの生成は、特定された前記正解アノテーション情報に対応する物体が映る画像データを別の画像データと合成することを含む。 In the information processing method according to an aspect of the present disclosure, generating the image data includes synthesizing image data showing an object corresponding to the identified correct annotation information with another image data.

これによれば、教師データ付きのアノテーション用画像データを効率的に生成することができる。 According to this, it is possible to efficiently generate annotation image data with teacher data.

本開示の一形態に係る情報処理方法は、さらに、前記正解アノテーション情報と前記アノテーション結果との差分を前記作業者に提示する。 The information processing method according to an aspect of the present disclosure further presents the operator with a difference between the correct annotation information and the annotation result.

これによれば、作業者は、正解アノテーション情報とアノテーション結果との差分から、自身のアノテーションスキルを感覚的に理解することができる。 According to this, the worker can sensuously understand his own annotation skill from the difference between the correct annotation information and the annotation result.

本開示の一形態に係る情報処理方法は、さらに、更新された前記アノテーションスキルを前記作業者に提示する。 The information processing method according to an aspect of the present disclosure further presents the worker with the updated annotation skill.

これによれば、作業者は、自身のアノテーションスキルの状態を把握することができる。例えば、アノテーションスキルが向上したか、変化していないか、低下したか、などを作業者に把握させることができる。それにより、アノテーションスキルが向上する行動を直接的又は間接的に作業者に促すことができる。 According to this, the worker can grasp the state of his own annotation skill. For example, it is possible to let the worker know whether the annotation skill has improved, whether it has not changed, or whether it has deteriorated. Accordingly, it is possible to directly or indirectly encourage the worker to take actions that improve the annotation skill.

なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition, these general or specific aspects may be realized by a system, method, integrated circuit, computer program, or a recording medium such as a computer-readable CD-ROM. and any combination of recording media.

以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 Hereinafter, embodiments will be specifically described with reference to the drawings. It should be noted that each of the embodiments described below is a specific example of the present disclosure. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in independent claims representing the highest concept will be described as arbitrary constituent elements.

なお、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付しており、重複する説明は省略又は簡略化する。 Each figure is a schematic diagram and is not necessarily strictly illustrated. Moreover, in each figure, the same code|symbol is attached|subjected to the substantially same structure, and the overlapping description is abbreviate|omitted or simplified.

以下、本開示の実施の形態に係る情報処理方法、及び情報処理システムについて説明する。 An information processing method and an information processing system according to embodiments of the present disclosure will be described below.

(実施の形態1)
[構成]
図1は、実施の形態1に係る情報処理システム1及び入出力部40を例示するブロック図である。図2は、実施の形態1に係る情報処理システム1における情報の伝達を例示する図である。
(Embodiment 1)
[composition]
FIG. 1 is a block diagram illustrating an information processing system 1 and an input/output unit 40 according to the first embodiment. FIG. 2 is a diagram illustrating transmission of information in the information processing system 1 according to the first embodiment.

図1及び図2に示すように、作業者(アノテータともいう)は、センシングデータに対して、機械学習のためのアノテーションを行う。例えば、センシングデータは画像データであり、作業者は、撮像装置で撮像された画像又はCG(Computer Graphics)合成された画像等(以下、アノテーション用画像という)に対して、アノテーション用画像に映る物体に関するアノテーション情報を付与する。情報処理システム1は、アノテーション用画像に付与されたアノテーション情報の正確性を評価する。情報処理システム1は、作業者がアノテーション情報を付与したアノテーション用画像に応じて作業者を評価(アノテーションスキルを決定)し、評価に応じたアノテーション用画像を作業者にアノテーション情報を付与する作業を行わせる。物体は、例えば人、動物、車両、設備等いかなるものでもよい。 As shown in FIGS. 1 and 2, an operator (also referred to as an annotator) annotates sensing data for machine learning. For example, the sensing data is image data, and an operator may select an image captured by an imaging device or an image synthesized by CG (computer graphics) (hereinafter referred to as an annotation image), and an object appearing in the annotation image. Adds annotation information about . The information processing system 1 evaluates the accuracy of annotation information added to annotation images. The information processing system 1 evaluates the worker (determines annotation skill) according to the annotation image to which the worker has attached the annotation information, and assigns the annotation image according to the evaluation to the worker. let it happen Objects may be, for example, people, animals, vehicles, equipment, or anything else.

ここで、アノテーションとは、アノテーション用画像に関連付けられた特定の物体に対し、関連するメタデータを注釈(ラベル)として付与することであり、テキストで記述される。また、アノテーション用画像とは、作業者の作業対象となる物体が映り込んだ画像であり、作業者が物体に対してアノテーション情報を付与するための画像である。 Annotation here means adding relevant metadata as annotations (labels) to a specific object associated with an annotation image, and is described in text. An annotation image is an image in which an object to be worked by a worker is reflected, and is an image for the worker to add annotation information to the object.

情報処理システム1には、作業者がアノテーション情報を付与するための入出力部40が接続されている。入出力部40は、例えば、パーソナルコンピュータであり、パーソナルコンピュータに表示されたブラウザ等の画面を介して、作業者による入力を受付ける。情報処理システム1は、第1処理部10と、第2処理部20と、第3処理部30とを備える。 The information processing system 1 is connected to an input/output unit 40 for an operator to add annotation information. The input/output unit 40 is, for example, a personal computer, and receives input from the operator via a screen such as a browser displayed on the personal computer. The information processing system 1 includes a first processing section 10 , a second processing section 20 and a third processing section 30 .

第1処理部10は、アノテーション用画像を示す情報、第1アノテーション情報、作業者のアノテーションスキルを示す情報を格納する記憶部11を有する。ここでいう第1アノテーション情報は、作業者がアノテーション情報を付与したアノテーション用画像つまりアノテーション済みの画像に対して、正しくアノテーションが付与されているかどうかを評価するための、模範となるアノテーション情報(正解データともいう)である。第1アノテーション情報は、正解アノテーション情報の一例である。 The first processing unit 10 has a storage unit 11 that stores information indicating an image for annotation, first annotation information, and information indicating an annotation skill of an operator. The first annotation information referred to here is exemplary annotation information (correct data). The first annotation information is an example of correct annotation information.

なお、第1処理部10は、アノテーションスキルに応じた物体が映っているアノテーション用画像が記憶部11に存在しない場合、アノテーションスキルに応じた物体が映るアノテーション用画像を生成する。このアノテーション用画像の生成は、特定された第2アノテーション情報に対応する物体が映る画像を別の画像と合成することを含む。 Note that, when an annotation image including an object corresponding to the annotation skill does not exist in the storage unit 11, the first processing unit 10 generates an annotation image including an object corresponding to the annotation skill. The generation of this annotation image includes synthesizing an image showing an object corresponding to the identified second annotation information with another image.

第1アノテーション情報の一例を図3Aを用いて説明する。図3Aは、実施の形態1に係る第1アノテーション情報を例示する図である。 An example of the first annotation information will be described with reference to FIG. 3A. 3A is a diagram illustrating first annotation information according to Embodiment 1. FIG.

図3Aに示すように、第1アノテーション情報は、物体(図3Aのクラスに相当する)が映り込んだアノテーション用画像において、物体が配置されているx、y座標上の位置、物体の大きさ、物体の形状、アノテーション情報の付与にかかる時間等の模範となるテキストデータである。第1アノテーション情報は、1つのアノテーション用画像において複数の物体が存在する場合、複数の物体に対応する各々のテキストデータを含む。 As shown in FIG. 3A, the first annotation information includes the position on the x and y coordinates where the object is arranged, the size of the object, and the size of the object in the annotation image in which the object (corresponding to the class in FIG. 3A) is captured. , the shape of an object, and the time required to add annotation information. When a plurality of objects exist in one annotation image, the first annotation information includes each text data corresponding to the plurality of objects.

アノテーションスキルを示す情報の一例を、図3Bを用いて説明する。図3Bは、実施の形態1に係るアノテーションスキルを例示する図である。 An example of information indicating annotation skills will be described with reference to FIG. 3B. 3B is a diagram illustrating annotation skills according to Embodiment 1. FIG.

図3Bに示すように、アノテーションスキルは、アノテーション情報の指定(付与)に関するスキル、つまり、作業者がアノテーション用画像にアノテーション情報を付与する作業において、各々の物体ごとの精度、選択肢の正解率、アノテーション情報の付与にかかる作業時間等を示す作業者のスキルである。アノテーションスキルは、例えば作業者がアノテーション用画像に対してアノテーション情報を付与する作業の正確性を評価した指標である。アノテーションスキルは、各々の物体ごとに決定されている。精度は、アノテーション用画像に含まれる物体に対してアノテーション情報を付与する位置、範囲(大きさ)、形等といった、アノテーション情報の正確性を意味する。 As shown in FIG. 3B, the annotation skill is a skill related to the designation (addition) of annotation information, that is, in the task of an operator adding annotation information to an annotation image, the accuracy of each object, the accuracy rate of options, It is the skill of the worker that indicates the work time required for adding annotation information. The annotation skill is, for example, an index that evaluates the accuracy of a worker's task of adding annotation information to an annotation image. An annotation skill is determined for each object. Accuracy means the accuracy of annotation information, such as the position, range (size), shape, etc., at which annotation information is assigned to an object included in an annotation image.

第1処理部10は、アノテーション情報を付与する作業者のアノテーションスキルを取得する。第1処理部10は、作業者のアノテーションスキルから特定された画像の特徴を有するアノテーション用画像を入出力部40に出力する。画像の特徴は、例えば画像に映り込んだ物体である。入出力部40は、アノテーション用画像を取得し、作業者にアノテーション情報を付与する作業させるために、アノテーション用画像を表示する。 The first processing unit 10 acquires the annotation skill of a worker who gives annotation information. The first processing unit 10 outputs to the input/output unit 40 an image for annotation having image features specified from the annotation skill of the operator. A feature of an image is, for example, an object reflected in the image. The input/output unit 40 acquires an image for annotation and displays the image for annotation in order to allow the operator to attach annotation information.

また、第1処理部10は、後述で説明する評価部33が評価した作業者のアノテーションスキルを示す情報を取得すると、作業者のアノテーションスキルを更新する。なお、第1処理部10は、他の装置で評価された作業者のアノテーションスキルを示す情報を、他の装置から取得してもよい。 Further, when acquiring information indicating the annotation skill of the worker evaluated by the evaluation unit 33 described later, the first processing unit 10 updates the annotation skill of the worker. Note that the first processing unit 10 may acquire information indicating the annotation skill of the worker evaluated by another device from another device.

第2処理部20は、第1取得部21と、付与部22とを有する。 The second processing unit 20 has a first acquisition unit 21 and a provision unit 22 .

第1取得部21は、作業者がアノテーション用画像に対してアノテーション情報を付与する入力を、入出力部40を介して取得する。 The first acquisition unit 21 acquires, through the input/output unit 40 , an input for adding annotation information to the annotation image by the operator.

付与部22は、第1取得部21を介して、第1取得部21が取得したアノテーション用画像に対してアノテーション情報を付与する入力に応じて、アノテーション用画像に対してアノテーション情報を付与したアノテーション済みの画像と、後述する第2アノテーション情報とを生成する。第2アノテーション情報は、作業者がアノテーション用画像に付与したアノテーション情報であり、アノテーション済みの画像に対応したテキストデータである。第2アノテーション情報は、アノテーション情報の指定(付与)にかけた時間をも含む。付与部22は、生成したアノテーション済みの画像を示す情報と第2アノテーション情報とを第3処理部30に出力する。第2アノテーション情報はアノテーション結果の一例である。 The adding unit 22 adds annotation information to the annotation image in response to an input for adding annotation information to the annotation image acquired by the first acquiring unit 21 via the first acquiring unit 21 . A completed image and second annotation information, which will be described later, are generated. The second annotation information is annotation information added to the annotation image by the operator, and is text data corresponding to the annotated image. The second annotation information also includes the time taken to designate (assign) the annotation information. The adding unit 22 outputs the generated information indicating the annotated image and the second annotation information to the third processing unit 30 . The second annotation information is an example of annotation results.

第2アノテーション情報について図3Cを用いて説明する。図3Cは、実施の形態1に係る第2アノテーション情報を例示する図である。 The second annotation information will be explained using FIG. 3C. 3C is a diagram illustrating second annotation information according to Embodiment 1. FIG.

図3Cに示すように、第2アノテーション情報は、アノテーション用画像に対して、作業者が入力した物体の、x、y座標上の位置、大きさ、形状、アノテーション情報の付与にかかる時間等のテキストデータである。第2アノテーション情報は、1つのアノテーション用画像において複数の物体が存在する場合、複数の物体に対応する各々のテキストデータである。 As shown in FIG. 3C, the second annotation information includes the position, size, and shape of the object input by the operator on the x and y coordinates, the time required to add the annotation information, etc. to the image for annotation. It is text data. The second annotation information is each text data corresponding to a plurality of objects when a plurality of objects exist in one annotation image.

第3処理部30は、第2取得部32と、評価部33とを有する。 The third processing unit 30 has a second acquisition unit 32 and an evaluation unit 33 .

第2取得部32は、第2処理部20からアノテーション済みの画像と第2アノテーション情報とを取得し、第2アノテーション情報を評価部33に出力する。また、第2取得部32は、第1処理部10の記憶部11から、第2アノテーション情報と比較するべき第1アノテーション情報を取得し、取得した第1アノテーション情報を評価部33に出力する。 The second acquisition unit 32 acquires the annotated image and the second annotation information from the second processing unit 20 and outputs the second annotation information to the evaluation unit 33 . The second acquisition unit 32 also acquires first annotation information to be compared with the second annotation information from the storage unit 11 of the first processing unit 10 and outputs the acquired first annotation information to the evaluation unit 33 .

評価部33は、第2アノテーション情報を評価する。具体的には、評価部33は、図3Cの第2アノテーション情報における、物体の位置、大きさ、形状等と、図3Aの第1アノテーション情報における、物体の位置、大きさ、形状等とを比較し、それぞれの差分(類似度)を算出する。評価部33は、算出した差分に基づいて、作業者のアノテーションスキルを示す情報を生成する。評価部33は、生成した新しいアノテーションスキルを示す情報を第1処理部10に出力する。第1処理部10の記憶部11に格納されているアノテーションスキルを示す情報は自動更新される。 The evaluation unit 33 evaluates the second annotation information. Specifically, the evaluation unit 33 determines the position, size, shape, etc. of the object in the second annotation information of FIG. 3C and the position, size, shape, etc. of the object in the first annotation information of FIG. 3A. Compare and calculate each difference (similarity). The evaluation unit 33 generates information indicating the annotation skill of the worker based on the calculated difference. The evaluation unit 33 outputs information indicating the generated new annotation skill to the first processing unit 10 . Information indicating annotation skills stored in the storage unit 11 of the first processing unit 10 is automatically updated.

なお、評価部33が算出した差分(類似度)が規定の閾値以上であれば、精度の良いアノテーション済みの画像といえるため、完成品としてアノテーション済みの画像及び第2アノテーション情報を外部装置に送信してもよい。 If the difference (similarity) calculated by the evaluation unit 33 is equal to or greater than a prescribed threshold value, it can be said that the image has been annotated with good accuracy. You may

[動作]
次に、本実施の形態における情報処理システム1の動作について、図4を用いて説明する。
[motion]
Next, the operation of the information processing system 1 according to this embodiment will be described with reference to FIG.

図4は、実施の形態1に係る情報処理システム1の動作を例示する図である。 FIG. 4 is a diagram illustrating the operation of the information processing system 1 according to the first embodiment.

この情報処理システム1では、作業者のアノテーションスキルが予め第1処理部10の記憶部11に格納されている場合を想定する。また、作業者は、入出力部40を介して、アノテーション用画像に対してアノテーション情報を付与する作業を行う。 In this information processing system 1, it is assumed that the annotation skill of the worker is stored in advance in the storage unit 11 of the first processing unit 10. FIG. Also, the operator performs a task of adding annotation information to the annotation image via the input/output unit 40 .

図4に示すように、まず、第1処理部10は、作業者のアノテーションスキルを記憶部11から取得する(S11)。 As shown in FIG. 4, first, the first processing unit 10 acquires the annotation skill of the worker from the storage unit 11 (S11).

次に、第1処理部10は、取得したアノテーションスキルから特定される画像の特徴を有するアノテーション用画像を出力する(S12)。具体的には、第1処理部10は、アノテーションスキルに応じた物体が映るアノテーション用画像を記憶部11から検索する。第1処理部10は、アノテーションスキルに応じた物体が映るアノテーション用画像が存在する場合、このアノテーション用画像を選択する。また、記憶部11にアノテーションスキルに応じた物体が映るアノテーション用画像が存在しない場合、第1処理部10は、アノテーションスキルに応じた物体が映るアノテーション用画像を生成する。第1処理部10は、選択又は生成したアノテーション用画像を入出力部40に出力する。 Next, the first processing unit 10 outputs an image for annotation having image features specified from the acquired annotation skill (S12). Specifically, the first processing unit 10 searches the storage unit 11 for an annotation image showing an object corresponding to the annotation skill. The first processing unit 10 selects the annotation image when there is an annotation image showing an object corresponding to the annotation skill. Further, when the storage unit 11 does not have an annotation image including an object corresponding to the annotation skill, the first processing unit 10 generates an annotation image including an object corresponding to the annotation skill. The first processing unit 10 outputs the selected or generated annotation image to the input/output unit 40 .

次に、作業者は、入出力部40に表示されたアノテーション用画像を介して、アノテーション情報を入力する。ここでアノテーション用画像にアノテーション情報を付与する作業の一例を、図5を用いて説明する。図5は、アノテーション用画像にアノテーション情報を付与する作業を例示する図である。 Next, the operator inputs annotation information via the annotation image displayed on the input/output unit 40 . Here, an example of work for adding annotation information to an annotation image will be described with reference to FIG. FIG. 5 is a diagram exemplifying the work of adding annotation information to an annotation image.

例えば入出力部40には、
(1)「手を上げている」又は「手を下げている」
(2)「足を開いている」又は「足を閉じている」
という互いに背反しかつ独立する選択肢を表示する。作業者は、この選択肢のいずれかを選択することで作業を行う。
For example, in the input/output unit 40,
(1) "hands up" or "hands down"
(2) "legs open" or "legs closed"
Display mutually contradictory and independent options. The worker selects one of these options to perform work.

また、作業者は、入出力部40を介して、アノテーション用画像における物体(図では人物)の位置にアノテーション情報を付与するために、アノテーション用画像に映っている人物の範囲を設定する。また、人物の頭の位置を点として設定し、人物の手足等の骨格を線として設定する。 Also, the operator sets the range of the person appearing in the annotation image via the input/output unit 40 in order to add annotation information to the position of the object (the person in the figure) in the annotation image. Also, the position of the person's head is set as a point, and the skeleton of the person's limbs, etc. is set as a line.

図4に示すように、入出力部40は、作業者により受付けた入力を第2処理部20に出力する。第2処理部20の第1取得部21は、作業者がアノテーション用画像に対してアノテーション情報を付与するための入力を取得すると、第2処理部20の付与部22は、アノテーション用画像に対してアノテーション情報を付与し、アノテーション済みの画像と第2アノテーション情報とを生成する。そして、第2処理部20は、アノテーション済みの画像と第2アノテーション情報とを第3処理部30に出力する(S13)。 As shown in FIG. 4 , the input/output unit 40 outputs the input received by the operator to the second processing unit 20 . When the first acquisition unit 21 of the second processing unit 20 acquires an input for adding annotation information to the annotation image by the operator, the addition unit 22 of the second processing unit 20 acquires the annotation information for the annotation image. Annotation information is added to the image to generate an annotated image and second annotation information. Then, the second processing unit 20 outputs the annotated image and the second annotation information to the third processing unit 30 (S13).

次に、第3処理部30の第2取得部32は、第2処理部20から第2アノテーション情報と、第1処理部10の記憶部11から第1アノテーション情報とを取得し、第2アノテーション情報と第1アノテーション情報とを評価部33に出力する。評価部33は、図3Cの第2アノテーション情報における、物体の位置、大きさ、形状等と、図3Bの第1アノテーション情報における、物体の位置、大きさ、形状等とを比較し、それぞれの差分(類似度)を算出する。この差分は、第2アノテーション情報における、それぞれの物体ごとに行う。評価部33は、算出したそれぞれの差分に基づいて、作業者のアノテーションスキルを示す情報を生成する。評価部33は、作業者のアノテーションスキルを示す情報を第1処理部10に出力し、第1処理部10の記憶部11に格納されているアノテーションスキルを示す情報を更新させる(S14)。 Next, the second acquisition unit 32 of the third processing unit 30 acquires the second annotation information from the second processing unit 20 and the first annotation information from the storage unit 11 of the first processing unit 10, and acquires the second annotation. The information and the first annotation information are output to the evaluation unit 33 . The evaluation unit 33 compares the position, size, shape, etc. of the object in the second annotation information of FIG. 3C with the position, size, shape, etc. of the object in the first annotation information of FIG. A difference (similarity) is calculated. This difference is performed for each object in the second annotation information. The evaluation unit 33 generates information indicating the annotation skill of the worker based on each calculated difference. The evaluation unit 33 outputs information indicating the annotation skill of the worker to the first processing unit 10, and updates the information indicating the annotation skill stored in the storage unit 11 of the first processing unit 10 (S14).

評価部33は、作業者がアノテーション用画像にアノテーション情報を付与する作業において、作業者が苦手とする所定の物体(作業)が存在するかどうかを判断する(S15)。具体的には、評価部33は、作業者のアノテーションスキルを示す情報において、このアノテーションスキルが所定閾値未満となるスキルが存在するかどうかを特定する。 The evaluation unit 33 determines whether there is a predetermined object (work) that the worker is not good at in the work of adding annotation information to the annotation image (S15). Specifically, the evaluation unit 33 identifies whether or not there is a skill whose annotation skill is less than a predetermined threshold in the information indicating the annotation skill of the worker.

アノテーションスキルが所定閾値未満となるスキルが存在しない場合(S15でNO)、作業者が苦手とする作業が存在しないため、情報処理システム1は、ステップS11に戻す。 If there is no skill whose annotation skill is less than the predetermined threshold value (NO in S15), the information processing system 1 returns to step S11 because there is no work that the worker is not good at.

一方、アノテーションスキルが所定閾値以上となるスキルが存在する場合(S15でYES)、作業者が苦手とする作業が存在するため、評価部33は、所定閾値以上となるアノテーションスキルを表した評価結果を示す情報を生成し、評価結果を示す情報を作業者に提示する(S16)。つまり、評価部33は、入出力部40又はパーソナルコンピュータ等の外部表示装置に評価結果を示す情報を出力する。 On the other hand, if there is a skill whose annotation skill is equal to or higher than the predetermined threshold (YES in S15), there is work that the worker is not good at. is generated, and information indicating the evaluation result is presented to the operator (S16). That is, the evaluation unit 33 outputs information indicating the evaluation result to the input/output unit 40 or an external display device such as a personal computer.

ここで作業者に提示する評価結果について例示する。 Here, an example of the evaluation result presented to the worker will be given.

第3処理部30は、模範となるアノテーションされた画像、模範となる選択肢等と、作業者が作業したアノテーション済みの画像、作業者が選択した選択肢等とを提示する。また、第3処理部30は、作業者が作業したアノテーションと模範となるアノテーションとの差分(違い)を提示する。この差分は、アノテーション用画像に含まれる複数の物体全体を評価した統計指標、物体ごとに評価した個別指標、目標を達成した場合に評価する絶対指標、及び複数の物体での相対的な相対指標で示される。第3処理部30は、上述の指標に基づいて、作業者が得意とする作業、又は苦手とする作業を提示する。 The third processing unit 30 presents an annotated image serving as a model, options serving as a model, etc., an annotated image worked by the worker, options selected by the worker, and the like. In addition, the third processing unit 30 presents the difference (difference) between the annotation worked by the worker and the model annotation. This difference is a statistical index that evaluates the entire objects included in the annotation image, an individual index that evaluates each object, an absolute index that evaluates when the goal is achieved, and a relative index for multiple objects. is indicated by The third processing unit 30 presents the work that the worker is good at or the work that the worker is not good at, based on the index described above.

また、第3処理部30は、アノテーション用画像に映る各々の物体の対する各々の作業時間、他の作業者とのアノテーションスキルの比較、作業者におけるアノテーションスキルの履歴、複数の作業者におけるランキング、作業者の作業単価、作業者に応じた練習問題等を提示する。 In addition, the third processing unit 30 calculates the work time for each object reflected in the annotation image, comparison of annotation skills with other workers, annotation skill history of workers, ranking among a plurality of workers, It presents the work unit price of the worker, practice problems according to the worker, and the like.

そして、情報処理システム1は、この処理を終了させ、フローを最初に戻す。 The information processing system 1 then terminates this process and returns the flow to the beginning.

[効果等]
このように、この情報処理システム1では、作業者のアノテーションスキルに応じたアノテーション用画像を含むアノテーション用画像が決定される。これにより、作業者の個人特性に応じたアノテーションの訓練が可能となる。例えば、作業者が苦手な画像がアノテーション用画像として決定される。
[Effects, etc.]
Thus, in the information processing system 1, annotation images including annotation images corresponding to the annotation skill of the operator are determined. This makes it possible to train annotations according to the individual characteristics of workers. For example, an image that the operator is not good at is determined as an annotation image.

また、評価部33は、第1処理部10の記憶部11に格納されている作業者のアノテーションスキルを更新させる。このため、作業者の新しい(更新された)アノテーションスキルに応じた画像を含むアノテーション用画像が決定することができる。これにより、作業者は、自身のアノテーションスキルに応じた、アノテーション用画像に対してアノテーション情報を付与する訓練を行うことで、継続的なアノテーションスキルの向上が可能となる。このため、作業者のアノテーションスキルを個人特性に応じて効率的に向上させることができる。 The evaluation unit 33 also updates the annotation skill of the worker stored in the storage unit 11 of the first processing unit 10 . Therefore, it is possible to determine an image for annotation including an image corresponding to the new (updated) annotation skill of the operator. As a result, the operator can continuously improve his or her annotation skills by performing training for adding annotation information to images for annotation according to his or her own annotation skills. Therefore, the annotation skill of the worker can be efficiently improved according to the individual characteristics.

(実施の形態2)
[構成]
本実施の形態の情報処理方法、及び情報処理システム200の構成は、特に明記しない場合は、実施の形態1と同様であり、同一の構成については同一の符号を付して構成に関する詳細な説明を省略する。
(Embodiment 2)
[composition]
The information processing method of the present embodiment and the configuration of the information processing system 200 are the same as those of the first embodiment unless otherwise specified, and the same reference numerals are assigned to the same configurations, and detailed description of the configuration will be given. omitted.

図6は、実施の形態2に係る情報処理システム200及び入出力部40を例示するブロック図である。図7は、実施の形態2に係る情報処理システム200における情報の伝達を例示する図である。 FIG. 6 is a block diagram illustrating the information processing system 200 and the input/output unit 40 according to the second embodiment. FIG. 7 is a diagram illustrating transmission of information in the information processing system 200 according to the second embodiment.

図6及び図7に示すように、本実施の形態における情報処理システム200は、作業者に提示する複数のアノテーション用画像の中に、作業者のアノテーションスキルを評価するための評価用画像を混合する。情報処理システム200は、作業者が作業を行う上で、自身のアノテーションスキルを評価するための画像と気づかれないように、アノテーション用画像と同等に見える態様で、評価用画像を複数のアノテーション用画像に混合する。これにより、情報処理システム200は、複数のアノテーション用画像と評価用画像とを作業者に提示することができる。 As shown in FIGS. 6 and 7, the information processing system 200 according to the present embodiment mixes an evaluation image for evaluating the annotation skill of the worker with a plurality of annotation images presented to the worker. do. The information processing system 200 generates a plurality of annotation images in a manner that looks the same as the annotation image so that the worker does not notice that the image is for evaluating his or her own annotation skills. Blend into the image. Accordingly, the information processing system 200 can present a plurality of annotation images and evaluation images to the operator.

情報処理システム200は、第1処理部10、第2処理部20、及び第3処理部30の他に、第1画像選択部210、第2画像選択部220、及び管理部230をさらに備える。 The information processing system 200 further includes a first image selection section 210 , a second image selection section 220 and a management section 230 in addition to the first processing section 10 , the second processing section 20 and the third processing section 30 .

第1処理部10は、評価用画像を示す情報、及び、第1アノテーション情報を格納する記憶部11を有する。第1処理部10は、管理部230から作業者のアノテーションスキルを示す情報を取得すると、アノテーションスキルに応じた評価用画像を取得する。例えば、第1処理部10は、第1画像選択部210が作業者に提示するアノテーション用画像と同等に見えるように(アノテーション用画像と異なる評価用画像であることを作業者に気づかれないように)、作業者に提示すべき評価用画像を加工する。また、第1処理部10は、評価用画像が記憶部11に存在しない場合、作業者に提示すべき評価用画像を新たに生成したり、アノテーション用画像を評価用画像として加工したりする。このようにして、第1処理部10は、評価用画像を取得する。 The first processing unit 10 has a storage unit 11 that stores information indicating evaluation images and first annotation information. When the first processing unit 10 acquires the information indicating the annotation skill of the worker from the management unit 230, the first processing unit 10 acquires an evaluation image corresponding to the annotation skill. For example, the first processing unit 10 can be configured to look the same as the annotation image presented to the worker by the first image selection unit 210 (so that the worker does not notice that the evaluation image is different from the annotation image). 2), to process the evaluation image to be presented to the operator. Further, when the evaluation image does not exist in the storage unit 11, the first processing unit 10 newly generates an evaluation image to be presented to the operator or processes the annotation image as an evaluation image. Thus, the first processing unit 10 acquires the evaluation image.

第1画像選択部210は、作業者にアノテーション情報を付与する作業を行わせる複数のアノテーション用画像を保持する。第1画像選択部210は、アノテーション用画像を格納する記憶部221を有する。第1画像選択部210は、管理部230から作業者のアノテーションスキルを取得し、アノテーションスキルに応じたアノテーション用画像を決定する。第1画像選択部210は、第1処理部10から評価用画像を取得し、複数のアノテーション用画像に取得した評価用画像を混合して、評価用画像と複数のアノテーション用画像とを入出力部40に出力する。 The first image selection unit 210 holds a plurality of images for annotation that allow the operator to perform the task of adding annotation information. The first image selection unit 210 has a storage unit 221 that stores annotation images. The first image selection unit 210 acquires the annotation skill of the operator from the management unit 230 and determines an annotation image according to the annotation skill. The first image selection unit 210 acquires an evaluation image from the first processing unit 10, mixes the acquired evaluation image with a plurality of annotation images, and inputs/outputs the evaluation image and the plurality of annotation images. Output to unit 40 .

第2画像選択部220は、入出力部40を介して第2処理部20で生成されたアノテーション済みの画像を示す情報と第2アノテーション情報とを取得する。第2画像選択部220は、アノテーション済みの画像を示す情報及び第2アノテーション情報の中から、評価用画像として作業された、評価用のアノテーション済みの画像を示す情報と、評価用の第2アノテーション情報とを第3処理部30に出力する。 The second image selection unit 220 acquires information indicating an annotated image generated by the second processing unit 20 and second annotation information via the input/output unit 40 . The second image selection unit 220 selects, from information indicating annotated images and second annotation information, information indicating an annotated image for evaluation that has been worked as an image for evaluation, and the second annotation for evaluation. information to the third processing unit 30 .

第3処理部30の評価部33は、評価用の第2アノテーション情報と第1アノテーション情報とを評価する。評価部33は、作業者のアノテーションスキルを示す情報を生成し、管理部230に出力する。 The evaluation unit 33 of the third processing unit 30 evaluates the second annotation information and the first annotation information for evaluation. The evaluation unit 33 generates information indicating the annotation skill of the worker and outputs the information to the management unit 230 .

なお、第2画像選択部220は、評価用以外のアノテーション済みの画像を示す情報と第2アノテーション情報とを完成品として外部装置に送信してもよい。 Note that the second image selection unit 220 may transmit information indicating annotated images other than those for evaluation and the second annotation information to the external device as a finished product.

管理部230は、アノテーションスキルを示す情報を格納する記憶部231を備え、作業者のアノテーションスキルを管理している。管理部230は、作業者のアノテーションスキルを取得すると、記憶部231に格納されているアノテーションスキルを更新する。 The management unit 230 includes a storage unit 231 that stores information indicating annotation skills, and manages annotation skills of workers. When acquiring the annotation skill of the worker, the management unit 230 updates the annotation skill stored in the storage unit 231 .

また、管理部230は、アノテーションスキルに応じて作業者を選択する。例えば全体的にアノテーションスキルが低い作業者を選択して、この作業者にアノテーション用画像に対してアノテーション情報を付与する作業を積極的に行わせたりしてもよい。 Also, the management unit 230 selects a worker according to the annotation skill. For example, a worker with low annotation skill as a whole may be selected, and the worker may be made to actively add annotation information to the annotation image.

[動作]
次に、本実施の形態における情報処理システム200の動作について説明する。
[motion]
Next, the operation of the information processing system 200 according to this embodiment will be described.

図8は、実施の形態2に係る情報処理システム200の動作を例示する図である。 FIG. 8 is a diagram illustrating the operation of the information processing system 200 according to the second embodiment.

この情報処理システム200では、作業者のアノテーションスキルが予め管理部230に格納されている場合を想定する。 In this information processing system 200, it is assumed that the operator's annotation skill is stored in the management unit 230 in advance.

図8に示すように、まず、第1処理部10は、作業者のアノテーションスキルを管理部230から取得する(S21)。 As shown in FIG. 8, first, the first processing unit 10 acquires the annotation skill of the worker from the management unit 230 (S21).

次に、第1処理部10は、取得したアノテーションスキルに応じた評価用画像を出力する(S22)。具体的には、第1処理部10は、アノテーションスキルに応じた物体が映るアノテーション用画像を記憶部11から検索する。第1処理部10は、アノテーションスキルに応じた物体が映る評価用画像が存在する場合、この評価用画像を選択する。また、記憶部11にアノテーションスキルに応じた物体が映る評価用画像が存在しない場合、第1処理部10は、アノテーションスキルに応じた物体が映る評価用画像を生成したり、第1画像選択部210から取得したアノテーション用画像に基づいて、作業者に評価用画像と気づかれないように、作業者に提示すべきアノテーション用画像を評価用画像に加工したりする。第1処理部10は、選択、生成又は加工した評価用画像を示す情報を第1画像選択部210に出力する。 Next, the first processing unit 10 outputs an evaluation image corresponding to the acquired annotation skill (S22). Specifically, the first processing unit 10 searches the storage unit 11 for an annotation image showing an object corresponding to the annotation skill. The first processing unit 10 selects this evaluation image when there is an evaluation image showing an object corresponding to the annotation skill. In addition, when the storage unit 11 does not have an evaluation image showing an object corresponding to the annotation skill, the first processing unit 10 generates an evaluation image showing an object corresponding to the annotation skill, or generates an evaluation image showing an object corresponding to the annotation skill. Based on the annotation image acquired from 210, the annotation image to be presented to the operator is processed into an evaluation image so that the operator does not recognize it as an evaluation image. The first processing unit 10 outputs information indicating the selected, generated or processed evaluation image to the first image selection unit 210 .

第1画像選択部210は、第1処理部10を介して管理部230から作業者のアノテーションスキルを取得し、アノテーションスキルに応じたアノテーション用画像を選択する。第1画像選択部210は、第1処理部10から評価用画像を取得し、複数のアノテーション用画像に取得した評価用画像を混合して、評価用画像と複数のアノテーション用画像とを入出力部40に出力する(S23)。 The first image selection unit 210 acquires the annotation skill of the operator from the management unit 230 via the first processing unit 10, and selects an image for annotation according to the annotation skill. The first image selection unit 210 acquires an evaluation image from the first processing unit 10, mixes the acquired evaluation image with a plurality of annotation images, and inputs/outputs the evaluation image and the plurality of annotation images. Output to the unit 40 (S23).

入出力部40は、作業者により受付けた入力を第2処理部20に出力する。第2処理部20は、アノテーション用画像に対して、作業者がアノテーション情報を付与した、アノテーション済みの画像と第2アノテーション情報とを生成する。そして、第2処理部20は、アノテーション済みの画像と第2アノテーション情報とを第2画像選択部220に出力する(S24)。 The input/output unit 40 outputs the input received by the operator to the second processing unit 20 . The second processing unit 20 generates an annotated image and second annotation information to which an operator has added annotation information to the annotation image. The second processing unit 20 then outputs the annotated image and the second annotation information to the second image selection unit 220 (S24).

第2画像選択部220は、アノテーション済みの画像を示す情報及び第2アノテーション情報を取得する。第2画像選択部220は、アノテーション済みの画像を示す情報及び第2アノテーション情報の中から、評価用画像として作業された、評価用のアノテーション済みの画像を示す情報と、評価用の第2アノテーション情報とを第3処理部30に出力する(S25)。 The second image selection unit 220 acquires information indicating annotated images and second annotation information. The second image selection unit 220 selects, from information indicating annotated images and second annotation information, information indicating an annotated image for evaluation that has been worked as an image for evaluation, and the second annotation for evaluation. information to the third processing unit 30 (S25).

次に、第3処理部30は、評価用のアノテーション済みの画像を示す情報と、評価用の第2アノテーション情報とを取得すると、第3処理部30の評価部33は、評価用の第2アノテーション情報と第1アノテーション情報とを評価する。つまり、評価部33は、評価用の第2アノテーション情報と評価用の第1アノテーション情報との差分に基づいて、作業者のアノテーションスキルを示す情報を生成する。評価部33は、作業者のアノテーションスキルを示す情報を第1処理部10に出力し、第1処理部10の記憶部11に格納されているアノテーションスキルを示す情報を更新させる(S26)。つまり、評価部33は、作業者がアノテーション用画像にアノテーション情報を付与する作業において、作業者が苦手とする所定の物体(作業)が存在するかどうかを判断する(S27)。具体的には、評価部33は、作業者のアノテーションスキルを示す情報において、このアノテーションスキルが所定閾値未満となるスキルが存在するかどうかを特定する。 Next, when the third processing unit 30 acquires the information indicating the annotated image for evaluation and the second annotation information for evaluation, the evaluation unit 33 of the third processing unit 30 obtains the second annotation information for evaluation. Evaluate the annotation information and the first annotation information. That is, the evaluation unit 33 generates information indicating the annotation skill of the worker based on the difference between the second annotation information for evaluation and the first annotation information for evaluation. The evaluation unit 33 outputs information indicating the annotation skill of the worker to the first processing unit 10, and updates the information indicating the annotation skill stored in the storage unit 11 of the first processing unit 10 (S26). That is, the evaluation unit 33 determines whether there is a predetermined object (work) that the worker is not good at in the work of adding annotation information to the annotation image (S27). Specifically, the evaluation unit 33 identifies whether or not there is a skill whose annotation skill is less than a predetermined threshold in the information indicating the annotation skill of the worker.

アノテーションスキルが所定閾値未満となるスキルが存在しない場合(S27でNO)、作業者が苦手とする作業が存在しないため、情報処理システム200は、ステップS21に戻す。 If there is no skill whose annotation skill is less than the predetermined threshold (NO in S27), there is no work that the worker is not good at, so the information processing system 200 returns to step S21.

一方、アノテーションスキルが所定閾値以上となるスキルが存在する場合(S27でYES)、作業者が苦手とする作業が存在するため、評価部33は、所定閾値以上となるアノテーションスキルを表した評価結果を示す情報を生成し、評価結果を示す情報を作業者に提示する(S28)。 On the other hand, if there is a skill whose annotation skill is equal to or higher than the predetermined threshold (YES in S27), there is work that the worker is not good at. is generated, and information indicating the evaluation result is presented to the operator (S28).

評価部33は、アノテーションスキルを示す情報を管理部230に出力し、管理部230は、作業者のアノテーションスキルを示す情報を取得すると、記憶部231に格納されているアノテーションスキルを更新する。そして、情報処理システム200は、この処理を終了させ、フローを最初に戻す。 The evaluation unit 33 outputs information indicating the annotation skill to the management unit 230 , and the management unit 230 updates the annotation skill stored in the storage unit 231 when acquiring the information indicating the annotation skill of the worker. The information processing system 200 then terminates this process and returns the flow to the beginning.

[効果等]
このように、この情報処理システム200では、評価用画像が、アノテーション用画像と異なる評価用画像であると気づかれないように、評価用画像を加工又は選択したりする。情報処理システム200は、この評価用画像を複数のアノテーション用画像に混合し、作業者に提示する。このため、作業者は、評価用画像が含まれていることを気づき難くなるため、作業者のアノテーションスキルを評価することができるようになる。
[Effects, etc.]
In this manner, in the information processing system 200, the evaluation image is processed or selected so as not to be noticed that the evaluation image is different from the annotation image. The information processing system 200 mixes this evaluation image with a plurality of annotation images and presents them to the operator. For this reason, the worker is less likely to notice that the evaluation image is included, so that the worker's annotation skill can be evaluated.

本実施の形態における他の作用効果は、実施の形態1と同様の作用効果を奏する。 Other effects in this embodiment are the same as those in the first embodiment.

(その他変形例)
以上、本開示の実施の形態1、2に係る情報処理方法、及び情報処理システムについて説明したが、本開示の実施の形態は上述の実施の形態1、2に限定されるものではない。
(Other modifications)
Although the information processing method and the information processing system according to the first and second embodiments of the present disclosure have been described above, the embodiments of the present disclosure are not limited to the first and second embodiments described above.

例えば、上記実施の形態では、アノテーション対象のセンシングデータが画像データである例を説明したが、当該センシングデータはこれに限られない。アノテーション対象のセンシングデータは、距離センサから得られる距離データ、マイクロフォンから得られる音データ、LIDAR(Light Detection and Ranging)などのレーダから得られる点群データ、香りセンサから得られる香りデータなどの他のセンシングデータであってもよい。 For example, in the above embodiments, an example in which sensing data to be annotated is image data has been described, but the sensing data is not limited to this. Sensing data to be annotated includes distance data obtained from a distance sensor, sound data obtained from a microphone, point cloud data obtained from radar such as LIDAR (Light Detection and Ranging), and scent data obtained from a scent sensor. It may be sensing data.

また、例えば、上記実施の形態に係る情報処理方法をコンピュータに実行させるプログラム、プログラムを記憶する記憶媒体として実現することもできる。 Further, for example, the information processing method according to the above embodiments can be implemented as a program for causing a computer to execute, or as a storage medium for storing the program.

また、上記実施の形態に係る情報処理システムに含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。 Each processing unit included in the information processing system according to the above embodiment is typically implemented as an LSI, which is an integrated circuit. These may be made into one chip individually, or may be made into one chip so as to include part or all of them.

また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, circuit integration is not limited to LSIs, and may be realized by dedicated circuits or general-purpose processors. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connections and settings of circuit cells inside the LSI may be used.

なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 In each of the above-described embodiments, each component may be configured by dedicated hardware, or realized by executing a software program suitable for each component. Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor.

また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示の実施の形態は例示された数字に制限されない。 In addition, the numbers used above are all examples for specifically describing the present disclosure, and the embodiments of the present disclosure are not limited to the illustrated numbers.

また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。 Also, the division of functional blocks in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be moved to other functional blocks. may Moreover, single hardware or software may process the functions of a plurality of functional blocks having similar functions in parallel or in a time-sharing manner.

また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 Also, the order in which each step in the flowchart is executed is for illustrative purposes in order to specifically describe the present disclosure, and orders other than the above may be used. Also, some of the above steps may be executed concurrently (in parallel) with other steps.

以上、一つ又は複数の態様に係る情報処理方法、及び情報処理システムについて、実施の形態1、2に基づいて説明したが、本開示の実施の形態1、2は当該複数の態様に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態1、2に施したもの、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つ又は複数の態様の範囲内に含まれてもよい。 The information processing method and the information processing system according to one or more aspects have been described above based on Embodiments 1 and 2, but Embodiments 1 and 2 of the present disclosure are limited to these aspects. not something. As long as it does not deviate from the spirit of the present disclosure, the embodiments 1 and 2 with various modifications that a person skilled in the art can think of, and the embodiment constructed by combining the components of different embodiments are also one or more aspects may be included within the range of

本開示は、センシングデータにアノテーション情報を付与するスキルを把握するための評価システム、センシングデータにアノテーション情報を付与するスキルを向上させるための訓練システム等に適用できる。 INDUSTRIAL APPLICABILITY The present disclosure can be applied to an evaluation system for understanding skills for adding annotation information to sensing data, a training system for improving skills for adding annotation information to sensing data, and the like.

1、200 情報処理システム
10 第1処理部(処理部)
21 第1取得部
32 第2取得部
1, 200 information processing system 10 first processing unit (processing unit)
21 first acquisition unit 32 second acquisition unit

Claims (10)

コンピュータが、
画像に映る物体に対して作業者がアノテーション情報を付与する作業の正確性を評価した指標であるアノテーションスキルに関連する情報を取得し、
前記アノテーションスキルに関連する情報から特定される前記物体が映るアノテーション用画像を取得し、
前記作業者による前記アノテーション用画像に対するアノテーション結果を取得し、
前記アノテーション用画像に映る前記物体に対応する正解アノテーション情報及び前記アノテーション結果を用いて前記アノテーションスキルに関連する情報を更新する
情報処理方法。
the computer
Acquire information related to annotation skill , which is an index that evaluates the accuracy of the work of annotating the object in the image by the worker ,
obtaining an annotation image showing the object specified from the information related to the annotation skill;
obtaining an annotation result for the annotation image by the worker;
An information processing method, wherein information related to the annotation skill is updated using correct annotation information corresponding to the object appearing in the annotation image and the annotation result.
前記アノテーション情報の付与は、アノテーションの位置の指定、大きさの指定、及び形状の指定の少なくとも1つを含む
請求項に記載の情報処理方法。
2. The information processing method according to claim 1 , wherein the addition of the annotation information includes at least one of annotation position specification, size specification, and shape specification.
前記アノテーション情報の付与は、アノテーションのラベルの指定を含む
請求項に記載の情報処理方法。
The information processing method according to claim 1 , wherein the addition of the annotation information includes specification of a label for the annotation.
前記アノテーション結果は、前記アノテーション情報の付与にかけた時間を含み、
前記アノテーションスキルに関連する情報は、前記アノテーション情報の付与にかかる時間を含む
請求項1~のいずれか1項に記載の情報処理方法。
The annotation result includes the time taken to add the annotation information,
4. The information processing method according to any one of claims 1 to 3 , wherein the information related to the annotation skill includes the time required for adding the annotation information.
前記アノテーション用画像、及び前記正解アノテーション情報は、前記コンピュータの記憶部に複数記憶されており、
複数の前記アノテーション用画像の中から、前記正解アノテーション情報に対応する前記物体が映る1のアノテーション用画像を前記アノテーション用画像として選択することにより、前記アノテーション用画像を取得する
請求項1に記載の情報処理方法。
A plurality of the annotation images and the correct annotation information are stored in a storage unit of the computer,
2. The annotation image according to claim 1, wherein the annotation image is obtained by selecting, as the annotation image, one annotation image in which the object corresponding to the correct annotation information is shown, from among the plurality of annotation images. Information processing methods.
前記正解アノテーション情報に対応する前記物体が映るアノテーション用画像を生成することにより前記アノテーション用画像を取得する
請求項1に記載の情報処理方法。
The information processing method according to claim 1, wherein the image for annotation is acquired by generating an image for annotation in which the object corresponding to the correct annotation information is shown.
前記アノテーション用画像、及び前記正解アノテーション情報は、前記コンピュータの記憶部に複数記憶されており、
前記アノテーション用画像の生成は、複数の前記アノテーション用画像のうち、前記正解アノテーション情報に対応する前記物体が映る1のアノテーション用画像を別のアノテーション用画像と合成することを含む
請求項に記載の情報処理方法。
A plurality of the annotation images and the correct annotation information are stored in a storage unit of the computer,
7. The method according to claim 6 , wherein the generation of the annotation image includes synthesizing one of the plurality of annotation images, in which the object corresponding to the correct annotation information is shown, with another annotation image. information processing method.
さらに、前記正解アノテーション情報と前記アノテーション結果との差分を前記作業者に提示する
請求項1~のいずれか1項に記載の情報処理方法。
The information processing method according to any one of claims 1 to 7, further comprising presenting a difference between the correct annotation information and the annotation result to the worker.
さらに、更新された前記アノテーションスキルに関連する情報を前記作業者に提示する
請求項1~のいずれか1項に記載の情報処理方法。
The information processing method according to any one of claims 1 to 8 , further comprising presenting information related to the updated annotation skill to the worker.
画像に映る物体に対して作業者がアノテーション情報を付与する作業の正確性を評価した指標であるアノテーションスキルに関連する情報から特定される前記物体が映るアノテーション用画像を取得する第1取得部と、
前記作業者による前記アノテーション用画像に対するアノテーション結果を取得する第2取得部と、
前記アノテーション用画像に含まれる物体に対応する正解アノテーション情報及び前記アノテーション結果を用いて前記アノテーションスキルに関連する情報を更新する処理部とを備える
情報処理システム。
a first acquisition unit that acquires an image for annotation in which the object is identified from information related to annotation skill , which is an index for evaluating the accuracy of the work of adding annotation information to an object in the image by a worker ; ,
a second acquisition unit that acquires an annotation result for the annotation image by the operator;
An information processing system, comprising: a processing unit that updates information related to the annotation skill using correct annotation information corresponding to an object included in the annotation image and the annotation result.
JP2019070210A 2018-08-02 2019-04-01 Information processing method and information processing system Active JP7236694B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910665764.5A CN110796156A (en) 2018-08-02 2019-07-23 Information processing method and information processing system
US16/526,309 US11068716B2 (en) 2018-08-02 2019-07-30 Information processing method and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018146202 2018-08-02
JP2018146202 2018-08-02

Publications (2)

Publication Number Publication Date
JP2020024665A JP2020024665A (en) 2020-02-13
JP7236694B2 true JP7236694B2 (en) 2023-03-10

Family

ID=69618799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019070210A Active JP7236694B2 (en) 2018-08-02 2019-04-01 Information processing method and information processing system

Country Status (1)

Country Link
JP (1) JP7236694B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7305152B2 (en) 2019-03-08 2023-07-10 株式会社Shinsei balloon catheter

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7189922B2 (en) * 2020-11-27 2022-12-14 ソフトバンク株式会社 Information processing device, information processing method and information processing program
JP7231785B2 (en) * 2020-11-27 2023-03-01 ソフトバンク株式会社 Information processing device, information processing method and information processing program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060432A (en) 2013-09-19 2015-03-30 富士通株式会社 Program, computer, and training data generation support method
JP2015200985A (en) 2014-04-04 2015-11-12 Kddi株式会社 Skill evaluation device for evaluating operator skill in cloud sourcing, program, and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060432A (en) 2013-09-19 2015-03-30 富士通株式会社 Program, computer, and training data generation support method
JP2015200985A (en) 2014-04-04 2015-11-12 Kddi株式会社 Skill evaluation device for evaluating operator skill in cloud sourcing, program, and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7305152B2 (en) 2019-03-08 2023-07-10 株式会社Shinsei balloon catheter

Also Published As

Publication number Publication date
JP2020024665A (en) 2020-02-13

Similar Documents

Publication Publication Date Title
JP6082101B2 (en) Body motion scoring device, dance scoring device, karaoke device, and game device
JP7236694B2 (en) Information processing method and information processing system
US8345042B2 (en) Mesh-based shape retrieval system
KR20190100011A (en) Method and apparatus for providing surgical information using surgical video
JP7353946B2 (en) Annotation device and method
JP4413844B2 (en) Image display control device
Wang et al. Assembly planning and evaluation in an augmented reality environment
JP6006081B2 (en) Apparatus and method for determining optimal diagnostic element set for disease diagnosis
US20140118396A1 (en) Image processing device, image processing method, and computer program product
JP2008537815A (en) Pose estimation based on critical point analysis
JP2019075124A (en) Method and system for providing camera effect
JP2008242543A5 (en)
WO2019167556A1 (en) Label-collecting device, label collection method, and label-collecting program
JP2021071778A (en) Skill evaluation device, skill evaluation method, and skill evaluation program
JP6786015B1 (en) Motion analysis system and motion analysis program
JP7165108B2 (en) Work training system and work training support method
US11068716B2 (en) Information processing method and information processing system
JPWO2021210172A5 (en) DATA PROCESSING APPARATUS, SYSTEM, DATA PROCESSING METHOD, AND PROGRAM
JP2021111299A (en) Learning device, learning method, learning program, identification device, identification method, and identification program
JP6854248B2 (en) Boundary search test support device and boundary search test support method
KR101774712B1 (en) Method for analysis of patent claims and apparatus thereof
CN112052349B (en) Content selection method, content selection device, and recording medium
JP6935113B2 (en) Compound design support method, compound design support device, and program
JP7270454B2 (en) Design support system, design support method and design support program
JPWO2022024272A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230217

R151 Written notification of patent or utility model registration

Ref document number: 7236694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151