JP2021099582A - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2021099582A JP2021099582A JP2019230276A JP2019230276A JP2021099582A JP 2021099582 A JP2021099582 A JP 2021099582A JP 2019230276 A JP2019230276 A JP 2019230276A JP 2019230276 A JP2019230276 A JP 2019230276A JP 2021099582 A JP2021099582 A JP 2021099582A
- Authority
- JP
- Japan
- Prior art keywords
- candidate
- information processing
- label
- information
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 163
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000000034 method Methods 0.000 description 66
- 239000013598 vector Substances 0.000 description 40
- 238000010801 machine learning Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 16
- 230000006866 deterioration Effects 0.000 description 9
- 238000002372 labelling Methods 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 3
- 230000002542 deteriorative effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/169—Annotation, e.g. comment data or footnotes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7796—Active pattern-learning, e.g. online learning of image or video features based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Audiology, Speech & Language Pathology (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
アノテーションツールに関連する技術の一例として、特許文献1には、アノテーションとして付加される情報(ラベル)の候補を表示させる際の各候補の表示順序の制御に係る技術の一例が開示されている。また、特許文献2には、アノテーションとして付加する情報の決定に係る技術の一例が開示されている。
所謂機械学習に基づき機械学習モデルの訓練(換言すると、機械学習モデルの構築)を行う手法の一例として、教師あり学習が挙げられる。教師あり学習では、学習モデルへの入力となるデータと、当該データから予測すべき正解ラベルと、を関連付けた学習データが含まれるデータセットが、機械学習モデルの構築に使用される。機械学習モデルを構築する課題に対して、このようなデータセットが存在しない或いは足りない場合には、例えば、入力となるデータを収集した後に、当該データに対してアノテーションとして正解ラベルを付加するアノテーション作業によりデータセットの構築が行われる。このようなアノテーション作業においてユーザがより容易に作業を行えるようにすることを目的として、データに対して正解ラベルを付加する作業を支援する機能を有したアノテーションツールが用いられる場合がある。
各種のアノテーションツールの中には、上述した対象データに対して正解ラベルを付加するラベル付け作業を効率化するために、事前の機械学習に基づき構築された機械学習モデル(以降では、「学習済みモデル」とも称する)を利用するツールがある。具体的な一例として、学習済みモデルを利用するツールは、当該学習済みモデルに対象データを解析させることで、当該対象データにアノテーションとして付加されるラベルの候補を抽出させ、抽出された当該ラベルの候補をユーザに提示する。これにより、ユーザは、アノテーションツールから提示されたラベルの候補の中から、対象データに対して正解ラベルとして付加する候補を選択することが可能となる。
なお、本開示では、対象データにアノテーションとして付加されるラベルは、少なくとも文字情報を含むものとする。
アノテーション作業において、ある特定のドメインに特化した専門的な学習データが作成される場合もあり、このような状況下では、学習済みモデルがより高い確信度を持って予測を行うことが困難な場合がある。このような状況下において、ユーザが単純に第1の候補のラベルがより適切なラベルであると判断して選択が行われると、実際には対象データと関連性の低いラベルの候補が選択される場合もある。この場合においても、対象モデルに対して関係性の低いラベルが付加された学習データがデータセットに存在することとなり、機械学習モデルによる予測に係る精度が、本来であれば達成することが可能であった精度よりも低下する可能性がある。
図1を参照して、本実施形態に係る情報処理装置101の機能構成の一例について説明する。情報処理装置101は、ユーザに対して出力部113を介して各種情報を提示し、入力部114がユーザから受け付けた操作に基づき当該ユーザからの各種指示を認識する。
なお、本実施形態では、学習済みモデルDB103がデータベースにより実現されるものとするが、情報処理装置101が利用可能な学習済みモデルのデータを記憶することが可能であれば、必ずしも学習済みモデルDB103の構成は限定されない。具体的な一例として、学習済みモデルDB103は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置より実現されてもよい。この場合には、例えば、学習済みモデルのデータは、オペレーティングシステムのファイルシステム上から参照できる形式で、HDDやSSDのような記憶装置に記憶されてもよい。
また上述したデバイスに関する条件について、後述する対象データDB108及びアノテーション済みデータDB112についても同様である。
なお、図1では、学習済みモデルDB103、対象データDB108、及びアノテーション済みデータDB112を個別の構成要素として示しているが、これらの構成要素のうち少なくとも2以上の構成要素が1つのデバイスにより実現されてもよい。
また、図1では、学習済みモデルDB103、対象データDB108、及びアノテーション済みデータDB112が情報処理装置101に内蔵されているが、これらの構成要素のうち少なくとも一部の構成要素が情報処理装置101の外部に設けられていてもよい。この場合には、情報処理装置101は、ネットワークを介して外部の装置にアクセスすることで、当該装置に備えられた上記構成要素(例えば、対象データDB108)に記憶されたデータを取得して所定の記憶領域に展開してもよい。
なお、対象データ読み込み部107が対象データDB108から読み込むデータ、すなわちアノテーションの対象となる対象データが、「第2のデータ」の一例に相当する。
具体的には、ラベル推定部104は、学習済みモデルに対して対象データを入力することで、当該対象データからアノテーションの対象となる領域を抽出し、当該領域ごとにアノテーションとして付加されるラベルの候補と、各候補のスコアとを取得する。この際に、ラベル推定部104は、スコアが最上位の候補のみに限らず、複数の候補(少なくともスコアが上位2位までの候補)と、当該複数の候補それぞれのスコアと、を取得するとよい。
また、この際に、ラベル配置制御部105は、上記一連のラベルの候補のうち、少なくとも一部の候補のスコアに応じて、対象データに対するアノテーションの難易度を鑑みて、当該候補の表示に係る配置を制御してもよい。
また、ラベル配置制御部105による一連のラベルの候補それぞれに対応付けられた表示情報の、出力部113を介した表示に係る処理の制御の一例については、実施例として詳細を別途後述する。
また、以降の説明では、「候補に対応付けられた表示情報を表示する」旨の内容を、便宜上「候補を表示する」旨の記載により示す場合がある。すなわち、以降の説明では、「候補を表示する」と記載した場合には、特に説明が無い限りは、「候補に対応付けられた表示情報を表示する」ことを意味するものとする。これは他の類似する表現についても同様である。具体的には、画面上への情報の表示に係る説明において、「候補を配置する」と記載した場合には、特に説明が無い限りは、「候補に対応付けられた表示情報を配置する」ことを意味するものとする。
単語分散表現演算部115は、ラベルの候補について単語分散表現を算出する。単語分散表現とは、単語を高次元の実数ベクトルで表現する技術であり、例えば、近い意味の単語を近いベクトルに対応付ける。単語分散表現の算出には、例えば、「Word2Vec」と称されるテキスト処理を行うニューラルネットワークが利用される。
単語類似度演算部116は、一連のラベルの候補それぞれについて算出された単語分散表現に基づき、当該一連のラベルの候補それぞれの間の言語的類似度(以降では、「単語類似度」とも称する)を算出する。
以上のようにして算出された一連のラベルの候補それぞれの間の単語類似度は、例えば、ラベル配置制御部105による、当該一連のラベルの候補それぞれの表示に係る処理の制御に利用されてもよい。
また、出力制御部106は、後述するアノテーション付与部110からの指示に基づき、ユーザによるアノテーションの付与の結果を生成した画面に反映する。
なお、出力制御部106により生成される上記画面の一例については、実施例として詳細を別途後述する。
具体的な一例として、画像中に撮像された物体を検出するタスクの場合には、アノテーション付与部110は、アノテーションの対象となる画像(対象データ)に撮像された物体の当該画像中の位置の特定と、当該物体を示すラベルの付加と、に係る処理を実行する。
また、他の一例として、自然言語処理に基づき文書を分類するタスクの場合には、アノテーション付与部110は、アノテーションの対象となる文書(対象データ)に対して、当該文書のカテゴリを示すラベルを付加する処理を実行する。
このように、アノテーションの対象となる対象データの種別や、アノテーションとしてのラベル付けの目的等に応じて、アノテーション付与部110による対象データに対するラベル付けに係る処理の内容が適宜変更されてもよい。
図2を参照して、本実施形態に係る情報処理装置101のハードウェア構成の一例について説明する。図2に示すように、本実施形態に係る情報処理装置101は、CPU(Central Processing Unit)211と、ROM(Read Only Memory)212と、RAM(Random Access Memory)213とを含む。また、情報処理装置101は、補助記憶装置214と、出力装置215と、入力装置216と、通信I/F217とを含む。CPU211と、ROM212と、RAM213と、補助記憶装置214と、出力装置215と、入力装置216と、通信I/F217とは、バス218を介して相互に接続されている。
図3及び図4を参照して、本実施形態に係る情報処理装置101の処理の一例について説明する。
S301において、情報処理装置101は、各機能の初期設定、アノテーションの対象となる対象データの読み込み、及び当該対象データに対してアノテーションとして付加されるラベルの候補の表示制御に利用する学習済みモデルの読み込みのそれぞれを実行する。なお、情報処理装置101は、S301に示した処理については、例えば、少なくともアノテーション作業の開始時に一度実行すればよく、以降については設定済みの各種パラメータや読み込み済みの各種データを利用すればよい。
なお、図3及び図4に示す例では、便宜上、スコアが最上位の候補が第1の候補に相当し、スコアが2位の候補が第2の候補に相当するものとする。
ただし、上記はあくまで一例であり、本実施形態に係る情報処理装置101の処理を限定するものではない。例えば、情報処理装置101は、第1の候補及び第2の候補のそれぞれと、その他の候補と、に分けて情報を管理してもよいし、第1の候補と、その他の候補と、に分けて情報を管理してもよい。すなわち、情報処理装置101が、第1の候補のスコアと、他の候補のスコアと、の関係から、学習済みモデルがどの程度の確信度を持って第1の候補の予測を行っているかを認識することが可能であれば、各候補に関する情報の管理方法は特に限定されない。
また、S302の処理が、対象データに対するアノテーションとして付加されるラベルの第1の候補及び第2の候補それぞれについて、確からしさを示すスコアの推定結果を取得する取得処理の一例に相当する。
また、S303の処理が、第1の候補及び第2の候補それぞれのスコアに応じて、当該第1の候補に対応付けられた第1の表示情報と、当該第2の候補に対応付けられた第2の表示情報と、の出力部を介した表示に係る処理を制御する制御処理の一例に相当する。
つまり、ユーザが判断に迷うような状況が起こり得る対象データについては、ユーザがアノテーションとして付加されるラベルの候補をしっかり確認して、より好適な候補を選択することがより望ましい。このような場合には、例えば、学習済みモデルが推定した第1の候補と第2の候補とを、ユーザがより的確に判別したうえで、アノテーションとして付加する候補を選択できる状況を作り上げることが、データセットの品質維持の観点で重要な要素となる。
このような状況を鑑み、本実施形態に係る情報処理装置101は、ユーザが意図する候補とは異なる他の候補を選択するような事態の発生を防止することを目的とし、各候補の表示に係る配置を制御する。具体的な一例として、情報処理装置101は、第1の候補と第2の候補と間のスコアの差に応じてそれぞれの候補が互いに離間して配置されるように制御する。これにより、ユーザが、本来は第1の候補に対応付けられた第1の表示情報を選択することを意図している状況下で、第2の候補に対応付けられた第2の表示情報を選択するような事態の発生を防止することが可能となる。
上記を踏まえ、図3に示すS303の処理の詳細について以下に説明する。
候補間の言語的な類似度の算出方法としては、例えば、各候補を言語的な特徴に基づきベクトル(以下、「単語ベクトル」とも称する)で表し、一連の候補それぞれの間で対応する単語ベクトル間の距離を算出する方法が挙げられる。なお、ラベルの候補を単語ベクトルに変換する方法としては、例えば、「Word2Vec」等のような単語分散表現技術を適用すればよい。また、単語ベクトル間の距離算出については、例えば、ベクトル間のコサイン類似度等を利用する手法を適用すればよい。
もちろん上記はあくまで一例であり、複数の候補間の言語的な類似度を算出することが可能であれば、その方法は特に限定されない。具体的な一例として、単語間の類似関係に関する情報を収集することで、言語的な類似度が高い単語間が関連付けられた辞書(例えば、シソーラス等)を構築し、当該辞書を利用することで候補間の類似度が特定されてもよい。
例えば、情報処理装置101は、一連の候補それぞれの間での単語ベクトルの距離の算出結果に基づき、当該一連の候補それぞれの表示に係る画面上における配置を制御してもよい。第1の候補と第2の候補の言語的な類似度が高ければ、第1の候補の隣に第2の候補を配置することもできる。学習済みモデルが出力した確信度が最も高い第1の候補を選択しても誤りではないが、第2の候補のほうがより正しい場合、第2の候補が存在することに気付きやすくなり、より正しいラベルを選択することができる。また、第1の候補と第2の候補とは言語的な類似度が高いので、ユーザの物体識別の知識や能力が足りずにラベルの選択精度が低い場合でも、学習データとしての精度に与える影響が少ない。
具体的な一例として、情報処理装置101は、あらかじめ規定された配置位置のうち、最も左の配置位置に第1の候補を配置し、残りの配置位置には、左から第1の候補に単語ベクトルが近い順に、各候補の表示情報を配置してもよい。また、この場合には、情報処理装置101は、第1の候補が配置される位置を、最も左の配置位置に限らず、他の配置位置(例えば、最も右の配置位置)に配置してもよいし、配置位置をその時々でランダムに変更してもよい。
また、他の一例として、情報処理装置101は、各候補に対応付けられた表示情報がドロップダウンリストとして表示されるように制御してもよい。この場合には、情報処理装置101は、リストとして表示される順序を候補間の距離と対応付けることで、各候補に対応付けられた表示情報の一覧を提示してもよい。
また、閾値1及び閾値2については、例えば、ユーザ(例えば、管理者等)により事前に設定されてもよい。また、他の一例として、情報処理装置101が、閾値1及び閾値2の少なくともいずれかを、学習済みモデルが出力したスコアの履歴に応じて更新してもよい。この場合には、情報処理装置101は、一連のアノテーション作業における所定の契機で上記更新を行ってもよいし、一連のアノテーション作業の開始前または終了後のタイミングで上記更新を行ってもよい。
このような制御が適用されることで、ユーザによる候補の選択に係る手間を軽減することが可能となり、さらに、誤って他の候補が選択される事態が発生する可能性を低減することが可能となる。これにより、ユーザの作業の効率化と、データセットの品質低下の防止と、を実現することが可能となる。
情報処理装置101は、S404の処理が完了すると、図4に示す一連の処理を終了する。
この際に、情報処理装置101は、警告を示すアイコンやメッセージを報知情報として表示させてもよいし、報知情報を点滅させる等のように、当該報知情報の表示態様を制御してもよい。また、ユーザに対して注意を促すことが可能であれば、情報の報知方法は特に限定されない。具体的な一例として、情報処理装置101は、音や振動を媒介として、ユーザに対して情報を報知してもよい。
また、S405において、ユーザに対して注意を促す報知情報が報知されることで、第1の候補及び第2の候補それぞれが互いに離間して配置されたとしても、ユーザが一方を見落とすような事態の発生を防止することが可能となる。
具体的には、情報処理装置101は、第1の候補及び第2の候補それぞれの近傍に、対象となる候補と言語的な類似度のより高い候補が配置されるように制御する。この場合には、S402の処理と同様に、情報処理装置101は、学習済みモデルが出力した各候補のスコアに基づき、第1の候補及び第2の候補それぞれについて、対象となる候補と単語ベクトルの距離がより近い候補を特定すればよい。そして、情報処理装置101は、第1の候補及び第2の候補それぞれに対して、単語ベクトルの距離が近い候補ほどより近くに配置されるように制御すればよい。
以上により説明した、情報処理装置101のハードウェア構成、機能構成は、後述の各実施例で共通である。本実施形態に係る情報処理装置101の実施例として、情報処理装置101が、対象データに対してアノテーションとして付加するラベルの候補のユーザへの提示と、ユーザからのラベルの候補の指定の受け付けと、を実現するためのUIの一例について説明する。
実施例1に係るUIの一例について図5を参照して説明する。画面501は、情報処理装置101が出力部113を介してユーザに提示する画面の一例を示している。画面501は、ユーザに対してアノテーションの対象となる対象データを提示し、当該対象データに対するアノテーション作業に関する各種指示をユーザから受け付ける。
なお、本実施例では、物体認識タスクにおける正解データの作成のために画像アノテーションを行う場合を想定してユーザに提示される画面の一例について説明する。具体的には、本実施例に係るアノテーションタスクにおいては、ユーザが、画像中に被写体として撮像されている物体を、矩形等を利用した領域指定により選択し、当該物体を示す正解ラベルを付すような作業を行われることを想定している。
領域503、504、及び505は、領域502に表示された対象データ中において、アノテーションの対象となる領域を示している。具体的には、図5に示す例では、領域503、504、及び505は、領域502に表示された画像における、被写体として撮像された物体に対応する領域を示している。
そこで、以降では、情報処理装置101による、領域506、507、及び508それぞれに対する、一連のラベルの候補の配置や当該候補の提示に係るUIの状態の制御の一例について具体的な例を挙げて説明する。
領域506は、領域503で示された物体に対してアノテーションとして付加されるラベルの候補が提示される領域である。情報処理装置101は、領域503で示された物体を示すラベルの候補として、70%の確率で「普通車」であることを示す第1の候補と、10%の確率で「ビル」であることを示す第2の候補と、を推定したものとする。
また、本実施例では、学習済みモデルが出力するラベルの第1の候補及び第2の候補それぞれのスコアとして、当該候補が示す物体である確からしさを示す確率が用いられるものとする。また、図4を参照して説明した閾値1として50%が設定されており、閾値2として80%が設定されているものとする。
情報処理装置101は、上記確率差60%が閾値1(50%)を超えるため、図4におけるS401の条件判定において真と判定する。
次いで、情報処理装置101は、S402の処理において、第1の候補である「普通車」と単語ベクトルの距離が近い他の候補を特定する。そして、情報処理装置101は、領域506において、第1の候補と単語ベクトルの距離がより近い候補が、第1の候補のより近くに配置されるように制御する。
また、他の一例として、情報処理装置101は、分かち書きされた複数の単語のうち、いずれかの単語の単語ベクトルを、分かち書きの対象とした単語の単語ベクトルとして適用してもよい。すなわち、この場合には、情報処理装置101は、「普通車」を「普通」と「車」とに分割したうえで、「普通」と「車」とのいずれかの単語ベクトルを、「普通車」の単語ベクトルとして適用してもよい。
以上のような手法を適用することで、対象となるラベルの候補が、単語ベクトルの語彙として設定されていない状況下においても、当該候補を、図4に示すような各候補の表示に係る処理の制御対象とすることが可能となる。
なお、図4のS402の処理の説明として前述したように、ラベルの候補間における単語ベクトルの距離としては、例えば、コサイン類似度を用いればよい。
なお、上述した一連の候補が、左から確率が高い順に配置されると、確率が第1位である「普通車」に隣接するように、確率が第2位である「ビル」が配置されることとなる。このような配置が行われると、ユーザが「普通車」を選択しようとしている状況下で、操作を誤ることで、「普通車」とは意味的に大きく異なる「ビル」が選択される可能性がある。このように、意味的に異なる候補が選択されることで、本来付加されるべきラベルとは意味的に大きく異なるラベルが付加された学習データが生成されることとなり、機械学習モデルの構築に使用されるデータセットの品質が著しく低下する可能性がある。
このような状況を鑑みて、ユーザによる選択ミスに伴うデータセットの品質低下の影響を低減するために、図4のS402の処理では、各候補の表示に係る配置の制御が行われている。具体的には、情報処理装置101は、第1の候補と単語ベクトルの距離がより近い候補が、当該第1の候補のより近傍に位置するように、各候補の表示に係る配置を制御する。
領域506に提示される候補の例の場合には、第1の候補である「普通車」との間の単語ベクトルの距離は、「トラック」、「家」、「ビル」の順により近いものとする。この場合には、情報処理装置101は、第1の候補である「普通車」に隣接する位置に、「トラック」を配置することとなる。これにより、例えば、ユーザが「普通車」を選択しようとしている状況下で、操作を誤って隣接する他の候補を選択したとしても、「普通車」と意味的により近い「トラック」が選択されることとなり、データセットの品質低下の影響を低減することが可能となる。
で、誤って「ビル」が選択される場合に比べて、誤って「トラック」が選択される場合の方が、データセットの品質低下の影響を低減することが可能となる。
以上のようにして、領域506に対する一連のラベルの候補の配置が制御される。
領域507は、領域504で示された物体に対してアノテーションとして付加されるラベルの候補が提示される領域である。情報処理装置101は、領域504で示された物体を示すラベルの候補として、95%の確率で「普通車」であることを示す第1の候補と、2%の確率で「ビル」であることを示す第2の候補と、を推定したものとする。
また、領域506について説明した例と同様に、閾値1として50%が設定されており、閾値2として80%が設定されているものとする。
情報処理装置101は、上記確率差93%が閾値1(50%)を超えるため、図4におけるS401の条件判定において真と判定する。
次いで、情報処理装置101は、S402の処理において、第1の候補である「普通車」と単語ベクトルの距離が近い他の候補を特定する。そして、情報処理装置101は、領域506において、第1の候補と単語ベクトルの距離がより近い候補が、第1の候補のより近傍に配置されるように制御する。
なお、情報処理装置101は、領域504で示された物体に付加されるラベルの候補の推定結果として、確率(スコア)が第4位までの候補である「普通車」、「ビル」、「トラック」、及び「家」を抽出したものとする。また、第1の候補である「普通車」との間の単語ベクトルの距離は、「トラック」、「家」、「ビル」の順により近いものとする。
上記のような制御が適用されることで、第1の候補とは異なる他の候補が改めて選択される場合を除けば、ユーザによる候補の選択に係る手間を軽減することが可能となり、さらに、誤って他の候補が選択される事態が発生する可能性を低減することも可能となる。すなわち、ユーザの作業の効率化と、データセットの品質低下の防止と、より好適な態様で実現することが可能となる。
領域508は、領域505で示された物体に対してアノテーションとして付加されるラベルの候補が提示される領域である。情報処理装置101は、領域505で示された物体を示すラベルの候補として、40%の確率で「普通車」であることを示す第1の候補と、30%の確率で「トラック」であることを示す第2の候補と、を推定したものとする。
また、領域506及び507について説明した例と同様に、閾値1として50%が設定されており、閾値2として80%が設定されているものとする。
情報処理装置101は、上記確率差10%が閾値1(50%)以下となるため、図4におけるS401の条件判定において偽と判定する。
例えば、情報処理装置101は、図4のS405に示す処理のように、ユーザに対して注意を促すために、画面上に所定の報知情報(例えば、警告を示す情報)を表示させてもよい。具体的な一例として、図5に示す例では、領域508に対して、注意を促す記号と、「要注意」というメッセージと、が報知情報として表示されている。
なお、図5に示す例では、アノテーションの対象となる物体ごとに、最大4つのラベルの候補が提示される。そのため、情報処理装置101は、領域508の左端に第1の候補である「普通車」を配置し、右端に第2の候補である「トラック」を配置している。もちろん、図5に示す例はあくまで一例であり、第1の候補と第2の候補とが離間して配置されれば、配置方法は特に限定されない。具体的な一例として、領域508の右端に第1の候補が配置され、左端に第2の候補が配置されてもよい。また、他の一例として、第1の候補と第2の候との間に、他の候補が介在するように、各候補の配置が制御されてもよい。また、他の一例として、第1の候補と第2の候補との間の空間が、隣接する他の候補間の空間よりも広くなるように制御されてもよい。
上記のような制御が適用されることで、ユーザが第1の候補及び第2の候補のいずれかを選択する際に、誤って他の候補を選択した場合においても、S402の処理が実行された場合と同様に、データセットの品質低下の影響を低減することが可能となる。
ボタン509は、領域502に表示されている対象データに対するアノテーション作業の取りやめに係る指示をユーザから受け付けるボタンである。情報処理装置101は、ボタン509が押下されたことを検出した場合に、従前にアノテーション作業の対象とした他の対象データを改めてアノテーション作業の対象としてもよい。
ボタン510は、領域502に表示されている対象データに対して実行されたアノテーション作業の確定に係る指示をユーザから受け付けるボタンである。情報処理装置101は、ボタン510が押下されたことを検出した場合には、対象データにアノテーションとして付加したラベルに関する情報と、当該対象データと、を関連付けて、アノテーション済みデータDB112に記憶させる。そして、情報処理装置101は、またアノテーション作業の対象としていない他の対象データが存在する場合には、当該他の対象データをアノテーション作業の新たな対象としてもよい。
実施例2に係るUIの一例について説明する。実施例1では、学習済みモデルが高い確信度を持って予測を行うことが困難なデータが処理対象の場合は、第1の候補及び第2の候補それぞれが離間して配置されるように制御が行われる場合の一例について説明した。これは、学習済みモデルが高い確信度を持って予測を行うことが困難なデータが処理対象の場合は、ユーザも同様に高い確信度を持って候補の選択を行うことが困難であり、ユーザも一連のラベルの候補を確認したうえで選択を行うであろうとの仮定に基づいている。
一方で、ユーザが可能な限り短時間で大量のデータに対してアノテーションとしてラベルを付加する作業を行うような状況下では、ユーザが必ずしも一連の候補それぞれを確認して選択を行うとは限らない。
一方で、上記のように一連のラベルの候補が提示された場合に、ユーザが、互いに離間して配置された第1の候補及び第2の候補それぞれを確認せずに、最初に目にしたもっともらしい候補を選択するような状況も想定され得る。このようなケースが頻発すると、対象モデルに対して関係性の低いラベルが付加された学習データがデータセットに多数追加され、ひいては当該データセットの品質が低下する可能性がある。
また、他の一例として、本実施例に係る処理と、実施例1に係る処理と、のいずれを適用するかを、情報処理装置101が、アノテーション作業の統計的な選択情報に基づき、動的に切り替えてもよい。具体的な一例として、情報処理装置101は、実施例1に係る処理の適用時に、左端に表示情報が配置された第1の候補が、右端に表示情報が配置された第2の候補よりも統計的優位性を持って多く選択されることを検出したものとする。この場合には、情報処理装置101は、ユーザが左端に表示された候補を選択する頻度がより高い可能性があると推測し、S406の処理を本実施例に係る処理内容に切り替えてもよい。
実施例3に係るUIの一例について図6を参照して説明する。実施例1及び2では、情報処理装置101が、一連のラベルの候補それぞれを、画面上の所定の箇所に1次元的に並べて配置する場合の一例について説明した。本実施例では、情報処理装置101が、一連のラベルの候補それぞれの表示に係る配置を、候補間における類似度(例えば、単語類似度)に応じてより柔軟に制御する場合の一例について説明する。具体的には、図6に示す例として、情報処理装置101が、複数の候補間の類似度に応じて、当該複数の候補それぞれの間の間隔を制御する場合の一例について説明する。
なお、図6に示す例では、「普通車」と「トラック」とは単語ベクトルの距離が近く、「普通車」と「家」及び「ビル」のそれぞれとは「トラック」に比べて単語ベクトルの距離が遠いものとする。また、「家」と「ビル」とは単語ベクトルの距離が近いものとする。
そのため、領域606においては、「普通車」の近傍に「トラック」が配置されているが、「家」及び「ビル」のそれぞれについては、「普通車」との間の単語ベクトルの距離に応じて離間して配置されている。また、「家」と「ビル」とは単語ベクトルの距離が近いため、「家」と「ビル」とが近傍に位置するように配置されている。
領域607に表示される一連のラベルの候補は、図5に示す領域507に表示される一連のラベルの候補と同様に、第1の候補である「普通車」のスコアが極めて高く、領域604で示された物体が、第1の候補である「普通車」である可能性が高い。そのため、第1の候補である「普通車」が、デフォルトで選択済みの状態で表示されている。また、領域607に表示される一連のラベルの候補は、領域606に表示される一連のラベルの候補と同様に、複数の候補間の単語ベクトルの距離に応じて、当該複数の候補それぞれに対応付けられた表示情報間の距離が制御されている。
領域608に表示される一連のラベルの候補については、図5に示す領域508に表示される一連のラベルの候補と同様に、第1の候補である「普通車」のスコアが最も高いが、第2の候補である「トラック」とのスコアの差が小さい。そのため、領域608に対して、注意を促す記号と、「要注意」というメッセージと、が報知情報として表示されている。また、領域608への表示対象となる一連のラベルの候補として、「普通車」、「小型車」、「バス」、及び「トラック」が選択されている。これらの候補は、いずれも自動車であるため、いずれの候補間においても単語ベクトル距離が比較的近い。そのため、情報処理装置101は、一連のラベルの候補のそれぞれが、候補間における単語ベクトルの距離に応じてより近傍に位置するように、各候補の表示に係る配置を制御している。
実施例4に係るUIの一例について説明する。実施例1〜3では、対象データに対してアノテーションとして付加されるラベルの一連の候補が、所定の方向(例えば、横方向)に向けて1次元的に配置される場合の一例について説明した。一方で、本開示の一実施形態に係る情報処理装置101が、一連のラベルの候補を表示に係る配置を制御する方法は、必ずしも所定の方向に向けて1次元的に配置する方法には限定されず、多様な配置方法を適用することが可能である。そこで、本実施例では、図7を参照して、情報処理装置101が、一連のラベルの候補を表示する際に、一連の候補を2次元的に配置する場合の一例について説明する。
なお、領域703で示された物体については、図5に示す領域503で示された物体と同様に、学習済みモデルによるラベルの候補の推定結果として、「普通車」である確率(スコア)が最も高いと推定されたものとする。このような前提のもとで、本実施例に係る情報処理装置101は、領域706において、「普通車」の近傍に、当該「普通車」と意味的に近い候補を配置している。なお、複数の候補間における意味的な距離を2次元で表現する場合には、例えば、マンハッタン距離の考え方を利用してもよい。
領域707に表示される一連のラベルの候補は、図5に示す領域507に表示される一連のラベルの候補と同様に、第1の候補である「普通車」のスコアが極めて高く、領域604で示された物体が、第1の候補である「普通車」である可能性が高い。そのため、第1の候補である「普通車」が、デフォルトで選択済みの状態で表示されている。
領域708に表示される一連のラベルの候補については、図5に示す領域508に表示される一連のラベルの候補と同様に、第1の候補である「普通車」のスコアが最も高いが、第2の候補である「トラック」とのスコアの差が小さい。すなわち、学習済みモデルは、領域705で示された物体が、「普通車」である確率と、「トラック」である確率と、が共に高いと推定している。そのため、領域708に対して、注意を促す記号と、「要注意」というメッセージと、が報知情報として表示されている。また、領域708に対して、一連のラベルの候補のうち、「普通車」と「トラック」とがマンハッタン距離で最も遠くなるように、「普通車」が左上の端部に配置され、「トラック」が右下の端部に配置されている。また、「普通車」及び「トラック」以外の他の候補については、「普通車」及び「トラック」それぞれに対して、単語類似度がより高いほどより近傍に位置するように配置が制御されている。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また、ユーザが操作ミス等により候補を誤って選択したとしても、例えば、意味的に近い候補が選択されるように各候補の配置が制御されることで、誤ったラベル付けに起因するデータセットの品質低下の影響を低減することが可能となる。
一般的には、機械学習の学習データにおいて、ラベル付けが誤っていた場合には、機械学習モデルの汎化性能が劣化する傾向にある。これに対して、本実施形態に係る情報処理装置101に依れば、ユーザが誤ってラベル付けを行ってしまう事態が発生する可能性を低減することが可能であるため、機械学習モデルの汎化性能の低下させる可能性を低減する効果を期待することが可能である。
例えば、複数の装置が協働することで、情報処理装置101の各機能が実現されてもよい。この場合には、情報処理装置101の各機能のうちの一部の機能と他の機能とが、互いに異なる装置により実現されてもよい。具体的な一例として、対象データに対してアノテーションとして付加されるラベルの候補の推定に係る機能と、一連のラベルの候補の表示の制御に係る機能と、が互いに異なる装置により実現されてもよい。また、情報処理装置101の各機能のうち少なくとも一部の機能に関する処理の負荷が、複数の装置に分散されてもよい。
また、上記複数の装置が互いに情報やデータを送受信することが可能であれば、当該複数の装置を相互に接続するネットワークの種別は特に限定されず、各装置が設置される位置についても特に限定されない。
また、上述した実施形態や各実施例が適宜組み合わされた形態も、本発明の実施形態に含まれる。
また、上述した例では、対象データに対してアノテーションとして付加されるラベルの一連の候補と、当該一連の候補それぞれの確からしさを示すスコアと、の取得に機械学習モデルを利用する場合に着目して説明した。一方で、ラベルの一連の候補と、当該ラベルの一連の候補それぞれの確からしさを示すスコアと、を取得することが可能であれば、その方法は特に限定されない。具体的な一例として、対象データが画像の場合には、当該画像に対して画像解析を施すことで特徴量を抽出し、当該特徴量の抽出結果に基づき、画像中に撮像された被写体に付加されるラベルの候補と、当該候補のスコアと、が取得されてもよい。また、対象データが文書の場合には、当該文書に対して構文解析や意味解析等の自然言語処理を施すことで、当該文書に含まれる情報(例えば、単語や文節等)に付加されるラベルの候補と、当該候補のスコアと、が取得されてもよい。
104 ラベル推定部
105 ラベル配置制御部
106 出力制御部
Claims (11)
- アノテーションの対象となるデータに対する当該アノテーションとして付加されるラベルの第1の候補及び第2の候補それぞれについて、確からしさを示すスコアの推定結果を取得する取得手段と、
前記第1の候補及び前記第2の候補それぞれの前記スコアに応じて、当該第1の候補に対応付けられた表示位置に関する第1の表示情報と、当該第2の候補に対応付けられた表示位置に関する第2の表示情報と、の出力部を介した表示に係る処理を制御する制御手段と、
を備える、情報処理装置。 - アノテーションとして前記ラベルが付加された第1のデータを教師データとして事前に構築された学習済みモデルに基づき、アノテーションの対象となる第2のデータに対する当該アノテーションとして付加される前記ラベルの前記第1の候補及び前記第2の候補それぞれについて前記スコアの推定する推定手段を備え、
前記取得手段は、前記第1の候補及び前記第2の候補それぞれについて前記推定手段により推定された前記スコアを取得する、
請求項1に記載の情報処理装置。 - 前記制御手段は、前記第1の候補と前記第2の候補との間の前記スコアの差分に応じて、前記第1の表示情報と前記第2の表示情報との間の距離を制御する、請求項1または2に記載の情報処理装置。
- 前記制御手段は、前記差分が第1の閾値以下の場合に、前記第1の表示情報と前記第2の表示情報とが離間して表示されるように制御する、請求項3に記載の情報処理装置。
- 前記制御手段は、前記差分が前記第1の閾値よりも大きい第2の閾値を超える場合に、前記第1の表示情報及び前記第2の表示情報のうち、前記スコアがより高い候補に対応付けられた表示情報が選択された状態で表示されるように制御する、請求項4に記載の情報処理装置。
- 前記制御手段は、前記差分が前記第1の閾値以下の場合に、所定の報知情報が報知されるように制御する、請求項4または5に記載の情報処理装置。
- 前記制御手段は、前記差分が前記第1の閾値を超える場合に、前記第1の候補と他の候補との単語としての類似度に応じて、前記第1の表示情報と前記他の候補の表示情報との間の距離を制御する、請求項4〜6のいずれか1項に記載の情報処理装置。
- 前記制御手段は、前記差分が前記第1の閾値を超える場合に、前記第1の表示情報及び前記第2の表示情報のうち少なくともいずれかの表示情報の近傍に、当該表示情報に対応付けられた候補に類似する第3の候補に対応付けられた第3の表示情報が表示されるように制御する、請求項4〜7のいずれか1項に記載の情報処理装置。
- 前記ラベルは、少なくとも文字情報を含み、
前記取得手段は、前記第1の候補及び前記第2の候補のそれぞれと、前記第3の候補と、の間の言語的類似度の算出結果を取得し、
前記制御手段は、前記第1の表示情報及び前記第2の表示情報のうち前記第3の候補と前記言語的類似度がより高い候補に対応する表示情報の近傍に、前記第3の表示情報が表示されるように制御する、
請求項8に記載の情報処理装置。 - 情報処理装置が実行する情報処理方法であって、
アノテーションの対象となるデータに対する当該アノテーションとして付加されるラベルの第1の候補及び第2の候補それぞれについて、確からしさを示すスコアの推定結果を取得する取得ステップと、
前記第1の候補及び前記第2の候補それぞれの前記スコアに応じて、当該第1の候補に対応付けられた表示位置に関する第1の表示情報と、当該第2の候補に対応付けられた表示位置に関する第2の表示情報と、の出力部を介した表示に係る処理を制御する制御ステップと、
を含む、情報処理方法。 - コンピュータを、請求項1〜9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019230276A JP7374756B2 (ja) | 2019-12-20 | 2019-12-20 | 情報処理装置、情報処理方法、及びプログラム |
US17/124,106 US20210192393A1 (en) | 2019-12-20 | 2020-12-16 | Information processing apparatus, information processing method, and storage medium |
KR1020200176067A KR20210080224A (ko) | 2019-12-20 | 2020-12-16 | 정보 처리 장치 및 정보 처리 방법 |
CN202011508555.9A CN113158631A (zh) | 2019-12-20 | 2020-12-18 | 信息处理装置和信息处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019230276A JP7374756B2 (ja) | 2019-12-20 | 2019-12-20 | 情報処理装置、情報処理方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021099582A true JP2021099582A (ja) | 2021-07-01 |
JP2021099582A5 JP2021099582A5 (ja) | 2022-12-21 |
JP7374756B2 JP7374756B2 (ja) | 2023-11-07 |
Family
ID=76438918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019230276A Active JP7374756B2 (ja) | 2019-12-20 | 2019-12-20 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210192393A1 (ja) |
JP (1) | JP7374756B2 (ja) |
KR (1) | KR20210080224A (ja) |
CN (1) | CN113158631A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023062828A1 (ja) * | 2021-10-15 | 2023-04-20 | 株式会社Pfu | 学習装置 |
WO2023175948A1 (ja) * | 2022-03-18 | 2023-09-21 | 日本電気株式会社 | 学習装置、提示装置、学習方法及び記憶媒体 |
KR102591048B1 (ko) * | 2022-08-26 | 2023-10-19 | (주)메디아이플러스 | 어노테이션 생성 지원 장치 및 방법 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11645505B2 (en) * | 2020-01-17 | 2023-05-09 | Servicenow Canada Inc. | Method and system for generating a vector representation of an image |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014147063A (ja) * | 2013-01-21 | 2014-08-14 | Keypoint Technologies (Uk) Ltd | テキスト入力方法および装置 |
JP2017134694A (ja) * | 2016-01-28 | 2017-08-03 | 富士通株式会社 | 属性付与制御プログラム、情報処理装置および属性付与制御方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8280719B2 (en) * | 2005-05-05 | 2012-10-02 | Ramp, Inc. | Methods and systems relating to information extraction |
US9235573B2 (en) * | 2006-10-10 | 2016-01-12 | Abbyy Infopoisk Llc | Universal difference measure |
DK3988470T3 (da) * | 2009-08-31 | 2023-08-28 | Abbott Diabetes Care Inc | Visningsindretninger til en medicinsk indretning |
US20140280109A1 (en) * | 2013-03-14 | 2014-09-18 | Google Inc. | User-Guided Term Suggestions |
EP2993890A4 (en) * | 2013-04-30 | 2016-09-28 | Sony Corp | CLIENT DEVICE, DISPLAY CONTROL PROCEDURE, PROGRAM AND SYSTEM |
KR102243653B1 (ko) * | 2014-02-17 | 2021-04-23 | 엘지전자 주식회사 | 디스플레이 디바이스 및 그 제어 방법 |
CN104142909B (zh) * | 2014-05-07 | 2016-04-27 | 腾讯科技(深圳)有限公司 | 一种汉字注音方法及装置 |
US10108906B2 (en) * | 2014-12-19 | 2018-10-23 | International Business Machines Corporation | Avoiding supporting evidence processing when evidence scoring does not affect final ranking of a candidate answer |
JP6074820B2 (ja) * | 2015-01-23 | 2017-02-08 | 国立研究開発法人情報通信研究機構 | アノテーション補助装置及びそのためのコンピュータプログラム |
KR102403901B1 (ko) * | 2015-11-12 | 2022-06-02 | 삼성전자 주식회사 | 디스플레이장치 및 그 제어방법 |
CN106782560B (zh) * | 2017-03-06 | 2020-06-16 | 海信集团有限公司 | 确定目标识别文本的方法及装置 |
CN108874772A (zh) * | 2018-05-25 | 2018-11-23 | 太原理工大学 | 一种多义词词向量消歧方法 |
CN110232192A (zh) * | 2019-06-19 | 2019-09-13 | 中国电力科学研究院有限公司 | 电力术语命名实体识别方法及装置 |
-
2019
- 2019-12-20 JP JP2019230276A patent/JP7374756B2/ja active Active
-
2020
- 2020-12-16 KR KR1020200176067A patent/KR20210080224A/ko unknown
- 2020-12-16 US US17/124,106 patent/US20210192393A1/en active Pending
- 2020-12-18 CN CN202011508555.9A patent/CN113158631A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014147063A (ja) * | 2013-01-21 | 2014-08-14 | Keypoint Technologies (Uk) Ltd | テキスト入力方法および装置 |
JP2017134694A (ja) * | 2016-01-28 | 2017-08-03 | 富士通株式会社 | 属性付与制御プログラム、情報処理装置および属性付与制御方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023062828A1 (ja) * | 2021-10-15 | 2023-04-20 | 株式会社Pfu | 学習装置 |
WO2023175948A1 (ja) * | 2022-03-18 | 2023-09-21 | 日本電気株式会社 | 学習装置、提示装置、学習方法及び記憶媒体 |
KR102591048B1 (ko) * | 2022-08-26 | 2023-10-19 | (주)메디아이플러스 | 어노테이션 생성 지원 장치 및 방법 |
WO2024043744A1 (ko) * | 2022-08-26 | 2024-02-29 | (주)메디아이플러스 | 어노테이션 생성 지원 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20210080224A (ko) | 2021-06-30 |
CN113158631A (zh) | 2021-07-23 |
US20210192393A1 (en) | 2021-06-24 |
JP7374756B2 (ja) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7374756B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11170257B2 (en) | Image captioning with weakly-supervised attention penalty | |
US10055402B2 (en) | Generating a semantic network based on semantic connections between subject-verb-object units | |
US9639601B2 (en) | Question answering system adapted to style of user requests | |
US9824085B2 (en) | Personal language model for input method editor | |
US10656957B2 (en) | Input method editor providing language assistance | |
JP6337973B2 (ja) | 追学習装置、追学習方法、および、追学習プログラム | |
EP4033484A2 (en) | Recognition of semantic information of a speech signal, training a recognition model | |
US20170154068A1 (en) | Method, device and terminal for data processing | |
US20210374147A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP5687312B2 (ja) | デジタル情報分析システム、デジタル情報分析方法、及びデジタル情報分析プログラム | |
US9195706B1 (en) | Processing of document metadata for use as query suggestions | |
CN112699671B (zh) | 一种语言标注方法、装置、计算机设备和存储介质 | |
JP6191440B2 (ja) | スクリプト管理プログラム、スクリプト管理装置及びスクリプト管理方法 | |
JP6695835B2 (ja) | 機械学習を利用したfaq登録支援方法、及びコンピュータシステム | |
Baldwin et al. | Autonomous self-assessment of autocorrections: exploring text message dialogues | |
JP2016162163A (ja) | 情報処理装置及び情報処理プログラム | |
US20180307669A1 (en) | Information processing apparatus | |
EP4099225A1 (en) | Method for training a classifier and system for classifying blocks | |
US20180090139A1 (en) | Dynamically adjusting a voice recognition system | |
CN103870800B (zh) | 信息处理设备和信息处理方法 | |
KR20200010669A (ko) | 빅데이터 기반의 웹접근성 개선 장치 및 방법 | |
JP5950369B2 (ja) | 入力支援システム、入力支援方法および入力支援プログラム | |
JP5853090B2 (ja) | デジタル情報分析システム、デジタル情報分析方法、及びデジタル情報分析プログラム | |
CN115273220A (zh) | 基于手势的查词方法、查词设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231025 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7374756 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |