JP7379300B2 - 推定装置、推定方法及びプログラム - Google Patents
推定装置、推定方法及びプログラム Download PDFInfo
- Publication number
- JP7379300B2 JP7379300B2 JP2020149570A JP2020149570A JP7379300B2 JP 7379300 B2 JP7379300 B2 JP 7379300B2 JP 2020149570 A JP2020149570 A JP 2020149570A JP 2020149570 A JP2020149570 A JP 2020149570A JP 7379300 B2 JP7379300 B2 JP 7379300B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- attribute
- estimation
- interest
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 45
- 238000013528 artificial neural network Methods 0.000 claims description 44
- 239000013598 vector Substances 0.000 claims description 41
- 230000008569 process Effects 0.000 claims description 13
- 238000009877 rendering Methods 0.000 claims description 8
- 238000009827 uniform distribution Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 20
- 238000012986 modification Methods 0.000 description 16
- 230000004048 modification Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000000342 Monte Carlo simulation Methods 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/52—Parallel processing
Description
本発明の実施形態は推定装置、推定方法及びプログラムに関する。
プラント・社会インフラの老朽化の進行に伴い、それらの維持管理、および修繕に対する要求が増加していることから、現状を計測してデジタル的に管理する試みが行われている。こういった試みは重要箇所を画像で管理するなどが主であったが、全体像の把握のしやすさや物理的な解析への適用可能性などから、近年では三次元データによる管理が行われ始めている。なかでも、レーザーレンジファインダの軽量化・低価格化などを背景に、点群データの蓄積が進んでいる。これらを実際に活用する際には、点群データを編集して不要なデータを削除したり、蓄積されたデータを元にCADで利用可能なデータを作成したりする必要がある。この作業は現在人手で行われており、非常に手間のかかる作業となっている。そこで、点群データの位置やそれに付随する色情報などから各点が何を表現するかを自動推定する技術が提案されている。これらの技術では、事前に点群データとそれに紐づいた点ごとの属性情報(何を表現しているかを表すラベル)からパターンを学習しておき、推定する際にはパターンと入力点との類似性を見て、どの程度各属性に類似しているかを、属性ごとに出力するのが一般的である。
C.Qi et al.,PointNet:Deep Learning on Point Sets for 3D Classification and Segmentation、CVPR 2017.
Y.Gal et al.,Dropout as a Bayesian Approximation:Representing Model Uncertainty in Deep Learning、ICML,2016.
C.R.Qi et al.,Pointnet++:Deep hierarchical feature learning on point sets in a metric space.NIPS,2017.
C. Corbiere1 et al.,Addressing Failure Prediction by Learning Model Confidence、NeurIPS 2019.
しかしながら従来の技術では、入力点の存在可能性を考慮して表示制御することができなかった。学習データを、存在可能性を評価したい環境から取得したデータと考え、出力結果である推定値を学習時のデータとの類似性と考えれば、その値を考慮することで、学習データに類似パターンがあったかどうかを推定することが可能と考えられる。しかしながら従来技術では、推定時の出力結果のうち、最大値に対応する属性をその点が表現するものとして採用する。そのため、誤推定が発生した場合、全く異なる属性の類似性を見ていることとなり、上記のような考え方で存在可能性を評価することはできない。非特許文献4では、推定結果がどの程度信頼できるかを示す値を同時に推定する方法について提案しているが、その値そのものの信頼性については考慮されておらず、それを表示制御に用いる手段についても開示されていない。
実施形態の推定装置は、取得部と生成部と属性推定部と信頼度推定部と表示制御部とを備える。取得部は、第1点群データを取得する。生成部は、前記第1点群データから、属性の推定対象として注目される注目点と、少なくとも1つの観測点と、が結合された第2点群データを生成する。属性推定部は、前記第2点群データが入力される入力層と、前記注目点の属性毎の所属確率を出力する出力層とを含む属性推定ニューラルネットワークから出力された前記所属確率のうち、前記所属確率がより高い推定結果ラベルが示す属性によって、前記注目点の属性を推定する。信頼度推定部は、前記属性推定ニューラルネットワークの中間特徴量が入力される入力層と、正解となる属性のLogit、または所属確率の推定値を出力する出力層とを含む信頼度推定ニューラルネットワークによって、前記推定結果ラベルの信頼度を推定する。表示制御部は、前記信頼度が第1の閾値より大きい前記推定結果ラベルの属性によって、属性が推定された注目点を含む対象物をレンダリングし、前記信頼度が前記第1の閾値以下の前記推定結果ラベルの属性によって、属性が推定された注目点を含む対象物をレンダリングせずに生成された第1の表示情報を表示装置に表示する。
以下に添付図面を参照して、推定装置、推定方法及びプログラムの実施形態を詳細に説明する。
(第1実施形態)
はじめに、第1実施形態の推定装置100の機能構成の例について説明する。
はじめに、第1実施形態の推定装置100の機能構成の例について説明する。
[機能構成の例]
図1は第1実施形態の推定装置100の機能構成の例を示す図である。第1実施形態の推定装置100は、取得部1、入力データ生成部2、属性推定部3、信頼度推定部4及び表示制御部5を備える。入力データ生成部2は、注目点選択部21、観測点選択部22及び結合部23を備える。
図1は第1実施形態の推定装置100の機能構成の例を示す図である。第1実施形態の推定装置100は、取得部1、入力データ生成部2、属性推定部3、信頼度推定部4及び表示制御部5を備える。入力データ生成部2は、注目点選択部21、観測点選択部22及び結合部23を備える。
図1に示す各機能は、別々の装置によって実現されていてもよい。この場合、各装置は、通信網を介して、直接的、又は間接的に通信可能な状態となっており、各装置は、点群データ等を相互に送受信することが可能である。通信網の種類は任意であり、例えば各装置は、建物内に設置されたLAN(Local Area Network)を介して、相互に通信可能な形態であってもよい。また、例えば各装置は、インターネット等のネットワーク(クラウド)を介して、相互に通信可能な形態であってもよい。
取得部1は、外部記憶装置や3次元計測装置等から識別対象となる第1点群データXを取得する。第1点群データXは少なくとも3次元の位置座標(x,y,z)を含む。なお、第1点群データXには、計測方法によっては色情報(r,g,b)、及びレーザーの反射強度情報i等が含まれていてもよい。また、種々の方法で事前に計算された情報がある場合にはそれが含まれても良い。
また、情報や取得元は前述したものに限る必要はない。例えば、別のニューラルネットワークの出力から情報を取得するなどが考えられる。その場合、得られるのはニューラルネットワークの中間特徴量となるため、位置座標が含まれないこともあってよい。
外部記憶装置としては、ハードディスクやCDなどの記憶メディアに限らず、通信網で接続されたサーバ装置が含まれる。3次元計測装置としては、レーザーレンジファインダや、ステレオカメラ等が挙げられる。ステレオカメラの場合には、画像ベースで各ピクセルの奥行を推定することで3次元点を得ることができる。
注目点選択部21は、取得部1で取得された第1点群データXから、属性の推定対象として注目される注目点Cpを選択する。属性は、例えば注目点Cpが何を表す点であるのかを特定する情報を示す。注目点選択部21は、例えば第1点群データXから、一様分布に基づいて注目点Cpを選択する。
説明の簡単のため、以降では注目点Cpが1点であった場合を例にして説明するが、注目点選択部21は、複数の注目点Cpを選択することも可能である。複数の注目点Cpが選択される場合には、各注目点Cpに対し、個別に処理を適用すればよい。もちろん、一般的な深層学習プラットフォームで行われているように、行列、またはテンソルの形式で取り扱うことで、一括処理を行ってもよい。
観測点選択部22は、取得部1で取得された第1点群データXから、あらかじめ決められた数mだけランダムに観測点sを選択する。以降では、選択された複数の観測点sの集合を観測点群Sと呼ぶ。なお、観測点群Sの選択方法はランダムに限定されるものではなく、ある一定の確率分布(選択確率)に従って無作為に選択されていればよい。そのため、観測点群Sは、均等な選択確率以外の選択確率で選択されてもよい。
結合部23は、注目点Cpと観測点群Sとから、注目点Cpの属性を推定するための入力データとして、第2点群データX’を生成する。
図2は第1実施形態の第2点群データX’の例を示す図である。結合部23は、図2に示すように、観測点群Sと注目点Cpとを結合して、第2点群データX’を1つのデータ単位として構成する。具体的には、結合部23は、観測点群Sの元si(0≦i<m,mはSに含まれる観測点の数)と注目点Cpとを結合する処理をSの全ての元について行う。図中ではchが結合される次元に対応し、結合後のchは、観測点siの要素数と注目点Cpの要素数とを合計した値となる。観測点siはm種類あるため、注目点Cp1つに対し、m種類のベクトルが得られることになる。これをテンソルの形でまとめたものが第2点群データX’となる。
なお、図2では、簡単のため、注目点Cpが1点の場合で説明しているが、注目点Cpがn個選択されている場合には、第2点群データX’は、n×m×chのテンソルになる。
また、上記図2の例では、観測点群Sの元siと注目点Cpとの組み合わせでm種類のベクトルを構成したが、ベクトルの構成方法はこれに限るものではない。上記図2の例に追加で、自身との組み合わせである、注目点CpとCpの組み合わせを導入することも考えられる。この場合、m+1種類のベクトルが得られる。また、観測点群Sに含まれる元si同士の組み合わせを追加することも考えられる。前者の場合、注目点Cpを明に考慮することが可能となり、後者の場合、観測点si同士を直接考慮することが可能となる。
図1に戻り、属性推定部3では、結合部23で生成された第2点群データX’を入力とした深層学習により、注目点Cpの属性を推定する。
図3は第1実施形態の属性推定部3の動作例を説明するための図である。F(X)は深層学習ネットワークを表現する関数である。図3に示すように、属性推定部3は、第2点群データX’をn方向に分割したX’1~X’nを、属性推定ニューラルネットワーク200に入力する。属性推定ニューラルネットワーク200は、例えばDNN(Deep Neural Network)である。
属性推定部3は、X’1~X’nのch方向を、属性推定ニューラルネットワーク200の全結合層により畳み込む。このとき、m方向には畳み込まないことに注意する。これにより全結合層で畳み込まれた同じ長さの特徴ベクトル群f1~fmが得られる。
属性推定部3は、この特徴ベクトル群f1~fmに対して対称関数を適用し、得られた特徴ベクトル群を考慮した1つの中間特徴ベクトルf’(中間特徴量)を得る。具体的には、属性推定部3は、要素ごとに最大値をとる操作maxpoolingを行い、1つのベクトルに変換することで、注目点Cp1~Cpnそれぞれの中間特徴ベクトルf’1~f’nを得る。これが、注目点Cp1~CpnのLogitとなる。
属性推定部3が、このLogitに対し、一般的な深層学習で行われているように、softmax関数で0~1の確率で扱える値に変換することで、属性に属する確率を示す所属確率を得る。すなわち、属性推定部3は、第2点群データX’が入力される入力層と、注目点Cpの属性毎の所属確率を出力する出力層とを含む属性推定ニューラルネットワーク200によって、属性毎に所属確率を算出する。
なお、中間特徴ベクトルf’の要素数が属性数cと一致しない場合、中間特徴ベクトルf’にさらに全結合層を適用し、あらかじめ想定していた属性数cと同じ長さのベクトルに調整すればよい。また、必ずしも属性数cに一致するように調整する必要はなく、例えば、このf’をその他の種々のニューラルネットワークの入力とする場合には、必要に応じた長さに要素数を調整すればよい。
なお、深層学習による畳み込みの係数はあらかじめ学習等により決定されているものとする。例えば、第1実施形態と同様の手順で最終的に出力される所属確率を真値と比較し、そのずれに応じて係数を調整する操作を繰り返せばよい。そのほかにも、深層学習の分野で係数を学習する際に行われる種々の方法を用いて決定してよい。
また、上記では対称関数としてmaxpoolingを用いたが、これに限定する必要はない。計算結果が特徴ベクトル群f1~fmの順序に左右されない対称関数であればよい。maxpoolingは、例えば要素ごとの合計、平均などで置き換えることが可能である。さらに、中間特徴ベクトルf’を第1点群データXにおける事前に計算された情報としてもよい。この場合、中間特徴ベクトルf’を第1点群データXの各点に付加した状態で前述した処理を行えばよい。
信頼度推定部4は、属性推定部3による属性推定処理の過程で得られる中間特徴ベクトルf’の入力を受け付け、属性推定ニューラルネットワーク200とは別の深層学習ネットワークG(f’)を、信頼度推定ニューラルネットワークとして適用する。信頼度推定部4は、属性推定部3により得られるLogit、またはLogitにsoftmax関数を適用した結果として得られる属性ごとの所属確率のうち、正解となる属性のLogit、または所属確率を示す値yを、y’=G(f’)によって推定する。
なお、正解となる属性の所属確率は、属性推定ニューラルネットワーク200に入力されたデータが、属性推定ニューラルネットワーク200の学習に使用された教師データに類似するほど高くなる。一方、属性推定ニューラルネットワーク200に入力されたデータが、属性推定ニューラルネットワーク200の学習に使用された教師データと関連がない場合などには、属性推定ニューラルネットワーク200により出力された最大の値を有する所属確率が、正解となる属性の所属確率に対応するとは限らない(推定結果が誤っている場合)。
深層学習ネットワークGの学習は、正解となる属性のLogit、または所属確率を示す値yと推定値y’=G(f’)ができるだけ近い値となるようにして行われる。そのため、ネットワークGの出力からはどの属性が正解かを判断することはできないが、正解となる属性に対して属性推定ニューラルネットワーク200が出力するであろう確率に近い値を出力することが可能と考えられる。そのため、推定値y’=G(f’)が高いほど、属性推定ニューラルネットワーク200により出力された所属確率の最大値に対応する属性として得られる推定結果の精度は高くなる。すなわち、推定値y’=G(f’)は、属性推定ニューラルネットワーク200により得られた推定結果ラベルの信頼度を示す。
なお、Gによる、正解となる属性の所属確率を示す値yの推定方法は、これに限るものではなく、種々の変形が考えられる。例えば、事前に0.0~1.0を任意のステップ(範囲)で分割して通し番号を付けておき、値yが含まれる通し番号をGにより推定する方法などを使用してもよい。この場合、連続値である値yを直接回帰するよりも問題を単純にすることが可能である。また、G(X,f,f’)のように、深層学習ネットワークF(属性推定ニューラルネットワーク200)に入力されるデータ、および内部で計算される種々の中間結果を複数入力して推定するようにしてもよい。
表示制御部5は、属性推定部3及び信頼度推定部4の推定結果をそれぞれ用いて、表示情報を表示制御する。具体的には、表示制御部5は、信頼度推定部4から得られた信頼度y’が閾値以下の点をレンダリング時に対象から外す。すなわち、表示制御部5は、信頼度が閾値より大きい点、すなわち学習データに類似パターンが含まれている可能性がより高い点のみをレンダリングされる表示画像に含める。信頼度y’が確率値であるという観点から最も確実性が高い閾値は0.5と考えられるが、学習による汎化性能を考えると0.5よりも小さい値が閾値として設定されてもよい。
次に第1実施形態の推定方法の例について説明する。
[推定方法の例]
図4は第1実施形態の推定方法の例を示すフローチャートである。はじめに、取得部1が、外部記憶装置や3次元計測装置等から第1点群データを取得する(ステップS1)。次に、注目点選択部21が、ステップS1の処理によって取得された第1点群データXから、属性の推定対象として注目される注目点Cpを選択する(ステップS2)。
図4は第1実施形態の推定方法の例を示すフローチャートである。はじめに、取得部1が、外部記憶装置や3次元計測装置等から第1点群データを取得する(ステップS1)。次に、注目点選択部21が、ステップS1の処理によって取得された第1点群データXから、属性の推定対象として注目される注目点Cpを選択する(ステップS2)。
次に、観測点選択部22が、ステップS1の処理のよって取得された第1点群データXから、m個の観測点si(0≦i<m)を含む観測点群Sを選択する(ステップS3)。
次に、結合部23が、注目点Cpと観測点群Sとから、注目点Cpの属性を推定するための入力データとして、第2点群データX’を生成する(ステップS4)。concatは、観測点siの座標成分と、前記注目点Cpの座標成分とを結合したベクトルを生成する。第2点群データX’は、当該ベクトルの成分を配列したテンソルによって表される(図2参照)。
次に、属性推定部3が、属性推定ニューラルネットワーク200に第2点群データX’を入力し(F(X’))、出力Y=(y1,y2,・・・,yc)を得る(ステップS5)。出力Yの各成分yj(1≦j≦c、cは属性数)は、例えばj番目の成分が示す属性の所属確率を示す0~1の範囲の値である。各成分yjのうち、より高い値(例えば最大値)を示す成分yに対応する推定結果ラベルが示す属性が、属性推定ニューラルネットワーク200により推定された推定結果を示す。
次に、信頼度推定部4が、ステップS5の属性推定処理の過程で得られる中間特徴ベクトルf’の入力を受け付け、正解となる属性のLogit、または所属確率を示す値yの推定値y’=G(f’)により、属性推定ニューラルネットワーク200により得られた推定結果ラベルの信頼度を推定する(ステップS6)。
次に、表示制御部5が、表示装置に表示される表示情報をレンダリングする(ステップS7)。具体的には、表示制御部5が、信頼度y’が閾値より大きい推定結果ラベルの属性によって、属性が推定された注目点Cpを含む対象物をレンダリングする。一方、表示制御部5は、信頼度y’が閾値以下の推定結果ラベルの属性によって、属性が推定された注目点Cpを含む対象物をレンダリングしない。
以上説明したように、第1実施形態の推定装置100では、取得部1が、第1点群データXを取得する。入力データ生成部2が、第1点群データXから、属性の推定対象として注目される注目点Cpと、少なくとも1つの観測点sと、が結合された第2点群データX’を生成する。属性推定部3が、第2点群データX’が入力される入力層と、注目点Cpの属性毎の所属確率を出力する出力層とを含む属性推定ニューラルネットワーク200(深層学習ネットワークF)から出力された所属確率のうち、当該所属確率がより高い推定結果ラベルが示す属性によって、注目点Cpの属性を推定する。信頼度推定部4が、属性推定ニューラルネットワーク200の中間特徴量(中間特徴ベクトルf’)が入力される入力層と、正解となる属性のLogit、または所属確率の推定値y’を出力する出力層とを含む信頼度推定ニューラルネットワーク(深層学習ネットワークG)によって、属性推定ニューラルネットワーク200の推定結果ラベルの信頼度y’を推定する。表示制御部5は、信頼度y’が閾値より大きい推定結果ラベルの属性によって、属性が推定された注目点Cpを含む対象物をレンダリングし、信頼度y’が閾値以下の推定結果ラベルの属性によって、属性が推定された注目点Cpを含む対象物をレンダリングせずに生成された表示情報を表示装置に表示する。
第1実施形態の推定装置100によれば、入力点(第1点群データX)の存在可能性を考慮して表示制御することができる。具体的には、例えば所定の環境に定常的に存在するかどうかといった存在可能性を考慮して可視/不可視(表示/非表示)を制御することができる。例えば、工事中の足場など、一時的にしか存在しない対象物(属性推定ニューラルネットワーク200の学習データには存在しなかった対象物)などを非表示にできるので、ユーザーは対象形状を表す点のみを確認(編集)する際に作業効率を向上させることができる。
(第1実施形態の変形例1)
次に第1実施形態の変形例1について説明する。変形例1の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
次に第1実施形態の変形例1について説明する。変形例1の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
変形例1では、グラフを想定した方法で属性推定部3が属性を推定する場合について説明する。
属性推定部3は、結合部23で構成したテンソル(第2点群データX’)、観測点群S及び注目点Cpを入力とした深層学習により、注目点Cpの属性を推定する。F(X)を、深層学習ネットワークFを表現する関数とした場合に、まず第2点群データX’をn方向に分割したX’1~X’nを入力とし、ch方向を全結合層により畳み込むことで、混合比率φ1~φnを推定する。このとき、m方向には畳み込まないことに注意する。
次に、これと観測点群Sを用いてfi=Σnφisiにより特徴ベクトルfを求める。この場合には、すでに対称関数が適用されているため、特徴ベクトルfが得られた特徴ベクトル群を考慮した1つの中間特徴ベクトルf’(注目点CpのLogit)となる。属性推定部3は、このLogitに対し、一般的な深層学習で行われているように、softmax関数で0~1の確率で扱える値に変換することで、各属性の所属確率を得る。
なお、f’の要素数が属性数cと一致しない場合、f’にさらに全結合層を適用し、あらかじめ想定していた属性数cと同じ長さのベクトルに調整すればよい。
上記の例では観測点群Sのみの重み付き和としてfiを決定しているが、これに限るものではない。例えば、前述したように、テンソル(第2点群データX’)を構成する際に、Cp同士の組み合わせを追加している場合、φjCp(jはCp同士の組み合わせに対応する添え字)についても和をとることが考えられる。
また、Σnφi=1.0となるように制約を追加してもよい。この場合、例えば求めた混合比率φに対してsoftmax関数を適用してもよい。また例えば、φk’=φk/Σnφiを算出し、φk’を混合比率として用いてもよい。
また、Σnφiが可能な限り1.0に近づくように、学習時にL=||1.0-Σnφi||を最小化するような条件を追加してもよい。この場合には、必ずしも合計Σnφiが1.0にならないが、ネットワークから見れば必要に応じて条件を緩和できるという意味で学習しやすくなると考えられる。
また、Cpと算出後のf’ベクトルを要素の方向に結合して、新たなf’としてもよい。この場合には、さらに全結合層を通し、両方のベクトルを考慮した新たなf’を算出する。これにより、単独のCpと、その他の点から見たCpをより明確に考慮することが可能になると考えられる。
さらに、上記の例ではφはスカラーとして扱っているが、φはベクトルとしてもよい。この場合、最初の畳み込みで得られるφはsi、およびCpと同様の要素数を持ち、要素ごとの積をとることとすればよい。また、制約条件も前述したスカラーに対するものと同様のものを要素ごとに適用すればよい。
なお、深層学習による畳み込みの係数はあらかじめ学習等により決定されているものとする。例えば、本変形例と同様の手順で最終的に出力される確率を真値と比較し、そのずれに応じて係数を調整する操作を繰り返せばよい。そのほかにも、深層学習の分野で係数を学習する際に行われる種々の方法を用いて決定してよい。
(第1実施形態の変形例2)
次に第1実施形態の変形例2について説明する。変形例2の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
次に第1実施形態の変形例2について説明する。変形例2の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
変形例2では、より良好な中間特徴ベクトルf’を得るため、深層学習ネットワークF(属性推定ニューラルネットワーク200)に、中間特徴ベクトルf’に適用するフィルタを生成するアテンション構造が有る場合について説明する。
変形例2の属性推定部3は、注目点Cpに対し、属性推定ニューラルネットワーク200の全結合層による畳み込みを行うことで、中間特徴ベクトルf’に作用させるフィルタgを得る。フィルタgは、中間特徴ベクトルf’の要素とgの要素との要素積をとることで、中間特徴ベクトルf’に適用される。なおフィルタgの適用方法は、必ずしも要素積である必要はなく、要素ごとの和をとる方法やf’とgとを結合する方法でもよい。
また、注目点Cpが複数ある場合には、例えば非特許文献3の方法を用いるなどにより、近傍の特徴を考慮することもできる。これにより、注目点Cp、およびその近傍の情報を明に考慮することができる。
(第1実施形態の変形例3)
次に第1実施形態の変形例3について説明する。変形例3の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
次に第1実施形態の変形例3について説明する。変形例3の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
変形例3では、ネットワークにパラメータ決定時とは異なるノイズを注入し、その際の出力の変化を観測することで、注目点Cpに対して、学習データに類似パターンが存在していたか否かを推定する。
変形例3の信頼度推定部4は、ランダムサンプルにより第2点群データX’を生成する際にd+η点でサンプリングし、softmaxを計算する際に温度パラメータTを用いる。つまり、信頼度推定部4は、推定時に、深層学習ネットワークGではなく深層学習ネットワークFを用いる。そして、信頼度推定部4により用いられる深層学習ネットワークFのsoftmax関数は、下記式(1)に変形される。
信頼度推定部4は、深層学習ネットワークFの出力(属性推定ニューラルネットワーク200により出力された推定結果ラベルの所属確率)が閾値より大きい場合、注目点Cpには、学習時に類似パターンが存在していたと推定する。一方、信頼度推定部4は、深層学習ネットワークFの出力が閾値以下の場合、注目点Cpは、学習時に類似パターンが存在していなかった(非定常)物体を表現する点であると推定する。
(第2実施形態)
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
上述の第1実施形態では、形状をリサンプリングして近似することにより、実用的な処理コストで形状全体を考慮する方法について説明した。第2実施形態は、リサンプリングにより失われる情報を統計的に考慮することで、より正確に形状全体を考慮する部分が第1実施形態と異なる。
[機能構成の例]
図5は第2実施形態の推定装置100-2の機能構成の例を示す図である。第2実施形態の推定装置100-2は、取得部1、入力データ生成部2、属性推定部3、信頼度推定部4、表示制御部5、統合部6及び決定部7を備える。入力データ生成部2は、注目点選択部21、観測点選択部22及び結合部23を備える。
図5は第2実施形態の推定装置100-2の機能構成の例を示す図である。第2実施形態の推定装置100-2は、取得部1、入力データ生成部2、属性推定部3、信頼度推定部4、表示制御部5、統合部6及び決定部7を備える。入力データ生成部2は、注目点選択部21、観測点選択部22及び結合部23を備える。
第2実施形態では、統合部6及び決定部7が追加されている。以下に、第1実施形態と異なる処理について説明する。
第2実施形態の観測点選択部22、結合部23及び属性推定部3は、所定の回数LimNだけ、上述のステップS3~ステップS6の処理を繰り返す点が第1実施形態と異なる。そのため、第2実施形態における属性推定部3の出力は、LimN個のc次元のベクトルとなる。
これは新規の点xが入力された場合の出力yの予測分布をベイズ推定していることと等価と考えることができる。また、非特許文献2のドロップアウトをXに含まれる点を考慮しないことと置き換えると、同様の結論が導ける。
ここで、上述のステップS3~ステップS5を繰り返す処理が、新規の点xが入力された場合の出力yの予測分布をベイズ推定していることと等価であることについて説明する。
N個の入力データXと出力Yが観測されているとき、新たなデータx^(x^<xハット>はxの上に^のある記号を示す。)が与えられた場合に予測値y^(y^<yハット>はyの上に^のある記号を示す。)が従う分布は、下記式(2)で表される。
このときのp(w|X,Y)をそのまま求めるのは困難なため、パラメータθを持つ関数qθ(w)を代わりに定義し、下記式(3)のように、その間の距離を最小化することで近似する。
ここで定数項を整理し、VI(θ)を下記式(4)のように定義すると、下記式(5)が得られる。
X,Yを独立と仮定し、VIを全てのデータのうちのM個だけサンプルすると仮定するとともに、qθ(w)をパラメータθを持たない分布p(γ)で置き換えると、下記式(6)が得られる。
上記式(6)の積分部分をモンテカルロ法で近似すると、下記式(7)が得られる。
ここで、観測点が入力点群(第1点群データX)の全ての点とし、一般的なFC(Fully Connected)を考えると、下記式(8)となる。なお、σは活性化関数である。
さらに、対象関数部分を考慮に入れると、下記式(9)が得られる。
実際にはある確率に従って観測点を選ぶので、下記式(10)のようになる。
Zは観測点として選択された点に対応するf以外が0になるようなテンソルであり、第2実施形態の属性推定部3による上記の観測点選択と等価である。さらに活性化関数σにReLUを選べば、下記式(11)により表されるため、下記式(12)が得られる。式(12)中の中括弧内は関数で用いられるパラメータを示す。また、式中のzは式(10)の観測点選択部分を個別の点x向けに書き直したものであり、選択された場合には1、それ以外の場合には0となる。
g(θ,γ)を上記式(12)の{}内のパラメータを作る関数と考えると、f’がyと一致するようにW,bを学習することは、前述したVIハットを最小化するパラメータを学習することと等価といえる。
また、信頼度推定部4は、属性推定部3にて繰り返されるステップS3~ステップS5の処理に連動して、同様にステップS6の信頼度の推定処理を繰り返す。この第2実施形態の信頼度推定部4の処理についても、上述の属性推定部3の処理の説明と同様に、ベイズ推定を行っていることと等価となる。
次に、統合部6及び決定部7の動作について説明する。
統合部6は、第2点群データX’毎に算出された所属確率に基づいて、属性毎に統合確率を算出する。例えば統合部6は、属性推定部3から得られたLimN個のc次元ベクトルを平均することによって、c次元ベクトルによって表された統合確率を得る。すなわち、統合確率は、例えば所定の回数だけ生成された第2点群データX’毎に算出された複数の所属確率Yの平均である。
また、統合部6は、信頼度推定部4にて得られたLimN個の信頼度y’に基づいて統合信頼度を算出する。例えば、統合部6は、信頼度推定部4にて得られたLimN個の信頼度y’を平均することによって、統合信頼度を算出する。
決定部7は、統合確率がより大きい属性を、注目点の属性に決定する。例えば決定部7は、統合部6から得られるc次元ベクトルの各要素(成分)のうち最大の値を持つ要素に対応する属性を、注目点Cpの属性に決定する。また、決定部7は、統合信頼度に基づいて、注目点Cpを含む対象物をレンダリングするか否かを決定する。例えば、決定部7は、注目点Cpの統合信頼度が閾値より大きい場合、当該注目点Cpを含む対象物をレンダリングすると決定し、当該統合信頼度が閾値以下の場合、当該注目点Cpを含む対象物をレンダリングしないと決定する。
次に第2実施形態の推定方法の例について説明する。
[推定方法の例]
図6は第2実施形態の推定方法の例を示すフローチャートである。ステップS11~ステップS16の処理は、第1実施形態のステップS1~ステップS6の処理と同じなので、説明を省略する。
図6は第2実施形態の推定方法の例を示すフローチャートである。ステップS11~ステップS16の処理は、第1実施形態のステップS1~ステップS6の処理と同じなので、説明を省略する。
統合部6は、所属確率Y及び信頼度y’(または第2点群データX’)が所定の回数(LimN回)、生成されたか否かを判定する(ステップS17)。所定の回数、所属確率Y及び信頼度y’が生成されていない場合(ステップS16,No)、ステップS13の処理に戻る。
所定の回数、所属確率Y及び信頼度y’が生成された場合(ステップS17,Yes)、統合部6は、LimN個の所属確率Yを平均することによって、統合確率を算出する(ステップS18)。次に、統合部6は、LimN個の信頼度y’を平均することによって、統合信頼度を算出する(ステップS19)。
次に、表示制御部5が、表示装置に表示される表示情報をレンダリングする(ステップS20)。具体的には、表示制御部5によりレンダリングされる注目点Cpの属性は、決定部7により決定される。決定部7は、ステップS19の処理により得られた統合信頼度に基づいて、注目点Cpを含む対象物をレンダリングするか否か(注目点Cpを含む対象物の可視/不可視)を決定する。
以上説明したように、第2実施形態の推論装置100-2では、注目点Cpの属性を認識する際に、形状を観測点群Sとしてランダムサンプリングし、注目点Cpとあわせてフィルタgを適用することで、深層学習ネットワークF(属性推定ニューラルネットワーク200)から出力される推定結果ラベルが示す属性の所属確率を得る。この深層学習ネットワークFの中間特徴ベクトルf’を抽出して異なる深層学習ネットワークG(信頼度推定ニューラルネットワーク)に入力し、上記の所属確率を回帰する。これら2つのネットワークによる推論をつどランダムサンプリングしながら複数回繰り返し(モンテカルロ法に類似した構造)、出力を統合することで形状全体を対象にフィルタgを適用した場合を近似した認識結果、及び、推定結果ラベルが示す属性の所属確率とその分散とを得る。
第2実施形態の推論装置100-2によれば、注目点Cpの属性を推定し、属性を示す表示情報を表示する際に、統計的な枠組みを用いてより詳細に第1点群データXの形状全体を考慮しながら対象物の可視/不可視を制御することが可能となる。
(第3実施形態)
次に第3実施形態について説明する。第3実施形態の説明では、第2実施形態と同様の説明については省略し、第2実施形態と異なる箇所について説明する。
次に第3実施形態について説明する。第3実施形態の説明では、第2実施形態と同様の説明については省略し、第2実施形態と異なる箇所について説明する。
第2実施形態では、統計的な枠組みを用いて、より詳細に形状全体を考慮する方法について説明した。第3実施形態では、さらにユーザー入力を考慮することで直感的な可視/不可視の制御方法を提供する場合について説明する。
[機能構成の例]
図7は第3実施形態の推定装置100-3の機能構成の例を示す図である。第3実施形態の推定装置100-3は、取得部1、入力データ生成部2、属性推定部3、信頼度推定部4、表示制御部5、統合部6、決定部7、非表示点選択部8及び判定部9を備える。入力データ生成部2は、注目点選択部21、観測点選択部22及び結合部23を備える。
図7は第3実施形態の推定装置100-3の機能構成の例を示す図である。第3実施形態の推定装置100-3は、取得部1、入力データ生成部2、属性推定部3、信頼度推定部4、表示制御部5、統合部6、決定部7、非表示点選択部8及び判定部9を備える。入力データ生成部2は、注目点選択部21、観測点選択部22及び結合部23を備える。
第3実施形態では、非表示点選択部8及び判定部9が追加されている。以下に、第2実施形態と異なる処理について説明する。
非表示点選択部8は、表示制御部5によって表示装置に表示された表示情報から、取り除く点(非表示にする点)の選択を受け付ける。例えば、非表示点選択部8は、表示情報に含まれている非定常物体を示す点を、取り除く点としてユーザーから受け付ける。非表示点選択部8は、例えば表示情報上の選択対象となる点を、直接的な方法で選択するマウス及びタッチペンなどの入力デバイスによって実現される。
判定部9は、非表示点選択部8で選択された点の信頼度yin’に基づいて取り除く点を判定する。例えば、判定部9は、非表示点選択部8により選択された点の信頼度yin’との差が閾値より小さい信頼度y’を有する点を判定する。そして、表示制御部5が、表示装置に表示される表示情報を、非表示点選択部8により選択された点を含む対象物と、判定部9により判定された点を含む対象物とをレンダリングせずに生成された表示情報に更新する。
なお、非表示点選択部8により選択される点は、属性の推定対象である注目点Cp以外の点でもよい。注目点Cp以外の点が選択された場合、選択された点の信頼度yin’は、例えば、選択された点の近傍にある注目点Cpの信頼度y’により補間するか、または最近傍のy’をそのまま用いるなどでもよい。
また、第2及び3実施形態では、信頼度y’を推定する際にその推定の不確定性とも考えられる分散を得ることができる。そこで、判定部9は、その分散か、または分散から計算可能な偏差σを用いて信頼度y’の範囲を判定してもよい。例えば、判定部9は、yin’-σ≦y’≦yin’+σの範囲に含まれる信頼度y’を持つ点を抽出してレンダリング対象の点から取り除く。
なお、信頼度y’の範囲については、必ずしも上記の条件を用いる必要はなく、例えばσを加減算するのではなく、それに定数λを乗じたλσを加減算することで調整してもよいし、一定の値を加減算してもよい。また、ユーザーの入力に応じて調整された値を加減算してもよい。つまり、yin’を中心に一定の範囲を定義する種々の方法を用いることが可能である。
最後に第1乃至第3実施形態の推定装置100乃至100-3のハードウェア構成の例について説明する。
[ハードウェア構成の例]
図8は第1乃至第3実施形態の推定装置100(100-2、100-3)のハードウェア構成の例を示す図である。
図8は第1乃至第3実施形態の推定装置100(100-2、100-3)のハードウェア構成の例を示す図である。
第1乃至第3実施形態の推定装置100(100-2、100-3)は、制御装置201、主記憶装置202、補助記憶装置203、表示装置204、入力装置205及び通信装置206を備える。制御装置201、主記憶装置202、補助記憶装置203、表示装置204、入力装置205及び通信装置206は、バス210を介して接続されている。
制御装置201は、補助記憶装置203から主記憶装置202に読み出されたプログラムを実行する。主記憶装置202は、ROM及びRAM等のメモリである。補助記憶装置203は、HDD(Hard Disk Drive)及びメモリカード等である。
表示装置204は、表示情報を表示する。表示装置204は、例えば液晶ディスプレイ等である。入力装置205は、推定装置100(100-2、100-3)を操作するためのインタフェースである。入力装置205は、例えばキーボードやマウス等である。推定装置100(100-2、100-3)がスマートフォン及びタブレット型端末等のスマートデバイスの場合、表示装置204及び入力装置205は、例えばタッチパネルである。
通信装置206は、外部記憶装置や3次元計測装置等と通信するためのインタフェースである。
第1乃至第3実施形態の推定装置100(100-2、100-3)で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、メモリカード、CD-R及びDVD等のコンピュータで読み取り可能な記憶媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。
また第1乃至第3実施形態の推定装置100(100-2、100-3)で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また第1乃至第3実施形態の推定装置100(100-2、100-3)で実行されるプログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
また第1乃至第3実施形態の推定装置100(100-2、100-3)のプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1乃至第3実施形態の推定装置100(100-2、100-3)で実行されるプログラムは、上述した機能ブロック(図1、5及び7)のうち、プログラムによっても実現可能な機能ブロックを含むモジュール構成となっている。当該各機能ブロックは、実際のハードウェアとしては、制御装置201が記憶媒体からプログラムを読み出して実行することにより、上記各機能ブロックが主記憶装置202上にロードされる。すなわち上記各機能ブロックは主記憶装置202上に生成される。
なお上述した各機能ブロックの一部又は全部をソフトウェアにより実現せずに、IC(Integrated Circuit)等のハードウェアにより実現してもよい。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2以上を実現してもよい。
また第1乃至第3実施形態の推定装置100(100-2、100-3)の動作形態は任意でよい。第1乃至第3実施形態の推定装置100(100-2、100-3)を、例えばネットワーク上のクラウドシステムとして動作させてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 取得部
2 入力データ生成部
3 属性推定部
4 信頼度推定部
5 表示制御部
6 統合部
7 決定部
8 非表示点選択部
9 判定部
21 注目点選択部
22 観測点選択部
23 結合部
100 推定装置
201 制御装置
202 主記憶装置
203 補助記憶装置
204 表示装置
205 入力装置
206 通信装置
210 バス
2 入力データ生成部
3 属性推定部
4 信頼度推定部
5 表示制御部
6 統合部
7 決定部
8 非表示点選択部
9 判定部
21 注目点選択部
22 観測点選択部
23 結合部
100 推定装置
201 制御装置
202 主記憶装置
203 補助記憶装置
204 表示装置
205 入力装置
206 通信装置
210 バス
Claims (9)
- 第1点群データを取得する取得部と、
前記第1点群データから、属性の推定対象として注目される注目点と、少なくとも1つの観測点と、が結合された第2点群データを生成する生成部と、
前記第2点群データが入力される入力層と、前記注目点の属性毎の所属確率を出力する出力層とを含む属性推定ニューラルネットワークから出力された前記所属確率のうち、前記所属確率がより高い推定結果ラベルが示す属性によって、前記注目点の属性を推定する属性推定部と、
前記属性推定ニューラルネットワークの中間特徴量が入力される入力層と、正解となる属性のLogit、または所属確率の推定値を出力する出力層とを含む信頼度推定ニューラルネットワークによって、前記推定結果ラベルの信頼度を推定する信頼度推定部と、
前記信頼度が第1の閾値より大きい前記推定結果ラベルの属性によって、属性が推定された注目点を含む対象物をレンダリングし、前記信頼度が前記第1の閾値以下の前記推定結果ラベルの属性によって、属性が推定された注目点を含む対象物をレンダリングせずに生成された第1の表示情報を表示装置に表示する表示制御部と、
を備える推定装置。 - 前期生成部は、
前期第1点群データから前記注目点を選択する注目点選択部と、
前期第1点群データから、所定の選択確率にしたがって、所定の数の前記観測点を選択する観測点選択部と、
前記観測点毎に、前記観測点の座標成分と、前記注目点の座標成分とを結合したベクトルを生成する結合部と、を備え、
前記第2点群データは、前記ベクトルの成分を配列したテンソルによって表される、
請求項1に記載の推定装置。 - 前記注目点選択部は、前期第1点群データから、一様分布に基づいて前記注目点を選択する、
請求項2に記載の推定装置。 - 前記生成部は、前記第2点群データの生成処理を所定の回数だけ繰り返し、
前記属性推定部は、所定の回数だけ生成された前記第2点群データ毎に、前記所属確率を算出し、
前記信頼度推定部は、所定の回数だけ生成された前記第2点群データ毎に、前記信頼度を算出し、
前記第2点群データ毎に算出された所属確率と信頼度とに基づいて、前記属性毎に統合確率と統合信頼度とを算出する統合部、
を更に備える請求項1乃至3のいずれか1項に記載の推定装置。 - 前記統合確率は、前記所定の回数だけ生成された第2点群データ毎に算出された複数の所属確率の平均であり、
前記統合確率は、前記所定の回数だけ生成された第2点群データ毎に算出された複数の信頼度の平均である、
請求項4に記載の推定装置。 - 前記統合確率がより大きい属性を、前記注目点の属性に決定し、前記統合信頼度に基づいて、前記注目点を含む対象物をレンダリングするか否かを決定する決定部、
を更に備える請求項4又は5に記載の推定装置。 - 前記第1の表示情報に含まれる点の選択を受け付ける非表示点選択部と、
前記非表示点選択部により選択された点の信頼度との差が第2の閾値より小さい信頼度を有する点を判定する判定部と、を更に備え、
前記表示制御部は、前記第1の表示情報を、前記非表示点選択部により選択された点を含む対象物と、前記判定部により判定された点を含む対象物とをレンダリングせずに生成された第2の表示情報に更新する、
請求項1乃至6のいずれか1項に記載の推定装置。 - 推定装置が、第1点群データを取得するステップと、
前記推定装置が、前記第1点群データから、属性の推定対象として注目される注目点と、少なくとも1つの観測点と、が結合された第2点群データを生成するステップと、
前記推定装置が、前記第2点群データが入力される入力層と、前記注目点の属性毎の所属確率を出力する出力層とを含む属性推定ニューラルネットワークから出力された前記所属確率のうち、前記所属確率がより高い推定結果ラベルが示す属性によって、前記注目点の属性を推定するステップと、
前記推定装置が、前記属性推定ニューラルネットワークの中間特徴量が入力される入力層と、正解となる属性のLogit、または所属確率の推定値を出力する出力層とを含む信頼度推定ニューラルネットワークによって、前記推定結果ラベルの信頼度を推定するステップと、
前記推定装置が、前記信頼度が第1の閾値より大きい前記推定結果ラベルの属性によって、属性が推定された注目点を含む対象物をレンダリングし、前記信頼度が前記第1の閾値以下の前記推定結果ラベルの属性によって、属性が推定された注目点を含む対象物をレンダリングせずに生成された第1の表示情報を表示装置に表示するステップと、
を含む推定方法。 - コンピュータを、
第1点群データを取得する取得部と、
前記第1点群データから、属性の推定対象として注目される注目点と、少なくとも1つの観測点と、が結合された第2点群データを生成する生成部と、
前記第2点群データが入力される入力層と、前記注目点の属性毎の所属確率を出力する出力層とを含む属性推定ニューラルネットワークから出力された前記所属確率のうち、前記所属確率がより高い推定結果ラベルが示す属性によって、前記注目点の属性を推定する属性推定部と、
前記属性推定ニューラルネットワークの中間特徴量が入力される入力層と、正解となる属性のLogit、または所属確率の推定値を出力する出力層とを含む信頼度推定ニューラルネットワークによって、前記推定結果ラベルの信頼度を推定する信頼度推定部と、
前記信頼度が閾値より大きい前記推定結果ラベルの属性によって、属性が推定された注目点を含む対象物をレンダリングし、前記信頼度が前記閾値以下の前記推定結果ラベルの属性によって、属性が推定された注目点を含む対象物をレンダリングせずに生成された第1の表示情報を表示装置に表示する表示制御部、
として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020149570A JP7379300B2 (ja) | 2020-09-07 | 2020-09-07 | 推定装置、推定方法及びプログラム |
US17/191,771 US20220076058A1 (en) | 2020-09-07 | 2021-03-04 | Estimation device, estimation method, and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020149570A JP7379300B2 (ja) | 2020-09-07 | 2020-09-07 | 推定装置、推定方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022044112A JP2022044112A (ja) | 2022-03-17 |
JP7379300B2 true JP7379300B2 (ja) | 2023-11-14 |
Family
ID=80470732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020149570A Active JP7379300B2 (ja) | 2020-09-07 | 2020-09-07 | 推定装置、推定方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220076058A1 (ja) |
JP (1) | JP7379300B2 (ja) |
-
2020
- 2020-09-07 JP JP2020149570A patent/JP7379300B2/ja active Active
-
2021
- 2021-03-04 US US17/191,771 patent/US20220076058A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220076058A1 (en) | 2022-03-10 |
JP2022044112A (ja) | 2022-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210279642A1 (en) | Mixed-initiative machine learning systems and methods for determining segmentations | |
JP6555411B2 (ja) | 情報処理方法および情報処理装置 | |
US9111375B2 (en) | Evaluation of three-dimensional scenes using two-dimensional representations | |
US20200167564A1 (en) | Machine learning to predict cognitive image composition | |
JP2020087103A (ja) | 学習方法、コンピュータプログラム、分類器、及び生成器 | |
CN110689110B (zh) | 处理交互事件的方法及装置 | |
CN114556413A (zh) | 用于组织分割的机器学习模型的交互式训练 | |
CN111524216A (zh) | 生成三维人脸数据的方法和装置 | |
CN111445021B (zh) | 学习方法、学习设备和计算机可读记录介质 | |
CN114072809A (zh) | 经由神经架构搜索的小且快速的视频处理网络 | |
Hamzah et al. | Improvement of stereo matching algorithm based on sum of gradient magnitude differences and semi‐global method with refinement step | |
JP7395705B2 (ja) | 推定装置、推定方法及びプログラム | |
JP7379300B2 (ja) | 推定装置、推定方法及びプログラム | |
Sadia et al. | Bayesian change-point modeling with segmented ARMA model | |
CN113470124B (zh) | 特效模型的训练方法及装置、特效生成方法及装置 | |
CN115359508A (zh) | 通过专家的神经元优化以提高的效率执行复杂优化任务 | |
CN114998814A (zh) | 目标视频生成方法、装置、计算机设备和存储介质 | |
JPWO2012032747A1 (ja) | 特徴点選択システム、特徴点選択方法および特徴点選択プログラム | |
Xu et al. | Modeling and predicting chaotic circuit data | |
JP6954070B2 (ja) | 判別プログラム、判別方法および判別装置 | |
WO2022190301A1 (ja) | 学習装置、学習方法、及びコンピュータ可読媒体 | |
CN114844889B (zh) | 视频处理模型的更新方法、装置、电子设备及存储介质 | |
US20220076162A1 (en) | Storage medium, data presentation method, and information processing device | |
JP2005242580A (ja) | パラメータ推定方法、データ予測方法、パラメータ推定装置、データ予測装置、及びコンピュータプログラム | |
WO2022216590A1 (en) | Cell nuclei classification with artifact area avoidance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231101 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7379300 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |