JP2023017091A - 推定装置、推定方法及びプログラム - Google Patents

推定装置、推定方法及びプログラム Download PDF

Info

Publication number
JP2023017091A
JP2023017091A JP2022197944A JP2022197944A JP2023017091A JP 2023017091 A JP2023017091 A JP 2023017091A JP 2022197944 A JP2022197944 A JP 2022197944A JP 2022197944 A JP2022197944 A JP 2022197944A JP 2023017091 A JP2023017091 A JP 2023017091A
Authority
JP
Japan
Prior art keywords
point
reliability
cloud data
attribute
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022197944A
Other languages
English (en)
Other versions
JP7395705B2 (ja
Inventor
徳裕 中村
Tokuhiro Nakamura
晃仁 関
Akihito Seki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2022197944A priority Critical patent/JP7395705B2/ja
Publication of JP2023017091A publication Critical patent/JP2023017091A/ja
Application granted granted Critical
Publication of JP7395705B2 publication Critical patent/JP7395705B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2137Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Graphics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Computer Hardware Design (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】点群データの属性の推定精度を向上させる。【解決手段】実施形態の推定装置は、取得部と生成部と推定部とを備える。取得部は、第1点群データを取得する。生成部は、前記第1点群データから、属性の推定対象として注目される注目点と、少なくとも1つの観測点と、が結合された第2点群データを生成する。推定部は、前記第2点群データを使用して、前記属性に属する所属確率を、前記属性毎に算出することによって、前記注目点の属性を推定する。【選択図】図1

Description

本発明の実施形態は推定装置、推定方法及びプログラムに関する。
プラント・社会インフラの老朽化の進行に伴い、それらの維持管理、および修繕に対する要求が増加していることから、現状を計測してデジタル的に管理する試みが行われている。こういった試みは重要箇所を画像で管理するなどが主であったが、全体像の把握のしやすさや物理的な解析への適用可能性などから、近年では三次元データによる管理が行われ始めている。なかでも、レーザーレンジファインダの軽量化・低価格化などを背景に、点群データの蓄積が進んでいる。これらを実際に活用する際には、点群データを編集して不要なデータを削除したり、蓄積されたデータを元にCADで利用可能なデータを作成したりする必要がある。この作業は現在人手で行われており、非常に手間のかかる作業となっている。そこで、点群データの位置やそれに付随する色情報などから各点が何を表現するかを自動推定する技術が提案されている。
特開2019-008571号公報
C. Qi et al., PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation、CVPR 2017 Y. Gal et al., Dropout as a Bayesian Approximation:Representing Model Uncertainty in Deep Learning、ICML, 2016.
しかしながら、従来の技術では、点群データの属性の推定精度を向上させることが難しかった。
実施形態の推定装置は、取得部と観測点選択部と生成部と推定部とを備える。取得部は、第1点群データを取得する。観測点選択部は、前記第1点群データから、所定の選択確率にしたがって、所定の数の観測点を選択する。生成部は、前記第1点群データから、属性の推定対象として注目される注目点と、少なくとも1つの前記観測点と、が結合された第2点群データを生成する。推定部は、前記第2点群データを使用して、前記属性に属する所属確率を、前記属性毎に算出することによって、前記注目点の属性を推定する。前記生成部は、注目点選択部と結合部とを備える。注目点選択部は、前記第1点群データから前記注目点を選択する。結合部は、前記観測点毎に、前記観測点を表すベクトルの要素と、前記注目点を表すベクトルの要素とを結合した結合ベクトルを生成する。前記第2点群データは、前記結合ベクトルの成分を配列したテンソルによって表される。
第1実施形態の推定装置の機能構成の例を示す図。 第1実施形態の第2点群データの例を示す図。 第1実施形態の推定部の動作例を説明するための図。 第1実施形態の推定方法の例を示すフローチャート。 第2実施形態の推定装置の機能構成の例を示す図。 第2実施形態の推定方法の例を示すフローチャート。 第3実施形態の推定装置の機能構成の例を示す図。 第3実施形態の補正部の動作例を説明するための図。 第3実施形態の推定方法の例を示すフローチャート。 第4実施形態の推定装置の機能構成の例を示す図。 第4実施形態の信頼度マップの例を示す図。 第1乃至第4実施形態の推定装置のハードウェア構成の例を示す図。
以下に添付図面を参照して、推定装置、推定方法及びプログラムの実施形態を詳細に説明する。
(第1実施形態)
はじめに、第1実施形態の推定装置100の機能構成の例について説明する。
[機能構成の例]
図1は第1実施形態の推定装置100の機能構成の例を示す図である。第1実施形態の推定装置100は、取得部1、入力データ生成部2及び推定部3を備える。入力データ生成部2は、注目点選択部21、観測点選択部22及び結合部23を備える。
図1に示す各機能は、別々の装置によって実現されていてもよい。この場合、各装置は、通信網を介して、直接的、又は間接的に通信可能な状態となっており、各装置は、点群データ等を相互に送受信することが可能である。通信網の種類は任意であり、例えば各装置は、建物内に設置されたLAN(Local Area Network)を介して、相互に通信可能な形態であってもよい。また、例えば各装置は、インターネット等のネットワーク(クラウド)を介して、相互に通信可能な形態であってもよい。
取得部1は、外部記憶装置や3次元計測装置等から識別対象となる第1点群データXを取得する。第1点群データXは少なくとも3次元の位置座標(x,y,z)を含む。なお、第1点群データXには、計測方法によっては色情報(r,g,b)、及びレーザーの反射強度情報i等が含まれていてもよい。また、種々の方法で事前に計算された情報がある場合にはそれが含まれても良い。
外部記憶装置としては、ハードディスクやCDなどの記憶メディアに限らず、通信網で接続されたサーバ装置が含まれる。3次元計測装置としては、レーザーレンジファインダや、ステレオカメラ等が挙げられる。ステレオカメラの場合には、画像ベースで各ピクセルの奥行を推定することで3次元点を得ることができる。
注目点選択部21は、取得部1で取得された第1点群データXから、属性の推定対象として注目される注目点Cpを選択する。属性は、例えば注目点Cpが何を表す点であるのかを特定する情報を示す。
説明の簡単のため、以降では注目点Cpが1点であった場合を例にして説明するが、注目点選択部21は、複数の注目点Cpを選択することも可能である。複数の注目点Cpが選択される場合には、各注目点Cpに対し、個別に処理を適用すればよい。
観測点選択部22は、取得部1で取得された第1点群データXから、あらかじめ決められた数mだけランダムに観測点sを選択する。以降では、選択された複数の観測点sの集合を観測点群Sと呼ぶ。なお、観測点群Sの選択方法はランダムに限定されるものではなく、ある一定の確率分布(選択確率)に従って無作為に選択されていればよい。そのため、観測点群Sは、均等な選択確率以外の選択確率で選択されてもよい。
結合部23は、注目点Cpと観測点群Sとから、注目点Cpの属性を推定するための入力データとして、第2点群データX’を生成する。
図2は第1実施形態の第2点群データX’の例を示す図である。結合部23は、図2に示すように、観測点群Sと注目点Cpとを結合して、第2点群データX’を1つのデータ単位として構成する。具体的には、結合部23は、観測点群Sの元si(0≦i<m,mはSに含まれる観測点の数)と注目点Cpとを結合する処理をSの全ての元について行う。図中ではchが結合される次元に対応し、結合後のchは、観測点siの要素数と注目点Cpの要素数とを合計した値となる。観測点siはm種類あるため、注目点Cp1つに対し、m種類のベクトルが得られることになる。これをテンソルの形でまとめたものが第2点群データX’となる。
なお、図2では、簡単のため、注目点Cpが1点の場合で説明しているが、注目点Cpがn個選択されている場合には、第2点群データX’は、n×m×chのテンソルになる。
図1に戻り、推定部3では、結合部23で生成された第2点群データX’を入力とした深層学習により、注目点Cpの属性を推定する。
図3は第1実施形態の推定部3の動作例を説明するための図である。F(X)は深層学習ネットワークを表現する関数である。図3に示すように、推定部3は、第2点群データX’をn方向に分割したX’1~X’nを、ニューラルネットワーク200に入力する。ニューラルネットワーク200は、例えばDNN(Deep Neural Network)である。
推定部3は、X’1~X’nのch方向を、ニューラルネットワーク200の全結合層により畳み込む。このとき、m方向には畳み込まないことに注意する。これにより全結合層で畳み込まれた同じ長さの特徴ベクトル群f1~fmが得られる。
推定部3は、この特徴ベクトル群f1~fmに対して対称関数を適用し、得られた特徴ベクトル群を考慮した1つの特徴ベクトルf’を得る。具体的には、推定部3は、要素ごとに最大値をとる操作maxpoolingを行い、1つのベクトルに変換することで最終的な注目点の特徴ベクトルf’1~f’nを得る。これが、注目点CpのLogitとなる。
推定部3が、このLogitに対し、一般的な深層学習で行われているように、softmax関数で0~1の確率で扱える値に変換することで、属性に属する確率を示す所属確率を得る。すなわち、推定部3は、第2点群データX’が入力される入力層と、属性毎の所属確率を出力する出力層とを含むニューラルネットワーク200によって、属性毎に所属確率を算出する。
なお、f’の要素数が属性数cと一致しない場合、f’にさらに全結合層を適用し、あらかじめ想定していた属性数cと同じ長さのベクトルに調整すればよい。
なお、深層学習による畳み込みの係数はあらかじめ学習等により決定されているものとする。例えば、第1実施形態と同様の手順で最終的に出力される所属確率を真値と比較し、そのずれに応じて係数を調整する操作を繰り返せばよい。そのほかにも、深層学習の分野で係数を学習する際に行われる種々の方法を用いて決定してよい。
また、上記では対称関数としてmaxpoolingを用いたが、これに限定する必要はない。計算結果が特徴ベクトル群f1~fmの順序に左右されない対称関数であればよい。maxpoolingは、例えば要素ごとの合計、平均などで置き換えることが可能である。さらに、f’を第1点群データXにおける事前に計算された情報としてもよい。この場合、f’を点群データXの各点に付加した状態で前述した処理を行えばよい。
次に第1実施形態の推定方法の例について説明する。
[推定方法の例]
図4は第1実施形態の推定方法の例を示すフローチャートである。はじめに、取得部1が、外部記憶装置や3次元計測装置等から第1点群データを取得する(ステップS1)。次に、注目点選択部21が、ステップS1の処理によって取得された第1点群データXから、属性の推定対象として注目される注目点Cpを選択する(ステップS2)。
次に、観測点選択部22が、ステップS1の処理のよって取得された第1点群データXから、m個の観測点si(0≦i<m)を含む観測点群Sを選択する(ステップS3)。
次に、結合部23が、注目点Cpと観測点群Sとから、注目点Cpの属性を推定するための入力データとして、第2点群データX’を生成する(ステップS4)。concatは、観測点siの座標成分と、前記注目点Cpの座標成分とを結合したベクトルを生成する。第2点群データX’は、当該ベクトルの成分を配列したテンソルによって表される(図2参照)。
次に、推定部3が、ニューラルネットワーク200(DNN)に第2点群データX’を入力し、出力y’を得る(ステップS5)。出力y’は、例えば属性毎の所属確率を示す0~1の範囲の値である。
以上説明したように、第1実施形態の推定装置100では、取得部1が、第1点群データXを取得する。入力データ生成部2が、第1点群データXから、属性の推定対象として注目される注目点Cpと、少なくとも1つの観測点sと、が結合された第2点群データX’を生成する。そして、推定部3が、第2点群データX’を使用して、属性に属する所属確率を、属性毎に算出することによって、注目点Cpの属性を推定する。
第1実施形態の推定装置100によれば、点群データXにより表される形状全体を、リサンプリング(観測点群S)により近似し、それを注目点Cpとあわせるように構成(第2点群データX’)することで、注目点Cpの属性を決定する際に、明に計算に用いる点の選択範囲を設けず、形状全体を考慮することが可能となる。これにより第1実施形態の推定装置100によれば、点群データXの属性の推定精度を向上させることができる。
(第2実施形態)
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
上述の第1実施形態では、形状をリサンプリングして近似することにより、実用的な処理コストで形状全体を考慮する方法について説明した。第2実施形態は、リサンプリングにより失われる情報を統計的に考慮することで、より正確に形状全体を考慮する部分が第1実施形態と異なる。
[機能構成の例]
図5は第2実施形態の推定装置100-2の機能構成の例を示す図である。第2実施形態の推定装置100-2は、取得部1、入力データ生成部2、推定部3、統合部4及び決定部5を備える。入力データ生成部2は、注目点選択部21、観測点選択部22及び結合部23を備える。
第2実施形態では、統合部4及び決定部5が追加されている。以下に、第1実施形態と異なる処理について説明する。
第2実施形態の観測点選択部22、結合部23及び推定部3は、所定の回数LimNだけ、上述のステップS3~ステップS5の処理を繰り返す点が第1実施形態と異なる。そのため、第2実施形態における推定部3の出力は、LimN個のc次元のベクトルとなる。
これは新規の点xが入力された場合の出力yの予測分布をベイズ推定していることと等価と考えることができる。また、非特許文献2のドロップアウトをXに含まれる点を考慮しないことと置き換えると、同様の結論が導ける。
ここで、上述のステップS3~ステップS5を繰り返す処理が、新規の点xが入力された場合の出力yの予測分布をベイズ推定していることと等価であることについて説明する。
N個の入力データXと出力Yが観測されているとき、新たなデータx^(x^<xハット>はxの上に^のある記号を示す。)が与えられた場合に予測値y^(y^<yハット>はyの上に^のある記号を示す。)が従う分布は、下記式(1)で表される。
Figure 2023017091000002
このときのp(w|X,Y)をそのまま求めるのは困難なため、パラメータθを持つ関数qθ(w)を代わりに定義し、上記式(2)のように、その間の距離を最小化することで近似する。
Figure 2023017091000003
ここで定数項を整理し、VI(θ)を下記式(3)のように定義すると、下記式(4)が得られる。
Figure 2023017091000004
Figure 2023017091000005
X,Yを独立と仮定し、VIを全てのデータのうちのM個だけサンプルすると仮定するとともに、qθ(w)をパラメータθを持たない分布p(γ)で置き換えると、下記式(5)が得られる。
Figure 2023017091000006
上記式(5)の積分部分をモンテカルロ法で近似すると、下記式(6)が得られる。
Figure 2023017091000007
ここで、観測点が入力点群Xの全ての点とし、一般的なFC(Fully Connected)を考えると、下記式(7)となる。なお、σは活性化関数である。
Figure 2023017091000008
さらに、対象関数部分を考慮に入れると、下記式(8)が得られる。
Figure 2023017091000009
実際にはある確率に従って観測点を選ぶので、下記式(9)のようになる。
Figure 2023017091000010
Zは観測点として選択された点に対応するf以外が0になるようなテンソルであり、第2実施形態の推定部3による上記の観測点選択と等価である。さらに活性化関数σにReLUを選べば、下記式(10)により表されるため、下記式(11)が得られる。式(11)中の中括弧内は関数で用いられるパラメータを示す。また、式中のzは式(9)の観測点選択部分を個別の点x向けに書き直したものであり、選択された場合には1、それ以外の場合には0となる。
Figure 2023017091000011
Figure 2023017091000012
g(θ,γ)を上記式(11)の{}内のパラメータを作る関数と考えると、f’がyと一致するようにW,bを学習することは、前述したVIハットを最小化するパラメータを学習することと等価といえる。
次に、統合部4及び決定部5の動作について説明する。
統合部4は、第2点群データX’毎に算出された所属確率に基づいて、属性毎に統合確率を算出する。例えば統合部4は、推定部3から得られたLimN個のc次元ベクトルを平均することによって、c次元ベクトルによって表された統合確率を得る。すなわち、統合確率は、例えば所定の回数だけ生成された第2点群データX’毎に算出された複数の所属確率の平均である。
決定部5は、統合確率がより大きい属性を、注目点の属性に決定する。例えば決定部5は、統合部4から得られるc次元ベクトルの各要素(成分)のうち最大の値を持つ要素に対応する属性を、注目点の属性として出力する。
次に第2実施形態の推定方法の例について説明する。
[推定方法の例]
図6は第2実施形態の推定方法の例を示すフローチャートである。ステップS11~ステップS15の処理は、第1実施形態のステップS1~ステップS5の処理と同じなので、説明を省略する。
統合部4は、y’(または第2点群データX’)が所定の回数、生成されたか否かを判定する(ステップS16)。所定の回数、y’が生成されていない場合(ステップS16,No)、ステップS13の処理に戻る。
所定の回数、y’が生成された場合(ステップS16,Yes)、統合部4は、y’i(0≦i<LimN)を平均することによって、統合確率を算出する(ステップS17)。
第2実施形態の推論装置100-2によれば、注目点Cpの属性を推定する際に、統計的な枠組みを用いてより詳細に第1点群データXの形状全体を考慮することが可能となる。
(第3実施形態)
次に第3実施形態について説明する。第3実施形態の説明では、第2実施形態と同様の説明については省略し、第2実施形態と異なる箇所について説明する。
上述の第2実施形態では、統計的な枠組みを用いて、より詳細に形状全体を考慮する方法について説明した。第3実施形態では、推定の信頼性を示す信頼度に基づいて、結果を補正する場合について説明する。
[機能構成の例]
図7は第3実施形態の推定装置100-3の機能構成の例を示す図である。第3実施形態の推定装置100-3は、取得部1、入力データ生成部2、推定部3、統合部4、決定部5、算出部6及び補正部7を備える。入力データ生成部2は、注目点選択部21、観測点選択部22及び結合部23を備える。
第3実施形態では、算出部6及び補正部7が追加され、決定部5の動作が第2実施形態と異なる。以下に、第2実施形態と処理が異なる機能ブロックについて説明する。
算出部6は、統合確率に基づいて推定の信頼性を示す信頼度を算出する。例えば、算出部6は、統合部4から出力されたc次元ベクトルに基づいて信頼度を算出する。信頼度の具体的な算出には、例えば下記式(12)が用いられる。
Figure 2023017091000013
上記式(12)は一般的なエントロピーであり、P(A)がc次元ベクトルに対応する。エントロピーは大きいほどそれぞれの属性に対応する確率間に差がないことを示している。そのため、実際には、算出部6は、エントロピーに-1をかけて信頼度の形に変換する。
決定部5は、信頼度が信頼度閾値以下の場合、更に所定の追加回数、第2点群データX’の生成、及び、所属確率の算出を繰り返すことを決定し、所定の追加回数だけ更に算出された所属確率に更に基づいて算出された統合確率によって、注目点Cpの属性を決定する。
補正部7は、未決定注目点の属性及び信頼度を、未決定注目点との距離が距離閾値以下であり、かつ、信頼度が信頼度閾値より大きい注目点の属性及び信頼度によって補正する。ここで、未決定注目点は、信頼度が信頼度閾値以下であるか、または、属性が決定されていない注目点である。補正部7の処理によって、第3実施形態の推定装置100-3は、推定結果の信頼性をより安定させることができる。
図8は第3実施形態の補正部7の動作例を説明するための図である。図8に示すように、補正部7は、未決定注目点(信頼度が閾値以下、または属性が未決定の点)の所属確率及び信頼度を破棄する。そして補正部7は、未決定注目点の近傍に存在し、かつ、信頼度が信頼度閾値より大きい注目点の属性によって、未決定注目点の所属確率及び信頼度を補正する。
次に第3実施形態の推定方法の例について説明する。
[推定方法の例]
図9は第3実施形態の推定方法の例を示すフローチャートである。ステップS21~ステップS27の処理は、第2実施形態のステップS11~ステップS17の処理と同じなので、説明を省略する。
算出部6は、ステップS27の処理によって算出された統合確率に基づいて、推定の信頼性を示す信頼度を算出する(ステップS28)。
次に、決定部5が、ステップS28の処理によって算出された信頼度が、信頼度閾値以下であるか否かを判定する(ステップS29)。信頼度閾値以下でない場合(ステップS29,No)、処理を終了する。
信頼度閾値以下である場合(ステップS29,Yes)、推定装置100-3は、更に所定の追加回数α、ステップS23~ステップS25の処理を実行する(ステップS30)。次に、統合部4が、y’i(0≦i<LimN+α)を平均することによって、統合確率を算出する(ステップS31)。
次に、算出部6が、ステップS31の処理によって算出された統合確率に基づいて、推定の信頼性を示す信頼度を算出する(ステップS32)。
次に、決定部5が、ステップS32の処理によって算出された信頼度が、信頼度閾値以下であるか否かを判定する(ステップS33)。信頼度が、信頼度閾値以下でない場合(ステップS33,No)、処理を終了する。
信頼度が、信頼度閾値以下である場合(ステップS33,Yes)、補正部7が、注目点Cpの属性及び信頼度を補正する(ステップS34)。具体的には、補正部7が、注目点Cpの近傍rの範囲で信頼度が信頼度閾値より大きい注目点Cpを少なくとも1つ抽出する。次に、補正部7が、例えば抽出された注目点Cpの属性のうち、最も多い属性により属性を補正し、当該属性の信頼度により信頼度を補正する。
なお、上記では、抽出された注目点Cpの属性のうち、最も多い属性の数を基準に補正したが、これに限るものではない。近傍の情報から補正を行う種々の方法を利用可能である。例えば補正部7は、抽出された注目点Cpの属性ごとの統合確率を示すc次元ベクトルを平均し、平均されたc次元ベクトルに含まれる最も高い成分(要素)に対応する属性を、補正に用いる方法も考えられる。
また、上述の図9のフローチャートの処理は一例であり、適宜、処理を変更してもよい。例えば、ステップS30及びステップS34の両方の処理を実行せずに、いずれか一方の処理を実行するようにしてもよい。
以上説明したように、第3実施形態の推定装置100-3によれば、注目点Cpごとの信頼度に基づいて推定結果を補正し、より安定性の高い属性推定を行うことが可能となる。
(第4実施形態)
次に第4実施形態について説明する。第4実施形態の説明では、第3実施形態と同様の説明については省略し、第3実施形態と異なる箇所について説明する。
上述の第3実施形態では、注目点Cpごとに算出された信頼度に基づいて推定結果を補正する方法について説明した。第4実施形態では、信頼度を元に推定の信頼度合いを一覧するマップの表示を制御する方法について説明する。
[機能構成の例]
図10は第4実施形態の推定装置100-4の機能構成の例を示す図である。第4実施形態の推定装置100-4は、取得部1、入力データ生成部2、推定部3、統合部4、決定部5、算出部6、補正部7及び表示制御部8を備える。入力データ生成部2は、注目点選択部21、観測点選択部22及び結合部23を備える。
第4実施形態では、表示制御部8が追加されている。表示制御部8は、信頼度に基づいて、注目点Cpに対応する第1点群データXの点xの信頼度を示す信頼度マップの表示制御をする。
図11は第4実施形態の信頼度マップ300の例を示す図である。表示制御部8は、図11に示すように第1点群データXが存在する空間を、例えば4つの小空間に分割し、それぞれの小空間に含まれる点群の信頼度を平均して小空間の信頼度を表す。信頼度の表現の仕方は任意でよい。信頼度は、例えば点xの色、または点xを含む小空間の色によって表されていてもよい。
また、小空間の信頼度を決定する方法は平均に限られるものではなく、データ要約の種々の方法が考えられる。例えば、小空間の信頼度の決定に、中央値や分散を採用する方法も考えられる。
第4実施形態の推定装置100-4によれば、例えば追加計測が必要な領域の判別が可能となる。第4実施形態の推定装置100-4は、例えば追加撮影や計測品質の点検などの際に、計画立案の一助として利用することができる。
最後に第1乃至第4実施形態の推定装置100-1乃至100-4のハードウェア構成の例について説明する。以下では、第4実施形態の推定装置100-4の場合を例にして説明する。なお、第1乃至第3実施形態の推定装置100-1乃至100-3の場合も、第4実施形態の推定装置100-4と同様である。
[ハードウェア構成の例]
図12は第1乃至第4実施形態の推定装置100-1乃至100-4のハードウェア構成の例を示す図である。以下では、第4実施形態の推定装置100-4の場合を例にして説明する。なお、第1乃至第3実施形態の推定装置100-1乃至100-3の場合も、第4実施形態の推定装置100-4と同様である。
第4実施形態の推定装置100-4は、制御装置201、主記憶装置202、補助記憶装置203、表示装置204、入力装置205及び通信装置206を備える。制御装置201、主記憶装置202、補助記憶装置203、表示装置204、入力装置205及び通信装置206は、バス210を介して接続されている。
制御装置201は、補助記憶装置203から主記憶装置202に読み出されたプログラムを実行する。主記憶装置202は、ROM及びRAM等のメモリである。補助記憶装置203は、HDD(Hard Disk Drive)及びメモリカード等である。
表示装置204は、推定装置100-4によって出力される情報(例えば上述の信頼度マップ等)を表示する。表示装置204は、例えば液晶ディスプレイ等である。入力装置205は、推定装置100-4を操作するためのインタフェースである。入力装置205は、例えばキーボードやマウス等である。推定装置100-4がスマートフォン及びタブレット型端末等のスマートデバイスの場合、表示装置204及び入力装置205は、例えばタッチパネルである。
通信装置206は、外部記憶装置や3次元計測装置等と通信するためのインタフェースである。
第1乃至第4実施形態の推定装置100-1乃至100-4で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、メモリカード、CD-R及びDVD等のコンピュータで読み取り可能な記憶媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。
また第1乃至第4実施形態の推定装置100-1乃至100-4で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また第1乃至第4実施形態の推定装置100-1乃至100-4で実行されるプログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
また第1乃至第4実施形態の推定装置100-1乃至100-4のプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1乃至第4実施形態の推定装置100-1乃至100-4で実行されるプログラムは、上述した機能ブロック(図1,5,7及び10)のうち、プログラムによっても実現可能な機能ブロックを含むモジュール構成となっている。当該各機能ブロックは、実際のハードウェアとしては、制御装置201が記憶媒体からプログラムを読み出して実行することにより、上記各機能ブロックが主記憶装置202上にロードされる。すなわち上記各機能ブロックは主記憶装置202上に生成される。
なお上述した各機能ブロックの一部又は全部をソフトウェアにより実現せずに、IC(Integrated Circuit)等のハードウェアにより実現してもよい。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2以上を実現してもよい。
また第1乃至第4実施形態の推定装置100-1乃至100-4の動作形態は任意でよい。第1乃至第4実施形態の推定装置100-1乃至100-4を、例えばネットワーク上のクラウドシステムとして動作させてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 取得部
2 生成部
3 推定部
4 統合部
5 決定部
6 算出部
7 補正部
8 表示制御部
21 注目点選択部
22 観測点選択部
23 結合部
100 推定装置
201 制御装置
202 主記憶装置
203 補助記憶装置
204 表示装置
205 入力装置
206 通信装置
210 バス

Claims (24)

  1. 第1点群データを取得する取得部と、
    前記第1点群データから、所定の選択確率にしたがって、所定の数の観測点を選択する観測点選択部と、
    前記第1点群データから、属性の推定対象として注目される注目点と、少なくとも1つの前記観測点と、が結合された第2点群データを生成する生成部と、
    前記第2点群データを使用して、前記属性に属する所属確率を、前記属性毎に算出することによって、前記注目点の属性を推定する推定部と、を備え、
    前記生成部は、
    前記第1点群データから前記注目点を選択する注目点選択部と、
    前記観測点毎に、前記観測点を表すベクトルの要素と、前記注目点を表すベクトルの要素とを結合した結合ベクトルを生成する結合部と、を備え、
    前記第2点群データは、前記結合ベクトルの成分を配列したテンソルによって表される、
    推定装置。
  2. 前記推定部は、前記第2点群データが入力される入力層と、前記属性毎の所属確率を出力する出力層とを含むニューラルネットワークによって、前記属性毎に前記所属確率を算出する、
    請求項1に記載の推定装置。
  3. 前記生成部は、前記第2点群データの生成処理を所定の回数だけ繰り返し、
    前記推定部は、所定の回数だけ生成された前記第2点群データ毎に、前記所属確率を算出し、
    前記第2点群データ毎に算出された所属確率に基づいて、前記属性毎に統合確率を算出する統合部、
    を更に備える請求項1に記載の推定装置。
  4. 前記統合確率は、前記所定の回数だけ生成された第2点群データ毎に算出された複数の所属確率の平均である、
    請求項3に記載の推定装置。
  5. 前記統合確率がより大きい属性を、前記注目点の属性に決定する決定部、
    を更に備える請求項3に記載の推定装置。
  6. 前記統合確率に基づいて推定の信頼性を示す信頼度を算出する算出部を更に備え、
    前記決定部は、前記信頼度が信頼度閾値以下の場合、更に所定の追加回数、前記第2点群データの生成、及び、前記所属確率の算出を繰り返すことを決定し、前記所定の追加回数だけ更に算出された所属確率に更に基づいて算出された前記統合確率によって、前記注目点の属性を決定する、
    請求項5に記載の推定装置。
  7. 前記統合確率に基づいて推定の信頼性を示す信頼度を算出する算出部と、
    前記信頼度が信頼度閾値以下である、または、属性が決定されていない未決定注目点の属性及び信頼度を、前記未決定注目点との距離が距離閾値以下であり、かつ、前記信頼度が信頼度閾値より大きい注目点の属性及び信頼度によって補正する補正部と、
    を更に備える請求項5に記載の推定装置。
  8. 前記統合確率に基づいて推定の信頼性を示す信頼度を算出する算出部と、
    前記信頼度に基づいて、前記注目点に対応する第1点群データの点の信頼度を示す信頼度マップの表示制御をする表示制御部と、
    を更に備える請求項5に記載の推定装置。
  9. 第1点群データを取得するステップと、
    前記第1点群データから、所定の選択確率にしたがって、所定の数の観測点を選択するステップと、
    前記第1点群データから、属性の推定対象として注目される注目点と、少なくとも1つの前記観測点と、が結合された第2点群データを生成するステップと、
    前記第2点群データを使用して、前記属性に属する所属確率を、前記属性毎に算出することによって、前記注目点の属性を推定するステップと、を含み、
    前記生成するステップは、
    前記第1点群データから前記注目点を選択するステップと、
    前記観測点毎に、前記観測点を表すベクトルの要素と、前記注目点を表すベクトルの要素とを結合した結合ベクトルを生成するステップと、を含み、
    前記第2点群データは、前記結合ベクトルの成分を配列したテンソルによって表される、
    推定方法。
  10. 前記推定するステップは、前記第2点群データが入力される入力層と、前記属性毎の所属確率を出力する出力層とを含むニューラルネットワークによって、前記属性毎に前記所属確率を算出する、
    請求項9に記載の推定方法。
  11. 前記第2点群データを生成するステップは、前記第2点群データの生成処理を所定の回数だけ繰り返し、
    前記推定するステップは、所定の回数だけ生成された前記第2点群データ毎に、前記所属確率を算出し、
    前記第2点群データ毎に算出された所属確率に基づいて、前記属性毎に統合確率を算出するステップ、
    を更に含む請求項9に記載の推定方法。
  12. 前記統合確率は、前記所定の回数だけ生成された第2点群データ毎に算出された複数の所属確率の平均である、
    請求項11に記載の推定方法。
  13. 前記統合確率がより大きい属性を、前記注目点の属性に決定するステップ、
    を更に含む請求項11に記載の推定方法。
  14. 前記統合確率に基づいて推定の信頼性を示す信頼度を算出するステップを更に含み、
    前記決定するステップは、前記信頼度が信頼度閾値以下の場合、更に所定の追加回数、前記第2点群データの生成、及び、前記所属確率の算出を繰り返すことを決定し、前記所定の追加回数だけ更に算出された所属確率に更に基づいて算出された前記統合確率によって、前記注目点の属性を決定する、
    請求項13に記載の推定方法。
  15. 前記統合確率に基づいて推定の信頼性を示す信頼度を算出するステップと、
    前記信頼度が信頼度閾値以下である、または、属性が決定されていない未決定注目点の属性及び信頼度を、前記未決定注目点との距離が距離閾値以下であり、かつ、前記信頼度が信頼度閾値より大きい注目点の属性及び信頼度によって補正するステップと、
    を更に含む請求項13に記載の推定方法。
  16. 前記統合確率に基づいて推定の信頼性を示す信頼度を算出するステップと、
    前記信頼度に基づいて、前記注目点に対応する第1点群データの点の信頼度を示す信頼度マップの表示制御をするステップと、
    を更に含む請求項13に記載の推定方法。
  17. コンピュータを、
    第1点群データを取得する取得部と、
    前記第1点群データから、所定の選択確率にしたがって、所定の数の観測点を選択する観測点選択部と、
    前記第1点群データから、属性の推定対象として注目される注目点と、少なくとも1つの前記観測点と、が結合された第2点群データを生成する生成部と、
    前記第2点群データを使用して、前記属性に属する所属確率を、前記属性毎に算出することによって、前記注目点の属性を推定する推定部、として機能させ、
    前記生成部は、
    前記第1点群データから前記注目点を選択する注目点選択部と、
    前記観測点毎に、前記観測点を表すベクトルの要素と、前記注目点を表すベクトルの要素とを結合した結合ベクトルを生成する結合部と、を備え、
    前記第2点群データは、前記結合ベクトルの成分を配列したテンソルによって表される、
    プログラム。
  18. 前記推定部は、前記第2点群データが入力される入力層と、前記属性毎の所属確率を出力する出力層とを含むニューラルネットワークによって、前記属性毎に前記所属確率を算出する、
    請求項17に記載のプログラム。
  19. 前記生成部は、前記第2点群データの生成処理を所定の回数だけ繰り返し、
    前記推定部は、所定の回数だけ生成された前記第2点群データ毎に、前記所属確率を算出し、
    前記第2点群データ毎に算出された所属確率に基づいて、前記属性毎に統合確率を算出する統合部、
    を更に備える請求項17に記載のプログラム。
  20. 前記統合確率は、前記所定の回数だけ生成された第2点群データ毎に算出された複数の所属確率の平均である、
    請求項19に記載のプログラム。
  21. 前記統合確率がより大きい属性を、前記注目点の属性に決定する決定部、
    を更に備える請求項19に記載のプログラム。
  22. 前記統合確率に基づいて推定の信頼性を示す信頼度を算出する算出部を更に備え、
    前記決定部は、前記信頼度が信頼度閾値以下の場合、更に所定の追加回数、前記第2点群データの生成、及び、前記所属確率の算出を繰り返すことを決定し、前記所定の追加回数だけ更に算出された所属確率に更に基づいて算出された前記統合確率によって、前記注目点の属性を決定する、
    請求項21に記載のプログラム。
  23. 前記統合確率に基づいて推定の信頼性を示す信頼度を算出する算出部と、
    前記信頼度が信頼度閾値以下である、または、属性が決定されていない未決定注目点の属性及び信頼度を、前記未決定注目点との距離が距離閾値以下であり、かつ、前記信頼度が信頼度閾値より大きい注目点の属性及び信頼度によって補正する補正部と、
    を更に備える請求項21に記載のプログラム。
  24. 前記統合確率に基づいて推定の信頼性を示す信頼度を算出する算出部と、
    前記信頼度に基づいて、前記注目点に対応する第1点群データの点の信頼度を示す信頼度マップの表示制御をする表示制御部と、
    を更に備える請求項21に記載のプログラム。
JP2022197944A 2019-08-30 2022-12-12 推定装置、推定方法及びプログラム Active JP7395705B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022197944A JP7395705B2 (ja) 2019-08-30 2022-12-12 推定装置、推定方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019158675A JP2021039426A (ja) 2019-08-30 2019-08-30 推定装置、推定方法及びプログラム
JP2022197944A JP7395705B2 (ja) 2019-08-30 2022-12-12 推定装置、推定方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019158675A Division JP2021039426A (ja) 2019-08-30 2019-08-30 推定装置、推定方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2023017091A true JP2023017091A (ja) 2023-02-02
JP7395705B2 JP7395705B2 (ja) 2023-12-11

Family

ID=74679870

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019158675A Abandoned JP2021039426A (ja) 2019-08-30 2019-08-30 推定装置、推定方法及びプログラム
JP2022197944A Active JP7395705B2 (ja) 2019-08-30 2022-12-12 推定装置、推定方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019158675A Abandoned JP2021039426A (ja) 2019-08-30 2019-08-30 推定装置、推定方法及びプログラム

Country Status (2)

Country Link
US (1) US11341737B2 (ja)
JP (2) JP2021039426A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7344620B1 (ja) 2022-07-22 2023-09-14 株式会社 Sai 建屋内構造物認識システム及び建屋内構造物認識方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019003527A (ja) * 2017-06-19 2019-01-10 日本電信電話株式会社 特徴抽出装置、物体検出装置、方法、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5100249B2 (ja) * 2006-08-23 2012-12-19 キヤノン株式会社 情報処理方法、情報処理装置およびプログラム
EP3252658B1 (en) * 2016-05-30 2021-08-11 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method
JP7113657B2 (ja) * 2017-05-22 2022-08-05 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6845929B2 (ja) * 2017-06-12 2021-03-24 株式会社日立製作所 三次元計測装置、および方法
JP2019008571A (ja) 2017-06-26 2019-01-17 株式会社デンソーアイティーラボラトリ 物体認識装置、物体認識方法、プログラム、及び学習済みモデル
JP7043191B2 (ja) * 2017-06-30 2022-03-29 キヤノン株式会社 画像認識装置、学習装置、画像認識方法、学習方法及びプログラム
CN109635917B (zh) * 2018-10-17 2020-08-25 北京大学 一种多智能体合作决策及训练方法
US10940863B2 (en) * 2018-11-01 2021-03-09 GM Global Technology Operations LLC Spatial and temporal attention-based deep reinforcement learning of hierarchical lane-change policies for controlling an autonomous vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019003527A (ja) * 2017-06-19 2019-01-10 日本電信電話株式会社 特徴抽出装置、物体検出装置、方法、及びプログラム

Also Published As

Publication number Publication date
US20210064914A1 (en) 2021-03-04
US11341737B2 (en) 2022-05-24
JP7395705B2 (ja) 2023-12-11
JP2021039426A (ja) 2021-03-11

Similar Documents

Publication Publication Date Title
US10810435B2 (en) Segmenting objects in video sequences
US20180255254A1 (en) Automatic lens flare detection and correction for light-field images
US9344690B2 (en) Image demosaicing
US20200265634A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JP7086878B2 (ja) 学習装置、学習方法、プログラムおよび認識装置
US10726614B2 (en) Methods and systems for changing virtual models with elevation information from real world image processing
JP7218754B2 (ja) 空き家判定装置、空き家判定方法およびプログラム
KR20200018411A (ko) 전극편의 버를 검출하기 위한 방법 및 장치
JP2013175003A (ja) Psf推定方法とそれを用いた劣化画像の復元方法およびこれらを記録したプログラムとそれを実行するコンピュータ装置
JP6431404B2 (ja) 姿勢推定モデル生成装置及び姿勢推定装置
JP2020181240A (ja) データ生成装置、データ生成方法およびプログラム
JP2023017091A (ja) 推定装置、推定方法及びプログラム
JP6567381B2 (ja) 演算装置、方法及びプログラム
CN110428461B (zh) 结合深度学习的单目slam方法及装置
JP2020177582A (ja) 学習装置、学習方法、プログラムおよび認識装置
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
Janardhana Rao et al. MABC‐EPF: Video in‐painting technique with enhanced priority function and optimal patch search algorithm
CN109791687A (zh) 在任意曲面上的图像修复
JP2016148588A (ja) デプス推定モデル生成装置及びデプス推定装置
JP2015197818A (ja) 画像処理装置およびその方法
CN108256633B (zh) 一种测试深度神经网络稳定性的方法
US11393069B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
JP7379300B2 (ja) 推定装置、推定方法及びプログラム
JP2011242134A (ja) 画像処理装置、画像処理方法、プログラム、及び電子装置
JP2010039968A (ja) オブジェクト検出装置及び検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231129

R151 Written notification of patent or utility model registration

Ref document number: 7395705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151