JP7209657B2 - 情報処理装置及び方法 - Google Patents
情報処理装置及び方法 Download PDFInfo
- Publication number
- JP7209657B2 JP7209657B2 JP2020034348A JP2020034348A JP7209657B2 JP 7209657 B2 JP7209657 B2 JP 7209657B2 JP 2020034348 A JP2020034348 A JP 2020034348A JP 2020034348 A JP2020034348 A JP 2020034348A JP 7209657 B2 JP7209657 B2 JP 7209657B2
- Authority
- JP
- Japan
- Prior art keywords
- sensing
- observation data
- information
- sensor
- probability distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/1801—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
- G06V30/18019—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
- G06V30/18038—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
- G06V30/18048—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
- G06V30/18057—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Biodiversity & Conservation Biology (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
Description
(1-1)本実施の形態による情報処理システムの構成
図1において、1は全体として本実施の形態による情報処理システム(センシングシステム)を示す。この情報処理システム1は、アクティブセンシングによって未知の環境を把握し得るようになされたシステムであり、情報取得部2及び情報処理装置3から構成される。
図4は、情報取得部2のセンサ4から与えられるセンサデータに基づいて情報処理装置3において実行されるセンシング制御処理の流れを示す。情報処理装置3は、この図4に示す処理手順に従って、情報取得部2のセンサ4を用いたセンシングを制御する。
以上のように本実施の形態の情報処理システム1において、情報処理装置3は、生成モデル選択部11により選択された各生成モデル8に現サイクルの観測データstをそれぞれ入力したときに出力される潜在変数の確率分布p(x|st)を算出すると共に、潜在変数ごとの次時点の情報量の確率分布p(st+1|x)を算出する。そして情報処理装置3は、算出したこれら結合した潜在変数の確率分布p(x|st)及び次時点の情報量の確率分布p(st+1|x)に基づいて潜在変数ごとの次時点の情報量の確率分布pnextを算出し、算出結果に基づいてセンシング行動決定部14が次時点のセンシングの設定at+1を選択する。
図1において、30は全体として第2の実施の形態による情報処理システムを示す。この情報処理システム30は、情報処理装置31の演算プログラム32のセンシング行動決定部33が、視野を拡大して得たセンサデータに基づいて次時点のセンシングの設定atを選択する点を除いて第1の実施の形態による情報処理システム1と同様に構成されている。
図1において、40は全体として第2の実施の形態による情報処理システムを示す。この情報処理システム40は、情報処理装置41の演算プログラム42のセンシング行動決定部43が、情報取得部2から与えられるセンサデータに基づく画像内の中心視野及び周辺視野の各画像データ(センサデータ)に基づいて次時点のセンシングの設定atを選択する点と、観測データstを取得する際の生成モデル選択部44の処理内容が異なる点とを除いて第1の実施の形態による情報処理システム1と同様に構成されている。なお、ここでの「中心視野」とは、例えば、画像中心の縦10画素、横10画素程度の範囲の領域部分を指し、「周辺視野」とは、画像内の中心視野以外の領域部分を指す。
Claims (14)
- センサを用いたアクティブセンシングを制御する情報処理装置において、
学習により得られた複数のカテゴリごとの学習モデル、及び、過去に認識したセンシング対象ごとの当該センシング対象が属するカテゴリがそれぞれ格納された記憶装置と、
前記記憶装置に格納された前記学習モデルの中から1又は複数の前記学習モデルを選択するモデル選択部と、
前記センサから与えられたセンサデータを順次合成することにより得られた観測データを前記モデル選択部により選択された各前記学習モデルにそれぞれ入力したときに各前記学習モデルからそれぞれ出力される当該観測データの潜在変数の確率分布を算出する観測データ潜在変数解析部と、
前記観測データ潜在変数解析部により算出された前記観測データの前記潜在変数の確率分布と当該観測データとに基づいて、次時点の前記観測データが有する情報量の確率分布を算出する観測データ情報量解析部と、
前記観測データ情報量解析部により算出された前記観測データが有する情報量の確率分布に基づいて、次時点のセンシング設定を決定するセンシング行動決定部と
を備え、
前記モデル選択部は、
前記記憶装置に格納されている過去に認識した前記センシング対象ごとの当該センシング対象がそれぞれ属する前記カテゴリに基づいて、現在の前記センシング対象が属する前記カテゴリとして最も可能性が高いと推定される前記カテゴリの前記学習モデルを選択する
ことを特徴とする情報処理装置。 - 前記モデル選択部は、
過去に認識した各前記センシング対象がそれぞれ属する前記カテゴリのうち、各前記カテゴリにそれぞれ属する当該センシング対象の総数が最も多い上位所定数の前記カテゴリにそれぞれ対応する前記学習モデルを選択する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記モデル選択部は、
過去に認識した各前記センシング対象がそれぞれ属する各前記カテゴリにそれぞれ属する当該センシング対象の総数に応じて、選択した各前記学習モデルの優先度をそれぞれ設定し、
前記観測データ潜在変数解析部は、
前記モデル選択部により選択された各前記学習モデルに前記観測データをそれぞれ入力したときに各前記学習モデルからそれぞれ出力される当該観測データの潜在変数の確率分布にそれぞれ対応する前記優先度を乗算して結合し、
前記観測データ情報量解析部は、
結合された前記観測データの前記潜在変数の確率分布と当該観測データとに基づいて、次時点の前記観測データが有する情報量の確率分布を算出する
ことを特徴とする請求項2に記載の情報処理装置。 - 前記モデル選択部は、
過去に認識した各前記センシング対象がそれぞれ属する各前記カテゴリにそれぞれ属する当該センシング対象の総数の比に応じて各前記学習モデルの優先度をそれぞれ設定する
ことを特徴とする請求項3に記載の情報処理装置。 - 前記センシング行動決定部は、
前記観測データ情報量解析部により算出された次時点の前記観測データが有する前記情報量の確率分布に基づいて、情報量が最も多い次時点の前記センシング設定を次時点の前記センシング設定として決定する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記センサは、カメラであり、
前記センシング設定は、前記センサが撮像する位置であり、
前記センシング行動決定部は、
視野を拡大して得た前記センサデータに基づく画像内の平均画素値分布を算出し、
算出した前記平均画素値分布に基づいて、情報量が最も多い領域部分を次の前記センシング設定の初期値として決定する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記センサは、カメラであり、
前記センシング設定は、前記センサが撮像する位置であり、
前記センシング行動決定部は、
前記センサから与えられる前記センサデータに基づく画像内の周辺視野の平均画素値分布を算出し、
算出した前記平均画素値分布に基づいて、前記周辺視野のうちの情報量が最も多い位置を次の前記センシング設定の初期値として決定する
ことを特徴とする請求項1に記載の情報処理装置。 - センサを用いたアクティブセンシングを制御する情報処理装置により実行される情報処理方法であって、
前記情報処理装置は、
学習により得られた複数のカテゴリごとの学習モデル、及び、過去に認識したセンシング対象ごとの当該センシング対象が属するカテゴリがそれぞれ格納された記憶装置
を有し、
前記記憶装置に格納された前記学習モデルの中から1又は複数の前記学習モデルを選択する第1のステップと、
前記センサから与えられたセンサデータを順次合成することにより得られた観測データを選択した各前記学習モデルにそれぞれ入力したときに各前記学習モデルからそれぞれ出力される当該観測データの潜在変数の確率分布を算出する第2のステップと、
算出した前記観測データの前記潜在変数の確率分布と当該観測データとに基づいて、次時点の前記観測データが有する情報量の確率分布を算出する第3のステップと、
算出した前記観測データが有する情報量の確率分布に基づいて、次時点のセンシング設定を決定する第4のステップと
を備え、
前記第1のステップでは、
前記記憶装置に格納されている過去に認識した前記センシング対象ごとの当該センシング対象がそれぞれ属する前記カテゴリに基づいて、現在の前記センシング対象が属する前記カテゴリとして最も可能性が高いと推定される前記カテゴリの前記学習モデルを選択する
ことを特徴とする情報処理方法。 - 前記第1のステップでは、
過去に認識した各前記センシング対象がそれぞれ属する前記カテゴリのうち、各前記カテゴリにそれぞれ属する当該センシング対象の総数が最も多い上位所定数の前記カテゴリにそれぞれ対応する前記学習モデルを選択する
ことを特徴とする請求項8に記載の情報処理方法。 - 前記第1のステップでは、
過去に認識した各前記センシング対象がそれぞれ属する各前記カテゴリにそれぞれ属する当該センシング対象の総数に応じて、選択した各前記学習モデルの優先度をそれぞれ設定し、
前記第2のステップでは、
選択した各前記学習モデルに前記観測データをそれぞれ入力したときに各前記学習モデルからそれぞれ出力される当該観測データの潜在変数の確率分布にそれぞれ対応する前記優先度を乗算して結合し、
前記第3のステップでは、
結合された前記観測データの前記潜在変数の確率分布と当該観測データとに基づいて、次時点の前記観測データが有する情報量の確率分布を算出する
ことを特徴とする請求項9に記載の情報処理方法。 - 前記第1のステップでは、
過去に認識した各前記センシング対象がそれぞれ属する各前記カテゴリにそれぞれ属する当該センシング対象の総数の比に応じて各前記学習モデルの優先度をそれぞれ設定する
ことを特徴とする請求項10に記載の情報処理方法。 - 前記第4のステップでは、
算出した次時点の前記観測データが有する情報量の前記確率分布に基づいて、情報量が最も多い次時点の前記センシング設定を次時点の前記センシング設定として決定する
ことを特徴とする請求項8に記載の情報処理方法。 - 前記センサは、カメラであり、
前記センシング設定は、前記センサが撮像する位置であり、
前記第4のステップでは、
視野を拡大して得た前記センサデータに基づく画像内の平均画素値分布を算出し、
算出した前記平均画素値分布に基づいて、情報量が最も多い領域部分を次の前記センシング設定の初期値として決定する
ことを特徴とする請求項8に記載の情報処理方法。 - 前記センサは、カメラであり、
前記センシング設定は、前記センサが撮像する位置であり、
前記第4のステップでは、
前記センサから与えられる前記センサデータに基づく画像内の周辺視野の平均画素値分布を算出し、
算出した前記平均画素値分布に基づいて、前記周辺視野のうちの情報量が最も多い位置を次の前記センシング設定の初期値として決定する
ことを特徴とする請求項8に記載の情報処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020034348A JP7209657B2 (ja) | 2020-02-28 | 2020-02-28 | 情報処理装置及び方法 |
US17/181,435 US11928591B2 (en) | 2020-02-28 | 2021-02-22 | Information processing apparatus and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020034348A JP7209657B2 (ja) | 2020-02-28 | 2020-02-28 | 情報処理装置及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021135977A JP2021135977A (ja) | 2021-09-13 |
JP7209657B2 true JP7209657B2 (ja) | 2023-01-20 |
Family
ID=77463725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020034348A Active JP7209657B2 (ja) | 2020-02-28 | 2020-02-28 | 情報処理装置及び方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11928591B2 (ja) |
JP (1) | JP7209657B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102662130B1 (ko) * | 2021-09-30 | 2024-04-30 | 한국전자기술연구원 | 포인트 클라우드 컨텍스트 및 경량화 딥러닝 기반 3차원 객체 인지 방법 |
US11979590B2 (en) * | 2021-11-10 | 2024-05-07 | Honda Motor Co., Ltd. | Systems and methods for predicting future data using diverse sampling |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017207420A (ja) | 2016-05-20 | 2017-11-24 | 国立研究開発法人情報通信研究機構 | 配置位置決定方法および配置位置決定システム |
US20200065635A1 (en) | 2018-08-23 | 2020-02-27 | Samsung Electronics Co., Ltd. | Object detection and learning method and apparatus |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0830327A (ja) | 1994-07-18 | 1996-02-02 | Fujitsu Ltd | 能動的環境認識システム |
JPH08255247A (ja) * | 1995-03-16 | 1996-10-01 | Fujitsu Ltd | Ic基板認識方法および装置 |
US8009921B2 (en) * | 2008-02-19 | 2011-08-30 | Xerox Corporation | Context dependent intelligent thumbnail images |
US10229190B2 (en) * | 2013-12-31 | 2019-03-12 | Samsung Electronics Co., Ltd. | Latent semantic indexing in application classification |
US10290040B1 (en) * | 2015-09-16 | 2019-05-14 | Amazon Technologies, Inc. | Discovering cross-category latent features |
US11741703B2 (en) * | 2018-09-11 | 2023-08-29 | Pointivo, Inc. | In data acquisition, processing, and output generation for use in analysis of one or a collection of physical assets of interest |
US11010421B2 (en) * | 2019-05-09 | 2021-05-18 | Microsoft Technology Licensing, Llc | Techniques for modifying a query image |
US10803387B1 (en) * | 2019-09-27 | 2020-10-13 | The University Of Stavanger | Deep neural architectures for detecting false claims |
US11216663B1 (en) * | 2020-12-01 | 2022-01-04 | Pointivo, Inc. | Systems and methods for generating of 3D information on a user display from processing of sensor data for objects, components or features of interest in a scene and user navigation thereon |
US11935288B2 (en) * | 2019-12-01 | 2024-03-19 | Pointivo Inc. | Systems and methods for generating of 3D information on a user display from processing of sensor data for objects, components or features of interest in a scene and user navigation thereon |
-
2020
- 2020-02-28 JP JP2020034348A patent/JP7209657B2/ja active Active
-
2021
- 2021-02-22 US US17/181,435 patent/US11928591B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017207420A (ja) | 2016-05-20 | 2017-11-24 | 国立研究開発法人情報通信研究機構 | 配置位置決定方法および配置位置決定システム |
US20200065635A1 (en) | 2018-08-23 | 2020-02-27 | Samsung Electronics Co., Ltd. | Object detection and learning method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
US20210271926A1 (en) | 2021-09-02 |
JP2021135977A (ja) | 2021-09-13 |
US11928591B2 (en) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6678778B2 (ja) | 画像内の物体を検出する方法及び物体検出システム | |
JP7071054B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6333871B2 (ja) | 入力画像から検出した対象物を表示する画像処理装置 | |
US11017210B2 (en) | Image processing apparatus and method | |
US8730157B2 (en) | Hand pose recognition | |
US10430650B2 (en) | Image processing system | |
CN106256512B (zh) | 包括机器视觉的机器人装置 | |
JP7209657B2 (ja) | 情報処理装置及び方法 | |
JP2021073606A (ja) | 群衆状態認識装置、方法およびプログラム | |
JP6387831B2 (ja) | 特徴点位置検出装置、特徴点位置検出方法および特徴点位置検出プログラム | |
US10960550B2 (en) | Identification code reading apparatus and machine learning device | |
CN112775967A (zh) | 基于机器视觉的机械臂抓取方法、装置及设备 | |
US20200218980A1 (en) | Image processing apparatus and learned model | |
JP2007025902A (ja) | 画像処理装置、画像処理方法 | |
JP5791373B2 (ja) | 特徴点位置決定装置、特徴点位置決定方法及びプログラム | |
CN109313708B (zh) | 图像匹配方法和视觉系统 | |
US11989928B2 (en) | Image processing system | |
JP2021026778A (ja) | クロスドメイン距離学習のシステム及び方法 | |
CN115471863A (zh) | 三维姿态的获取方法、模型训练方法和相关设备 | |
JP7347539B2 (ja) | 前景抽出装置、前景抽出方法、及び、プログラム | |
JP7341079B2 (ja) | 距離画像推定装置及び操縦装置 | |
JP2019105588A (ja) | 情報処理装置、システム、情報処理方法及びプログラム | |
JP7419993B2 (ja) | 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置 | |
JP2021033378A (ja) | 情報処理装置、情報処理方法 | |
JP2022054663A (ja) | 情報処理装置、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7209657 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |