JP7166784B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7166784B2 JP7166784B2 JP2018085259A JP2018085259A JP7166784B2 JP 7166784 B2 JP7166784 B2 JP 7166784B2 JP 2018085259 A JP2018085259 A JP 2018085259A JP 2018085259 A JP2018085259 A JP 2018085259A JP 7166784 B2 JP7166784 B2 JP 7166784B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- task
- recognition
- neural network
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Description
本発明の第1の実施形態について説明する。図1は、本発明の一実施形態における情報処理システムの概略的な構成例を示す図である。本実施形態における情報処理システムは、カメラ110と、認識タスクに係る認識フェーズでの処理(識別処理)を行う情報処理装置120とが、ネットワーク115を介して接続されている。なお、情報処理装置120とカメラ110は、一体に構成されていてもよい。また、情報処理装置120と、認識タスクに係る学習フェーズでの処理(学習処理)を行う情報処理装置130とが、ネットワーク115を介して接続されている。なお、情報処理装置120と情報処理装置130が、一体に構成されていてもよい。
y=max(0,x) …(式1)
また、本例でのプーリング処理は、所定範囲内の最大値を取得して出力するマックスプーリング処理(maxpooling)とする。プーリング処理は、マックスプーリング処理に限定されるものではなく、所定範囲内における何らかの統計値等を取得して出力するような処理でもよい。なお、入力画像は、所定の画像サイズで画像をクロップもしくはリサイズしてDCNNに入力するのが一般的である。
W=α・Loss(t)+β/(ΔLoss+γ) …(式2)
なお、(式2)において、α、β、γは、0~1の実数で表される定数である。また、ΔLossは、下記(式3)のように表され、単位時間あたりの誤差の変位量を表している。
ΔLoss=|Loss(t)-Loss(t’)|/(t-t’) …(式3)
W=Σ(α・Loss(t)+β/(ΔLoss+γ)) …(式4)
これは、例えば図16に示すように認識タスクに対する誤差が、ある範囲を振動していて学習が進まない場合に、重要度Wを大きい値にすることによりニューラルネットワークの学習を促進する。
E=Wr・Er+Ws・Es …(式5)
(Wr+Ws=1)
このようにして算出された重要度Wで重みづけした誤差によって誤差逆伝播法によりニューラルネットワークを学習すればよい。
W=f(W、t) …(式6)
その際も各認識タスクの重要度の総和が1になるように正規化しておく。この重要度Wを用いてNN学習工程S1102においてニューラルネットワークの学習を再度行う。なお、本実施形態では評価データに対する各学習時間の誤差を用いたが、他の評価値を用いてもよい。例えば、評価データの正解率を用いる場合でも、評価データに対する正解率と再現率から算出されるF値や、所定の誤検出率のときの再現率などを算出してもよい。もしくは各認識タスクの評価データのサンプルに対する識別結果から統計量を算出してもよい。
次に、本発明の第2の実施形態について説明する。第2の実施形態においては、第1の実施形態の処理に加えて、複数の認識タスクのうち、いくつかのタスクを他のタスクから生成する。以下では、生成する側の認識タスクをメインタスクと呼び、生成される側の認識タスクをサブタスクと呼ぶこととする。例えば、メインタスクが物体検出タスクであった場合に、サブタスクを対象の物体が画像上に存在するか否かを識別するタスク(画像分類タスク)に設定する。メインタスクの教師値は学習データ内の対象物体の位置を表すデータが入力されているため、その画像内に対象の物体が存在するか否かについてのサブタスクにおける教師値は自動的に生成することができる。メインタスクである物体検出タスクの精度が向上するように、メインタスク及びサブタスクの学習パラメータを設定する。
E=Wsub・Esub+Wmain・Emain …(式7)
次に、本発明の第3の実施形態について説明する。第3の実施形態においては、前述した第1及び第2の実施形態とは異なり、ニューラルネットワークとは異なる識別器を学習する。識別器は、例えば、サポートベクタマシン(SVM)や線形判別器等である。SVM等の識別器は、一般的に学習時にはバッチ処理と呼ばれる学習データのすべてを用いて学習を行う。一方、ニューラルネットワークの学習はミニバッチ処理と呼ばれる学習データの一部のデータを用いて学習(パラメータの更新)を随時行う。SVM等の識別器も非特許文献7に開示されているような技術を用いてオンライン学習する場合には、第1の実施形態や第2の実施形態において説明したように学習精度を評価して学習パラメータを決定することができる。また、通常のバッチ処理による学習の場合でも、学習結果を評価して再度学習する際の学習パラメータを決定することができる。その方法については後述する。
図8(b)は、第3の実施形態における情報処理装置120の機能構成例を示す図である。図8(b)には、情報処理装置120における識別処理に係る機能構成を示している。また、図8(b)には、情報処理装置120が有する機能ブロックの他に、カメラ10に相当し、識別対象画像を取得する撮影部810も合わせて図示している。第3の実施形態における情報処理装置120は、識別器入力部811、識別器出力部812、及びパラメータ保持部813を有する。識別器入力部811及び識別器出力部812は、情報処理装置120のCPU501がROM503や記憶部504に格納されたプログラムを読み出して実行することで実現される。なお、パラメータ保持部813は、不揮発性の記憶装置として情報処理装置120と接続された構成としてもよい。
J(V)=tr{(VTSwV)-1((VTSbV)} …(式8)
ここで、tr{・}は行列のトレースを表す。
J(V)=tr{(VTS1wV)-1((VTS1bV)+(VTS2wV)-1((VTS2bV)} …(式9)
y(x)=VTx+V0 …(式10)
さらに、一般的に事後確率を予測するために、下記(式11)に示すように非線形関数f(・)によって一般化する。f(・)を活性化関数(activation function)とよぶ。
y(x)=f(VTx+V0) …(式11)
W=α・(1-正解率(t))+β …(式12)
なお、(式12)において、α、βは定数である。ここで、tは学習時間ではなく、学習回数を示している。この(式12)により算出された重要度Wを用いて再度識別器を学習する。具体的には、下記(式13)のように判別ベクトルVを求める際に各認識タスクの重要度W1、W2を用いる。
J(V)=tr{W1(VTS1wV)-1(VTS1bV)+W2(VTS2wV)-1(VTS2bV)} …(式13)
その他の処理は、第1の実施形態や第2の実施形態と同様である。
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (17)
- ニューラルネットワークに学習させる複数の認識タスクを設定するタスク設定手段と、
学習データを前記ニューラルネットワークに入力した際の前記複数の認識タスクの出力結果と教師値との誤差に基づいて、前記複数の認識タスクを前記ニューラルネットワークに学習させる学習手段と、
前記学習手段による前記ニューラルネットワークの学習結果を評価する評価手段と、
前記評価手段での評価結果に基づいて、前記学習手段による学習において前記誤差に対する重み付け度合いを認識タスクごとに設定するパラメータ設定手段とを有することを特徴とする情報処理装置。 - 前記評価手段は、前記ニューラルネットワークでの前記認識タスクの学習精度を評価することを特徴とする請求項1に記載の情報処理装置。
- 前記評価手段は、前記ニューラルネットワークでの前記認識タスクの学習精度の所定間隔での変位量を評価することを特徴とする請求項1又は2に記載の情報処理装置。
- 前記タスク設定手段は、前記複数の認識タスクとして、前記ニューラルネットワークに学習させる第1の認識タスク、及び前記第1の認識タスクから生成した第2の認識タスクを設定し、
前記パラメータ設定手段は、前記学習手段による学習が進むにつれて、前記第1の認識タスクの前記重み付け度合いを大きくする、及び、前記第2の認識タスクの前記重み付け度合いを小さくする、のうち少なくとも一方を実行することを特徴とする請求項1~3の何れか1項に記載の情報処理装置。 - 前記第2の認識タスクの教師値を、前記第1の認識タスクの学習データ及び教師値に基づいて設定する教師値設定手段を有することを特徴とする請求項4に記載の情報処理装置。
- ニューラルネットワークに学習させる複数の認識タスクを設定するタスク設定手段と、
前記複数の認識タスクの学習データ及び教師値に基づいて、前記複数の認識タスクを前記ニューラルネットワークに学習させる学習手段と、
前記学習手段による前記ニューラルネットワークの学習結果を評価する評価手段と、
前記評価手段での評価結果に基づいて、前記ニューラルネットワークに前記複数の認識タスクを学習させる際の重要度を設定するパラメータ設定手段とを有し、
前記評価手段は、前記ニューラルネットワークでの前記認識タスクの学習精度の所定間隔での変位量を評価することを特徴とする情報処理装置。 - 前記評価手段は、前記認識タスクの学習データとは異なる評価データを用いて、前記ニューラルネットワークの学習結果の評価を行うことを特徴とする請求項1~6の何れか1項に記載の情報処理装置。
- 前記評価手段は、前記認識タスクの学習データを用いて、前記ニューラルネットワークの学習結果の評価を行うことを特徴とする請求項1~6の何れか1項に記載の情報処理装置。
- 前記タスク設定手段が設定する前記複数の認識タスクは、被写体が画像内に存在するか否かを識別する画像分類タスク、被写体の位置を検出する物体検出タスク、及び被写体領域を抽出する領域分割タスクのうちの少なくとも1つのタスクを含むことを特徴とする請求項1~8の何れか1項に記載の情報処理装置。
- 前記パラメータ設定手段は、前記ニューラルネットワークに学習させる前記複数の認識タスクのうち、選択した前記認識タスクの学習精度に基づいて重要度を設定することを特徴とする請求項1~9の何れか1項に記載の情報処理装置。
- 前記タスク設定手段により設定された前記認識タスク及び前記評価手段での評価結果の少なくとも一方を表示する表示手段を有することを特徴とする請求項1~10の何れか1項に記載の情報処理装置。
- 請求項1~11の何れか1項に記載の情報処理装置により学習された前記ニューラルネットワークの構造及び重要度の情報を保持する保持手段と、
前記保持手段に保持されている情報に応じた前記ニューラルネットワークに識別対象画像を入力する入力手段と、
前記ニューラルネットワークによる前記識別対象画像の識別結果を出力する出力手段とを有することを特徴とする情報処理装置。 - 識別器に学習させる複数の認識タスクを設定するタスク設定手段と、
学習データを前記識別器に入力した際の前記複数の認識タスクの出力結果と教師値との誤差に基づいて、前記複数の認識タスクを前記識別器に学習させる学習手段と、
前記学習手段による前記識別器の学習結果を評価する評価手段と、
前記評価手段での評価結果に基づいて、前記学習手段による学習において前記誤差に対する重み付け度合いを認識タスクごとに設定するパラメータ設定手段とを有することを特徴とする情報処理装置。 - ニューラルネットワークに学習させる複数の認識タスクを設定するタスク設定工程と、
学習データを前記ニューラルネットワークに入力した際の前記複数の認識タスクの出力結果と教師値との誤差に基づいて、前記複数の認識タスクを前記ニューラルネットワークに学習させる学習工程と、
前記学習工程による前記ニューラルネットワークの学習結果を評価する評価工程と、
前記評価工程での評価結果に基づいて、前記学習工程による学習において前記誤差に対する重み付け度合いを認識タスクごとに設定するパラメータ設定工程とを有することを特徴とする情報処理方法。 - 識別器に学習させる複数の認識タスクを設定するタスク設定工程と、
学習データを前記識別器に入力した際の前記複数の認識タスクの出力結果と教師値との誤差に基づいて、前記複数の認識タスクを前記識別器に学習させる学習工程と、
前記学習工程による前記識別器の学習結果を評価する評価工程と、
前記評価工程での評価結果に基づいて、前記学習工程による学習において前記誤差に対する重み付け度合いを認識タスクごとに設定するパラメータ設定工程とを有することを特徴とする情報処理方法。 - ニューラルネットワークに学習させる複数の認識タスクを設定するタスク設定ステップと、
学習データを前記ニューラルネットワークに入力した際の前記複数の認識タスクの出力結果と教師値との誤差に基づいて、前記複数の認識タスクを前記ニューラルネットワークに学習させる学習ステップと、
前記学習ステップによる前記ニューラルネットワークの学習結果を評価する評価ステップと、
前記評価ステップでの評価結果に基づいて、前記学習ステップによる学習において前記誤差に対する重み付け度合いを認識タスクごとに設定するパラメータ設定ステップとをコンピュータに実行させるためのプログラム。 - 識別器に学習させる複数の認識タスクを設定するタスク設定ステップと、
学習データを前記識別器に入力した際の前記複数の認識タスクの出力結果と教師値との誤差に基づいて、前記複数の認識タスクを前記識別器に学習させる学習ステップと、
前記学習ステップによる前記識別器の学習結果を評価する評価ステップと、
前記評価ステップでの評価結果に基づいて、前記学習ステップによる学習において前記誤差に対する重み付け度合いを認識タスクごとに設定するパラメータ設定ステップとをコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018085259A JP7166784B2 (ja) | 2018-04-26 | 2018-04-26 | 情報処理装置、情報処理方法及びプログラム |
US16/389,546 US11113576B2 (en) | 2018-04-26 | 2019-04-19 | Information processing apparatus for training neural network for recognition task and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018085259A JP7166784B2 (ja) | 2018-04-26 | 2018-04-26 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019192009A JP2019192009A (ja) | 2019-10-31 |
JP7166784B2 true JP7166784B2 (ja) | 2022-11-08 |
Family
ID=68291196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018085259A Active JP7166784B2 (ja) | 2018-04-26 | 2018-04-26 | 情報処理装置、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11113576B2 (ja) |
JP (1) | JP7166784B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11055854B2 (en) * | 2018-08-23 | 2021-07-06 | Seoul National University R&Db Foundation | Method and system for real-time target tracking based on deep learning |
WO2021151277A1 (zh) * | 2020-05-26 | 2021-08-05 | 平安科技(深圳)有限公司 | 目标物损伤程度判定方法、装置、电子设备及存储介质 |
AU2021289232A1 (en) * | 2020-06-09 | 2023-01-19 | Annalise-Ai Pty Ltd | Systems and methods for automated analysis of medical images |
JP6872214B1 (ja) * | 2020-08-20 | 2021-05-19 | 株式会社医療情報技術研究所 | 分類システム |
CN112686996A (zh) * | 2020-12-28 | 2021-04-20 | 北京像素软件科技股份有限公司 | 游戏山脉地形创建方法、模型训练方法及相关装置 |
JP2022133872A (ja) * | 2021-03-02 | 2022-09-14 | 株式会社Jvcケンウッド | 機械学習装置、推論装置、機械学習方法、および機械学習プログラム |
CN113086799B (zh) * | 2021-04-09 | 2022-01-04 | 新沂慧科智能科技有限公司 | 一种基于图像识别的电梯故障检测及预警方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016006626A (ja) | 2014-05-28 | 2016-01-14 | 株式会社デンソーアイティーラボラトリ | 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法 |
JP2017084320A (ja) | 2015-03-06 | 2017-05-18 | パナソニックIpマネジメント株式会社 | 学習方法およびプログラム |
US20170236057A1 (en) | 2016-02-16 | 2017-08-17 | Carnegie Mellon University, A Pennsylvania Non-Profit Corporation | System and Method for Face Detection and Landmark Localization |
JP2017211799A (ja) | 2016-05-25 | 2017-11-30 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP2018026040A (ja) | 2016-08-12 | 2018-02-15 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100442835B1 (ko) * | 2002-08-13 | 2004-08-02 | 삼성전자주식회사 | 인공 신경망을 이용한 얼굴 인식 방법 및 장치 |
JP5025893B2 (ja) * | 2004-03-29 | 2012-09-12 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
US8904312B2 (en) * | 2006-11-09 | 2014-12-02 | Navisense | Method and device for touchless signing and recognition |
CN106548127B (zh) * | 2015-09-18 | 2022-11-04 | 松下电器(美国)知识产权公司 | 图像识别方法 |
JP6656357B2 (ja) * | 2016-04-04 | 2020-03-04 | オリンパス株式会社 | 学習方法、画像認識装置およびプログラム |
WO2018213841A1 (en) * | 2017-05-19 | 2018-11-22 | Google Llc | Multi-task multi-modal machine learning model |
US11315019B2 (en) * | 2017-11-15 | 2022-04-26 | Google Llc | Learning neural network structure |
-
2018
- 2018-04-26 JP JP2018085259A patent/JP7166784B2/ja active Active
-
2019
- 2019-04-19 US US16/389,546 patent/US11113576B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016006626A (ja) | 2014-05-28 | 2016-01-14 | 株式会社デンソーアイティーラボラトリ | 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法 |
JP2017084320A (ja) | 2015-03-06 | 2017-05-18 | パナソニックIpマネジメント株式会社 | 学習方法およびプログラム |
US20170236057A1 (en) | 2016-02-16 | 2017-08-17 | Carnegie Mellon University, A Pennsylvania Non-Profit Corporation | System and Method for Face Detection and Landmark Localization |
JP2017211799A (ja) | 2016-05-25 | 2017-11-30 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP2018026040A (ja) | 2016-08-12 | 2018-02-15 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2019192009A (ja) | 2019-10-31 |
US20190332898A1 (en) | 2019-10-31 |
US11113576B2 (en) | 2021-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7166784B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US10684681B2 (en) | Neural network image processing apparatus | |
JP4767595B2 (ja) | 対象物検出装置及びその学習装置 | |
JP6664163B2 (ja) | 画像識別方法、画像識別装置及びプログラム | |
US9104907B2 (en) | Head-pose invariant recognition of facial expressions | |
JP4575917B2 (ja) | 構成要素に基づいて構成された物体を識別するシステムを訓練するシステム、方法及びプログラム | |
JP6032921B2 (ja) | 物体検出装置及びその方法、プログラム | |
US20220148328A1 (en) | Pedestrian detection method and apparatus, computer-readable storage medium, and chip | |
CN113302620A (zh) | 使用机器学习模型确定对象与人之间的关联 | |
KR102306658B1 (ko) | 이종 도메인 데이터 간의 변환을 수행하는 gan의 학습 방법 및 장치 | |
JP7228961B2 (ja) | ニューラルネットワークの学習装置およびその制御方法 | |
JP2018022360A (ja) | 画像解析装置、画像解析方法およびプログラム | |
KR102476022B1 (ko) | 얼굴검출 방법 및 그 장치 | |
JP6185919B2 (ja) | 人物検出モダリティ結果を融合して人物カウンティングを向上させる方法及びシステム | |
WO2016179808A1 (en) | An apparatus and a method for face parts and face detection | |
JP2014093023A (ja) | 物体検出装置、物体検出方法及びプログラム | |
US20220237943A1 (en) | Method and apparatus for adjusting cabin environment | |
US9904843B2 (en) | Information processing device, information processing method, and program | |
WO2012046426A1 (ja) | 物体検出装置、物体検出方法および物体検出プログラム | |
JP2020123244A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2006268563A (ja) | 個人認証装置、個人認証処理方法、そのためのプログラム及び記録媒体 | |
JP2020126622A (ja) | 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression} | |
WO2019171779A1 (ja) | 物体検出装置、物体検出方法、およびプログラム | |
JP2021018477A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7388258B2 (ja) | アクセシビリティ判定装置、アクセシビリティ判定方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220927 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221026 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7166784 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |