JP7228961B2 - ニューラルネットワークの学習装置およびその制御方法 - Google Patents
ニューラルネットワークの学習装置およびその制御方法 Download PDFInfo
- Publication number
- JP7228961B2 JP7228961B2 JP2018071041A JP2018071041A JP7228961B2 JP 7228961 B2 JP7228961 B2 JP 7228961B2 JP 2018071041 A JP2018071041 A JP 2018071041A JP 2018071041 A JP2018071041 A JP 2018071041A JP 7228961 B2 JP7228961 B2 JP 7228961B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- layer
- neural network
- data group
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
第1のデータ群を用いて第1のNNを学習する第1の学習手段と、
前記第1のNNにおける第1の層と該第1の層に後続する第2の層との間に所定の処理を行う処理部を挿入した第2のNNを生成する第1の生成手段と、
前記第1のデータ群と異なる第2のデータ群を用いて前記第2のNNを学習する第2の学習手段と、
学習された前記第2のNNと略同一の出力特性を有し該第2のNNよりもネットワーク規模が小さい第3のNNを生成する第2の生成手段と、
を有する。
本発明に係る情報処理装置の第1実施形態として、情報処理装置20とNN学習装置50を含むシステムを例に挙げて以下に説明する。
DCNNとは、各層において、前層からの出力結果に対して畳みこみ処理を行い次層に出力するようなネットワーク構造をもつものである。最終層は認識結果を表す出力層となる。各層には畳みこみ演算用のフィルタ(カーネル)が複数用意される。出力層に近い層では畳みこみによる結合ではなく通常のニューラルネットワーク(NN)のような全結合(fullconnect)の構造とするのが一般的である。もしくは、非特許文献2(「Jeff Donahue, Yangqing Jia, Judy Hoffman, Trevor Darrell, "DeCAF: A Deep Convolutional Activation Feature for Generic Visual Recognition", arxiv 2013」)に開示されているように全結合層のかわりに畳みこみ演算層(中間層)の出力結果を線形識別器に入力し識別を行う手法も注目されている。
図1は、システムの全体構成を例示的に示す図である。システムは、ネットワーク15を介して接続されたカメラ10及び情報処理装置20を含んでいる。なお、情報処理装置20とカメラ10を一体構成の装置としてもよい。また、情報処理装置20とニューラルネットワーク(NN)学習装置50がネットワーク15を介して接続されている。なお、情報処理装置20とNN学習装置50が一体に構成されていてもよい。
まず、第1実施形態において学習されるニューラルネットワークを用いて画像を識別する際の処理について説明する。なお、ここではニューラルネットワークはDCNNとする。DCNNでは、非特許文献1に開示されているように畳みこみ(convolution)と非線形処理(reluやmaxpoolingなど)の組み合わせで特徴層が実現される。各特徴層での処理の後、全結合層(fullconect)を経て画像分類結果(各クラスに対する尤度)が出力される。
図5(a)は、第1実施形態に係る情報処理装置20の機能構成の例を示す図である。ここでは、情報処理装置20のCPU401が実行する処理を、それぞれ機能ブロックとして描いている。なお、図5(a)には、情報処理装置20内の各機能ブロックの他に、カメラ10に相当する撮影部200も示している。撮影部200は、カメラ10に相当し、識別対象画像を取得する。情報処理装置20は、入力部201、NN出力部202、NNパラメータ保持部530を有している。なお、NNパラメータ保持部530は、不揮発性の記憶装置として情報処理装置20と接続された構成としてもよい。
図6(a)は、第1実施形態におけるNN学習装置の機能構成の例を示す図である。ここでは、NN学習装置50のCPU401が実行する処理を、それぞれ機能ブロックとして描いている。NN学習装置50は、NN学習部501、変換部追加部502、適合ドメイン学習部503、NN軽量化部504、表示部508を有している。また、学習データ保持部510、適合ドメイン学習データ保持部520、NNパラメータ保持部530を有している。学習データ保持部510、適合ドメイン学習データ保持部520、NNパラメータ保持部530は、不揮発性の記憶装置として情報処理装置20と接続された構成としてもよい。
f(1、1、i、j)=0(i≠j) ・・・(1)
恒等写像を初期値にして学習することで、適合ドメインデータ学習時に元のニューラルネットワークのパラメータを変化させる必要がなければ学習されない(フィルタ値が大きく更新されない)。逆に、適合ドメインデータ学習時に元のニューラルネットワークのパラメータを変化させる必要があればフィルタ値は大きく更新される。もし、S120の処理を繰り返す場合には、フィルタ値が大きく更新された変換部の前後に変換部を追加する、もしくは変換部の構成を変更するなどしてもよい。
以下では、上述の各処理に対応する表示部508における情報表示の処理について説明する。NN学習部501、変換部追加部502、適合ドメイン学習部503、NN軽量化部504はそれぞれ表示部508と接続されており、各部の処理内容や結果を表示することができる。
第2実施形態では、第1実施形態の処理に加えて、適合ドメインにおけるニューラルネットワークを学習したあと、1つ以上の中間層の出力結果を特徴量とする識別器(たとえば、SVMなど)を学習する。そして、学習により得られたニューラルネットワークおよびこれに結合する識別器を、情報処理装置における識別処理に用いる形態について説明する。
図5(b)は、第2実施形態に係る情報処理装置20の機能構成の例を示す図である。図5(b)における情報処理装置20では、第1実施形態における図5(a)の構成に対して、識別部203、識別器保持部540が追加されており、NN出力部202の処理内容が異なる。なお、識別器保持部540もNNパラメータ保持部530と同じように不揮発性の記憶装置として情報処理装置20と接続された構成としてもよい。
次に、T230で用いる識別器の学習方法について説明する。第1実施形態と同様に、NN学習装置50において、適合ドメインにおけるニューラルネットワークを学習し、追加した変換部を除く中間層の出力結果および識別層の出力結果と同様の出力をするニューラルネットワークに軽量化する。軽量化されたニューラルネットワークに適合ドメイン学習データを入力した際に得られる中間層の出力結果を特徴ベクトルとして識別器を学習する。
図16は、第2実施形態における変換部追加工程における処理内容の一例を示す図である。図16(a)は、各中間層の出力結果を全結合層1027、1029、1031、1033に入力する形態を示す図である。また、図16(b)は、各中間層の出力結果を識別器1035、1037、1039、1041に入力する形態を示す図である。識別結果は図16において、それぞれ出力結果1028、1030、1032、1034、1036、1038、1040、1042である。この識別結果の識別精度をそれぞれ評価する。ここで用いる全結合層および識別器はあらかじめ学習しておく。例えば、識別精度が低いと判定された中間層の前に変換部を挿入するか、その位置に挿入した変換部のS230における学習率を大きくすることで識別精度を向上する。
第3実施形態では、第1実施形態の処理に加えて、適合ドメインにおけるニューラルネットワークを学習する際に追加する変換部をあらかじめ用意してある変換部の中から選択して適合ドメインにおける学習を行う形態について説明する。情報処理装置20による画像の識別処理は第1実施形態と同様であるため説明を省略する。以下ではNN学習装置50における学習時の処理について説明する。
図6(d)は、第3実施形態におけるNN学習装置の機能構成の例を示す図である。図6(a)で説明したNN学習装置50と共通部が多いが、変換部保持部550が追加されている。なお、第3実施形態に係るNN学習装置50による学習処理は、第1実施形態と同様で図9(a)である。ただし、S120の処理内容が異なるため以下では、S120の処理内容について説明する。
第4実施形態では、第1実施形態の処理に加えて、適合ドメインにおけるニューラルネットワークを複数学習したのちにもっとも識別精度の高いニューラルネットワークを選択する形態について説明する。情報処理装置20における画像の識別処理は第1実施形態と同様であるため説明を省略する。以下ではNN学習装置50における学習時の処理について説明する。
図7(a)は、第4実施形態におけるNN学習装置の機能構成の例を示す図である。図6(a)で説明したNN学習装置50と共通部が多いが、適合NN選択部506が追加されている。
第5実施形態では、第1実施形態の処理に加えて、適合ドメインにおける学習データをユーザが設定する形態について説明する。情報処理装置20における画像の識別処理は第1実施形態と同様であるため説明を省略する。以下ではNN学習装置50における学習時の処理について説明する。
図7(b)は、第5実施形態におけるNN学習装置の機能構成の例を示す図である。図6(a)で説明したNN学習装置50と共通部が多いが、ユーザ学習データ設定部507が追加されている。
・適合ドメインにおける学習データの教師値
・S440において学習する際に重視する学習データの選択
図18は、学習データの設定を受け付けるGUIを例示的に示す図である。ここでは、ユーザ60が、適合ドメインにおける学習データ61を選択し、適合ドメイン学習データ保持部520にポインタ64を用いて追加している様子を示している。図18では、更に、教師値を入力するダイアログ62、学習データを重視するかどうかをユーザに問うダイアログ63も表示している。設定された適合ドメインにおける学習データおよび教師値は適合ドメイン学習データ保持部520に送信され、後続のS440に利用される。
第6実施形態では、第1実施形態の処理に加えて、画像生成部で大量画像を生成してニューラルネットワークをプレトレーニングしてから適合ドメインデータに対する学習する形態について説明する。ここでは、画像生成部によって生成した大量画像でニューラルネットワークをプレトレーニングして、適合ドメインデータで変換部を学習する。情報処理装置20における画像の識別処理は第1実施形態と同様であるため説明を省略する。以下ではNN学習装置50における学習時の処理について説明する。
図7(c)は、第6実施形態におけるNN学習装置の機能構成の例を示す図である。図6(a)で説明したNN学習装置50と共通部が多いが、学習データ生成部509が追加されている。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (13)
- ニューラルネットワーク(NN)を学習する学習装置であって、
第1のデータ群を用いて第1のNNを学習する第1の学習手段と、
前記第1のNNにおける第1の層と該第1の層に後続する第2の層との間に所定の処理を行う処理部を挿入した第2のNNを生成する第1の生成手段と、
前記第1のデータ群と異なる第2のデータ群を用いて前記第2のNNを学習する第2の学習手段と、
学習された前記第2のNNと略同一の出力特性を有し該第2のNNよりもネットワーク規模が小さい第3のNNを生成する第2の生成手段と、
を有することを特徴とする学習装置。 - 前記第2の生成手段は、前記第1のデータ群及び前記第2のデータ群の少なくとも一方を用いて前記第3のNNを生成する
ことを特徴とする請求項1に記載の学習装置。 - ニューラルネットワーク(NN)を学習する学習装置であって、
第1のデータ群を用いて第1のNNを学習する第1の学習手段と、
前記第1のNNにおける第1の層と該第1の層に後続する第2の層との間に所定の処理を行う処理部を挿入した第2のNNを生成する第1の生成手段と、
前記第1のデータ群と異なる第2のデータ群を用いて前記第2のNNを学習する第2の学習手段と、
を有し、
前記第2の学習手段は、前記第2のデータ群を用いた学習における前記処理部の学習率を他の層の学習率よりも大きく設定する
ことを特徴とする学習装置。 - 前記第2の学習手段は、前記処理部を除く層の学習率をゼロに設定する
ことを特徴とする請求項3に記載の学習装置。 - ニューラルネットワーク(NN)を学習する学習装置であって、
第1のデータ群を用いて第1のNNを学習する第1の学習手段と、
前記第1のNNにおける第1の層と該第1の層に後続する第2の層との間に所定の処理を行う処理部を挿入した第2のNNを生成する第1の生成手段と、
前記第1のデータ群と異なる第2のデータ群を用いて前記第2のNNを学習する第2の学習手段と、
を有し、
前記第1の生成手段は、前記第1のNNに対して複数の処理部を挿入した前記第2のNNを生成し、
前記第2の学習手段は、前記複数の処理部のうち、前記第2のNNの入力層に近い処理部ほど学習率を低く設定する
ことを特徴とする学習装置。 - ニューラルネットワーク(NN)を学習する学習装置であって、
第1のデータ群を用いて第1のNNを学習する第1の学習手段と、
前記第1のNNにおける第1の層と該第1の層に後続する第2の層との間に所定の処理を行う処理部を挿入した第2のNNを生成する第1の生成手段と、
前記第1のデータ群と異なる第2のデータ群を用いて前記第2のNNを学習する第2の学習手段と、
を有し、
前記第1の生成手段は、前記第1のNNに含まれる各層の出力結果の識別精度に基づいて前記処理部を挿入する
ことを特徴とする学習装置。 - ニューラルネットワーク(NN)を学習する学習装置であって、
第1のデータ群を用いて第1のNNを学習する第1の学習手段と、
前記第1のNNにおける第1の層と該第1の層に後続する第2の層との間に所定の処理を行う処理部を挿入した第2のNNを生成する第1の生成手段と、
前記第1のデータ群と異なる第2のデータ群を用いて前記第2のNNを学習する第2の学習手段と、
を有し、
前記第1の生成手段は、前記第2のデータ群の特徴に基づいて挿入する前記処理部を決定する
ことを特徴とする学習装置。 - ニューラルネットワーク(NN)を学習する学習装置であって、
第1のデータ群を用いて第1のNNを学習する第1の学習手段と、
前記第1のNNにおける第1の層と該第1の層に後続する第2の層との間に所定の処理を行う処理部を挿入した第2のNNを生成する第1の生成手段と、
前記第1のデータ群と異なる第2のデータ群を用いて前記第2のNNを学習する第2の学習手段と、
を有し、
前記処理部は、前記所定の処理として、畳み込み処理及びrelu処理または所定の空間フィルタ処理を行う
ことを特徴とする学習装置。 - 前記処理部は、前記第1の層からの出力に対して前記所定の処理を行った結果を前記第2の層に入力する
ことを特徴とする請求項1乃至8の何れか1項に記載の学習装置。 - 前記第1のデータ群は、前記第2のNNの推論対象に適合しないドメインのデータを含む
ことを特徴とする請求項1乃至9の何れか1項に記載の学習装置。 - 前記第2のデータ群は、前記第2のNNの推論対象に適合するドメインのデータを含む
ことを特徴とする請求項1乃至10の何れか1項に記載の学習装置。 - ニューラルネットワーク(NN)を学習する学習装置の制御方法であって、
第1のデータ群を用いて第1のNNを学習する第1の学習工程と、
前記第1のNNにおける第1の層と該第1の層に後続する第2の層との間に所定の処理を行う処理部を挿入した第2のNNを生成する第1の生成工程と、
前記第1のデータ群と異なる第2のデータ群を用いて前記第2のNNを学習する第2の学習工程と、
学習された前記第2のNNと略同一の出力特性を有し該第2のNNよりもネットワーク規模が小さい第3のNNを生成する第2の生成工程と、
を含むことを特徴とする学習装置の制御方法。 - コンピュータを、請求項1乃至11の何れか1項に記載の学習装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018071041A JP7228961B2 (ja) | 2018-04-02 | 2018-04-02 | ニューラルネットワークの学習装置およびその制御方法 |
US16/368,970 US20190303746A1 (en) | 2018-04-02 | 2019-03-29 | Multilayer neural network learning apparatus and method of controlling the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018071041A JP7228961B2 (ja) | 2018-04-02 | 2018-04-02 | ニューラルネットワークの学習装置およびその制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019185127A JP2019185127A (ja) | 2019-10-24 |
JP2019185127A5 JP2019185127A5 (ja) | 2021-05-13 |
JP7228961B2 true JP7228961B2 (ja) | 2023-02-27 |
Family
ID=68054478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018071041A Active JP7228961B2 (ja) | 2018-04-02 | 2018-04-02 | ニューラルネットワークの学習装置およびその制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190303746A1 (ja) |
JP (1) | JP7228961B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11055854B2 (en) * | 2018-08-23 | 2021-07-06 | Seoul National University R&Db Foundation | Method and system for real-time target tracking based on deep learning |
JP7045410B2 (ja) * | 2020-03-25 | 2022-03-31 | 日東電工株式会社 | 画像分類プログラムの組換方法 |
CN113076815B (zh) * | 2021-03-16 | 2022-09-27 | 西南交通大学 | 一种基于轻量级神经网络的自动驾驶方向预测方法 |
CN112799658B (zh) * | 2021-04-12 | 2022-03-01 | 北京百度网讯科技有限公司 | 模型训练方法、模型训练平台、电子设备和存储介质 |
KR20240019055A (ko) * | 2022-08-02 | 2024-02-14 | 미쓰비시덴키 가부시키가이샤 | 추론 장치, 추론 방법 및 기록 매체 |
CN116368534A (zh) | 2022-08-02 | 2023-06-30 | 三菱电机株式会社 | 推理装置、推理方法以及推理程序 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170068888A1 (en) | 2015-09-09 | 2017-03-09 | Intel Corporation | Cost-sensitive classification with deep learning using cost-aware pre-training |
JP2017130196A (ja) | 2016-01-14 | 2017-07-27 | キヤノン株式会社 | 認識学習装置、認識学習方法及びプログラム |
JP2017174298A (ja) | 2016-03-25 | 2017-09-28 | 株式会社デンソーアイティーラボラトリ | ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法 |
JP2017199149A (ja) | 2016-04-26 | 2017-11-02 | ヤフー株式会社 | 学習装置、学習方法および学習プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10223635B2 (en) * | 2015-01-22 | 2019-03-05 | Qualcomm Incorporated | Model compression and fine-tuning |
US10068171B2 (en) * | 2015-11-12 | 2018-09-04 | Conduent Business Services, Llc | Multi-layer fusion in a convolutional neural network for image classification |
DE112018006885B4 (de) * | 2018-02-20 | 2021-11-04 | Mitsubishi Electric Corporation | Trainingsvorrichtung,sprachaktivitätsdetektor und verfahren zur erfassung einer sprachaktivität |
-
2018
- 2018-04-02 JP JP2018071041A patent/JP7228961B2/ja active Active
-
2019
- 2019-03-29 US US16/368,970 patent/US20190303746A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170068888A1 (en) | 2015-09-09 | 2017-03-09 | Intel Corporation | Cost-sensitive classification with deep learning using cost-aware pre-training |
JP2017130196A (ja) | 2016-01-14 | 2017-07-27 | キヤノン株式会社 | 認識学習装置、認識学習方法及びプログラム |
JP2017174298A (ja) | 2016-03-25 | 2017-09-28 | 株式会社デンソーアイティーラボラトリ | ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法 |
JP2017199149A (ja) | 2016-04-26 | 2017-11-02 | ヤフー株式会社 | 学習装置、学習方法および学習プログラム |
Non-Patent Citations (4)
Title |
---|
J.Park ほか,Improved neural network based language modelling and adaptation,[online],2010年09月26日,pp.1041-1044,https://www.isca-speech.org/archive_v0/archive_papers/interspeech_2010/i10_1041.pdf |
中村 伊吹ほか,一人称視点行動認識のためのニューラルネットワークの小型化,情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM),2017-CVIM-207巻,第9号,日本,情報処理学会,2017年05月03日,pp.1-6,ISSN: 2188-8701 |
森岡 幹 ほか,ドメイン依存・非依存の内部表現を有する再帰型ニューラルネットワーク言語モデル,日本音響学会 2017年 秋季研究発表会講演論文集[CD-ROM],日本,一般社団法人日本音響学会,2017年09月25日,pp.27-30(1-10-10) |
田村 悠 ほか,ファッションECサイトの顧客行動分析,オペレーションズ・リサーチ 経営の科学,第63巻,第2号,日本,公益社団法人日本オペレーションズ・リサーチ学会,2018年02月01日,pp.91-98,ISSN: 0030-3674 |
Also Published As
Publication number | Publication date |
---|---|
US20190303746A1 (en) | 2019-10-03 |
JP2019185127A (ja) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7228961B2 (ja) | ニューラルネットワークの学習装置およびその制御方法 | |
US11093805B2 (en) | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image | |
US10002313B2 (en) | Deeply learned convolutional neural networks (CNNS) for object localization and classification | |
CN112446270B (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
WO2020125623A1 (zh) | 活体检测方法、装置、存储介质及电子设备 | |
KR102224253B1 (ko) | 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법 | |
US10346726B2 (en) | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image | |
JP2018055259A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN112446476A (zh) | 神经网络模型压缩的方法、装置、存储介质和芯片 | |
US20180157892A1 (en) | Eye detection method and apparatus | |
CN112561027A (zh) | 神经网络架构搜索方法、图像处理方法、装置和存储介质 | |
JP7166784B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7405198B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN111291809A (zh) | 一种处理装置、方法及存储介质 | |
CN112036260B (zh) | 一种自然环境下多尺度子块聚合的表情识别方法及系统 | |
US11385526B2 (en) | Method of processing image based on artificial intelligence and image processing device performing the same | |
CN111797882A (zh) | 图像分类方法及装置 | |
CN112464930A (zh) | 目标检测网络构建方法、目标检测方法、装置和存储介质 | |
CN114694089A (zh) | 一种新型的多模态融合的行人重识别算法 | |
CN110705564B (zh) | 图像识别的方法和装置 | |
Wu et al. | Facial emotion recognition using deep learning | |
KR20210114257A (ko) | 인공 신경망 기반의 비정제 동영상에서의 행동 인식 방법 및 장치 | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 | |
US20230351203A1 (en) | Method for knowledge distillation and model genertation | |
JP2021018477A (ja) | 情報処理装置、情報処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210329 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210329 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220826 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230214 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7228961 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |