JP2019153277A - エンドツーエンド深層ニューラルネットワークを使用する危険ランク付け - Google Patents
エンドツーエンド深層ニューラルネットワークを使用する危険ランク付け Download PDFInfo
- Publication number
- JP2019153277A JP2019153277A JP2018228967A JP2018228967A JP2019153277A JP 2019153277 A JP2019153277 A JP 2019153277A JP 2018228967 A JP2018228967 A JP 2018228967A JP 2018228967 A JP2018228967 A JP 2018228967A JP 2019153277 A JP2019153277 A JP 2019153277A
- Authority
- JP
- Japan
- Prior art keywords
- deep neural
- image
- neural network
- dnn
- danger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 124
- 238000012549 training Methods 0.000 claims abstract description 93
- 238000000034 method Methods 0.000 claims abstract description 73
- 238000013526 transfer learning Methods 0.000 claims abstract description 39
- 230000033001 locomotion Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 10
- 241000282412 Homo Species 0.000 claims description 6
- 231100001261 hazardous Toxicity 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 230000004807 localization Effects 0.000 abstract description 5
- 238000012546 transfer Methods 0.000 description 12
- 230000008901 benefit Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 241000124033 Salix Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012502 risk assessment Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3667—Display of a road map
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Electromagnetism (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
ネットワーク(RNN)/長短期記憶(LSTM)などの深層ニューラルネットワーク(DNN)に関する。特に、本発明は、訓練画像または訓練画像シーケンス内の危険をどのように検出するかを学習する危険ランク付け訓練方法、ならびにリアルタイム画像またはリアルタイム画像シーケンス内の危険を検出する訓練された危険ランク付け方法に関する。
ング命令に直接マッピングするように訓練された畳み込みニューラルネットワーク(CNN
)を開示している。
および危険領域位置特定作業を研究するエージェント中心手法を開示している。
らの発表は、さらなる監督なしに視覚シーケンスを直接模倣する視覚予想のための一般的なフレームワークを紹介する(http://ai.stanford.edu/~dahuang/papers/iccv17-vfid.pdf)。
そのような方法は、予測結果として意味的キーワードしか与えることができないという欠点を呈示し、それは、細かい危険ランク付け作業に必要とされる高密度ピクセルレベルマップを生成することができない。
表(http://carlvondrick.com/transformer.pdf)は、ビデオの中で近い将来を生成する
学習モデルを開示している。
な問題として人間の行動を理解することを開示している。
カテゴリについての行動シーン相関関係を発見し、そのような相関関係を行動予測に使用することを目的としている(http://www.di.ens.fr/willow/research/actionsfromscenes
/paper/eccv14_actionsfromscenes.pdf)。
発表(https://arxiv.org/pdf/1603.06987v2.pdf)は、軌跡予測のためのシーン特定知識を活用する動的ベイジアンネットワークを紹介している。
−汎用画像内の汎用物体認識のための第1の深層ニューラルネットワーク(DNN-A)を
訓練するステップと、
−特定アプリケーションに関連する画像内の特定物体認識のための第2の深層ニューラルネットワーク(DNN-B)を訓練するステップと、
−特定アプリケーションに関連する画像シーケンス内の特定シーンフロー予測のための第3の深層ニューラルネットワーク(DNN-C)を訓練するステップと、
−人間が環境にどのように反応し、かつ/または環境を分析するかを捕捉するために1つの人間により訓練された少なくともタグ付け方法を使用して、特定アプリケーションに関連する画像または画像シーケンス内の潜在的な危険領域の位置特定のための第4の深層ニューラルネットワーク(DNN-E)を訓練するステップと、
−人間により訓練された危険タグ付け方法を使用して、少なくとも1つのエンドツーエンド特定レイヤ、好ましくは少なくとも1つの最上位レイヤ(E2E TL)がその後に続く、4つの深層ニューラルネットワークの転移学習のシーケンスとして、エンドツーエンド深層ニューラルネットワーク(E2E DNN-4)を使用する特定アプリケーションに関連する画
像または画像シーケンス内の少なくとも1つの危険ピクセルを特定するステップと
を備える、特定アプリケーションに関連する画像または画像シーケンス内の危険ランク
付け訓練方法に関する。
キテクチャを使用して別々に各深層ニューラルネットワーク(DNN)を訓練することが可
能である。
知識を表し、その数は、第2、第3、および第4のDNNの各々について著しく減少し、非
構造化知識を表す。したがって、個々のDNNのそのような訓練順序は、先行するより構造
化された知識から恩恵を受ける。
するステップをさらに備え、特定するステップにおいて、5つの深層ニューラルネットワークの転移学習のシーケンスとしてのエンドツーエンド深層ニューラルネットワーク(E2E DNN-5)が使用される。好ましくは、特定するステップにおいて、訓練方法は、少なく
とも1つのエンドツーエンド最上位レイヤ(E2E TL)がその後に続く、第1、第2、第3
、第5、および第4の深層ニューラルネットワークの転移学習のシーケンスとして、エンドツーエンド深層ニューラルネットワーク(E2E DNN-A-B-C-D-E)を使用する。
に、不可視の物体/領域および/または可視の特定の物体もしくは領域についての興味深い特徴をさらにもたらす。
ットワークの中の2つの深層ニューラルネットワークの転移学習のシーケンスとしての任意のエンドツーエンド深層ニューラルネットワーク(E2E DNN-2)、(iii)第1、第2、第3、第4、または第5の深層ニューラルネットワークの中の3つの深層ニューラルネットワークの転移学習のシーケンスとしての任意のエンドツーエンド深層ニューラルネットワーク(E2E DNN-3)、および(iv)第1、第2、第3、第4、または第5の深層ニューラル
ネットワークの中の4つの深層ニューラルネットワークの転移学習のシーケンスとしての任意のエンドツーエンド深層ニューラルネットワーク(E2E DNN-4)の中の少なくとも1
つの深層ニューラルネットワークと、の結合知識を備えるエンドツーエンドマルチタスク学習深層ニューラルネットワーク(E2E MTL DNN-1)を訓練するステップをさらに備え、
特定するステップでは、少なくとも1つのエンドツーエンド最上位レイヤ(E2E TL)がその後に続く、エンドツーエンドマルチタスク学習深層ニューラルネットワーク(E2E MTL DNN-1)の結合知識が使用される。
ネットワークの転移学習のシーケンスとしてのエンドツーエンド深層ニューラルネットワーク(E2E DNN-A-B)、(iii)第1、第2、および第3の深層ニューラルネットワークの転移学習のシーケンスとしてのエンドツーエンド深層ニューラルネットワーク(E2E DNN-A-
B-C)、ならびに(iv)第1、第2、第3、および第4の深層ニューラルネットワークの転
移学習のシーケンスとしてのエンドツーエンド深層ニューラルネットワーク(E2E DNN-A-B-C-D)の中の少なくとも1つの深層ニューラルネットワークの転移学習のシーケンスと
、の結合知識を備えるエンドツーエンドマルチタスク学習深層ニューラルネットワーク(E2E MTL DNN-2)を訓練するステップをさらに備え、特定するステップは、少なくとも1
つのエンドツーエンド最上位レイヤ(E2E TL)がその後に続く、エンドツーエンドマルチタスク学習深層ニューラルネットワーク(E2E MTL DNN-2)の結合知識が使用される。
ク付けマップを生成する容量を受け継いでいるので、提案された手法は、疎ラベルのみを使用することによって危険レベルを推定する際に非常に効率的であることが証明されている。
定的な例の以下の詳細説明からより明らかになる。
S1:汎用画像内の汎用物体認識のための第1の深層ニューラルネットワーク(DNN-A
)を訓練するステップと、
S2:特定アプリケーションに関連する画像内の特定物体認識のための第2の深層ニューラルネットワーク(DNN-B)を訓練するステップと、
S3a:特定アプリケーションに関連する画像シーケンス内の特定シーンフロー予測のための第3の深層ニューラルネットワーク(DNN-C)を訓練するステップと、
S4:運転シナリオをオフラインで再生するか、またはシミュレートする、運転シナリオまたは運転状況において人間がどのように反応し、かつ/または環境を分析するかを捕捉するための少なくとも1つのタグ付け方法を使用して、特定アプリケーションに関連する画像または画像シーケンス内の潜在的な危険領域の位置特定のための第4の深層ニューラルネットワーク(DNN-E)を訓練するステップと、
S5:1つの人間により訓練された少なくとも危険タグ付け方法を使用して、第1、第2、第3、および第4の深層ニューラルネットワークの後に1つまたはいくつかのエンドツーエンド最上位レイヤ(E2E TL)が続く転移学習のシーケンスとして、エンドツーエンド深層ニューラルネットワーク(E2E DNN-A-B-C-E-)を使用する特定アプリケーションに関連する画像または画像シーケンス内の少なくとも1つの危険ピクセルを特定するステップと
を備える。
間にステップS3bをさらに備える:
S3b:特定アプリケーションに関連する画像または画像シーケンス内の不可視の特定の物体もしくは領域の予知および/または可視の特定の物体もしくは領域の予測のための第5の深層ニューラルネットワーク(DNN-D)を訓練するステップ。
S5:1つの人間により訓練された少なくとも危険タグ付け方法を使用して、第1、第2、第3、第5、および第4の深層ニューラルネットワークの後に1つまたはいくつかのエンドツーエンド最上位レイヤ(E2E TL)が続く転移学習のシーケンスとして、エンドツーエンド深層ニューラルネットワーク(E2E DNN-A-B-C-D-E)を使用する特定アプリケー
ションに関連する画像または画像シーケンス内の少なくとも1つの危険ピクセルを特定するステップ。
−汎用物体(Dataset-A)および汎用物体ラベル(Label-A)を含む汎用画像を供給すること、ならびに
−汎用画像の汎用物体を分類するために使用される少なくとも1つのクラス汎用特徴空間(Conv-A)および少なくとも1つのクラス汎用決定空間(FC-A)を汎用物体ラベルの中に出力すること
によって行われる。
かを学習することである。そのような訓練は、堅牢な低レベルおよび高レベルの視覚的特徴を与える。転移学習は、物体カテゴリごとに堅牢でユニークな応答を生成することができる。
−少なくとも1つの特定物体(Dataset-B)および特定物体ラベル(Label-B)を含む特定画像を供給すること、ならびに
−特定画像の特定物体を分類するために使用される少なくとも1つのクラス特定特徴空間(Conv-B)および少なくとも1つのクラス特定決定空間(FC-B)を特定物体ラベルの中に出力すること
によって行われる。
ことを学習することである。そのような訓練は、運転シーンにおける特定物体のカテゴリおよび位置の知識を与える。転移学習は、画像の区分を意味的カテゴリの反復可能な領域および運転コンテキストの前歴(prior)に転移させる。
、
−少なくとも1つの特定物体および特定動作を含む特定画像シーケンス(Dataset-C)
またはシーンフローラベル(Label-C)を供給すること、ならびに
−特定画像シーケンスの特定シーンフローを予測するために使用される少なくとも1つのクラス特定特徴空間(Conv-C)および少なくとも1つのクラス特定決定空間(FC-C)を特定シーンフローラベルの中に出力すること
によって行われる。
どのように推定するかを学習することである。そのような訓練は、物体への移動方向、移動速度、および移動距離の知識を与える。転移学習の場合、それは観測可能な運転シーンのセンサ位置に依存しない理解を転移させる。
−少なくとも1つの特定物体を含む特定画像または特定画像シーケンス(Dataset-D)
、および特定の不可視物体ラベル(Label-D)を供給すること、ならびに
−特定画像または特定画像シーケンスのいずれかで不可視または可視の特定の物体/動作または領域の出現を予知/予測するために使用される、少なくとも1つのクラス特定特徴空間(Conv-D)および少なくとも1つのクラス特定決定空間(FC-D)を出力すること
によって行われる。
コンテキストに依存する位置をどのように予測するかを学習することである。そのような訓練は、運転シーンにおける物体の潜在的なカテゴリおよび位置の知識を与える。転移学習の場合、それは運転シーンを予測するセンサ位置に依存しない理解を転移させる。特定物体の将来の状態の物体/動作予測は、現在の運転シーン内の物体を見ることなく、潜在的に危険な画像領域に集中するために必要とされる分類および位置特定につながる。
−少なくとも1つの可視または不可視の特定物体を含む特定画像シーケンス(Dataset-E)、および人間の専門家によってタグ付けされた特定危険タグ付けラベル(Label-E)を供給すること、ならびに
−人間の専門家によって教示された特定画像シーケンス内の潜在的な危険領域を位置特定するために使用される、少なくとも1つのクラス特定特徴空間(Conv-E)および少なくとも1つのクラス特定決定空間(FC-E)を出力すること
によって行われる。
にのみ焦点を当てることである。そのような訓練は、運転シーンごとの重要/顕著な物体または領域を識別する能力を与える。転移学習は、運転シーンの物体または領域ごとに顕著性のレベルの推定値を転移させる。特に、人にとって顕著な画像領域をフィルタリングするために、視線追跡位置特定が必要とされる。特に、運転のために潜在的に重要な画像領域をさらにフィルタリングするために、自動車の視線追跡位置特定が重要である。
またはいくつかのエンドツーエンド最上位レイヤ(E2E TL)がその後に続く、第1、第2、第3、第5、および第4の深層ニューラルネットワークの転移学習のシーケンスによって行われ、
−少なくとも1つの可視または不可視の特定物体を含む特定画像シーケンス(Dataset-E2E)、および人間の専門家によってタグ付けされた特定危険タグ付けラベル(Label-E2E)を供給すること、ならびに
−少なくとも1つの危険ピクセルを特定すること
によって行われる。
突リスクのレベルを推定することである。そのような訓練は、危険ランク付けマップの知識を与える。転移学習は、たとえば、他の時系列深層ニューラルネットワーク(LSTM, RNNなど)への入力として使用されるように、単一の画像ベースのピクセルレベル危険ラン
ク付けマップを転移させる。危険レベルランク付けおよび位置特定の具体的な知識は、運転に重要な領域の中にある、危険推定に重要な画像領域をフィルタリングするために重要である。
ら容易に理解することができるように、ネットワークAは最も構造化された知識を有し、ネットワークBよりも多い数の訓練サンプルおよびラベルを取得し、ネットワークBはネットワークCよりも多い数の訓練サンプルおよびラベルを取得し、ネットワークCはネットワークDよりも多い数の訓練サンプルおよびラベルを取得し、ネットワークDはネットワークEよりも多い数の訓練サンプルおよびラベルを取得し、ネットワークEは最も構造化されていない知識を有する。
Dataset-A: ImageNet
Dataset-B: Cytiscapes
Dataset-C: KITTI
Dataset-D: KITTI
Dataset-E: CAT2000またはDriveEye
E2Eのデータセット: Cytiscapes
であり得る。
ーン内の複数の物体に対するに高いレベルの危険を示すこと、および、複数の専門家からのデータの組合せも実現可能であろうことが確認された。
ネットワークのエンドツーエンド畳み込み部分によって抽出された特徴にアクセスするだけでなく、デコンボリューション部分、すなわちA, A-B, A-B-C, A-B-C-DおよびA-B-C-D-E内の転移学習ブロックの各々によって抽出された特徴にもアクセスすることによって、
危険ランク付けマップを訓練することができる。これにより、危険ランク付け用の転移ブロックの各々を1つずつ削除し、マルチタスク危険ランク付けの精度を比較することにより、それらがどれだけ重要であるかをベンチマークすることが可能になる。また、それにより、マルチタスク危険ランク付けと個々の転移学習マップとの間の接続の位置および強度を示す、アクティベーションマップを視覚化することも可能になるに違いない。接続が強くなればなるほど、多くの危険ランク付けが特定の画像ピクセルごとの転移学習マップに依存する。これにより、危険ランク付けが意思決定を行うために情報を取る場所から、転移学習ブロックのどの組合せがどの状況で最も強いかを画像領域ごとに理解することが可能になる。そのような情報は、危険ランク付け訓練方法および危険ランク付け方法を常に向上させるために非常に重要である。
、知識転移の任意の妥当な数のシーケンスに拡張することができる。
Claims (14)
- 特定アプリケーションに関連する画像または画像シーケンス内の危険ランク付け訓練方法であって、
汎用画像内の汎用物体認識のための第1の深層ニューラルネットワーク(DNN-A)を訓
練するステップと、
前記特定アプリケーションに関連する画像内の特定物体認識のための第2の深層ニューラルネットワーク(DNN-B)を訓練するステップと、
前記特定アプリケーションに関連する画像シーケンス内の特定シーンフロー予測のための第3の深層ニューラルネットワーク(DNN-C)を訓練するステップと、
画像または画像シーケンス内で人間がどのように反応し、かつ/または環境を分析するかを捕捉するために少なくとも1つのタグ付け方法を使用して、前記特定アプリケーションに関連する前記画像または前記画像シーケンス内の潜在的な危険領域の位置特定のための第4の深層ニューラルネットワーク(DNN-E)を訓練するステップと、
人間により訓練された少なくとも1つの危険タグ付け方法を使用して、前記4つの深層ニューラルネットワークの後に少なくとも1つのエンドツーエンド最上位レイヤ(E2E TL
)が続く転移学習のシーケンスとして、エンドツーエンド深層ニューラルネットワーク(E2E DNN-4)を使用する前記特定アプリケーションに関連する画像または画像シーケンス
内の少なくとも1つの危険ピクセルを特定するステップと
を備える、危険ランク付け訓練方法。 - 前記特定するステップでは、前記第1、第2、第3、および第4の深層ニューラルネットワークの後に前記少なくとも1つのエンドツーエンド最上位レイヤ(E2E TL)が続く転移学習のシーケンスとしての前記エンドツーエンド深層ニューラルネットワーク(E2E DNN-A-B-C-E-)が使用される、請求項1に記載の危険ランク付け訓練方法。
- 前記特定アプリケーションに関連する画像または画像シーケンス内の不可視の特定の物体/動作もしくは領域の予知および/または可視の特定の物体もしくは領域の予測のための第5の深層ニューラルネットワーク(DNN-D)を訓練するステップをさらに備え、
前記特定するステップは、前記5つの深層ニューラルネットワークの後に前記少なくとも1つのエンドツーエンド最上位レイヤ(E2E TL)が続く転移学習のシーケンスとしてのエンドツーエンド深層ニューラルネットワーク(E2E DNN-5)が使用される、
請求項1に記載の危険ランク付け訓練方法。 - 前記特定するステップは、前記第1、第2、第3、第5、および第4の深層ニューラルネットワークの後に前記少なくとも1つのエンドツーエンド最上位レイヤ(E2E TL)が続く転移学習のシーケンスとしての前記エンドツーエンド深層ニューラルネットワーク(E2E DNN-A-B-C-D-E)が使用される、請求項3に記載の危険ランク付け訓練方法。
- 前記5つの深層ニューラルネットワークの転移学習のシーケンスを使用する前記エンドツーエンド深層ニューラルネットワーク(E2E DNN-5)と、
前記第1、第2、第3、第4、または第5の深層ニューラルネットワークの中の任意の深層ニューラルネットワーク(DNN-1)、
前記第1、第2、第3、第4、または第5の深層ニューラルネットワークの中の2つの深層ニューラルネットワークの転移学習のシーケンスとしての任意のエンドツーエンド深層ニューラルネットワーク(E2E DNN-2)、
前記第1、第2、第3、第4、または第5の深層ニューラルネットワークの中の3つの深層ニューラルネットワークの転移学習のシーケンスとしての任意のエンドツーエンド深層ニューラルネットワーク(E2E DNN-3)、および
前記第1、第2、第3、第4、または第5の深層ニューラルネットワークの中の4つの
深層ニューラルネットワークの転移学習のシーケンスとしての任意のエンドツーエンド深層ニューラルネットワーク(E2E DNN-4)
の中の少なくとも1つの深層ニューラルネットワークと、の結合知識を備えるエンドツーエンドマルチタスク学習深層ニューラルネットワーク(E2E MTL DNN-1)を訓練するス
テップをさらに備え、
前記特定するステップは、前記少なくとも1つのエンドツーエンド最上位レイヤ(E2E TL)がその後に続く、前記エンドツーエンドマルチタスク学習深層ニューラルネットワーク(E2E MTL DNN-1)の前記結合知識が使用される、
請求項3に記載の危険ランク付け訓練方法。 - 前記第1、第2、第3、第4、および第5の深層ニューラルネットワークの転移学習のシーケンスを使用する前記エンドツーエンド深層ニューラルネットワーク(E2E DNN-A-B-C-D-E)と、
前記第1の深層ニューラルネットワーク(DNN-A)、
前記第1および第2の深層ニューラルネットワークの転移学習のシーケンスとしてのエンドツーエンド深層ニューラルネットワーク(E2E DNN-A-B)、
前記第1、第2、および第3の深層ニューラルネットワークの転移学習のシーケンスとしてのエンドツーエンド深層ニューラルネットワーク(E2E DNN-A-B-C)、および
前記第1、第2、第3、および第4の深層ニューラルネットワークの転移学習のシーケンスとしてのエンドツーエンド深層ニューラルネットワーク(E2E DNN-A-B-C-D)
の中の少なくとも1つの深層ニューラルネットワークと、の結合知識を備えるエンドツーエンドマルチタスク学習深層ニューラルネットワーク(E2E MTL DNN-2)を訓練するス
テップをさらに備え、
前記特定するステップは、前記少なくとも1つのエンドツーエンド最上位レイヤ(E2E TL)がその後に続く、前記エンドツーエンドマルチタスク学習深層ニューラルネットワーク(E2E MTL DNN-2)ネットワークの前記結合知識が使用される、
請求項4に記載の危険ランク付け訓練方法。 - 前記汎用物体および特定物体内のピクセルがラベル付けされ、
前記特定シーンフロー内の物体がラベル付けされ、
潜在的な危険領域がラベル付けされる、
請求項1から6のいずれか一項に記載の危険ランク付け訓練方法。 - 特定アプリケーションに関連する画像または画像シーケンス内の危険ランク付け方法であって、
画像または画像シーケンスを提供するステップと、
請求項1から7のいずれか一項に従って訓練された危険ランク付け訓練方法を使用して危険ランク付けマップを描くステップであって、前記危険ランク付けマップが、前記画像または画像シーケンス内の任意のレベルの危険を示す、ステップと
を備える、危険ランク付け方法。 - 前記危険ランク付けマップが、前記画像または画像シーケンス内のピクセルごとの危険レベルを表す危険ランク付けピクセルレベルマップである、請求項8に記載の危険ランク付け方法。
- 前記特定アプリケーションが支援型または自律型車両運転システムであり、
前記車両に搭載された画像センサユニットを用いて前記車両周囲の画像または画像シーケンスを取り込むステップ
をさらに備える、請求項8または9に記載の危険ランク付け方法。 - 前記特定アプリケーションが機密領域の制御システムであり、
前記機密領域内またはその周辺に設置された少なくとも1つのビデオ監視デバイスを用いて画像または画像シーケンスを取り込むステップ
をさらに備える、請求項8または9に記載の危険ランク付け方法。 - 前記車両周囲の画像または画像シーケンスを取り込むように構成された少なくとも1つの画像センサユニットと、
請求項8または9に記載の方法に従って危険ランク付けマップを算出する処理ユニットと、
前記危険ランク付けマップに基づいて前記車両運転システムを制御する制御ユニットと
を備える、支援型または自律型車両運転システム。 - 前記処理ユニットが、所定の危険しきい値と比較して前記危険ランク付けマップの前記危険レベルを評価するようにさらに構成され、前記車両運転システムが、
危険警報を表示するように構成された表示ユニット、および
前記危険レベルを低減するように計画された安全な車両経路を計画するように構成された運転ユニット
のうちの少なくとも1つをさらに備え、
前記制御ユニットが、前記危険レベルが所定の危険しきい値を上回るときに、前記表示ユニットおよび/または前記運転ユニットを制御するように構成される、
請求項12に記載の支援型または自律型車両運転システム。 - 請求項12または13に記載の支援型または自律型車両運転システムを備えた複数の車両を備える車両ネットワークであって、各車両の前記運転システムが、適応型ナビゲーション高精細マップで実装されたナビゲーションユニットをさらに備え、前記適応型ナビゲーション高精細マップが、前記車両ネットワークの少なくとも2つの車両の前記危険ランク付けマップに基づく危険レイヤを含む、車両ネットワーク。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17206055.0 | 2017-12-07 | ||
EP17206055.0A EP3495992A1 (en) | 2017-12-07 | 2017-12-07 | Danger ranking using end to end deep neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019153277A true JP2019153277A (ja) | 2019-09-12 |
JP7217138B2 JP7217138B2 (ja) | 2023-02-02 |
Family
ID=60673464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018228967A Active JP7217138B2 (ja) | 2017-12-07 | 2018-12-06 | エンドツーエンド深層ニューラルネットワークを使用する危険ランク付け |
Country Status (4)
Country | Link |
---|---|
US (1) | US11281941B2 (ja) |
EP (1) | EP3495992A1 (ja) |
JP (1) | JP7217138B2 (ja) |
CN (1) | CN110008978A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102490011B1 (ko) * | 2022-07-19 | 2023-01-19 | 주식회사 라이드플럭스 | 로드 유저 예측 기반 자율주행 차량의 주행 계획 결정방법, 장치 및 컴퓨터프로그램 |
JP7492490B2 (ja) | 2020-06-25 | 2024-05-29 | アクシス アーベー | オブジェクト認識ニューラルネットワークの訓練 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7221203B2 (ja) * | 2017-01-23 | 2023-02-13 | オックスフォード ユニヴァーシティ イノヴェーション リミテッド | モバイル装置の位置特定方法 |
WO2020100408A1 (ja) * | 2018-11-13 | 2020-05-22 | 日本電気株式会社 | 危険シーン予測装置、危険シーン予測方法および危険シーン予測プログラム |
US10901502B2 (en) * | 2019-06-27 | 2021-01-26 | Facebook, Inc. | Reducing head mounted display power consumption and heat generation through predictive rendering of content |
CN110855467B (zh) * | 2019-08-19 | 2022-02-08 | 中国电子科技集团公司第三十研究所 | 一种基于计算机视觉技术的网络综合态势预测方法 |
WO2021040060A1 (ko) * | 2019-08-23 | 2021-03-04 | 엘지전자 주식회사 | 차량용 전자 장치 및 그의 동작 방법 |
CN110991607B (zh) * | 2019-11-15 | 2022-08-02 | 佳都科技集团股份有限公司 | 一种地铁客流预测方法、装置、电子设备及存储介质 |
CN110837818A (zh) * | 2019-11-18 | 2020-02-25 | 汕头大学 | 一种基于卷积神经网路的中华白海豚背鳍识别方法 |
CN111028210B (zh) * | 2019-11-25 | 2023-07-18 | 北京航天控制仪器研究所 | 一种基于深度神经网络的玻璃管端面缺陷检测方法 |
US20210241094A1 (en) * | 2019-11-26 | 2021-08-05 | Baidu Usa Llc | Rank selection in tensor decomposition based on reinforcement learning for deep neural networks |
JP7403340B2 (ja) * | 2020-02-17 | 2023-12-22 | 株式会社日立製作所 | 物体認識モデルの流用可否を判定するシステム。 |
CN111401414B (zh) * | 2020-02-29 | 2023-02-10 | 同济大学 | 一种基于自然驾驶数据的危险场景提取及分类方法 |
US11514318B2 (en) * | 2020-04-08 | 2022-11-29 | International Business Machines Corporation | Multi-source transfer learning from pre-trained networks |
CN111598169B (zh) * | 2020-05-18 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、游戏测试方法、模拟操作方法及装置 |
CN111898663B (zh) * | 2020-07-20 | 2022-05-13 | 武汉大学 | 一种基于迁移学习的跨模态遥感图像的匹配方法 |
CN112287754A (zh) * | 2020-09-23 | 2021-01-29 | 济南浪潮高新科技投资发展有限公司 | 一种基于神经网络的暴力检测方法、装置、设备及介质 |
CN112396235B (zh) * | 2020-11-23 | 2022-05-03 | 浙江天行健智能科技有限公司 | 基于眼球动作追踪的交通事故发生时间预测建模方法 |
CN112765812B (zh) * | 2021-01-19 | 2021-09-07 | 中国科学院软件研究所 | 一种无人系统决策策略的自主能力快速测评方法及系统 |
US11861315B2 (en) * | 2021-04-21 | 2024-01-02 | Meta Platforms, Inc. | Continuous learning for natural-language understanding models for assistant systems |
CN114926753B (zh) * | 2022-06-16 | 2023-10-13 | 无锡慧眼人工智能科技有限公司 | 一种海量图像条件下的快速目标场景信息提取方法 |
CN116310943B (zh) * | 2023-01-04 | 2023-09-19 | 三峡高科信息技术有限责任公司 | 一种感知工人安全状况的方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012026982A (ja) * | 2010-07-27 | 2012-02-09 | Panasonic Electric Works Sunx Co Ltd | 検査装置 |
WO2016155564A1 (zh) * | 2015-04-02 | 2016-10-06 | 腾讯科技(深圳)有限公司 | 卷积神经网络模型的训练方法及装置 |
JP2017091525A (ja) * | 2015-11-03 | 2017-05-25 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 視覚質問応答用の注目に基づく設定可能な畳み込みニューラルネットワーク(abc−cnn)のシステム及び方法 |
WO2017155691A1 (en) * | 2016-03-11 | 2017-09-14 | Nec Laboratories America, Inc. | Deep deformation network for object landmark localization |
JP2017162438A (ja) * | 2016-03-11 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 危険予測方法 |
JP2017162456A (ja) * | 2016-03-11 | 2017-09-14 | 株式会社東芝 | 道路シーンのセマンティックセグメンテーションのための制約付きデコンボリューションネットワークのトレーニング |
WO2017158058A1 (en) * | 2016-03-15 | 2017-09-21 | Imra Europe Sas | Method for classification of unique/rare cases by reinforcement learning in neural networks |
JP2017182129A (ja) * | 2016-03-28 | 2017-10-05 | ソニー株式会社 | 情報処理装置。 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7804980B2 (en) * | 2005-08-24 | 2010-09-28 | Denso Corporation | Environment recognition device |
EP3032454B1 (en) * | 2014-12-10 | 2018-09-26 | Honda Research Institute Europe GmbH | Method and system for adaptive ray based scene analysis of semantic traffic spaces and vehicle equipped with such system |
US20170206426A1 (en) * | 2016-01-15 | 2017-07-20 | Ford Global Technologies, Llc | Pedestrian Detection With Saliency Maps |
CN107180220B (zh) * | 2016-03-11 | 2023-10-31 | 松下电器(美国)知识产权公司 | 危险预测方法 |
US20170293837A1 (en) * | 2016-04-06 | 2017-10-12 | Nec Laboratories America, Inc. | Multi-Modal Driving Danger Prediction System for Automobiles |
US9760806B1 (en) * | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
AU2017283549A1 (en) * | 2016-06-13 | 2019-01-24 | Xevo Inc. | Method and system for providing behavior of vehicle operator using virtuous cycle |
CN110832474B (zh) * | 2016-12-30 | 2023-09-15 | 辉达公司 | 更新高清地图的方法 |
CN106611169B (zh) * | 2016-12-31 | 2018-10-23 | 中国科学技术大学 | 一种基于深度学习的危险驾驶行为实时检测方法 |
US10558864B2 (en) * | 2017-05-18 | 2020-02-11 | TuSimple | System and method for image localization based on semantic segmentation |
CN107226087B (zh) * | 2017-05-26 | 2019-03-26 | 西安电子科技大学 | 一种结构化道路自动驾驶运输车及控制方法 |
US20180370502A1 (en) * | 2017-06-27 | 2018-12-27 | Dura Operating, Llc | Method and system for autonomous emergency self-learning braking for a vehicle |
-
2017
- 2017-12-07 EP EP17206055.0A patent/EP3495992A1/en active Pending
-
2018
- 2018-12-06 JP JP2018228967A patent/JP7217138B2/ja active Active
- 2018-12-07 US US16/213,337 patent/US11281941B2/en active Active
- 2018-12-07 CN CN201811493457.5A patent/CN110008978A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012026982A (ja) * | 2010-07-27 | 2012-02-09 | Panasonic Electric Works Sunx Co Ltd | 検査装置 |
WO2016155564A1 (zh) * | 2015-04-02 | 2016-10-06 | 腾讯科技(深圳)有限公司 | 卷积神经网络模型的训练方法及装置 |
JP2017091525A (ja) * | 2015-11-03 | 2017-05-25 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 視覚質問応答用の注目に基づく設定可能な畳み込みニューラルネットワーク(abc−cnn)のシステム及び方法 |
WO2017155691A1 (en) * | 2016-03-11 | 2017-09-14 | Nec Laboratories America, Inc. | Deep deformation network for object landmark localization |
JP2017162438A (ja) * | 2016-03-11 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 危険予測方法 |
JP2017162456A (ja) * | 2016-03-11 | 2017-09-14 | 株式会社東芝 | 道路シーンのセマンティックセグメンテーションのための制約付きデコンボリューションネットワークのトレーニング |
WO2017158058A1 (en) * | 2016-03-15 | 2017-09-21 | Imra Europe Sas | Method for classification of unique/rare cases by reinforcement learning in neural networks |
JP2017182129A (ja) * | 2016-03-28 | 2017-10-05 | ソニー株式会社 | 情報処理装置。 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7492490B2 (ja) | 2020-06-25 | 2024-05-29 | アクシス アーベー | オブジェクト認識ニューラルネットワークの訓練 |
KR102490011B1 (ko) * | 2022-07-19 | 2023-01-19 | 주식회사 라이드플럭스 | 로드 유저 예측 기반 자율주행 차량의 주행 계획 결정방법, 장치 및 컴퓨터프로그램 |
Also Published As
Publication number | Publication date |
---|---|
US11281941B2 (en) | 2022-03-22 |
JP7217138B2 (ja) | 2023-02-02 |
US20190180144A1 (en) | 2019-06-13 |
EP3495992A1 (en) | 2019-06-12 |
CN110008978A (zh) | 2019-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7217138B2 (ja) | エンドツーエンド深層ニューラルネットワークを使用する危険ランク付け | |
Guo et al. | Is it safe to drive? An overview of factors, metrics, and datasets for driveability assessment in autonomous driving | |
Quan et al. | Holistic LSTM for pedestrian trajectory prediction | |
Roy et al. | Detection of collision-prone vehicle behavior at intersections using siamese interaction lstm | |
Yang et al. | Crossing or not? Context-based recognition of pedestrian crossing intention in the urban environment | |
Rasouli et al. | Bifold and semantic reasoning for pedestrian behavior prediction | |
WO2021097229A1 (en) | Parametric top-view representation of complex road scenes | |
Saleh et al. | Contextual recurrent predictive model for long-term intent prediction of vulnerable road users | |
Sharma et al. | Pedestrian intention prediction for autonomous vehicles: A comprehensive survey | |
Shreyas et al. | Self-driving cars: An overview of various autonomous driving systems | |
Kolekar et al. | Behavior prediction of traffic actors for intelligent vehicle using artificial intelligence techniques: A review | |
Sachdeva et al. | Rank2tell: A multimodal driving dataset for joint importance ranking and reasoning | |
Chen et al. | Psi: A pedestrian behavior dataset for socially intelligent autonomous car | |
Gite et al. | Early anticipation of driver’s maneuver in semiautonomous vehicles using deep learning | |
Zhang et al. | St crossingpose: A spatial-temporal graph convolutional network for skeleton-based pedestrian crossing intention prediction | |
Zhang et al. | Pedestrian Behavior Prediction Using Deep Learning Methods for Urban Scenarios: A Review | |
Baluja et al. | Dynamic relevance: Vision-based focus of attention using artificial neural networks | |
Benrachou et al. | Use of social interaction and intention to improve motion prediction within automated vehicle framework: A review | |
Kastner et al. | Task-based environment interpretation and system architecture for next generation ADAS | |
Salzmann et al. | Robots that can see: Leveraging human pose for trajectory prediction | |
Iqbal et al. | Modeling perception in autonomous vehicles via 3d convolutional representations on lidar | |
Olier et al. | Dynamic representations for autonomous driving | |
US20230169313A1 (en) | Method for Determining Agent Trajectories in a Multi-Agent Scenario | |
Khosroshahi | Learning, classification and prediction of maneuvers of surround vehicles at intersections using lstms | |
Dianov et al. | Generating compact models for traffic scenarios to estimate driver behavior using semantic reasoning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20201027 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20201102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20201027 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20210422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210810 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230123 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7217138 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |