JP2021516817A - 目標対象の運動の向きを予測するための方法、車両制御方法及び装置 - Google Patents
目標対象の運動の向きを予測するための方法、車両制御方法及び装置 Download PDFInfo
- Publication number
- JP2021516817A JP2021516817A JP2020550616A JP2020550616A JP2021516817A JP 2021516817 A JP2021516817 A JP 2021516817A JP 2020550616 A JP2020550616 A JP 2020550616A JP 2020550616 A JP2020550616 A JP 2020550616A JP 2021516817 A JP2021516817 A JP 2021516817A
- Authority
- JP
- Japan
- Prior art keywords
- target object
- appearance
- image
- angle section
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 127
- 238000013528 artificial neural network Methods 0.000 claims abstract description 143
- 238000003384 imaging method Methods 0.000 claims abstract description 133
- 238000012549 training Methods 0.000 claims abstract description 56
- 238000004590 computer program Methods 0.000 claims abstract description 27
- 239000011159 matrix material Substances 0.000 claims description 51
- 230000009466 transformation Effects 0.000 claims description 47
- 230000008569 process Effects 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 10
- 241001465754 Metazoa Species 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
画像における目標対象が含まれる画像ブロックを、第1ニューラルネットワークに提供して外見向きの検出を行い、画像における目標対象の外見向きを取得することを含む。
画像を、目標対象の外接枠を検出するための第2ニューラルネットワークに提供し、画像における目標対象の外接枠を取得することと、
取得された目標対象の外接枠に基づいて、画像に対して分割処理を行い、目標対象が含まれる画像ブロックを取得することと、を含む。
目標対象を含むサンプル画像ブロックを取得することと、
訓練対象である第1ニューラルネットワークによって、サンプル画像ブロックに対して外見向きを検出し、サンプル画像ブロックにおける目標対象の外見向きを取得することと、
取得された目標対象の外見向きとサンプル画像ブロックの外見向きのアノテーション情報との差異をガイダンス情報として、訓練対象である第1ニューラルネットワークに対して教師あり学習を行うこととを含む。
真前方角度区間、左前方角度区間、真左方角度区間、左後方角度区間、真後方角度区間、右後方角度区間、真右方角度区間及び右前方角度区間のうちの少なくとも1つを含むが、これらに限定されない。
第1ニューラルネットワークから出力された目標対象の外見向きの所属角度区間の中心角度は、目標対象の外見向きとして用いられる。
射影変換行列は、画像における複数の特徴点の画像における座標に基づいて、ホモグラフィ行列関数を解いて取得される射影変換行列を含む。
射影変換行列に基づいて、画像における目標対象の位置を三次元空間における目標対象の位置に変換することと、
三次元空間における撮像装置の位置を決定することと、
三次元空間に位置する目標対象と撮像装置の位置を連結し、位置の連結線と撮像装置の運動の向きの法線との夾角を決定することとを含む。
射影変換行列に基づいて、画像における第1線に位置する第1点及び第2点、画像における第2線に位置する第3点及び第4点をそれぞれ三次元空間内に変換することと、
三次元空間における第1点及び第2点で形成される線と、三次元空間における第3点及び第4点で形成される線との交差点を三次元空間における撮像装置の位置として用いることとを含む。
三次元空間における目標対象の位置と三次元空間における撮像装置の位置との連結線と、撮像装置の運動の向きの法線との、夾角を含む。
ただし、αは、目標対象の外見向きであり、目標対象の撮像方向と目標対象の真右方との反時計回り方向の夾角と表現されてもよく、その単位は、度である。βは、目標対象と撮像装置との三次元空間における相対的位置関係であり、三次元空間における目標対象の位置と三次元空間における撮像装置の位置との連結線と、撮像装置の運動の向きの法線との、夾角と表現されてもよく、その単位は、度である。上記式(1)によれば、撮像装置の進行方向に対する目標対象の運動の向きの角度θを算出することができる。例えば、図7に示すように、歩行者Bは、目標対象の撮像方向と目標対象の真右方との反時計回り方向の夾角αが225度であり、目標対象と撮像装置との三次元空間における相対的位置関係βが45度であることが得られ、式(1)に代入して計算すると、θ=225°+45°+90°=360°を得る。この場合、歩行者Bが右へ行くと予測する。
取得された、撮像装置の進行方向に対する目標対象の運動の向きに基づいて、撮像装置が搭載されている物体(例えば、車両、飛行体、船舶又はロボット)を制御するための命令又は警報アラート情報を生成することを更に含み、例えば、増速命令、降速命令、急ブレーキ命令、ある方位に関する注意喚起アラート情報又は衝突回避警報アラート情報などが挙げられる。本出願は、撮像装置の進行方向に対する目標対象の運動の向きに基づいて命令又は警報アラート情報を生成するための具体的実現形態を限定しない。
訓練対象である第1ニューラルネットワークから出力される情報は、目標対象の外見向きの角度区間を表す情報、又は、目標対象の外見向きの角度を表す情報を含む。
真前方角度区間、左前方角度区間、真左方角度区間、左後方角度区間、真後方角度区間、右後方角度区間、真右方角度区間及び右前方角度区間のうちの少なくとも1つを含む。
Claims (45)
- 目標対象の運動の向きを予測するための方法であって、
撮像装置により撮像された画像における目標対象の外見向きを取得し、前記画像における目標対象と前記撮像装置との三次元空間における相対的位置関係を取得することと、
前記目標対象の外見向き及び前記相対的位置関係に基づいて、前記撮像装置の進行方向に対する前記目標対象の運動の向きを決定することと、を含むことを特徴とする、目標対象の運動の向きを予測するための方法。 - 前記撮像装置は、物体に搭載されている撮像装置を含み、前記撮像装置の進行方向は、物体の進行方向であり、前記物体は、車両、飛行体、船舶又はロボットを含むことを特徴とする、
請求項1に記載の方法。 - 前記画像は、フレームの抽出で、前記撮像装置により撮像されたビデオから抽出されたビデオフレームを含むことを特徴とする、
請求項1から2のいずれか一項に記載の方法。 - 前記目標対象は、歩行者、動物、軽車両又は障害物を含むことを特徴とする、
請求項1から3のいずれか一項に記載の方法。 - 撮像装置により撮像された画像における目標対象の外見向きを取得することは、
前記画像における前記目標対象が含まれる画像ブロックを、第1ニューラルネットワークに提供して外見向きの検出を行い、前記画像における目標対象の外見向きを取得することを含むことを特徴とする、
請求項1から4のいずれか一項に記載の方法。 - 前記画像ブロックの生成方式は、
前記画像を、目標対象の外接枠を検出するための第2ニューラルネットワークに提供し、前記画像における目標対象の外接枠を取得することと、
前記取得された目標対象の外接枠に基づいて、前記画像に対して分割処理を行い、前記目標対象が含まれる画像ブロックを取得することと、を含むことを特徴とする、
請求項5に記載の方法。 - 前記第1ニューラルネットワークは、訓練画像集合によって予め訓練されたものであり、前記訓練画像集合に目標対象の外見向きのアノテーション情報が含まれることを特徴とする、
請求項5から6のいずれか一項に記載の方法。 - 前記第1ニューラルネットワークの訓練過程は、
目標対象を含むサンプル画像ブロックを取得することと、
訓練対象である第1ニューラルネットワークによって、前記サンプル画像ブロックに対して外見向きを検出し、前記サンプル画像ブロックにおける目標対象の外見向きを取得することと、
前記取得された目標対象の外見向きとサンプル画像ブロックの外見向きのアノテーション情報との差異をガイダンス情報として、前記訓練対象である第1ニューラルネットワークに対して教師あり学習を行うこととを含むことを特徴とする、
請求項7に記載の方法。 - 前記外見向きのアノテーション情報は、外見向きの所属角度区間のアノテーション情報又は外見向きの角度のアノテーション情報を含み、
前記訓練対象である第1ニューラルネットワークから出力される情報は、目標対象の外見向きの所属角度区間を表す情報、又は、目標対象の外見向きの角度を表す情報を含むことを特徴とする、
請求項7から8のいずれか一項に記載の方法。 - 前記角度区間は、
真前方角度区間、左前方角度区間、真左方角度区間、左後方角度区間、真後方角度区間、右後方角度区間、真右方角度区間及び右前方角度区間のうちの少なくとも1つを含むことを特徴とする、
請求項9に記載の方法。 - 前記第1ニューラルネットワークから出力された目標対象の外見向きの所属角度区間におけるいずれか1つの角度は、目標対象の外見向きとして用いられるか、又は、
前記第1ニューラルネットワークから出力された目標対象の外見向きの所属角度区間の中心角度は、目標対象の外見向きとして用いられることを特徴とする、
請求項5から10のいずれか一項に記載の方法。 - 前記画像における目標対象と前記撮像装置との三次元空間における相対的位置関係を取得することは、
射影変換行列に基づいて、画像における前記目標対象の位置を三次元空間における前記目標対象の位置に変換することと、
三次元空間における前記撮像装置の位置を決定することと、
前記三次元空間に位置する目標対象と撮像装置の位置を連結し、前記位置の連結線と前記撮像装置の運動の向きの法線との夾角を決定することとを含むことを特徴とする、
請求項1から11のいずれか一項に記載の方法。。 - 前記三次元空間における前記撮像装置の位置を決定することは、
前記射影変換行列に基づいて、前記画像における第1線に位置する第1点及び第2点、前記画像における第2線に位置する第3点及び第4点をそれぞれ前記三次元空間内に変換することと、
前記三次元空間における第1点及び第2点で形成される線と、前記三次元空間における第3点及び第4点で形成される線との交差点を前記三次元空間における前記撮像装置の位置として用いることとを含み、
ここで、前記画像における第1線と第2線は相互平行し、かつそれぞれ水平方向に垂直することを特徴とする、
請求項12に記載の方法。 - 前記射影変換行列は、撮像装置を予めキャリブレーションして形成される射影変換行列を含むか、又は、
前記射影変換行列は、前記画像における複数の特徴点の画像における座標に基づいて、ホモグラフィ行列関数を解いて取得される射影変換行列を含むことを特徴とする、
請求項12又は13に記載の方法。 - 前記特徴点は、道路区画線における点を含むことを特徴とする、
請求項14に記載の方法。 - 前記目標対象の外見向き及び前記相対的位置関係に基づいて、前記撮像装置の進行方向に対する前記目標対象の運動の向きを決定することは、
前記目標対象の外見向き、及び三次元空間における撮像装置に対する前記目標対象の方位に基づいて、前記撮像装置の進行方向に対する前記目標対象の運動の向きを決定することを含むことを特徴とする、
請求項12から15のいずれか一項に記載の方法。 - 前記方法は、
前記撮像装置の進行方向に対する前記目標対象の運動の向きに基づいて、前記撮像装置が搭載されている物体を制御するための命令又は警報アラート情報を生成することを更に含み、前記物体は、車両、飛行体、船舶又はロボットを含むことを特徴とする、
請求項1から16のいずれか一項に記載の方法。 - ニューラルネットワーク訓練方法であって、
人体が含まれるサンプル画像ブロックの画像特徴を取得することと、
訓練対象である第1ニューラルネットワークによって、前記画像特徴に基づいて、前記人体の人体輪郭キーポイント予測結果を取得することと、
前記人体輪郭キーポイント予測結果と人体輪郭キーポイントアノテーション情報との差異をガイダンス情報として、前記訓練対象である第1ニューラルネットワークに対して教師あり学習を行うこととを含むことを特徴とする、ニューラルネットワーク訓練方法。 - 前記外見向きのアノテーション情報は、外見向きの角度区間のアノテーション情報又は外見向きの角度のアノテーション情報を含み、
前記訓練対象である第1ニューラルネットワークから出力される情報は、目標対象の外見向きの角度区間を表す情報、又は、目標対象の外見向きの角度を表す情報を含むことを特徴とする、
請求項18に記載の方法。 - 前記角度区間は、
真前方角度区間、左前方角度区間、真左方角度区間、左後方角度区間、真後方角度区間、右後方角度区間、真右方角度区間及び右前方角度区間のうちの少なくとも1つを含むことを特徴とする、
請求項19に記載の方法。 - 車両インテリジェント制御方法であって、
撮像装置により撮像された画像における目標対象の外見向きを取得し、前記画像における目標対象と前記撮像装置との三次元空間における相対的位置関係を取得することと、
前記目標対象の外見向き及び前記相対的位置関係に基づいて、前記撮像装置の進行方向に対する前記目標対象の運動の向きを決定することと、
前記撮像装置の進行方向に対する前記目標対象の運動の向きに基づいて、前記撮像装置が搭載されている車両を制御するための命令又は警報アラート情報を生成することと、を含むことを特徴とする、車両インテリジェント制御方法。 - 目標対象の運動の向きを予測するための装置であって、
撮像装置により撮像された画像における目標対象の外見向きを取得し、前記画像における目標対象と前記撮像装置との三次元空間における相対的位置関係を取得するように構成される第1取得モジュールと、
前記目標対象の外見向き及び前記相対的位置関係に基づいて、前記撮像装置の進行方向に対する前記目標対象の運動の向きを決定するように構成される向き決定モジュールと、を備えることを特徴とする、目標対象の運動の向きを予測するための装置。 - 前記撮像装置は、物体に搭載されている撮像装置を含み、前記撮像装置の進行方向は、物体の進行方向であり、前記物体は、車両、飛行体、船舶又はロボットを含むことを特徴とする、
請求項22に記載の装置。 - 前記画像は、フレームの抽出で、前記撮像装置により撮像されたビデオから抽出されたビデオフレームを含むことを特徴とする、
請求項22又は23に記載の装置。 - 前記目標対象は、歩行者、動物、軽車両又は障害物を含むことを特徴とする、
請求項22から24のいずれか一項に記載の装置。 - 前記第1取得モジュールは更に、前記画像における前記目標対象が含まれる画像ブロックを、第1ニューラルネットワークに提供して外見向きの検出を行い、前記画像における目標対象の外見向きを取得するように構成されることを特徴とする、
請求項22から25のいずれか一項に記載の装置。 - 前記装置は、
前記画像を、目標対象の外接枠を検出するための第2ニューラルネットワークに提供し、前記画像における目標対象の外接枠を取得し、
前記取得された目標対象の外接枠に基づいて、前記画像に対して分割処理を行い、前記目標対象が含まれる画像ブロックを取得するように構成される画像ブロック生成モジュールを更に備えることを特徴とする、
請求項26に記載の装置。 - 前記第1ニューラルネットワークは、ニューラルネットワーク訓練装置が訓練画像集合によって予め訓練したものであり、前記訓練画像集合に目標対象の外見向きのアノテーション情報が含まれることを特徴とする、
請求項26から27のいずれか一項に記載の装置。 - 前記第1ニューラルネットワーク訓練装置は、
目標対象を含むサンプル画像ブロックを取得するように構成される第2取得モジュールと、
訓練対象である第1ニューラルネットワークによって、前記サンプル画像ブロックに対して外見向きを検出し、前記サンプル画像ブロックにおける目標対象の外見向きを取得するように構成される第3取得モジュールと、
前記取得された目標対象の外見向きとサンプル画像ブロックの外見向きのアノテーション情報との差異をガイダンス情報として、前記訓練対象である第1ニューラルネットワークに対して教師あり学習を行うように構成される教師あり学習モジュールとを備えることを特徴とする、
請求項28に記載の装置。 - 前記外見向きのアノテーション情報は、外見向きの所属角度区間のアノテーション情報又は外見向きの角度のアノテーション情報を含み、
前記訓練対象である第1ニューラルネットワークから出力される情報は、目標対象の外見向きの所属角度区間を表す情報、又は、目標対象の外見向きの角度を表す情報を含むことを特徴とする、
請求項28又は29に記載の装置。 - 前記角度区間は、
真前方角度区間、左前方角度区間、真左方角度区間、左後方角度区間、真後方角度区間、右後方角度区間、真右方角度区間及び右前方角度区間のうちの少なくとも1つを含むことを特徴とする、
請求項30に記載の装置。 - 前記第1ニューラルネットワークから出力された目標対象の外見向きの所属角度区間におけるいずれか1つの角度は、目標対象の外見向きとして用いられるか、又は、
前記第1ニューラルネットワークから出力された目標対象の外見向きの所属角度区間の中心角度は、目標対象の外見向きとして用いられることを特徴とする、
請求項27から31のいずれか一項に記載の装置。 - 前記第1取得モジュールは、
射影変換行列に基づいて、画像における前記目標対象の位置を三次元空間における前記目標対象の位置に変換するように構成される第1サブモジュールと、
三次元空間における前記撮像装置の位置を決定するように構成される第2サブモジュールと、
前記三次元空間に位置する目標対象と撮像装置の位置を連結し、前記位置の連結線と前記撮像装置の運動の向きの法線との夾角を決定するように構成される第3サブモジュールとを備えることを特徴とする、
請求項21から32のいずれか一項に記載の装置。。 - 前記第2サブモジュールは更に、
前記射影変換行列に基づいて、前記画像における第1線に位置する第1点及び第2点、前記画像における第2線に位置する第3点及び第4点をそれぞれ前記三次元空間内に変換し、
前記三次元空間における第1点及び第2点で形成される線と、前記三次元空間における第3点及び第4点で形成される線との交差点を前記三次元空間における前記撮像装置の位置として用いるように構成され、
ここで、前記画像における第1線と第2線は相互平行し、かつそれぞれ水平方向に垂直することを特徴とする、
請求項33に記載の装置。 - 前記射影変換行列は、撮像装置を予めキャリブレーションして形成される射影変換行列を含むか、又は、
前記射影変換行列は、前記画像における複数の特徴点の画像における座標に基づいて、ホモグラフィ行列関数を解いて取得される射影変換行列を含むことを特徴とする、
請求項32又は33に記載の装置。 - 前記特徴点は、道路区画線における点を含むことを特徴とする、
請求項35に記載の装置。 - 前記向き決定モジュールは、前記目標対象の外見向き、及び三次元空間における撮像装置に対する前記目標対象の方位に基づいて、前記撮像装置の進行方向に対する前記目標対象の運動の向きを決定するように構成されることを特徴とする、
請求項33から36のいずれか一項に記載の装置。 - 前記装置は、
前記撮像装置の進行方向に対する前記目標対象の運動の向きに基づいて、前記撮像装置が搭載されている物体を制御するための命令又は警報アラート情報を生成するように構成されるインテリジェント制御モジュールを更に備え、前記物体は、車両、飛行体、船舶又はロボットを含むことを特徴とする、
請求項22から37のいずれか一項に記載の装置。 - ニューラルネットワーク訓練装置であって、
目標対象を含むサンプル画像ブロックを取得するように構成される第2取得モジュールと、
訓練対象である第1ニューラルネットワークによって、前記サンプル画像ブロックに対して外見向きを検出し、前記サンプル画像ブロックにおける目標対象の外見向きを取得するように構成される第3取得モジュールと、
前記取得された目標対象の外見向きとサンプル画像ブロックの外見向きのアノテーション情報との差異をガイダンス情報として、前記訓練対象である第1ニューラルネットワークに対して、教師あり学習を行うように構成される教師あり学習モジュールとを備えることを特徴とする、ニューラルネットワーク訓練装置。 - 前記外見向きのアノテーション情報は、外見向きの所属角度区間のアノテーション情報又は外見向きの角度のアノテーション情報を含み、
前記訓練対象である第1ニューラルネットワークから出力される情報は、目標対象の外見向きの所属角度区間を表す情報、又は、目標対象の外見向きの角度を表す情報を含むことを特徴とする、
請求項39に記載の装置。 - 前記角度区間は、
真前方角度区間、左前方角度区間、真左方角度区間、左後方角度区間、真後方角度区間、右後方角度区間、真右方角度区間及び右前方角度区間のうちの少なくとも1つを含むことを特徴とする、
請求項40に記載の装置。 - 車両インテリジェント制御装置であって、
撮像装置により撮像された画像における目標対象の外見向きを取得し、前記画像における目標対象と前記撮像装置との三次元空間における相対的位置関係を取得するように構成される第1取得モジュールと、
前記目標対象の外見向き及び前記相対的位置関係に基づいて、前記撮像装置の進行方向に対する前記目標対象の運動の向きを決定するように構成される向き決定モジュールと、
前記撮像装置の進行方向に対する前記目標対象の運動の向きに基づいて、前記撮像装置が搭載されている車両を制御するための命令又は警報アラート情報を生成するように構成されるインテリジェント制御モジュールと、を備えることを特徴とする、車両インテリジェント制御装置。 - 電子機器であって、
コンピュータプログラムを記憶するように構成されるメモリと、
前記メモリに記憶されているコンピュータプログラムを実行し、前記コンピュータプログラムが実行される場合、請求項1から21のいずれか一項に記載の方法を実現するように構成されるプロセッサと備える、電子機器。 - コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、該コンピュータプログラムがプロセッサにより実行される場合、請求項1から21のいずれか一項に記載の方法を実現する、コンピュータ可読記憶媒体。
- コンピュータコマンドを含むコンピュータプログラムであって、前記コンピュータコマンドが装置のプロセッサにおいて実行される場合、請求項1から21のいずれか一項に記載の方法を実現する、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810247961.0 | 2018-03-23 | ||
CN201810247961.0A CN108416321A (zh) | 2018-03-23 | 2018-03-23 | 用于预测目标对象运动朝向的方法、车辆控制方法及装置 |
PCT/CN2019/078886 WO2019179464A1 (zh) | 2018-03-23 | 2019-03-20 | 用于预测目标对象运动朝向的方法、车辆控制方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021516817A true JP2021516817A (ja) | 2021-07-08 |
JP7101255B2 JP7101255B2 (ja) | 2022-07-14 |
Family
ID=63133339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020550616A Active JP7101255B2 (ja) | 2018-03-23 | 2019-03-20 | 目標対象の運動の向きを予測するための方法、車両制御方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11710243B2 (ja) |
JP (1) | JP7101255B2 (ja) |
CN (1) | CN108416321A (ja) |
WO (1) | WO2019179464A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
CN108416321A (zh) | 2018-03-23 | 2018-08-17 | 北京市商汤科技开发有限公司 | 用于预测目标对象运动朝向的方法、车辆控制方法及装置 |
CN111079477A (zh) * | 2018-10-19 | 2020-04-28 | 北京奇虎科技有限公司 | 监控分析方法及监控分析系统 |
CN111079473B (zh) * | 2018-10-19 | 2024-08-02 | 北京奇虎科技有限公司 | 性别识别方法、装置、电子设备及计算机可读存储介质 |
CN111292350B (zh) * | 2018-12-10 | 2024-03-01 | 北京京东乾石科技有限公司 | 目标朝向的优化算法、系统、电子设备及存储介质 |
US11782158B2 (en) * | 2018-12-21 | 2023-10-10 | Waymo Llc | Multi-stage object heading estimation |
CN109878512A (zh) * | 2019-01-15 | 2019-06-14 | 北京百度网讯科技有限公司 | 自动驾驶控制方法、装置、设备及计算机可读存储介质 |
CN109758756B (zh) * | 2019-02-28 | 2021-03-23 | 国家体育总局体育科学研究所 | 基于3d相机的体操视频分析方法及系统 |
CN111756990B (zh) * | 2019-03-29 | 2022-03-01 | 阿里巴巴集团控股有限公司 | 一种图像传感器控制方法、装置及系统 |
CN110059623B (zh) * | 2019-04-18 | 2021-06-11 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN112017239B (zh) * | 2019-05-31 | 2022-12-20 | 北京市商汤科技开发有限公司 | 确定目标对象朝向方法、智能驾驶控制方法和装置及设备 |
CN110239529A (zh) * | 2019-06-28 | 2019-09-17 | 北京海益同展信息科技有限公司 | 车辆控制方法、装置及计算机可读存储介质 |
CN111192327B (zh) * | 2020-01-03 | 2023-09-29 | 北京百度网讯科技有限公司 | 用于确定障碍物朝向的方法和装置 |
US11586843B1 (en) * | 2020-03-26 | 2023-02-21 | Ambarella International Lp | Generating training data for speed bump detection |
CN111845554A (zh) * | 2020-06-03 | 2020-10-30 | 北京中科慧眼科技有限公司 | 一种基于双目立体相机的行人碰撞预警方法和装置 |
EP3958167B1 (en) * | 2020-08-21 | 2024-03-20 | Toyota Jidosha Kabushiki Kaisha | A method for training a neural network to deliver the viewpoints of objects using unlabeled pairs of images, and the corresponding system |
CN112289040B (zh) * | 2020-11-25 | 2022-08-19 | 浙江大华技术股份有限公司 | 一种车辆行驶方向识别的方法、装置及存储介质 |
CN112669335A (zh) * | 2021-01-27 | 2021-04-16 | 东软睿驰汽车技术(沈阳)有限公司 | 车辆感知方法、装置、电子设备以及机器可读存储介质 |
CN112668563B (zh) * | 2021-03-16 | 2021-06-04 | 智道网联科技(北京)有限公司 | 一种基于视频图像实现移动轨迹推算的方法及相关装置 |
WO2022211995A1 (en) * | 2021-03-30 | 2022-10-06 | Carnegie Mellon University | System and method for using non-axis aligned bounding boxes for retail detection |
CN113256625A (zh) * | 2021-06-29 | 2021-08-13 | 北京天星博迈迪医疗器械有限公司 | 一种电子设备和识别装置 |
CN113435350A (zh) * | 2021-06-30 | 2021-09-24 | 浙江大华技术股份有限公司 | 一种交通标线检测方法、装置、设备和介质 |
CN114820865B (zh) * | 2022-03-24 | 2024-09-03 | 深圳拓邦股份有限公司 | 一种智能割草机构图方法、装置、电子设备及存储介质 |
CN115412709B (zh) * | 2022-07-26 | 2023-11-10 | 广州汽车集团股份有限公司 | 投影方法、装置、车辆及存储介质 |
CN115331174B (zh) * | 2022-08-19 | 2023-06-13 | 中国安全生产科学研究院 | 一种企业安全生产标准化智能监管系统及方法 |
CN118254736A (zh) * | 2024-01-29 | 2024-06-28 | 重庆大学 | 一种面向弱势道路使用者复杂工况下的自动紧急制动方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006202047A (ja) * | 2005-01-20 | 2006-08-03 | Toyota Motor Corp | 移動物体検出装置及び移動物体検出方法 |
JP2014059841A (ja) * | 2012-09-19 | 2014-04-03 | Daimler Ag | 運転支援装置 |
CN107194938A (zh) * | 2017-04-17 | 2017-09-22 | 上海大学 | 基于深度卷积神经网络的图像轮廓检测方法 |
CN107767419A (zh) * | 2017-11-07 | 2018-03-06 | 广州深域信息科技有限公司 | 一种人体骨骼关键点检测方法及装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4561346B2 (ja) * | 2004-12-08 | 2010-10-13 | 株式会社豊田中央研究所 | 車両運動推定装置及び移動体検出装置 |
US8498448B2 (en) * | 2011-07-15 | 2013-07-30 | International Business Machines Corporation | Multi-view object detection using appearance model transfer from similar scenes |
US9733350B2 (en) * | 2014-07-03 | 2017-08-15 | GM Global Technology Operations LLC | Vehicle radar control |
JP6397934B2 (ja) * | 2014-12-19 | 2018-09-26 | 株式会社日立製作所 | 走行制御装置 |
US9877012B2 (en) * | 2015-04-01 | 2018-01-23 | Canon Kabushiki Kaisha | Image processing apparatus for estimating three-dimensional position of object and method therefor |
CN106033615B (zh) * | 2016-05-16 | 2017-09-15 | 北京旷视科技有限公司 | 目标对象运动方向检测方法和装置 |
JP6868805B2 (ja) * | 2016-06-07 | 2021-05-12 | パナソニックIpマネジメント株式会社 | 画像生成装置、画像生成方法、およびプログラム |
CN107563256A (zh) | 2016-06-30 | 2018-01-09 | 北京旷视科技有限公司 | 辅助驾驶信息产生方法及装置、辅助驾驶系统 |
US10007854B2 (en) * | 2016-07-07 | 2018-06-26 | Ants Technology (Hk) Limited | Computer vision based driver assistance devices, systems, methods and associated computer executable code |
CN107122736B (zh) * | 2017-04-26 | 2020-06-12 | 北京邮电大学 | 一种基于深度学习的人体朝向预测方法及装置 |
CN107609486A (zh) * | 2017-08-16 | 2018-01-19 | 中国地质大学(武汉) | 一种车辆前向防撞预警方法及系统 |
CN108416321A (zh) * | 2018-03-23 | 2018-08-17 | 北京市商汤科技开发有限公司 | 用于预测目标对象运动朝向的方法、车辆控制方法及装置 |
-
2018
- 2018-03-23 CN CN201810247961.0A patent/CN108416321A/zh not_active Withdrawn
-
2019
- 2019-03-20 JP JP2020550616A patent/JP7101255B2/ja active Active
- 2019-03-20 WO PCT/CN2019/078886 patent/WO2019179464A1/zh active Application Filing
-
2020
- 2020-09-18 US US17/025,313 patent/US11710243B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006202047A (ja) * | 2005-01-20 | 2006-08-03 | Toyota Motor Corp | 移動物体検出装置及び移動物体検出方法 |
JP2014059841A (ja) * | 2012-09-19 | 2014-04-03 | Daimler Ag | 運転支援装置 |
CN107194938A (zh) * | 2017-04-17 | 2017-09-22 | 上海大学 | 基于深度卷积神经网络的图像轮廓检测方法 |
CN107767419A (zh) * | 2017-11-07 | 2018-03-06 | 广州深域信息科技有限公司 | 一种人体骨骼关键点检测方法及装置 |
Non-Patent Citations (1)
Title |
---|
ARSALAN MOUSAVIAN ET AL.: "3D Bounding Box Estimation Using Deep Learning and Geometry", IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR) 2017, JPN6021046150, 10 April 2017 (2017-04-10), ISSN: 0004646452 * |
Also Published As
Publication number | Publication date |
---|---|
US20210001885A1 (en) | 2021-01-07 |
CN108416321A (zh) | 2018-08-17 |
JP7101255B2 (ja) | 2022-07-14 |
WO2019179464A1 (zh) | 2019-09-26 |
US11710243B2 (en) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7101255B2 (ja) | 目標対象の運動の向きを予測するための方法、車両制御方法及び装置 | |
CN112540671B (zh) | 基于视觉的灵巧机器人系统的远程操作 | |
Ghasemi et al. | Deep learning-based object detection in augmented reality: A systematic review | |
JP7239703B2 (ja) | 領域外コンテキストを用いたオブジェクト分類 | |
JP6364049B2 (ja) | 点群データに基づく車両輪郭検出方法、装置、記憶媒体およびコンピュータプログラム | |
Yu et al. | Vehicle detection and localization on bird's eye view elevation images using convolutional neural network | |
US20210148727A1 (en) | Simulating diverse long-term future trajectories in road scenes | |
CN113228042A (zh) | 自主机器应用中障碍物检测的距离 | |
CN110796692A (zh) | 用于同时定位与建图的端到端深度生成模型 | |
WO2019202397A2 (en) | Vehicle environment modeling with a camera | |
CN113994390A (zh) | 针对自主驾驶应用的使用曲线拟合的地标检测 | |
CN114902295A (zh) | 用于自主驾驶应用的三维路口结构预测 | |
CN113168505A (zh) | 用于自主驾驶机器的基于回归的线检测 | |
CN109214987A (zh) | 从上采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 | |
CN109215067A (zh) | 基于cnn和crf模型生成高分辨率3-d点云 | |
CN112904370A (zh) | 用于激光雷达感知的多视图深度神经网络 | |
CN111091038A (zh) | 训练方法、计算机可读介质和检测消失点的方法及装置 | |
US11842440B2 (en) | Landmark location reconstruction in autonomous machine applications | |
CN113096151B (zh) | 对目标的运动信息进行检测的方法和装置、设备和介质 | |
JP2022132075A (ja) | 自律運転アプリケーションにおけるディープ・ニューラル・ネットワーク知覚のためのグラウンド・トゥルース・データ生成 | |
JP2023088849A (ja) | 自律型システム及びアプリケーションにおける特徴ディスクリプタ・マッピングを使用した単一及びアクロス・センサ物体追跡 | |
CN112639822B (zh) | 一种数据处理方法及装置 | |
US12106528B2 (en) | Generating scene flow labels for point clouds using object labels | |
CN116868239A (zh) | 静态占用跟踪 | |
EP4211651A1 (en) | Efficient three-dimensional object detection from point clouds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200918 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20201119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200918 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20201119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220704 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7101255 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |